Anda di halaman 1dari 286

Control y mejora de la calidad

Prat Bartés, Albert


Tort-Martorell Llabrés, Xavier
Grima Cintas, Pere
Pozueta Fernández, Lourdes
Prólogo

Cuando decidimos escribir este libro, lo hicimos con un objetivo fundamental: satisfacer las
necesidades y expectativas, en cuanto a formación estadística, de los estudiantes de ingeniería y de
todos aquellos técnicos, ingenieros y científicos que quieren utilizar métodos estadísticos para acelerar
la adquisición de conocimientos.
El proceso de detección de estas necesidades y expectativas ha sido largo pero extraordina-
riamente interesante. La principal fuente de información ha sido la experiencia adquirida por los
autores durante las múltiples asesorías realizadas a todo tipo de organismos públicos y privados tanto 7
nacionales como multinacionales. Este contacto intenso con la realidad, además de ser una fuente
inestimable de temas para la investigación teórica y aplicada, permite la obtención de datos reales y la
aplicación de los métodos estadísticos a problemas relevantes para el público a quien se dirige el texto.
En este sentido, el capítulo 1 introduce al lector en la importancia actual de los conceptos de la
calidad total y sitúa el papel de la estadística como uno de los tres pilares en los que se fundamentan
dichos conceptos.
Una de las constataciones realizadas por personajes de la talla de Deming y Juran es que un
porcentaje muy elevado de problemas por mala calidad en la industria y los servicios se pueden resolver
mediante la utilización masiva y sistemática de las herramientas que se explican en el capítulo 2.
Los capítulos 3 y 4 presentan de forma conceptual y resumida los elementos básicos de la
variabilidad y de su medida en la teoría de la probabilidad. Los resultados teóricos de estos dos
capítulos constituyen la base en que se fundamentan los métodos estadísticos descritos en el texto.
Los capítulos 5 y 6 contienen los métodos utilizados para comparar dos o más poblaciones,
tanto para el caso de diseños totalmente aleatorizados como para los diseños en bloques completos
aleatorizados.
En la actualidad, las técnicas de diseño de experimentos, tanto en su versión clásica de diseños
factoriales y factoriales fraccionales, como en su versión de métodos de Taguchi para el diseño de
parámetros en ingeniería de la calidad, son de gran importancia en todo tipo de organizaciones
industriales. A ellas hemos dedicado los capítulos 7, 8, 9 y 10.
Finalmente, otra área de gran interés para el control y la mejora de la calidad es la de control
estadístico de procesos (SPC) que se expone brevemente en el capítulo 11.
Al final de cada grupo temático se proponen una serie de ejercicios que pretenden facilitar la
compresión de los conceptos teóricos.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

El enfoque del libro está también influenciado por las largas conversaciones y el trabajo en
común de algunos de los autores con dos auténticos maestros de la estadística: George E. P. Box y el
difunto William G. Hunter. Compartimos con ellos la idea de mantener al mínimo imprescindible el
aparato matemático utilizado en el texto, e intentar que, a través de la utilización de datos reales, el
lector pueda apreciar toda la complejidad del proceso iterativo de adquisición de conocimientos y en
la resolución de problemas de interés para la industria y los servicios.
Este libro es el resultado de muchos años de experiencia en la enseñanza de la estadística. Esta
experiencia no se limita únicamente a los estudiantes de ingeniería en la Escola Tècnica Superior de
Enginyers Industrials de Barcelona, y a los de la diplomatura de Estadística de la Facultat de
Matemàtiques i Estadística de la Universitat Politècnica de Catalunya, sinó que se extiende a la
enseñanza de la estadística en los múltiples cursos realizados a medida para ingenieros, economistas,
técnicos, etc., en distintas empresas de una gran variedad de campos de actividad.
Desearíamos que nuestro libro satisfaga realmente a nuestros lectores pero, como todo producto
es mejorable, les estimulamos a que nos hagan llegar todo tipo de comentarios y sugerencias que
permitan mejorarlo en ediciones futuras.
Finalmente, deseamos manifestar nuestro agradecimiento a la Universitat Politècnica de
Catalunya, a la cual pertenecemos, por concedernos un premio a la elaboración de material docente que
ha facilitado la elaboración del presente texto, a los becarios Natalia Montolío y Santiago Fernández,
que han colaborado en la recopilación de los problemas y la elaboración de las tablas que figuran en
el libro, así como a Pia Margarit por su trabajo en la edición del primer original.

Albert Prat
Xavier Tort-Martorell
Pere Grima
Lourdes Pozueta

© los autores, 1998; © Edicions UPC, 1998.


Índice

1 El entorno de la calidad total

1.1 Evolución histórica del concepto de control de la calidad . . . . . . . . . . . . . . . . . . . . . . . . . .15


1.1.1 Inspección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16
1.1.2 Control estadístico de procesos (C.E.P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17
1.1.3 Calidad en la etapa de diseño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18
1.2 Mantenimiento, mejora e innovación en la calidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18
1.2.1 Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 9
1.2.2 El ciclo PDCA como estrategia básica de los procesos de mejora continua . . . . . . .20
1.3 Conceptos básicos de la gestión de la calidad total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .21
1.4 Métodos estadísticos en la calidad total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23

2 Herramientas básicas para la mejora de la calidad

2.1 Plantillas para la recogida de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26


2.2 Histogramas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .28
2.3 Diagramas de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .31
2.4 Diagramas causa-efecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .34
2.5 Diagramas bivariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .36
2.6 Estratificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .41
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .42
Apéndice 2A Datos e información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45

3 Causas y medidas de la variabilidad

3.1 Causas de la variabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .47


3.2 Medidas de la variabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49
3.2.1 Variabilidad en una muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .50
3.3 Densidad de probabilidad. Variabilidad en la población . . . . . . . . . . . . . . . . . . . . . . . . . . .50
3.4 Esperanza matemática y varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .51
3.5 Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .52
3.6 Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .53

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

3.7 El caso bivariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .54


3.7.1 Variabilidad muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .54
3.8 Densidades de probabilidad conjunta y densidades marginales . . . . . . . . . . . . . . . . . . . . . .54
3.8.1 Densidades marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .55
3.9 Densidades condicionales e independencia de variables aleatorias . . . . . . . . . . . . . . . . . . .55
3.10 Covarianza y coeficiente de correlación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .56
3.11 Esperanza matemática y varianza de combinaciones lineales de variables aleatorias . . . . .58
3.12 Ejemplo del “helicóptero” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .59
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .62

4 Algunos modelos probabilísticos

4.1 La ley normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .66


4.1.1 Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .68
4.2 La ley binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .70
4.3 Ley de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .72
4.4 Distribución de estadísticos en muestras aleatorias simples de poblaciones normales . . . . .74
4.5 Distribución de Y (σ2 conocida) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .75
4.6 La ley de Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .76
4.7 La ley t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .77
4.8 Distribución de S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .79
4.9 Distribución de Y (σ2 desconocida) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .79
4.10 El caso de dos poblaciones normales independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .80
10
4.11 La ley F-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .81
4.12 Distribución del cociente de dos varianzas muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . .82
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .83

5 Comparación de dos tratamientos

5.1 Caso 1: comparación de dos productos en un proceso de curtido de piel . . . . . . . . . . . . . .85


5.1.1 Planteamiento del problema. Recogida de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . .85
5.1.2 Análisis exploratorio. Formalización del problema . . . . . . . . . . . . . . . . . . . . . . . . . .86
5.1.3 Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .87
5.2 Generalización del caso de la comparación de dos productos para el curtido:
comparación de medias en diseños totalmente ateatorizados . . . . . . . . . . . . . . . . . . . . . . .89
5.3 Caso 2: comparación de dos tratamientos superficiales para lentes . . . . . . . . . . . . . . . . . . .91
5.3.1 Planteamiento. Recogida de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .91
5.3.2 Análisis exploratorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .91
5.3.3 Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .92
5.4 Generalización del caso de la comparación de dos tratamientos superficiales de lentes: . . . . .
comparación de medias en diseños en bloques aleatorizados . . . . . . . . . . . . . . . . . . . . . . .93
5.5 Aleatorización y bloqueo: recapitulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .94
5.6 Contraste de hipótesis. Formalización y limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . .95
5.7 Un análisis alternativo: intervalos de confianza para la diferencia de medias . . . . . . . . . . .97
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .99
Apéndice 5A Test de comparación de medias cuando no puede asumirse la igualdad
de varianzas poblacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .102
Apéndice 5B Pruébelo Ud. mismo. Comparación de dos tipos de helicóptero . . . . . . . . . . . . . . .103

© los autores, 1998; © Edicions UPC, 1998.


π EL ENTORNO DE LA CALIDAD TOTAL

6 Comparación de más de dos tratamientos: análisis de la varianza

6.1 Método gráfico de comparación de medias para poblaciones independientes . . . . . . . . . .106


6.1.1 Ideas básicas para la aplicación del método . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106
6.1.2 Requisitos de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108
6.1.3 Caso de la comparación de procedimientos de montaje. Aplicación del método . .110
6.2 Caso de la comparación de procedimientos de montaje con datos bloqueados.
Hipótesis sobre el modelo de la respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .113
6.2.1 Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .114
6.3 Método clásico de análisis de la varianza. Tabla ANOVA . . . . . . . . . . . . . . . . . . . . . . . . .117
6.3.1 Planteamiento de un caso y cuestiones previas . . . . . . . . . . . . . . . . . . . . . . . . . . . .117
6.3.2 Construcción e interpretación de la tabla ANOVA en diseños
totalmente aleatorizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118
6.3.3 Tabla ANOVA para diseños bloqueados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .121
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .124

7 Diseños factoriales

7.1 Necesidad de la experimentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .127


7.1.1 Avance del conocimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .127
7.1.2 Diferencia entre experimentar y analizar datos existentes . . . . . . . . . . . . . . . . . . . .127
7.1.3 Modelos mecanicistas y empíricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .129 11
7.2 Posibles estrategias experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .130
7.2.1 Estrategia secuencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .130
7.2.2 Diseños factoriales frente a intuición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .131
7.2.3 Concepto de interacción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .133
7.3 Variabilidad de la respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .134
7.3.1 Variabilidad en el sistema de medición de la respuesta . . . . . . . . . . . . . . . . . . . . . .135
7.4 Diseños factoriales con las variables a dos niveles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .135
7.4.1 Diseños factoriales a dos niveles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .136
7.4.2 Matriz de diseño. Construcción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .137
7.4.3 Aleatorización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138
7.4.4 Réplicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .139
7.5 Cálculo de los efectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .140
7.5.1 Cálculo de los efectos a partir del cubo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .140
7.5.2 Algoritmos de cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .142
7.6 Significación de los efectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144
7.6.1 Significación cuando se dispone de réplicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .145
7.6.2 Papel probabilístico normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .147
7.7 Interpretación de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .150
7.7.1 Cálculo de residuos. Diagnosis del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .151
7.8 Diseños a dos niveles bloqueados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .152
Apéndice 7A Relación entre los algoritmos de cálculo y el método de los mínimos cuadrados . .153
Apéndice 7B Papel probabilístico normal para diseños con ocho y dieciséis
experimentos y casos prácticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .155
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .162

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

8 Diseños factoriales fracciónales

8.1 Utilidad y justificaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .165


8.1.1 Justificaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .165
8.2 Ejemplo introductorio. Cinco variables en dieciséis experimentos . . . . . . . . . . . . . . . . . .166
8.2.1 Confusión de los efectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .169
8.3 Construcción de diseños fraccionales y cálculo de las confusiones introducidas . . . . . . . .170
8.3.1 Construcción de diseños fraccionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .170
8.3.2 Cálculo de las confusiones introducidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .171
8.3.3 Concepto de resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172
8.4 Otros diseños fraccionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172
8.4.1 Medias fracciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172
8.4.2 Fracción complementaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .173
8.4.3 Diseños saturados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .175
8.4.4 Diseños intermedios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .177
8.5 Bloqueo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179
8.5. 1 Bloqueo de factoriales completos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179
8.5.2 Ejemplo de proceso químico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .180
8.5.3 Factoriales completos divididos en más de dos bloques . . . . . . . . . . . . . . . . . . . . . .182
8.5.4 Fraccionales divididos en bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
8.6 Tablas de diseños fraccionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .184
8.7 Estrategia secuencial utilizando diseños fraccionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .187
12 8.7.1 Advertencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .188
8.7.2 Fracciones complementarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .188
8.7.3 Efecto bloque al añadir fracciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .191
8.7.4 Adición de experimentos para conseguir clarificaciones puntuales . . . . . . . . . . . . .191
Apéndice 8A Teoría de la proyección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .195
Apéndice 8B Significación de las interacciones de dos factores . . . . . . . . . . . . . . . . . . . . . . . . .196
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .198

9 Introducción a la metodologia de superficie de respuesta

9.1 Introducción. Necesidad de modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .201


9.2 Grado de conocimiento y objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .202
9.3 Estrategias de la metodología de superficie de respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . .203
9.4 Aproximación lineal a las condiciones óptimas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .206
9.5 Aproximación por el camino de máxima pendiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .209
9.6 Aproximación cuadrática. Diseños centrales compuestos . . . . . . . . . . . . . . . . . . . . . . . . . . .212
9.7 Análisis canónico de la superficie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .215
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .221

10 Diseño de productos robustos

10.1 Concepto de producto robusto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .223


10.2 Variabilidad funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .224
10.3 Metodología del diseño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .225
10.4 Diseño de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .226

© los autores, 1998; © Edicions UPC, 1998.


π EL ENTORNO DE LA CALIDAD TOTAL

10.5 Matriz de diseño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .227


10.6 Ejemplo de producto robusto a ruido externo: suavizante . . . . . . . . . . . . . . . . . . . . . . . . .229
10.7 Ejemplo de producto robusto a ruido interno: tubo calefactor . . . . . . . . . . . . . . . . . . . . . .236
10.8 Diseño de tolerancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .238
Apéndice 10A Función de pérdidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .239
Apéndice 10B Método de Taguchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .240
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .242

11 Control estadístico de procesos

11.1 Evolución del CEP y objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .243


11.2 Proceso en estado de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .244
11.2.1 Comportamiento esperado de las observaciones individuales
en un proceso en estado de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .244
11.2.2 Comportamiento de la media de un proceso en estado de control . . . . . . . . . . . . . .246
11.3 ¿Qué es un gráfico de control? Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .247
11.4 Gráficos de control para variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .248
11.4.1 Gráficos X-R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .249
11.4.2 Gráfico de observaciones individuales y gráfico de rangos móviles . . . . . . . . . . . .251
11.4.3 Gráfico de medias móviles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .252
11.4.4 Interpretación de los gráficos de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .252
11.4.5 Estudios de capacidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .255
11.5 Gráficos de control para atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .258 13
11.5.1 Gráfico P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .258
11.5.2 Gráfico NP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .261
11.5.3 Gráfico C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .263
11.5.4 Gráfico U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .265
11.6 Otros gráficos de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .266
11.6.1 Gráfico CUSUM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .266
11.6.2 Gráficos EWMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .269
11.7 El precontrol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .271
11.8 Gráficos de control para observaciones dependientes . . . . . . . . . . . . . . . . . . . . . . . . . . . .272
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .274

Apéndice 1: Tablas estadísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .277

Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .295

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .299

© los autores, 1998; © Edicions UPC, 1998.


Bibliografía

[ABRA64] ABRAMOWITZ, M.; STEGUN, I. Handbook of Mathematical Functions pover. Nueva York, 1964.
[AT&T85] AT & T. Statistical Quality Control Handbook. ASQC, 1985.
[BOX76] BOX, G.; JENKINS, G. Time series analysis forecasting and control. Holden-Day, California, 1976.
[BOX86] BOX, G.; FUNG, C. Studies in Quality Improvement. Minimizing Transmitted Variation by Parametrer
Design. Center for Quality and Productivity Improvement, Report Num. 8, University of Wisconsin-
Madison, 1986.
[BOX87] BOX, G. Empirical Model-Building and Response Surfaces. Draper, Norman Richard, John Wiley &
Sons, Nueva York, 1987.
[BOX88] BOX, GEORGE E.P.; HUNTER, WILLIAM G.; HUNTER, J. STUART. Estadística para investigadores. Reverté, 299
Barcelona, 1988.
[BOX92] BOX, G.E.; KRAMER. Statistical Process Monitoring and Feedback Adjustment. Technometrics, 1992.
[BRIT80] BRITISH STANDARDS INSTITUTION. Guide to Data analysis and quality control using cusum techniques.
1980.
[CHUN68] CHUNG, KAILAI. A course in Probability Theory. Hartcolurt, Brace & world, Inc., Nueva York, 1968.
[DEMI82] DEMING, W. EDWARDS. Out of the Crisis. MIT, Massachussets, 1982.
[DEMI83] DEMING, W. EDWARDS. Quality, Productivity and Competitive Position. MIT Center for Advanced
Engineering Study, Cambridge- Massachussets, 1983.
[DOUG91] DOUGLAS, C.; MONTGOMERY, D.C. Introduction to Statistical Quality Control Second Edition. Wiley, 1991.
[GRIM93] GRIMA, P. Aportaciones metodologicas al diseño de productos robustos. Tesis doctoral. Universitat
Politècnica de Catalunya, 1993.
[HOGG78] HOGG, R.; CRAIG, A. Introduction to mathematical statistics. Macmillian, Nueva York, 1978.
[IMAI86] IMAI, MASAAKI. Kaizen, the key to Japanis competitive success the Random House. Nueva York,
1986.
[ISHI85] ISHIKAWA, KAORU. Guía de control de calidad. Ed. UNIPUB, Nueva York, 1985.
[ISHI85] ISHIKAWA, KAORU. Wath is Total Quality Control? The Japanese way, Prentice-Hall. Inc. Englewood
clidds, Nueva York, 1985.
[JOHN71] JOHN, PET ER. Statistical design and analysis of experiments. The MacMillan Company. Nueva York
(1971)
[JOHN70] JOHNSON, NORMAN; KOTZ, SAMUEL. Distributions in Statistics: Continuous Univariate Distributions 1
and 2. Houghton Mifflin Company, Boston. 1970.
[JURA51] JURAN, J.M. Quality Control Handbook. McGraw-Hill, Nueva York, 1951.
[JURA80] JURAN & GRYNA. Quality Planning and Analysis. McGraw-Hill, 1980.
[JURA90] JURAN, J.M. Juran y la planificación para la calidad. Ed. Díaz de Santos, Barcelona, 1990.
[KACK85] KACKAR, R.N. “Off-Line Quality Control, Parametrer Design, and the Taguchi Method.” Journal of
Quality Technology, vol. 17, Nº 4, 1985.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

[KANO87] KANO, NONAKI. TGC as total Quality Creation. ICGC, Tokyo, 1987.
[KARA91] KARATSU, HAIJME. CTC: La sabiduría japonesa. Ediciones Gestión 2000 S.A., Barcelona, 1991.
[KHUR87] KHURI, A.I; CORNELL, J.A. Response Surfaces. Design and Analyses. Marcel Dekker, Inc. ASGC
Quality Press, 1987.
[LUKA56] LUKACS, E. “Procedings 3d Berkeley Symposium on Mathematical Statistics.” Probabilidad 2, pp.
195-214, 1956.
[MACG90] MACGREGOR, J.F. A Different View of the Funnel Experiment. J.Q.T., 1990.
[MAGH90] MAGHSOODLOO, S. “The Exact Relation of Taguchi’s Signal-to-Noise Ratio to His Quality Loss
Function”. Journal of Quality Technology. vol. 22, nº 1, 1990.
[MILL84] MILLIKEN & JOHNSON. Analysis of Messy Data. vol. 1 Designed Experiments, Van Nostrand Reinhold,
Nueva York, 1984.
[MONT91] MONTGOMERY, D.C.; MASTRANGELO, C.M. Some Statistical Process Control Methods for
Autocorrelated Data Journal of Quality Technology. vol. 23, nº 3, 1991.
[PATE82] PATEL, JAGDISH K.; READ, CAMPBELL B. Handbook of the normal distribution. M. Dekker, Nueva York,
1982.
[PEÑA86] PEÑA, D.; PRAT, A. Cómo controlar la calidad. Manuales IMPL, Ministerio de Industria y Energía,
Madrid, 1986.
[ROSS88] ROSS, P.J. Taguchi Techniques for Quality Engineering. McGraw-Hill, Nueva York, 1988.
[RYAN88] RYAN, T.P. Taguchi’s Approach to Experimental Design: Some Concerns. Quality Progress, 1988.
[SHEW31] SHEWHART, W.A. Economic control of Quality of Manufactured Product. American Society for Q.C,
1931.
[SHOE91] SHOEMAKER, A.C.; TSUI, C.F.; WU, JEFF. “Economical Experimentation Methods for Robust Design”.
Technometrics, vol. 33, nº 4, 1991.
[SNED37] SNEDECOR, G.W. Statistical Methods. Colegiate Press, Ames, Iowa, 1937.
[TAGU86] TAGUCHI, G. Introdution to Quality Engineering: Designing Quality Into Products and Processes.
300 Asian Productivity Organization, Tokyo, 1986.
[TORT85] TORT-MARTORELL, J. Diseños factoriales fraccionales. Aplicación al control de calidad mediante el
diseño de productos y procesos. Tesis doctoral.
Universitat Politècnica de Catalunya, 1985.
[TRIB89] TRIBUS, M.; SZONYI, G. An Alternative View of the Taguchi Approach. Quality Progress, 1989.
[VACH92] VACHETTE, J.L. Mejora contínua de la calidad. Ediciones Ceac, S.A., Barcelona, 1992.
[WU87] WU, C.F.J.; MAO, S.S.; MA, F.S. An Investigation of OA-Based Methods for Parameter Design
Optimitation. Center for Quality and Productivity Improvement, Report Num. 24, University of
Wisconsin-Madison, 1987.

© los autores, 1998; © Edicions UPC, 1998.


Índice alfabético

Aleatorizar 89, 95, 138 Criterio de rotabilidad 212


Algoritmo de Yates 142-144, 153, 154, 176, Cultura de la calidad 21
177, 204 Curvas de nivel 132, 202, 204, 215, 216
Análisis exploratorio de los datos 90, 94, 108, Datos apareados 105
118 inconsistentes 128
Bloque 93-95, 113, 114, 116, 164, 179-183, Densidad 23, 28, 47, 50-52, 54-56, 60, 62, 63,
188, 191-193, 198-200, 210, 212-216 66-68, 74, 76-78, 106, 128, 129, 133, 157
Bloquear 95, 152, 164, 179, 181, 183, 185-187 Densidad condicional 55 295
Brainstorming 35 de probabilidad 23, 28, 47, 50-52, 54-56,
Calidad total 15, 18, 21, 23, 244 60, 63, 66, 68, 74, 76-78
Capacidad 15, 16, 69, 83, 135, 201, 223-225, de probabilidad conjunta 54, 56
254-258, 275, 276 marginal 55
Causa asignable 48, 49, 60, 225, 245, 250, 253, Desviación tipo 23, 67, 70, 83, 92, 94, 97, 107,
254, 260, 267, 269, 271 111, 115, 135, 145-147, 256, 276
común 48, 49, 60, 244, 248, 249, 273 Diagrama 33-37, 39-42, 94, 129, 130
fundamental 34 bivariante 37, 39, 42, 129, 130
potencial 36 causa-efecto 36, 42
primaria 35, 36 de barras 33
trivial 32 de Pareto 31-34
Ciclo PDCA 20, 203 Diferencia de medias 86, 95, 97, 98
Cliente 16, 18, 22, 223-226, 229, 233, 239, Diseño central compuesto 204, 205, 212
244, 247, 257, 261 de experimentos 18, 22, 23, 130, 135, 223,
Competitividad 15, 16 225, 271
Condición experimental 139, 145, 146, 151, de productos robustos 23, 223, 225, 238
164, 175, 199, 230 de tolerancias 226, 238
Confusión de los efectos 128, 154, 169, 175 en bloques aleatorizados 102
Control de calidad 16, 36, 255 estrella 205, 212-214
Correlación 36, 37, 39-42, 56, 57, 63, 193 factorial 136, 153, 154, 162-165, 179, 199,
Covarianza 56, 57, 63 200, 205, 212
Creatividad 15, 19, 188 factorial a dos niveles 136, 155
Criterio de ortogonalidad 212 primario 225

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

secundario 226 Histograma 28-30, 48, 50, 51, 54, 60, 103, 255
terciario 226 Igualdad de varianzas poblacionales 88, 90,
Distribución 19, 20, 23, 30, 47, 48, 52, 53, 55, 102
62, 63, 65, 67-71, 73-79, 81, 82, 88-90, 92- Independencia de las diferencias 94
95, 100, 102, 105-108, 112-114, 117, 121, de las poblaciones 90
123, 146, 147, 149, 184, 215, 229, 231, 233, Índice de capacidad 256, 257
246-248, 252, 255-257, 261, 263, 265, 270 Innovación 15, 18, 19
Efecto aditivo 93, 114 Inspección 16-18, 30, 225, 243, 250, 260
bloque 93, 114, 179, 181, 183, 188, 191, Intervalo de confianza 97-99
192, 199, 212-216 de confianza para la diferencia de medias 97
principal 140-143, 150, 176, 196, 199 Límite de control 248
Estadísticamente significativa 89, 94, 96, 105 Mantenimiento 15, 18, 19, 35, 47, 72, 224, 225,
Estadístico de prueba 94, 95, 123 238, 255
Estado de control 49-52, 59, 68, 243, 244, 246- Media muestral 74, 83, 119, 250
248, 250, 253, 255-259, 262, 269-272 poblacional 52, 119
Estimador 75, 79, 88, 90, 97, 111, 116, 119, ponderada de las varianzas muestrales 111
120, 262 fracciones 172, 173, 175, 177, 188
Estrategia experimental 130 Mejora continua 15, 18-20, 244, 247, 256
secuencial 130, 131, 147, 158, 175, 177, Método de matriz producto 230
187-189 de Taguchi 226, 240, 241
Estructura organizativa 17 Modelo de segundo orden 207, 211, 214, 217,
Evaluación 20, 138 221, 237
296 Experimentar 127, 130, 132, 136, 152, 175, Muestra aleatoria simple 74, 79, 94
192, 203, 205, 209, 210, 236, 237, 240 Muestreo 16, 17, 45, 247, 248, 260, 272
Experimentos independientes 70 Nivel codificado 137, 138
Factor de control 227, 232 Normalidad de las poblaciones 89
de escala de la t-Student 111 Planificar 19, 72, 89, 113, 130
Fracción complementaria 173, 174, 188, 191 Plantilla 26, 33, 250, 256, 268, 269
Frecuencia absoluta 28, 29 Población conceptual 51, 54, 59, 61, 74
relativa 28, 29, 51, 54, 60 Población normal 75, 121
Gestión de la calidad total 21 Proceso en estado de control 49-52, 59, 68,
Grado de libertad 145, 183, 192, 211 244, 246, 247, 258, 259, 270, 272
Gráfico C 263, 264 Productividad 16, 22, 93, 110, 111, 113, 116,
CUSUM 266-268 117
de control 246-248, 254, 256, 260, 261, Producto robusto 223, 229, 236
263, 264, 269, 270, 275 Quality function deployement (QFD) 18
de observaciones individuales 251, 252 Rango 30, 41, 128, 129, 154, 202, 231, 248-
EWMA 269, 270 252, 257
NP 261 Recogida de datos 25, 26, 41, 45, 89, 90, 93-
P 258-262 95, 113, 203, 248
R 250, 252, 254 Región de operabilidad 206
Shewart 271 Relación no causal 129
U 265 Réplica 139, 163, 164
Heterocedasticidad 109, 110 Residuo 151
Hipótesis alternativa 86, 90, 96, 111 Resolución 22, 34, 45, 87, 92, 110, 114, 172,
Hipótesis nula 86, 89, 95, 96, 98, 110, 111, 173, 175, 177, 178, 183-185, 187, 189-191,
113, 211 195, 196, 198, 200, 203, 228-230, 233

© los autores, 1998; © Edicions UPC, 1998.


π ÍNDICE ALFABÉTICO

Responsabilidad 19, 22, 48


Recurso humano 130
Riesgo 91, 247, 267, 268
Ruido externo 226, 227, 229, 232, 235, 236
Ruido interno 226, 227, 236-238
Sesgado 30
Sistema 48, 49, 68, 134, 135, 139, 144, 145,
149, 158, 188, 193, 248
Suceso 74
Tolerancia 30, 69, 275
Tratamiento 23, 89, 91, 92, 94, 95, 111, 113,
115, 117, 118, 229, 271
Valor de prueba 39, 40
Valor previsto 115, 151, 270
Variabilidad funcional 224
Variable aleatoria 23, 49, 51-54, 60, 62, 65-67,
70, 74, 76, 121
Variable oculta 129, 154
Varianza 23, 51, 52, 58, 62, 71, 73, 77-81, 88,
90, 97, 105, 108-111, 115-121, 133, 141,
144-146, 152, 231, 236, 238, 239, 241, 248,
61, 263, 266
Volante de Deming 20 297

© los autores, 1998; © Edicions UPC, 1998.


1
El entorno de la calidad total

En este capítulo se justifica la importancia de la calidad de los productos y servicios como elemento
estratégico para la competitividad de las organizaciones que los producen. El concepto de calidad que
subyace a lo largo de este libro es el de que la calidad es inversamente proporcional a las pérdidas e
inconvenientes de todo tipo que un producto o servicio provoca al usuario.
Los métodos utilizados en la industria para asegurar la calidad de sus productos han
evolucionado a lo largo del tiempo. En este capítulo se analiza críticamente dicha evolución y se
refuerza la idea de que el mejor momento para considerar la calidad de un producto es cuando se está 15
diseñando.
A continuación, y siguiendo todavía en el ámbito de calidad de los productos (o servicios), se
analizan tres clases de actividad que requieren distintos tipos de actitud por su distinta complejidad.
Dichas actividades son las de mantenimiento o control de la calidad, actividades de mejora
continua y, finalmente, las de innovación o creatividad.
En el apartado 1.4 se discuten los aspectos culturales, organizativos e instrumentales necesarios
para que la calidad sea un elemento básico en la gestión de las organizaciones, y para que éstas sean
capaces de satisfacer a sus clientes tanto en calidad como en precio, plazo de entrega y servicio
postventa de sus productos.
Finalmente, y dado que este libro trata sobre métodos estadísticos para el control, la mejora y
la innovación de la calidad, se discute el papel que tiene el método científico en general y la estadística
en particular dentro de las organizaciones para el desarrollo de los tres tipos de actividad.

1.1 Evolución histórica del concepto de control de la calidad

Desde sus orígenes, probablemente el ser humano ha considerado de vital importancia el disponer de
productos de alta calidad. Es de suponer que el cazador que disponía de mejores flechas obtenía más
y mejores presas y que este hecho no debía pasar inadvertido a nuestros antepasados.
La organización del trabajo en la era industrial ha añadido otros puntos de vista acerca del
producto tales como costes, plazo de entrega, servicio postventa, seguridad, fiabilidad, etc.
La prioridad asignada a los diversos conceptos ha ido evolucionando con el tiempo. Así, por
ejemplo, en situaciones en las que la demanda de productos ha sido muy superior a la capacidad de
oferta, la gestión empresarial se ha orientado hacia la producción y ha dado alta prioridad a la

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las
sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el
tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de
ejemplares para su distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

productividad, mientras que cuando la demanda


de ciertos productos ha sido menor que la capa-
cidad de oferta, la gestión se ha orientado hacia
el cliente y la calidad ha sido altamente
prioritaria.
En la actualidad pocos discuten la impor-
tancia estratégica de la calidad como factor de
competitividad industrial en una situación de
fuerte saturación y globalización de los
mercados.
Paralelamente, también ha ido evolu-
cionando la etapa del desarrollo de un
producto en la que se ha intentado asegurar su
Fig. 1.1 Historia del control de calidad calidad. Dicha evolución está representada en
la figura 1.1.

1.1.1 Inspección

Durante el inicio de la era industrial la calidad de los productos se intentaba asegurar mediante la
inspección de los mismos antes de ser enviados al mercado.
El modelo conceptual del enfoque basado en la inspección es el de la figura 1.2.
16

Fig. 1.2 Enfoque conceptual de la inspección

A la inspección, ya sea exhaustiva (100%) o mediante muestreo estadístico, se le asignan dos


objetivos:
a) separar el producto defectuoso para ser reprocesado o desechado, y
b) advertir al responsable del proceso de fabricación sobre la aparición del producto
defectuoso para que aquél pueda tomar las medidas de ajuste que estime oportunas.

© los autores, 1998; © Edicions UPC, 1998.


π EL ENTORNO DE LA CALIDAD TOTAL

Es bien conocido el hecho de que la inspección, incluso si es al 100%, no cumple eficazmente


el objetivo (a), debido a la fatiga del inspector entre otras causas. Pero aunque pudiésemos suponer una
inspección perfecta, no se debe olvidar que el producto detectado como defectuoso ya ha sido
producido y, por lo tanto, se han consumido recursos de mano de obra, materia prima, energía, etc que
incrementarán el coste del producto. Además, en el producto considerado como aceptable puede existir
una proporción elevada de unidades cuya calidad no se diferencie mucho de las unidades rechazadas,
y el operario se puede desentender de la calidad confiando en la inspección. Si añadimos a lo anterior
que la inspección es una actividad no productiva, y que en muchas organizaciones la estructura
organizativa no facilita la comunicación necesaria para hacer posible la consecución del objetivo (b),
se entiende que este enfoque para asegurar la calidad claramente no es adecuado.

1.1.2 Control estadístico de procesos (C.E.P.)

Durante los años que precedieron al inicio de la II Guerra Mundial, y debido principalmente a los
trabajos de W. Shewhart (1931), el aseguramiento de la calidad se desplazó a la etapa de fabricación
de los productos.
El esquema conceptual del C.E.P. (o S.P.C. en abreviación inglesa) es el de la figura 1.3.

17

Fig. 1.3 Modelo conceptual del control estadístico de procesos

Se trata, esencialmente, de minimizar la producción de unidades defectuosas reduciendo el


tiempo que transcurre entre la ocurrencia y la detección de algún desajuste en el proceso de
fabricación, así como la identificación de las causas del mismo a fin de evitar su repetición.
Este tipo de control, que se desarrolla en el capítulo 11 de este libro, se implementa mediante
muestreo de características físicas del producto (longitud, peso, diámetro, etc.), o de variables del
proceso (temperatura, presión de rodillo, etc.).
Dado que el C.E.P. no conseguirá eliminar por completo la fabricación de unidades defectuosas,
puede ser necesario mantener cierto grado de inspección final tal como se indica en la figura 1.3.
Ahora, sin embargo, la inspección tiene como finalidad el separar el producto defectuoso.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

1.1.3 Calidad en la etapa de diseño

Tanto la inspección como el C.E.P. son mecanismos internos de la organización. Es por ello que,
aunque en una cierta empresa funcionasen a la perfección tanto las inspecciones a la recepción de
materias primas como las de producto acabado, así como el control estadístico de los principales
procesos de la misma, nada o muy poco aportarían estos procedimientos a algo tan importante como
saber los problemas que los productos de la empresa en cuestión provocan a sus clientes cuando los
utilizan, o por qué algunas personas utilizan productos de la competencia, etc.
Es por ello que, en la actualidad, el control de la calidad es una actividad globalizadora, que
incluye, no sólo a todas las personas y procesos de una cierta empresa, sino también a los proveedores
y a los distribuidores, tal como queda reflejado en la figura 1.4.

18

Fig. 1.4 Modelo conceptual de la calidad total

En esta figura destaca, en primer lugar, que la calidad ha de venir determinada por las
necesidades y expectativas del cliente y no por necesidades internas de la propia organización. En
segundo lugar se observa que el mejor momento para asegurar la calidad de los productos o servicios
es durante el diseño de los mismos. Para ello es necesario, por un lado, actuar sobre los proveedores
para poder mejorar la calidad de los componentes no fabricados en la empresa y, por otro, la utilización
de herramientas como el diseño de experimentos (DEX) o el Quality Function Deployement (QFD)
para intentar que las expectativas de los clientes se introduzcan y optimicen en la etapa de diseño y
prototipo.

1.2 Mantenimiento, mejora e innovación en la calidad

1.2.1 Conceptos básicos

En el terreno de la calidad es conveniente distinguir tres tipos de actividades diferentes: mantenimien-


to, mejora continua e innovación. El lector puede encontrar una buena presentación de estos conceptos
en el libro Kaizen de Imai (1986).
Por actividades de mantenimiento entendemos todas aquellas actividades tendentes a conservar
los estándares tecnológicos, de gestión y de operación actuales.

mantenimiento = estandarizar + control

© los autores, 1998; © Edicions UPC, 1998.


π EL ENTORNO DE LA CALIDAD TOTAL

Parece recomendable que, antes de embarcarse en cualquier programa de mejora de la calidad,


una empresa estandarice la mejor forma conocida de operar y se asegure de que todo el personal trabaja
de acuerdo a dichos estándares. En nuestra opinión, los estándares deben ceñirse a las operaciones
verdaderamente importantes, deben estar redactados de forma clara y ser comprendidos por el personal
que debe seguirlos. El control del cumplimiento de dichos estándares es responsabilidad de la gestión
de la empresa
Por actividades de mejora continua (Kaizen en japonés) entendemos todas aquellas actuaciones
dirigidas hacia la mejora constante de los estándares actuales.
Tal como indica Bill Hunter, todo proceso u operación además de producto físico, genera
información suficiente para mejorarlo. Hasta tal punto es cierta esta afirmación que es muy probable
que cuando un estándar está en vigor más de seis meses sin ser modificado, ello sea debido a que no
es seguido por nadie dentro de la propia organización.
Las actividades de mejora constante se realizan mediante la secuencia (Plan, Do, Check,
Action), es decir, planificar la mejora, implementarla, verificar sus efectos y actuar en función de los
resultados de dicha verificación, tal como explicamos en el apartado 1.2.2.
Creemos importante destacar que a toda mejora en los estándares operativos deben seguir
actividades de mantenimiento, ya que de lo contrario es casi seguro que los efectos beneficiosos de la
mejora desaparecerán rápidamente (ver figura 1.5).
Por actividades de innovación entendemos aquellas actividades sistemáticas tendentes a la
creación de productos/servicios con fun-
ciones, operatividad, coste, etc., nunca
experimentados antes.
Uno de los activos intangibles 19
que toda empresa debería incrementar, lo
constituyen las metodologías y herra-
mientas que permiten utilizar los conoci-
mientos y la creatividad de todo el per-
sonal de la organización para crear
nuevos productos que satisfagan con
creces las necesidades y expectativas de
los clientes potenciales.
Cada una de las actividades que
acabamos de describir requiere distinto
nivel de conocimiento y de respon-
sabilidad por parte del personal que la
realiza. Así, por ejemplo, Imai (1986) Fig. 1.5 Mantenimiento, mejora e innovación
considera que la distribución del tiempo
de trabajo de los distintos niveles de
responsabilidad en las distintas acti-
vidades se distribuye en Japón según el
gráfico de la figura 1.6.
Destacan el poco tiempo dedi-
cado a las actividades de mantenimiento
(el día a día) por parte de la alta direc-
ción, y el tiempo que dedican capataces y
trabajadores a las actividades de mejora
continua. Fig. 1.6 Concepción japonesa de las funciones

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

1.2.2 El ciclo PDCA como estrategia básica de los procesos de mejora continua

Desde su primera visita a Japón en 1950, Deming transmitió a los ejecutivos e ingenieros
japoneses que asistían a sus sesiones de consulta la importancia transcendental de la interacción
constante entre I+D, diseño, fabricación y servicio postventa. Esta idea se generalizó en lo que
diversos autores (Imai (1986), Ishikawa (1985)) han llamado el volante de Deming, también
conocido por el ciclo PDCA (Plan, Do,
Check, Action). La versión de Ishikawa del
ciclo PDCA se encuentra en la figura 1.7.
Este ciclo es útil para actividades
tan diversas como la planificación estra-
tégica de una empresa, o la mejora del pro-
ceso de distribución del correo interno en
la misma. En el contexto que discutimos en
este capítulo, se propone el ciclo PDCA
como la estrategia a seguir en toda acti-
vidad de mejora constante de los estándares
existentes en una organización.
En primer lugar debe planificarse
(Plan) la mejora.
La etapa de planificación comprende,
Fig. 1.7 El ciclo PDCA entre otras actividades:
20
a) definición de los objetivos a alcanzar,
b) definición de medidas que permitan saber en un momento dado el nivel de cumplimiento de
sus objetivos,
c) definición del equipo responsable de la mejora,
d) definición de los recursos o medios necesarios para alcanzar los objetivos propuestos.
En segundo lugar aparece la ejecución (Do) de las tareas necesarias para implementar la mejora.
En esta etapa es importante considerar la necesidad de educar y entrenar al personal responsable
de la implementación de la mejora. La omisión de esta actividad suele hacer fracasar una buena parte
de los proyectos de mejora. Evidentemente la fase de ejecución requiere la puesta en práctica de las
modificaciones del producto o del proceso que han sido consideradas como oportunas y efectivas por
el equipo de trabajo.
En tercer lugar tenemos la etapa de evaluación (Check). Esta fase es de enorme importancia. Se
trata de verificar los resultados de la implementación de la mejora comparándolos con los objetivos
iniciales. Es importante aclarar en este punto que, en general, no es suficiente evaluar los resultados
finales. En efecto, si fuese cierto algo del tipo: “Si se aplica la solución Y debería obtenerse el resultado
X”, no se trataría de verificar si se ha obtenido X sino también si se ha aplicado la solución Y.
Finalmente, en cuarto lugar, tenemos la etapa de actuación (Action).
De la etapa de verificación debe desprenderse la necesidad de actuar sobre el proceso para
corregir los aspectos que hayan merecido una evaluación negativa. La actuación puede implicar y
mejorar el propio plan, por ejemplo, fijando nuevos objetivos, o mejorando el proceso de educación
del personal, o modificando la asignación de recursos para el proyecto de mejora, etc.
Una vez completado el ciclo es importante seguir dando vueltas al volante PDCA, repitiendo
las cuatro etapas en un nuevo proceso de mejora. Sólo mediante esta perseverancia puede una empresa
mejorar realmente todos los procesos y, en consecuencia, la calidad de sus productos y servicios.

© los autores, 1998; © Edicions UPC, 1998.


π EL ENTORNO DE LA CALIDAD TOTAL

1.3 Conceptos básicos de gestión de la calidad total

Este libro no cuenta entre sus objetivos entrar en el detalle de las diferentes teorías existentes sobre la
gestión de la calidad total, que se encuentran desarrolladas en las obras de Deming (1982), Juran &
Gryna (1980) e Ishikawa (1985), entre otros muchos autores.
De todas maneras, lo que tienen en común las teorías de estos pensadores de la calidad total es
que ésta se asienta sobre tres pilares: cultura de la calidad, sistemas y recursos humanos, y utilización
de la estadística. Si en una organización falla alguno de estos tres pilares, será difícil, por no decir
imposible, introducir la gestión de la calidad total.
En la figura 1.8 se resume lo que el consultor norteamericano Brian Joiner llama la teoría Q.
La cultura de la empresa respecto a la calidad es un pilar esencial. Hoy en día es difícil encontrar
directivos en las organizaciones que no digan que para ellos, la calidad es lo más importante. Pero por
desgracia, los hechos no siempre concuerdan con estas afirmaciones. Es fundamental que los
propietarios o la alta dirección se involucren en la introducción de esta cultura de la calidad en sus
empresas.

21

CULTURA

MÉTODO CIENTÍFICO UN SOLO EQUIPO

Fig. 1.8 La teoría Q de Brian Joiner

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Dicha cultura empieza por reconocer que la calidad viene definida por las necesidades y
expectativas del cliente, y no por consideraciones internas de los departamentos de la empresa. La idea
fundamental es que los productos y servicios deben cumplir siempre las especificaciones del cliente e
incluso sorprender al mismo con prestaciones en las que ni tan siquiera había pensado. Es esta calidad
excitante (en la denominación de Kano (1987)) la que puede captar nuevos usuarios y ampliar la cuota
de mercado de la organización que sea capaz de fabricar este tipo de productos.
Además, cuando se habla de cliente, hay que tener en cuenta que nos referimos, tanto al cliente
externo o destinatario final de los productos y servicios, como al cliente interno. En este sentido es
importante tener presente que toda unidad operativa dentro de la empresa se caracteriza por tener
proveedores (el proceso anterior), tener clientes (el siguiente proceso) y realizar las operaciones
propias de la unidad. Todo proceso debe, pues, intentar satisfacer las expectativas del proceso que le
sigue (cliente interno) y, por descontado, intentar no crearle problemas o inconveniencias.
Otra idea básica en el aspecto cultural de las organizaciones es que la calidad se mejora
únicamente mejorando todos los procesos de la organización. La mejora constante de la calidad es
responsabilidad de todo el personal. De hecho podría decirse que en cualquier descripción de las
funciones de un puesto de trabajo debería figurar la de mejorarlo constantemente.
Atendiendo al elevado porcentaje de componentes en un producto final que son comprados a
proveedores externos, pero que el cliente final asociará a la empresa que sitúa el producto en el
mercado, se ha impuesto la idea de que es importante asociar a los proveedores en la responsabilidad
de la mejora de la calidad. Esta idea, que en la versión de Deming se debería realizar mediante
colaboración entre proveedor y comprador en beneficio mutuo y en convenios a largo o medio plazo,
no siempre se aplica con este enfoque y puede generar importantes tensiones entre las partes
22
involucradas.
Los distribuidores pueden aportar información pertinente sobre el comportamiento de los
productos cuando están en manos del cliente y, en consecuencia, aportar a la empresa datos sobre las
necesidades y expectativas del mercado que deberían ser satisfechas por los productos y servicios de
la organización.
Finalmente, el tercer pilar lo constituye la utilización masiva del método científico y más en
concreto de la estadística.
El lector habrá observado que hemos puesto en cursiva la palabra masiva. En efecto, no se trata
tanto de que un porcentaje reducido del personal utilice métodos estadísticos altamente complejos sino
de que en toda la organización se utilicen datos fiables para la toma de decisiones a todos los niveles.
Como decía Bill Hunter, (1) si una organización desea mejorar sus niveles actuales de calidad y
productividad debe actuar, es decir, tomar decisiones; (2) para tomar decisiones es necesario disponer
de buena información y, (3) la estadística es la disciplina especializada en convertir datos en
información. De este simple razonamiento se desprende la importancia del tercer pilar.
Creemos conveniente insistir en la necesidad de la existencia de los tres pilares en toda
organización que quiera situar la calidad en el centro de sus actividades, y que desee mejorar su
productividad y sus costes por el único camino real, que es la mejora de la calidad. Así, por ejemplo,
de poco serviría que se utilizasen gráficos de control o diseño de experimentos en una empresa donde
no existiera la cultura necesaria, o se quisieran solucionar los problemas de calidad mediante la
introducción de círculos de calidad sin que éstos supiesen utilizar las herramientas estadísticas básicas
y sin que la alta dirección asumiera la responsabilidad en la resolución de los problemas que sólo ella
pudiese abordar. Es importante insistir en esta idea dado que el presente libro se refiere exclusivamente
a métodos estadísticos y el lector podría deducir, equivocadamente, que son sólo estos métodos los
necesarios para mejorar la calidad de los productos y servicios de una organización.

© los autores, 1998; © Edicions UPC, 1998.


π EL ENTORNO DE LA CALIDAD TOTAL

1.4 Métodos estadísticos en la calidad total

En este libro presentamos algunos de los métodos estadísticos más utilizados para la mejora y el
control de la calidad de productos y servicios.
No pretendemos ser exhaustivos y quedan fuera de este trabajo algunos métodos de uso muy
extendido como la regresión múltiple, la fiabilidad y los experimentos con mezclas, entre otros.
En el capítulo 2 se presentan algunas herramientas básicas, conocidas como las herramientas de
Ishikawa, cuyo uso sistemático y masivo en toda la organización es suficiente para resolver un
porcentaje muy elevado de problemas de calidad. Uso sistemático significa entender las organizacio-
nes como sistemas y tener en cuenta, por lo tanto, que una modificación o mejora en un cierto proceso
puede influir en otros procesos de la organización. El lector deberá, pues, prestar más atención al
concepto de uso sistemático y, uso por parte de todas las personas con un enfoque claro de mejora de
la calidad, que en las técnicas o herramientas en sí mismas.
En el capítulo 3, se estudian de manera conceptual algunas ideas básicas de la teoría de la
probabilidad, tales como variable aleatoria, densidad de probabilidad y función de distribución y los
modelos probabilísticos más usuales.
El capítulo 4 se dedica al estudio de las distribuciones asociadas a muestras aleatorias simples
de poblaciones normales, que constituyen la base teórica necesaria para el desarrollo del resto del libro.
En el capítulo 5 se presentan los métodos basados en la t-Student para comparar dos
poblaciones. En la práctica es frecuente que un mismo producto sea fabricado en dos o más procesos
idénticos que funcionan en paralelo. Antes de mezclar las producciones de dos máquinas, deberíamos
asegurarnos de que, efectivamente, están trabajando con la misma media y desviación tipo. Esta
comprobación puede hacerse mediante pruebas de significación basadas en la t-Student para diseños 23
totalmente aleatorizados.
Otro tipo de problemas que se resuelven con los métodos de la t-Student para diseños en
bloques aleatorizados son, por ejemplo, comparar una población de individuos antes y después de
haber sido sometida a un tratamiento, como podría ser un plan de formación.
En el capítulo 6 se generalizan los métodos estudiados en el capítulo 5, al caso de comparar más
de dos poblaciones. Dicha comparación se realiza mediante técnicas de análisis de la varianza que se
presentan para el caso de diseños totalmente aleatorizados y para diseños en bloques aleatorizados.
Los capítulos 7 y 8 están dedicados a la presentación de los conceptos y métodos para el diseño
de experimentos con factores a dos niveles. Se estudian tanto los diseños factoriales como los
factoriales fraccionales con o sin bloqueo. El capítulo 9 extiende los conceptos de los dos capítulos
anteriores al estudio de las superficies de respuesta.
Las aportaciones de G. Taguchi al diseño de productos robustos y las posibles mejoras a sus
métodos, son objeto de estudio en el capitulo 10.
Finalmente el capítulo 11 se dedica al estudio del control estadístico de procesos.

© los autores, 1998; © Edicions UPC, 1998.


2
Herramientas básicas
para la mejora de la calidad

Es práctica habitual en todas las empresas fijar unos objetivos en cuanto a ventas, producción, stocks,
beneficios, etc., y periódicamente ir comprobando si los resultados obtenidos coinciden con las
previsiones realizadas, para tomar las acciones correctoras oportunas en el caso de que las desviaciones
respecto a lo previsto sean importantes.
Sin embargo, las acciones en cuanto a la mejora de la calidad se toman en muchas ocasiones
basándose en sensaciones, impresiones u opiniones, pero no en el análisis científico de datos objetivos.
Cada vez está más extendida la idea de que los problemas de calidad deben ser atacados 25
mediante la aplicación de métodos científicos de recogida y análisis de datos (estadística). Pero el uso
de esta práctica no debe quedar restringido a un grupo reducido de “expertos en calidad” sino que todo
el personal puede (¡y debe!) participar en el proceso de control y mejora de la calidad.
Naturalmente, no todos deben aplicar las mismas técnicas. Por ejemplo, los planes de
experimentación para la optimización de productos (que se estudian con detalle en los capítulos 7 y 8
de este libro) exigen la utilización de importantes recursos materiales y requieren un cierto nivel de
especialización y conocimientos; por tanto, deben quedar en manos de los cuadros técnicos.
No obstante, existen otras técnicas que sí deben ser conocidas y utilizadas por todo el personal
de la empresa. Estas técnicas se conocen con el nombre de “Las siete herramientas básicas de
Ishikawa”, ya que ha sido este ingeniero japonés el que más ha promocionado su uso, primero en
Japón, con notable éxito, y después en el resto del mundo.
Existe unanimidad entre los expertos de más prestigio en temas de calidad respecto a que estas
sencillas herramientas, bien utilizadas por parte de todo el personal de la empresa, permiten solucionar
en torno al 90 % de los problemas de calidad que se presentan. Conviene, por tanto, tenerlas presentes
y fomentar su utilización. Las herramientas son:
> Plantillas para la recogida de datos.
> Histogramas.
> Diagramas de Pareto.
> Diagramas causa-efecto.
> Diagramas bivariantes.
> Estratificación.
> Gráficos de control.
En este capítulo se presentan con detalle las seis primeras. A los gráficos de control, por su
mayor envergadura, se les dedica el capítulo 11 de este libro.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

2.1 Plantillas para la recogida de datos

No es difícil suponer que para mejorar la calidad se necesitan datos. Pero muchas veces los datos se
toman de forma desordenada o mal documentada, haciendo imposible su análisis posterior. Otras veces
los datos son incorrectos porque se han tomado de forma distinta a la prevista, y las conclusiones que
se obtienen a partir de éstos carecen de sentido por mucho esmero que se ponga en su análisis.
Por tanto, la recolección de datos debe efectuarse de manera cuidadosa y exacta, y para ello
nada mejor que utilizar plantillas especialmente diseñadas para cada caso.
Los objetivos que se pretenden con el uso de las plantillas son:
> facilitar las tareas de recogida de la información,
> evitar la posibilidad de errores o malos entendidos,
> permitir el análisis rápido de los datos.
Las plantillas para la recogida de datos pueden tener distintas finalidades: controlar una variable
de un proceso, llevar un control de productos defectuosos, estudiar la localización de defectos en un
producto, estudiar las causas que originan los defectos o realizar la revisión global de un producto.
Las figuras 2.1 a 2.4 muestran algunos ejemplos.

CONTROL DE SERPENTINES
Identificaci\n
Tipo: Fecha:
Lote: LRnea:
Hoja de ruta: Operario:
Total revisado:
26
Defectos:
Tipo Total
Soldadura
Poro
Deformado
Incompleto
Otros
Notas e incidencias:

Fig. 2.1 Ejemplo de plantilla para el control de productos defectuosos. Fig. 2.2 Plantilla para la localización de poros
El conocimiento de cuáles son los defectos que se presentan más en guantes de goma. Obsérvese la diferencia
corrientemente permite dar prioridad a las acciones que se deben tomar que supone conocer la información que aquí
figura respecto a saber que “se presentan
muchos poros”. (Tomado de J.M. Juran Manual
La experiencia demuestra que en la recogida de de Control de Calidad)
datos conviene seguir algunas reglas, éstas son:
1. No tomar datos si después no se van a utilizar. Puede parecer obvio pero es una costumbre
bastante arraigada. Los datos inútiles sólo sirven para dificultar la localización de los útiles.
2. Asegurarse de que los datos se toman de forma que se análisis sea fácil, de lo contrario es
probable que no se haga nunca. Entretenerse en el diseño de la plantilla de recogida de datos es
una de las actividades más rentables que pueden realizarse.
3. No pasar los datos “a limpio”. Es una pérdida de tiempo y una fuente de errores. Es necesario
anotarlos de forma clara y ordenada a la primera.

© los autores, 1998; © Edicions UPC, 1998.


© los autores, 1998; © Edicions UPC, 1998.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

2.2 Histogramas

En muchos casos, si los datos han sido tomados de forma correcta, las conclusiones que se pueden
obtener a partir de los mismos son inmediatas. Si no es así, raramente se precisan análisis estadísticos
complicados, suele bastar con una adecuada representación gráfica.
La tabla de datos que figura a continuación corresponde a una muestra, tomada aleatoriamente
durante 20 días, del peso en gramos de cierto embutido que puede ser elaborado por dos máquinas
distintas (1 y 2), que a su vez son atendidas indistintamente por dos operarios (A y B).

DÍA OPERAR. MÁQUINA 1 MÁQUINA 2

1 A 220.3 215.5 219.1 219.2 220.3 208.0 214.4 219.2


2 B 215.8 222.0 218.9 213.6 216.9 213.4 217.7 217.7
3 B 220.4 218.7 218.6 219.6 222.9 219.7 209.4 221.6
4 B 221.5 227.0 219.5 222.5 223.1 215.3 220.4 215.6
5 A 215.7 225.3 223.0 218.0 216.0 210.9 221.4 210.9

6 A 222.7 215.1 219.6 217.3 212.1 213.0 218.0 216.5


7 A 216.0 218.8 217.9 213.0 216.9 216.0 213.5 219.2
8 B 219.4 218.3 216.7 224.1 216.2 218.4 216.6 214.9
9 B 219.8 222.6 219.1 217.7 216.2 212.2 216.9 214.9
10 A 220.2 219.5 222.4 219.9 222.9 214.3 219.1 216.7

11 B 218.0 223.9 219.6 221.9 214.9 212.6 219.4 212.3


12 B 219.3 219.6 218.8 219.9 219.0 216.7 216.4 213.5
13 B 220.0 214.1 224.3 217.4 218.0 219.5 219.5 222.3
28 14 A 223.9 220.6 219.5 219.6 211.8 218.2 218.3 217.4
15 A 218.1 218.8 218.4 217.9 214.6 215.7 218.0 216.4

16 B 216.9 221.6 220.6 222.6 215.6 220.4 217.3 216.2


17 B 217.9 225.7 222.2 216.1 212.5 214.6 209.7 211.3
18 A 224.2 216.2 219.9 220.4 215.8 219.9 216.5 211.9
19 A 214.1 219.7 222.4 224.5 213.7 209.7 216.9 213.1
20 A 221.1 225.0 222.7 222.2 212.5 217.5 217.4 215.7

Tabla 2.1 Datos sobre el peso (en gramos) de cierto embutido

Las especificaciones del peso son 220 ± 10 g, y últimamente se han detectado ciertos proble-
mas a este respecto. Veamos cuál sería el diagnóstico de la situación y la propuesta de medidas a tomar
a la vista de estos datos.
Cuando se trata, como en este caso, de analizar la dispersión que presentan unos datos, la
representación gráfica más adecuada es el histograma. Para realizar un histograma se marcan una serie
de intervalos sobre un eje horizontal, y sobre cada intervalo se coloca un rectángulo de altura
proporcional al número de observaciones (frecuencia absoluta) que caen dentro de dicho intervalo.
Si se pretende comparar varios histogramas construidos con distinto número de datos, es
preferible que las alturas de los rectángulos sean proporcionales al porcentaje de observaciones en cada
intervalo o al tanto por uno (frecuencia relativa). Utilizando la frecuencia relativa en el eje de
ordenadas también se facilita la comparación entre el histograma obtenido y un determinado modelo
teórico representado por una función densidad de probabilidad (véase el capítulo 3). En este caso se
considera que la frecuencia relativa es proporcional al área definida por cada columna. Puede
interpretarse la función densidad de probabilidad como la representación del histograma cuando el
número de observaciones tiende a infinito y la anchura de los rectángulos tiende a cero.

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

En la figura 2.5 se han realizado dos histogramas con todos los datos (en total 160). En el
histograma de la izquierda se ha colocado la frecuencia absoluta en el eje vertical y en el de la derecha
la frecuencia relativa. La única diferencia es la escala vertical, pero naturalmente las conclusiones que
se pueden obtener son las mismas: El proceso está descentrado y se está produciendo un cierto
porcentaje de unidades fuera de tolerancias (por defecto). A partir de estos histogramas no puede
obtenerse ninguna otra conclusión, pero la forma en que se han anotado los datos permite construir
histogramas para las unidades producidas por cada operario y también por cada máquina.

Fig. 2.5 Histograma de los datos globales, colocando en el eje vertical la


frecuencia absoluta y la frecuencia relativa 29

Los histogramas realizados por operario no revelan nada útil, pero los realizados por máquina
(figura 2.6) ponen de manifiesto el origen del problema. Mientras que la máquina 1 está centrada y
produce dentro de tolerancias, la máquina 2 está descentrada, y esto es lo que produce que un cierto
porcentaje esté por debajo del peso mínimo.

Fig. 2.6 Histogramas correspondientes a las unidades producidas por cada máquina

También pueden realizarse gráficos por operario y máquina, pero no revelan nada que no
sepamos ya. No hay diferencias entre operarios, la diferencia está en las máquinas.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Los histogramas que se han presentado han sido elaborados con ayuda de un paquete de
software estadístico. En algunos casos, especialmente si son los operarios los que analizan los datos
que ellos mismos recogen, puede ser más rápido y cómodo construir los histogramas a mano. En este
caso, conviene seguir una sistemática adecuada como la siguiente:
1. Colocar los datos a representar en filas de aproximadamente 10 números.
2. Identificar y señalar el máximo y el mínimo de cada fila.
3. A partir del máximo y el mínimo de cada fila, localizar el máximo y el mínimo globales.
4. Calcular el rango (R) de los datos.
R = Valor máximo - Valor mínimo

5. Optar por un número de intervalos (k), en NÚM. DE DATOS NÚM. DE INTERVALOS


primera aproximación, utilizando la siguiente <50 5-7
tabla: 50 - 100 6 - 10
100 - 250 7 - 12
>250 10 - 20

6. Determinar la amplitud (h) de los intervalos, haciendo:


R
h=
k
y redondeando el valor obtenido a un múltiplo exacto de la precisión de los datos.
7. Fijar los límites de los intervalos. Para evitar el problema que se presenta al asignar un valor a
30
un intervalo cuando dicho valor coincide con el extremo superior de un intervalo y el extremo
inferior del otro, conviene fijar dichos extremos con una precisión igual a la mitad de la
precisión de los valores.
Así, si los datos se presentan con un solo decimal y los extremos de los intervalos son de la
forma 2,15 - 2,35, está claro que los valores 2,2 y 2,3 deberán situarse en este intervalo, 2,4 en
el intervalo siguiente, etc.
8. Rellenar la tabla de frecuencias, indicando el número de veces que aparecen datos dentro de
cada uno de los intervalos definidos.
9. Construir el histograma.
En la figura 2.7 se presentan varias formas de histograma que responden a patrones de
comportamiento típico.
El histograma 1 corresponde a la forma de campana habitual que representa la variabilidad
debida a causas aleatorias. El histograma 2, con dos máximos diferenciados, responde a una
distribución denominada bimodal y se presenta cuando están mezclados datos de distinto origen
centrados en valores distintos.
El histograma 3 se denomina, por su forma, sesgado a la derecha, y responde a la variabilidad
que presentan ciertas variables que no siguen una ley normal, como los tiempos de vida. También
puede representar una magnitud con un “cero natural”, como la tolerancia entre eje y cojinete.
Al histograma 4 parece faltarle una parte y por ello se le llama censurado (en este caso, a la
izquierda). No representa una variabilidad natural y por tanto hay que sospechar que se han eliminado
algunos valores. Esto ocurre si después de la producción se realiza una inspección al 100 % para
separar las unidades fuera de tolerancias.
En los histogramas 5 y 6 aparecen datos que no siguen el patrón de comportamiento general
(anomalías, errores, etc.). Su variabilidad puede atribuirse a alguna causa asignable que deberá ser
identificada y eliminada.

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

31

Fig. 2.7 Diversas formas típicas que pueden presentar los histogramas

2.3 Diagramas de Pareto

Existen muchos aspectos de cualquier actividad industrial (y también no industrial) susceptibles de


mejora. En algunos casos, la mejora es obligada, pero el problema a abordar es de tal envergadura que
parece imposible de resolver. Pensemos, por ejemplo, en una línea de envasado que sufre frecuentes
paradas por avería en alguno de los módulos (no siempre el mismo) de que está compuesta. Puede
plantearse la necesidad de cambiar la línea entera, pero en muchas ocasiones ésta es una inversión
importante que se va postergando.
Supongamos que después de tomar datos durante seis meses, la información obtenida puede
resumirse mediante la tabla 2.2.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

CAUSA NÚM. DE PARADAS TIEMPO DE PARADA

MaZ. Tar. E MaZ. Tar. E

Rotura hilo (1) 18 24 42 20 31 51


Cinta (2) 15 10 25 12 10 22
Vibrador (3) 92 88 180 62 68 130
Tornillo sin fin (4) 1 6 7 2 8 10
Apelmazamiento (5) 0 1 1 0 1 1
Rotura saco (6) 2 1 3 4 1 5
Otros (7) 1 0 1 8 0 8

Tabla 2.2 Número de paradas y tiempo de parada en una línea de envasado

La información que contienen estos datos se manifiesta de forma más clara construyendo unos
gráficos como los de la figura 2.8.

32

Fig. 2.8 Diagramas de Pareto para el número total de paradas y el tiempo de parada total

Estos gráficos se denominan “diagramas de Pareto” y ponen de manifiesto que, cuando se


analizan las causas de un problema, en general son unas pocas las responsables de su mayor parte. A
estas pocas se les llama causas fundamentales, al resto, que son muchas pero ocasionan una pequeña
parte del problema se les denomina causas triviales.
En el caso que estamos analizando, sólo dos causas han ocasionado en torno al 80 % del
problema (el 79,7 % del tiempo de parada y el 85,7 % del número de paradas). Por tanto, éstas serán
las primeras causas a atacar. Todo el esfuerzo debe concentrarse en la eliminación de las causas
fundamentales, ignorando en principio las triviales, que ya serán atacadas más adelante.
Los diagramas de Pareto pueden aplicarse a situaciones muy distintas con el fin de establecer
las prioridades de mejora, y siempre reflejan el mismo principio de “pocas fundamentales y muchas
triviales”.
La construcción de estos diagramas puede realizarse siguiendo los pasos que a continuación se
indican:

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

1. Plantear exactamente cuál es el problema que se desea investigar, qué datos serán necesarios,
cómo recogerlos (no olvidar el diseño de la plantilla) y durante qué período.
2. Tabular los datos recogidos. Si se trata de analizar las reclamaciones de clientes durante un año,
dicha tabulación tendrá el aspecto que se indica en la tabla 2.3.

CAUSA TABULACIÓN TOTAL

A 10
B ... ... 42
C 6
D ... ... 104
E 4
F 20
Otras 14

TOTAL 200

Tabla 2.3 Tabulación de los datos recogidos para la relación


de un diagrama de Pareto

3. Rellenar el formulario previo a la construcción del diagrama. Las causas deben ordenarse de
mayor a menor importancia, situando “otras” siempre al final. 33
Para los datos de la tabla anterior, el formulario tiene el aspecto que se indica en la tabla 2.4.
4. Iniciar la realización del diagrama dibujando los ejes. Se coloca un eje horizontal dividido en
tantas partes como causas figuran en el formulario anterior, y dos ejes verticales. El eje de la
izquierda se marca desde 0 hasta el total (de reclamaciones, en este caso) y el eje de la derecha,
que sirve colocar los porcentajes, se marca del 0 al 100 %.
5. Construir el diagrama de barras. La altura de cada barra debe corresponder al número de
observaciones correspondientes a cada causa, de acuerdo con la graduación del eje de la
izquierda.
6. Construir el polígono de frecuencias acumulado y añadir toda la información relativa al gráfico
para que pueda ser fácilmente interpretado. El resultado final tiene el aspecto que se presenta
en la figura 2.9.

NÚM. DE TOTAL PORCENTAJE


CAUSA RECLAMACIONES ACUMULADO PORCENTAJE ACUMULADO

D 104 104 52 52
B 42 146 21 73
F 20 166 10 83
A 10 176 5 88
C 6 182 3 91
E 4 186 2 93
Otras 14 200 7 100

TOTAL 200 100

Tabla 2.4 Formulario previo a la construcción del diagrama de Pareto

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Siempre que sea posible, es conveniente


utilizar unidades monetarias en el eje vertical
izquierdo. Consideremos, por ejemplo, que se ha
realizado una auditoría final a un lote de productos
y se han detectado 200 defectos por causas
indicadas en la tabla 2.5.
Con esta información, y realizando el
diagrama de Pareto por número de defectos, se
llegaría a la conclusión de que la primera causa a
atacar es la A. Sin embargo, considerando los
costes que origina cada tipo de defecto, la tabla
podría ser la 2.6 y, por tanto, vista la situación de
esta forma, la causa que tendría un interés
prioritario sería la B.
Fig. 2.9 Ejemplo de representación de un diagrama de Pareto Otra recomendación importante es recoger
los datos de forma que puedan ser fácilmente
estratificados según su origen (turno, operario,
máquina, día de la semana, tipo de materia prima, etc.). No hay que conformarse con un diagrama de Pareto
global, sino estratificar según el origen de los datos, comparar los diagramas y sacar conclusiones.

TIPO DE CAUSA NÚM. DE DEFECTOS PROPORCIÓN PROPORCIÓN ACUMULADA

A 110 0.55 0.55


34 B 45 0.23 0.78
C 22 0.11 0.89
D 6 0.03 0.92
Otras 17 0.08 1.00

Tabla 2.5 Causas ordenadas según su frecuencia de aparición

TIPO DE NÚM. DE COSTE COSTE POR PROPORCIÓN PROPORCIÓN


CAUSA DEFECTOS UNITARIO CAUSA COSTE ACUMULADA
B 45 5 225 0.51 0.51
A 110 1 110 0.25 0.76
C 22 3 66 0.15 0.91
D 6 2 12 0.03 0.94
Otras 17 1.5 22.5 0.06 1.00

Tabla 2.6 Causas ordenadas según el coste ocasionado por cada una de ellas

2.4 Diagramas causa-efecto

En muchas ocasiones, cuando se presenta un problema, se confunde su resolución con la eliminación


de los efectos que produce, y esta práctica suele traer consigo malas consecuencias.
Ishikawa, en su libro ¿Qué es el control total de calidad?, presenta un caso de su propia
experiencia. Explica que cierto dispositivo iba unido a una máquina por medio de cuatro pernos. El
perno 1 se rompía con frecuencia por lo que se decidió sustituirlo por otro de mayor diámetro. A partir
del cambio no se volvió a romper el perno 1, pero empezó a romperse el perno 2. Ante la nueva
situación se decidió que los cuatro pernos deberían ser más grandes y se procedió al cambio. Ya no

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

se volvió a romper ningún perno, pero empezaron a


aparecer fracturas en la placa de hierro en la que estaba
situado el dispositivo. Se cambió la placa de hierro por otra
más gruesa y se anunció que el problema había quedado
resuelto definitivamente.
Un estudio más profundo realizado posteriormente
puso de manifiesto que una vibración que llegaba al
dispositivo era lo que ocasionaba los fenómenos de Fig. 2.10 Dispositivo unido a una máquina por
ruptura, y que si no se eliminaba acabaría rompiendo la cuatro pernos
nueva placa metálica o inutilizando el dispositivo con
graves consecuencias.
Lo que se había hecho era intentar evitar el efecto del problema, pero sin eliminar su causa, y si
la causa permanece, el efecto vuelve a manifestarse, de forma aún todavía más perjudicial.
Para solucionar un problema deben estudiarse sus causas y eliminarlas (en el caso de Ishikawa la
causa era la vibración, aunque también debería haberse investigado el origen de la misma). La idea está
clara, para solucionar un problema: ¡atacar las causas, no los efectos!
Pero descubrir el entramado de posibles causas que hay detrás de un efecto no es fácil. Para hacerlo
es conveniente seguir una determinada metodología y construir el llamado “diagrama causa-efecto”1. Una
buena forma de hacerlo es siguiendo los puntos que ha continuación se describen:
1. Determinar e identificar claramente cuál es el efecto (el problema, la característica de calidad, etc.)
a estudiar.
2. Reunir a las personas que puedan aportar ideas sobre el origen del problema y realizar un
brainstorming de posibles causas. 35
Existen distintas formas de organizar este tipo de reuniones, pero el objetivo básico es siempre
asegurarse de que cada participante aporta todo lo que lleva dentro. Una posibilidad es establecer
rondas de intervenciones en las que todos participen siguiendo un orden establecido. Cada persona
deberá ir aportando posibles causas hasta que las ideas se hayan agotado totalmente.
3. Realizar una selección de las causas aportadas. Seguramente algunas de las causas que aparecen en
el brainstorming son descabelladas o están repetidas. Es necesario, por tanto, realizar una selección
acordada de cuáles son las causas que deben aparecer en el diagrama.
4. Construir el diagrama. Con todas las causas aportadas, una sola persona, especialista en estas
tareas y con un buen conocimiento del
problema estudiado, debe ser la respon-
sable de construir el diagrama.
En el diagrama las causas se presentan
de forma jerarquizada y agrupadas en unos
cuatro o seis grandes grupos denominados
“causas primarias”, las cuales suelen ser: mano
de obra, maquinaria, materiales, métodos,
medio ambiente y mantenimiento (conocidas
como las seis M). Cada causa primaria está
integrada por varias secundarias, estas últimas
por terciarias, y así sucesivamente, tal como Fig. 2.11 Disposición jerarquizada de causas en un diagrama
se indica en la figura 2.11. causa-efecto

1
También “diagrama de espina de pez” o “diagrama de Ishikawa”

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

En la figura 2.12 se reproduce un


diagrama en el que sólo se han consi-
derado cuatro causas primarias.
No debe perderse de vista que las
causas anotadas en el diagrama son causas
potenciales. Por tanto, será necesario
recoger datos para confirmar que las
relaciones causa-efecto realmente existen.
Como consecuencia de lo anterior,
el diagrama causa-efecto debe ser consi-
derado un diagrama vivo. Es decir, un
Fig. 2.12 Ejemplo de diagrama causa-efecto
diagrama que va cambiando a medida que
se van adquiriendo nuevos conocimientos
sobre el fenómeno estudiado. Algunas causas desaparecen porque se han logrado eliminar, otras
porque se ha constatado que no influyen. Cuando una causa deja de ser considerada, debe tacharse, más
que borrarse, para dejar constancia de que ya se ha estudiado. También pueden aparecer nuevas causas
potenciales que en un primer momento no se habían considerado.

2.5 Diagramas bivariantes

Una forma de comprobar si existe relación entre una característica de calidad y un factor que puede
36
afectarle es la construcción de diagramas bivariantes. El profesor Hajime Karatsu, en su libro CTC.
La sabiduría japonesa, explica un interesante caso en el que la utilización de este tipo de diagramas
permitió resolver un importante problema. Dice así:
“El sintonizador suele ser lo primero que se estropea en un televisor. Actualmente los boto-
nes electrónicos son algo corriente, pero en el pasado todos los selectores de canal tenían que girar-
se manualmente y podían funcionar mal si el sintonizador tenía un contacto pobre.
El sintonizador es el punto en que las ondas magnéticas se captan por primera vez. Los sin-
tonizadores estandarizados se producían en masa y se empleaban en distintos modelos de televisor.
Hace algún tiempo, un experto en control de calidad investigó el nivel de mal funcionamiento de los
sintonizadores. Descubrió que, aunque se utilizaban sintonizadores idénticos, la proporción de mal
funcionamiento era muy distinta de un modelo de televisor a otro. Se dio cuenta de que el problema
debería estar relacionado con alguna cosa que no fuera el propio sintonizador; no obstante, seguía
teniendo el problema de descubrir el verdadero factor entre varias alternativas posibles. La gente
utiliza sus televisores de distinta manera; algunos los colocan en rincones polvorientos, otros los
tienen en el salón, más o menos como un objeto decorativo. La frecuencia de uso y la fuente de elec-
tricidad también pueden ser distintas. En consecuencia, la avería de un televisor podía estar cau-
sada por el entorno o por un simple error en el proceso de fabricación. Los datos reunidos en cien-
tos y cientos de televisores revelaron, sin embargo, que los sintonizadores se estropeaban en función
del tipo de televisor en que habían sido instalados.
El experto en control de calidad analizó los datos desde distintos ángulos y descompuso en
factores cada una de las condiciones concebibles y su relación con la proporción de averías:
¿Estaba relacionada con el tamaño de la caja, o con un aumento de la temperatura? ¿Se trataba de
la longitud del eje del sintonizador o de la diferencia en unidades de corriente eléctrica? Durante
bastante tiempo, parecía que no había ninguna correlación entre ninguno de los factores, pero al
final surgió la causa.

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

La correlación residía en la distancia


entre el sintonizador y el altavoz. Cuanto más
cerca estaba el sintonizador del altavoz, con
más frecuencia se averiaba; cuanto más
lejos, menor era la proporción de mal
funcionamiento. Una vez establecida esta
correlación, los fabricantes empezaron a
colocar los altavoces tan lejos de los
sintonizadores como permitían los cajas, y el
resultado fue que las quejas de los
consumidores se redujeron drásticamente”.
Fig. 2.13 Diagrama de correlación entre la proporción
(figura 2.13) de averías y la distancia altavoz-sintonizador, obtenida
La construcción de un diagrama a partir de los datos de un gran conjunto de televisores
bivariante puede realizarse de la siguiente
forma:
1. Reunir pares de datos de las variables
cuya relación se desea investigar. Con
OBS. TEMP. REND. OBS. TEMP. REND.
menos de 30 pares es difícil sacar
conclusiones. En torno a 50 suele ser 1 162 94.6 26 160 94.0
suficiente. 2 154 93.0 27 110 91.3
2. Trazar los ejes. Decidir las escalas de 3 148 93.9 28 138 92.5
4 116 92.7 29 140 92.0
forma que ambos ejes tengan aproxi- 5 152 92.8 30 150 92.2
madamente la misma longitud. 6 136 92.5 31 134 92.0 37
Marcar los ejes con valores fáciles de 7 158 93.5 32 162 93.5
8 126 91.5 33 180 95.2
leer.
9 140 93.8 34 142 92.1
Si una variable es una característica de 10 160 93.6 35 152 92.4
calidad y la otra un factor (de diseño o 11 160 92.6 36 170 92.9
de producción), se sitúa la primera en el 12 160 94.1 37 150 91.5
13 144 92.9 38 160 93.0
eje vertical. 14 120 91.0 39 104 91.0
3. Situar los puntos en el gráfico. Si dos o 15 126 92.0 40 130 92.5
más puntos coinciden, se señala mar- 16 134 92.4 41 160 93.1
17 164 93.4 42 138 93.0
cando círculos concéntricos.
18 162 93.6 43 152 93.4
4. Incorporar toda la información perti- 19 132 92.3 44 130 93.4
nente que ayude a interpretar el gráfico 20 130 91.1 45 110 92.0
(título del diagrama, número de pares 21 170 93.0 46 120 92.5
22 148 91.4 47 110 92.3
de datos, título y unidades de cada eje, 23 144 93.0 48 152 92.8
identificación del autor, etc.). 24 112 91.6 49 172 92.0
Los datos de la tabla 2.7 indican la 25 126 92.0 50 126 92.6
temperatura a que se ha realizado cierta reacción
química y el rendimiento que se ha obtenido en Tabla 2.7 Datos correspondientes a las temperaturas de
la misma. A partir de esta tabla se obtiene el realización y el rendimiento obtenido en 50 reacciones químicas
gráfico de la figura 2.14.
Los diagramas bivariantes pueden
presentar distintos aspectos según el tipo de relación que exista entre las variables. En la figura 2.15 se
han representado los diversos tipos de diagramas que pueden aparecer. En algunas ocasiones no está claro
si existe o no correlación. Para estos casos, Ishikawa propone la realización del llamado “test de
correlación de las medianas”. Para ello se sigue el siguiente procedimiento:

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Fig. 2.14 Diagrama bivariante elaborado


a partir de los datos de la tabla 2.7

38

Fig. 2.15 Distintos aspectos que puede


presentar un diagrama bivariante

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

1. Determinar las medianas de las x (variable colocada en el eje horizontal) y de las y (variable
colocada en el eje vertical).
2. Trazar ambas medianas en el diagrama bivariante. De esta forma, el diagrama queda dividido
en cuatro cuadrantes, que son notados como I, II, III y IV, a partir del extremo superior derecho
y en sentido contrario a las agujas del reloj.
3. Contar los puntos que quedan en cada cuadrante excluyendo los que están situados sobre las
medianas. Determinar la suma de puntos en los dos cuadrantes opuestos (I y III o II y IV) que
presenten la suma menor. Este número se denomina “valor de prueba”.
4. Comparar el valor de prueba en la tabla 2.8. Si el valor de prueba obtenido es igual o inferior a
la cantidad límite que se da en la tabla, puede decirse que existe correlación con una
probabilidad de error igual o menor al 5 %. La justificación teórica de las cantidades límite de
la tabla requiere el uso del modelo binomial que se estudia en el capítulo 4.

NÚM. DE LÍMITE DEL VALOR NÚM. DE LÍMITE DEL VALOR


PUNTOS DE PRUEBA PUNTOS DE PRUEBA

20 5 56 20
21 5 57 20
22 5 58 21
23 6 59 21
24 6 60 21
25 7 61 22
26 7 62 22
27 7 63 23
28 8 64 23 39
29 8 65 24
30 9 66 24
31 9 67 25
32 9 68 25
33 9 69 25
34 10 70 26
35 10 71 26
36 11 72 27
37 12 73 27
38 12 74 28
39 12 75 28
40 13 76 28
41 13 77 29
42 14 78 29
43 14 79 30
44 15 80 30
45 15 81 31
46 15 82 31
47 16 83 32
48 16 84 32
49 17 85 32
50 17 86 33
51 18 87 33
52 18 88 34
53 18 89 34
54 19 90 35
55 19

Tabla 2.8 Límites del valor de prueba para el test de correlación de Ishikawa

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

En el diagrama temperatura-rendimiento (figura 2.16), los puntos


CUADRANTE PUNTOS
que se obtienen en cada cuadrante son:
I 18
II 5
III 18
IV 5

Por tanto, en este caso el valor de prueba será 10 (número de puntos en los cuadrantes II+IV).
El número de puntos a considerar es de 46, ya que del total se restan los que caen sobre las medianas
(cuatro en este caso). El valor límite que da la tabla para N=46 es 15, y como 10<15, podemos afirmar
con una probabilidad de equivocarnos menor del 5 % que existe correlación entre temperatura y
rendimiento. (Ver figura 2.16.)

40

Fig. 2.16 Test de correlación de Ishikawa sobre los datos de la tabla 2.7

Respecto a la construcción de este tipo de diagramas, cabe hacer las siguientes recomen-
daciones:
1. Representar los datos con distinto símbolo según su origen (estratificar).
Observe la figura 2.17. El diagrama de la derecha representa la relación entre la humedad final
de un producto tras un pro-ceso de secado y el tiempo de molturación a que fue sometido
previamente. Del análisis de este diagrama parece deducirse la inexis-tencia de correlación. Sin
embargo, no se ha considerado que las medidas han sido toma-das por dos aparatos distintos, y
teniendo este hecho en cuenta, se ha representado el diagrama de la derecha.
Éste no es un caso raro, puesto que, cuando se toman medidas con dos aparatos distintos, éstos
pueden estar calibrados de forma distinta y conviene distinguir los puntos que han sido
obtenidos con uno u otro aparato.
Lo mismo podríamos decir si los datos hubieran sido tomados por dos (o más) operarios, de
varios turnos, de varias máquinas, de materias primas de distinto origen, etc.

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

Fig. 2.17 Diagrama bivariante con los datos sin estratificar y estratificados

2. Aunque los datos históricos de que se dispone no indiquen la presencia de correlación, no


significa que ésta no exista.
Quizá los datos de que se dispone, sobre el factor cuyo efecto se estudia, se mueven en un rango
de variación demasiado pequeño para poner de manifiesto la correlación existente, tal como
pone de manifiesto la figura 2.18.
3. La existencia de correlación no implica una
relación causa-efecto.
Se ha comprobado que existe una alta
correlación entre la temperatura media de un 41
mes y el número de matrimonios que durante
ese mes se celebran. Sin embargo, no cabe
esperar que una ola de calor en el mes de
febrero aumente el número de matrimonios
ese mes. Esta relación es debida a otras
variables interpuestas (en este caso, quizá:
calor 6 vacaciones, vacaciones 6 matrimonio).
Es necesario, por tanto, ser prudente a la hora
de sacar conclusiones ante un diagrama que Fig. 2.18 Aunque los datos de que se dispone no indiquen
presenta una clara correlación. la presencia de correlación, no significa que ésta no exista

2.6 Estratificación

La estratificación es también una de las siete herramientas básicas que propone Ishikawa. En realidad,
no es una técnica nueva, sino que es una metodología que conviene incorporar a cada una de las
herramientas que ya hemos visto.
Así, las plantillas para la recogida de datos deben pensarse para que posteriormente pueda
realizarse los análisis dividiendo los datos según su origen. En el caso de los histogramas, los
diagramas de Pareto o los diagramas bivariantes, una correcta estratificación permite obtener una
información de gran importancia que, de otra forma, no se pondría de manifiesto.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Ejercicios

2.1 Durante una semana, se ha medido diariamente el contenido de humedad correspondiente a 24


paquetes de un determinado producto, tomados al azar a la salida de una línea de envasado.
Los resultados obtenidos son:

LUNES 8.20 8.05 8.53 8.48 8.15 8.79


8.36 8.76 8.64 8.34 8.15 8.91
8.37 8.51 8.83 8.51 8.68 8.32
8.52 8.18 8.35 8.08 8.79 8.49
MARTES 8.61 9.30 8.59 8.32 9.08 8.43
9.14 8.58 8.66 8.33 9.13 8.66
8.52 8.81 8.70 8.41 8.69 9.17
9.20 8.68 9.08 9.07 8.46 8.56
MIÉRCOLES 9.43 9.28 9.59 8.86 9.19 9.22
8.85 9.14 9.15 9.28 9.12 8.85
8.66 9.41 8.75 8.50 9.20 8.56
8.89 9.34 9.18 9.19 8.80 9.46
JUEVES 8.97 9.21 8.86 8.76 9.55 9.38
9.02 9.53 8.75 9.21 9.50 9.58
9.61 9.28 9.64 8.76 9.48 9.09
9.15 9.28 9.05 9.40 9.58 9.46
VIERNES 8.46 8.17 8.97 8.64 8.40 8.17
8.00 8.60 8.20 8.81 8.60 8.11
42 8.32 8.48 8.33 8.73 8.47 8.05.
8.91 8.65 8.26 8.73 8.10 8.89

Indicar qué conclusiones se pueden obtener a partir de estos datos.

2.2 Construir los diagramas causa-efecto para los siguientes efectos:


a) llegar tarde al trabajo,
b) suspender un examen,
c) derrota en una competición deportiva.

2.3 En un diagrama causa-efecto aparece la temperatura de la matriz de una prensa como posible
causa de la aparición de poros en el producto. Para confirmarlo, se recogen datos de 50
prensadas y se realiza un diagrama bivariante entre la temperatura (T) y el número de poros
obtenidos (P).
Indique cuáles serían las conclusiones obtenidas al realizar el test de correlación de Ishikawa,
en cada uno de los siguientes casos.

A B C D
CUADRANTE 1 19 10 5 8
CUADRANTE 2 4 12 20 21
CUADRANTE 3 20 11 5 8
CUADRANTE 4 5 10 20 13

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

2.4 Los datos que figuran a continuación corresponden a una característica de calidad de cierto
producto (y), y los valores de cuatro factores de producción (x1, x2, x3, x4), que se considera que
pueden influir en ella.

NÚM. y x1 x2 x3 x4 NÚM. y x1 x2 x3 x4
1 18.96 6.39 8.34 5.25 9.99 16 25.27 7.01 9.58 3.96 10.28
2 12.81 5.54 6.90 6.03 9.23 17 15.04 5.89 7.46 5.82 9.58
3 11.15 5.24 6.44 6.10 8.89 18 20.65 6.57 8.69 4.94 10.10
4 19.38 6.44 8.43 5.17 10.02 19 11.15 5.24 6.44 6.10 8.89
5 18.41 6.33 8.22 5.34 9.94 20 18.53 6.34 8.25 5.32 9.95

6 13.00 5.57 6.95 6.02 9.27 21 23.55 6.86 9.26 4.34 10.23
7 10.37 5.08 6.21 6.11 8.70 22 11.81 5.36 6.63 6.08 9.04
8 15.39 5.94 7.54 5.78 9.63 23 23.51 6.86 9.25 4.35 10.23
9 11.90 5.38 6.65 6.08 9.06 24 25.74 7.05 9.67 3.85 10.28
10 21.50 6.66 8.86 4.77 10.15 25 12.64 5.51 6.85 6.04 9.20

11 11.45 5.29 6.53 6.10 8.96 26 25.45 7.03 9.61 3.92 10.28
12 18.04 6.28 8.14 5.40 9.91 27 18.26 6.31 8.19 5.37 9.93
13 10.63 5.13 6.29 6.11 8.76 28 10.56 5.12 6.27 6.11 8.75
14 17.39 6.20 8.00 5.50 9.85 29 15.46 5.95 7.56 5.77 9.64
15 13.27 5.62 7.02 6.00 9.31 30 10.98 5.20 6.39 6.11 8.85

Realizar diagramas bivariantes e indicar qué conclusiones se pueden obtener con estos datos.

2.5 Hace unos años, en una revista editada en la Escola Tècnica Superior d’Enginyers Industrials 43
de Barcelona (ETSEIB), aparecía una nota de la Dirección de la Escuela en la que se informaba
que en el primer parcial de ese curso se había gastado el 75% de todo el papel de examen que
se necesitó en el curso anterior. Se incluía también la siguiente tabla:

DEPARTAMENTO ALUMNOS HOJAS


Matemáticas 2282 27000
Mecánica 1030 35000
Cons. Arq. Ind. 178 700
Gestión empresarial 682 2700
Ing. Eléctrica 675 8100
Informática 515 2000
Proyectos 173 1000
Téc. Cuant. Gestión 560 5500
Técnicas Exp. Gráf. 1114 ---
Transp. y motores 329 3900
Ing. Electrónica 350 4000
Ing. Química 181 2700
Física 1371 9500
Ing. Cibernética 222 1900
Mecánica de fluidos 630 3500
Ing. de materiales 470 5500
Química 1128 8500
Ing. Nuclear 258 1000
Termodinámica 723 4500

Desde el punto de vista de la economía de la escuela y con el único objetivo de disminuir al


máximo el consumo de papel, si sólo se pudiera llamar la atención a un departamento, ¿cuál
habría escogido usted?

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Justifique su respuesta realizando el gráfico que le parezca más adecuado.

2.6 El número de piezas defectuosas detectadas en un mes debido a diversas causas es el que se
muestra a continuación:

CAUSA NÚM. DE PIEZAS DEFECTUOSAS


Presión 42
Temperatura 15
Ruido 10
Humedad 6
Otros 12

Se realiza una modificación para intentar reducir el número de piezas defectuosas y se obtienen
los siguientes resultados:

CAUSA NÚM. DE PIEZAS DEFECTUOSAS


Presión 5
Temperatura 11
Ruido 9
Humedad 7
Otros 12

44
Realice un gráfico que ponga de manifiesto los efectos de la modificación introducida.

© los autores, 1998; © Edicions UPC, 1998.


π HERRAMIENTAS BÁSICAS PARA LA MEJORA DE LA CALIDAD

Apéndice 2A Datos e información

No es extraño que en una empresa se recojan y archiven gran cantidad de datos y, sin embargo, cuando
se pretende solucionar un problema concreto, no se disponga de los datos para realizar un diagnóstico
seguro. O los datos son incompletos o, simplemente, no son fiables.
J. M. Juran aclara esta aparente paradoja, distinguiendo claramente entre los conceptos de datos
e información.
Los datos pueden definirse como la concreción numérica de hechos o realidades, mientras que
la información debe entenderse como la respuesta a preguntas previamente planteadas.

Datos = Hechos, realidades


Información = Respuesta a preguntas

Cuando se plantea un problema, su resolución exige disponer de una cierta información


(respuestas a preguntas del tipo, ¿con qué frecuencia se presenta el problema?, ¿en qué circunstancias
se presenta?, etc.). Pero, mientras que la buena información siempre está basada en datos, un
determinado volumen de datos, por grande que sea, no necesariamente aporta la información que se
precisa para resolver el problema.

La “información” incluye “datos”.


Los “datos” no necesariamente incluyen “información”.

Así pues, la clave no está en cómo recoger datos, sino en cómo obtener información que resulte 45
útil.
El proceso de generar información puede resumirse en las siguientes etapas:
1. Formular claramente las preguntas que se desea contestar.
2. Recopilar datos relativos a la cuestión planteada.
3. Analizar los datos para determinar la respuesta a la pregunta.
4. Presentar los datos de forma adecuada para poner claramente de manifiesto cuál es la respuesta
a la pregunta.
Es importante tener presente cuál es la pregunta que se desea contestar, cuando se planifica la
recogida de datos. Unos datos correctos y muy exactos, recopilados mediante un elaborado diseño de
muestreo estadístico, son inútiles si no permiten contestar alguna pregunta de interés.

© los autores, 1998; © Edicions UPC, 1998.


3
Causas y medidas de la variabilidad

Consideremos el proceso de correr 100 m libres por parte de un atleta. En principio cada carrera
representa una repetición de ciertos pasos del proceso: precalentamiento, colocación en los tacos de
salida, la salida en aceleración, mantenimiento de la velocidad, etc. La evidencia nos indica que, a
pesar de que se intenta repetir todos los pasos en forma idéntica, el resultado no es el mismo en todas
las carreras. Esta variación en el “producto” (resultado de la carrera en nuestro ejemplo) recibe el
nombre de variabilidad y está presente en todo proceso real, de modo que no se puede predecir con
exactitud el resultado de una carrera antes de que ésta se celebre. Ello no significa que la variabilidad
no se pueda medir. En nuestro ejemplo, sí suele ser posible saber el tiempo aproximado en que 47
acostumbra a correr la prueba el atleta en cuestión, o con qué frecuencia corre por debajo de 10,2 seg
por ejemplo, ya que no hay que confundir la variabilidad con ausencia total de regularidad.
En la vida real, casi siempre hay que tomar decisiones en presencia de “ruido” o variabilidad,
y es la estadística la disciplina especializada en el tema.
En este capítulo se analizan conceptualmente las distintas causas que generan variabilidad en la
mayoría de procesos, y se introducen los importantes conceptos de función de densidad de
probabilidad y función de distribución que nos permiten medirla.

3.1 Causas de variabilidad

Consideramos el proceso genérico de la figura 3.1.

Fig. 3.1 Variabilidad en un proceso


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

En la práctica, existen siempre variaciones en las entradas de un proceso y, en consecuencia,


existirán diferencias (variaciones) entre las características de las distintas unidades de producto obtenidas
como salida del proceso.
Si, por ejemplo, consideramos un cierto proceso de mecanización de piezas de acero y de cada
pieza medimos su diámetro, el histograma de la parte derecha de la figura 3.1. representará la variabilidad
del diámetro de las distintas piezas producidas. Toda variabilidad tiene sus causas, y el hecho de que los
diámetros de dos piezas fabricadas por el mismo proceso sean distintos es la consecuencia de variaciones
en la materia prima (diferencias en el porcentaje de carbono entre distintas partidas de acero), de la
variabilidad en la mano de obra (los operarios no trabajan siempre de la misma manera), o de la
variabilidad en cualquier otra entrada del proceso.
Un hecho de trascendental importancia, y que justifica la gran utilidad de la estadística en el estudio
de la variabilidad, consiste en que, aunque los diámetros de las distintas piezas sean distintos, si se mantiene
constante el sistema de causas que producen variabilidad en las entradas, las frecuencias con que se
observan los distintos valores de los diámetros tienden a estabilizarse en forma de una distribución predecible.
En otras palabras, si bien el diámetro de una pieza individual es impredecible, cuando el sistema de
causas de variabilidad es estable, se pueden hacer predicciones estadísticas sobre grupos de piezas.
En la argumentación anterior ya se intuye que las causas de variabilidad podrán tener consecuencias
muy distintas, dependiendo de que su presencia en el proceso sea estable o esporádica. Pero lo más
importante es que, según cuales sean las características de una causa de variabilidad, su eliminación del
proceso o, por lo menos, la reducción de sus efectos corresponderá a distintos niveles de autoridad y
responsabilidad dentro de la organización.
Como se explica en Peña, Prat (1986), bajo supuestos muy generales, las pérdidas que un producto
48 causa a la sociedad cuando se utiliza son directamente proporcionales a la variabilidad de la característica
de calidad del producto en cuestión. Por ello, en general, será cierto que:
MEJORAR LA CALIDAD REDUCIR LA VARIABILIDAD

Así pues, la estrategia básica para la mejora de la calidad pasa por la identificación de las causas
que producen variabilidad, y por una correcta asignación de la misma a una u otra de las dos categorías
definidas ya por Shewhart (1931):
1) Causas comunes, cuya eliminación es responsabilidad de la dirección de la empresa y que
acostumbran a ser responsables de más del 90% de los problemas de calidad.
2) Causas asignables, cuya eliminación es más sencilla y son responsabilidad del operario, si bien
representan menos del 10% de los problemas de calidad de un cierto proceso.
Aunque no existe una definición precisa de estos dos tipos de causas, en la tabla 3.1 se
encuentran algunas características de cada uno de ellos.

CAUSAS COMUNES CAUSAS ASIGNABLES (ESPECÍFICAS)

• Suelen ser muchas y cada una produce pequeZas • Suelen ser pocas pero de efectos importantes.
variaciones. • Aparecen espor<dicamente en el proceso. Este
• Son parte permanente del proceso. Su suma hecho facilita su identificaci\n y eliminaci\n
(superposici\n) determina la capacidad del proceso. (gr<ficos de control).
• Son difRciles de eliminar. Forman parte del sistema y es • Son relativamente f<ciles de eliminar por parte
responsabilidad de la direcci\n disminuir sus efectos. de operarios y/o tJcnicos.
• Afectan al conjunto de m<quinas, operarios, etc. • Afectan especRficamente a una m<quina,
• La variabilidad debida a estas causas admite operario, etc.
representaci\n estadRstica (densidad de probabilidad). • No admite representaci\n estadRstica.

Tabla 3.1 Características de las causas de variabilidad


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

En la tabla 3.2 se encuentra una lista de condiciones a las que normalmente se asocian las dos
categorías de causas de variabilidad.

CONDICIONES ASOCIADAS A CONDICIONES ASOCIADAS A


CAUSAS COMUNES CAUSAS ASIGNABLES
Inevitable Evitable
Estable Inestable
HomogJneo HeterogJnea
Constante Err<tico
Normal Anormal
Descontrolado
Estacionario
Impredecible
Controlado Inconsistente
Predecible Espor<dico
Consistente Diferente
Permanente Importante
No significativo Significativo
EstadRsticamente estable Desgaste
Mdltiple Pocas

Tabla 3.2 Condiciones asociadas a las causas de variabilidad

No es exagerado decir que toda la teoría de los gráficos de control de Shewart tenía como
objetivo el desarrollo de métodos que permitiesen identificar la ocurrencia de causas asignables de
variabilidad en un determinado proceso, para proceder a su eliminación y mejorar así la calidad de los
productos industriales. Al mismo autor se debe el concepto de proceso en estado de control, como
aquel proceso sobre el que únicamente actúa un sistema estable de causas de variabilidad (las causas
49
comunes), y cuyo output es, en consecuencia, predecible estadísticamente.
Todas estos conceptos serán desarrollados con mayor detalle en el capítulo 11 de este libro.

3.2 Medidas de la variabilidad

Las unidades producidas y las que conceptualmente puede producir un proceso en estado de control son
un ejemplo de lo que en estadística se conoce como población.
Consideremos, por ejemplo, un proceso de rellenado automático de botellas de agua y supongamos
que está en estado de control. Un conjunto de n botellas, seleccionadas aleatoriamente de entre las
fabricadas por el proceso, constituye una muestra
aleatoria de dicha población.
Recibe el nombre de variable aleatoria la
función, Y, que asocia, por ejemplo, cada botella
de agua con su contenido en cm3. El concepto de
variable aleatoria es objeto de estudio profundo en
cualquier libro de estadística matemática y, aunque
este estudio queda lejos de los objetivos de este
libro, es conveniente observar que la función Y
convierte la muestra de observables (botellas de
agua) en números reales (contenidos en cm3),
que se pueden tratar matemáticamente.
Estos conceptos se representan esque-
Fig. 3.2 Población, muestra y variable aleatoria
máticamente en la figura 3.2.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

3.2.1 Variabilidad en una muestra

Es evidente que una manera de representar gráficamente la variabilidad en los datos muestrales es el
histograma de dichos datos.
En la figura 3.3 se presenta el histograma
con los contenidos en cm3 de una muestra de
100 botellas rellenadas por el proceso
considerado.
El histograma permite contestar fácil-
mente a preguntas del tipo:
1. ¿Qué proporción de botellas en la
muestra tienen un contenido inferior a
198 cm3?
2. ¿Qué proporción de botellas en la Fig. 3.3 Histograma del contenido en cm3 en una muestra de
muestra cumplen con las especificaciones tamaño 100
200 ± 2 cm3?
A pesar de que sería de considerable interés tener respuestas a las preguntas anteriores, no cabe
duda que sería de mayor utilidad aún poder contestar a preguntas similares, pero referidas a la
población de las botellas que se pueden rellenar con el proceso en estado de control. Esta idea la
desarrollamos a continuación.

3.3 Densidad de probabilidad. Variabilidad en la población


50

En este apartado vamos a introducir de forma intuitiva un concepto cuya formulación matemática
correcta nos llevaría excesivo tiempo y que el lector interesado puede encontrar en cualquier libro de
estadística matemática, desde textos introductorios como Hogg-Craig (1978) hasta textos como
Chung (1968).
Consideramos la situación descrita en la figura 3.4.

Fig. 3.4 Concepto intuitivo de densidad de probabilidad

Si tomamos una muestra de, por ejemplo, n=20 unidades de un cierto proceso y representamos
la variabilidad de la muestra mediante un histograma, muy probablemente éste presentará la forma
irregular de la parte izquierda de la fig. 3.4. El reducido tamaño de muestra obligará a definir una
amplitud de intervalo grande, y además pueden existir intervalos con pocos efectivos.
Si la muestra fuese de n=200 unidades, seguiríamos hablando de una muestra real de un proceso
real y el histograma resultante sería, posiblemente, más regular que el anterior y con intervalos de
menor amplitud. Manteniéndonos en el mundo real podríamos extraer una muestra de 2.000 unidades

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

y, seguramente, el histograma que representase la variabilidad muestral sería todavía más regular y con
unos intervalos de menor amplitud.
Pasemos ahora al mundo de las abstracciones. Siguiendo el proceso anterior hasta el límite,
cuando n=4 o, lo que es lo mismo, cuando tuviésemos valores de la población conceptual formada
por todas las unidades que se pueden rellenar con el proceso en estado de control, en una gran
mayoría de casos el “histograma” que se obtendría sería tan regular como la función f(y)
representada en la parte derecha de la figura 3.4. Esta curva suave es la que recibe el nombre de
función densidad de probabilidad (d.p.) de la variable aleatoria Y considerada.
Por tanto, en términos coloquiales podríamos
decir que la densidad de probabilidad es como el
histograma realizado con todas las unidades que
constituyen la población. La d.p. es evidentemente un
ente abstracto o modelo matemático y, como todo
modelo, está sometido a la afirmación de Box: “Todos
los modelos son falsos; algunos modelos son útiles”.
Esta afirmación viene a decirnos que, cuando formu-
lemos una d.p., f(y) debe ser útil para hacer previsiones
sobre las unidades fabricadas por dicho proceso, pero
no podemos afirmar que la variabilidad del proceso sea
exactamente la implicada por f(y).
Consideremos ahora la figura 3.5. Fig. 3.5 Densidad de probabilidad
Hemos visto en el capítulo anterior que, en un
histograma, el área sobre un cierto intervalo era la frecuencia relativa con que se habían observado
51
valores en dicho intervalo.
Teniendo en cuenta que una de las definiciones de probabilidad es que ésta es el límite hacia el
que tiende a estabilizarse la frecuencia relativa cuando el tamaño de la muestra crece indefinidamente,
y la relación entre histograma y d.p. que hemos visto anteriormente, se deduce que:
b

∫ f ( y ) dy = Prob ( a ≤ Y ≤ b ) (3.1)
a

donde informalmente Prob(a#Y#b) significa la probabilidad de que la variable aleatoria Y tome, en una
unidad de la población, un valor en el intervalo cuyos extremos son a y b.
No todas las funciónes matemáticas pueden ser una d.p. En efecto, de la relación intuitiva entre
histograma y d.p. se deduce que, para que una función f pueda ser d.p., se requiere:
(a) f(y)$0 para todo y 0 ú
(b) ∫ f ( y ) dy = 1
ú

3.4 Esperanza matemática y varianza

Al igual que en una muestra, parte de la variabilidad puede venir sintetizada en un par de estadísticos
muestrales como x y S2y, la variabilidad representada exhaustivamente por la d.p. f(y), puede también
ser caracterizada parcialmente por dos parámetros poblacionales: µ=E(Y ) y σ 2 =Var(Y) cuya
definición es:
µ = E (Y ) = ∫ yf ( y ) dy (3.2)
ú

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

asociada con el nombre de media poblacional o esperanza matemática de la variable aleatoria y

σ 2 = Var (Y ) = ∫ ( y − µ) f ( y ) dy = E (Y − µ )2
2
(3.3)
ú

conocida como varianza poblacional.


El parámetro µ es un parámetro de localización, es decir, es el valor alrededor del cual toman
valores los individuos de la población considerada, mientras que σ2 es un parámetro de dispersión, ya
que es la esperanza matemática de las desviaciones respecto a µ, al cuadrado.
Si bien en la estadística matemática se definen múltiples parámetros de localización y de
dispersión, µ y σ2 son los más utilizados en el presente libro.

3.5 Función de distribución

Supongamos de nuevo, que la función f( y) de la figura 3.5 es d.p. del contenido en cm3 de la población
de botellas de agua rellenadas por un proceso en estado de control.
Está claro que f(y) contiene toda la información sobre la variabilidad de proceso. En efecto,
conocida f (y) se pueden contestar preguntas del tipo:
1. ¿Qué proporción de las botellas rellenadas por el proceso tendrán contenidos entre a y b?
b
Respuesta: ∫ f ( y ) dy
a

52 2. ¿Qué proporción de las botellas rellenadas por el proceso tendrán contenidos inferiores a a?
a
Respuesta: ∫ f ( y ) dy
−∞

3. ¿Qué proporción de las botellas rellenadas por el proceso tendrán contenidos superiores a b?

Respuesta: ∫ f ( y ) dy
b

El único inconveniente es que cada respuesta


implica calcular un área bajo la curva f ( y). Por ello
resulta de gran utilidad el concepto de función de
distribución.
Dada una variable aleatoria Y, se llama
función de distribución de la v.a. Y a la función F de
la recta real ú en el intervalo [0,1] definida por:

y
F( y) = ∫ f ( t ) dt = Prob (Y ≤ y ) (3.4)
−∞

La figura 3.6 representa esquemáticamente la


relación existente entre la densidad de probabilidad
y la función de distribución de una variable
aleatoria.
Es importante observar que las ordenadas
Fig. 3.6 Relación entre la función de distribución y la
densidad de probabilidad F(y) son directamente probabilidades, mientras que

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

en f(y) las ordenadas son densidades de probabilidad y, en consecuencia, las respuestas a las preguntas
(1), (2) y (3) serían ahora: F(b)-F(a); F(a) y 1-F(b).
Toda función de distribución es obviamente monótona no decreciente, continua por lo menos
por la derecha y tal que lim F ( y ) = 0 y lim F ( y ) = 1 .
y→ −∞ y→∞

3.6 Caso discreto

El lector puede preguntarse en este momento por qué decimos que toda función de distribución (f.d.)
es continua “por lo menos por la derecha”. La razón es que no todas las variables aleatorias son
continuas, como la considerada en el ejemplo del
contenido de las botellas de agua.
Consideremos un proceso con una variable
aleatoria que vamos a denominar discreta. Supon-
gamos que lanzamos 10 veces una moneda y que la
variable aleatoria considerada, Y, es ahora el
número de veces que ha salido cara. En este caso, Y
sólo puede tomar los valores 0, 1, 2,..., 10.
En este caso recibe el nombre de
distribución de probabilidad la función f definida
por:
53
f(y) = Prob (Y=y) para y = 0,1,2,...,10

f(y) = 0 en el resto
Fig. 3.7 Distribución de probabilidad de una variable
aleatoria discreta
Está claro que para una v.a. discreta, f ya no
es una curva suave como ocurría en el caso
continuo, sino que tendrá una forma como la de la
figura 3.7.
La función de distribución de Y, será ahora:

y
F( y) = ∑ f (k )
k =0

Su forma geométrica será del tipo repre-


sentado en la figura 3.8. (Razone el lector la conti-
nuidad por la derecha.)
Para el caso discreto, los parámetros µ y σ2
se definen:

µ = ∑ y f ( y) (3.5)
y

σ 2 = ∑ ( y − µ )2 f ( y ) (3.6) Fig. 3.8 Función de distribución de una variable aleatoria


y
discreta

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

3.7 El caso bivariante

Consideremos de nuevo el proceso de envasado representado en la figura 3.1.


Supongamos ahora que a cada individuo de la población le asignamos un par de valores (x,y)
en el que x es el contenido de la botella en cm3 e y es su peso en gr. Matemáticamente hablando, esta
asignación estaría representada por una función (X,Y) que hace corresponder a cada individuo de la
población un elemento de (x,y) de ú2. Dicha función recibe el nombre de variable aleatoria bidimensio-
nal o vector aleatorio de dimensión 2.
Los conceptos de variabilidad muestral y poblacional discutidos en apartados anteriores se
generalizan de manera inmediata al caso bivariante, como veremos a continuación.

3.7.1 Variabilidad muestral

Supongamos que disponemos de n pares


de valores (xi,yi) i=1,2,...,n; correspon-
dientes a valores muestrales de un cierto
vector (X,Y). Una forma razonable de
representar la variabilidad muestral es el
histograma generalizado de la figura 3.9
en el que el volumen del paralepípedo
correspondiente a la celda rayada en el
54 plano x, y, representa la frecuencia rela-
tiva de individuos muestrales, con la que
X,Y toman valores en dicho rectángulo
(celda).

Fig. 3.9 Histograma generalizado

3.8 Densidades de probabilidad conjunta y densidades marginales

Al igual que hemos hecho en el apartado 3.3,


cuando consideremos la población conceptual en
lugar de una muestra concreta, en el histograma
generalizado de la figura 3.9, las v.a. X e Y
convergerán en general hacia una superficie
regular, f (x,y) denominada densidad de proba-
bilidad conjunta (d.p.c), y que puede tener una
forma como la de la figura 3.10, por ejemplo.
De nuevo, no todas las funciones
matemáticas f(x,y) pueden ser una densidad de
probabilidad conjunta.

Fig. 3.10 Densidad de probabilidad conjunta

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

Para ello es necesario que:


(a) f (x,y) $ 0 para todo (x,y) 0 ú2
(b) ∫∫ f ( x , y ) dx dy = 1
ú2

En el caso bivariante tendremos que:

P ( x 0 ≤ X ≤ x 0 + dx , y 0 ≤ Y ≤ y 0 + dy ) = f ( x 0 , y 0 ) dxdy (3.7)

3.8.1 Densidades marginales

A partir del conocimiento de la d.p.c. f(x,y) de un vector aleatorio (X,Y), siempre es posible obtener la
densidad de probabilidad univariante correspondiente a cada una de las dos variables aleatorias que
definen el vector.
La distribución univariante de X se conoce como densidad marginal en X y está definida por:
f X (x) = ∫ f ( x , y ) dy (3.8)
ú

La distribución univariante de Y se conoce como densidad marginal en Y y está definida por:

fY ( y ) = ∫ f ( x , y ) dx (3.9)
ú

Veremos que, por el contrario, no siempre es posible obtener la densidad conjunta a partir de las
55
densidades marginales, aunque sí lo será en el caso en que las variables aleatorias X e Y sean
estocásticamente independientes. Este concepto se desarrolla en el siguiente apartado.

3.9 Densidades condicionales e independencia de variables aleatorias

Sea (X,Y) un vector aleatorio cuya d.p.c. es f( x,y) y sea y0 un cierto valor de Y tal que fY (y 0) ≠ 0.
Se define como densidad de X condicional al valor y0 de Y a la densidad univariante:

f ( x, y )
f ( x Y = y0 ) = f ( x y0 ) = (3.11a)
f Y ( y0 )

Si x0 es un valor de X tal que fX(x0) ≠ 0, se puede definir también la densidad de Y condicionada


al valor x0 de X como:
f ( x, y )
f ( y X = x0 ) = f ( y x0 ) = (3.11b)
f X ( x0 )

Así pues, en general se tiene que:

f ( x, y ) = f ( y x0 ) f X ( x0 ) = f ( x y0 ) fY ( y0 ) (3.12)

El concepto de densidad condicional permite definir la noción de independencia entre variables alea-
torias. Dado el vector aleatorio (X,Y), diremos que X,Y son variables aleatorias independientes si y sólo si

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

f ( x y0 ) = f X ( x ) (3.13)

Observe el lector que en este caso:


f ( x, y ) = f X ( x ) ⋅ fY ( y ) (3.14)
y por lo tanto, si las variables X,Y son independientes, es posible obtener la densidad como producto
de las marginales.
Los conceptos de densidad conjunta, marginal y condicional así como las de independencia
estocástica pueden extenderse fácilmente a los vectores de dimensión n. En particular, si (Y1, Y2,..., Yn)
es un vector aleatorio, diremos que las variables que lo componen Y1, Y2,..., Yn son variables aleatorias
independientes si y sólo si la densidad de probabilidad conjunta es tal que:
f ( y1 , y 2 , K , y n ) = f Y1 ( y1 ) f Y2 ( y 2 )K f Yn ( y n ) (3.15)

Para ilustrar de manera intuitiva el concepto de independencia entre variables aleatorias


consideremos un caso concreto.
Supongamos que en una cierta población de individuos se define el vector aleatorio (X, Y) tal
que X es la estatura en cm de un cierto individuo e Y es su peso en kilos.
¿Puede el lector imaginarse la forma geométrica de f(y|150)? ¿y la f(y|180)? ¿Cree el lector que
ambas densidades serán idénticas?
Es casi seguro que la densidad de probabilidad de los pesos de todas las personas que miden
150 cm esté centrada en un valor menor que la de las personas que miden 180 cm, ya que en general
56 esta subpoblación estará constituida por individuos que pesan más que los correspondientes a una
estatura de 150 cm.
En este caso, por tanto, no se cumple la expresión (3.13), ya que f(y|x0) depende del valor de x0.
Este hecho coincide con la noción intuitiva de que la estatura y el peso de una persona no son
independientes sino que, en general, las personas más altas también pesan más.
Si, por el contrario, las variables fuesen independientes, la densidad de probabilidad de la
variable X sería la misma fuese cual fuese el valor de Y.

3.10 Covarianza y coeficiente de correlación lineal

Sea (X, Y) un vector aleatorio. Sabemos que la variabilidad de dicho vector está representada por su
función de densidad de probabilidad conjunta f(x,y).
Un parámetro de interés para caracterizar la dependencia lineal entre las v.a X e Y es la
covarianza definida de la manera siguiente:

[
µ 11 = COV ( X , Y ) = E ( X − µ x )( Y − µ y ) ] (3.16)

donde µx y µy son las medias de las densidades marginales.


Comprobamos de manera intuitiva que µ11 mide el grado de dependencia lineal entre X e Y. En
efecto, si suponemos que X e Y están relacionadas de la manera indicada en la figura 3.11(a), como
sería seguramente el caso si X e Y fuesen respectivamente la estatura y el peso de una cierta población,
vemos que, si para un cierto individuo, (X-µx) es positivo y grande (un individuo de mucho mayor
peso que la media de la población), también en general (Y-µy) será positivo y grande (el individuo
será más alto que la media), y si (X-µx) es negativo (individuo de menor peso que la media),

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

probablemente (Y-µ y) será también negativo


(individuos más bajo que la media). En
consecuencia, la mayoría de productos (Y-
µ y) (X-µx) serán positivos y, por lo tanto, µ11,
que es el valor medio esperado de dichos
productos, será positivo.
Un razonamiento parecido al anterior
nos conduce a la conclusión de que, en el
caso de la figura 3.11(b), la covarianza µ11
sería negativa. Podemos utilizar como X,Y, la
temperatura máxima de un cierto día como
variable X, y el consumo de electricidad para
calefacción durante el mismo día en una
cierta unidad como variable Y.
En un día que sea más frío que la
media probablemente se consumirá más Fig. 3.11 Algunos patrones en los diagramas bivariantes
electricidad para calefacción que la que se
consume en media, es decir que, cuando (X-µx) sea negativo, (Y-µy) será positivo. Análogamente en un
día más cálido que la media, el consumo de energía para calefacción será menor que la media y, por lo
tanto, cuando (X-µx) es positivo, se tiene que (Y-µy) es frecuentemente negativo. Así pues, los
productos (X-µx) (Y-µy) serán negativos para una mayoría de individuos de la población y, por lo tanto,
µ 11 será negativa.
Cuando no exista dependencia lineal, como ocurre en el caso de la figura 3.11 (c), para un
57
individuo en el que (X-µx) sea positivo, será equiprobable que (Y-µy) sea positivo o negativo y, por lo
tanto, es razonable pensar que µ11 será nulo.
De los razonamientos anteriores se desprende que el signo de la covarianza es un indicador del
tipo de dependencia lineal entre X e Y. No ocurre lo mismo con el valor de µ11, ya que éste depende de
las unidades de medida. Así, para el caso de la figura 3.11 (a), si X se mide en toneladas e Y en
kilómetros, µ11 será un número pequeño, mientras que si X se mide en miligramos e Y en micras, µ11
tendrá un valor muy grande.
En consecuencia, es conveniente definir un parámetro que tenga siempre el mismo signo que la
covarianza, pero cuyo valor sea independiente de las unidades en las que se midan las variables X,Y.
Este parámetro se denomina coeficiente de correlación lineal y se define:

COV ( X , Y )
ρ xy = (3.17)
σxσy

Se puede demostrar fácilmente que, si entre X,Y existe una relación lineal exacta:

Y = β 0 + β1 X
entonces

ρ xy = ( signo β 1 ) ⋅1

Así pues, ρxy puede tomar valores desde -1 a +1, y toma el valor 0 cuando X e Y son
independientes.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

3.11 Esperanza matemática y varianza de combinaciones lineales de variables aleatorias

Sean Y1, Y2,..., Yn variables aleatorias y sean c1, c2,..., cn constantes reales. Consideremos una
combinación lineal del tipo:
n
Z = ∑ ci Yi (3.18)
i =1

De la definición de esperanza matemática, se deduce que E, es un operador lineal y, por lo tanto:


n n
E( Z ) = ∑ ci E (Yi ) = ∑ ci µ i
i =1 i =1

Por otro lado se tiene que:


2 2
n n
 n 
V ( Z ) = E ∑ ciYi − ∑ ci µ i  = E ∑ ci (Yi − µ i ) =
 i =1 i =1   i =1 
n n −1 n
(3.19a)
= ∑ ci2 Var (Yi ) + 2 ∑ ∑ ci c j COV (Yi , Yj )
i =1 i =1 j = i +1

De la expresión (3.19 a) se deduce que, cuando las variables Y1, Y2,..., Yn sean independientes:

 n  n
V  ∑ ci Yi  = ∑ ci2Var ( Yi ) (3.19b)
 i =1  i =1

Es muy importante entender correctamente el campo de aplicación de la expresión (3.19 b), y


58 para ello vamos a considerar un ejemplo concreto.
Supongamos un proceso de rellenado de gel en unas botellas de plástico. Definamos las
siguientes variables aleatorias:
X 6 peso neto de gel en una botella
Y 6 peso de la botella vacía
Z 6 peso de la botella llena de gel
Es razonable pensar que será fácil obtener datos experimentales que permitan estimar la
varianza σy2 de la variable Y y la varianza σz2 de las botellas llenas, mientras que será casi imposible
obtener datos experimentales de la variable X (parte del gel quedaría pegado a las paredes de la botella
y el vaciado sería imperfecto). No obstante, si tenemos en cuenta que:
Z=X+Y
y que es razonable pensar que X e Y son independientes, podemos aplicar:
 n  n
V  ∑ ci Yi  = ∑ ci2Var (Yi )
 i =1  i =1

y obtener:
σ 2z = σ 2x + σ 2y
y, por lo tanto:
σ 2x = σ 2z − σ 2y

Observe el lector que si hubiese enfocado la solución al cálculo de σx2 a partir de:
X=Z-Y
debería tener en cuenta que ahora Z e Y son claramente dependientes y, en consecuencia, debería
aplicarse la expresión (3.19 a)

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

n n −1 n
∑ ci2 Var (Yi ) + 2 ∑ ∑ ci c j COV (Yi , Y j )
i =1 i =1 j = i +1
en lugar de la (3.19 b)
 n  n
V  ∑ ci Yi  = ∑ ci2Var (Yi )
 i =1  i =1

3.12 Ejemplo del “helicóptero”

Para ilustrar los conceptos básicos de este capítulo,


vamos a utilizar el “helicóptero” de papel cuyo diseño
está realizado en la figura 3.12. La idea de utilizar este
ejemplo a lo largo del libro le fue sugerida a uno de
sus autores por George E. P. Box, Soren Bisgaard y
Conrad Fung de la Universidad de Wisconsin.
El proceso de fabricación de helicópteros
consistiría, entre otros, en los siguientes pasos (ver
figura 3.13.):
Supongamos que la característica de calidad
más importante en los helicópteros fabricados es el
tiempo que tardan en caer desde tres metros de altura.
Si el lector tiene paciencia suficiente para
59
construir unos cuantos helicópteros a partir del diseño
de la figura 3.12, y una vez fabricados los lanza desde
una altura de 3 m y mide el tiempo de caída, observará
lo obvio: no todos los helicópteros tardan el mismo Fig. 3.12 Diseño del helicóptero de papel
tiempo en recorrer los 3 m. ¿Por qué existe variabi-
lidad en estos tiempos?

Fig. 3.13 Proceso de fabricación de los helicópteros

Como ejemplo de algunas de las causas de variabilidad podríamos considerar las de la tabla 3.3.
Obsérvese que en la variabilidad final intervienen, no sólo las causas que actúan durante el
proceso de fabricación de los helicópteros, sino también las que actúan durante el proceso de
lanzamiento y medida del tiempo de caída.
En este ejemplo la población conceptual estaría formada por todos los helicópteros que se
pueden fabricar por el proceso en estado de control, es decir, eliminando las causas asignables como
la citada antes en segundo lugar en la tabla 3.3.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

CAUSA TIPO

Variabilidad en la calidad (textura, peso, etc.) de los folios Comdn


utilizados como materia prima.
Distracci\n durante el dibujo de las lRneas de corte del 51 Asignable
helic\ptero.
No siempre dejaremos caer el helic\ptero desde 3 metros Comdn
exactamente.
Variabilidad en las corrientes del aire en la habitaci\n donde se Comdn
dejan caer los helic\pteros.

Tabla 3.3 Algunas causas de variabilidad en el ejemplo del helicóptero

Una muestra estaría constituida, por ejemplo,


por 10 helicópteros seleccionados al azar de
entre los fabricados por el proceso.
El experimento consiste en dejar caer
un helicóptero desde 3 m de altura. Midiendo
el tiempo de caída definimos la variable
aleatoria Y, que asociaría a los 10 helicópteros
de la muestra los 10 números reales corres-
pondientes a sus tiempos de caída. Dichos
tiempos, en segundos, podrían ser: 3,25; 3,14;
60 2,68; 2,96; 2,99; 2,60; 2,90; 2,75; 2,86; 3,05.
Dado el reducido número de datos
muestrales, la representación gráfica más
adecuada será la de la figura 3.14.
Fig. 3.14 Representación gráfica con pocos datos Si en lugar de seleccionar una muestra
de 10 helicópteros, hubiésemos elegido una
muestra de mayor tamaño (100 helicópteros
por ejemplo), la representación gráfica de los
datos sería el histograma de la figura 3.15.
El área rayada en la figura 3.15 es
proporcional a la frecuencia relativa o la
proporción de los 100 helicópteros muestrales
cuyos tiempos de caída desde 3 m han estado
comprendidos entre 2,4 y 3,6 segundos.
Conceptualmente podemos suponer
que, si experimentásemos con todos y cada
uno de los helicópteros de la población,
obtendríamos como límite del histograma una
cierta densidad de probabilidad como la de la
figura 3.16.
En esta densidad, el área rayada
representa la probabilidad de que un heli-
cóptero de la población tarde más de 3,2 y
Fig. 3.15 Histograma de los tiempos de caída de 100 menos de 3,4 segundos en caer desde 3 m o, lo
helicópteros. que es lo mismo, la proporción de helicópteros

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

en la población cuyo tiempo de caída estaría


comprendido entre 3,2 y 3,4 segundos.
Finalicemos este capítulo indicando que
uno de los objetivos básicos de la estadística es
hacer inferencias acerca de una población
conceptual a partir de datos muestrales de dicha
población.

Fig. 3.16 Densidad de probabilidad en el caso de los helicópteros

61

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS.CONTROL Y MEJORA DE LA CALIDAD π

Ejercicios

3.1 El número de averías que sufre una determinada máquina a lo largo del día está descrito por la
siguiente distribución de probabilidad:

NÚM. DE AVERÍAS (X) PROBABILIDAD P(X)

0 0.1
1 0.2
2 0.2
3 0.2
4 0.2
5 0.1

Calcular la esperanza matemática y la varianza de la variable aleatoria “número de averías”.

3.2 Una variable aleatoria tiene la siguiente distribución de probabilidad:

VALOR DE X PROBABILIDAD P(X)


Calcular:
a) E(x2)
30 1/12 b) E[(x-x)2]
31 2/12 c) E(x)
32 3/12
33 2/12 d) E(2x-1)
34 1/12
62
35 1/12
36 1/12
37 1/12

3.3 Se considera la variable X “suma del resultado de lanzar dos dados a la vez”.
Calcular:
a) E(x)
b) V(x)

3.4 Una variable aleatoria tiene la siguiente distribución de probabilidad:


f(x) = k(1-x)2 0<x<1
f(x) = 0 en los demás casos.
Hallar E(x) y V(x).

3.5 Una variable aleatoria x se distribuye según la función de densidad:


f(x) = 3kx 0<x<3
f(x) = 1+3kx 3<x<5
f(x) = 0 en los demás casos.
a) Hallar el valor de K.
b) Hallar la esperanza matemática de x.
c) Hallar la varianza de x.
d) Dibujar la función de distribución.

© los autores, 1998; © Edicions UPC, 1998.


π CAUSAS Y MEDIDAS DE LA VARIABILIDAD

3.6 La viscosimetría es una técnica corrientemente utilizada en la industria química para conocer la
distribución de pesos moleculares de polímeros.
Un investigador estudió muestras de polimetacrilato de metilo a lo largo de una semana, y
obtuvo los siguientes resultados:

DÍA PESO (G) VISCOSIDAD (PO) TEMP. LABORTORIO (1C)

1 0.8241 0.6749 22.3


2 0.6022 0.668 22.1
3 0.4554 0.641 18.9
4 0.4287 0.6240 22.6
5 0.2290 0.6010 23.1
6 0.2000 0.5750 22.5
7 0.3325 0.6200 23.0

a) Calcular la covarianza y el coeficiente de correlación entre el peso (expresado en gramos) y


la viscosidad (en poises).
b) Calcular la covarianza y el coeficiente de correlación entre el peso (expresado en kilogramos)
y la viscosidad (en poises).
c) ¿Qué se puede deducir a la vista de los resultados de los apartados a) y b)?
d) ¿Existe relación entre la temperatura y la viscosidad?
e) ¿Y entre la temperatura y el peso de los polímeros?
f) Realizar diagramas bivariantes y decir si los resultados obtenidos son coherentes con dichos
diagramas.
63

3.7 En un estudio de mercado se observó que el consumo de una determinada revista dependía de
la edad según la siguiente densidad de probabilidad:

f(edad) =0 edad<18
4
f (edad) =k/edad edad$18
a) Calcular el valor de k.
b) Utilizando dicha densidad de probabilidad, calcular la probabilidad de que una persona que
compre la revista, escogida al azar, tenga una edad comprendida entre 25 y 30 años.

3.8 Un fabricante de juguetes de madera utiliza en sus productos cuatro tipos de material (a, b, c,
d) que une mediante cuatro tipos diferentes de cola (A,
B, C, D). Ha observado que en ciertas condiciones sus
A B C D
productos se rompen con facilidad según la distribución
de probabilidad conjunta de la siguiente tabla: a 0.01 0 0.07 0.02
a) ¿Cuál es la probabilidad de que se despeguen las
piezas utilizando el material b y la cola C? b 0.02 0.05 0.1 0.23
b) ¿Cuál es la probabilidad de que la pieza se rompa c 0.06 0.11 0.03 0
utilizando la cola A?
c) ¿Cuál es la probabilidad marginal de b? d 0.01 0.24 0 0.05

© los autores, 1998; © Edicions UPC, 1998.


© los autores, 1998; © Edicions UPC, 1998.
4
Algunos modelos probabilísticos

Consideremos tres situaciones frecuentes en la industria:


S1.Consideremos el control de recepción de materias primas o de componentes semielaborados. En
general, el control consistirá en extraer una muestra aleatoria del pedido y aceptar o rechazar el
mismo en función del número de componentes defectuosas halladas en la muestra.
S2.Consideremos un estudio de mercado destinado a estimar el porcentaje de hogares que tienen
instalado un cierto electrodoméstico. El estudio consistirá en seleccionar una muestra aleatoria
de hogares y estimar el porcentaje en la población en función del número de ellos que en la 65
muestra tengan el electrodoméstico en cuestión.
S3.Supongamos que una empresa desea estimar la proporción de facturas emitidas que tardan más
de tres meses en ser cobradas. Para ello se seleccionará una muestra de las facturas emitidas en
el pasado y a partir de la proporción muestral de facturas cobradas con el retraso antes indicado,
se estimará dicha proporción en el total de facturas.
Las tres situaciones son asimilables al siguiente modelo:
Una urna contiene bolas de dos tipos, B y B en cantidades NB y N-NB respectivamente. Se
extraen n bolas de la urna, sin reposición, y se considera la variable aleatoria X, definida por el número
de bolas del tipo B que han aparecido en la muestra.
En dicho modelo, la probabilidad de que X=x (x=0,1,2,3...,n) sería:

 NB N − NB
  
 x  n − x 
h( x ; N , N B , n ) = (4.1)
 N
 
 n
N 
donde, por ejemplo,  B  es el número de combinaciones de orden x entre NB elementos.
 x 
La expresión (4.1) es la distribución de probabilidad de un modelo probabilístico conocido
como modelo hipergeométrico.
La tabla 4.1 muestra cómo las situaciones S1, S2 y S3 se adaptan conceptualmente al modelo
hipergeométrico, es decir, que sería correcto basarnos en dicho modelo para hacer las inferencias
necesarias en los tres casos descritos.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las
sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el
tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de
© los autores, 1998; © Edicions UPC, 1998.
ejemplares para su distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

SITUACIÓN TIPO B TIPO BB N NB n


S1 Componente Componente Ndmero de Ndmero de Ndmero de
defectuosa buena componentes componentes componentes
en el pedido defectuosas extraRdas
en el pedido para control
S2 Hogar con Hogar sin Ndmero de Ndmero de hogares Ndmero de
electro- electro- hogares en de la poblaci\n que hogares
domJstico domJstico la poblaci\n tienen electrodomJsticos en la muestra
estudiada
S3 Factura Factura Ndmero total Número de facturas Ndmero de
retrasada cobrada de facturas emitidas y cobradas facturas
antes emitidas con retraso de m<s examinadas
de 3 meses de 3 meses en el estudio

Tabla 4.1 Situaciones que se adaptan al modelo hipergeométrico

En la teoría de la probabilidad existen otros muchos modelos teóricos que resultan de utilidad
en una gran variedad de situaciones prácticas. El objetivo de este capítulo es presentar las más
relevantes desde un punto de vista conceptual. El lector interesado en los aspectos matemáticos
involucrados en la deducción de dichos modelos y de sus principales características puede, de nuevo,
dirigirse a los textos de estadística matemática mencionados en el capítulo anterior.

4.1 La ley normal


66
En este apartado vamos a estudiar las principales características de la ley normal, también conocida
como ley de Laplace-Gauss. Dicho modelo probabilístico desempeña un papel esencial en la teoría y la
práctica de la estadística, así como en la teoría de la probabilidad, especialmente en los teoremas límite.
Se dice que una variable aleatoria Y se distribuye según una ley normal de parámetros µ y σ [lo
abreviaremos diciendo: Y-N(µ;σ)], cuando su densidad de probabilidad viene dada por:

1  ( y − µ )2 
f ( y) = exp  −  (4.2)
2π σ  2σ 2 

para -4<y<4; -4<µ<4 y σ>0.


Desde un punto de vista geométrico, la ley normal tiene la conocida forma de campana de la
figura 4.1.
Es fácil comprobar los siguientes elementos más
relevantes:
a) f(y) es simétrica respecto del eje y=µ.
b) La gráfica de f(y) presenta un máximo relativo
 1 
en  µ , .
 2π σ 
c) La gráfica de f(y) presenta puntos de inflexión
en y=µ-σ e y=µ+σ.
d) f(y)$0 para todo valor de y.
e) ∫ f ( y ) dy = 1.
Fig. 4.1 Gráfica de la densidad de probabilidad N(µ; σ)
ú

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

A nivel estrictamente geométrico, es


interesante observar que variar el valor del
parámetro µ equivale únicamente a variar la
posición de la campana sin variar su forma.
Por el contrario, una variación en el valor del
parámetro σ implica una modificación de la
forma de la curva (si aumenta σ, se alejan del
eje y=µ los puntos de inflexión y disminuye
la ordenada del máximo relativo), pero no
afecta a la posición de la misma. En la figura
4.2 se observan estos efectos.
Estos efectos son perfectamente
Fig. 4.2 Efectos de µ y σ sobre la gráfica de la ley normal
razonables, ya que:

E (Y ) = ∫R y f ( y ) dy = µ

V (Y ) = ∫R ( y − µ ) f ( y ) dy = σ 2
2

Así pues, µ y σ no son más que


la esperanza matemática y la desviación
tipo de la variable aleatoria y, en con-
secuencia, µ es un parámetro de loca-
lización, mientras que σ afecta a la 67
dispersión y, por lo tanto, a la forma de
la densidad.
La gran utilidad de la ley normal
en la práctica es consecuencia de su
origen histórico, muy ligado a la teoría
de los errores de medida. De hecho, si
bien la ley normal fue descubierta por
Abraham de Moivre como límite de un
modelo binomial, su uso fue potenciado
por Laplace y especialmente por Gauss
en sus estudios sobre los problemas de
medición en astronomía. Parece muy
razonable suponer que la distribución
de los errores de medida en un
instrumento “normal” sea simétrica,
centrada en el valor 0, y que la proba-
bilidad de cometer un error sea de
alguna manera inversamente propor-
cional a la magnitud del error. Gauss
obtuvo la densidad (4.2) a partir de
estas hipótesis.
En el siglo XIX, Bessel justifica
la utilidad de (4.2) a partir del principio Fig. 4.3 Distribuciones obtenidas por simulación de las puntuaciones
de superposición, que está en la base de medias al lanzar un determinado número de dados

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

los teoremas centrales del límite de la estadística matemática. La idea consiste en suponer que el error
observado en una medición concreta es consecuencia de una gran cantidad de causas independientes,
con distribuciones de probabilidad parecidas, y cada una de ellas con un efecto pequeño comparado
con el efecto total resultante. En este caso la utilidad de la ley normal para modelar el efecto total es
consecuencia del teorema central del límite que dice, en lenguaje no formalizado, que la suma
(superposición) de un número no muy pequeño de variables aleatorias independientes, idénticamente
distribuidas, en condiciones muy generales, se distribuye según la ley normal.
Este teorema puede ser comprobado empíricamente con el ejemplo ilustrado en la fig.4.3.
Si X1, X2, ..., Xn representan los valores obtenidos al tirar varias veces un dado “perfecto”, la
1
distribución de probabilidad de Xi sería: f ( x i ) = para i=1, 2,..., 6. Automáticamente comprobamos
6
que las distribuciones de probabilidad de la media obtenida en 2, 3, 4,..., 8, tiradas, es decir, la
distribución de probabilidad de:
1 1 1
( X1 + X 2 ), ( X1 + X 2 + X 3 ),K, ( X1 + X 2 +K+ X n )
2 3 n
sería la de la figura 4.3(a), (b), (c), (d) para n=2, 3, 4, 8 respectivamente.
Obsérvese que podemos abordar la suma (dividida por 8) de 8 variables independientes
equidistribuidas según la figura 4.3(a) mediante una ley normal con algún tipo de corrección por
continuidad que comentaremos más adelante.
Si el lector repasa los conceptos de proceso en estado de control y el de sistema de causas
comunes de variabilidad, comprenderá que como consecuencia del teorema central del límite, la
68 variabilidad en este tipo de procesos se puede representar en muchas ocasiones por medio de la ley
normal.

4.1.1 Función de distribución

y
La función de distribución (f.d.) de la ley normal viene dada por: F ( y ) = ∫−∞ f ( t ) dt , donde f(t) viene
dada por (4.2). Puesto que f(t) no tiene función primitiva, no existe expresión analítica para F(y) y, en
consecuencia, la f.d. de la ley normal aparece en forma de tablas o programada en muchas de las
calculadoras existentes en el mercado. El lector interesado en las distintas aproximaciones para el
cálculo numérico de F(y) puede encontrar abundante material en Abramowitz y Stegun (1964),
Johnson y Kotz (1970) o Patel y Read (1982) entre otros.
Existen tablas de la f.d. de la ley N(0;1), también conocida como ley normal centrada y
reducida o ley normal estándar, y cuya densidad de probabilidad, que se obtiene haciendo µ=0 y σ=1
en (4.2), resulta ser
1  z2 
φ(z ) = exp −  para − ∞ < z < +∞
2π  2
La función de distribución de esta ley N(0;1) será:
z
Ψ( z ) = ∫−∞ φ(t ) dt
y está tabulada en la tabla C del apéndice.
Mediante esta tabla, es posible calcular el valor en cualquier punto de la función de distribución
de una ley normal genérica N(µ;σ). En efecto, si Y-N(µ;σ) entonces:

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

 1  y − µ2

y0
1
F ( y 0 ) = Prob (Y ≤ y 0 ) = exp  −    dy
−∞ 2π σ  2  σ  

y−µ
Con el cambio de variable z = tendremos:
σ
z0 =
y0 − µ
1  z2  z0 =
y0 − µ
F ( y0 ) = ∫ −∞ σ
2π σ
exp  −  σ dz = ∫ −∞ σ φ( z ) dz = Ψ ( z 0 )
 2

En la figura 4.4 se representa gráficamente


la función de distribución de una ley normal
N(µ;σ) y se señalan algunos valores de uso
frecuente.
Observemos que ahora es posible interpretar
el significado de σ en el caso de distribución
normal; así, por ejemplo, si Y es el contenido en
cm3 de unas botellas rellenadas por un cierto
proceso, y suponemos que Y-N(200;10), entonces
el 95,44% (97,72-2,28) de las botellas estará entre
µ±2σ, es decir, entre 180 y 220 cm3. Si otra
máquina rellenase botellas con σ=4 cm y µ=200,
entonces el mismo porcentaje, 95,44%, de botellas 69
tendrían contenidos entre 192 y 208 cm3, es decir,
una población más homogénea. Fig. 4.4 Función de distribución de la ley normal N(µ; σ)
Es también evidente que entre µ-4σ y µ+4σ
se encontrará el 99,994% de la población, es decir,
que un intervalo de 8σ centrado en la media
comprenderá prácticamente a todos los individuos
de la población. Por este motivo, a veces 8σ recibe
el nombre de capacidad o tolerancia intrínseca de
una máquina cuya producción se distribuya nor-
malmente.
Si para graduar el eje vertical utilizamos
una escala especial, que se deduce de los valores
de la f.d. de una ley normal N(µ;σ) de la manera
indicada en la figura 4.5, entonces, en un papel
gráfico con dicha escala en el eje probabilístico, la
f.d. de N(µ;σ) será una recta.
Este hecho nos permite utilizar este papel,
conocido como papel probabilístico normal, para
estudios de capacidad de máquina y de proceso,
para análisis de la normalidad de los residuos en
un modelo de regresión lineal, o bien para
identificar los efectos importantes en los diseños Fig. 4.5 Escala del eje vertical en el papel probabi-
experimentales que se estudiarán en el capítulo 7. lístico normal

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

En este mismo capítulo veremos la utilidad de la ley normal para abordar, en condiciones
asintóticas bastante generales otras distribuciones de probabilidad tales como la t-Student, la ley
binomial y la ley de Chi-cuadrado entre otras.
Finalicemos este apartado con un importante resultado cuya justificación puede hallarse en
Lukacs (1956): Si Yi (i=1, 2, ..., n) son variables aleatorias independientes tales que Yi-N(µi;σi) y
ai(i=1,2,...,n) son constantes reales, entonces:

∑ a iYi - N ( µ ; σ ) con µ = ∑ a i µ i y σ = ∑ a i2σ i2 (4.3)

La expresión (4.3) tiene importantes aplicaciones en el cálculo de tolerancias. En efecto,


supongamos que se quieren ensamblar tres varillas tal como se indica en la figura 4.6.

Fig. 4.6 Ensamblaje de tres varillas

Si todas las varillas han sido fabricadas independientemente y de manera que su longitud X se
distribuya normalmente según N(µ;σ), la longitud total L se distribuirá según N(3µ; 3σ ). El
conocimiento de la desviación tipo de L nos permitirá el cálculo de tolerancias del montaje en serie de
las tres varillas.
70 En el ejemplo anterior, hemos definido L=X1+X2+X3 con Xi-N(µ;σ) i=1,2,3. Es interesante que
el lector reflexione sobre el error que se cometería si se hubiese definido L=3X.

4.2 La ley binomial

Supongamos que en una urna hay una proporción p de bolas blancas y, por lo tanto, una proporción
q=1-p de bolas negras. Extraemos n bolas de la urna con reposición (es decir, devolvemos la bola a la
urna después de haber anotado su color). Sea X el número de bolas blancas que han aparecido entre las
n bolas extraídas. Esta situación se caracteriza por:
(i) se realizan n experimentos independientes (la extracción de las n bolas);
(ii) para cada experimento sólo hay dos sucesos posibles: A (la bola blanca) y A (es negra);
(iii) p=P(A); q=1-P(A), la probabilidad de que ocurra A es constante;
(iv) la variable aleatoria de interés X es el número de veces que ocurre A en los n experimentos.
Cuando se cumplen todas las condiciones (i)...(iv) anteriores, se dice que X sigue la ley
binomial.
La distribución de probabilidad binomial es:

 n
Prob ( X = x ) = b( x; n, p ) =   p x (1 − p ) n − x para x = 0,1,2, K , n
 x
 n
donde  es el número de combinaciones sin repetición de orden x entre n elementos y su valor es
 x

 n n!
 =
 
x x !( n − x )!

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

La gráfica de b(x;n,p) depende del valor de sus dos parámetros n y p, tal como se indica en la
figura 4.7.

Fig. 4.7 Distribución de probabilidad de la ley binomial

La función de distribución se define de la siguiente manera:


x
B( x; n, p ) = Prob ( X ≤ x ) = ∑ b( j; n, p )
j =0
Su gráfica es la de una función en escalón, 71
continua por la derecha y monótona no decreciente, tal
como se indica en la figura 4.8.
B(x;n,p) se encuentra tabulada para algunos
valores de n y p en la tabla binomial del apéndice 1.
La esperanza matemática y la varianza de una v.a. que
sigue una ley binomial de parámetros n y p son:

µ = E ( X ) = np

σ 2 = V ( X ) = np (1 − p )

Es interesante observar que µ y σ2 no son


independientes. Fig. 4.8 Función de distribución de una ley binomial
Existen varias aproximaciones de la ley
binomial que presentamos a continuación.
Cuando n es grande y p no toma valores extremos, la ley binomial se puede aproximar mediante
una ley normal. Las condiciones bajo las cuales esta aproximación conduce a resultados correctos
varían según distintos autores. Según nuestra experiencia las condiciones más aceptables son:
1 1− p p  x + 1 2 − np 
Si n ≥ 5 y − < 0,3, entonces B( x; n, p ) ≈ Ψ  , donde Ψ( b)

n p 1− p  np(1 − p ) 
es la función de distribución de la ley normal estándar en el punto b.
El factor ½ que aparece en la expresión anterior es debido a la corrección por continuidad
necesaria al aproximar una distribución de probabilidad de una v.a. discreta con una continua.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Si en lugar de considerar la v.a. X se considera la proporción de veces que ocurre A en los n


experimentos, es decir, p*, tendremos:
X
p∗ =
n
1
E ( p∗ ) = E ( X ) = p
n
1 (1 − p )
V ( p∗ ) = V(X) = p
n2 n
En este caso, cuando se cumpla la condición:
 1 
a+ − p
1 1− p p
n≥5 y − < 0,3 , tendremos que Prob ( p ∗ < a ) ≈ Ψ  2n 
n p 1− p  p(1 − p ) 
 
 n 
Finalmente, en el próximo apartado veremos que, cuando n es grande, p pequeño y np es finito,
la ley binomial se puede aproximar por la ley de Poisson.

4.3 Ley de Poisson

En este apartado se presenta la ley de Poisson desde dos puntos de vista. El primero es como límite de
72 la ley binomial cuando n64, p6 0 y np=λ es finito, y el segundo como proceso de Poisson.
Supongamos una máquina que funciona durante 20.000 segundos diarios. Sea p1=0,0001 la
probabilidad de que la máquina se averíe durante un segundo dado, y admitamos la hipótesis de que la
ocurrencia de una avería en un segundo dado es independiente de lo ocurrido con antelación. Para
planificar el mantenimiento de dicha máquina es necesario calcular las probabilidades de 0, 1, 2, ...,
averías durante un día.
Dichas probabilidades se podrían calcular utilizando la ley binomial y serían:

NÚM. DE AVERÍAS
EN UN DÍA (x) 0 1 2 3 4
PROBABILIDADES:
b (x; 20.000; 0,0001) 0.13532 0.27067 0.27068 0.18046 0.09022

Si disponemos de otra máquina menos utilizada, que funcione durante 10.000 segundos diarios y
con una probabilidad p2=0,0002 de averiarse durante un segundo dado, las probabilidades de 0, 1, 2, ...,
averías en esta segunda máquina serían:

NÚM. DE AVERÍAS
EN UN DÍA (x) 0 1 2 3 4

PROBABILIDADES:
b (x; 10.000; 0,0002) 0.13531 0.27067 0.27070 0.18046 0.09022

Es interesante constatar que las probabilidades calculadas para las dos máquinas prácticamente
coinciden. ¿Por qué?

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

Observemos que en los dos modelos binomiales n es muy grade y p es muy pequeño, mientras
que el número medio de averías por día es np=2 en ambas máquinas.
Se demuestra fácilmente que:
λx
lim b( x; n, p ) = e − λ = p( x; λ ) con np = λ ( finito ) (4.4)
n →∞ x!
p→ 0

La distribución límite p(x;λ) se conoce como ley de Poisson. En nuestro caso tendríamos que:

NÚM. DE AVERÍAS
EN UN DÍA (x) 0 1 2 3 4

PROBABILIDADES:
x
−λ
λ
e (λ = 2) 0,13534 0,27067 0,27067 0,18045 0,09022
x!

Y es evidente la coincidencia práctica de los resultados obtenidos mediante la ley de Poisson y


los obtenidos aplicando las leyes binomiales respectivas.
La gráfica de la distribución de Poisson p(x;λ) depende de λ, tal como se indica en la figura 4.9.

73

Fig. 4.9 Distribución de Poisson

La función de distribución de la ley de


Poisson vendrá dada por:

x
P( x; λ ) = Prob ( X ≤ x ) = ∑ p ( j; λ )
j=0

Dicha función de distribución está


tabulada en el apéndice de las tablas y su
gráfica para λ=2 es la de la figura 4.10.
La ley de Poisson viene caracterizada
por un único parámetro λ y es sencillo probar
que E(X)=λ y V(X)=λ, es decir, que la media y
la varianza de una ley de Poisson coinciden y
que las dos son iguales a λ. Fig. 4.10 Función de distribución de la ley de Poisson para λ=2

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

La ocurrencia de averías en una máquina puede ser vista como un proceso estocástico
particular.
Supongamos que las averías ocurren a lo largo del tiempo, y llamemos X(t) al número de
sucesos (averías en este caso) que ocurran durante el intervalo del tiempo (0,t) con t$0, y supongamos
sin pérdida de generalidad que X(0)=0.
Para que los sucesos (averías en nuestro caso) sigan un proceso de Poisson, deben cumplirse las
siguientes hipótesis:
(i) La probabilidad de que durante el intervalo (ζ,ζ+t) ocurran exactamente x sucesos depende sólo
de x y de t, pero no de ζ.
(ii) El número de sucesos que ocurren en intervalos de tiempo disjuntos son mutuamente
independientes.
(iii)La probabilidad de que durante un intervalo de tiempo de amplitud h ocurra un suceso es
λh+O(h) y la probabilidad de que ocurra más de un suceso es O(h) donde λ es un valor
constante y O(h)/h60 cuando h60.
Bajo estas condiciones, llamamos p(x;λt) a la probabilidad de que en un proceso de Poisson
ocurran exactamente x sucesos durante un intervalo de tiempo (0,t) y es:

( λt ) x
p( x; λt ) = e − λt x = 0,1,2,K (4.5)
x!

es decir, la distribución de Poisson de parámetro λt.


La coincidencia entre los dos puntos de vista que acabamos de exponer es intuitivamente clara
74 si consideramos el intervalo (0,t) dividido en n intervalos disjuntos de amplitud h=t/n.
Cuando n64, las hipótesis (i), (ii) y (iii) equivalen al límite de un modelo binomial en el que
λh60, pero λ es finito.
En la expresión 4.5, λ representa, pues, el número medio de sucesos por unidad de tiempo.

4.4 Distribución de estadísticos en muestras aleatorias simples de poblaciones normales

Se dice que una muestra extraída de una cierta población es una muestra aleatoria simple (m.a.s) de la
misma, cuando todo elemento de dicha población tiene la misma probabilidad de ser escogido para
formar parte de la muestra. Si Y es una cierta variable aleatoria será útil imaginar una población
conceptual en la que la frecuencia con que aparezcan los distintos individuos sea la definida por la
función de distribución de Y. En este caso, una muestra aleatoria simple sería cualquier conjunto de n
realizaciones independientes de Y. Es decir, (Y1,Y2,...,Yn) es una m.a.s. de Y si y sólo si:
(i) las v.a. Yi son independientes;
(ii) Yi - f(y) i=1,2,...,n donde f(y) es la densidad de probabilidad de Y.
Sea (y1,y2,...,yn) una m.a.s. de Y; los estadísticos muestrales más utilizados en el presente libro son:
n

∑ Yi ∑ (Yi − Y ) 2
i =1
Y = y S2 =
n n −1

Tanto la media muestral Y , como S 2 son variables aleatorias, y uno de los objetivos del
presente capítulo es obtener las densidades de probabilidad de Y y de S2 en m.a.s. de poblaciones
normales. La figura 4.11 indica de forma gráfica este objetivo.

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

Fig. 4.11 Los estadísticos Y y S2 son variables aleatorias

75
σ conocida)
4.5 Distribución de Y (σ 2

Sea (Y1,Y2,...,Yn) una m.a.s. de Y-N(µ;σ). Dado que Y = ΣYi /n se tiene que:

a) La distribución de será Y normal por ser Y una combinación lineal de Yi, que son normales.
1 n 1
b) E ( Y ) = ∑ E (Yi ) = ( µ + µ +K µ ) = µ .
n i =1 n
1 n 1 σ2
c) V ( Y ) = 2 ∑ V ( Yi ) = 2
(σ 2 + σ 2 +K+σ 2 ) = , por ser Yi v.a. independientes.
n i =1 n n
En consecuencia,

 σ 
Y - N  µ;  (4.6)
 n

Conviene reflexionar sobre el resultado (4.6). En primer lugar observamos que Y sería un
estimador insesgado de µ o, lo que es lo mismo, que Y toma valores alrededor del verdadero valor de µ.
En segundo lugar, la variancia V( Y ) puede hacerse tan pequeña como se quiera, si se toma un tamaño
de muestra adecuado (aunque puede resultar caro) y, por lo tanto, el valor de Y en una muestra concreta
puede ser tan próxima a µ como se desee.
Por ello, cuando se quiera obtener una buena estimación del parámetro µ en una población
normal, dicha estimación será Y$ = Y .

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

También es importante observar que (4.6) es también cierto para muestras de una población
cualquiera (no necesariamente normal), aunque en este caso el tamaño de muestra no debe ser muy
pequeño. Ello es debido al teorema central de límite aplicado a la suma de v.a. del numerador de
Y = ΣYi /n.
La distribución de Y cuando σ no sea conocida se estudiará en el apartado 4.9.

4.6 La ley de Chi-cuadrado

Para la obtención de la densidad de probabilidad de S2 es necesario introducir una nueva ley de


probabilidad conocida como la ley de Chi-cuadrado.
La ley de χ ν (Chi-cuadrado con ν grados de libertad) es la distribución de la suma de los
2

cuadrados de variables aleatorias independientes y todas ellas de distribución N(0;1).


La figura 4.12 ilustra el concepto de χ ν .
2

76

Fig. 4.12 Esquema conceptual de la ley de Chi-cuadrado

Supongamos que disponemos de urnas con papeletas en cada una de las cuales hay escrito un
número con cuatro decimales, de modo que las frecuencias con que aparecen dichos números sean las
definidas por la d.p. de la ley N(0,1). Si extraemos una papeleta de cada urna y observamos los
números escritos en ellas tendremos: (Y 11,Y 12,...,Y1ν). Si elevamos al cuadrado y los sumamos
obtendríamos un cierto valor ΣY12i . Repitiendo esta operación conceptualmente se irían obteniendo
valores ΣY2i , Σ Y32i ,...,que serían realizaciones de la variable aleatoria:
2

ν
χ ν2 = ∑ Yi 2
i =1

donde Yi-N(0;1) para i=1,2,...,ν y las Yi son independientes.

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

La densidad de probabilidad de χ ν es:


2

−1
 ν  1 
f ( χ ) = 2 2 Γ  ν   y ( 2 ) e − 2 para y > 0
ν
2 −1 y

ν
  2   (4.7)
donde Γ(·) a la función gamma incompleta.
La esperanza matemática y la varianza de χ ν son:
2

E ( χ ν2 ) = ν y V ( χ ν2 ) = 2ν

Obsérvese que los grados de libertad de la ley de Chi-cuadrado, ν, son el número de variables
aleatorias independientes que aparecen en el sumatorio:
ν
f (χ2)
χ ν2 = ∑ Yi 2
i =1

La gráfica de f( χ ν ) depende de ν. Es
2

asimétrica y sesgada hacia la izquierda para ν


pequeño como puede observarse en la figura
4.13.
La ley de Chi-cuadrado está par-
cialmente tabulada en el apéndice de tablas
(tabla F). 77
Para ν >30 existen diversas aproxi-
maciones, como la de Fisher o la de Wilson-
Hilferty. Según nuestra experiencia y de forma
empírica, la ley de χ ν se puede aproximar de Fig. 4.13 Algunas densidades de χ ν
2 2

la forma siguiente:

Para ν > 200 (


χ ν2 - N ν ; 2ν )
 2
Para 30 < ν ≤ 200 log χ ν2 - N  log ν ; 
 ν 

4.7 La ley t-Student

Student era el seudónimo utilizado por William Gosset cuando trabajaba en la empresa cervecera
Guiness en Dublin, que le obligó a no publicar con su auténtico nombre.
En aquellos tiempos de principios de siglo, la totalidad de la teoría estadística existente era
teoría asintótica y, en consecuencia, válida únicamente para muestras de tamaño grande. Por el
contrario, Gosset quería estudiar la relación existente entre la calidad de ciertas materias primas, como
la cebada y la calidad del producto final, y sólo disponía de muestras pequeñas. Para este tipo de
muestras Gosset dedujo la distribución conocida hoy en día como la t-Student.
Este es un ejemplo más de que el contacto con la realidad es la mejor fuente de inspiración en la
investigación teórica de alta calidad.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Conceptualmente la ley t-Student con ν grados de libertad la obtuvo Gosset como distribución
del estadístico:
Z
tν =
U
en el que:
a) Z-N(0,1).
χ ν2
b) U- .
ν
c) Z y U son independientes.
La densidad de probabilidad de tν depende de ν y tiene la expresión:

 ν + 1
Γ 
1  2  1
f ( tν ) =
νπ Γ  ν  ν +1 (4.8)
   t 2  2
 2 
1 + ν 

para *t*<4.
Los grados de libertad de la t-Student coinciden con los grados de libertad de la ley de Chi-
cuadrado que aparece en el denominador de tν. La ley t-Student está parcialmente tabulada en el
apéndice de tablas (Tabla D).
La esperanza matemática y la varianza de tν sólo están definidas para ν>1 y ν>2, respectiva-
78 mente, y son:
E ( tν ) = 0 para ν > 1
ν
V ( tν ) = para ν > 2
ν −2

La gráfica de f(tν) tiene también forma de campana,


centrada en cero y con colas más extensas que la ley
normal, por lo que la t-Student puede resultar de utilidad
para modelar datos en los que se sospeche que haya algunas
anomalías moderadas. Cuando ν64 (en la práctica, para
ν>30), la densidad f(tν) se puede aproximar mediante la ley
normal centrada y reducida. En la fig. 4.14 se representan
algunas distribuciones de tν.
Veremos en el apartado 4.8 que Gosset encontró la
densidad del estadístico tν cuando se interesó por la
distribución del estadístico:

t = (Y − µ ) n S ,

para muestras pequeñas, que es el equivalente a

(Y − µ )
Z = n
σ
Fig. 4.14 Densidad de probabilidad de la ley
t-Student cuando σ es desconocido y se sustituye por su estimación S.

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

4.8 Distribución de S2

Sea (Y1,Y2,...,Yn) una muestra aleatoria simple de Y-N(µ;σ).


La varianza muestral se acostumbra a definir:

S2 =
∑ (Yi − Y )2 donde Y =
∑ Yi
n −1 n

Para m.a.s. de poblaciones normales se puede demostrar que:


a) Y y S2 son independientes;
S2
b) ( n −1) 2 se distribuye según una ley χ ν con ν=n-1 grados de libertad.
2

σ
Una forma intuitiva de comprender a) es la siguiente: Si Y es el vector de observaciones
muestrales, se puede descomponer en dos componentes ortogonales Y e Y- Y tal como se indica en la
figura 4.15.
Obsérvese que S2 está relacionado únicamente con la
norma de (Y- Y ).
n
La ortogonalidad es debido a que ∑ Y (Yi − Y ) = 0.
i =1

σ2 2
De b) se deduce que S 2 - χ n −1 y, por lo tanto:
n −1
σ2 σ2 79
E( S 2 ) = E ( χ 2n −1 ) = ( n − 1) = σ 2
n −1 n −1
2
 σ2  σ4 2σ 4 Fig. 4.15 Descomposición ortogonal del
V (S ) =   V ( χ n −1 ) = − =
2 2
2( n 1)
 n − 1 ( n − 1)2 n −1 vector Y

Estas dos últimas expresiones justifican el hecho de que S2 se utilice frecuentemente como
estimador de σ2, ya que cumple las dos propiedades que hemos comentado para Y como estimador de µ.

σ2 desconocida)
4.9 Distribución de Y (σ

Sea (Y1,Y2,...,Yn) una m.a.s. de Y-N(µ;σ). En general σ será desconocida, por lo que el estadístico
Z = ( Y − µ ) n σ no será de gran utilidad.

Se podría sustituir σ por una estimación S que, si se obtiene a partir de una muestra
suficientemente grande, tomará un valor próximo a σ y, por lo tanto, la distribución del estadístico:

Y −µ
t=
S n

podría considerarse idéntica a la de Z, es decir, N(0;1). Este razonamiento es típico de la teoría


asintótica. Cuando n64, todo resulta fácil.
Ya hemos comentado en el apartado 4.6 que Gosset se enfrentaba al problema de determinar la
distribución de t para muestras pequeñas.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

2
S
Si se tiene en cuenta la independencia entre Y y S2, que ( n − 1) 2 -χ 2n −1 y que
σ
Y −µ
Z= - N ( 0;1)
σ n
se deduce que:
(Y − µ ) n
(Y − µ ) n σ Z Z Z
t = = = = =
S S σ S σ ( n − 1) S2 U
( n − 1) σ 2

donde, evidentemente, Z-N(0;1) y U- χ ν2 ν con ν=n-1 y además Z y U son independientes, pues Z


sólo depende de Y y U de S2. En consecuencia, t se distribuye según la ley t-Student con ν=n-1 grados
de libertad, es decir, que para muestras pequeñas:

Y −µ
t= - t - Student con ν = n − 1 grados.
S n

4.10 El caso de dos poblaciones normales independientes

80 Supongamos que X e Y son dos v.a. independientes y tales que X-N (µx;σx) e Y-N (µy,σy). El lector
puede suponer que X es la duración de vida de las bombillas fabricadas por la empresa A e Y es la
duración de vida de las bombillas fabricadas por la empresa B.
Sean (X1, X2,...,Xnx) una m.a.s. de tamaño nx extraída de la población de bombillas de A, y
(Y1, Y2,...,Yny) una m.a.s. de tamaño ny extraída de las bombillas de B.
Sean X , Sx2, Y y Sy2 las medias y varianzas muestrales.
Es fácil demostrar que:
 σ 2y σ 2x 
(Y − X ) - N  µ y − µ x ; +
 n y n x 

En efecto, la normalidad es consecuencia de la normalidad de las distribuciones de Y y X , y el


valor de la esperanza matemática y la varianza del estadístico Y - X es consecuencia inmediata de la
expresión (4.3).
En consecuencia se tendrá que:
(Y − X ) − ( µ y − µ x ) (4.9)
Z =
σ 2y σ 2y
+
ny nx
y si además σx2 = σy2 = σ2, entonces se cumplirá que:

(Y − X ) − ( µ y − µ x ) (4.10)
Z = - N ( 0;1)
1 1
σ +
n y nx

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

En general σ2 será desconocida, pero se puede estimar a partir de una media ponderada de las
dos varianzas muestrales. La estimación de la varianza común desconocida será por tanto:

( n y − 1)S y2 + ( n x − 1)S x2
S2 =
n y + nx − 2

En este caso se tendrá que:

(Y − X ) − ( µ y − µ x )
t = - t - Sudent con ν = n y + n x − 2
1 1
S +
n y nx

grados de libertad, ya que éste es el denominador de (4.11) utilizado para estimar σ2.

4.11 La ley F-Snedecor

Si definimos una v.a. F:

U ν1
F=
V ν2
81

tal que y U- χ , V- χ y U y V son independientes, entonces F se distribuye según la ley F-Snedecor


2 2
ν1 ν2

con ν1 grados de libertad para el numerador y ν2 grados de libertad para el denominador.


La distribución F debe su importancia al uso que de ella se hace en el análisis de la varianza y
también cuando se quieren comparar dos varianzas de poblaciones normales, como veremos en el
apartado siguiente.
La esperanza matemática y la varianza de F son:

ν2
E( F ) = para ν 2 > 2
ν2 − 2

2ν 22 (ν 1 + ν 2 − 2 )
V (F) = para ν > 4
ν 1 (ν 2 − 2 ) 2 (ν 2 − 4 )

En el apéndice de tablas están tabulados los valores Fα(ν1,ν2) para algunos valores de α, es
decir el valor Fα(ν1,ν2) que, en una ley F de Snedecor con grados de libertad ν1 para el numerador y ν2
para el denominador, deja un área de valor α a su derecha.
Para el manejo de estas tablas resulta de utilidad el hecho de que:

1
Fα (ν 1 , ν 2 ) =
F1−α (ν 2 , ν 1 )

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

4.12 Distribución del cociente de dos varianzas muestrales

Para la situación descrita en el apartado 4.9 vamos a estudiar la distribución de Sy2/Sx2.


Dado que:
S y2 σ y2U
( n y − 1) σ2
S y2 σ y2 n y − 1
ny −1 y
= =
S x2 S x2 σ x2 V
σ2
( n x − 1) 2
σ x nx − 1 nx − 1 x

donde, como hemos visto en 4.7, U- χ n , V- χ n


2 2
y−1 x−1 y U, V son independientes, en consecuencia:

S y2 σ y2
- F ( n y −1 , nx −1 )
S x2 σ x2
En el caso particular en que σy2=σx2 se tiene que:

S y2
- F ( n y −1 , n x −1 )
S x2

82

© los autores, 1998; © Edicions UPC, 1998.


π ALGUNOS MODELOS PROBABILÍSTICOS

Ejercicios

4.1 Un estudiante desea aprobar una asignatura que consta de 100 temas estudiando el mínimo
posible.
El examen consta de tres preguntas que el alumno escoge al azar de una urna con 100 papeletas
numeradas del 1 al 100; las tres papeletas que saca el estudiante corresponden a los tres temas de
los cuales debe escoger uno para exponer.
a) ¿Cuál es el menor número de temas que puede estudiar para que con una probabilidad no inferior
al 95% extraiga alguna papeleta correspondiente a un tema conocido?
b) ¿Y si la probabilidad es del 100%?

4.2. Un jugador observa que en 100 jugadas consecutivas de la ruleta el rojo ha aparecido en 70
ocasiones. ¿Se puede decir que ello es debido al azar?

4.3. Una máquina fabrica arandelas cuyo radio interior r se distribuye según una ley normal de
media 20 mm y desviación tipo 0,3 mm, y cuyo radio exterior R se distribuye según una ley
normal de media 50 mm y desviación tipo 0,4 mm. Ambas variables aleatorias son
independientes.
Se considera que una pieza es defectuosa si la diferencia de radios supera los 30,98 mm o bien
si dicha diferencia es menor de 29,22 mm.
a) ¿Cuál es la probabilidad de que una arandela sea defectuosa?
b) Si se recoge una muestra de 20 arandelas, ¿cuál es el valor esperado de la proporción de
arandelas defectuosas? 83
c) De la muestra de 20 arandelas, ¿qué probabilidad existe de que se encuentren 5 arandelas
defectuosas?

4.4. La duración en horas de las lámparas adquiridas en una determinada empresa se distribuye según
una ley normal N(1.200;σ). Se sabe que el 97% de todas las lámparas citadas dura entre 1.178,3
horas y 1.221,7 horas.
Si se extraen 200 muestras aleatorias simples de 9 lámparas cada una:
a) ¿Cuál es la probabilidad de que la media muestral supere las 1.203,5 horas en al menos 90 de las
200 muestras?
b) ¿Cuál es la probabilidad de que la s2 muestral supere el valor 193,84 h en 40 muestras como
máximo?

4.5. Una línea eléctrica se avería cuando la tensión sobrepasa la capacidad de la línea. Si la tensión
es N (µ1 =100; σ1 =20) y la capacidad es N( µ2 = 140; σ2 = 10), calcular la probabilidad de
avería.

4.6. En un concesionario de ventas de automóviles se supone, por la experiencia que se tiene, que
cuando una persona entra a interesarse por un coche, acaba comprándolo en el 20% de los casos.
Si en un día se atiende a seis de estos clientes potenciales:
a) ¿Cuál es la probabilidad de que realicen cuatro ventas en este día exactamente?
b) ¿Y la probabilidad de que en este día se realicen más de cuatro ventas?
c) ¿Cuál sería la probabilidad, en el caso de que apareciesen 15 clientes, de que se realizasen menos
de tres ventas?

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

4.7. Una cierta máquina de fabricación de rollos de cinta aislante tiene un promedio de dos defectos
cada 1.000 m. Calcular la probabilidad de que un rollo de 3.000 m:
a) no contenga defectos;
b) contenga exactamente 5 defectos;
c) contenga menos de 4 defectos.

4.8. Mediante un estudio estadístico realizado en una fábrica de componentes electrónicos se sabe
que sólo 1 de cada 100 es defectuoso. Si se empaquetan dichos componentes en cajas por
grupos de 500, ¿cuál es la probabilidad de que la caja no contenga ningún componente
defectuoso?
Y si se decide empaquetar las cajas en grupos de 100 componentes, ¿cuál es la probabilidad de
que una determinada caja no tenga ningún componente defectuoso?

4.9. Una empresa fabricante de detergentes tiene dos máquinas de llenado. Se sabe que la máquina
A llena según N(87,5 g; 0,5 g) y otra máquina B llena según N(87,5 g; 0,8 g). Para que no se
rechace una bolsa llena, el contenido de detergente no puede ser menor de 86 gramos.
a) ¿Qué probabilidad hay de que una bolsa, escogida la azar, llenada por la máquina A sea
rechazada? Idem si es llenada por la máquina B.
b) Si la bolsas vacías tienen un peso que se distribuye según N(21,5 g; 1,2 g), ¿cuál es la
probabilidad de que el peso de una bolsa llena, escogida al azar, llenada por la máquina A sea
mayor de 110 gramos? Idem para la máquina B.
c) Se ha recogido una muestra de 10 bolsas llenas producidas por una única máquina y se han
84 pesado. El resultado es el siguiente:
109 105 112 111 108.5 107.5 111.5 108 109.5 108
¿Qué máquina cree que las habrá producido? Razone la respuesta.

4.10. Se sabe que el 20% de los árboles de un determinado bosque están atacados por un cierto tipo
de parásitos.
a) ¿Cuál es la probabilidad de que el número de árboles con el parásito en una muestra de 300 esté
entre 49 y 71?
b) Suponga que en la muestra de 300 árboles hay 72 con el parásito.
¿Contradice esto la hipótesis de que la población está parasitada en un 20%? Razone la
respuesta justificándola con las hipótesis necesarias.

© los autores, 1998; © Edicions UPC, 1998.


5
Comparación de dos tratamientos

El análisis estadístico que se aborda en este capítulo tiene como objetivo la comparación de dos
poblaciones, que representan lo que genéricamente denominamos “tratamientos”, pudiendo referirnos
bajo esta denominación a dos máquinas, dos métodos de trabajo, dos catalizadores, dos proveedores,
o dos tipos de materia prima distintos. Dicha comparación se realiza a partir de datos muestrales.
Se tratará de determinar si la diferencia que presentan las medias de las dos muestras es
indicativa de una diferencia en las medias poblacionales o si, por el contrario, puede ser atribuida al
azar.
Es importante tener presente que el estudio estadístico no se refiere simplemente a la aplicación 85
del test de rigor a unos datos de los que no se cuestiona su calidad (quién, cómo, cuándo, con qué
criterio se han tomado).
Tal como veremos a continuación, el análisis empieza con un claro planteamiento del problema
y sigue con el adecuado diseño de la recogida de los datos (sin descuidar el rigor necesario en su
recogida física). A continuación se realiza un análisis exploratorio para detectar posibles valores
anómalos, constatar que no existe evidencia de incumplimiento de las hipótesis del método, y también
para obtener unas primeras conclusiones en torno al objetivo del estudio.
Finalmente, se realiza el test estadístico (contraste de hipótesis) y se interpreta el resultado
obtenido.

5.1 Caso 1: Comparación de dos productos en un proceso de curtido de piel

5.1.1 Planteamiento del problema. Recogida de los datos

Una industria dedicada al curtido de pieles utiliza normalmente una cierta solución A, en la que
sumerge el cuero durante 4 horas en la fase final de su proceso de curtido. Aunque el producto A
produce unos resultados satisfactorios, se presenta la oportunidad de sustituirlo por otro producto B,
considerablemente más barato. Se sospecha, sin embargo, que la nueva solución puede afectar a las
características del cuero reduciendo su resistencia a la tracción.
Los responsables del proceso deciden cambiar, sólo en el caso de constatar experimentalmente
que la nueva solución no reduce la resistencia a la tracción. Para ello, realizan unos experimentos con
el fin de analizar los resultados obtenidos y tomar una decisión sobre este tema.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Para la realización del experimento se toman 20 porciones de cuero, todos ellos de calidad y
características lo más parecidas posible, y aleatoriamente se asignan 10 para ser tratados con el
producto A y otros 10 con el B.
Para realizar la prueba se dispone de 20 recipientes, todos ellos CURTIDO CON CURTIDO CON
idénticos, a 10 de los cuales se le asigna la solución A y a otros 10 la SOLUCIÓN A SOLUCIÓN B
(2)
B. Los trozos de cuero se sumergen simultáneamente, y todos ellos se 24.3 24.4(1)
(3)
retiran al cabo de las 4 horas. 25.6 21.5(4)
26.7(5) 25.1(6)
Posteriormente se dejan reposar durante 2 días (todos ellos en iguales 22.7 (9)
22.8(7)
condiciones) y se procede a medir su resistencia a la tracción, 24.8(11) 25.2(8)
aplicando una metodología perfectamente definida. Para evitar la 23.8(12) 23.5(10)
(14)
25.9 22.2(13)
influencia de posibles derivas en el aparato de medida, o vicios en el 26.4(16) 23.5(15)
proceso de medición, éste se realiza también de manera aleatoria. Los 25.8(17) 23.3(19)
(18)
valores obtenidos (en unidades de la escala del aparato de medida) 25.4 24.7(20)
son los que figuran en la tabla adjunta. nA = 10 nB = 10
El valor indicado como supraíndice en los resultados, se y A = 2514. y B = 23.62
refiere a su orden de obtención. sA = 1242
. s = 1237
. B

5.1.2 Análisis exploratorio. Formalización del problema

86 Siempre conviene representar los datos gráficamente. En la figura 5.1 se presentan los diagramas de
puntos correspondientes a ambos conjuntos de datos. No se observan valores anómalos, y ya se adivina
que la diferencia de medias va a resultar significativa.

Fig. 5.1 Diagramas de puntos correspondientes a los datos obtenidos en las pruebas de curtido

Para constatar que el orden en que se han realizado las mediciones no ha afectado a la respuesta,
pueden realizarse diagramas en los que se coloque el orden de obtención en el eje horizontal y en el
vertical el valor obtenido. La figura 5.2 presenta dichos diagramas para cada una de las soluciones, sin
que se observe nada anormal.
Supongamos, como hipótesis de partida, que las resistencias a la tracción son iguales,
independientemente de la solución utilizada. A esta hipótesis se la denomina hipótesis nula (H0) y
supondremos, asimismo, que en caso de no cumplirse dicha hipótesis, las unidades curtidas con la solu-
ción A tendrán una resistencia mayor que las que hayan utilizado la solución B. Esta hipótesis, que es
la que consideramos que se cumple en el caso de no cumplirse la hipótesis nula, se denomina hipótesis
alternativa (H1). Podemos notar el planteamiento realizado de la forma:
H0 : µA = µB
H1 : µA > µB
π COMPARACIÓN DE DOS TRATAMIENTOS

SOLUCIÓN A SOLUCIÓN B

RESP. 28

27

26

25

24

23

22

21
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

Fig. 5.2 Diagramas en secuencia temporal de los resultados obtenidos

5.1.3 Resolución

Es frecuente realizar la hipótesis de que las poblaciones de las cuales provienen las muestras son 87
normales, por tanto, podemos escribir:

y A - N ( µ A ,σ A )

Y análogamente para los valores obtenidos con la solución B:

yB - N ( µ B ,σ B )

Por tanto, las medias de los valores obtenidos se distribuirán de la forma:

 σ 
y A - N  µ A , A 
 nA 

 σ 
y B - N  µ B , B 

 nB 
y de acuerdo con lo visto en el capítulo 4:

 σ A2 σ B2 
y A − y B - N  µ A − µ B , +
 n A nB 

Por tanto:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

( y A − yB ) − ( µ A − µB ) - N
( 0 , 1)
σ A2 σ B2
+
n A nB
Pero no conocemos σA2 ni σB2, sino que los estimamos a partir de sus respectivas varianzas
muestrales: sA2 = 1,54, sB2 = 1,53. Estos valores son tan parecidos que, evidentemente, podremos
suponer que las varianzas poblacionales son iguales. En el caso de que las varianzas muestrales
presentaran mayor diferencia, antes de realizar esta suposición se debería realizar el test de igualdad
de varianzas, utilizando la distribución F de Snedecor.

Ejemplo 5.1a Se toman 2 muestras aleatorias simples de tamaño n = 10 de sendas poblaciones


normales, y se obtiene sA2 = 1,54 y sB2 = 2,18. ¿Puede considerarse que las
varianzas poblacionales son iguales?
Hacemos:
s 2 2,18
F = B2 = = 1,42
s A 1,54

Comparando el valor obtenido con una distribución F de Snedecor con 9 y 9


grados de libertad, se obtiene que el área de la cola es mayor de 0,25 y, por tanto,
nada se opone a suponer que σA2 = σB2.
Ejemplo 5.1b Igual planteamiento que en el ejemplo anterior, pero ahora consideramos que
88 sA2=1,54 y sB2=16,3.
En este caso se obtiene F=10,58, y el área de la cola resulta ser menor de 0,001,
luego no podrá trabajarse con la hipótesis de igualdad de varianzas poblacionales.
En el apéndice 5A se comenta qué hacer en el caso de que se dé esta
circunstancia.

En nuestro caso, calcularemos un estimador de la varianza poblacional única, que será la


media de las varianzas muestrales ponderada según los grados de libertad de cada muestra (si las
muestras son del mismo tamaño como en nuestro caso, esto se convierte en una simple media
aritmética).
Con dicho estimador único podemos escribir:

( y A − yB ) − (µ A − µB ) - t con n A + n B − 2 g . l.
1 1
s +
n A nB

Si se cumpliera que µA - µB = 0, tendríamos que:

t1 =
( y A − yB ) - t con n A + nB − 2 g. l.
1 1
s +
n A nB

En nuestro caso tenemos:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

t1 =
(25,14 − 23,62) = 2,74
1 1
1,24 +
10 10
Si se cumpliera la hipótesis nula (recordemos: H0: µA=µB), el valor t1 obtenido pertenecería a
una distribución t de Student con 18 grados de libertad. ¿Puede considerarse que esto es así?
Una forma de determinar hasta qué punto es normal un valor en una distribución, es a través del
área de la cola que define. Consultando las tablas observamos que Pr(t > 2,74) = 0,007, luego éste es
un valor muy poco probable en su distribución de referencia.
Si las medias de A y B fueran iguales, se darían diferencias como la observada o mayores,
realizando una prueba como la que aquí se ha hecho, el 0,7 % de las veces. Luego, en este caso, lo más
razonable será considerar que las medias poblacionales son distintas y diremos que la diferencia entre
las medias muestrales es estadísticamente significativa.
¿Estamos absolutamente seguros de que la media de resultados con la solución B es menor que
con la solución A? La respuesta es no pero la probabilidad de equivocarnos al hacer esta afirmación es
sólo del 0,7 %.

5.2 Generalización del caso de la comparación de dos productos para el curtido:


comparación de medias en diseños totalmente aleatorizados

La recogida de datos debe hacerse de forma que el único factor que influya de forma distinta en ambas
muestras sea aquel cuyo efecto se desea estudiar. Si otros factores también afectaran de forma distinta, 89
sería imposible distinguir si las diferencias apreciadas (en el caso de que existieran) deberían ser
atribuidas al factor estudiado o a otros de los que accidentalmente hubieran podido influir.
Deberán seguirse, por tanto, dos reglas básicas al planificar la recogida de datos:
> Asegurarse de que todos los factores que puedan tener alguna influencia en la respuesta,
influyan exactamente igual en las dos muestras (excepto aquel cuyo efecto se desea estudiar).
> Aleatorizar todo lo que se pueda para protegerse de posibles sesgos introducidos por factores
no identificados.
Así, en el ejemplo de la comparación de soluciones ha sido necesario asegurarse de que todos
los factores que podían influir en la respuesta (tipo de piel, tiempo que está sumergida en la solución,
tiempo y condiciones de secado, etc.) afectasen exactamente igual a las unidades tratadas con ambas
soluciones. Y aunque consideremos que los 20 retales de piel son muy parecidos (no serán idénticos),
los asignaremos aleatoriamente a cada tratamiento y, por si influyera el orden de medición, también
mediremos aleatoriamente.
Una vez recogidos los datos es necesario constatar que nada se opone al cumplimiento de las
hipótesis en que se basa el método a aplicar. Éstas son:
> Normalidad de las 2 poblaciones. Una forma práctica de comprobarlo sería realizando los
histogramas de ambas muestras, pero en la práctica difícilmente encontraremos evidencia
de no normalidad de las poblaciones, porque dispondremos de muestras de tamaños
pequeños.
En cualquier caso, ésta es una hipótesis poco crítica, ya que lo que realmente se supone es
que las medias se distribuyen según una normal, lo cual en general podrá considerarse
cierto por el teorema central del límite. Por otra parte, se conoce que las pruebas que
utilizan como distribución de referencia la t-Student son robustas frente a la hipótesis de
normalidad.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

> Independencia de las poblaciones. Es una hipótesis que suponemos al decir que:
σ A2 σ B2
V ( y A − yB ) = +
nA nB
El origen de los datos pone de manifiesto si las poblaciones pueden considerarse independien-
tes o no.
> Aleatoriedad de las muestras. Ésta es una hipótesis absolutamente crítica. El objetivo es extraer
conclusiones sobre las poblaciones a partir del análisis de las muestras y, por lo tanto, éstas
deberán ser representativas. La aleatoriedad garantiza la representatividad. La obtención de
muestras verdaderamente aleatorias debe ser el objetivo del diseño de la recogida de datos. Una
correcta aleatorización contribuye a asegurar el cumplimiento de esta hipótesis.
> Igualdad de varianzas poblacionales. Si se trabaja con esta hipótesis es necesario comprobar
que nada se opone a su cumplimiento. Para ello se puede aplicar el test de igualdad de varianzas
tal como se ha presentado en el capítulo 4.
Un adecuado análisis exploratorio de los datos también ayuda a constatar el cumplimiento de
las hipótesis anteriores, además de identificar posibles valores anómalos o extraer unas primeras
conclusiones, tal como se ha visto en el ejemplo anterior.
A continuación, los cálculos a desarrollar son los siguientes:
1. Calcular el estimador de la varianza poblacional única (media de las varianzas muestrales
ponderada según los grados de libertad de cada muestra).

(n A ) ( )
− 1 s 2A + n B − 1 s B2
s =
90 n A + nB − 2
2. Calcular el valor de t0, el cual pertenecerá a una distribución t de Student con nA+nB-2 grados
de libertad, si las medias poblacionales son iguales.

y A − yB
t0 =
1 1
s +
n A nB

3. Comparar el valor de t0 con su distribución de referencia. Si la hipótesis alternativa es del tipo


H1: µA > µB, como en el caso que se ha planteado, se determina la probabilidad de que se
presente un valor como el obtenido o mayor, y a esta probabilidad se le denomina nivel de
significación.

En el apartado 5.6 se explica cómo calcular el


nivel de significación según sea la hipótesis
alternativa planteada.
El nivel de significación obtenido es una
información que ayuda a tomar la decisión más
adecuada. En general, un nivel de significación
pequeño aconseja rechazar la hipótesis de igual-
dad de medias, aunque para tomar la decisión
habrá que considerar también otro tipo de infor-
Fig. 5.3 Comparación del estadístico de prueba en su distri- mación: costes, riesgos que se corren en caso de
bución de referencia equivocarse, etc.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

5.3 Caso 2: comparación de dos tratamientos superficiales para lentes

5.3.1 Planteamiento. Recogida de los datos

Cierta industria fabricante de lentes para gafas desea comparar dos tipos de recubrimiento
antirreflectante. Los dos tipos tienen idéntico aspecto y prestaciones, pero antes de decidirse por uno
u otro desean comprobar si el tipo de recubrimiento influye en el deterioro que sufre la lente.
En un principio, piensan seleccionar al azar 20 personas que utilicen gafas, y asignar aleatoria-
mente gafas sometidas al tratamiento A a 10 de ellas y gafas con el tratamiento B a las otras 10. Al
cabo de 6 meses se realizaría un control y, tras tomar medidas con el instrumento adecuado, se
analizaría si existían o no diferencias estadísticamente significativas.
Pero el método planteado tiene un inconveniente. En el desgaste que sufre la lente no sólo
influye el recubrimiento superficial, sino también el trato que recibe por parte del usuario. Si la
recogida de los datos se lleva a cabo de la forma antes planteada, se corre el riesgo de que, si algunas
personas, por sus hábitos o profesión, deteriorasen las lentes más de lo normal (o menos) y no se
repartiesen equitativamente entre los dos tratamientos, atribuyamos a algún tratamiento un efecto que
no le correspondiera, ya que en realidad lo pro-
vocarían las personas.
DESGASTE DESGASTE DIFERENCIA
¿Es posible eliminar el efecto de las INDIVIDUO LENTE A LENTE B B-A
personas en el desgaste de las lentes? Sí puede
1 6.7 (I) 6.9 (D) 0.2
hacerse. La mejor forma será construyendo las 2 5.0 (I) 5.8 (D) 0.8
gafas con una lente de cada tipo. Si alguien las 3 3.6 (D) 4.1 (I) 0.5
desgasta mucho lo hará con ambos trata- 4 6.2 (I) 7.0 (D) 0.8
91
mientos, igual que si las desgasta poco. Natu- 5 5.9 (D) 7.0 (I) 1.1
6 4.0 (D) 4.6 (I) 0.6
ralmente, el método de análisis de los datos 7 5.2 (D) 5.5 (I) 0.3
deberá tener en cuenta la forma en que se han 8 4.5 (I) 5.0 (D) 0.5
recogido. 9 4.4 (D) 4.3 (I) -0.1
10 4.1 (I) 4.8 (D) 0.7
Supongamos que la prueba se ha reali- Media 4.96 5.50 0.55
zado de esta forma (con 10 individuos) y que al
cabo de 6 meses se mide el desgaste, y se Tabla 5.1 Resultados del estudio realizado para comparar el
obtienen los valores que se indican en la tabla desgaste de dos tipos de lentes. La letra entre paréntesis indica
5.1 (en unidades codificadas). la posición (izquierda o derecha) a que se ha asignado aleato-
riamente cada lente

5.3.2 Análisis exploratorio Respuesta


7.5
A
Cuando los datos se han recogido de esta 7.0 B
forma, una representación gráfica muy 6.5
adecuada es la que se indica en la figura 6.0
5.4. Además, por supuesto, se pueden 5.5
realizar los gráficos que en cada caso se 5.0
consideren oportunos. 4.5
4.0
3.5

Fig. 5.4 Representación gráfica de los resultados 3.0


obtenidos en el estudio de comparación del desgaste 1 2 3 4 5 6 7 8 9 10
de dos tipos de lentes Individuo

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

5.3.3 Resolución

El análisis de los datos no se realiza como en el caso anterior (ahora no se cumpliría la hipótesis de
poblaciones independientes), sino que se analizan las diferencias que se observan dentro de cada
individuo entre un tratamiento y otro.
Seguiremos suponiendo que los resultados de ambos tratamientos pertenecen a sendas
poblaciones normales, es decir:
yA - N(µA, σA)
yB - N(µB, σB)
y por tanto:
yB-A - N(µB-µA, σd)

donde σd es la desviación tipo de las diferencias. Si las medias poblacionales son iguales, yB-A se
distribuirá según una normal de media cero y una desviación tipo que puede estimarse mediante la
desviación tipo de las diferencias.

(
∑ di − d ) 2

sd =
n −1

Obteniéndose con nuestros datos, sd = 0,344 y la media de las diferencias se distribuirá de la


forma:
92
 σ 
d - N  0, d 
 n

En nuestro caso tenemos que d = 0,54. ¿Podemos considerar que pertenece a la distribución
anterior? Si así fuera tendríamos que:

- N ( 0,1)
d
σd
n

O, al trabajar con un valor estimado de σd:

d
- t − Student con n − 1 g. l.
sd
n

En nuestro caso tenemos que:


d
= 4,97
sd
n
y éste es un valor muy poco probable en su distribución de referencia (nivel de significación de
0,0008). Por tanto, podemos afirmar con una probabilidad de error de 0,0008 que el recubrimiento B
se deteriora más fácilmente que el A (figura 5.5).

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

Fig. 5.5 Comparación del valor obtenido con su distribución de referencia

5.4 Generalización del caso de la comparación de dos tratamientos superficiales de


lentes: comparación de medias en diseños en bloques aleatorizados

En muchos casos existe algún factor que influye sobre la respuesta y no puede asegurarse que afecte
exactamente igual a los dos tratamientos. En el caso anterior se trataba del efecto del individuo en el
desgaste de sus lentes, y las diferencias se calculaban para cada individuo, es decir, dentro de bloques
homogéneos.
En muchas otras circunstancias conviene diseñar la recogida de datos de esta forma. Tiempo,
máquina o materia prima, pueden afectar a la respuesta y requerir que se formen bloques para analizar
los datos dentro de los mismos. Dentro de cada bloque, el orden de recogida de los datos se aleatoriza, 93
por eso se llaman diseños en bloques aleatorizados.
Ejemplo 5.1 Se desea comparar el valor obtenido con un aparato electrónico para la medida de
la tensión arterial con un instrumento clásico de columna de mercurio. ¿Cómo
deberían tomarse los datos?
Naturalmente, no sería un buen procedimiento elegir dos grupos de personas,
tomar la tensión con el aparato electrónico a un grupo, con el clásico al otro y
comparar. En la respuesta, además del aparato influye la persona y, por tanto, lo
correcto será tomar la tensión a cada uno con los dos instrumentos y analizar las
diferencias por persona.
Ejemplo 5.2 Se desea comparar la cantidad de producto fabricado utilizando dos procedi-
mientos de montaje distintos. Una unidad de medida que se considera correcta es
la producción obtenida durante 4 horas. Se sabe que no hay variaciones de
productividad a lo largo del día, pero sí puede haberlas de un día a otro. ¿Cómo
tomar los datos?
Podrían tomarse dos datos cada día, uno con cada procedimiento, correspon-
dientes a la producción obtenida durante 4 horas seguidas (aleatorizando cada día
qué procedimiento se hacía primero). De esta forma, la diferencia de producción
de un día a otro no afectaría a las conclusiones obtenidas.
Cuando los datos se han recogido de esta forma, y considerando que el efecto bloque afecta por
igual a los dos tratamientos (efecto aditivo), su método de análisis requiere el cumplimiento de las
siguientes hipótesis:
> Normalidad de las dos poblaciones. En realidad lo que se supone es la normalidad de yB-yA,
aunque, como en el caso de los diseños totalmente aleatorizados, ésta es una hipótesis poco
crítica, ya que siempre se podrá suponer que la diferencia media sigue una distribución normal.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

> Independencia de las diferencias. O lo que es lo mismo, las diferencias son una muestra
aleatoria simple de la población de diferencias. Si se ha aleatorizado correctamente y la
recogida de datos se ha llevado a cabo con la meticulosidad requerida, en general se podrá
suponer el cumplimiento de esta hipótesis.
El obligado análisis exploratorio de los datos servirá también para poner de manifiesto que no existen
pruebas de incumplimiento de la hipótesis anterior. Además del gráfico del tipo que se visto en la
figura 5.4, puede realizarse, por ejemplo, un gráfico de las diferencias en función del orden de
obtención de los datos. En el caso de las lentes, tendrá el aspecto que se indica en la figura 5.6, que
pone de manifiesto un patrón de comportamiento aleatorio en torno a su valor medio, tal como era de
esperar.
Una vez se tienen los datos, los cálculos que se
Diferencia
B-A deben desarrollar son los siguientes:
1.2 1. Calcular las diferencias dentro de cada bloque, y
también la media ( d ) y la desviación tipo (sd) de
0.8
dichas diferencias.
0.4 2. Calcular el valor del estadístico de prueba.
0.0
d
t =
-0.4 sd
-0.8 n
-1.2 3. Comparar el valor del estadístico de prueba con su
94
1 2 3 4 5 6 7 8 distribución de referencia, que será una t de Student
9 10
Individuo
con n-1 grados de libertad. Determinar la probabilidad
Fig. 5.6 Diagrama que representa la diferencia de des- de que en dicha distribución se presente un valor igual
gaste para cada individuo que el obtenido o superior. Esta probabilidad será el
nivel de significación de la prueba.
Si el nivel de significación es bajo se rechazará la hipótesis de igualdad de medias y diremos
que la diferencia observada entre un tratamiento y otro es estadísticamente significativa.

5.5 Aleatorización y bloqueo: recapitulación

En una prueba para la comparación de dos tratamientos, puede considerarse que en los datos obtenidos
influyen cuatro tipos de factores:
i) El factor cuyo efecto se desea estudiar (el tipo de recubrimiento superficial en el caso que
hemos visto anteriormente).
ii) Factores identificados que pueden influir en la respuesta, pero que es posible mantener
constantes para los dos tratamientos (como podría ser el tipo de montura, que quizá influya en
el desgaste de lente, pero cuyo efecto se podría neutralizar utilizando siempre monturas del
mismo tipo).
iii) Factores identificados que pueden influir en la respuesta y que resulta imposible mantener
constantes para los dos tratamientos (como el trato que se da a las gafas y el desgaste que
sufren).
iv) Otros factores, no identificados, que también pueden tener influencia en los resultados
obtenidos (quizá el orden en que se efectúan las mediciones por la existencia de pequeñas
derivas en el aparato de medida, tal como se ha comentado anteriormente).

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

Obviamente, el factor estudiado debe afectar de forma distinta a cada tratamiento (en el caso de
afectar igual sería imposible detectar su posible efecto).
¿Qué hacer con los factores identificados del tipo ii? No nos interesará que afecten de forma
distinta a cada tratamiento, por tanto, deberán mantenerse exactamente igual tanto en un tratamiento
como en el otro.
Pero, ¿y si no es posible mantenerlos constantes? (caso de los factores tipo iii). En este caso será
necesario bloquear, es decir, analizar las diferencias dentro de bloques homogéneos en los que estos
factores afecten por igual.
En general, a medida que transcurre el tiempo, y cuanto mayor es el período en el que se
procede a la recogida de los datos, mayor es la probabilidad de que aparezcan variabilidades no
deseadas (los lunes se trabaja de forma distinta a los viernes, la humedad o la temperatura varían con
el tiempo, etc.). En estos casos, suele ser una buena idea utilizar períodos de tiempo como bloques. Así,
en el caso de que se comparen dos métodos de trabajo a partir de un dato por turno, pero se sospeche
que el turno de la mañana puede dar un nivel de respuesta distinto del de la tarde, la mejor forma de
diseñar la recogida de datos sería la que se indica en la figura 5.7.

Fig 5.7 Diseño bloqueado por días debido a la diferencia entre turnos
95
Dentro de cada día (bloque) conviene aleatorizar para protegernos de la influencia de posibles
factores del tipo iv (factores no identificados). Si éstos existen, al aleatorizar cabe esperar que su efecto
se difumine entre los dos tratamientos y no altere las conclusiones del análisis.
La consigna en el diseño de la recogida de datos podría ser “Bloquear lo que se pueda y
aleatorizar el resto”. Bloquear neutraliza la influencia de fuentes de variación conocidas, pero no
deseadas. Aleatorizar protege del efecto de posibles factores con cierta influencia, pero no
identificados.
Volvamos, para terminar este apartado, al caso del curtido de pieles. Si se aprecia que las
porciones de cuero no son idénticas (lo cual es bastante posible) un diseño mejor que el propuesto
consistiría en tomar sólo 10 retales, dividirlos por la mitad, aplicar a un trozo el tratamiento A y al
otro el B. Aleatoriamente, por supuesto.

5.6 Contraste de hipótesis. Formalización y limitaciones

El procedimiento seguido en el análisis de los datos para la comparación de medias puede resumirse
en las siguientes etapas:
1. Formular las hipótesis nula (H0) y alternativa (H1).
2. A partir de los datos disponibles se calcula un valor relevante (estadístico de prueba) mediante
una determinada expresión. Si no existe diferencia de medias, el valor obtenido pertenece a una
determinada distribución de probabilidad denominada “distribución de referencia”.
3. Se compara el estadístico de prueba con su distribución de referencia, determinando la
probabilidad (nivel de significación) de que un valor como el observado (o mayor) sea debido
al azar en el caso de que la hipótesis nula sea cierta.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

4. Si el nivel de significación es pequeño se rechaza la hipótesis de igualdad de medias y se dice


que la diferencia obtenida es “estadísticamente significativa”.
Este esquema de razonamiento, muy usado en estadística, recibe el nombre de contraste de
hipótesis, ya que lo que hace es suponer que se cumple una determinada hipótesis (H0) y contrastar si
los datos de que se dispone son o no coherentes con ésta.
Normalmente, la hipótesis nula es del tipo de las que se han planteado en los caso anteriores, es
decir:
H0: µA = µB
La hipótesis alternativa puede ser de la forma:
H1 : µ A > µ B o H1 : µ A < µ B o H1 : µ A ≠ µ B

Los dos primeros planteamientos son, en esencia, el mismo (si no son iguales, una media es
mayor que la otra), pero el tercero refleja una mayor desinformación sobre el fenómeno que se estudia,
lo cual se traduce en una distinta medida del nivel de significación.
La tabla 5.2 indica el enfoque que se da al análisis de los datos en función del resultado obtenido
y de cuál sea la hipótesis alternativa planteada.
Nótese que si la hipótesis alternativa es del tipo µA ≠ µ B se esperan diferencias de medias tanto
positivas como negativas. De hecho, en este caso, dada una diferencia, se considera igualmente
probable la diferencia en sentido contrario y, por tanto, el nivel de significación (área de cola) se
multiplica por 2 en este caso.

PLANTEAMIENTO DEL CONTRASTE


96 RESULTADO H0: :A=:B H0: :A=:B H0: :A=:B
OBTENIDO H1: :A<:B H1: :A>:B H1: :A…:B
Resultado esperado. Se tratará No hace falta que realicemos
de analizar, mediante el proce- ningún cálculo. Con el
y A < yB dimiento adecuado, si la dife- resultado obtenido es obvio
rencia obtenida es estadística- que no podemos rechazar H0
mente significativa o no. para quedarnos con H1. Es necesario analizar si la
diferencia obtenida es estadís-
No hace falta que realicemos Resultado esperado. Se tratará ticamente significativa.
ningún c<lculo. Con el resul- de analizar, mediante el proce-
y A > yB
tado obtenido es obvio que no dimiento adecuado, si la dife-
podemos rechazar H0 para rencia obtenida es estadística-
quedarnos con H1. mente significativa o no.
y A = yB En este caso, que prácticamente no se dará (sería una casualidad), obviamente no podrá rechazarse la
hipótesis nula, sea cual sea la alternativa.

Tabla 5.2 Acciones a emprender en función del planteamiento del contraste y del resultado obtenido

El tipo de hipótesis alternativa que se plantea depende del conocimiento que se tiene del
fenómeno en estudio. En una prueba para estudiar la eficacia de un cierto abono, puede saberse (por
razonamientos biológicos) que el fertilizante puede aumentar la cosecha o no tener ningún efecto, pero
no es posible que la reduzca (en este caso H1 sería del tipo µA>µB). También puede plantearse en
función del enfoque que se dé al problema. Si tenemos un proveedor habitual (A), del que estamos
básicamente satisfechos, y se plantea la posibilidad de cambiar a otro (B), que podría ser mejor, la
hipótesis alternativa debería ser del tipo µA<µB.
Puede plantear una cierta perplejidad la circunstancia de que el nivel de significación sea uno o
justamente el doble en función de cuál sea la hipótesis alternativa que se plantee (decisión no exenta,

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

en algunos casos, de cierta arbitrariedad). Esta


forma de proceder puede justificarse con el
argumento de que, si sólo se sabe que las
medias son iguales o son distintas, se conoce
menos sobre el proceso que si se está seguro de
que, si no son iguales, una en concreto es
mayor que la otra. La menor información que
se tiene en el primer caso se traduce en una
mayor probabilidad de error al rechazar H0 para
un resultado dado. Fig. 5.8 Nivel de significación cuando la hipótesis alternativa
es del tipo µ A ≠ µ B

5.7 Un análisis alternativo: intervalos de confianza para la diferencia de medias

La comparación de medias también se puede abordar aplicando el concepto de intervalo de confianza.


Un intervalo de confianza 1-α para la media de la población se obtiene mediante una expresión del
tipo:
σ
y±z α
2
n
Estimando σ2 a partir de la varianza muestral, obtenemos:
s
y ± t ,ν α
n 2
97

En general, estos intervalos responden a la expresión:


estadístico ± tα/2,ν . desviación tipo del estadístico

Por tanto, a partir de los datos de un diseño totalmente aleatorizado, puede plantearse el
siguiente intervalo de confianza para la diferencia de medias poblacionales µA-µB:

1 1
y A − y B ± tα s +
2 ,ν n A nB

donde s es el estimador conjunto de la varianza poblacional.


Si el diseño es bloqueado, la expresión obtenida es:
sd
d ± tα 2 ,ν
n
Ejemplo 5.3 Calcular un intervalo de confianza del 95 % para la diferencia de medias poblacio-
nales tomando el planteamiento y los datos del caso 1.
Tenemos que: yA = 25.14
yB = 23.62
t0.025,18 = 2.101
s = 1.24
nA = 10
nB = 10
Luego el intervalo es: 1.52 ± 1.17

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Ejemplo 5.4 Igual al ejemplo 5.3 pero a partir del caso 2.


En este caso:
d = 0.55
t0.025.9 = 2.262
sd = 0.344
n = 10
Y se obtiene:
0.55 ± 0.25
Si el cero está incluido en el intervalo 1-α, cabe considerar que éste no es un valor extraño para
la diferencia de medias y, por tanto, no se podrá rechazar la hipótesis nula de igualdad de las medias
poblacionales con un nivel de significación de α.

Ejercicio Si en un contraste de hipótesis del tipo:


H0: µA=µB
H1: µA ≠ µ B
se obtiene un nivel de significación exactamente igual a 0.05, ¿qué peculiaridad
tendrá uno de los extremos del intervalo de confianza del 95% para µA-µB?

98

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

Ejercicios

5.1. Se desea saber si un determinado plan de seguridad en el trabajo es efectivo en la reducción del
número de accidentes laborales y, por tanto, en la pérdida de horas de trabajo debido a
accidentes. Los siguientes datos son las horas de trabajo semanales perdidas a causa de
accidentes en seis fábricas, antes y después de implantar el nuevo plan de seguridad.

PLANTA

1 2 3 4 5 6
ANTES 12 29 16 37 28 15
DESPUÉS 10 28 17 35 25 16

a) Especificar las hipótesis necesarias.


b) ¿Se puede decir con estos datos que el plan de seguridad es efectivo?

5.2. Una fábrica de automóviles dispone de dos proveedores (A y B) de llantas de aluminio.


Se tiene la sospecha de que existen diferencias en cierta característica mecánica (X) de las
llantas, según sea el proveedor que las suministra.
Para analizar el tema se toman muestras aleatorias de cada uno de los proveedores,
obteniéndose los valores que se indican en la tabla adjunta.
a) ¿Puede decirse que existen diferencias en las llantas según el
proveedor que las suministre? PROVEEDOR A PROVEEDOR B

b) Calcular los tamaños de muestra (iguales para ambos nA = 100 nB = 94 99


proveedores) para que un intervalo de confianza del 95% de x A = 5.43 xB = 5.75
µ B - µA pueda expresarse de la forma: sA = 120
. sB = 112
.
xB -xA ± 0,3

5.3. Unos grandes almacenes desean cubrir un puesto de vendedor, para lo cual contratan
temporalmente durante tres meses a dos candidatos.
Los datos obtenidos después de estos tres meses son:
Nº de días trabajados: A= 66 días
B= 60 días (6 días de baja por enfermedad)
S(A)= 3.000 pts
S(B)= 3.100 pts
Se admite que los puestos de trabajo a que han sido asignados tienen idénticas posibilidades de
venta.
Después del período de prueba el candidato A ha vendido producto por un valor medio de
56.000 pts/día, y el candidato B por valor de 53.000 pts/día.
¿Justifica esta diferencia la afirmación de que A vende más que B?

5.4. Una empresa suministra tubos de escape a la industria del automóvil. En el tubo de
escape se coloca un sensor que comunica al ordenador del coche el contenido de CO en
los gases de escape. La empresa dispone de dos tipos de sensores, A y B, basados en
principios de medición diferentes. Tanto uno como otro se colocan en el silencioso del
tubo de escape.
El departamento I+D de la empresa sospecha que pueden haber diferencias entre las
mediciones efectuadas por los dos tipos de sensor y decide realizar un experimento.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

La primera idea consiste en seleccionar 10 sensores del tipo A y otros 10 del tipo B, y colocarlos
en los tubos de escape de 20 coches distintos. No obstante, un ingeniero de la empresa sugiere
que el experimento debería bloquearse para evitar que la variabilidad entre coches distintos
enmascarase los resultados del experimento. Para ello sugiere que se utilicen 10 coches y que
en cada uno de ellos se monte un sensor A y otro B, ambos colocados en el silencioso y en dos
posiciones cercanas entre sí.
El contenido en partes por millón de CO observado en el experimento fue el que se indica en la
siguiente tabla.
a) Describa brevemente el mecanismo de aleatorización del
NÚM. TIPO A TIPO B experimento.
b) ¿Cuál sería la distribución de referencia para comparar los
1 72.1 74.0
2 68.2 68.8 valores medios de los dos tipos de sensores, si el experimento se
3 70.9 71.2 hubiera llevado a cabo con los 20 coches?
4 74.3 74.2 c) ¿Qué decisión se tomaría con la distribución de referencia
5 70.7 71.8 anterior?
6 66.6 66.4
7 69.5 69.8 d) Dado que el experimento se ha realizado según el diseño del
8 70.8 71.3 propuesto por el ingeniero, es decir con 10 coches, ¿es preferible
9 68.8 69.3 utilizar 10 coches del mismo modelo, o 10 coches de modelos y
10 73.3 73.6
cilindradas diferentes?

5.5. Una fábrica de jabones produce detergente en dos plantas gemelas, una en Getafe y otra en
Granollers. En Granollers utilizan materia prima del proveedor A y en Getafe materia prima del
100 proveedor B. Se desea comparar la influencia de los dos proveedores en la producción, para lo
cual se recopilan cantidades producidas en las dos plantas durante 25 días, con los siguientes
resultados:
PROVEEDOR A PROVEEDOR B
a) Basándose en este estudio, ¿qué pro-
DÍAS 25 25 veedor es preferible?
PRODUCCIÓN MEDIA 130.0 Tm 127.2 Tm b) Comentar el diseño del experimento y
DESVIACIÓN TIPO 4.5 Tm 3.1 Tm los resultados obtenidos.

5.6. Se desea comparar dos programas de entrenamiento de trabajadores en una línea de producción.
Se escogen 10 al azar para ser entrenados por el método A y 10 para ser entrenados por el
método B. Finalizados los programas de entrenamiento, se mide el tiempo que tardan en realizar
una de las operaciones en la cadena, y se obtenienen los siguientes resultados:

TIEMPO (minutos)

MÉTODO A 15 20 11 23 16 21 18 16 27 24
MÉTODO B 23 31 13 19 23 17 28 26 25 28

a) ¿Es mejor uno de los métodos que el otro?


b) ¿Qué suposiciones han sido necesarias?
c) ¿Qué papel desempeña la aleatorización a la hora de escoger a los trabajadores?
d) ¿Qué otros factores pueden tener importancia en el tiempo empleado por cada trabajador? ¿Es
posible protegerse de los mismos?

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

5.7. Una fábrica dedicada a la fabricación de losetas para el recubrimiento de A B


naves espaciales recibe el encargo de una empresa muy importante
54.6 58.9
dedicada a la aeronáutica. 45.8 65.7
Dicha fábrica produce dos tipos de losetas, A y B. Para saber qué tipo de 57.4 55.6
losetas preferirá la empresa se hace una prueba con 18 losetas (9 del tipo 40.1 57.6
A y 9 del tipo B), introduciéndolas en hornos a 10.000ºC y anotando el 56.3 64.2
51.5 60.8
tiempo transcurrido hasta su rotura. Los resultados, en horas, son los 50.7 59.8
indicados en la tabla adjunta. 64.5 59.0
a) ¿Qué losetas preferirá la empresa? 52.6 50.3
b) ¿Cómo se podría haber mejorado la precisión del experimento? ¿Por qué?

101

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Apéndice 5A Test de comparación de medias cuando no puede asumirse la igualdad


de varianzas poblacionales

Una de las hipótesis que hacíamos al aplicar la técnica de comparación de medias en diseños
totalmente aleatorizados era suponer la igualdad de varianzas poblacionales. Si no puede asumirse esta
hipótesis, puede obtenerse una buena aproximación al nivel de significación resultante calculando el
estadístico:
t' =
( yB − y A )
s 2A sB2
+
n A nB

Si nA = nB = n, el nivel de significación se determina


utilizando como distribución de referencia una t de
Student con n-1 grados de libertad (figura 5A.1).
Si nA ≠ nB, con el valor calculado de t’ se
hallan los niveles de significación pA y pB en
Fig. 5A.1 Nivel de significación en el caso de muestras
del mismo tamaño
distribuciones t de Student con nA-1 y nB-1 grados
de libertad (figura 5A.2).
Siendo en este caso el nivel de significación de la prueba:
ω A p A + ω B pB
p =
con: ωA + ωB
102

s 2A sB2
ωA = ωB =
nA nB

Fig. 5A.2 Valores previos al cálculo del nivel de significación en el caso de tamaños de muestra
diferentes

Ejercicio: ¿Qué hacer si en un diseño en bloques aleatorizados no puede suponerse la


hipótesis de igualdad de varianzas poblacionales? (Ayuda: Repase cuáles son las
hipótesis que se realizan en este caso.)

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE DOS TRATAMIENTOS

Apéndice 5B Pruébelo Ud. mismo. Comparación de dos tipos de helicóptero.

Vamos a utilizar de nuevo helicópteros del tipo que hemos presentado en el apartado 3.12.
En primer lugar hay que construirlos. Para ello deberá tomar una hoja DIN A-4 y cortarla
longitudinalmente por la mitad. Uno de los trozos obtenidos deberá recortarlo y doblarlo tal como se
indica en la figura 5B.1.

103
Fig. 5B.1 Esquema de construcción del helicóptero (cotas en cm)

Si lo deja caer desde una cierta altura (3 metros, por ejemplo), observará que primero hace un
recorrido de aproximadamente 0,5 metros de forma desordenada (régimen turbulento), hasta que se le
despliegan las alas y empieza a caer de forma lenta y suave (régimen laminar).
Ejercicio: Consiga un cronómetro y deje caer varias veces (10, por ejemplo) el helicóptero
desde la misma altura y en “idénticas” condiciones. Anote cada vez el tiempo que
ha tardado en caer. Represente gráficamente los datos obtenidos (histograma,
serie temporal, etc.). ¿Por qué realizando la prueba siempre en idénticas
condiciones, el resultado obtenido no es siempre el mismo?
Vamos a intentar mejorar el diseño para aumentar el tiempo que
tarda en caer. Probaremos recortando las puntas de las alas tal como se
indica en la figura 5B.2.
¿Qué hacer para comprobar si el nuevo diseño es mejor que el
anterior? Desde luego no sería una prueba fiable que dejáramos caer un
helicóptero de cada tipo y comparáramos los dos resultados obtenidos
(¿por qué?). Lo correcto sería construir varios helicópteros con el primer
diseño y otros tantos con el segundo, dejarlos caer tomado datos y
compararlos (test de la t de Student para datos totalmente aletorizados).

Ejercicio: ¿Por qué no se utiliza un solo helicóptero de cada


tipo dejándolo caer tantas veces como se desee?
¿Qué tipo de error se puede cometer si la prueba Fig. 5B.2 Esquema de construc-
se realiza de esta forma? ción del helicóptero “mejorado”

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

La prueba que hemos propuesto tiene un inconveniente: todos los helicópteros deben ser
construidos con el mismo tipo de papel y esto implica que, si el nuevo diseño es mejor, lo será con ese
tipo de papel, pero nada puede asegurarse para helicópteros construidos con papel de características
distintas al usado en la prueba.
Dado que este tipo de construcción puede realizarse con una cierta gama de papel de uso
habitual (más o menos pesado, más o menos rígido, etc.), en rigor no podemos asegurar que un diseño
sea mejor que otro sin hacer referencia al tipo de papel que se ha utilizado.

Ejercicio: ¿Cómo realizar la comparación considerando que los helicópteros pueden


construirse con distintos tipos de papel? (Ayuda: Recuerde que con cada hoja se
pueden construir dos helicópteros. Quizá convendría tomar un conjunto de hojas
representativas de las usadas habitualmente para estos menesteres y...)

104

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
6
Comparación de más de dos tratamientos:
análisis de la varianza

Como ya se ha visto en el capítulo anterior, para la comparación de dos medias se utiliza, en la mayoría
de los casos, un estadístico que tiene como distribución de referencia la t de Student. Este estadístico
se calcula de una forma u otra según se trate de muestras independientes o de datos apareados.
Normalmente, el test que se realiza en ambos casos se denomina “test de la t de Student”, en relación
con la distribución de referencia utilizada.
Cuando se trata de comparar más de dos medias, la técnica que se utiliza recibe el nombre de
“análisis de la varianza”. El lector se preguntará por qué “análisis de la varianza”, cuando el objetivo 105
es comparar medias. Un sencillo ejemplo nos servirá para aclarar la razón de esta denominación.
Supongamos que se desea analizar si la diferencia entre las medias de tres muestras es
estadísticamente significativa o no. Consideremos dos situaciones distintas, representadas por los
diagramas de puntos de la figura 6.1.
A la vista del gráfico resulta sencillo sacar la conclusión de que en el caso a) sí puede hablarse
de diferencias significativas, mientras que en el caso b) no. Pero, ¿por qué? Las diferencias de medias
son exactamente iguales tanto en un caso
como en otro, entonces, ¿por qué en un
caso se ha considerado que la diferencia
es significativa y en el otro no?
La razón es, simplemente, que se
ha analizado si las diferencias (varia-
bilidad) entre las medias es mayor de la
que cabría esperar a partir de la varia-
bilidad dentro de cada muestra. Y se ha
llegado a la conclusión, con toda la razón,
de que en el caso a) esas diferencias sí son
mayores de lo que cabría esperar, pero en
el caso b) no.
En definitiva, lo que se ha hecho
es un análisis de la variabilidad, o
análisis de la varianza, para decidir si las
diferencias de medias son o no estadís-
ticamente significativas. Fig. 6.1 ¿Son significativas las diferencias de las medias muestrales?

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento informático,
y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su distribución y venta fuera
© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
del ámbito de la Unión Europea.
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

6.1 Método gráfico de comparación de medias para poblaciones independientes

6.1.1 Ideas básicas para la aplicación del método

Vamos a desarrollar en este apartado una sencilla metodología gráfica, que nos permitirá discernir si
un conjunto de medias pueden considerarse iguales o distintas. Lo haremos de una forma más objetiva
que la usada anteriormente, basada en la simple contemplación de los correspondientes diagramas de
puntos, aunque no conviene desestimar este método, que en muchas ocasiones puede ser suficiente y
en otras puede utilizarse como complementario.
Empezaremos planteando un sencillo ejercicio: ¿Puede considerarse que
los valores: 15, 17, 16, 21 y 14, pertenecen a una distribución normal con σ = 1? x f(x)
Una forma de resolver este problema es representando a escala una 0 0.399
distribución normal con σ = 1, junto con los valores dados, para ver si se puede 0.5 0.352
considerar que pertenecen a esta distribución o no. 1 0.242
1.5 0.130
El cálculo de las ordenadas de la distribución normal puede hacerse a partir 2 0.054
de la fórmula de su función densidad de probabilidad1, y como no hay ninguna 2.5 0.018
limitación en cuanto a la media, consideramos µ = 0 y obtenemos la tabla de la 3 0.004
derecha cuya representación será la de la figura 6.2.
Dado que el parámetro µ (media) en una
ley normal es un parámetro de localización, pasar
de una ley normal de µ = 0 a cualquier otro valor
de µ se consigue mediante una simple traslación 0.30

106 del eje de simetría de la campana al valor de µ.


En la figura 6.3 hemos centrado la campa-
na sobre el valor 16, pero lo podríamos haber
hecho sobre cualquier otro.
Lo que se trata de ver es si todos los
valores dados caben “debajo” de la campana, para
alguna posición de la misma.
En nuestro caso, está claro que no caben
todos los valores; el 21 se queda fuera, y si Fig. 6.2 Representación a escala de una distribución
centramos la campana en el 21, se quedan fuera normal con µ = 0, σ = 1
todos los demás. Luego, en este caso se
puede considerar que todos los valores
dados pertenecen a una normal con σ = 1,
excepto el 21.
Si en vez de comparar nuestros datos
con una normal de σ = 1, lo hiciéramos con
una de σ = 3, ¿deberíamos construir una
campana distinta?

1 Con σ = 1 y µ = 0, se tiene:

f (x) =
2
1 − x2
e
2π Fig. 6.3 Representación de valores junto a una N(0,1)

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

No necesariamente. Para una distribución normal con σ = 3 podemos mantener la escala de


abcisas del gráfico anterior y variar la forma de la campana, o mantener la forma de la campana y variar
la escala de abcisas. La distribución de probabilidad representada en la figura 6.4, con la misma forma
que la anterior pero con distinta escala en el eje de abcisas, corresponde a una normal con σ = 3.
Y si en esta escala representamos nuestros valores, tendremos:

Fig. 6.4 Representación de una distribución normal con σ = 3 Fig. 6.5 Representación de valores junto a una N(0,3)

Luego sí puede considerarse que pertenecen todos a una normal con σ = 3.


Obsérvese, por tanto, que cuando se desea realizar este tipo de estudio comparando un 107
conjunto de datos con la distribución normal, no es necesario dibujar una campana distinta para
cada caso, sino que bastará con una sola variando la escala de abcisas, multiplicándola por un
cierto “factor de escala”, que será igual a la desviación tipo de la distribución que se desee
representar.
Pero cuando se quiere resolver este tipo de problema y no se conoce la desviación tipo de
la población, sino que se tiene una estimación de la misma, no puede utilizarse la normal como
distribución de referencia, sino una t de Student con los grados de libertad que correspondan
según sea el tamaño de la muestra utilizada para estimar σ.
Con los datos de nuestro ejemplo, si la desviación tipo de la población se ha estimado a
partir de una muestra de tamaño n = 5, y se ha obtenido s = 3, la distribución de referencia será una
t de Student con ν = 4 grados de libertad y con un factor de escala igual a 3.
Como la forma de la t de Student no es siempre la misma (depende del número de grados de
libertad), deberían calcularse las ordenadas en cada caso, pero esto no es necesario, ya que se hallan
tabuladas en tablas como la que se adjunta en el apéndice 1.
Para realizar la comparación en este caso conviene construir una pequeña tabla previa, como
la siguiente:

t 0 0.5 1 1.5 2 2.5 3


ORDENADA 0.375 0.322 0.215 0.123 0.066 0.036 0.020
(v=4)
t*3 0 1.5 3 4.5 6 7.5 9

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Y a continuación se construye la t de Student


situando los valores dados en un eje horizontal con
la misma escala que la utilizada para la distribución.
(Ver figura 6.6.)
También en este caso podemos considerar
que todos los valores pertenecen a la misma
población.

Fig. 6.6 Comparación de valores con una t de Student con


4 grados de libertad

6.1.2 Requisitos de aplicación

El método gráfico que acabamos de ver nos va a servir para realizar comparaciones de medias, pero
para que el procedimiento sea válido, es necesario que se cumplan tres requisitos:
a. Las muestras cuyas medias se desee comparar, deben ser muestras aleatorias simples de sus
correspondientes poblaciones. De lo contrario, las muestras no pueden considerarse represen-
tativas y el método carece de validez.
108 b. Las poblaciones de las que proceden cada una de las muestras deben ser normales, aunque este
requisito es poco crítico y ligeras desviaciones respecto a la normalidad no afectan a la validez
del método.
c. Todas las poblaciones de las que proceden las muestras deben tener la misma varianza.
A través de un análisis exploratorio de los datos podemos cerciorarnos de que no hay pruebas
de que estos requisitos no se cumplen. En el caso del tercer requisito, los gráficos de residuos (valor
observado menos media de la muestra), frente a valores previstos (media de la muestra) son de gran
utilidad.
Veámoslo en los siguientes ejemplos.

Ejemplo 6.1: Sean los datos:

MUESTRA 1 2 3 4 5

DATOS 14.0 12.3 13.7 13.4 15.0


18.1 15.1 17.4 16.8 19.1
18.0 16.2 17.4 15.7 18.5
15.7 14.0 15.6 15.1 16.7
16.4 13.8 15.4 14.5 17.4
16.3 14.1 15.2 15.4 17.3
13.5 12.5 13.8 14.1 15.0
MEDIA 16.0 14.0 15.5 15.0 17.0

Recordando que los residuos son las diferencias entre los valores observados y los previstos por
el modelo (en este caso las medias muestrales) tendremos:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

MUESTRA 1 2 3 4 5

RESIDUOS -2.0 -1.7 -1.8 -1.6 -2.0


2.1 1.1 1.9 1.8 2.1
2.0 2.2 1.9 0.7 1.5
-0.3 0.0 0.1 0.1 -0.3
0.4 -0.2 -0.1 -0.5 0.4
0.3 0.1 -0.3 0.4 0.3
-2.5 -1.5 -1.7 -0.9 -2.0

Y el gráfico de residuos frente a valores previstos tiene el aspecto:


Residuos

109

Fig. 6.7 Gráfico de residuos frente a valores previstos (no se observa heterocedasticidad)

Luego nada nos hace pensar que la variabilidad (varianza) seas distinta entre poblaciones, y
podemos asumir el tercer requisito.

Ejemplo 6.2: Sean los datos:

MUESTRA 1 2 3 4 5

DATOS 14.0 13.3 13.8 13.4 13.0


19.1 14.1 18.2 16.8 21.1
18.0 15.2 16.9 15.7 18.7
15.7 14.0 15.6 15.1 16.7
16.4 14.8 16.6 14.5 17.2
16.3 13.1 15.2 15.4 17.3
12.5 13.5 12.2 14.1 15.0
MEDIA 16.0 14.0 15.5 15.0 17.0

En este caso los residuos son:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

MUESTRA 1 2 3 4 5

RESIDUOS -2.0 -0.7 -1.7 -1.6 -4.0


3.1 0.1 2.7 1.8 4.1
2.0 1.2 1.4 0.7 1.7
-0.3 0.0 0.1 0.1 -0.3
0.4 0.8 1.1 -0.5 1.2
0.3 -0.9 -0.3 0.4 0.3
-3.5 -0.5 -3.3 -0.9 -3.0

Se obtiene el siguiente gráfico de residuos frente a valores previstos:


Residuos

110
Fig. 6.7 Gráfico de residuos frente a valores previstos. Se observa heterocedasticidad

En este caso no se puede suponer que la variabilidad sea la misma para todas las poblaciones.
De hecho, se da un fenómeno que suele ocurrir con cierta frecuencia, y es que la varibilidad aumenta
al aumentar la media, dando origen a gráficos como el que nosotros hemos representado, con una típica
forma de embudo. Este fenómeno se denomina “heterocedasticidad”, y cuando se da, no se pueden
aplicar las técnicas clásicas de análisis de la varianza como las que veremos a continuación.

6.1.3 Caso de la comparación de procedimientos de montaje. Aplicación del método

Los datos que se presentan a continuación corresponden a la productividad media por hora en el montaje
de un cierto mecanismo, según que el procedimiento empleado sea el A, el B o el C. Supondremos que
la recogida de los datos se ha aleatorizado convenientemente y que nada hace suponer que exista algún
factor que no ejerza el mismo tipo de influencia
para todos los resultados obtenidos.
PROCEDIMIENTO
¿Puede decirse que los tres procedimientos
A B C
no dan la misma productividad?, y en este caso,
¿cuál o cuáles son distintas? PRODUCTIVIDAD/h. 2.6 3.2 2.6
El razonamiento que se hace en la reso- 2.5 3.1 2.5
lución de este tipo de problemas es considerar que 3.1 3.5 2.7
2.6 3.4 2.7
se da la circunstancia más conservadora (hipótesis
MEDIA 2.7 3.3 2.625
nula, H0), que en nuestro caso sería considerar que
DES. TIPO 0.27 0.18 0.10
los tres procedimientos dan la misma producti-

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

vidad, contrastando a continuación si los datos de que se dispone son coherentes con la hipótesis
planteada o, por el contrario, no lo son, en cuyo caso es rechazada.
Que los tres procedimientos den la misma productividad significa que sus medias poblaciona-
les son iguales, es decir que podemos plantear la hipótesis nula de la forma:
H0 : µA = µB = µC
La hipótesis alternativa (H1) es la que se considera cierta en el caso de que no se cumpliese la
hipótesis nula, que en este caso será simplemente considerar que no todas las medias son iguales.
La metodología que se debe seguir, si no existe evidencia de incumplimiento de los requisitos
necesarios, puede resumirse en las siguientes etapas:

a) Estimar la varianza poblacional única σ2 (recuerde que éste era uno de los requisitos) mediante
una media ponderada de las varianzas muestrales.
Cada una de las varianzas muestrales es un buen estimador de σ2, pero seguramente todas son
distintas. Entonces, ¿con cuál nos quedamos? Si las muestras son iguales en tamaño utilizaremos la
media aritmética de las varianzas muestrales y, si no lo son, haremos una media de las s2 ponderada
según los grados de libertad de cada muestra (nos fiamos más de las muestras más grandes).
La fórmula general para el cálculo de la estimación de σ2, que llamaremos sR2, será:

∑ ( nt ) ∑ ( nt )
k k
− 1 st2 − 1 st2
t =1 t =1
s 2
= =
∑ ( nt )
R k
N −k
−1
t =1
donde: 111
k: Número de procedimientos (o, en general, tratamientos) a comparar
nt: Número de datos de que se dispone correspondientes al tratamiento t
st2: Varianza de los datos correspondientes al tratamiento t
N: Número total de datos en los k tratamientos
En nuestro caso, al ser iguales los tamaños de muestra, no es necesario aplicar ponderación
alguna, sino que podemos calcular sR2 de la forma:
s 2A + s B2 + sC2 0.073 + 0.032 + 0.010
s R2 = = = 0.038
3 3
De donde:
sR = 0.038 = 0.196

con ν = 9 grados de libertad (3 de cada muestra).

b) Calcular el factor de escala de la t-Student con ν = 9.


Recuerde que la media de una muestra se distribuye con una desviación tipo igual a la
desviación tipo de la población, dividida por la raíz cuadrada del tamaño de la muestra (teorema central
del límite). Por tanto, en nuestro caso el factor de escala será:

sR 0196
.
factor de escala = = = 0.098
n 4

Si los tamaños de las muestras no son iguales (pero no muy distintos), entonces en lugar de n
se utiliza:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

k
∑ nt
t =1
n =
k

c) Construir la distribución de referencia según el método visto anteriormente


En este caso, la tabla será:

t 0 0.5 1 1.5 2 2.5 3


ORDENADA 0.388 0.388 0.229 0.127 0.062 0.028 0.012
(< = 9)
t*0.098 0 0.049 0.098 0.147 0.196 0.245 0.294

Con lo que se obtiene una distribución de la forma indicada en la figura 6.9.

112

Fig. 6.9 Construcción de una distribución de referencia

d) Situar las medias en un eje horizontal con la misma escala que la utilizada en la distribución de
referencia. Deslizar la distribución y sacar conclusiones.

Fig. 6.10 Comparación de valores con su distribución de Fig. 6.11 No se puede afirmar que A y B sean distintos, ni
referencia (¡misma escala del eje de abcisas!) que lo sean B y C, pero sí que lo son A y C

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

Vemos que no se puede considerar que las tres medias muestrales pertenezcan a la distribución
a la que deberían pertenecer si las medias poblacionales fueran iguales. Luego los datos no están en
consonancia con la hipótesis nula realizada que, por tanto, será rechazada.
La conclusión es que los procedimientos A y C son estadísticamente indistinguibles, mientras
que el B presenta una diferencia significativa respecto a los otros dos. Nótese que el hecho de que A
sea indistinguible de B y B indistinguible de C, no implica que A sea indistinguible de C, tal como pone
de manifiesto la figura 6.11.

6.2 Caso de la comparación de procedimientos de montaje con datos bloqueados.


Hipótesis sobre el modelo de la respuesta

Supongamos que en el experimento anterior de análisis de la productividad de tres técnicas de montaje


distintas se desea tomar cuatro datos de cada procedimiento, pero considerando ahora que sólo se
puede tomar un dato cada día, y de forma que se tiene la sospecha de que el día de la semana también
puede influir en la productividad.
En este caso, es mejor no recoger los datos de una forma totalmente aleatoria, ya que podría ocurrir
que tres datos correspondientes al procedimiento A fueran tomados el lunes, y si este día de la semana el
nivel de productividad fuera menor, achacaríamos una disminución del nivel de respuesta al
procedimiento, cuando en realidad correspondería al día en que se tomaran los datos.
En circunstancias como ésta, es indispensable planificar la recogida de datos de forma que el posible
efecto de ese factor, que no se puede mantener constante, quede convenientemente neutralizado.
Una forma de hacerlo es tomando los datos de la siguiente forma: 113

PROCEDIMIENTO

A B C DÍA

2.6 3.2 2.6 Lunes


PRODUCTIVIDAD 2.1 2.7 2.1 Martes
3.5 3.9 3.1 MiJrcoles
2.6 3.4 2.7 Jueves

El experimento ha consistido en cuatro bloques (días), y se han tomado datos para cada uno de
los procedimientos de forma aleatoria dentro de cada bloque (diseño en “bloques aleatorizados”). De
esta forma, dentro de cada bloque pueden compararse las productividades (respuesta) de cada procedi-
miento, por mucha variación que haya en las medias de los bloques.
Consideraremos que cada resultado obtenido yti se puede expresar mediante el modelo:
y ti = µ + βi + τ t + ε ti
donde:
µ: Media general
βi: Efecto correspondiente al bloque i
τt: Efecto correspondiente al tratamiento t
εti: Perturbación aleatoria correspondiente a la observación ti. εti - N(0, σ2).

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Como puede observarse en el modelo, el bloque tiene un efecto aditivo sobre la respuesta,
subiendo o bajando el nivel de la misma para todas las observaciones incluidas en el bloque. Si no
existe efecto bloque, βi=0 para cualquier i.

6.2.1 Resolución

El objetivo será hallar una distribución de referencia para comparar las medias de los bloques y otra
para la media de los procedimientos (esta última es la de interés fundamental).
Pero en primer lugar siempre es conveniente representar los datos gráficamente. Una
representación gráfica de los datos que resulta muy adecuada en este tipo de casos es la que se indica
en la figura 6.12.
Para iniciar el análisis de los datos, en primer lugar escribiremos la tabla de resultados incluyendo las
medias de los bloques y de los procedimientos.
El supraíndice sobre cada uno de los valores corresponde al orden de toma de los datos que, tal
como se ha dicho, es aleatorio dentro de cada bloque.

MEDIAS
PROCEDIMIENTOS
DE LOS
BLOQUES
A B C
(2) (1)
114 Lunes 2.6 3.2 2.6(3) 2.8
(1) (3) (2)
Martes 2.1 2.7 2.1 2.3
(2) (1) (3)
MiJrcoles 3.5 3.9 3.1 3.5
(3) (2) (1)
Jueves 2.6 3.4 2.7 2.9

MEDIAS 2.7 3.3 2.625

Fig. 6.12 Gráfico para la comparación de las productividades


obtenidas con los datos bloqueados

La metodología que se debe seguir en estos casos se resume en las siguientes etapas:

a. Eliminar las diferencias de nivel entre bloques, restándole a cada dato la media de su bloque:

PROCEDIMIENTOS SUMA

A B C
Lunes -0.2 0.4 -0.2 0
Martes -0.2 0.4 -0.2 0
MiJrcoles 0 0.4 -0.4 0
Jueves -0.3 0.5 -0.2 0

MEDIAS -0.175 0.425 -0.250

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

b. Calcular los residuos. Es decir, a cada observación de la tabla obtenida en la etapa anterior,
restarle la media de su columna (valor previsto):

PROCEDIMIENTOS SUMA

A B C

Lunes -0.025 -0.025 0.05 0


Martes -0.025 -0.025 0.05 0
MiJrcoles 0.175 -0.025 -0.15 0
Jueves -0.125 0.075 0.05 0

SUMA 0 0 0

c. Estimar la varianza poblacional σ2.


La estimación de la varianza poblacional puede hacerse de la siguiente forma:

Suma de cuadrados de los residuos


sR2 =
Grados de libertad

En este caso, si llamamos a al número de tratamientos y b al número de bloques, el número de


grados de libertad es:
Grados de libertad = ( a − 1) ∗ ( b − 1) = 2∗3 = 6
115
Realmente, en la tabla de residuos, sabiendo que las filas y las columnas suman cero, podemos
tapar los datos correspondientes a cualquier fila y también los correspondientes a cualquier columna,
y volverlos a deducir. Sólo hay 6 residuos que se mueven libremente (6 grados de libertad).
Por tanto, en nuestro caso tendremos:

s R2 =
( − 0.025) 2 + ( − 0.025) 2 + ( 0.175) 2 + ... + ( 0.05) 2 = 0.014167
6
de donde, sR = 0.014167 = 0.119

d. Calcular el factor de escala para la comparación de tratamientos.


Si H0 : µA = µB = µC fuera cierta, las medias muestrales correspondientes a cada procedimiento
se distribuirían según una t de Student con ν = 6 grados de libertad y con un factor de escala
(desviación tipo):
sR 0.119
factor de escala = = = 0.0595
b 4
donde b es el número de observaciones dentro de cada tratamiento, o lo que es lo mismo, el tamaño de
las muestras.

e. Calcular el factor de escala para comparar las medias de los bloques


En este caso será:
sR 0.119
factor de escala = = = 0.0687
a 3

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

donde a el número de observaciones dentro de cada bloque, o tamaño de las muestras a partir de las
que se han calculado las medias de los bloques.

f. Construir las distribuciones de referencia.


Elaboramos la tabla previa, construida de forma que sea útil para las dos distribuciones.

t 0 0.5 1 1.5 2 2.5 3


ORDENADA 0.383 0.332 0.223 0.126 0.064 0.032 0.016
(< = 6)
t * 0.0595 0 0.030 0.060 0.089 0.119 0.149 0.179
(PROCEDIMIENTO)
t * 0.0687 0 0.034 0.069 0.103 0.137 0.172 0.206
(BLOQUES)

Y tenemos, para los tratamientos: y para los bloques:

116

Fig. 6.13 Comparación de las medidas de los tratamientos Fig. 6.14 Comparación de las medidas de los bloques

Luego hay diferencias de productividad según el método utilizado (resultado que nos interesaba
saber), y también podemos afirmar que existe diferencia de productividad según el día de la semana.
¿Qué hubiera ocurrido si a unos datos bloqueados como los anteriores, les hubiéramos aplicado
la técnica de análisis que corresponde a datos independientes (diseños totalmente aleatorizados)?
En este caso, el estimador de la varianza poblacional única (con las desviaciones tipo de los
procedimientos A, B y C) hubiera sido:

0.58 2 + 0.50 2 + 0.412


s R2 = = 0.25 , con ν = 9 g . l.
3
Luego:
sR = 0.5 con ν = 9
el factor de escala sería:

sR 0.5
factor de escala = = = 0.25
n 4

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

Se obtiene, por tanto, la siguiente tabla:

t 0 0.5 1 1.5 2 2.5 3


ORDENADA 0.388 0.388 0.229 0.127 0.062 0.028 0.012
(<=9)
t * 0.25 0 0.125 0.250 0.375 0.500 0.625 0.750

que da lugar a la distribución de referencia


que se indica en la figura 6.15, a la vista de la
cual, no puede decirse que existan diferencias
entre los tres procedimientos.
Esta conclusión errónea se debe a que
la varianza poblacional está sobreestimada
por la variabilidad que produce la diferencia
entre días de la semana. Por tanto, las
conclusiones que se obtienen se ven afectadas
si a datos obtenidos en diseños bloqueados se
les aplica una técnica de análisis propia de
datos totalmente aleatorizados.

117
Fig. 6.15 Comparación de datos con su distribución de referencia

6.3 Método clásico de análisis de la varianza. Tabla ANOVA

6.3.1 Planteamiento de un caso y cuestiones previas

Vamos a ver a continuación un método analítico para


comparar las medias de varios tratamientos. Éste es el PROCEDIMIENTO
método clásico que se basa en la construcción y A B C
análisis de una tabla denominada “tabla ANOVA”
PRODUCTIVIDAD 2.6 3.2 2.6
(ANalisys Of VAriance). 2.5 3.1 2.5
Para ilustrar su aplicación utilizaremos los 3.1 3.5 2.7
mismos datos que ya utilizamos en la descripción del 2.6 3.4 2.7
método gráfico. Recordemos el caso en que se compa- MEDIA 2.7 3.3 2.625
raba la productividad obtenida aplicando diversos
DES. TIPO 0.27 0.18 0.10
procedimientos de montaje, en el que teníamos:

Y la pregunta que nos planteábamos era: ¿Puede decirse que los tres procedimientos no dan la
misma productividad? Antes de iniciar el método para contestar esta pregunta, abordaremos dos
cuestiones previas.
a. Requisitos para la aplicación del método.
Los requisitos que se deben cumplir son los mismos que ya se comentaron para el método
gráfico, y pueden resumirse en que los datos correspondientes a cada tratamiento deben ser

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

muestras aleatorias simples de sus correspondientes poblaciones, poblaciones que deben ser
todas normales y de la misma varianza, es decir, iguales en todo excepto, quizá, en su media.
Como siempre, un adecuado análisis exploratorio de los datos sirve para verificar que nada se
opone al cumplimiento de los requisitos establecidos.
b. Notación.
En general, consideraremos que existen k tratamientos y que el tratamiento t contiene nt
observaciones, de forma que los datos se pueden escribir:

y11 y 21 L y t1 L y k1
M M M M
y1i y2i y ti y ki
M M M M
y1n 1
y2 n 2
L ytn t
L y kn k

A la media general de todos los datos se le denomina y .

6.3.2 Construcción e interpretación de la tabla ANOVA en diseños totalmente aleatorizados

a) Cálculo de sR2.
Se trata de la estimación de la varianza poblacional única, σ2, a partir de la variación dentro de
118 los tratamientos.
El método habitual consiste en calcular la media de las varianzas de las muestras, ponderándola
según los grados de libertad de cada muestra.

ν 1 s12 + ν 2 s22 + ... + ν t st2 + ... + ν k sk2


s R2 =
ν 1 + ν 2 + ... + ν t + ... + ν k

Teniendo en cuenta que:


2

∑ ( yti )
nt
ν t st2 = − yt ≡ S Ct
i =1
tenemos:
2

∑ ∑ ( yti )
k k nt

∑ SCt = − yt ≡ S CR
t =1 t =1 i =1

y por tanto, podemos escribir:


2

∑ ∑ ( yti )
k nt
− yt
t =1 i =1 SC R
s R2 = =
(n 1 ) (
− 1 + n2 − 1 + ... + nk − 1 ) ( ) N −k

En nuestro caso:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

A B C

nt 4 4 4
st2 0.073 0.033 0.010
SCt 0.220 0.100 0.027
SCR = 0.3475
N-k = 12 - 3 = 9
sR2 = 0.3475 / 9 = 0.0386

b) Cálculo de sT2.
Se trata de realizar una estimación de σ2 basándonos en la variación entre tratamientos.
Si no hubiera diferencia entre las medias poblacionales de los tratamientos, todas las
poblaciones serían iguales (en realidad sería una sola población) y podríamos obtener una estimación
de σ2 a partir de la variación de las medias de los tratamientos respecto a la media general.
Supongamos que todos los tratamientos tienen el mismo número de observaciones n. Como la
media muestral se distribuye con varianza σ2/n, tendremos que:

∑ ( yt )
k 2

−y
t =1 σ2
es un estimador de
k −1 n
Luego:

( )
k 2

n ∑ yt − y
t =1 119
es un estimador de σ 2
k −1

¿Qué ocurre si no todos los tratamientos tienen el mismo número de observaciones?


Sustituyendo n por nt, que en este caso deberá ir colocado dentro del sumatorio, obtenemos:

∑ nt ( y t )
k 2

−y
t =1

k −1
El nuevo estimador de σ , sólo válido cuando las medias poblacionales son iguales, se llama sT2,
2

y su fórmula es:
(y )
k 2

SCT
∑ nt t −y
t =1
sT2 = =
νt k −1

En nuestro caso tenemos:


A B C
1.095 yt 2.7 3.3 2.625 y = 2.875
sT2 = = 0.55
2 yt − y -0.175 0.425 -0.250

Obsérvese que si la media pobla- ( yt − y ) 2


0.031 0.181 0.625
cional de los tratamientos no es la mis- nt 4 4 4
ma, sT2 será mayor que sR2, ya que en este
caso está afectada, no sólo por la nt ( y tnt− y ) 2 0.1225 0.7225 0.250 E = 1.095

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

variabilidad dentro de los tratamientos (caso de sR2), sino también por la variabilidad entre
tratamientos.

c) Comparación entre sR2 y sT2.


Tenemos dos estimadores de σ2:
2
sR :Se obtiene a partir de la varianza de las observaciones de cada uno de los tratamientos. Siempre
es un buen estimador de σ2.
2
sT :Se obtiene a partir de la varianza de las medias de los tratamientos. Sólo es un buen estimador
de σ2 si la hipótesis de igualdad de medias poblacionales es cierta.
Si sT2 es mucho mayor que sR2 (como en el caso de nuestro ejemplo), nos induce a pensar que
la hipótesis de igualdad de medias entre tratamientos es insostenible.
Más adelante se verá cómo se puede contrastar esta sospecha de forma más objetiva.

d) Tercera forma de estimar σ2.


Si las medias de todos los tratamientos son iguales, otro estimador de σ2 es el obtenido
calculando la varianza de todas las observaciones globalmente, sin distinguir entre tratamientos. A esta
nueva estimación se la denomina sD2, y tiene como expresión:

∑ ∑ ( yti )
k nt
2
−y
t =1 i =1 SC D
sD2 = =
N −1 N −1

120 El valor N-1 son los grados de libertad de sD2, para los cuales se utiliza la notación νD.
Puede comprobarse algebráicamente que se verifican las siguientes igualdades:
SC D = SC R + SC T
ν D = ν R + νT
y que para el cálculo de SCD puede utilizarse la expresión:
k nt
SC D = ∑ ∑ yti2 − N y2
t =1 i =1

e) Presentación de la tabla ANOVA.


Los cálculos realizados anteriormente se resumen en una tabla que tiene el siguiente aspecto:

FUENTE DE SUMA DE GRADOS DE CUADRADOS


VARIACIÓN CUADRADOS LIBERTAD MEDIOS RELACIÓN

Entre SCT = 1.095 <T = 2 sT2 = 0.5475 sT2/sR2 = 14.2


tratamientos
Dentro de los SCR = 0.3475 <R = 9 sR2 = 0.0386
tratamientos
Total respecto a la SCD = 1.4425 <D = 11
media general

Los valores de SCD y νD, que son los más fáciles de calcular, sirven para verificar la corrección
de los cálculos de SCT, SCR, νT y νR.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

f) Uso de la tabla ANOVA.


Es sabido que, si sy2 es la varianza de una muestra aleatoria de tamaño ny de una población
normal de varianza σy2 y, análogamente, sx2 es la varianza de una muestra aleatoria de tamaño nx de
una población normal de varianza σx2, se verifica que:

(n − 1) σ
s y2
y 2 - χ n2 y −1
y

(n ) σs
2

x −1
x
2
- χ n2 x −1
x

y por otra parte, si U es una variable aleatoria que sigue una distribución de χ2 con ν1 grados de
libertad, y V otra variable aleatoria que también sigue una distribución χ2, pero esta vez con ν2 grados
de libertad, siendo U y V independientes, se verifica que:
U ν1
F = - F - Snedecor (ν 1 ; ν 2 )
U ν2
A partir de las expresiones anteriores, y mediante transformaciones algebraicas, puede llegarse a:

s12 σ 12
- Fν ν
s22 σ 22 1 2

Por tanto, si σ12 = σ22, se tiene que:


s12 121
- Fν 1 ν2
s22
Es decir, si s12 estima la misma varianza poblacional que s22, su cociente se distribuye según una
F de Snedecor con ν1 y ν2 grados de libertad.
¿Podemos decir en nuestro caso que sR2 y sT2 estiman la misma σ2?
La relación sT2/sR2 es igual a 14.18. Si las tres poblaciones tuvieran la misma media, sería un
valor de una distribución F de Snedecor con 2 y 9 grados de libertad. ¿Es esto posible? Sí, pero es muy
poco probable. Consultando las tablas se observa que tal probabilidad es de 0.002, luego podemos
decir que nuestros datos no son coherentes con la hipótesis de igualdad de medias, hipótesis que por
tanto será rechazada.

6.3.3 Tabla ANOVA para diseños bloqueados

Tomamos los datos y el planteamiento ya


realizados en el apartado 6.2: PROCEDIMIENTOS MEDIAS DE
A B C LOS BLOQUES

Lunes 2.6(2) 3.2(1) 2.6(3) 2.8


(1) (3) (2)
Martes 2.1 2.7 2.1 2.3
(2) (1) (3)
MiJrcoles 3.5 3.9 3.1 3.5
(3) (2) (1)
Jueves 2.6 3.4 2.7 2.9

MEDIAS 2.7 3.3 2.625

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

En este caso de diseños bloqueados se usa la notación:


Media de
Tratamiento los bloques
1 2 ... t ... k
1 y11 y21 ... yt1 ... yk1

...
2 y12 y22 ... yt2 ... yk2
. . . . .
. . . . .
. . . . .
que
Bloque i y1i y2i ... yti ... yki yi
. . . . .
. . . . .
. . . . .

...
n y1n y2n ... ytn ... ykn
Media
dia de de y1 y2 ... ... yk y
tratamientos y t
amientos: Media general

Las fórmulas generales de las sumas de cuadrados para la construcción de la tabla son2:
> Suma de cuadrados debida a la variación entre bloques:
n
∑ ( yi − y)
2
SCB = k
i

> Suma de cuadrados debida a la variación entre tratamientos:

( )
k
= n ∑ yt − y
2
SCT
i
122
> Suma de cuadrados debida a la variación dentro de los tratamientos:

k n
∑ ∑ ( y ti − yi − y t + y )
2
SC R =
t i

> Suma de cuadrados total:

k n
SC D = ∑ ∑ yti2 − nky 2
t i

Con los siguientes grados de libertad:

SUMA DE GRADOS DE
CUADRADOS LIBERTAD
SCB n-1
SCT k-1
SCR (n-1)(k-1)
SCD nk-1

La tabla ANOVA de nuestros datos, tendrá la siguiente forma:

2 La deducción detallada de estas fórmulas puede verse en el libro de Box, Hunter y Hunter Estadística para
investigadores. Ed. Reverté, Barcelona, 1988.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

FUENTE DE SUMA DE GRADOS DE CUADRADOS


VARIACIÓN CUADRADOS LIBERTAD MEDIOS RELACIÓN

Entre bloques SCB = 2.1825 <B = 3 sB2 = 0.73 sB2/sR2 = 52.1


Entre SCT = 1.0950 <T = 2 sT2 = 0.55 sT2/sR2 = 39.3
tratamientos
Dentro de los SCR = 0.0850 <R = 6 sR2 = 0.014
tratamientos
Total respecto a la SCD = 3.3625 <D = 11
media general

sB2/sR2 es el estadístico de prueba que sirve para contrastar si existe diferencia entre las medias
de los bloques, utilizando como distribución de referencia una F de Snedecor con νB y νR grados de
libertad. Análogamente, sT2/sR2 es el estadístico para contrastar las diferencias de medias entre
tratamientos utilizando como distribución de referencia la F de Snedecor con νT y νR grados de
libertad.
El lector puede comprobar, consultando las tablas de la F de Snedecor, que existen diferencias
significativas, tanto en las medias de los bloques como de los tratamientos, conclusión idéntica a la que
ya se había obtenido analizando los datos por el método gráfico.

123

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Ejercicios

6.1 Se selecciona una muestra aleatoria de 30 muelles. Esta muestra se divide en tres partes y se
pintan los muelles de cada parte con una pintura diferente.
Posteriormente, los muelles son sometidos a una prueba de elongación y se obtienen los
siguientes valores:
PINTURA A PINTURA B PINTURA C

0.38 0.53 0.51


0.26 0.35 0.63
0.41 0.38 0.46
0.33 0.45 0.47
0.33 1.09 0.42
0.37 0.46 0.45
0.54 0.57 0.41
0.76 0.46 0.39
0.39 0.39 0.66
0.74 0.56 0.76

Realice los gráficos y análisis que le parezcan convenientes. Compruebe las hipótesis. ¿Hay
algún efecto del tipo de pintura en la elongación?

6.2 Para comparar la efectividad de tres tipos diferentes de pinturas fosforescentes para señales de
124 tráfico, se pintan ocho cuadrantes con cada una de las pinturas. Luego se iluminan los
cuadrantes y los siguientes datos indican los minutos que dieron luz por encima de un cierto
umbral, después de que la iluminación fuese apagada.

TIPO A 46.3 48.2 42.0 41.8 48.9 51.0 49.7 50.1

TIPO B 48.7 53.6 49.3 47.3 51.4 53.9 43.6 48.8

TIPO C 62.3 64.7 56.2 60.2 53.6 55.5 61.8 54.5

¿Pueden considerarse idénticos los tres tipos de pintura? En caso contrario decir cuál es el
mejor, razonando la respuesta.

6.3 En una determinada fábrica de galletas, se desea saber si las harinas de sus tres proveedores
producen la misma viscosidad en la masa. Para ello produce durante un día nueve masas, tres
de cada tipo de harina, y mide su viscosidad. Los resultados obtenidos son:

PROVEEDOR A PROVEEDOR B PROVEEDOR C

19 17 22
23 18 21
21 21 24

¿Puede decirse que existen diferencias en las viscosidades obtenidas?


No satisfechos con el resultado, se repite el experimento quince días más tarde, con los
siguientes resultados:

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
π COMPARACIÓN DE MÁS DE DOS TRATAMIENTOS: ANÁLISIS DE LA VARIANZA

PROVEEDOR A PROVEEDOR B PROVEEDOR C

24 22 27
23 20 25
25 24 23

Considerando estos resultados, junto con los obtenidos anteriormente, ¿cambia nuestra
conclusión sobre la influencia del proveedor en la viscosidad obtenida?

6.4 Se realiza un estudio sobre la inflamabilidad en cuatro fibras distintas. Para estas cuatro fibras
se obtienen los siguientes tiempos de ignición (en segundos):

FIBRA 1 FIBRA 2 FIBRA 3 FIBRA 4

17.8 11.2 11.8 14.9


16.2 11.4 11.0 10.8
17.5 15.8 10.0 12.8
17.4 10.0 9.2 10.7
15.0 10.4 9.2 10.7

a) ¿Qué fibras podemos considerar que tienen igual tiempo de ignición?


b) ¿Cuál es la que tiene un tiempo menor de ignición?

6.5. Una fábrica de pañales utiliza habitualmente tres laboratorios para comprobar la absorción de 125
sus productos. En un momento determinado, se decide llevar a cabo un estudio llevando 9
pañales lo más parecidos posible a los laboratorios (3 a cada uno). Las cantidades absorbidas
detectadas son:

CANTIDAD PESO
PAÑAL LABORATORIO ABSORBIDA (g) PULPA (g)

1 1 15.5 8.8
2 1 15.2 8.6
3 1 14.6 8.0
4 2 16.0 9.1
5 2 15.6 8.8
6 2 14.6 8.0
7 3 14.5 8.5
8 3 15.8 9.9
9 3 15.9 10.0

a) ¿Cuál es la variabilidad entre laboratorios? (Cantidad absorbida.)


b) ¿Cuál es la variabilidad entre pañales?
c) ¿Qué se deduce de la comparación entre estas dos variabilidades?

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
7
Diseños factoriales

7.1 Necesidad de la experimentación

7.1.1 Avance del conocimiento

La adquisición de conocimientos nuevos, el descubrimiento, viene condicionado por dos elementos


esenciales: la ocurrencia de algún hecho diferente de lo habitual, cosa por tanto poco frecuente, y
la circunstancia de que este hecho se produzca en presencia de una persona capaz de identificarlo 127
como extraño, reflexionar sobre él y, lo que es más difícil, extraer consecuencias.
La unión de estos dos sucesos es extremadamente rara, aunque podemos citar aquí algunos
casos famosos: la manzana, Newton y la ley de gravitación universal; la tapadera de la olla, Watt
y la máquina de vapor; el incensario, Galileo y la ley del péndulo, o la aparición de hongos,
Fleming y la penicilina, por citar solo algunos de los casos más conocidos.
La experimentación no consiste más que en reproducir artificialmente estas dos circunstancias.
Se trata, pues, de forzar la aparición de circunstancias “extrañas” en presencia de personas
especialmente preparadas para interpretar y extraer conclusiones de lo que ocurra.
Es indudable que, en el mundo competitivo en el que se mueve actualmente cualquier
organización, uno de los factores clave de éxito es el ritmo con el que la organización es capaz de
aprender. La experimentación es uno de los elementos que más pueden contribuir a aumentar ese
ritmo.

7.1.2 Diferencia entre experimentar y analizar datos existentes

Al intentar aprender de los procesos industriales, una situación que se plantea con frecuencia es la de
disponer de gran cantidad de datos sobre el funcionamiento diario del proceso en cuestión, y surge la
pregunta: ¿Es realmente necesario hacer experimentos?, ¿no se podría llegar a las mismas conclusiones
analizando convenientemente (con frecuencia se sugieren las técnicas de regresión) los datos
disponibles? A continuación, y sin que ello signifique que no se pueda aprender, y mucho, analizando
los datos del pasado, exponemos cuatro riesgos que se corren y de los que conviene ser consciente,
cuando se analizan datos cuya recogida no ha sido planificada.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

a) Datos inconsistentes
Los procesos industriales cambian con el tiempo, el envejecimiento, las reparaciones, los
cambios en procedimientos, etc. Todo este tipo de cambios no suelen registrarse conjuntamente con los
datos que suelen ser presiones, temperaturas, caudales, concentraciones, etc. Esto provoca que los
datos recogidos mecánicamente no sean consistentes y por tanto intentar extraer conclusiones sobre el
comportamiento del proceso a base de analizarlos es una tarea con escasas posibilidades de éxito.

b) Rango de las variables limitado por el control


La figura 7.1 muestra un gráfico entre la concentración (una variable importante del proceso) y
la pureza (una característica de calidad crítica del producto). En ella se aprecia la relación que hay entre
estas dos variables. Sin embargo, y precisa-
mente porque se sabe que la concentración
tiene una gran influencia en la pureza, durante
la producción se controla de forma muy estricta
el rango de variación de la concentración. Si el
rango de control es pequeño en relación a la
variabilidad en la pureza para una
concentración dada, resulta imposible detectar
la relación entre ambas por muy fuerte que sea.
Esta situación es muy frecuente cuando
se intenta establecer modelos a base de datos
recogidos en las operaciones habituales.
128 Fig. 7.1 Relación entre la pureza y la concentración cuando se Además, causa sorpresas y comentarios del
restringe el rango de variación tipo: ¿Cómo es posible que la concentración no
influya en la pureza?

c) Variables altamente correlacionadas


Cuando dos variables del proceso están correlacionadas, se pueden producir dos tipos diferentes
de situación engañosa al analizar datos recogidos durante las operaciones habituales.
La primera situación se produce cuando los datos recogidos incluyen, entre otras, las dos
variables en cuestión. Esta situación es conocida como confusión de los efectos.

d) Confusión de los efectos


Considérese un proceso de extrusión en el que
una característica importante del producto final
es la densidad (en gr/l) y se han recogido datos
del caudal o velocidad de avance a través de la
extrusora (en r.p.m.) y del contenido de grasas
(en %) de la materia prima, una mezcla de
harinas vegetales. Y supóngase que la relación
entre estas dos variables y la densidad es la que
aparece en la figura 7.2.
Resulta claro que al aumentar el caudal y
el contenido en grasa, aumenta la densidad.
Pero lo que no se puede discernir es si el
Fig. 7.2 Relación entre el caudal, el % de grasa y la densidad incremento de la densidad es debido al
(número entre paréntesis) incremento del caudal, al del % de grasa o al

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

aumento combinado de las dos variables. Es por este motivo que en estos casos se dice que los efectos
de las variables están confundidos.
La segunda situación se produce cuando sólo se han recogido (o tenido en cuenta en el análisis)
los datos correspondientes a una de las dos variables correlacionadas. Ello produce la aparición de una
relación no causal debida a la existencia de una “variable oculta”.

e) Relación no causal. Variable oculta


Considérese de nuevo el proceso de extrusión, pero suponiendo que no se han recogido datos
del contenido de grasa de la materia prima. Al realizar un diagrama bivariante (figura 7.3) entre el
caudal y la densidad, se observaría una relación entre estas dos variables que induciría a pensar que se
puede obtener la densidad deseada,
regulando las r.p.m. del caudal de
alimentación de materia prima.
Sin embargo, una persona que
intentase regular la densidad manipu-
lando las r.p.m., se encontraría con la
desagradable sorpresa de no conseguirlo.
Y es que la relación que existe entre
estas dos variables no es de causa-efecto.
De hecho, es debida a una tercera
variable (el % de grasa de la materia
prima), ya que un aumento del % de
grasa provoca a un tiempo un aumento 129
en las r.p.m. (al ser más fluida la materia
prima, con la misma potencia se obtiene
una mayor velocidad), y un aumento en Fig. 7.3 Diagrama bivariante caudal-densidad
la densidad. En este caso el % de grasa
es una variable oculta.

7.1.3 Modelos mecanicistas y empíricos

En la industria, las técnicas de diseño y análisis de experimentos se utilizan básicamente en dos áreas:
el diseño o mejora de productos y el diseño o mejora de procesos. Y ello es así porque actualmente
tanto los productos como los procesos son tan complejos, que resulta prácticamente imposible -salvo
en casos excepcionales- encontrar maneras de mejorarlos mediante consideraciones de tipo teórico.
Los modelos mecanicistas, basados en conocimientos teóricos, son útiles para describir las
grandes líneas de comportamiento de los productos y procesos, pero muy rara vez sirven para describir
el comportamiento del proceso o producto que tenemos entre manos, bien por ser poco conocido o, con
mayor frecuencia, por ser excesivamente complejo. En estos casos, una descripción aproximada,
limitada a una región de interés (rango de variación de los factores restringido), y obtenida a partir de
la experimentación puede resultar de extrema utilidad.
En este capítulo se utilizan ejemplos relativos a productos y a procesos. Queremos dejar
constancia de que independientemente de cuál sea el ejemplo que hayamos utilizado, todos los
conceptos y técnicas que se mencionan son aplicables a la mejora o diseño de productos y procesos
indistintamente.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

7.2 Posibles estrategias experimentales

Experimentar significa variar deliberadamente las condiciones habituales de trabajo para encontrar
mejores maneras de proceder, y ganar al mismo tiempo un conocimiento más profundo sobre el
comportamiento de productos y/o procesos.
El problema básico del diseño de experimentos reside en decidir qué conjunto de pruebas
pondrán de manifiesto, de forma más clara y con menor esfuerzo, los diversos aspectos de interés del
problema. Si, simplificando, se considera un experimento con sólo dos variables (temperatura y
tiempo), las pruebas que hace el experimentador se pueden representar mediante puntos en un
diagrama bivariante, en el que los ejes sean las variables con las que se experimente. En la figura 7.4,
el punto P representa un experimento realizado a temperatura 210ºC y tiempo 23 minutos. En P
mediríamos la o las respuestas de interés, como por ejemplo, la viscosidad o la cantidad producida.
La cuestión de dónde situar los puntos no es trivial y requiere ciertas suposiciones sobre el
comportamiento de la función respuesta. En concreto, que ésta sea continua y suave, o que las
discontinuidades sean en gran medida conocidas. Éste es el caso, por ejemplo, en las discon-
tinuidades producidas por cambios de estado -
líquido a gas-, por energías de activación
necesarias, por imposibilidad física de acopla-
miento entre dos piezas si no cumplen unos
requisitos básicos, etc. Resultaría prácticamente
imposible llegar a conocer por métodos experi-
mentales una función cuya respuesta viniese
130 representada por una superficie similar al lomo
de un puercoespín.
Afortunadamente, los fenómenos indus-
triales, salvo discontinuidades como las comen-
tadas que resultan en gran medida conocidas,
cumplen estos requisitos de continuidad y
Fig. 7.4 Representación gráfica de un punto experimental suavidad.

7.2.1 Estrategia secuencial

La principal barrera que se opone a la utilización del diseño de experimentos -aparte de la formación
inicial del personal- es que requiere una inversión importante en tiempo, materias primas, etc. Lo cual
provoca que, aun suponiendo que se decida llevar adelante la investigación, el número de experimentos
a realizar sea siempre limitado. La consigna es, por tanto, obtener la máxima información con el
mínimo de recursos.
En la manera de utilizar los recursos disponibles para la investigación, podemos distinguir
claramente tres posibles estrategias:
a) Experimentar sin planificar
Seguramente es la más utilizada. Se usa la intuición para realizar pruebas, sin excesivo orden y
en forma individual, por iniciativas personales y aprovechando momentos que por las
circunstancias - averías, relajación en la carga de trabajo, necesidad de solucionar un problema,
etc.- sean propicios. Sin duda esta manera de proceder no puede ser considerada como una
estrategia.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

b) Decidir de golpe cómo se va a invertir todo el presupuesto


Esta estrategia consiste en decidir de entrada en qué condiciones se van a realizar todos y cada uno
de los experimentos que permite el presupuesto disponible. Por supuesto esta decisión se realiza
tras haber considerado los objetivos del experimento y estudiado cuidadosamente todos los
aspectos que, por razones teóricas o de experiencia, se conocen sobre el problema en cuestión.
c) Estrategia secuencial
En este caso, tras considerar los objetivos y recursos disponibles, se decide en qué condiciones
se van a realizar un reducido número de experimentos, de manera que los conocimientos
adquiridos se utilizan para decidir en qué condiciones realizar los siguientes. En una primera
decisión lo más recomendable es invertir del orden del 40% del presupuesto.
Entre las tres estrategias, sin ninguna duda, la preferible es la tercera. Ésta reserva una parte del
presupuesto para poder aclarar las cuestiones confusas que hayan surgido -siempre surgen- como
consecuencia del análisis del primer experimento y, además, permite aproximarse paulatinamente a la
zona donde los resultados son óptimos, invirtiendo en ella un mayor número de experimentos.
Veamos un ejemplo. Supóngase que se desea realizar un mapa de la superficie del fondo del mar
o encontrar el punto más profundo en una determinada zona -en este caso, ésta es la respuesta de
interés, en la fábrica será la pureza, la cantidad producida o cosas similares- y que para ello solamente
podemos realizar 100 mediciones de la profundidad. En este caso, obviamente, el equivalente a las
variables del experimento -que en la fábrica, serán temperaturas, tipo de materias primas,
concentraciones, etc.- son la longitud y la latitud. La mejor manera de distribuir los cien puntos, si esto
se desea hacer de golpe y no se dispone de conocimientos previos, es distribuirlos uniformemente en
una retícula. Compárese esta estrategia con situar en una retícula sólo 40 puntos, reservándose 60 para
investigar con mayor detalle aquellas zonas en las que la superficie sea más rugosa o en que la 131
profundidad sea mayor.
A esto hay que añadir que la situación de estos primeros 40 puntos resultará tanto más
informativa en la medida en que hayamos utilizado nuestros conocimientos previos sobre la forma de
la superficie del fondo del mar para situarlos. Estos conocimientos previos se pueden haber obtenido
de conversaciones con los pescadores de la zona, de informaciones sobre corrientes y mareas, etc. Los
equivalentes en el caso industrial son obviamente los conocimientos teóricos sobre el proceso y las
conversaciones con operarios y encargados en contacto directo con el proceso o producto.
Por tanto, una primera regla de oro de la experimentación es:
“No invertir nunca todo el presupuesto en un primer conjunto de experimentos y utilizar en su
diseño toda la información previa disponible”.

7.2.2 Diseños factoriales frente a intuición

Suponga que desea optimizar un proceso (obtener la máxima cantidad de producto, por ejemplo) sobre
el que se piensa que pueden influir diez variables. ¿Cómo planificaría los experimentos? Una
planificación aparentemente correcta sería fijar nueve variables e ir probando diferentes niveles de la
décima hasta encontrar aquel en el que se maximize la cantidad. A continuación, se fijaría esta variable
a su “mejor” nivel y se probaría cambiando los niveles de una de las nueve restantes. El procedimiento
continuaría hasta haber experimentado con las diez variables tomándolas de una en una.
Aparentemente el procedimiento está bien organizado, conduce al óptimo y, además, tiene la gran
ventaja de que los resultados son muy fáciles de analizar.
Veamos gráficamente cómo funciona este procedimiento en un caso con sólo dos variables (con
diez resulta imposible visualizarlo, pero la situación es totalmente análoga). Se desea maximizar la

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

cantidad de producto obtenida como resultado de una reacción, sobre la que se sabe que hay dos
variables que pueden resultar tremendamente influyentes: la temperatura del reactor (habitualmente
fijada en 225ºC) y el tiempo de reacción (habitualmente 110 minutos). La cantidad que se obtiene en
estas condiciones es 84 gr.
Para ello (ver figura 7.5) se mantiene fija la temperatura a su valor habitual y se prueban
diversos tiempos, con lo que se obtiene una cantidad máxima de 87 gr que corresponde a un tiempo de
130 minutos. Una cierta mejora. Sigamos con el procedimiento. A continuación se fija el tiempo en
130 min y se experimenta con diversos valores de la temperatura (ver figura 7.6). La nueva cantidad
máxima es de 95gr, correspondiente a una temperatura de 240ºC.

132
Fig. 7.5 Cantidad de producto obtenido en función del Fig. 7.6 Cantidad de producto obtenido en función de la
tiempo, con la temperatura fija a 225ºC temperatura, manteniendo el tiempo fijo a 130 min.

Así pues, una vez concluido el experimento, que ha sido un éxito, se ha conseguido aumentar
la cantidad producida en once gramos.
¿Ha sido un éxito? Veamos la situación desde otro punto de vista. En la figura 7.7 el eje de
ordenadas corresponde a la temperatura y el
eje de abcisas al tiempo, y la cantidad está
representada por curvas de nivel. Salta a la
vista que con el procedimiento anterior no se
ha alcanzado el óptimo, a pesar de lo sencillo
del caso, que sólo considera dos variables, y de
que la superficie representada por la cantidad
es simple.
Este procedimiento no resulta adecuado.
Lo correcto, aunque parezca ir en contra de la
intuición, es experimentar con todas las combi-
naciones de variables y niveles; sólo así se
puede detectar la dirección de las pendientes y
alcanzar las cimas o los valles de la superficie
en sucesivos experimentos.
Los diseños que permiten experimentar
Fig. 7.7 Curvas de nivel que representan la cantidad de con todas las combinaciones de variables y niveles
producto obtenido en función del tiempo y de la temperatura se denominan diseños factoriales.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Este tipo de diseños presenta diversas ventajas. Permiten, utilizados secuencialmente, acercarse
al óptimo y estimar interacciones (concepto de gran interés que se explica en el siguiente apartado), y
proporcionan estimaciones de los efectos de las variables con una varianza reducida, ya que, como se
ve en el apartado 7.5, se calculan con todas las observaciones y son relativamente sencillos de construir
y analizar.
Su principal inconveniente es que requieren un gran número de experimentos. Este
inconveniente se soluciona a través de dos caminos. El primero, que comentamos inmediatamente, es
la utilización de dos niveles para cada variable. El segundo, del que se habla en el apartado 8.10, utiliza
los diseños factoriales fraccionales.

7.2.3 Concepto de interacción

Todos conocemos por experiencia el efecto de una dosis moderada de alcohol sobre nuestro organismo:
ponernos contentos, sensación de euforia. También conocemos el efecto del medicamento X, que
ingerimos para contrarrestar los efectos de la gripe: disminuir la fiebre, provocar una cierta sensación
de bienestar. La figura 7.8 representa gráficamente la situación.
La cuestión es, ¿qué ocurre cuando ingerimos las dos cosas? La intuición parece indicar que
deberíamos sentir sensación de euforia y bienestar; la experiencia y la medicina indican que la
sensación será de somnolencia y mareo. Éste es un caso típico de interacción, en que los efectos de las
dos variables consideradas no son aditivos.
Esto ocurre con relativa frecuencia en los procesos industriales, causando desconcierto y admi-
ración. Son muy frecuentes los comentarios del tipo: 133
a) Este proceso no hay quien lo entienda, el otro día aumenté la velocidad de extrusión y aumentó
la densidad, hoy he aumentado de nuevo la velocidad de extrusión y la densidad ¡ha disminuido!
b) Nuestro proceso es muy complejo, no siempre reacciona igual. El único que es capaz de mane-
jarlo es Juan, un encargado que lleva muchos años.
Comentarios de esta índole son casi con seguridad el reflejo de interacciones.
En el ejemplo de la temperatura y el tiempo (figura 7.7), la superficie más bien parece
excesivamente sencilla para ser real, pues bien, esa forma refleja la existencia de una interacción entre
el tiempo y la temperatura. Considérese un encargado que cierto día, trabajando a temperatura 220ºC,
aumenta el tiempo de 90 a 150 minutos: observará que la cantidad aumenta de 68 a 78 gr. Si al día
siguiente, en el que la temperatura es de 230ºC, decide también aumentar el tiempo de 90 a 150 min
para, basándose en su experiencia del día anterior aumentar en 10 gr la cantidad producida, se
encontrará con que la cantidad permanece inalterable. La situación está representada en la figura 7.9.

230 85
85 85
85
(con)- bienestar somnolencia y
mareo
T
e
medicamento m
X p

(sin)- normal euforia 68 78


220 68 78

(sin) Alcohol (con) 90 tiempo 150

Fig. 7.8 Representación de la interacción alcohol-medicamento X Fig. 7.9 Interacción tiempo-temperatura

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Nótese que los valores están extraídos de la superficie representada en la figura 7.7.
Pues bien, en situaciones como ésta se dice que las dos variables interaccionan. Una definición
general es: dos variables interaccionan, cuando el efecto de una de ellas sobre la respuesta depende del
nivel de la otra.

7.3 Variabilidad de la respuesta

Ya se ha comentado en el capítulo 3 que ningún sistema es totalmente determinista. Es decir, si se


repiten exactamente las mismas acciones varias veces, no siempre se obtiene exactamente el mismo
resultado. Esta idea es una constante a lo largo de todo el libro; veamos ahora cómo este hecho,
especialmente importante cuando se plantean experimentos en la industria, donde los sistemas
(procesos, máquinas, etc.) con los que se experimenta suelen ser complejos, afecta al diseño y análisis
de experimentos industriales.
La figura 7.10 representa la situación. Supóngase que una determinada característica de un producto
depende de dos variables del proceso de producción X1 y X2. A cada valor de X1 y X2 le corresponde
un determinado valor de esa característica representado aquí por f(X1,X2).
La realidad es que ese valor f(X1,X2)
es solamente un valor teórico, ya que cuando
produzcamos realmente bajo las condiciones
X1 y X2, obtendremos un valor más o menos
próximo, pero no igual al esperado. Ello es
134 debido a que en el complejo mundo industrial
actual cada característica depende de un
número enorme de variables. Resulta aquí de
aplicación el principio de Pareto, ya que
depende en gran medida de un reducido
número de variables (X1 y X2) y muy poco de
otras muchas, como condiciones ambientales,
diferencias en materias primas, operarios, etc.
Esas otras muchas son las que provocan esa
fluctuación en principio no explicada y que
en general representamos por ε.
Esta parte ε no explicada por las
Fig. 7.10 Error experimental en la medida de la respuesta variables con las que se ha experimentado y
que, por tanto, están incluidas en el modelo,
provoca la variación en la respuesta.
En general podemos describir la superficie por una ecuación de la forma:
Y = f(X1,X2) + ε
donde:
Y : respuesta
f(X1,X2): parte determinista
ε : parte estocástica (aleatoria)
No hay que olvidar que, como ya se ha comentado, ε es el fruto de las pequeñas variaciones en
todos aquellos factores que influyen en la respuesta, pero que no han sido considerados en el modelo.
Por tanto, ε puede ser escrito como ε(Z1,Z2,...,Zn). En muchas ocasiones uno de los objetivos de la
experimentación es averiguar cuáles de esas variables, en principio no consideradas, afectan a la

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

respuesta en mayor medida y cómo lo hacen, para poder tener un nuevo modelo en el que la parte
estructural incluya un mayor número de variables y la parte aleatoria, también llamada ruido, sea
menor. Así, el modelo:
Y = f(X1,X2,Z3,Z7) + ε

proporcionaría una mejor descripción del fenómeno bajo estudio.


Los efectos de las variables son detectables en la medida en que son mayores que el ruido. Esta
misma cuestión ha surgido en capítulos anteriores, por ejemplo al intentar detectar diferencias entre las
medias de dos poblaciones. Por tanto, pasando variables inicialmente incluidas en la parte aleatoria a
la parte determinista, se disminuye el ruido lo que, a su vez, nos permite detectar la influencia de
nuevas variables. Como se ve este proceso iterativo está íntimamente ligado a la naturaleza secuencial
de la experimentación.
En otras ocasiones, el objetivo de la investigación es conseguir reducir la variación de la
respuesta provocada por algunas de las variables no consideradas inicialmente en el modelo (Z), que
se sabe que afectan a la respuesta, pero que varían de una forma imposible de controlar. La utilización
del diseño de experimentos para este fin es una de las grandes contribuciones de G. Taguchi. Este tema
se tratará en el capítulo 9.

7.3.1 Variabilidad en el sistema de medición de la respuesta

Un aspecto de gran importancia y muchas veces olvidado es el hecho de que una parte importante de
ε es debida a variaciones en el sistema de medida de la respuesta. Esto ocurre, bien sea porque las 135
mediciones se realizan con poco cuidado, bien porque los instrumentos de medida son poco precisos.
Como ya se ha comentado la posibilidad de poder detectar los efectos de las variables
depende del “tamaño” del ruido, y el ruido provocado por el sistema de medida puede en muchas
ocasiones ser reducido.
Por ello, el primer paso es conocer la variabilidad del proceso de medición. En ocasiones la
proporciona el propio fabricante del equipo de medición. En otras habrá que recurrir a realizar un
estudio de capacidad (ver capitulo 11).
Si una vez conocido es evidente que resulta muy grande comparado con el tamaño de los efectos
que se pretenden detectar, o si simplemente se sospecha que este es escaso, la manera más sencilla de
reducirlo consiste en medir repetidas veces la respuesta de cada prueba y considerar como la verdadera
respuesta la media de estas mediciones. Con ello el ruido se reduce según la conocida fórmula:
σ obs.indiv .
σ media =
n
No hay que caer en el error, sin embargo, de considerar que la desviación tipo de esas medidas
repetidas representa el ruido del experimento. Representa únicamente el ruido del sistema de medida.
Este aspecto es importante y se volverá a insistir sobre él al hablar de réplicas en el apartado 7.4.

7.4 Diseños factoriales con las variables a dos niveles

En el apartado 7.2 se ha comentado la necesidad de utilizar diseños factoriales, es decir, experi-


mentando con todas las combinaciones de variables y niveles. A continuación vamos a comentar los
conceptos más habituales que intervienen en el planteamiento de este tipo de diseños experimentales.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Respuesta: es el nombre genérico que se da a la


FACTORES ABREVIATURA NIVELES
característica estudiada. En este libro nos
Longitud L 10 cm y 15 cm centraremos en ejemplos en los que se estudia una
Grosor G 5 mm y 7 mm sola respuesta, si bien en la practica es frecuente
Tipo acero T AyB
que se estudien varias respuestas como conse-
cuencia de un solo diseño. En el capítulo 12 se
Tabla 7.1 Factores y niveles. Ejemplo del muelle
muestran ejemplos de ello.
Factores: se designa de esta forma a las variables
que se considera que pueden afectar a la respuesta y, por tanto, se incluyen en el plan de
experimentación.
Niveles: son los valores que toma un factor en un determinado experimento.
Supóngase que se desea diseñar un muelle de manera que el número máximo de compresiones
hasta la rotura sea lo mayor posible, y que para ello se puede jugar con tres variables: la longitud, el
grosor del alambre de partida y el tipo de acero del alambre (obviamente hay muchas otras variables a
considerar, pero en este caso sólo se va a experimentar con estas tres). Además, se ha determinado que
se experimentará con dos valores de longitud, 10 cm y 15 cm, y con dos valores de grosor, diámetros
5 mm y 7 mm, y con dos tipos de acero, que llamaremos A y B. La tabla 7.1 resume las variables y
niveles del experimento propuesto.
En este caso la respuesta (Y) será el número de compresiones hasta la rotura.
La notación utilizada para referirnos a los diseños factoriales es una potencia de n, del tipo nk.
La n significa que cada factor tomará n niveles (n valores distintos), y k es el número total de factores
que intervendrán en la experimentación. El resultado de elevar nk proporciona el número de
136 experimentos elementales que se deben realizar. En el caso del alambre, el diseño factorial adecuado
sería un 23.
Tambien se pueden realizar diseños en los que el número de niveles no sea el mismo para todos
los factores. Por ejemplo, si considerásemos estudiar cuatro factores a dos niveles y cinco a tres
niveles, se tendría un diseño 2435. Este tipo de diseños, sin embargo, excede el ámbito de este libro. En
Peter John (1.971) se encuentra una introducción a este tipo de diseños.

7.4.1 Diseños factoriales a dos niveles

En la industria los diseños más utilizados, con una gran diferencia sobre los demás, son los diseños
factoriales a dos niveles. Es decir diseños del tipo 2k . En este caso, los valores correspondientes a los
dos niveles se codifican asignando al nivel bajo el valor -1 (o simplemente -) y al alto +1 (o
simplemente +). Si el factor es cualitativo, a un nivel se le asigna -1 y al otro +1 arbitrariamente.
Algunos autores utilizan los símbolos 1 y 2 para denotar los niveles; en este libro utilizaremos la
notación -1 y +1, ya que tiene algunas ventajas conceptuales, si bien al escribir resulta más rápido
utilizar simplemente - y +.
La difusión industrial de los diseños 2k se fundamenta en tres motivos:
1. Proporcionan una excelente relación entre el esfuerzo experimental y la información obtenida.
2. Son sencillos de construir, realizar, analizar e interpretar.
3. Son fáciles de combinar entre ellos para obtener otros diseños más complejos. (Supóngase el
caso más sencillo en el que se realiza un experimento 21, una variable a dos niveles -la
temperatura a 50ºC y a 60ºC- y que a continuación se vuelve a realizar un experimento 21 con
la temperatura a 70ºC y 80ºC; en conjunto se ha realizado un experimento 41. Es fácil imaginar
casos más complejos.)

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Resulta evidente que los diseños en los que cada


factor sólo se varía a dos niveles tienen un grave incon-
veniente: sólo permiten estudiar relaciones lineales.
Así, en la figura 7.11 aparece un diseño 21; por
supuesto el experimentador sólo “verá” los dos puntos
marcados en el gráfico y, a partir de ellos, a la relación
entre el factor X y la respuesta Y le ajustará una
relación lineal del tipo: Fig. 7.11 Diseño 21
Y = β1 + β1 X + ε

Si la relación entre X e Y fuese no lineal, la divergencia entre el verdadero modelo (no lineal) y
el ajustado (lineal) estaría incorporada al término de error (ε) de este último.
Este inconveniente queda en gran medida compensado por dos hechos. En primer lugar, los
niveles los escoge el investigador, por lo que siempre puede escogerlos lo suficientemente juntos como
para que una recta sea una buena aproximación a la verdadera forma de la respuesta en la región de
interés. Por otra parte acabamos de ver que una de las ventajas de estos diseños es que resultan fáciles
de combinar para obtener diseños más complejos.
Por ello en este capítulo y en el siguiente nos vamos a centrar en los diseños 2k.

7.4.2 Matriz de diseño. Construcción

La matriz de diseño es la relación que define el valor que deben tomar los factores en cada uno de los 137
experimentos a realizar.
Siguiendo con el ejemplo del muelle, la tabla 7.2
refleja los factores y niveles con su codificación. NIVELES
La tabla 7.3 refleja la relación de condiciones FACTORES -1 +1
experimentales para realizar un diseño 23.
Nótese que no hay dos condiciones experimentales (L) Longitud 10 cm 15 cm
(G) Grosor 5 mm 7 mm
repetidas, ni tampoco falta ninguna combinación posible (T) Tipo acero A B
de los niveles de los factores de diseño.
En la tabla 7.3 se muestra la matriz de diseño para el Tabla 7.2 Factores y niveles codificados.
caso del muelle y se especifican los valores reales de los Ejemplo del muelle

TIPO NÚM. DE COMPRESIONES


EXPER. LONGITUD GROSOR ACERO HASTA LA ROTURA
(RESPUESTA)
1 10 5 A
2 15 5 A .
3 10 7 A (A determinar mediante
4 15 7 A la experimentaci\n)
5 10 5 B .
6 15 5 B .
7 10 7 B .
8 15 7 B

Tabla 7.3 Matriz de diseño. Ejemplo del muelle

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

EXP. L G T niveles. En general esta matriz se escribe con las variables codificadas,
indicando con un -1 cuando la variable debe tomar el nivel bajo y con
1 -1 -1 -1
2 1 -1 -1 un +1, para simplificar 1, cuando la variable debe tomar el nivel alto.
3 -1 1 -1 La tabla 7.4 representa, con esta notación, la matriz de diseño para el
4 1 1 -1 ejemplo del muelle.
5 -1 -1 1
6 1 -1 1
Este orden en el que se presenta la secuencia de experimentos a
7 -1 1 1 realizar se denomina orden estándar de la matriz de diseño. En este
8 1 1 1 orden resulta particularmente sencillo construir la matriz: conocido el
número de experimentos a realizar (recuérdese que viene delimitado
Tabla 7.4 Matriz de diseño en por el número de factores) queda fijado el número de filas y a partir de
orden estándar. Niveles codifi- ahí, para el primer factor se van alternando (-1) y (1) hasta haber
cados. Ejemplo del muelle completado todas las filas, para el segundo se van alternando 2 (-1) y
2 (1), para el tercero 4 (-1) y 4 (1), para el cuarto 8 y 8, y así
sucesivamente hasta haberlos agotado. Construyendo la matriz de esta forma, se tiene la seguridad de
no omitir ni repetir ninguna combinación de valores de los factores de diseño.

7.4.3 Aleatorización

El orden estándar resulta muy conveniente para escribir la matriz de diseño e incluso, como veremos
más adelante, para calcular los efectos de las variables, pero no para realizar los experimentos.
El orden de realización debe ser aleatorio. Se ha hablado ya en capítulos anteriores de la
138 importancia de la aletorización. Aleatorizar protege al experimentador de la influencia de
variables sobre la respuesta -desconoce cuáles son y qué efecto tienen- y que, al no permanecer
constantes durante todo el experimento, pudiesen afectar a la evaluación e interpretación de los
resultados.
Supóngase que en el ejemplo del muelle los prototipos se realizan en el orden marcado por la
matriz de diseño. Como los cuatro primeros se realizan con el acero tipo A y los cuatro siguientes
con el tipo B, si hubiese cualquier otro factor de los que intervienen en la fabricación del muelle -
temperatura del horno, tipo de templado etc.- que cambiase a lo largo del tiempo, de forma que
hiciese empeorar paulatinamente la calidad (número de compresiones hasta la rotura) del muelle, se
llegaría a la conclusión, tal vez errónea, de que el acero B es peor que el A.
Por tanto, siempre que sea posible y no origine ningún problema serio, ni coste adicional
importante en la realización del experimento, es conveniente aletorizar totalmente el orden de
experimentación, ya que ello protege contra posibles efectos de factores no considerados en el
experimento e ignorados por el experimentador.
En ocasiones, el coste de cambiar un factor de nivel es muy elevado (esto ocurre con frecuencia
cuando uno de los factores es la temperatura y el coste energético y tiempo del calentamiento es muy
elevado, así como el tiempo para el enfriamiento). Se puede recurrir a aleatorizaciones restringidas
para minimizar el número de veces que se cambia el nivel de un factor.
Supóngase que se está experimentando con un proceso de prensado donde la temperatura de la
matriz es una de las cuatro variables a estudiar. Se va utilizar un diseño 24 que implica, por tanto,
realizar 16 experimentos. La aleatorización total del orden de experimentación podría obligar a
cambiar el nivel de esa temperatura hasta trece veces. Una solución es realizar, en primer lugar y en
orden aleatorio, los ocho experimentos en los que esa temperatura está a nivel bajo, y a continuación,
y también en orden aleatorio, los ocho experimentos en los que la temperatura de la matriz está a nivel
alto. Obviamente esta solución es la más drástica, ya que sólo requiere un cambio de nivel. Se pueden

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

pensar soluciones intermedias en las que se fija un número máximo de cambios de nivel (por ejemplo
cuatro) y se aleatoriza de forma que se respete esta restricción.
Esta práctica debe ser realizada sólo cuando sea imprescindible y prestando atención al analizar
los resultados a su posible influencia en las conclusiones. En estos casos, la forma correcta de analizar
los resultados es la técnica del Split-plot; su descripción excede el ámbito de este libro, pero se puede
hallar en Milliken and Johnson (1984).

7.4.4 Réplicas

Cuando se sabe que el sistema objeto de la experimentación es muy variable, se hacen varios
experimentos bajo cada condición experimental. A estas repeticiones se las denomina réplicas. Como
se verá en el apartado 7.6, al analizar los resultados se considera la media de estas réplicas como la
única respuesta, y se procede a calcular los efectos como si sólo se hubiese experimentado una vez bajo
cada condición y el resultado hubiese sido precisamente esa media.
Es evidente que esta práctica reduce el efecto de la variabilidad del sistema experimental en la
respuesta, pues se ha visto ya en repetidas ocasiones que:

σ ( obs. individuales)
σ ( media ) =
n
donde n es el número de observaciones que componen la media.
Conviene destacar que una réplica implica la realización de todo el experimento (bajo la condición 139
señalada) y no recoger dos medidas de la respuesta, ambas consecuencia del mismo experimento.
Por ejemplo, supóngase que se está experimentando con un proceso de inyección de plásticos.
Obtener dos mediciones de la respuesta, como consecuencia de medir dos piezas producidas en dos
cavidades diferentes del mismo molde y producto de la misma inyectada, no son réplicas. O medir
dos piezas de la misma cavidad obtenidas en dos inyectadas consecutivas y realizadas bajo las
mismas condiciones, no son réplicas. En ninguno de los dos casos mencionados, la diferencia entre
las dos medidas refleja la totalidad de la variación del proceso. Para que se pudiesen considerar
réplicas, las dos medidas tendrían que ser de la misma cavidad del mismo molde, pero producidas
en dos inyectadas diferentes, realizadas bajo las mismas condiciones, pero habiéndolas variado en
el ínterin.
Es decir, hay que tener en cuenta que la realización de un experimento incluye desde la
preparación de la máquina hasta el hecho de fijar las variables. Por tanto, en el caso de la inyección,
para obtener dos réplicas hay que preparar la materia prima, fijar la temperatura, la presión de
inyección, etc., esperar que esté a régimen y obtener la primera pieza de la cavidad señalada. A
continuación habría que obtener piezas bajo otras condiciones y repetir exactamente los mismos pasos:
preparación de la materia prima, fijar la temperatura, la presión, etc., y obtener una segunda pieza de
la cavidad señalada. Las respuestas medidas en esas dos piezas serían réplicas, ya que las diferencias
entre ellas incorporarían todas las fuentes de variabilidad existentes en el proceso.
Las réplicas así consideradas tienen la ventaja de que permiten medir la variabilidad del sistema
con el que se está experimentando, y esta variabilidad puede ser utilizada para determinar la
significación de los efectos de los factores, tal como se verá en el apartado 7.5.
Si consideráramos como respuesta la media de dos cavidades del mismo molde de una misma
inyectada, podrá ayudarnos a reducir una parte de la variabilidad de la respuesta, al igual que ocurría
en el caso de medir varias veces. Pero no proporcionaría una medida de la variabilidad del sistema.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

7.5 Cálculo de los efectos

7.5.1 Cálculo de los efectos a partir del cubo

Una vez realizado el experimento se procede a calcular de qué manera afectan a la respuesta los
factores con los que se ha experimentado. Estos cálculos se repetirán tantas veces como respuestas
haya.
Considérese el ejemplo anterior en el que los experimentos se hubiesen replicado. La tabla
7.5 muestra los experimentos y la respuesta; entre paréntesis al lado de cada respuesta aparece el
orden -aleatorio- en el cual se han realizado.
Como ya se ha comentado, se procede al análisis del experimento como si la única respuesta
fuese el promedio de las réplicas.
Dado que este experimento es un 23 se puede representar gráficamente por medio de un cubo,
como en la figura 7.12.

RESPUESTA (NÚM. COMP. ROTURA)


EXP. FACTORES (EN MILES)
L G T RÉPLICAS MEDIA

1 -1 -1 -1 77 (6) 81 (13) 79
2 1 -1 -1 98 (12) 96 (4) 97
3 -1 1 -1 76 (1) 74 (16) 75
4 1 1 -1 90 (15) 94 (10) 92
140 5 -1 -1 1 63 (8) 65 (2) 64
6 1 -1 1 82 (9) 86 (14) 84
7 -1 1 1 72 (3) 74 (11) 73
8 1 1 1 92 (7) 88 (5) 90

Fig. 7.12 Representación gráfica de variables y Tabla 7.5 Matriz de diseño, orden de experimentación y respuesta.
respuesta. Ejemplo del muelle Ejemplo del muelle

En primer lugar se calculan los efectos de cada factor por separado, a los cuales se denomina
efectos principales. El efecto principal de un factor indica cuánto cambia la respuesta (en promedio) al
pasar dicho factor del nivel bajo (-1) al nivel alto (+1).
Así, el efecto principal de L corresponde al promedio de valores de la respuesta con L a nivel
1, menos el promedio de valores con L a nivel -1. En este caso será:

97 + 92 + 84 + 90 79 + 75 + 64 + 73
L= − = 18
4 4

Es decir, que al cambiar la longitud de 10 a 15, el número de compresiones hasta la rotura


aumenta, en promedio, 18 miles de compresiones (MC). Análogamente se pueden calcular los efectos
principales para G y T. (El efecto principal de un factor se designa con la misma notación que la
utilizada para designar al propio factor.) Y se obtendrá:

75 + 92 + 73 + 90 79 + 97 + 64 + 84  64 + 84 + 73 + 90   79 + 97 + 75 + 92 
G= − = 1,5 ; T =   +  =8
4 4  4   4 

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Una mirada a la figura 7.12 muestra claramente que no siempre que el grosor pasa de 5 a 7 la
respuesta aumenta 1.5 MC. Es más, esto no ocurre en ninguna combinación de las otras variables.
Como ya se ha indicado, sólo ocurre en promedio.
Está claro, por tanto, que con los efectos principales no hay suficiente para explicar la forma en
que los factores afectan a la respuesta. Ello es debido, como acabamos de ver, a que en muchas
ocasiones el efecto de un factor depende del valor que toma otro. Hemos comentado ya que cuando
esto ocurre, se dice que estos dos factores interaccionan.
Veamos si en el ejemplo anterior interaccionan el grosor y el tipo de acero. Para ello haremos
los siguientes cálculos:
a) Efecto principal del grosor con el tipo de acero a nivel 1 (nos olvidamos de las respuestas con
el tipo de acero a nivel -1, o lo que es lo mismo nos centramos en la cara trasera del cubo):
73 + 90 64 + 84
G= − = 7 ,5
2 2
b) Efecto principal del grosor con el tipo de acero a nivel -1:
75 + 92 79 + 97
G= − = − 4 ,5
2 2
Por tanto, el efecto del grosor es distinto según se use uno u otro tipo de acero. Con el tipo B
aumentar el grosor hace aumentar la respuesta, mientras que con el acero tipo A la hace
disminuir. Esta claro que G y T interaccionan, ya que el efecto de uno depende del nivel a que
se encuentra el otro.
La forma de cuantificar la interacción de 2 factores -A y B- es la siguiente: 141
Interacción AB = (1/2)(Efecto de A con B a nivel 1) -
- (1/2)(Efecto de A con B a nivel -1)
Si esta diferencia es cero indica que el efecto de un factor es independiente del nivel del otro y,
por tanto, que no interaccionan. La diferencia se divide por 2 para que la varianza de las interacciones sea
igual que la de los efectos principales (ver la sección significación de los efectos de este mismo apartado).
Puede demostrarse, fácilmente, que la interacción AB es exactamente igual que la BA.
Así, en el ejemplo :
GT = TG = (1/2)(7.5) - (1/2)(-4.5) = 6
De la misma forma se podrían calcular, y lo dejamos como ejercicio para el lector, las otras dos
interacciones de dos factores y se obtendría:
LG = -1
LT = 0.5
Y con la respuesta en el eje vertical y un factor en el eje horizontal, el otro se indica con
símbolos (figura 7.14).
Análogamente, tres factores interaccionan cuando la interacción de dos de ellos depende del
nivel de la tercera. En la inmensa mayoría de los casos, se consigue explicar de forma muy satisfactoria
el comportamiento de las respuestas a través de los factores sin necesidad de considerar las interacciones
de tres o más factores. Sin embargo, es muy importante tener en cuenta las interacciones de dos.
El lector puede calcular la interacción LGT de forma similar a como se ha calculado la LG.
Basta para ello calcular la interacción LG cuando T está a nivel alto y restarle el valor de la interacción
LG cuando T está a nivel bajo. Como en el caso anterior y por el mismo motivo, el resultado de esta
diferencia debe ser dividido por 2.
LTG = -0.5

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Fig. 7.13 Interacción GT. Ejemplo del muelle Fig. 7.14 Interacción GT. Ejemplo del muelle

7.5.2 Algoritmos de cálculo

El método que se ha visto para calcular los efectos de los factores tiene la ventaja de ser muy intuitivo,
pero también el inconveniente de ser muy laborioso, y de ser aplicable sólo cuando el número de
factores es igual o inferior a tres. Existen dos maneras rápidas y sencillas de calcular los efectos
(cuando hablamos de efectos lo hacemos en forma genérica, y se incluyen tanto los efectos principales
como las interacciones de todo tipo); son el algoritmo de los signos también llamado de Box, Hunter
142 y Hunter (en el apéndice 7A se justifica su funcionamiento), y el del algoritmo de Yates, que es el que
requiere un menor número de operaciones y, al mismo tiempo, es el más adecuado para implementarlo
en una hoja de cálculo o cualquier otro programa de ordenador.

a) Algoritmo de los signos


Este algoritmo calcula los efectos a partir de los signos utilizados para definir los niveles en la
matriz de diseño.
Como quiera que entonces sólo se podrían calcular los efectos principales, se añade una
columna para cada interacción. Los signos de esas columnas se obtienen multiplicando
algebraicamente los signos de las columnas de las variables que la componen. Se añade además una
columna con +1, que servirá para calcular la media. Este valor es el promedio de todas las respuestas
obtenidas durante la experimentación, pero resulta de escasa utilidad práctica. La tabla 7.6 muestra la
matriz de diseño “completa”, así generada.
Para hallar cualquiera de los efectos, se suma algebráicamente la respuesta, de acuerdo con los
signos definidos en la columna del efecto correspondiente, y se divide por la mitad del número de
condiciones experimentales. Para hallar la media la operación es exactamente la misma de antes,
excepto que se divide por el número de condiciones experimentales especificadas en la matriz de diseño.
Así, la estimación de la media sería:
79 + 97 + 75 + 92 + 64 + 84 + 73 + 90
media = = 81,75
8
la estimación del efecto principal de la longitud (L):

− 79 + 97 − 75 + 92 − 64 + 84 − 73 + 90
L= = 18
4

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

y la estimación de la interacción LG:

MEDIA L G T LG LT GT LGT RESPUESTA

1 -1 -1 -1 1 1 1 -1 79
1 1 -1 -1 -1 -1 1 1 97
1 -1 1 -1 -1 1 -1 1 75
1 1 1 -1 1 -1 -1 -1 92
1 -1 -1 1 1 -1 -1 1 64
1 1 -1 1 -1 -1 -1 -1 84
1 -1 1 1 -1 1 1 -1 73
1 1 1 1 1 1 1 1 90

Tabla 7.6 Matriz de diseño completa (23). Ejemplo del muelle

b) Algoritmo de Yates
La aplicación de este algoritmo, ilustrada en la figura 7.15, se realiza de la siguiente manera:
1. Colocar la respuesta en columna y en el orden estándar de la matriz de diseño.
2. Añadir tantas columnas auxiliares como factores de diseño existan.
La primera columna auxiliar se completa de la siguiente forma:
> Primera mitad de valores:
1er. valor: Suma de las respuestas 1ª y 2ª,
2º valor: Suma de las respuestas 3ª y 4ª, 143
y así sucesivamente.
> Segunda mitad de valores:
1er. valor: Resta de la 2ª respuesta menos la 1ª,
2º valor: Resta de la 4ª respuesta menos la 3ª, y así sucesivamente.
La segunda columna auxiliar se completa igual que la primera, utilizando los valores de esta
última como respuestas. Análogamente para la 3ª, la 4ª, etc.
3. Crear una nueva columna dividiendo el primer valor de la última columna auxiliar por un
divisor igual al número de condiciones
experimentales. Para el resto de valores
el divisor es igual a la mitad del número
de condiciones experimentales.
4. En la última columna creada el primer
valor es igual a la media de las respuestas
y el resto corresponde a los efectos.
La correspondencia entre valores y
efectos se realiza a través de la locali-
zación de los “1” en su fila correspon-
diente de la matriz de diseño.
Si un valor sólo tiene “1” en la columna
del factor B, corresponderá al efecto
principal de B. Si lo tiene en las
columnas correspondientes a los facto-
res A y C, corresponderá a la interacción
de AC, etc. Fig. 7.15 Esquema de aplicación del algoritmo de Yates

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Seguramente será útil repasar (tabla 7.7) la aplicación de este algoritmo en el ejemplo del muelle.
Obsérvese que, además de los efectos ya comentados (efectos principales, interacciones de dos
y de tres factores), el algoritmo de Yates proporciona la media.

MATRIZ COLUMNAS
DISEÑO RESP. AUXILIARES DIV. EFECTO IDENTIFIC.

L G T Y (1) (2) (3)


-1 -1 -1 79 176 343 654 8 81.75 Media
1 -1 -1 97 167 311 72 4 18.0 L
-1 1 -1 75 148 35 6 4 1.5 G
1 1 -1 92 163 37 -4 4 -1.0 LG
-1 -1 1 64 18 -9 -32 4 -8.0 T
1 -1 1 84 17 15 2 4 0.5 LT
-1 1 1 73 20 -1 24 4 6.0 GT
1 1 1 90 17 -3 -2 4 -0.5 LGT

Tabla 7.7 Algoritmo de Yates. Ejemplo del muelle

7.6 Significación de los efectos

Que la estimación de un efecto, hallada a través del experimento, sea distinta de cero no implica que
el verdadero valor del mismo lo sea. Es decir, no implica que afecte de forma detectable a la respuesta
144 y que, por tanto, corresponda a un término que deba ser incluido en el modelo.
El origen de este aparente contrasentido reside en que cuando se determina una respuesta
indefectiblemente está afectada por una variabilidad -en el apartado 7.3 se ha hablado con detalle de la
variabilidad de la respuesta- y esta variabilidad se transmite inevitablemente a los efectos (recuérdese
que los efectos, principales o interacciones, se calculan a partir de la respuesta bajo las diferentes
condiciones experimentales). De forma que, si un efecto es nulo, el valor que de él obtendremos como
consecuencia de la experimentación no será exactamente nulo, sino un valor en torno al cero, que
puede estar tanto más alejado de éste cuanto mayor sea la variabilidad -también llamada error
experimental- del sistema.
Por tanto, una vez calculados los efectos, la primera tarea, mediante la técnica estadística más
adecuada, será distinguir cuáles son significativamente distintos de cero (realmente existentes) y cuáles
no lo son. (Como hablar de “efecto significativamente distinto de cero” es un tanto largo, se abrevia
diciendo sólo “efecto significativo”.)
Hay dos situaciones de partida distintas al abordar este problema: cuando se ha replicado el
experimento, y cuando cada experimento elemental se ha llevado a cabo una sola vez. Por razones
obvias de economía experimental, la segunda situación es la más habitual.
El motivo básico para replicar es reducir la variabilidad de los efectos calculados. Como hemos visto,
el cálculo de los efectos es una combinación lineal de las observaciones (la diferencia entre dos medias, cada
una con la mitad de observaciones) y, por tanto, de acuerdo con la fórmula de la varianza de los efectos, ésta
es tanto menor cuanto mayor es el número de observaciones que se ha utilizado para calcularla.
En general, cuando se está dispuesto a realizar el doble de experimentos para reducir la
variabilidad de los efectos estimados, resulta más aconsejable introducir un nuevo factor
experimental, aunque a priori no se considerase imprescindible. De esta manera se consigue
exactamente la misma reducción en la variabilidad de los efectos estimados, y además la oportunidad
de ampliar el estudio.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

7.6.1 Significación cuando se dispone de réplicas

Cuando se dispone de réplicas, estudiar la significación de los efectos es un caso particular de las
pruebas de significación que se han visto en capítulos anteriores.
Veámoslo en el ejemplo de los muelles. Recuérdese que se habían realizado dos experimentos
en cada condición experimental, lo que nos permite calcular la varianza -con dos observaciones en este
caso- en cada una de ellas (ver tabla 7.6).

EXP. FACTORES RESPUESTA

L G T RÉPLICAS MEDIA VARIANZA

1 -1 -1 -1 77 81 79 8
2 1 -1 -1 98 96 97 2
3 -1 1 -1 76 74 75 2
4 1 1 -1 90 94 92 8
5 -1 -1 1 63 65 64 2
6 1 -1 1 82 86 84 8
7 -1 1 1 72 74 73 2
8 1 1 1 92 88 90 8

Tabla 7.6 Media y varianza de los experimentos. Ejemplo del muelle

Supondremos (suposición en general razonable) que la variabilidad no depende de la condición


bajo la que se esté experimentando, sino que es una característica del sistema experimental y, por tanto, 145
que se cumple la hipótesis de igualdad de varianzas. Entonces, una buena medida del error
experimental será el promedio de estas varianzas.
El promedio de las ocho varianzas calculadas es:

2 8+2+2+8+2+8+2+8
S = = 5
8

con lo que SR= 2.24 es la desviación tipo del error experimental, estimada con ocho grados de libertad,
ya que es el promedio de ocho varianzas, cada una de ellas calculada con un grado de libertad.
En general, y admitiendo que por diversas circunstancias propias de cada experimento el
número de réplicas en cada condición experimental puede ser diferente, la S2R será:

2 2 2
2 ( n1 − 1) S1 + ( n2 − 1) S2 +K+ ( n N − 1) S N
SR =
n1 + n2 +K+ n N − N

con n1 + n2 + ... + nC - C grados de libertad, donde C es el número de condiciones experimentales


distintas (C=2k) y ni el número de réplicas de la i-ésima condición experimental.
Para poder determinar la significación de los efectos, es necesario disponer de una medida de
la variación que el error experimental ha inducido en la estimación de los mismos. Esta medida la
proporcionará la desviación tipo de los efectos, que puede ser calculada, ya que:
> cada efecto es una combinación lineal de las respuestas obtenidas en las distintas condiciones
experimentales;
> las respuestas obtenidas en las distintas condiciones experimentales son independientes entre sí.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Considérese en primer lugar el caso de un diseño 22 en el que cada


FACTORES RESPUESTA
EXP. A B RÉPLICAS condición experimental ha sido replicada, tabla 7.7.
el efecto de A será:
1 -1 -1 Y11 Y12
2 -1 1 Y21 Y22
3 1 1 Y31 Y32 Y21 + Y22 Y41 + Y42 Y11 + Y12 Y31 + Y32
4 -1 1 Y41 Y42 + +
2 2 2 2
efecto A = −
2 2
2
Tabla 7.7 Diseño 2 con réplicas Por lo que, suponiendo que todas las respuestas son
independientes y tienen la misma varianza σ2, se obtiene:

1 
V ( efecto A ) = V  (Y21 + Y22 + Y41 + Y42 − Y11 − Y12 − Y31 − Y22 )
4 
En general, y teniendo en cuenta que cada efecto es un estadístico formado a base (recuérdese el
algoritmo de los signos) de hacer el promedio de la mitad de las observaciones con signo +, representado
por Y+, y restarle el promedio de la otra mitad con signo -, representado por Y−, se obtiene que:
efecto = Y+ − Y−

donde cada media ha sido calculada con N/2 observaciones, y donde N es el número total de
experimentos que se han realizado -incluidas por tanto, las réplicas.
La varianza de un efecto será:
146 V (efecto) = V (Y+ − Y− )

donde, por estar calculadas con el mismo número de observaciones, provenientes de la misma ley normal:
2
σ
V (Y ) = V (Y+ ) = (Y− ) =
N 2
Y como Y+ e Y− son independientes:
4 2
V (efecto) = σ
N
Y su estimación es, por tanto:
4
V$ (efecto) =
2
SR
N
Nótese que esta fórmula sólo es válida cuando el número de replicas es idéntico bajo todas las
condiciones experimentales; en caso de que esto no sea así, habrá que deducir la fórmula adecuada en
forma análoga a la utilizada aquí. Asimismo, se puede calcular de forma inmediata la desviación tipo
de la media, si bien rara vez resulta de utilidad práctica.
En el ejemplo de los muelles la estimación de la varianza de los efectos será, pues:
4
V$ (efecto) = 5 = 1,25
16
Estrictamente, lo correcto sería realizar una prueba de significación para cada efecto, utilizando
la t-Student (con los grados de libertad con los que se ha calculado la SR) como distribución de
referencia. Para ello, el estadístico:

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

efecto - 0
t =
S efecto

se compararía con la t-Student mencionada y se calcularía el p-valor.


En la práctica, por razones de comodidad y rapidez, se recurre al cálculo de intervalos de
confianza aproximados, en la forma:
efecto ± X desviaciones tipo de los efectos
y se consideran como significativos aquellos efectos cuyo intervalo no contiene el cero.
El valor de X se escoge en función de los objetivos del experimento. Así, si interesa identificar
sólo aquellos efectos que con gran seguridad influyen en la respuesta, se escogen valores de X elevados
(tres o más). Si, por el contrario, interesa identificar todos aquellos efectos con una posible influencia
en la respuesta, se escogen valores de X cercanos a 1. El valor que se utiliza con mayor frecuencia es
el 2, ya que proporciona intervalos de confianza en el entorno del 90%-95%.
Obviamente, este procedimiento es una
aproximación, pero más que suficiente en las ESTIMACIÓN
aplicaciones industriales, ya que si el cero está EFECTO "2 DESV. TIPO
próximo de un intervalo calculado de esta forma, ya
sea por dentro o por fuera, y no se dispone de cono- Longitud (L) 18.0 " 2.24
Grosor (G) 1.5 " 2.24
cimientos técnicos que aclaren la cuestión, debe ser
Tipo acero (T) 8.0 " 2.24
objeto de una posterior investigación (recuérdese la Long. X Grosor (LG) -1.0 " 2.24
estrategia secuencial). Long. X Tipo (LT) 0.5 " 2.24
Aplicando lo anterior al caso de los muelles Grosor X Tipo (GT) 6.0 " 2.24 147
Lon. X Gro. X Tip. (LGT) -0.5 " 2.24
se obtienen los intervalos de la tabla 7.8.
En este caso resulta evidente que los efectos
significativos son la longitud, el tipo de acero y la Tabla 7.8 Intervalos de confianza aproximados para los
interacción entre el tipo de acero y el grosor. efectos. Ejemplo del muelle

7.6.2 Papel probabilístico normal

Ya se ha comentado que lo habitual es no realizar réplicas. El método que veremos a continuación


permite detectar los efectos significativos en forma sencilla y eficaz.
Este método se basa en representar los efectos en papel probabilístico normal. Se ha comentado
en el capítulo el origen y utilidad del papel probabilístico normal, y que al representar en él datos
provenientes de una ley normal, los puntos aparecerán aproximadamente alineados.
La respuesta experimental está sometida, como ya se ha comentado, a variación aleatoria. Esta
variación seguirá, en general, una ley normal con media cero y una desviación tipo que refleja el error
experimental. Aún en el caso infrecuente de que no siguiese una ley normal, los efectos son
combinaciones lineales de la repuesta, y por el teorema central del límite tendrán tendencia a seguirla.
Tenemos, por tanto, que los efectos siguen una ley normal. Supóngase ahora un experimento en
el que todos los efectos sean no significativos. Los efectos hallados oscilarán alrededor de cero, siguiendo
una ley normal. Al representarlos en papel probabilístico normal aparecerán todos ellos alineados. En la
figura 7.16 se representan los quince efectos de un diseño 24, en el que los factores eran inertes.
Nótese que la recta pasa aproximadamente por el punto (0,50), indicando que la media de la
distribución es cero. Asimismo, la pendiente de la recta es una indicación del tamaño del error
experimental. Una recta más horizontal indicaría una mayor variabilidad. Por tanto, los efectos no
significativos se distribuyen según:

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Porcentaje N(0, σefectos)


99
Por el contrario, en los efectos significa-
95
tivos, si bien tienen la misma desviación tipo,
90 la media varía dependiendo del tamaño del
80 efecto. De manera que se distribuyen según:
70
60
N(µefecto, σefectos)
50 donde la µefecto es distinta en cada caso.
40
30 En la figura 7.17 se representan los
20 quince efectos de un diseño 24 en el que doce
10 efectos son no significativos y los tres restantes
5
significativos.
1 En la figura 7.17 se aprecia claramente
-10 0 10
cómo los efectos principales A, C y D son
Efectos
significativos y puede haber dudas (que
Fig. 7.16 Representación en papel probabilístico normal de los deberán resolverse mediante los conocimientos
efectos de un 24 con factores inertes teóricos o empíricos previos a la experimen-
tación, o realizando nuevas pruebas) respecto a
la significación de la interacción CD.
Recuérdese que para representar en
papel probabilístico normal basta con:
> ordenar los valores (en este caso los
Porcentaje efectos excluyendo la media) de menor
99
148 a mayor;
95
A > calcular la proporción de efectos
90 C menores que el que se está considerando
80 (con el factor de corrección 0.5 para
70 poder representar el efecto menor). Éste
60
50 será el valor de la ordenada. Para ello se
40
30 puede utilizar la fórmula:
20 P = 100(i-0.5)/n
CD
10 donde:
5 D i es el número de orden de cada efecto
1 n es el número total de efectos
-20 -10 0 10 20 > graduar el eje no probabilístico del papel;
Efectos
> representar las parejas (efecto, P).
Fig. 7.17 Representación en papel probabilístico normal de los Veamos cómo sería la representación en
efectos de un 24 con tres factores activos papel probabilístico normal de los efectos del

NÚM. 1 2 3 4 5 6 7
EFECTO -8 -1 -0.5 0.5 1.5 6 18
IDENTIDAD T LG LGT LT G GT L
P 7.14 21.4 35.7 50 64.3 78.6 92.9

Tabla 7.9 Efectos ordenados para su representación en papel probabilístico normal. Ejemplo del muelle

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

ejemplo del muelle que hemos venido Porcentaje

comentando. 99

Construir una tabla como la 7.9 o


95
similar facilita considerablemente la L
90
representación. Nótese que se utiliza una
80 GT
fila para mantener la identidad de los efectos 70
y facilitar su identificación una vez 60
50
representados. 40
En la figura 7.18 se aprecia clara- 30
mente que hay cuatro efectos que aparecen 20

alineados (aproximadamente) y que esa 10 T


5
recta pasa (también aproximadamente), por
el punto (0,50). Esto indica que estos efectos
1
siguen una ley normal con media cero, lo -20 -10 0 10 20
que es señal de que no son significativos. Efectos

Han salido diferentes de cero a causa de la


variabilidad del sistema. Fig. 7.18 Representación en papel probabilístico normal de los
Por el contrario, hay tres efectos que efectos. Ejemplo del muelle
están fuera de esa línea; por lo tanto no se
puede pensar que provengan de una distri-
bución con media cero. Son los efectos de
L, T y GT. En consecuencia, diremos que
son claramente significativos. 149
Requiere una cierta práctica trazar
correctamente las rectas e interpretar los Porcentaje
resultados. Es obvio que la recta debe 99
ajustarse a los puntos centrales y no a los de A
95
los extremos, que son los efectos potencial-
90
mente significativos. Un error común es
80
considerar como significativos efectos que
70
se apartan de la recta por estar demasiado 60
próximos al cero (esto ocurre con cierta 50
40
frecuencia, ya que al extraer muestras de 30
tamaño reducido de una ley normal los 20

extremos tienden a estar sobrepresentados). 10


La figura 7.19 muestra un ejemplo de lo que 5
B
se acaba de comentar.
1
Los efectos A y B no son sig- -20 -10 0 10 20
nificativos a pesar de que están fuera de Efectos
la recta.
En el apéndice 7B se presenta papel Fig. 7.19 Representación en papel probabilístico normal de los
probabilístico normal especialmente prepa- efectos de un 24 con todos los factores inertes
rado para representar los efectos de experi-
mentos bajo ocho, y dieciséis condiciones
experimentales. Se incluyen, además, diversos casos de representaciones en papel probabilístico
normal, provenientes de investigaciones reales, para que el lector se familiarice con la manera de trazar
las rectas y juzgar la significación.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

7.7 Interpretación de resultados

Una vez calculados los efectos y determinado cuáles son significativos, lo único que resta es interpretar
físicamente esos resultados.
Se ha comentado ya la interpretación que se debe hacer de los
FACTOR EFECTO
efectos principales y que la mejor manera de interpretar las
interacciones es por medio de gráficos. Por supuesto es impres-
Longitud 18
Tipo de acero -8
cindible hacer estas interpretaciones a la luz de los conocimientos
Interacci\n previos que sobre el problema se pudiesen tener.
Grosor-Tipo de acero 6 Es fundamental tener bien asimilada la posible existencia
de interacciones de dos factores para entender el comportamiento
Tabla 7.10 Efectos significativos. de la respuesta, y elegir de forma acertada la mejor combinación
Ejemplo del muelle de los factores de diseño.
En el ejemplo del muelle, y a la vista de los efectos que han
resultado significativos (tabla 7.10), la interpretación sería:
> Aumentar la longitud de 10 cm a 15 cm hace aumentar el número de compresiones hasta la
rotura en 18.000 (recuérdese que la respuesta estaba medida en miles de unidades).
> El tipo de acero y el grosor interaccionan y por lo tanto, se deben estudiar conjuntamente con
la ayuda de la figura 7.13 o la 7.14. Reproducimos aquí la 7.13.
El número máximo de compresiones hasta la rotura se obtiene al trabajar con el tipo de acero A
y un grosor de 5 mm. Pero si las circunstancias obligasen a trabajar con acero tipo B, lo indicado sería
utilizar un grosor de 7 mm.
150 Otra manera de interpretar los efectos calculados,
que en ocasiones puede ser de ayuda, es considerar que lo
que se pretende a través de la experimentación es construir
un modelo. Si bien no se puede pretender hallar una
función que represente exactamente la relación entre la
respuesta y los factores, sí se puede hallar una
aproximación a la misma, en la zona experimental (es
peligrosísimo extrapolar las variables más allá de los
niveles en los que se han considerado), que resulte útil.
Mediante diseños 2k se pueden estimar los
coeficientes de modelos polinómicos sin términos
Fig.7.20 Interacción GT. Ejemplo del muelle cuadráticos. Para un diseño con 3 factores el modelo a
estimar es del tipo:
y = β 0 + β1 A + β 2 B + β3C + β12 AB + β13 AC + β 23 BC + β123 ABC
donde:
β0: Término independiente del modelo. Corresponde a la media.
β1, ..., β123:Coeficientes. Son la mitad de los efectos calculados. Esto es debido a que el efecto
principal de un factor representa el cambio en la respuesta al pasar del nivel bajo (-1)
al nivel alto (+1). Mientras que el coeficiente representa el cambio en la respuesta al
cambiar el factor una unidad (del 0 al 1, o del -1 al 0)
A, B, C : Valores que toman cada uno de los factores.
AB, AC, BC, ABC : Productos de los valores que toman los factores que se indican. En el
modelo representan los efectos de las interacciones.
y: Valor que toma la respuesta para los valores dados de A, B, C.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Así, en el ejemplo del muelle, un modelo que explicara el número de compresiones hasta la
rotura en función de la longitud, el grosor y el tipo de acero sería:
Num. Comp. =81.75 +9L-4T+3GT
Nótese que en el modelo sólo aparecen los términos correspondientes a aquellos factores que
han resultado ser significativos.
También es importante resaltar que en este modelo las unidades de los factores no son las
originales, ya que éstos han sido codificados. Si se desea se puede descodificar por medio de la fórmula:
nivel sup. + nivel inf.
X0 −
2
Xc =
nivel sup. - nivel inf.
2

donde el subíndice C indica unidades codificadas y el O originales. Los niveles superior e inferior se
expresan en las unidades originales.
Aplicándolo al ejemplo del muelle resulta:
L0 − 12 ,5 G0 − 6
Lc = , G =
c
2 ,5 1
No es necesario decodificar la variable tipo de acero, por ser cualitativa.
Con lo que en la ecuación resultaría:
Num. Comp. = 36.75 + 3.6LO - 22T + 3GOT 151

y debe ser utilizada con los valores originales de las variables.


Las ecuaciones con las variables en las unidades originales deben ser tratadas con cautela, ya que su
interpretación es más compleja. Son útiles para predecir, pero no para interpretar los efectos de los factores.

7.7.1 Cálculo de residuos. Diagnosis del modelo

A partir del modelo es posible calcular el valor previsto ( y$ ) para cada condición experimental y
también el residuo, es decir, la diferencia entre el valor observado y el previsto por el modelo. En la
tabla 7.12 aparecen los residuos calculados para el ejemplo de los muelles.

EXP. FACTORES RESPUESTA VALORES RESIDUOS


L G T RÉPLICAS PREVISTOS

1 -1 -1 -1 77 81 79.75 -2.75 1.25


2 1 -1 -1 98 96 97.75 0.25 -1.75
3 -1 1 -1 76 74 73.75 2.25 0.25
4 1 1 -1 90 94 91.75 -1.75 2.25
5 -1 -1 1 63 65 65.75 -2.75 -0.75
6 1 -1 1 82 86 83.75 -1.75 2.25
7 -1 1 1 72 74 71.75 0.25 2.25
8 1 1 1 92 88 89.75 2.25 -1.75

Tabla 7.12 Cálculo de los residuos. Ejemplo del muelle

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Los residuos así calculados permiten comprobar si se cumplen las hipótesis del modelo, que son:
> independencia,
> normalidad,
> varianza constante,
y pueden ser comprobadas mediante técnicas gráficas.

7.8 Diseños a dos niveles bloqueados

La técnica del bloqueo, si bien ya ha sido introducida y utilizada en el contexto de la comparación de


medias, tiene particularidades en el caso de los diseños factoriales.
En ocasiones no se pueden realizar todos los experimentos elementales que componen un
diseño bajo las mismas condiciones. Por ejemplo podría ocurrir que se desease realizar un experimento
24, pero sólo hubiese materia prima de la misma partida para realizar ocho experimentos y que se
sospechase que la materia pudiese afectar en forma importante a la respuesta.
Hay muchos motivos que podrían provocar que el experimento no se llevase a cabo bajo
condiciones homogéneas. En la industria el más frecuente es que transcurra un período de tiempo largo
entre la realización del primer experimento y el último y esto siempre provoca que sea difícil asegurar
que no haya cambiado nada durante ese período. Pero cambios de turno, materia prima, operario, etc.,
son también motivos frecuentes de bloqueo.
Bloquear es dividir el global de experimentos a realizar en grupos (bloques), dentro de los
cuales se piensa que las condiciones bajo las que se va a experimentar son homogéneas.
152 Para conseguir esas divisiones, se confunden interacciones, de las que en principio se piensa
que no son importantes (en general, de tres o más factores), con los factores de bloqueo. La técnica es
muy similar a la que se explica en el siguiente capítulo para diseñar experimentos factoriales
fraccionales. Por ello, postergamos la explicación detallada hasta el apartado 8.5, en que dispondremos
de una mayor base para su presentación. Baste reseñar aquí la importancia de bloquear para aumentar
la precisión de los experimentos, especialmente en la industria, y dejar constancia de esa posibilidad.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Apéndice 7A Relación entre los algoritmos de cálculo y el método de los mínimos


cuadrados

En este capítulo se han detallado dos algoritmos para calcular los efectos, cuando los resultados
provienen de un diseño factorial con las variables a dos niveles. Los dos, algoritmo de Yates y
algoritmo de los signos, están basados en la simplificación que supone, en el caso general de la
estimación de coeficientes por mínimos cuadrados (regresión lineal), el hecho de que las columnas de
la matriz de diseño sean ortogonales.
En este apéndice se detalla la relación entre estos algoritmos y el caso general, suponiendo que
el lector está familiarizado con los aspectos básicos de la regresión lineal.
Dado un conjunto de variables X1, X2, ..., Xp (variables independientes o regresoras), de las que se
piensa que pueden contribuir a explicar las variaciones de una variable Y (dependiente) según el modelo:
y = β 0 + β1 X 1 + β 2 X 2 +K+β p X p + ε
el problema básico de la regresión lineal es estimar los coeficientes i a partir de los datos disponibles
para esas variables y, por tanto, estimar el modelo anterior por medio de la ecuación:
y = b0 + b1 X 1 + b2 X 2 +K+b p X p + e
donde las bi son las estimaciones de las βi.
Estas estimaciones se realizan por el método de los mínimos cuadrados. Es decir, se eligen
valores de b de tal manera que minimicen la suma de los cuadrados de los residuos (e).
Llamando X a una matriz formada por las variables independientes, e Y a un vector formado por
las observaciones de la variable dependiente, en la forma siguiente, 153

1 X11 X 21 L X p1   Y1 
   
1 X12 X 22 L X p2   Y2 
X = 1 X13 X 23 L X p3  Y =  Y3 
   
M M M M   M
1 X L X pn   
 1n X 2n  Yn 

los valores del vector b:

 b0 
b 
 1
b =  b2 
 M
b 
 p
media A B C AB AC BC ABC
que minimizan las sumas de cuadrados 1 -1 -1 -1 1 1 1 -1
de los residuos, vienen dados por: 1 1 -1 -1 -1 -1 1 1
b = (X’X)-1X’Y. 1 -1 1 -1 -1 1 -1 1
1 1 1 -1 1 -1 -1 -1
Considérese ahora la matriz de 1 -1 -1 1 1 -1 -1 1
diseño completa de un 23 para las 1 1 -1 1 -1 1 -1 -1
variables A, B y C: 1 -1 1 1 -1 -1 1 -1
Llamémosla X. Entonces: 1 1 1 1 1 1 1 1

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

8 0 0 0 0 0 0 0 Nótese que X’X es diagonal porque las columnas


0 8 0 0 0 0 0 0 correspondientes a los efectos son contrastes ortogonales
  entre sí. Este hecho resulta de gran transcendencia, ya
0 0 8 0 0 0 0 0 que esa ortogonalidad es la que provoca que las b
0 0 0 8 0 0 0 0 estimadas (los efectos) sean independientes entre sí y por
X' X = 
0 0 0 0 8 0 0 0 tanto, fácilmente interpretables.
  Resulta evidente que la matriz (X’X)-1 es también
0 0 0 0 0 8 0 0
 una matriz diagonal, pero con 1/8 a lo largo de la diagonal
0 0 0 0 0 0 8 0
  principal.
0 0 0 0 0 0 0 8 Por tanto, la estimación b resulta:
1
b= X 'Y
8
donde Y es un vector que representa la respuesta del experimento.
Explicitando las matrices resulta:

 1

1 1 1 1 1 1 1
  Y1 
 −1 1 −1 1 −1 1 −1 1 Y 

 −1
  2
−1 −1 −1 1

1 1 1
  Y3 
b=
1  −1 −1 −1 −1 1 1 1 1

 Y4 
8 1 −1 −1 1 1 −1 −1 1 Y = Y 
154

 1 −1 1 −1 −1 1 −1 1

 5
   Y6 
 1 1 −1 −1 −1 −1 1 1 Y 
 
 −1
 1 1 −1 1 −1 −1 1  7
 Y8 
que es exactamente la misma operación que se realizaba en el algoritmo de los signos, con la única
salvedad de que en este caso los coeficientes se obtienen dividiendo por ocho (el número de
experimentos) en lugar de por cuatro (la mitad del número de experimentos). Esto es así, como ya se
ha comentado en el apartado 7.5, porque los coeficientes indican el cambio en la respuesta al cambiar
una unidad la variable, mientras que los efectos estiman el cambio en la respuesta al pasar del nivel
bajo (-1) al nivel alto (+1) de la variable.
El lector comprobará fácilmente que en el algoritmo de Yates las operaciones son exactamente
las mismas que en el algoritmo de los signos, sólo que se resulta más eficiente, ya que éstas se realizan
agrupadas.
Por otra parte, y dejando al margen que el método de estimación sea el mismo, conviene poner
de manifiesto dos diferencias básicas entre la estimación de un modelo cuando la respuesta se ha
obtenido como resultado de un experimento diseñado, y la que se obtiene cuando la respuesta y las
variables se han recogido como consecuencia de las operaciones habituales:
> Los peligros ya mencionados al inicio de este capítulo cuando los datos no provienen de un
experimento diseñado. Inconsistencia de los datos, rango de variación de las variables limitado
por el control, confusión de los efectos e imposibilidad de determinar relaciones causa-efecto
(variable oculta).
> Cuando los datos no provienen de un diseño factorial, las variables independientes no son, en
la practica totalidad de los casos, ortogonales. Esto complica considerablemente la
interpretación de los modelos resultantes.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Apéndice 7B Papel probabilístico normal para diseños con ocho y dieciséis


experimentos y casos prácticos

Papel probabilístico normal preparado para el análisis de diseños factoriales a dos niveles

Las dos figuras (7B.1 y 7B.2) que presentamos a continuación representan papel probabilístico
normal, que simplifica considerablemente la representación de los efectos. En ellas sólo aparecen las
líneas correspondientes a la probabilidad requerida en cada caso. Así, en el papel para ocho
experimentos sólo aparecen siete líneas horizontales, que están situadas precisamente en las
probabilidades (7.14, 21.43, 35.71, 50.00, 64.29, 78.57, 92.86), de manera que para realizar la
representación basta con ordenar los efectos de menor a mayor y representarlos secuencialmente.
Las dos plantillas ahorran, por tanto, el cálculo de las probabilidades para diseños bajo ocho y
dieciséis condiciones experimentales.

155

Fig. 7B.1 Papel probabilístico normal para diseños con Fig. 7B.2 Papel probabilístico normal para diseños
8 experimentos con 16 experimentos

Representaciones de efectos provenientes de experimentos reales

A continuación presentamos diversos casos reales para que el lector se familiarice con el trazado de las
rectas y la forma de juzgar la significación.
Siempre presentamos en primer lugar una figura con los efectos sobre el papel normal.
Invitamos al lector a que ensaye diversas rectas y decida cuáles son, a su juicio, los efectos
significativos. A continuación se presenta la misma figura con la recta que recomendamos, los efectos
significativos y algunos comentarios. Al referirnos a los efectos lo haremos utilizando su número de
orden en la representación gráfica.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Por supuesto, al juzgar la significación es muy importante tener en cuenta los conocimientos
previos del investigador y cualquier otra información pertinente sobre el proceso en cuestión. Por
razones de espacio se han omitido aquí estos aspectos, si bien en algún caso se hace referencia a la
necesidad de tenerlos en cuenta.
a) Con ocho condiciones experimentales
Breve descripción de los casos y representación de los efectos en papel probabilístico normal
Caso 1: Los efectos provienen de un Caso 2: Este experimento tenía como
diseño 23, con el que se pretendía optimizar la objetivo solucionar problemas en el compor-
viscosidad de una emulsión. La respuesta es por tamiento de transistores causados por el proceso
tanto la viscosidad. de encapsulado plástico de los mismos. El diseño
era un 25-2.

156

Caso 3: En esta ocasión se trata del proceso de obtención de una emulsión polimérica utilizada
como aditivo en pinturas industriales con el fin de conferirles ciertas propiedades mecánicas. El
objetivo era obtener emulsiones que permitiesen aumentar al mismo tiempo la elongación (medida en
%) y la resistencia (medida en N/200mm.). El experimento realizado fue un 24-1 y se consideraron las
dos respuestas mencionadas, identificadas como caso 3a y caso 3b.

Fig. 7B.3 Casos 1, 2 y 3. Representación de efectos en papel probabilístico normal

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Caso 4: Las tres respuestas de este experimento (caso 4a: densidad aparente de la pasta, caso
4b: consistencia de la pasta y caso 4c: retención de agua de la pasta) corresponden a un diseño 24-1. Con
él se pretendía optimizar la formulación de cementos.
Caso 5: Este caso corresponde a la optimización de la densidad del producto final en un proceso
de mezclado de resinas con carga mineral. El diseño era un 23.
Comentarios a las rectas trazadas y los efectos considerados como significativos en cada uno de
los casos planteados. Como ya se ha comentado, por razones de concisión, nos referiremos a cada
efecto por su número de orden, que corresponde al que está señalado en el eje de ordenadas.

157

Caso 4a

Fig. 7B.4 Casos 4 y 5. Representación de los efectos en papel probabilístico normal

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Caso 1: Nótese que la recta pasa aproximadamente por el punto (0,50) y recuérdese que, tal
como se han etiquetado los ejes, la probabilidad 50% corresponde al punto 4. El hecho de que los
efectos 3 y 4 tengan prácticamente el mismo valor confiere a los puntos un aspecto de no alineados.
Por otra parte, según como se trace la recta, el efecto 1 podría quedar claramente fuera de la misma,
pero en ningún caso puede considerarse como significativo, ya que está fuera de la recta por estar
demasiado cerca de cero. Obviamente los significativos son los que están fuera de la recta por estar
alejados del cero. Por tanto, en este caso no hay ningún efecto que pueda ser considerado como
significativo.
Caso 2: La recta esta algo desplazada del punto (0,50); esto puede ser una indicación de la
existencia de algún valor anómalo en los datos correspondientes a la respuesta, que se debería
comprobar analizando los residuos. El efecto 1 puede considerarse como significativo, si bien por
escaso margen. El efecto 7 claramente no, ya que se aparta de la recta, pero por estar más cerca del
cero de lo que le correspondería.

158

Fig. 7B.5 Casos 1 y 2. Recta de efectos no significativos

Caso 3a: La situación es aparentemente clara, la recta engloba a los tres efectos centrales (3, 4
y 5) y los efectos 1, 2 , 6 y 7 son significativos. Nótese, sin embargo, que la recta está muy desplazada
del punto (0,50), lo que de nuevo requiere un análisis de los residuos para aclarar la posible existencia
de anomalías. Es de destacar que en este caso, a diferencia del anterior, si se diese por buena la recta
se estaría admitiendo que los efectos 1 y 2, cuyo valor es -12 y -9 (aproximadamente), serían
significativos, mientras que los efectos 4 y 5, que valen 8 y 11, podrían ignorarse. Este caso requiere
una revisión en profundidad de todo el experimento.
Caso 3b: Éste es un caso claro, en el que los efectos 1 y 2 son significativos.
Caso 4a: No hay ningún efecto significativo, los dos que se apartan de la recta, el 1 y el 7, lo
hacen por estar demasiado cerca del cero.
Caso 4b: En esta situación hay tres efectos que son claramente significativos, el 1, el 6 y el 7,
y un cuarto efecto, el 5, que resulta difícil de juzgar sin tener conocimientos adicionales sobre el
sistema con el que se está experimentando. Si estos conocimientos no fuesen suficientes, habría que
recurrir a realizar más experimentos para despejar las dudas (estrategia secuencial).
Caso 4c: Es totalmente análogo al caso 2 ya comentado.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Caso 5: Es similar al caso 3b, con la diferencia de que los dos efectos significativos son en este
caso positivos.
Conviene destacar que en los casos 3 y 4, correspondientes a experimentos en los que se ha
considerado más de una respuesta, es conveniente realizar una interpretación global tras interpretar los
resultados para cada respuesta individualmente. No lo hacemos aquí, ya que el propósito es únicamente
clarificar la interpretación del papel probabilístico normal.

159

Fig. 7B.6 Casos 3, 4 y 5. Recta de efectos no significativos

b) Bajo dieciséis condiciones experimentales


Breve descripción de los casos y representación de los efectos en papel probabilístico normal.
Caso 6: Los efectos corresponden a un diseño 25-1 donde el objetivo era optimizar los
parámetros en un proceso de termofijación de entretelas.
Caso 7: Los efectos corresponden a un proceso de curvado de tubos. La respuesta de interés
eran las deformaciones en el diámetro interior. El diseño realizado fue un 2 6-3.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Caso 8: Los efectos provienen de un experimento realizado en un proceso de fabricación de


papel con una máquina de doble tela. El diseño fue un 25-1 y la respuesta (a) corresponde a la resistencia
longitudinal del papel y la (b) a la resistencia transversal.

160

Fig. 7B.7 Casos 6, 7 y 8. Representación de efectos en papel probabilístico normal

Comentarios a las rectas trazadas y los efectos considerados como significativos en cada uno de
los casos planteados. De nuevo, nos referiremos a cada efecto por su número de orden, que
corresponde al que está señalado en el eje de ordenadas (figura 7B.8).
Nótese que, en general, la interpretación del papel probabilístico resulta más sencilla cuando se
han realizado dieciséeis experimentos que cuando sólo se han realizado ocho. Ello es debido a que al
aparecer un mayor número de efectos no significativos, la recta queda mejor definida. También
conviene destacar que en ninguno de los cuatro casos considerados aparecen problemas de posibles
anomalías y que todas las rectas pasan, aproximadamente, por el punto (0,50) que en este caso
corresponde al (0,8).

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

Caso 6: Hay un efecto claramente significativo, el 15, y otro que a nuestro juicio también lo es
pero con menor seguridad, que es el 14. Para juzgar este último resultaría conveniente conocer el
proceso.
Caso 7: Los efectos 13, 14 y 15 son significativos, y puede haber dudas respecto al 1 (aunque
nos inclinamos por considerarlo no significativo), que como siempre se deberían clarificar a partir de
los conocimientos del proceso o recurriendo a la realización de nuevos experimentos.
Caso 8a: Sólo el efecto 15 es claramente significativo. Al igual que en el caso anterior podría
haber una ligera duda sobre el efecto 1.
Caso 8b: Los efectos 14 y 15 son obviamente significativos. Nos inclinamos por considerar que,
si bien en menor medida, también lo son el 1 y el 2, aunque dependiendo del significado físico de los
mismos.

161

Fig. 7B.8 Casos 6, 7 y 8. Representación de efectos en papel probabilístico normal

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Ejercicios

7.1. En un diseño factorial 23 sin réplicas, efectuado con las variables x1, x2, x3, se han obtenido
las siguientes estimaciones:

ESTIMACIÓN
EFECTOS x1 -1.91
PRINCIPALES x2 5.25
x3 0.45
INTERACCIONES x1x2 -0.07
BINARIAS x1x3 1.55
x2x3 -4.07
INTERACCIÓN x1x2x3 0.85
DE TERCER ORDEN

Analizar qué efectos son significativos e interpretar los resultados.

7.2. Una fábrica de pilas de níquel-cadmio desea obtener una capacitancia lo más alta posible con
los procesos de fabricación de que dispone.
En un primer estudio de mejora de la calidad se seleccionaron tres macrovariables:
A: Línea de producción A1: Línea de producción A1
A1: Línea de producción A1
B: Línea de montaje B1: Línea de montaje B1
162 B2: Línea de montaje B2
C: Estación de proceso final C1: Estación C1
C2: Estación C2

El estudio se realizó con 48 pilas (6 réplicas) con materias primas homogéneas y con el mismo
aparato para medir la capacitancia final.
Los resultados obtenidos fueron: capacitancia (datos codificados)

A1 A2
B1 B2 B1 B2
C1 C2 C1 C2 C1 C2 C1 C2
-0.1 1.1 0.6 0.7 0.6 1.9 1.8 2.1
1.0 0.5 1.0 -0.1 0.8 0.7 2.1 2.3
0.6 0.1 0.8 1.7 0.7 2.3 2.2 1.9
-0.1 0.7 1.5 1.2 2.0 1.9 1.9 2.2
1.4 1.3 1.3 1.1 0.7 1.0 2.6 1.8
0.5 1.0 1.1 -0.7 0.7 2.1 2.8 2.5

a) Describir un mecanismo de posible aleatorización del experimento.


b) Efectuar un estudio completo para determinar la influencia de las macrovariables en la calidad
del producto obtenido, interpretando los resultados y sugiriendo posibles acciones a emprender
en la fábrica.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES

7.3. En un proceso de fabricación de tubos de


escape para la industria del automóvil se desea
optimizar la calidad de una determinada NIVELES

soldadura, que se realiza automáticamente en - +


un componente de acero inoxidable. Para ello A: CAUDAL DE GAS (L/MIN) 8 12
se lleva a cabo un diseño factorial 23 replicado, B: INTENSIDAD (AMP) 230 240
considerando los factores: C: VELOCIDAD CADENA (M/MIN) 0.6 1

Y se obtienen los siguientes resultados (mayor valor de la A B C Y1 Y2


respuesta significativa implica mayor a liad) - - - 13 14
a) Constate, mediante el test estadístico que le parezca más + - - 25 24
- + - 11 14
adecuado (como se vio en el capitulo 5), que no existe + + - 22 21
diferencia significativa entre los valores obtenidos en la - - + 13 13
primera y segunda réplica. + - + 21 25
b) Calcule todos los efectos y utilice el error experimental en la - + + 15 11
+ + + 22 24
medida de la respuesta para identificar cuáles pueden
considerarse significativos.

7.4. Se realiza un experimento para comprobar si la temperatura (x1) y la velocidad de agitación (x2)
influyen en el diámetro de ciertas partículas. Para ello se lleva a cabo un diseño 22 por triplicado (el
experimento fue debidamente aleatorizado). Los resultados obtenidos en dicho experimento son:
EXP. NÚM. X1 X2 DIÁMETRO DI (M) d Sd
Sd
163
1 - - 4,16 2,12 0,32 2,2 1,921
2 + - 9,86 10,03 10,11 10,0 0,122
3 - + 10,14 9,94 9,92 10,0 0,128
4 + + 12,68 12,58 12,54 12,6 0,072

a) Analizar el experimento e interpretar los resultados, suponiendo que se cumplen las hipótesis
del modelo.
b) Dado que las varianzas bajo las diferentes condiciones experimentales son muy diferentes,
parece conveniente transformar los datos.(recomendación: considerar el volumen) y analizar de
nuevo el experimento.

7.5. Se planifica un experimento para estudiar cómo se modifica la potencia de un motor de 6


cilindros al variar ligeramente las dimensiones críticas del carburador (A,B,C,D).
Los datos obtenidos fueron:

DIMENSIONES RESPUESTA DIMENSIONES RESPUESTA


A B C D (POTENCIA) A B C D (POTENCIA)
- - - - 14.8 - - - + 16.3
+ - - - 24.8 + - - + 23.7
- + - - 12.3 - + - + 13.5
+ + - - 20.1 + + - + 19.4
- - + - 13.8 - - + + 11.3
+ - + - 22.3 + - + + 23.6
- + + - 12.0 - + + + 11.2
+ + + - 20.0 + + + + 21.8

¿cuál es la dimensión del carburador que tiene mayor efecto en la potencia del motor?

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

7.6. Se desea optimizar cierta característica de calidad y de un producto, y para ello se realiza un
diseño factorial 23 en el que los factores A, B y C son las variables de las que se sospecha que
pueden tener alguna influencia en y.
Las posibilidades de experimentación permiten la realización de cuatro réplicas en cada
condición experimental pero como sólo pueden realizarse 16 experimentos diarios, la experi-
mentación se bloquea por día.
Los resultados obtenidos son:

A B C Y1 Y2 Y3 Y4

- - - 83 76 78 79
DÍA 1 - + - 86 82 87 81
+ - + 84 79 81 76
+ + + 83 75 81 77

+ - - 71 66 74 69
DÍA 2 + + + 74 70 72 68
- - - 88 84 91 85
- + + 94 87 91 88

a) Describa brevemente cómo podría aleatorizarse la realización de este experimento. Calcule los
efectos. ¿Qué opinión le merece el generador del bloque elegido?
b) Indique cuáles son los efectos significativos. ¿Era necesario bloquear?
c) Considere que los resultados anteriores se han obtenido utilizando cuatro máquinas,
164 correspondiendo la primera réplica a los datos de la máquina 1, la segunda réplica a los datos
de la máquina 2, y así sucesivamente. ¿Podemos seguir considerando que tenemos cuatro
réplicas? ¿Por qué?

© los autores, 1998; © Edicions UPC, 1998.


8
Diseños factoriales fraccionales

8.1 Utilidad y justificaciones


En el capítulo anterior se ha desarrollado en detalle el diseño, análisis e interpretación de los diseños
factoriales completos. También se han comentado las ventajas e inconvenientes de su utilización, y
entre estos últimos el más importante es el elevado número de experimentos que requieren. Este
número crece, como resulta evidente en la notación 2k utilizada, en forma exponencial con el número
de factores. No es inusual en la industria desear estudiar el efecto de 6, 7, 8 o más factores sobre una
respuesta. 165
En el caso de considerar siete factores, un diseño factorial completo exigiría la realización de
27 = 128 experimentos, y tal volumen de experimentación resulta, en la mayoría de ocasiones,
prohibitivo. Los diseños factoriales fraccionales permiten estudiar un elevado número de factores en
un número de experimentos mucho menor de lo que requeriría un factorial completo.

8.1.1 Justificaciones

Piénsese que un diseño 27 implica realizar 128 experimentos y, por tanto, se dispone de 128 grados de
libertad que permiten estimar 128 efectos que son, además de la media:
> 7 efectos principales
> 21 interacciones de 2 factores
> 35 interacciones de 3 factores
> 35 interacciones de 4 factores
> 21 interacciones de 5 factores
> 7 interacciones de 6 factores
> 1 interacción de 7 factores
En la práctica resulta extremadamente raro que aparezcan interacciones de tres o más factores
que resulten ser significativas. Dicho de otra manera, en general, se obtienen modelos suficientemente
aproximados considerando sólo los efectos principales y las interacciones de dos factores.
Este hecho no debe resultar sorprendente: los efectos significativos engloban las características
más importantes de la superficie que se está estudiando, y en la práctica resulta infrecuente que estas
sean muy “rugosas”. La situación es similar a la que se produce cuando, al desarrollar una función en
serie de Taylor, se trunca la aproximación en la segunda derivada. Resultaría además contradictorio

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las
sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el
tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de
ejemplares para su distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

incluir téminos de tercer o cuarto orden en un modelo, en el que ya desde el inicio (al decidir realizar
el experimento con los factores a dos niveles) se han desestimado los términos cuadráticos puros.
Se puede, por tanto, prescindir de parte de la información que proporciona un diseño 27
completo y esto permite, a su vez, prescindir de la realización de algunos experimentos.
Para estudiar los efectos de interés, será suficiente con realizar una parte (fracción) del
diseño completo. Estos diseños reciben el nombre de: diseños factoriales fraccionales o,
simplemente, diseños fraccionales. Para los diseños fraccionales se utiliza la notación 2k-p, donde
2 sigue siendo el número de niveles, k el número de factores con los que se experimentará y la letra
p indica el grado de fraccionamiento (más adelante se comenta su significado específico). De tal
manera que el resultado de elevar 2 a k-p indica el número de experimentos que se van a realizar.
Veamos unos ejemplos:
> 27-1 permite estudiar siete variables en 64 experimentos. Suponiendo que todas las interacciones
de cuarto orden o superior sean cero, permitiría estimar los efectos principales y las
interacciones de segundo y tercer orden.
> 27-3 permite estudiar siete variables en 16 exprimentos. Suponiendo que todas las interacciones
de tercer orden o superior y una parte de las de segundo orden sean cero, permitiría estimar los
efectos principales y los de las restantes interacciones de dos factores.
> 27-4 permite estudiar siete variables en solamente ocho experimentos. Suponiendo que todas las
interacciones sean cero, permitiría estimar los efectos principales de las siete variables en
cuestión.
Hay otra justificación para la realización de diseños factoriales fraccionales y es que en la
significación de los efectos se cumple, en general, el principio de Pareto. Cuando, sobre todo en las
166 fases iniciales de una experimentación, se incluye un elevado número de factores se suele cumplir que
unos pocos son responsables de la mayor parte de variaciones en la respuesta (escasos efectos
significativos), mientras que la mayoría de factores producen cambios en la respuesta de menor cuantía
(indistinguibles del ruido experimental). Cuando esto ocurre los diseños factoriales fraccionales
permiten estudiar de manera completa los efectos de las variables activas. En el apéndice 8A se
comenta este hecho con mayor detalle.

8.2 Ejemplo introductorio. Cinco variables en dieciseis experimentos

En una investigación -en laboratorio- sobre solidez del color en tejidos se consideraron cinco variables,
cada una de ellas a dos niveles, que se situaron alrededor de los habituales en el proceso de tintado. La
tabla 8.1 muestra las variables y niveles.
La respuesta medida es la cantidad de color dejada
por la muestra, resultado del experimento, sobre
un testigo y comparada con un testigo estándar.
CÓDIGO VARIABLE NIVELES De manera que lo que se desea es hallar las condi-
- + ciones que minimicen la respuesta.
Esta investigación se desarrolló por medio
A Ph fijado 4.5 5.5
B Temp. fijado 701C 801C de un diseño 25 completo. Los experimentos
C Concentr. fijador 1 g/l 3 g/l realizados (en orden aleatorio) aparecen en la
D Temp. acabado 1701C 1901C tabla 8.2 (en orden estándar) junto con la
E Tiempo acabado 50 seg. 70 seg.
respuesta obtenida.
Como se han realizado 32 experimentos se
Tabla 8.1 Variables y niveles. Ejemplo del tintado dispone de 32 grados de libertad, que permiten

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

EXP. A B C D E RESP. EXP. A B C D E RESP

1 -1 -1 -1 -1 -1 13.1 17 -1 -1 -1 -1 1 6.4
2 1 -1 -1 -1 -1 9.9 18 1 -1 -1 -1 1 9.8
3 -1 1 -1 -1 -1 8.1 19 -1 1 -1 -1 1 9.0
4 1 1 -1 -1 -1 7.5 20 1 1 -1 -1 1 6.6
5 -1 -1 1 -1 -1 9.0 21 -1 -1 1 -1 1 4.9
6 1 -1 1 -1 -1 9.2 22 1 -1 1 -1 1 5.3
7 -1 1 1 -1 -1 -1.0 23 -1 1 1 -1 1 -5.1
8 1 1 1 -1 -1 -1.0 24 1 1 1 -1 1 -3.7
9 -1 -1 -1 1 -1 10.6 25 -1 -1 -1 1 1 17.3
10 1 -1 -1 1 -1 8.2 26 1 -1 -1 1 1 12.7
11 -1 1 -1 1 -1 11.0 27 -1 1 -1 1 1 12.9
12 1 1 -1 1 -1 11.2 28 1 1 -1 1 1 13.7
13 -1 -1 1 1 -1 5.1 29 -1 -1 1 1 1 12.4
14 1 -1 1 1 -1 9.7 30 1 -1 1 1 1 12.4
15 -1 1 1 1 -1 4.1 31 -1 1 1 1 1 3.8
16 1 1 1 1 -1 2.9 32 1 1 1 1 1 4.0

Tabla 8.2 Matriz de diseño y respuesta (32 experimentos). Ejemplo del tintado

estimar los siguientes 32 efectos:

MEDIA INTERACCIONES DE DOS INTERACCIONES DE TRES INTERACC. DE CUATRO

media = 7.5 AB = 0.0 ABC = -0.6 ABCD = -1.1


AC = 0.9 ABD = 0.3 ABCE = 0.8 167
AD = -0.1 ABE = 0.1 ABDE = 1.0
AE = 0.1 ACD = 0.3 ACDE = 0.1
BC = -3.5 ACE = -0.3 BCDE = 0.2
EFECTOS PRINCIPALES BD = 1.4 ADE = -0.7 INTERACCIONES DE CINCO

A = -0.2 BE = -0.5 BCD = 0.4 ABCDE = -0.4


B = -4.5 CD = 0.6 BCE = -0.5
C = -6.0 CE = -0.8 BDE = -1.5
D = 4.0 DE = 3.0 CDE = 0.2
E = 0.3

Representando estos efectos en papel probabilístico normal se obtine la representación de la


figura 8.1.
En la figura 8.1 se observa claramente que hay cinco efectos significativos: B, C, D, BC y DE.
Es decir se cumple el principio de la escasez de efectos.
Dejamos como ejercicio para el lector la interpretación de los resultados, de acuerdo con el
objetivo planteado en la investigación.
Como acabamos de ver, se han podido estimar 32 efectos, si bien es cierto que ya antes de
realizar el experimento había 16 efectos que considerabamos despreciables -las interacciones de tres,
cuatro y cinco factores.
¿Qué hubiese ocurrido si en lugar de realizar los 32 experimentos de un 25 se hubiesen hecho
sólo los 16 indicados por un 25-1? ¿Podríamos haber realizado solamente 16 experimentos, y nos
hubiesen servido para estimar los efectos principales y las interaccciones de dos factores?
Imaginemos que realmente se han realizado sólo 16 experimentos y que éstos han sido un
subconjunto de los 32 del diseño completo. En la tabla 8.3 aparecen estos 16 experimentos. Invitamos
al lector a comprobar como la respuesta coincide con la que se ha obtenido bajo esas mismas

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

99

Porcentaje
D EXP.
95
NÚM. A B C D E RESP.
DE
90 17 -1 -1 -1 -1 1 6.4
80 2 1 -1 -1 -1 -1 9.9
70 3 -1 1 -1 -1 -1 8.1
60 20 1 1 -1 -1 1 6.6
50
40 5 -1 -1 1 -1 -1 9.0
30 22 1 -1 1 -1 1 5.3
20 23 -1 1 1 -1 1 -5.1
10 8 1 1 1 -1 -1 -1.0
BC
5 B 9 -1 -1 -1 1 -1 10.6
26 1 -1 -1 1 1 12.7
C
1 27 -1 1 -1 1 1 12.9
-6 -4 -2 0 2 4 12 1 1 -1 1 -1 11.2
Efectos 29 -1 -1 1 1 1 12.4
14 1 -1 1 1 -1 9.7
15 -1 1 1 1 -1 4.1
Fig. 8.1 Efectos del ejemplo del tintado (32 experimentos) en 32 1 1 1 1 1 4.0
papel probabilístico normal
Tabla 8.3 Matriz de diseño y respuesta (16 experi-
mentos). Ejemplo del tintado

condiciones en el diseño completo; para facilitar la tarea, hemos conservado la numeración original de
los experimentos. Más adelante justificaremos la elección de estos experimentos y no otros, por el mo-
168 mento concentrémonos en el análisis de los mismos.
Nótese que los experimentos se han reordenado para que al menos en los cuatro primeros
factores (A,B,C,D), el diseño aparezca en orden estándar.
Al plantear el experimento 25-1 hemos renunciado voluntariamente a las interacciones de orden
tres o superior. Utilicemos el algoritmo de los signos para calcular los efectos en los que estábamos
interesados. Para ello, además de las columnas de la matriz de diseño que aparecen en la tabla 8.3,
tendremos que calcular las correspondientes a la media y a las interacciones de dos factores. Aparecen
en la tabla 8.4.

MED AB AC AD AE BC BD BE CD CE DE RESP
1 1 1 1 -1 1 1 -1 1 -1 -1 6.4
1 -1 -1 -1 -1 1 1 1 1 1 1 9.9
1 -1 1 1 1 -1 -1 -1 1 1 1 8.1
1 1 -1 -1 1 -1 -1 1 1 -1 -1 6.6
1 1 -1 1 1 -1 1 1 -1 -1 1 9.0
1 -1 1 -1 1 -1 1 -1 -1 1 -1 5.3
1 -1 -1 1 -1 1 -1 1 -1 1 -1 -5.1
1 1 1 -1 -1 1 -1 -1 -1 -1 1 -1.0
1 1 1 -1 1 1 -1 1 -1 1 -1 10.6
1 -1 -1 1 1 1 -1 -1 -1 -1 1 12.7
1 -1 1 -1 -1 -1 1 1 -1 -1 1 12.9
1 1 -1 1 -1 -1 1 -1 -1 1 -1 11.2
1 1 -1 -1 -1 -1 -1 -1 1 1 1 12.4
1 -1 1 1 -1 -1 -1 1 1 -1 -1 9.7
1 -1 -1 -1 1 1 1 -1 1 -1 -1 4.1
1 1 1 1 1 1 1 1 1 1 1 4.0

Tabla 8.4 Columnas de signos de las interacciones de dos factores. Ejemplo del tintado (16 experimentos)

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

En la tabla 8.4 se ha añadido la respuesta para facilitar la utilización del algoritmo de los signos,
que una vez aplicado proporciona los efectos indicados en la siguiente tabla.
Comparando estos efectos con los obtenidos utilizando 32 experimentos, se observa que, si bien no
son iguales, son muy similares. De hecho las diferencias son de orden similar a las que hubiese podido
provocar el ruido del experimento.
Veamos cuáles resultan significativos, representándolos en papel probabilístico normal (figura 8.2).
Resulta evidente que los efectos significativos son los mismos que cuando disponíamos de los 32
experimentos. Por tanto, básicamente hemos obtenido la misma información con la mitad de los experi-
mentos. ¿Se ha perdido algo al reducir el número de experimentos?

Porcentaje
99
MEDIA EFECTOS ITERACIONES
D
PRINCIPALES DE DOS 95

media = 7.3 A = 0.0 AB = 0.2 90 DE


B = -4.4 AC = -0.6 80
C = -5.0 AD = -0.6 70
D = 4.8 AE = 0.5 60
50
E = -0.8 BC = -4.2
40
BD = 1.1 30
BE = -0.2 20 BC
CD = 0.7 B
10
CE = -0.5
5
DE = 2.4 C

1
-5 0 5
Efectos
169
Fig. 8.2 Efectos del ejemplo del tintado (16 experimentos) en
papel probabilístico normal

8.2.1 Confusión de los efectos

Al calcular los efectos del 25-1 se han considerado únicamente


aquellos en los que estábamos interesados: efectos principales A B C ABC RESP.
e interacciones de dos factores. De hecho se disponía de 16 -1 -1 -1 -1 6.4
grados de libertad, provinentes de los 16 experimentos realiza- 1 -1 -1 1 9.9
-1 1 -1 1 8.1
dos, y se han estimado 16 efectos, por lo que, en principio, no 1 1 -1 -1 6.6
es posible estimar nada más. -1 -1 1 1 9.0
Sin embargo, nada nos impide utilizar el algoritmo de 1 -1 1 -1 5.3
-1 1 1 -1 -5.1
los signos para calcular las interacciones de tercer o cuarto 1 1 1 1 -1.0
orden. Veamos qué ocurre si decidimos calcular, por ejemplo, -1 -1 -1 -1 10.6
la interacción ABC. La columna correspondiente se obtiene 1 -1 -1 1 12.7
multiplicando las columnas A, B y C (tabla 8.5). -1 1 -1 1 12.9
1 1 -1 -1 11.2
Con lo que se obtiene: -1 -1 1 1 12.4
1 -1 1 -1 9.7
ABC = 2.4
-1 1 1 -1 4.1
1 1 1 1 4.0
Obsérvese que el valor obtenido coincide con el del
efecto DE. ¿Es debido a la casualidad?; en absoluto. Nótese
que la columna del algoritmo de los signos correspondiente a Tabla 8.5 Columna de signos de la interacción
la interacción ABC coincide con la columna DE. ABC. Ejemplo del tintado (16 experimentos)

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

CÓDIGO VARIABLE NIVELES


El valor 2.4 que hemos estimado, ¿corresponde a
ABC o a DE?
+ -
Veamos un ejemplo más sencillo.
T Tipo de calzado Nike Adidas Supóngase que un atleta realiza un expe-
C Ingesti\n de cafJ No Sí rimento con las variables de la tabla 8.6 para intentar
mejorar su marca en los 100 m. Y con la matriz de
Tabla 8.6 Variables y niveles. Ejemplo del atleta diseño que aparece en la tabla 8.7 junto con la
respuesta.
Como quiera que siempre que calza Nike no toma café, mientras
T C RESP.
que siempre que calza Adidas sí lo toma, no se sabe a cuál de los
dos factores atribuir la ganancia de dos segundos. De hecho, con la
-1 -1 13 seg.
-1 -1 13 seg.
información disponible cualquiera de las siguientes explicaciones
1 1 11 seg. podría ser válida:
1 1 11 seg. > Calzar Adidas en lugar de Nike hace ganar al atleta 2 segundos.
> Tomar café hace ganar al atleta 2 segundos.
Tabla 8.7 Matriz de diseño y respuesta. > Calzar Adidas le hace ganar un segundo y tomar café otro segundo.
Ejemplo del atleta > Calzar Adidas le hace ganar tres segundos y tomar café le hace
perder uno.
La lista no es en absoluto exhaustiva, ya que las posibles interpretaciones son inagotables. Los
dos efectos están confundidos. Al calcularlos se obtiene el mismo valor:

−13 − 13 + 11 + 11
T = = −2
170 2

−13 − 13 + 11 + 11
C = = −2
2

pero en realidad lo que se está estimando es la suma de los dos efectos. Es decir, T+C.
Así pues, cuando a dos efectos les corresponde la misma columna de signos decimos que están
confundidos, y que el contraste lineal definido por esa columna estima la suma de sus efectos.
Volvamos al ejemplo del tintado de fibras. Hemos visto que, si para estudiar cinco factores
realizamos un 25 completo, podemos estimar 32 efectos, mientras que si realizamos un 25-1 solamente
podemos estimar 16. ¿Que ocurre con los 16 restantes? La respuesta es sencilla, la confusión entre ABC
y DE no es la única existente, los efectos están confundidos dos a dos.
Una manera de averiguar cuál está confundido con cuál sería repetir el procedimiento que
hemos utilizado para la interacción ABC con el resto de interacciones de tercer cuarto y quinto orden.
El procedimiento sería tedioso. En el siguiente apartado se presenta un procedimiento alternativo
mucho más simple.

8.3 Construcción de diseños fraccionales y cálculo de las confusiones introducidas

8.3.1 Construcción de diseños fraccionales

¿Cómo se escogieron los 16 experimentos del diseño 25-1?


De hecho, no se escogieron 16 experimentos de entre los 32 del diseño completo, se construyó
la matriz de diseño de la siguiente manera (tabla 8.8):

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

> Se escribió la matriz de diseño de un 24 completo para las A B C D E


variables A,B,C y D. ABCD
> Se escribió la columna de signos para la interacción ABCD y -1 -1 -1 -1 1
se asignaron esos signos a la variable E. Se confundió 1 -1 -1 -1 -1
-1 1 -1 -1 -1
deliberadamente la interacción de cuarto orden, la mayor de 1 1 -1 -1 1
las disponibles, con la quinta variable. -1 -1 1 -1 -1
Como se verá más adelante, el procedimiento es general. 1 -1 1 -1 1
-1 1 1 -1 1
A esta confusión introducida para poder escribir la matriz de 1 1 1 -1 -1
diseño se la denomina generador. De manera que el generador del -1 -1 -1 1 -1
diseño 25-1 utilizado es: 1 -1 -1 1 1
-1 1 -1 1 1
E = ABCD 1 1 -1 1 -1
-1 -1 1 1 1
1 -1 1 1 -1
-1 1 1 1 -1
1 1 1 1 1
Tabla 8.8 Construcción de la matriz de diseño del 25-1

8.3.2 Cálculo de las confusiones introducidas

Ahora que sabemos cómo se ha construido el 25-1, veamos una manera sencilla de hallar todas las
confusiones que presenta un diseño de este tipo. Para ello se define una operación entre las columnas
de la matriz de diseño.
La operación es la misma que hemos utilizado en el algoritmo de los signos, esto es: dadas las 171
columnas A y B se define la columna AB como aquella que tiene en cada fila el signo correspondiente
al producto de los signos de A y B en esa fila.

 −1  −1  1
     
 1  −1  −1
 −1  1  −1
A=  B=  AB =  
 1  1  1
 −1  −1  1
     
 M  M  M

Utilizaremos la letra I para denotar una columna sólo de unos (+1); es la correspondiente a la media.
> Cualquier columna por ella misma es la columna I. AA=I.
> Cualquier columna por I es la columna original. AI=A.
> Propiedad asociativa. (AB)C = A(BC).
> Propiedad conmutativa. AB = BA.
Si utilizando esta operación, multiplicamos ambos miembros del generador por E obtenemos la
relación de definición.
Generador: E = ABCD
Relación de definición: EE = EABCD
I = ABCDE
La relación de definición está formada por todas aquellas interacciones a las que corresponde
una columna con todo unos. Dicho de otra manera, está formada por todas las interacciones
confundidas con la media.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

La relación de definición permite hallar RELACIÓN ENTRE PATRÓN DE EFECTOS


fácilmente cómo están confundidos los efectos, COLUMNAS CONFUSIÓN ESTIMADOS

sin más que multiplicar ambos miembros por el A=BCDE A+BCDE 0.0
efecto de interés. Así, para hallar con cuál esta B=ACDE B+ACDE -4.4
confundida la interacción ABC: C=ABDE C+ABDE -5.0
D=ABCE D+ABCE 4.8
ABC(I) = ABC(ABCDE) E=ABCD E+ABCD -0.8
AB=CDE AB+CDE 0.2
ABC = (ABC)(ABC)DE
AC=BDE AC+BDE -0.6
ABC = (I)DE AD=BCE AD+BCE -0.6
ABC = DE AE=BCD AE+BCD 0.5
BC=ADE BC+ADE -4.2
El cálculo se puede realizar fácilmente sin BD=ACE BD+ACE 1.1
desarrollar todos los pasos. La tabla 8.9 muestra BE=ACD BE+ACD -0.2
todas las confusiones existentes en el diseño 25-1 CD=ABE CD+ABE 0.7
utilizado en el ejemplo del tintado de fibras. CE=ABD CE+ABD -0.5
DE=ABC DE+ABC 2.4
Nótese que, aunque utilizamos la misma
I=ABCDE media+1/2(ABCDE) 7.2
notación para designar las columnas de signos
que los efectos que ellas permiten estimar, ello
no debe inducir a error. Tabla 8.9 Patrón de confusión del 25-1. Ejemplo del tintado

8.3.3 Concepto de resolución

172 Se dice que el diseño 25-1 es de resolución V. La resolución de un diseño indica el nivel de confusiones
que se presentan en la estimación de los efectos. Así, en este caso, y tal como se puede ver en la tabla
8.9, los efectos principales están confundidos con interacciones de cuatro factores y las interacciones
de dos con las de tres.
En general, un diseño de resolución R es aquel en el que ningún efecto de q factores está
confundido con otro que contenga menos de R-q. Así, un diseño de resolución V indica que como
máximo se confunden interacciones de tres factores con interacciones de dos. Si la resolución es IV se
confunden interacciones de dos entre sí, o efectos principales con interacciones de tres. Si la resolución
es III, se confunden efectos principales con interacciones de dos, etc.
La resolución se define como la longitud del término más corto de la relación de definición (en
el diseño 25-1 solo tiene uno, pero no siempre es así, como veremos en el apartado siguiente).
La resolución de un diseño se denota por un número romano situado como subíndice. Así, el
diseño estudiado sería:
2V5 − 1

8.4 Otros diseños fraccionales. Generalización de conceptos

8.4.1 Medias fracciones

Del diseño 25-1 que ha servido para introducir los diseños fraccionales, se dice que es una media
fracción, ya que implica realizar la mitad de los experimentos que hubiese requerido el completo.
Resulta muy sencillo escribir medias fracciones. El procedimiento es escribir el diseño
completo para el número de variables deseado y asignar la variable restante a la interacción mayor
disponible. Veamos algunos ejemplos.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

> Diseño: 23III−1 - Escribir un 22 para las variables A y B.


- El generador del diseño es: C = AB.
- La relación de definición es: I = ABC.
- La resolución es III.
- Patrón de confusión: A + BC
B + AC
C + AB
media + ABC.

> Diseño: 24IV−1- Escribir un 23 para las variables A, B y C.


- El generador del diseño es: D = ABC.
- La relación de definición es: I = ABCD.
- La resolución es IV.
- Patrón de confusión: A + BCD
B + ACD
C + ABD
D + ABC
AB + CD
AC + BD
AD + BC
media + ABCD.

En el apartado anterior se ha visto el 2V5−1. El procedimiento es general y , por tanto, sencillo 173
6 −1 7 −1
construir diseños 2VI , 2VII , etc.

8.4.2 Fracción complementaria

El procedimiento descrito sirve para escribir media fracción.


¿Qué ocurre si deseamos escribir la otra media? Se la llama la
A B C D EABCD
fracción complementaria, ya que juntas reproducen el diseño
completo. -1 -1 -1 -1 -1
1 -1 -1 -1 1
Una manera de hallarla sería escribir el diseño completo
-1 1 -1 -1 1
y seleccionar los experimentos que no estén incluidos en la 1 1 -1 -1 -1
media fracción original. -1 -1 1 -1 1
Hay un procedimiento más sencillo; consiste en utilizar 1 -1 1 -1 -1
-1 1 1 -1 -1
el mismo generador, pero cambiado de signo. Veámoslo en el 1 1 1 -1 1
caso del tintado de fibras. -1 -1 -1 1 1
El generador sería E = -ABCD, con lo que la matriz de 1 -1 -1 1 -1
-1 1 -1 1 -1
diseño resultante es la que aparece en la tabla 8.10, a
1 1 -1 1 1
continuación. -1 -1 1 1 -1
La relación de definición es: 1 -1 1 1 1
-1 1 1 1 1
I = - ABCDE 1 1 1 1 -1

y el patrón de confusión aparece en la tabla 8.11.


Supongamos que después de haber completado una Tabla 8.10 Matriz de diseño (25-1) de la
media fracción se hubiese añadido la otra, de manera que se fracción complementaria del 25-1 inicial

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

dispusiese del factorial completo. Entonces se podrían estimar todos los efectos sin confusión,
reanalizando los 32 experimentos, o bien obtenerlos por sumas y diferencias de los efectos estimados
en cada una de las medias fracciones. La tabla 8.12 muestra esta segunda opción.
Obsérvese cómo los efectos para el diseño completo concuerdan con los obtenidos en la sección
8.2 para el diseño 25, excepto el de la interacción ABCDE que, por estar confundido con la media,
aparece dividido por dos.

RELACIÓN ENTRE PATRÓN DE EFECTOS


COLUMNAS CONFUSIÓN ESTIMADOS

A=BCDE A-BCDE -0.4


B=ACDE B-ACDE -4.6
C=ABDE C-ABDE -7.0
D=ABCE D-ABCE 3.2
E=ABCD E-ABCD 1.4
AB=CDE AB-CDE -0.2
AC=BDE AC-BDE 2.4
AD=BCE AD-BCE 0.4
AE=BCD AE-BCD -0.3
BC=ADE BC-ADE -2.8
BD=ACE BD-ACE 1.7
BE=ACD BE-ACD -0.8
CD=ABE CD-ABE 0.5
CE=ABD CE-ABD -1.1
174 DE=ABC DE-ABC 3.6
I=ABCDE media-1/2(ABCDE) 7.7

Tabla 8.11 Patrón de confusión de la fracción complementaria

PATRÓN DE EFECT. PATRÓN DE EFECT. EFECTOS DISEÑO COMPLETO


CONFUSIÓN 10 FR. CONFUSIÓN 20 FR.
10 FRACC. x1 20 FRACC. x2
1/2(x1+x2) 1/2(x1-x2)
A+BCDE 0.0 A-BCDE -0.4 A=-0.2 BCDE=0.2
B+ACDE -4.4 B-ACDE -4.6 B=-4.5 ACDE=0.1
C+ABDE -5.0 C-ABDE -7.0 C=-6.0 ABDE=1.0
D+ABCE 4.8 D-ABCE 3.2 D=4.0 ABCE=0.8
E+ABCD -0.8 E-ABCD 1.4 E=0.3 ABCD=-1.1
AB+CDE 0.2 AB-CDE -0.2 AB=0.0 CDE=0.2
AC+BDE -0.6 AC-BDE 2.4 AC=0.9 BDE=-1.5
AD+BCE -0.6 AD-BCE 0.4 AD=-0.1 BCE=-0.5
AE+BCD 0.5 AE-BCD -0.3 AE=0.1 BCD=0.4
BC+ADE -4.2 BC-ADE -2.8 BC=-3.5 ADE=-0.7
BD+ACE 1.1 BD-ACE 1.7 BD=1.4 ACE=-0.3
BE+ACD -0.2 BE-ACD -0.8 BE=-0.5 ACD=0.3
CD+ABE 0.7 CD-ABE 0.5 CD=0.6 ABE=0.1
CE+ABD -0.5 CE-ABD -1.1 CE=-0.8 ABD=0.3
DE+ABC 2.4 DE-ABC 3.6 DE=3.0 ABC=-0.6
I+1/2(ABCDE) 7.3 I-1/2(ABCDE) 7.7 med=7.5 1/2ABCDE=-0.2

Tabla 8.12 Efectos del diseño completo 25, obtenidos por sumas y diferencias de las fracciones complementarias

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

8.4.3 Diseños saturados

Las medias fracciones son los diseños menos fraccionados. Veamos ahora el extremo opuesto, los
diseños lo más fraccionados posible. Se denominan saturados, ya que se obtienen mediante la
saturación de un completo 2k asignando a cada interacción una nueva variable, lo cual permite estudiar
2k-1 variables. Son, por tanto, diseños de resolución III.
Ejemplos de diseños saturados son:
> 2 3III−1 Permite estudiar 3 variables en 4 experimentos.
7− 4
> 2 III Permite estudiar 7 variables en 8 experimentos.
15 −
> 2 III Permite estudiar 15 variables en 16 experimentos.
Resulta evidente que, si se intentase estudiar un mayor número de variables, los diseños
resultarían de resolución II. Esto es, confundirían los efectos principales entre ellos y, por tanto,
resultarían de escasa o nula utilidad. Un ejemplo de diseño de resolución II es el del corredor de 100 m
que se ha utilizado para introducir el concepto de confusión de los efectos.
Estos diseños también se llaman diseños de efectos principales, y resultan especialmente útiles
en los estadios iniciales de una investigación, cuando lo que se desea es identificar las variables activas
(screening), para posteriormente, y utilizando la estrategia secuencial, estimar sus efectos y averiguar
la posible existencia de interacciones entre ellas.
Veamos con detalle un ejemplo de diseño 2 7III− 4.
Un fabricante de tubos de escape tenía problemas en una operación de curvado y decidió llevar
a cabo una investigación para hallar mejores condiciones de funcionamiento. El objetivo era múltiple;
sin embargo, nos centraremos en conseguir el diámetro del tubo deseado. La máquina era nueva, lo que
motivó que se identificasen como potencialmente importantes siete variables y que se conociese muy 175
poco sobre ellas a priori. Además, se disponía de poco tiempo para experimentar.
Bajo estas condiciones un diseño saturado parecía idóneo. Las variables y niveles eran los de
la tabla 8.13.
La matriz de diseño utilizada aparece en la tabla 8.14.
Por supuesto los experimentos se llevaron a cabo en orden aleatorio y se tomaron diversas
precauciones para medir el diámetro. De hecho, se realizaron cinco tubos bajo cada condición
experimental (no constituyen auténticas réplicas) y la respuesta que se muestra es el promedio.

CÓDIGO VARIABLE NIVELES EXP. AB AC BC ABC RESP.


NÚM. A B C D E F G DIAM.
-1 1
1 -1 -1 -1 1 1 1 -1 34.6
A Presi\n mordaza 50 60 2 1 -1 -1 -1 -1 1 1 46.3
B Presi\n seguidor 45 55 3 -1 1 -1 -1 1 -1 1 48.6
C Velocidad seguidor -5 +5 4 1 1 -1 1 -1 -1 -1 44.9
D Velocidad eje y 7 9 5 -1 -1 1 1 -1 -1 1 49.7
E Velocidad eje b 7 9 6 1 -1 1 -1 1 -1 -1 34.0
F Velocidad eje c 7 9 7 -1 1 1 -1 -1 1 -1 46.5
G Ajuste utillaje 2.2 0.2 8 1 1 1 1 1 1 1 49.0

Tabla 8.13 Variables y niveles. Ejemplo del curvado Tabla 8.14 Matriz de diseño 27-4. Ejemplo del curvado

Nótese que, tras escribir un 23 completo, se asignó una nueva variable a cada una de las
interacciones disponibles. Por tanto, este diseño tiene cuatro generadores que son:

D = AB E = AC F = BC G = ABC

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Con lo que la relación de definición es:

I = ABD = ACE = BCF = ABCG


(productos de dos) = BCDE = ACDF = CDG = ABEF = BEG = AFG
(productos de tres) = DEF = ADEG = BDFG = CEFG
(productos de cuatro) = ABCDEFG

La relación de definición, además de estar compuesta por los cuatro términos obtenidos a partir
de los generadores, está compuesta por sus productos dos a dos, tres a tres, etc. Resulta evidente que
estos productos tambien proporcionan columnas sólo de masas y que, por lo tanto, forman parte de la
relación de definición.
En general, un diseño 2k-p tiene p generadores y 2p términos en la relación de definición
(incluyendo la I). Si no se incluye tiene 2p-1 términos.
Una vez se tiene la relación de definición se puede calcular el patrón de confusión, de forma
análoga a cómo se hizo anteriormente. La única diferencia es que ahora cada efecto estará confundido
con 15 efectos más, cosa perfectamente razonable, ya que en 27 se pueden estimar 128 efectos; si sólo
realizamos los ocho experimentos correspondientes a un 27-4, sólo podemos estimar ocho efectos y, por
tanto, cada uno de ellos tiene que estimar 128/8 = 16, es decir, cada efecto tiene que estar confundido
con otros 15. En este caso el patrón de confusión es:
A + BD + CE + ABCF + BCG + ABCDE + CDF + ACDG + BEF + ABEG + FG + ADEF +
DEG + ABDFG + ACEFG + BCDEFG
B + AD + ABCE + CF + ACG + CDE + ABCDF + BCDG + AEF + EG + ABFG + BDEF +
176
ABDEG + DFG + BCEFG + ACDEFG
C + ...
Como se ve, el patrón de confusión es, en los diseños altamente fraccionados, tedioso de
calcular y escasamente informativo. Por ello, cuando el número de confusiones es muy elevado, se
suele utilizar el patrón de confusión restringido, en el que sólo se representan los efectos principales y
las interacciones de dos factores. En este caso es:

A + BD + CE + FG
B + AD + CF + EG
C + AE + BF + DG
D + AB + CG + EF
E + AC + BG + DF
F + BC + AG + DE
G + CD + BE + AF

En el ejemplo del tintado de fibras, los efectos se calcularon utilizando el algoritmo de los
signos. Para calcular los efectos en diseños fraccionales utilizando el algoritmo de Yates, se debe
proceder como si el diseño fuese el completo correspondiente al número de experimentos realizados y
a continuación utilizar el patrón de confusión para identificar los efectos estimados. La tabla 8.15
muestra la utilización del algoritmo de Yates en el ejemplo de la operación de curvado.
Representando los efectos en papel probabilístico normal, se obtiene la figura 8.3.
Nótese que a la vista de los efectos (con sus confusiones) que han resultado significativos, y
teniendo en cuenta que es extremadamente raro que la interacción entre dos factores sea significativa
sin serlo el efecto principal de ninguna de ellas, hay cuatro interpretaciones posibles:

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

A B C RESP. (1) (2) (3) EFEC. EST. PATR. CONF.

-1 -1 -1 34.6 80.9 174.4 353.6 44.2 med media


1 -1 -1 46.3 93.5 179.2 -5.2 -1.3 A A+BD+CE+FG
-1 1 -1 48.6 83.7 8.0 24.4 6.1 B B+AD+CF+EG
1 1 -1 44.9 95.5 -13.2 2.8 0.7 AB D+AB+CG+EF
-1 -1 1 49.7 11.7 12.6 4.8 1.2 C C+AE+BF+DG
1 -1 1 34.0 -3.7 11.8 -21.2 -5.3 AC E+AC+BG+DF
-1 1 1 46.5 -15.7 -15.4 -0.8 -0.2 BC F+BC+AG+DE
1 1 1 49.0 2.5 18.2 33.6 8.4 ABC G+CD+BE+AF

Tabla 8.15 Cálculo de los efectos. Algoritmo de Yates. Ejemplo del curvado

> Los efectos activos son: B, E y G. 99


Porcentaje
> Los efectos activos son: B, E y BE.
95
> Los efectos activos son: E, G y EG. G+CD+BE+AF
90
> Los efectos activos son: B, G y BG.
80 B+AD+CF+EG
70
Si los conocimientos previos sobre el 60
50
proceso no permiten quedarse con una de 40
ellas, se habrán de realizar más experi- 30
20
mentos (estrategia secuencial) para aclarar
10
la situación. En la sección 8.7 se discuten E+BC+AG+DE 177
5
los posibles caminos a seguir.
Nótese que este diseño ha permitido 1
reducir el número de variables de las siete -10 0 10 20
iniciales a tres, es decir, ha servido para Efectos
realizar un screening.
Fig. 8.3 Efectos en papel probabilístico normal. Ejemplo del curvado

8.4.4 Diseños intermedios

Entre las medias fracciones y los diseños saturados, existe toda una gama intermedia de diseños, que
permiten realizar menos experimentos que las medias fracciones y con confusiones más favorables que
los diseños saturados. Así, entre el 27-1 y el 27-4 existen el 27-2 y el 27-3.
El procedimiento a seguir para su construcción es el mismo: escribir el diseño completo
correspondiente al número de experimentos que se desea realizar y asignar los factores restantes a las
interacciones.
El problema con los diseños intermedios es que no siempre es evidente a qué interacciones hay
que asignar los factores restantes para obtener diseños de máxima resolución (que son los que tienen
un patrón de confusión más favorable). El criterio, intuitivamente razonable, de asignarlos a las
interacciones de mayor orden disponibles no suele proporcionar el mejor diseño.
Veamos un ejemplo. Supóngase que se desea estudiar los efectos de siete variables, pero que en
un primer experimento (estrategia secuencial) sólo se está dispuesto a realizar 16 experimentos.
Ello implica realizar un diseño 27-3. Para construirlo se parte de un diseño completo 24 y se
asignan los tres factores restantes a interacciones.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

En la tabla 8.16 aparece la matriz de diseño completa correspondiente al 24 y dos posibles


asignaciones.

PRIMERA ASIGNACIÓN F G E

SEGUNDA ASIGNACIÓN E G F
EXP. A B C D AB AC AD BC BD CD ABC ABD ACD BCD ABCD
1 -1 -1 -1 -1 1 1 1 1 1 1 -1 -1 -1 -1 1
2 1 -1 -1 -1 -1 -1 -1 1 1 1 1 1 1 -1 -1
3 -1 1 -1 -1 -1 1 1 -1 -1 1 1 1 -1 1 -1
4 1 1 -1 -1 1 -1 -1 -1 -1 1 -1 -1 1 1 1
5 -1 -1 1 -1 1 -1 1 -1 1 -1 -1 -1 1 1 -1
6 1 -1 1 -1 -1 1 -1 -1 1 -1 1 1 -1 1 1
7 -1 1 1 -1 -1 -1 1 1 -1 -1 1 1 1 -1 1
8 1 1 1 -1 1 1 -1 1 -1 -1 -1 -1 -1 -1 -1
9 -1 -1 -1 1 1 1 -1 1 -1 -1 1 1 1 1 -1
10 1 -1 -1 1 -1 -1 1 1 -1 -1 -1 -1 -1 1 1
11 -1 1 -1 1 -1 1 -1 -1 1 -1 -1 -1 1 -1 1
12 1 1 -1 1 1 -1 1 -1 1 -1 1 1 -1 -1 -1
13 -1 -1 1 1 1 -1 -1 -1 -1 1 1 1 -1 -1 1
14 1 -1 1 1 -1 1 1 -1 -1 1 -1 -1 1 -1 -1
15 -1 1 1 1 -1 -1 -1 1 1 1 -1 -1 -1 1 -1
16 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Tabla 8.16 Matriz de diseño completa de un 24 con dos posibles asignaciones para construir un 27-3
178
Un posible conjunto de generadores sería, siguiendo el criterio de utilizar las interacciones de
mayor orden disponibles (primera asignación):
E = ABCD F = ABC G = BCD
Con lo que la relación de definición sería:
I = ABCDE = ABCF = BCDG
= DEF = AEG = ADFG
= BCEFG
Y por lo tanto el diseño resultante es un 2 7III− 3 .
Mientras que, en la segunda asignación (nótese que en este caso no se utiliza la interacción de
cuarto orden), los generadores son:
E = ABC F = BCD G = ACD
La relación de definición resultante es:
I = ABCE = BCDF = ACDG
= ADEF = BDEG = ABFG
= CEFG
Y, en consecuencia, proporcionan un diseño 2 7IV− 3 .
Por supuesto, para llevar a cabo el experimento sólo son necesarias las columnas
correspondientes a los factores, esto es, las correspondientes a A, B, C, D, E, F y G.
En la sección 8.6 se proporcionan tablas para facilitar la construcción de diseños fraccionales
de máxima resolución.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

8.5 Bloqueo

En la sección 7.8 se introducía la utilidad de bloquear los diseños factoriales completos, cuando se
sospechaba que las condiciones bajo las que se iban a llevar a cabo los diferentes experimentos no eran
homogéneas. Se comentaba que en la industria el motivo más frecuente para recurrir al bloqueo era el
tener que llevar a cabo los experimentos a lo largo de un período dilatado de tiempo, pero que otros
motivos frecuentes eran cambios de turno, de operario, de materia prima, etc. Lógicamente, lo mismo
sucede con los fraccionales.
Como ya se vio en los capítulos 5 y 6, bloquear resulta de utilidad cuando el efecto que provoca
la falta de homogeneidad en las condiciones de realización del experimento es aditivo. Es decir, no
provoca cambios en los efectos del resto de factores ni interacciona con ellos. Sólo provoca un cambio
en el nivel de la respuesta, que se traduce en un cambio de nivel en la media.
¿Cómo se bloquea un diseño factorial? Para construir diseños en bloques se utiliza el mismo
principio que para construir diseños fraccionales. Confundir el efecto del bloque con alguna
interacción, a ser posible, de las consideradas despreciables a priori.

8.5.1 Bloqueo de factoriales completos

Veamos qué ocurre (tabla 8.17) cuando un diseño 23 se divide en dos bloques, confundiendo el efecto
del bloque con la interacción de tres factores.
Designamos a los factores de bloqueo mediante números para distinguirlos de las variables del
experimento, que siempre hemos designado mediante letras mayúsculas. 179
Nótese que todos los experimentos del bloque I corresponden a los signos menos de la
interacción ABC y todos los del bloque II a los signos más. La figura 8.4 muestra la situación.
En la figura 8.4, los experimentos enmarcados en un círculo corresponden al bloque I y los
normales (dentro de un cuadrado) al bloque II. Obsérvese que en cada cara del cubo hay dos
experimentos de cada bloque, con lo que al calcular los efectos principales -diferencias entre las
medias de las caras- el efecto bloque queda compensado. Lo mismo ocurre con las interacciones de dos
factores. Esta propiedad -que no es más que una consecuencia de la ortogonalidad- se puede observar
también en la tabla 8.17, imaginando que se va a aplicar el algoritmo de los signos.
Por el contrario, la interacción de tres factores estará confundida con el efecto bloque, ya que el
diseño se ha construido precisamente a partir de esa confusión. De hecho, el generador del diseño es:

NÚM FACTORES 1
EXP. A B C AB AC BC ABC BLOQUE

1 -1 -1 -1 1 1 1 -1 I
2 1 -1 -1 -1 -1 1 1 II
3 -1 1 -1 -1 1 -1 1 II
4 1 1 -1 1 -1 -1 -1 I
5 -1 -1 1 1 -1 -1 1 II
6 1 -1 1 -1 1 -1 -1 I
7 -1 1 1 -1 -1 1 -1 I
8 1 1 1 1 1 1 1 II

Fig. 8.4 Representación gráfica de un diseño 23 en


Tabla 8.17 Matriz de diseño de un 23 dividido en dos bloques dos bloques de cuatro experimentos cada uno

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

1 = ABC
y la relación de definición es:
I = ABC1
Con lo que el patrón de confusión resultante es el que aparece en la tabla 8.18.

3
PATRÓN DE CONFUSIÓN INCLUIDAS PATRÓN DE CONFUSIÓN DEL 2
INTERACCIONES DE FACTOR DE BLOQUE EN 2 BLQ. DE 4 EXPERIM.

media + ABC1 media


A + BC1 A
B + AC1 B
C + AB1 C
AB + C1 AB
AC + B1 AC
BC + A1 BC
ABC + 1 ABC + 1

Tabla 8.18 Patrón de confusión de un 23 dividido en dos bloques

Como quiera que ya se ha comentado que los factores de bloqueo no interaccionan con las
variables del experimento (esas interacciones son cero), el único efecto confundido es el de la
interacción ABC. En lo sucesivo, escribiremos directamente el patrón de confusión sin incluir esas
interacciones.
180

8.5.2 Ejemplo de proceso químico

Imaginemos que se lleva a cabo un experimento 23 con las variables siguientes y que la respuesta es la
cantidad obtenida.
CÓDIGO VARIABLE Supóngase, además, que el experimento se debe realizar
A Temperatura en dos días distintos para no interferir en las necesidades de la
B Concentraci\n producción. Como se sospecha que esto puede influir en el
C Velocidad agitaci\n resultado del experimento, se decide llevar a cabo el experimento
en dos bloques. El orden de experimentación dentro
de cada bloque se decide aleatoriamente.
NÚM.
Los resultados del experimento, presentados
BLOQUE STD A B C RESP. en el orden de realización, aparecen en la tabla 8.19.
6 1 -1 1 41
Calculando los efectos, se puede utilizar
I 4 1 1 -1 46 indistintamente el algoritmo de los signos o el de
1 -1 -1 -1 42 Yates sin más requisito que tener en cuenta las
7 -1 1 1 33 confusiones. Se obtiene:
5 -1 -1 1 38
II 3 -1 1 -1 43 media = 43.5 AB = 1.0
8 1 1 1 50 A = 9.0 AC = 1.0
2 1 -1 -1 55 B = -1.0 BC = 3.0
C = -6.0 ABC + 1 = 6.0
Tabla 8.19 Matriz de diseño y respuesta. Ejemplo del Representados en papel probabilístico resulta
proceso químico la figura 8.5.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

Con lo que resulta que los efectos Porcentaje

significativos son el A, el C y la interacción 99

ABC confundida con el efecto bloque. Supo- 95


niendo la interacción de tercer orden despre- 90
A

ciable, diremos que el efecto bloque es 6, es 80 ABC + 1


decir, que la respuesta en los cuatro expe- 70
60
rimentos del primer bloque ha sido unifor- 50
memente seis unidades más alta que en los 40
30
cuatro del segundo bloque. 20
¿Qué hubiese ocurrido en este expe- 10 C
rimento si no se hubiese bloqueado? 5
La tabla 8.20 muestra la respuesta que
se hubiese obtenido, en orden estándar, si los 1
-10 0 10
ocho experimentos se hubiesen podido rea- Efectos
lizar el primer día.
Nótese que tanto las respuestas de la Fig. 8.5 Efectos en papel probabilístico normal. Ejemplo del
tabla 8.19 como las de la tabla 8.21 se corres- proceso químico
ponden con éstas (tabla 8.20), para lo que
basta añadir 6 (el efecto bloque) a las
correspondientes a experimentos realizados el segundo día. Por supuesto, el efecto bloque también esta
sometido a variabilidad, y en la práctica nunca será un valor constante.
La tabla 8.21 muestra los resultados obtenidos, en el orden de realización de los experimentos,
al realizar el experimento en dos días diferentes y sin bloquear. 181
Con lo que los efectos resultan:

media = 43.5 AB = 1.0


A = 9.0 AC = 1.0
B = -1.0 BC = 9.0
C = -6.0 ABC = 0.0

Que representados en papel probabilístico normal proporcionan la figura 8.6.

NÚM. NÚM.
STD A B C RESP. STD A B C RESP. DÍA
1 -1 -1 -1 42 4 1 1 -1 46 1
2 1 -1 -1 49 6 1 -1 1 41 1
3 -1 1 -1 37 5 -1 -1 1 32 1
4 1 1 -1 46 3 -1 1 -1 37 1
5 -1 -1 1 32 8 1 1 1 50 2
6 1 -1 1 41 1 -1 -1 -1 48 2
7 -1 1 1 33 2 1 -1 -1 55 2
8 1 1 1 44 7 -1 1 1 39 2

Tabla 8.20 Matriz de diseño y respuesta si todos los Tabla 8.21 Matriz de diseño y respuesta, experimentos
experimentos se hubiesen realizado el primer día. Ejemplo realizados en días diferentes, sin bloquear. Ejemplo del
del proceso químico proceso químico

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Porcentaje

99

95
90 A

80 BC
70
60
50
40
30
20

10 C
5

1
-15 -10 -5 0 5 10 15
Efectos

Fig. 8.6 Efectos en papel probabilístico normal. Ejemplo químico realizado en dos días diferentes sin bloquear

Con lo que se hubiese llegado a la errónea conclusión de que los efectos significativos son el A,
el C y el BC.
182

8.5.3 Factoriales completos divididos en más de dos bloques

Si el experimento anterior se hubiese tenido que llevar a cabo en cuatro días en lugar de dos, el diseño
se hubiese tenido que dividir en cuatro bloques de dos experimentos cada uno. Veamos cómo hacerlo.
Para ello habrá que introducir dos generadores de bloque (en general para coseguir 2k bloques
se requieren k generadores de bloque):
1 = AB
2 = AC
Con lo que la matriz de diseño será la de tabla 8.22.
El criterio utilizado para asignar experi-
EXP. FACTORES 1 2 BLOQUE mentos a bloques es que aquellos que tienen los
NÚM. A B C AB AC mismos signos en los dos generadores de bloque
quedan incluidos en el mismo bloque.
1 -1 -1 -1 1 1 I
2 1 -1 -1 -1 -1 II Con estos generadores de bloques, la
3 -1 1 -1 -1 1 III relación de definición queda:
4 1 1 -1 1 -1 IV I = AB1 = AC2 = BC12
5 -1 -1 1 1 -1 IV
6 1 -1 1 -1 1 III Y, por tanto, el patrón de confusión es:
7 -1 1 1 -1 -1 II
8 1 1 1 1 1 I media AB + 1
A AC + 2
Tabla 8.22 Matriz de diseño de un 23 en cuatro bloques de dos B BC + 12
experimentos (un factor de bloqueo) C ABC

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

Hay varios aspectos destacables en este patrón de confusión:


En primer lugar que la interacción BC aparece confundida con 12, cuando se ha dicho que los
bloques no interaccionaban. La explicación es simple: entre los cuatro bloques definidos hay tres
grados de libertad (análogamente, en el caso anterior entre los dos bloques definidos había un grado de
libertad) y, por tanto, se requieren tres columnas para poder estimar sus efectos. Por tanto, 12 no define
una interacción entre bloques, sino que define un factor de bloqueo exactamente con las mismas
implicaciones que el factor 1 o el factor 2.
Por otra parte, se requiere que la interacción ABC no esté confundida con ningún efecto bloque.
Dejamos al lector que averigüe las consecuencias de utilizar la interacción triple como generador de
bloque. En este caso resulta sencillo hallar los generadores más apropiados, pero en general puede ser
un problema complejo; por ello en la sección 8.6 se proporcionan tablas (tabla 8.25) para facilitar el
bloqueo.
El diseño construido es de resolución III, ya que las interacciones de dos están confundidas con
efectos de un sólo “factor”, aunque en este caso sea de bloqueo. La resolución de los diseños
bloqueados es, como en los fraccionales, la
longitud del término más corto de la relación de
definición, con la única consideración de que en EXP. FACTORES 1 2 BLOQUE DÍA OPER.
los términos con interacciones entre factores de NÚM. A B C AB AC
bloqueo, éstas cuentan como un solo factor. Así, el 1 -1 -1 -1 1 1 I 1 A
término AC12 tiene longitud tres. 8 1 1 1 1 1 I
El diseño que acabamos de comentar sirve 2 1 -1 -1 -1 -1 II 2 A
7 -1 1 1 -1 -1 II
para acomodar un factor (día de realización del 3 -1 1 -1 -1 1 III 1 B
experimento) de bloqueo con cuatro niveles 6 1 -1 1 -1 1 III 183
(cuatro días diferentes). O bien, para acomodar dos 4 1 1 -1 1 -1 IV 2 B
factores de bloqueo (día de realización de 5 -1 -1 1 1 -1 IV
experimento y operario), cada uno de ellos a dos
niveles (dos días distintos, 1 y 2, y dos operarios, Tabla 8.23 Matriz de diseño de un 23 en cuatro bloques de
A y B). La tabla 8.23 muestra cómo hacerlo. dos experimentos (dos factores de bloqueo)

8.5.4 Fraccionales divididos en bloques

Hasta ahora hemos bloquedo diseños factoriales completos. La técnica es igualmente útil para bloquear
diseños factoriales fraccionales.
Cosidérese el caso en el que se desean estudiar 6 variables en cuatro bloques y solamente
dieciséis experimentos. Lo que se requiere es un diseño 26-2 divido en cuatro bloques. Los generadores,
que se pueden hallar en la tabla de la sección 8.6, son:
E = ABC
F = BCD
1 = ACD
2 = ABD
Se requieren dos generadores para el fraccional y dos para los bloques. Estos generadores se
podrían haber hallado por tanteo -lamentablemente no hay ninguna regla que permita hallarlos de
forma sencilla-, pero hubiese resultado tedioso.
En la tabla 8.24 aparece la matriz de diseño, ya dividida en bloques.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

NÚM. ABC BCD ACD ABD BLOQUE


STD A B C D E F 1 2
1 -1 -1 -1 -1 -1 -1 -1 -1 I
8 1 1 1 -1 1 -1 -1 -1
10 1 -1 -1 1 1 1 -1 -1
15 -1 1 1 1 -1 1 -1 -1
3 -1 1 -1 -1 1 1 -1 1 II
6 1 -1 1 -1 -1 1 -1 1
12 1 1 -1 1 -1 -1 -1 1
13 -1 -1 1 1 1 -1 -1 1
4 1 1 -1 -1 -1 1 1 -1 III
5 -1 -1 1 -1 1 1 1 -1
11 -1 1 -1 1 1 -1 1 -1
14 1 -1 1 1 -1 -1 1 -1
2 1 -1 -1 -1 1 -1 1 1 IV
7 -1 1 1 -1 -1 -1 1 1
9 -1 -1 -1 1 -1 1 1 1
16 1 1 1 1 1 1 1 1

Tabla 8.24 Matriz de diseño de un 26-2 en cuatro bloques de cuatro experimentos

La relación de definición es:


I =ABCE=BCDF=ACD1=ABD2 CONFUNDIDO CON CONFUSIONES
=ADEF=BDE1=CDE2=ABF1=ACF2=BC12 INTERACCIONES DE 3 O MÁS MÁS SERIAS
184 =CEF2=BEF2=AE12=DF12 media AB + CE
=ABCDEF A AC + BE
B BC + AE + DF + 12
Aparentemente el diseño es de resolución IV, C AD + EF
pero recuérdese que 12 es de longitud uno y, por tanto, D BD + CF
E CD + BF
los términos en los que aparece son de longitud tres, F AF + DE
por lo que el diseño es de resolución III. 1
El patrón de confusión que proporciona es: 2

Como se ve, las confusiones no están repartidas uniformemente. En otros diseños la


distribución puede ser mucho más irregular, por lo que, al asignar las variables del experimento a las
columnas de la matriz de diseño, es conveniente tener presente el patrón de confusión, y realizar la
asignación de manera que aquellos efectos que a priori parezcan más importantes les correspondan
confusiones más favorables.
Hallar los generadores que proporcionan diseños fraccionales bloqueados con máxima
resolución no es tarea sencilla, ya que desgraciadamente no existe una regla y se han de hallar por
tanteo. Por ello la tabla 8.25 de la sección siguiente proporciona los generadores para los diseños más
comúnmente utilizados.

8.6 Tablas de diseños fraccionales

En esta sección presentamos una tabla (tabla 8.25a y 8.25b) que proporciona los generadores para todos
los diseños factoriales, completos o fraccionales y bloqueados o no, que implican la realización de 8 ó
16 experimentos. Se han omitido de la tabla los diseños compuestos por cuatro experimentos, tanto por

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

razones de espacio como de sencillez de construcción. Los diseños con 32 experimentos requerirían una
tabla de gran tamaño, cuya inclusión no consideramos justificada dado lo infrecuente de su utilización.
La tabla proporciona un único conjunto de generadores. Obviamente se pueden utilizar las
reglas comentadas en el apartado 8.7 (a continuación) para, cambiando los signos de los generadores,
obtener fracciones complementarias.
Los generadores que aparecen son aquellos que proporcionan diseños con máxima resolución.
Incluso, en los casos en que para un diseño se pueden encontrar varios conjuntos de generadores que
producen la misma resolución, el conjunto suministrado es el que proporciona un patrón de confusión
más favorable. De tal manera que en muchas ocasiones, se pueden hallar conjuntos de generadores que
producen patrones de confusión del mismo tipo que el conjunto proporcionado, pero nunca mejor.

NÚM. DE EXPERIMENTOS

NÚM. 8 16
FACT. SIN 2 BLQ de 4 BLQ de SIN 2 BLQ de 4 BLQ de 4 8 BLQ de
BLQ 4 EXP. 2 EXP. BLQ 8 EXP. EXP. 2 EXP.
3 23 2 3IV 2 3IV

1=ABC 1=AB
2=AC
4
2 4IV−1 2 4III−1 2 4II−1 2 V4 2 4IV 2 4III
185
D=ABC 1=AB
D=ABC D=ABC 1=AB 1=ABC 2=BD
1=AB 2=AC 1=ABCD 2=BCD 3=BC
5 2 5III− 2 2 5III− 2 2 V5 −1 2 5IV−1 2 5III−1 2 5III−1

E=ABC
D=AB E=ABC 1=AB
D=AB E=AC E=ABC 1=BCD 2=BD
E=AC 1=BC E=ABCD 1=BCD 2=ACD 3=BC
6
2 6III− 3 2 6III− 3 2 6IV− 2 2 6IV− 2 2 6III− 2 2 6III− 2

E=ABC
D=AB E=ABC F=BCD
D=AB E=AC E=ABC F=BCD 1=AB
E=AC F=BC E=ABC F=BCD 1=ACD 2=BD
F=BC 1=ABC F=BCD 1=ACD 2=ABD 3=BC
7 2 7III− 4 2 7IV− 3 2 7IV− 3 2 7III− 3 2 7III− 3

E=ABC
E=ABC F=BCD
D=AB E=ABC F=BCD G=ACD
E=AC E=ABC F=BCD G=ACD 1=AB
F=BC F=BCD G=ACD 1=AB 2=BD
G=ABC G=ACD 1=ABD 2=BD 3=BC

Tabla 8.25a Diseños factoriales, completos y fraccionales, bloqueados y sin bloquear. Hasta siete factores con ocho y 16
experimentos

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

NÚM. 16 EXPERIMENTOS
FACT. SIN BLQ 2 BLQ de 8 EXP. 4 BLQ de 4 EXP. 8 BLQ de 2EXP.
8− 4 8− 4 8− 4
8 2 IV 2 III
2 III 2 8III− 4

E=ABC
E=ABC F=BCD
E=ABC F=BCD G=ACD
E=ABC F=BCD G=ACD H=ABD
F=BCD G=ACD H=ABD 1=ABCD
G=ACD H=ABD 1=ABCD 2=AB
H=ABD 1=ABCD 2=BC 3=AC
9 2 9III− 5 2 9III− 5 2 9III− 5

E=ABC
E=ABC F=BCD
E=ABC F=BCD G=ACD
F=BCD G=ACD H=ABD
G=ACD H=ABD J=ABCD
H=ABD J=ABCD 1=AB
J=ABCD 1=AB 2=AC
10 −6 −6
2 10
III
−6 2 10
III 2 10
III

E=ABC
E=ABC F=BCD
186 E=ABC F=BCD G=ACD
F=BCD G=ACD H=ABD
G=ACD H=ABD J=ABCD
H=ABD J=ABCD K=AB
J=ABCD K=AB 1=AC
K=AB 1=AC 2=AD
−7 −7 −7
11 2 11
III 2 11
III 2 11
III

E=ABC
F=BCD
E=ABC E=ABC G=ACD
F=BCD F=BCD H=ABD
G=ACD G=ACD J=AB
H=ABD H=ABD K=AC
J=ABCD J=ABCD L=AC
K=AB K=AB L=AD
L=AC L=AC 1=BC
I=AD 2=BD
−8 −8 −8
12 2 12
III 2 12
III 2 12
III

E=ABC
E=ABC F=BCD
E=ABC F=BCD G=ACD
F=BCD G=ACD H=ABD
G=ACD H=ABD J=ABCD
H=ABD J=ABCD K=AB
J=ABCD K=AB L=AC Tabla 8.25b Diseños factoriales,
K=AB L=AC M=AD completos y fraccionales, bloque-
L=AC M=AD 1=BC ados y sin bloquear. De ocho a 12
M=AD 1=BC 2=BD factores con 16 experimentos

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

En la tabla 8.25 aparece, además, la 13 FACTORES 14 FACTORES 15 FACTORES


resolución del diseño, lo que permite prever 13 − 9 −10 −10
2 2 14
III 2 15
el tipo de confusiones que proporciona un III III

diseño determinado. Este hecho es de gran E=ABC


importancia, ya que entonces se puede E=ABC F=BCD
decidir si es conveniente cambiar el número SIN
E=ABC F=BCD G=ACD
F=BCD G=ACD H=ABD
de factores (añadir o suprimir alguno), el BLQ
G=ACD H=ABD J=ABCD
número de bloques, o incluso si es posible H=ABD J=ABCD K=AB
disminuir el número de experimentos o J=ABCD K=AB L=AC
conviene aumentarlo, para conseguir el tipo K=AB L=AC M=AD
L=AC M=AD N=BC
de confusión deseada. M=AD N=BC O=BD
N=BC O=BD P=CD
−9 −10
2 13
III 2 14
III

E=ABC
2 E=ABC F=BCD
BLQ
F=BCD G=ACD
de G=ACD H=ABD
8 H=ABD J=ABCD
EXP.
J=ABCD K=AB
K=AB L=AC
L=AC M=AD
M=AD N=BC
N=BC O=BD
1=BD 1=CD 187

Tabla 8.25c Diseños factoriales, completos y fraccionales,


bloqueados y sin bloquear. De 13 a 15 factores con 16 experimentos

8.7 Estrategia secuencial utilizando diseños fraccionales

Los diseños fraccionales permiten explotar al máximo la estrategia secuencial en la experimentación


y, en muchas ocasiones, conseguir la información deseada con un menor número de experimentos
La idea de comenzar una investigación realizando un número de experimentos del orden del
40% del total disponible, adquiere especial relevancia cuando se conocen y utilizan los diseños
fraccionales. Ahora bien, la utilización de esta estrategia plantea la necesidad de saber, a la vista de las
conclusiones extraídas en un primer experimento, cuál es el siguiente experimento a realizar, de forma
que dé respuesta a las cuestiones que hayan quedado pendientes y se aprovechen los concimientos
adquiridos en el primero.
En esta sección comentamos una serie de cuestiones que, además de poder resultar de utilidad
al aplicar la estrategia secuencial, contribuirán, sin duda, a desarrollar una mejor comprensión de los
temas ya tratados.
Antes, sin embargo, queremos dejar constancia de que los caminos a seguir en una investigación
son múltiples y no hay ninguno que a priori se pueda considerar el mejor. Con frecuencia, sólo al
concluir la investigación se puede afirmar cuál hubiese sido el camino que, con menor esfuerzo, nos
hubiera conducido a las conclusiones correctas. Ésta es precisamente la justificación para la utilización
de la estrategia secuencial poder corregir el camino a medida que se avanza por él. Es por ello que lo

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

comentado en esta sección son cuestiones que pueden resultar de utilidad, pero que en ningún caso
pueden reemplazar la creatividad y los conocimientos sobre el sistema estudiado por el investigador.

8.7.1 Advertencias

Los métodos y técnicas que se exponen a continuación están basados en la idea de que el investigador
utilizará las mismas variables a los mismos niveles en la fracción añadida y en la original. Obviamente
esto no tiene por qué ser así. Es más, en la mayoría de ocasiones, el análisis de los resultados del primer
experimento permitirá descartar alguna variable, aconsejará cambiar los niveles de otras, o señalarán
la necesidad de incluir alguna nueva variable que inicialmente no se tuvo en cuenta. Cuando sea así,
se pueden analizar los resultados de cada experimento por separado y luego extraer conclusiones
conjuntas de todos ellos, pero si se deseasen analizar los resultados de todos los experimentos
conjuntamente, la forma de proceder es recurrir a la regresión lineal (método que queda excluido del
ámbito de este libro).
Siempre que, utilizando la estrategia secuencial, se realizen experimentos con el mismo sistema
de forma consecutiva, hay que tener en cuenta la posibilidad de que entre el primer y el segundo
experimento se hayan producido cambios en el sistema, quizá no detectados por el investigador, pero
que afecten a la respuesta. En otras palabras, hay que tener en cuenta la posible existencia de un efecto
bloque entre el primer y el segundo experimento.

188 8.7.2 Fracciones complementarias

En el ejemplo del tintado de fibras se vio que, combinando las dos medias fracciones (25-1), se
conseguía reproducir el diseño 25 completo. Y se comentó una manera fácil de obtener la media
fracción complementaria: cambiar de signo el generador. Esto es siempre posible, aun cuando los
diseños sean mucho más fraccionados. El procedimiento es sencillo: basta con cambiar de signo los
generadores del diseño fraccional original para obtener nuevas fracciones de la misma familia.
Según la notación empleada, un diseño 2k-p es una fracción 1/2p del diseño completo y su
construcción requiere p generadores. Pues bien, para generar las 2p fracciones que unidas reconstruyen
el diseño completo, basta con considerar que cada uno de los p generadores se puede escribir con signo
+ y con signo -, y escribir los 2p conjuntos de p generadores resultado de combinar los signos.
Veamos un ejemplo. Supongamos que tras realizar un 26-3 (los ocho experimentos de este diseño
representan 1/8 de los 64 experimentos del diseño completo)
con generadores:
FRACCIÓN GENERADORES D = AB
1 D=AB E=AC F=BC
E = AC
2 D=-AB E=AC F=BC F = BC
3 D=AB E=-AC F=BC obtenidos a partir de la tabla 8.25, se desea añadir ocho
4 D=AB E=AC F=-BC
experimentos más (una nueva fracción 26-3), de tal manera
5 D=-AB E=-AC F=BC
6 D=-AB E=AC F=-BC que juntas proporcionen un diseño 26-2. Además de la
7 D=AB E=-AC F=-BC fracción realizada inicialmente, hay otras siete fracciones
8 D=-AB E=-AC F=-BC que representan un octavo del diseño completo. En la tabla
8.26 aparecen los generadores que permiten construirlas.
Tabla 8.26 Los ocho conjuntos de tres gene- Considerando conjuntamente los ocho diseños que
radores que proporcionan diseños 26-3 proporciona la tabla 8.26 se obtendría un 26 completo.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

Con cualquier conjunto de generadores de los que aparecen en la tabla 8.26 conseguiríamos
nuestro propósito. Consideremos el de la fracción número 5. ¿Cúal sería la relación de definición del
diseño 26-2 resultante?
La relación de definición de la primera fracción es:
I = ABD = ACE = BCF = BCDE = ACDF = ABEF = DEF
La de la segunda fracción es:
I = -ABD = -ACE = BCF = BCDE = -ACDF = -ABEF = DEF
Para obtener la del diseño combinado, no hay más que recordar que cada término de la relación
de definición significa que, multiplicando los signos de las columnas de cada una de las letras que lo
compone, se obtiene una nueva columna sólo con signos más. Resulta entonces evidente que la
relación de definición del disño 26-2 obtenido será:
I = BCF = BCDE = DEF
Es decir, estará compuesta por aquellos términos que tengan el mismo signo en las relaciones
de definición de las dos fracciones.
El diseño 26-2 obtenido es, pues, de resolución III, mientras que, si se hubiese planificado de
entrada un 26-2 se hubiese podido escoger de resolución IV. Aunque no siempre, en muchas ocasiones éste
es el precio que se paga por el hecho de utilizar la estrategia secuencial. A cambio, no hay que olvidar
que la segunda fracción la hemos escogido entre siete posibles, y que cada una de ellas proporciona para
el diseño combinado una relación de definición diferente y, por tanto, un patrón de confusión diferente.
Como la elección se realiza sabiendo los resultados de la primera fracción, siempre se puede añadir una 189
segunda que proporcione un patrón de confusión conjunto para aclarar los puntos conflictivos.
Cuando se desea añadir una fracción para clarificar confusiones entre los efectos significativos
detectados en una primera fracción, hay unas reglas que pueden resultar de utilidad.
En los diseños de resolución III, al añadir una nueva fracción obtenida de la siguiente forma:
> Multiplicando por -1 (cambiar de signo) los signos de una columna correspondiente a una
variable, se obtiene un diseño combinado en el que esa variable y todas las interacciones de dos
en las que esté involucrada están confundidas con interacciones de orden superior.
Ejemplo: Considérese el caso del curvado 2 7III− 4 , en el que los generadores eran:
D = AB, E = AC, F = BC y G = ABC y la relación de definición:

I = ABD = ACE = BCF = ABCG


= BCDE = ACDF = CDG = ABEF = BEG = AFG
= DEF = ADEG = BDFG = CEFG
= ABCDEFG

que proporciona el patrón de confusión restringido:

A + BD + CE + FG
* B + AD + CF + EG
C + AE + BF + DG
D + AB + CG + EF
* E + AC + BG + DF
F + BC + AG + DE
* G + CD + BE + AF

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Se han marcado con un asterisco los que resultan significativos. A la vista de esto, las
interpretaciones posibles son:
- Los efectos activos son: B, E y G.
- Los efectos activos son: B, E y BE.
- Los efectos activos son: E, G y EG.
- Los efectos activos son: B, G y BG.
Para aclarar la situación se podría llevar a cabo una nueva fracción 27-4, cambiando los signos
de alguno de los tres efectos principales (B, E o G). Supongamos que cambiamos los de B. Los
generadores de la nueva fracción serían D = -AB, E = AC, F = -BC y G = -ABC, y la relación
de definición conjunta de las dos fracciones (obtenida tomando sólo aquellos términos que
tengan el mismo signo en las dos fracciones):
I = ACE = ACDF = CDG = AFG = DEF = ADEG = CEFG
que proporciona el siguiente patrón de confusión restringido (nótese que sólo aparecen 14
efectos. De los dos restantes, uno estima la media y sus confusiones, y el otro interacciones de
orden superior):
A + CE + FG AB
B AD + CF + EG
C + AE + DG BC
D + CG + EF BD
E + AC + DF BE
F + AG + DE BF
190
G + CD + AF BG
Obsérvese que se ha conseguido la propiedad deseada. Obsérvese también que, casi con toda
seguridad, se solventarían los problemas de interpretación planteados en la primera fracción.
> Multiplicando por -1 (cambiar de signo) los signos de todas las variables, se obtiene un diseño
combinado de resolución IV. Es decir, un diseño en el que los efectos principales sólo están
confundidos con interacciones de orden tres o superior.
Ejemplo: En el mismo caso del curvado, cambiando de signo todos los factores, la segunda
fracción tendría como generadores: D = -AB, E = -AC, F = -BC y G = ABC, y la relación de
definición del diseño combinado sería, por tanto:
I = ABCG = BCDE = ACDF = ABEF = ADEG = BDFG = CEFG
Con lo que claramente el diseño combinado es de resolución IV y proporciona el siguiente
patrón de confusión restringido (de nuevo aparecen únicamente catorce efectos, los dos
restantes estiman la media e interacciones de orden superior):
A AB + CG + EF
B AC + BG + DF
C AD + CF + EG
D AE + BF + DG
E BC + AG + DE
F BD + CE + FG
G CD + BE + AF
También este diseño hubiese servido para aclarar las dudas planteadas tras el analisis del
ejemplo del curvado.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

Como ya se ha comentado, estas reglas únicamente son aplicables a los diseños de resolución
III. En los diseños de resolución IV, las reglas son distintas. Al añadir una fracción de la siguiente
forma:
> Multiplicando por -1 (cambiar de signo) los signos de una columna correspondiente a una
variable, se obtiene un diseño combinado en el que todas las interacciones de dos en las que esa
variable esté involucrada están confundidas con interacciones de orden superior.
> Si todos los términos de la relación de definición son de longitud cuatro, multiplicar por -1
(cambiar de signo) los signos de todas las variables reproduce la fracción original y, por tanto,
no tiene ninguna utilidad. Ahora bien, si en la relación de definición, además de terminos de
longitud cuatro, hay términos más largos, entonces al cambiar de signo todas las columnas se
obtiene un diseño combinado de resolución superior a IV. Es decir, un diseño en el que las
interacciones de dos no están confundidas entre ellas.

8.7.3 Efecto bloque al añadir fracciones

Como ya se ha comentado, al añadir una segunda fracción hay que tener en cuenta la posible existencia
de un efecto bloque entre el primer y el segundo experimento.
Considérese de nuevo el ejemplo del tintado. En la sección 8.2 se describe un primer diseño 25-1
y en la sección 8.4 se describe cómo se le añade la fracción complementaria (un nuevo 25-1).
Recordando que para la estimación de la media utilizamos el símbolo I (la columna sólo con
+1), en la tabla 8.12 vemos que en las dos fracciones la media (I) está confundida con ABCDE. Pero
en forma distinta, ya que en la primera fracción es I + ABCDE y en la segunda es I - ABCDE. 191
Si se piensa que puede haber un efecto bloque entre las dos fracciones, lo que en realidad se
está pensando es que las dos medias pueden ser diferentes. Llamemos I1 a la de la primera fracción y
I2 a la de la segunda. Entonces la tabla 8.27 resume la situación y los efectos hallados (tomados de la
tabla 8.12).
El efecto bloque vendrá dado, en consecuencia, por la diferencia entre la media de la primera
fracción I1 y la media de la segunda I2 (efecto bloque = I1 - I2 ). Nótese que estará confundido con la
interacción ABCDE, ya que al hacer la diferencia entre la estimación de la primera y la segunda
fracción obtenemos:
(I1 - I2) + 2(ABCDE) = -0.4
no pudiendo separar el efecto bloque de la interacción ABCDE.
Por supuesto, si los diseños que se combinan están más fraccionados, el efecto bloque estará
confundido con más interacciones. Así, si consideramos el caso de combinar dos diseños 25-2,
tendríamos la situación de la tabla 8.28.

FRACCIÓN PATRÓN DE CONFUSIÓN EFECTO DISEÑO GENERADORES RELACIÓN DE DEFINICIÓN

10 I1 + ABCDE 7.3 1 25-2 D = AB, E = AC I1 = ABD = ACE = BCDE


20 I2 - ABCDE 7.7 2 25-2 D = AB, E =-AC I2 = ABD = -ACE = -BCDE

Tabla 8.27 Patrón de confusión (ejemplo del tintado)


considerando un posible efecto bloque entre las dos Tabla 8.28 Generadores y patrón de confusión de dos diseños 25-2
fracciones realizados secuencialmente

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Y por tanto el efecto bloque (I1 - I2) estaría confundido con las interacciones ACE y BCDE. De
hecho la confusión vendría dada por:
(I1 - I2) + 2(ACE) + 2(BCDE)

8.7.4 Adición de experimentos para conseguir clarificaciones puntuales

En ocasiones, tras la realización de un diseño fraccional, no se desea ni añadir variables, ni cambiar los
niveles, ni realizar una nueva fracción con todos los factores, sino realizar el mínimo de experimentos
que permitan aclarar algún aspecto (en general una confusión) que haya quedado oscuro, o simplemente
confirmar frente a una confusión que el responsable de la significación es el efecto sospechado.
Se ha comentado ya que cada experimento realizado supone un grado de libertad y permite, en
consecuencia, estimar un efecto. Ello significa que si
únicamente se desea eliminar la confusión entre dos efectos,
PATRÓN DE CONFUSIÓN EFECTO con un experimento que permita estimar uno de ellos libre de la
media 44.2 confusión con el otro tendríamos suficiente para conseguir
B+AD+CF+EG 6.1 nuestro propósito. En la práctica necesitaremos dos
E+AC+BG+DF -5.3 experimentos adicionales, ya que utilizaremos uno de los
G+CD+BE+AF 8.4 grados de libertad para estimar un posible efecto bloque.
Consideremos de nuevo el ejemplo del curvado. Tras el
Tabla 8.30 Efectos significativos, con sus análisis se había hallado que los efectos significativos eran los
192 confusiones, en el ejemplo del curvado de la tabla 8.30.
Si aceptamos la idea de que es muy difícil que la
interacción de dos factores sea significativa sin que lo sean los efectos principales de los factores que
la componen (apéndice 8.2), la explicación más creíble -ya comentada en elapartado 8.4- es que los
responsables sean los factores B, E y G, o sus interacciones.
Frente a esta situación hay muchas maneras de proceder para resolver las dudas. Algunas de
ellas son:
> Añadir una nueva fracción 27-3 como se ha comentado en este mismo apartado.
> Experimentar con estas tres variables (23), manteniendo o no los niveles.
> Experimentar con dos de estas tres variables, realizando un 22 completo.
> Experimentar con estas tres variables más alguna nueva que haya podido surgir en el transcurso
de la investigación.
> Añadir el mínimo número de experimentos que permitan clarificar la situación.
En cada caso el investigador deberá escoger entre estas y otras opciones aquella que mejor se
adapte a sus necesidades.
Supongamos que en este caso la escogida es la última, sin que ello signifique que sea la mejor
opción. De hecho, en este caso concreto, realizando un 22 completo con dos variables de las tres
implicadas, se obtiene el mismo número de experimentos y una mayor sencillez de análisis. De todas
formas, el objetivo es describir un procedimiento que sea general y aplicable a muchas otras
situaciones.
Como se desean deshacer tres confusiones (B+EG, E+BG y G+BE), el mínimo número de
experimentos que permite clarificar la situación (permitiendo detectectar la posible existencia de un
efecto bloque) es de cuatro. Se podrían haber deshecho todas las confusiones existentes entre los
efectos significativos, pero esto hubiese requerido 10 experimentos.
Para escoger estos cuatro hay que tener en cuenta dos cuestiones:

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

> Que los efectos que se desea desconfundir tengan signos (niveles) diferentes.
> Que considerando la totalidad de experimentos (los ya realizados y los que se añaden), la matriz de
diseño sea lo más ortogonal posible.
En general, no será ortogonal, pero
algunas elecciones proporcionan A C D F B E G BE BG EG
correlaciones entre los coeficientes 1 1 1 1 -1 -1 1 1 -1 -1
menores (“matriz más ortogonal”) 1 1 1 1 1 -1 1 -1 1 -1
que otras (“matriz menos ortogonal”). 1 1 1 1 -1 1 1 -1 -1 1
Así, en el caso que nos ocupa, un 1 1 1 1 1 1 1 1 1 1
posible conjunto de cuatro experimentos
que cumple la primera cuestión es el de la Tabla 8.31 Cuatro experimentos para deshacer las confusiones.
tabla 8.31. Caso del curvado

Nótese que las cuatro variables, A, C, D y F, que habían resultado inertes, se mantienen
constantes, en este caso al nivel alto. En general, se mantendrán a aquel nivel que resulte más
económico o conveniente.
También conviene destacar que no debe preocupar el hecho de que, en los experimentos
añadidos, haya confusiones entre los efectos. Como el número que se añade suele ser muy pequeño,
este hecho es inevitable. A este respecto, lo único importante es que las columnas correspondientes a
los efectos entre los que se desea eliminar la confusión tengan signos distintos. En la tabla 8.31 resulta
fácil comprobar que esto ocurre y que, por supuesto, los signos de BE, BG y EG se han obtenido
multiplicando convenientemente los de B, E y G.
Sin embargo, es posible añadir cuatro experimentos que permiten estimar los efectos de interés 193
con menor correlación entre ellos. En la tabla 8.32 aparecen estos cuatro experimentos.

A C D F B E G BE BG EG RESP.
1 1 1 1 -1 -1 -1 1 1 1 45.5
1 1 1 1 1 -1 1 -1 1 -1 43.1
1 1 1 1 -1 1 1 -1 -1 1 33.0
1 1 1 1 1 1 -1 1 -1 -1 46.4

Tabla 8.32 Cuatro experimentos adicionales que producen estimaciones


poco correlacionadas. Caso del curvado

La correlación entre B y EG, E y BG, y G y BE es menor, ya que en los cuatro experimentos


añadidos los signos de estas tres parejas de columnas (que en los ocho experimentos iniciales eran
exactamente iguales) son totalmente contrarios. No siempre es posible conseguirlo completamente,
pero conviene tener en cuenta que las columnas entre las que se desea eliminar la confusión tengan el
máximo número de signos opuestos en los experimentos añadidos.
En la tabla 8.32 aparece, además, la respuesta correspondiente a los cuatro experimentos que,
por ser más ortogonales, se realizaron. El problema que surge es cómo incorporarlos a los ocho
anteriores para obtener una estimación de los efectos de interés. Esto se puede conseguir siempre (si
bien en aquellos casos en que la correlación entre los efectos sea muy elevada, se pueden plantear
problemas de cálculo al invertir la matriz X’X) por el método de los mínimos cuadrados (en el
apéndice 7A aparece una breve descripción).
Un método alternativo es plantear un sistema de ecuaciones con la información disponible.
De los ocho primeros experimentos hemos aprendido que los factores A, C, D y F son inertes y que:

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

B + EG = 6.1
E + BG = -5.3
G + EB = 8.4

A partir de los cuatro experimentos adicionales podemos plantear las cuatro ecuaciones
siguientes:
I2 + 1/2(- B - E - G + BE + BG + EG) = 45.5
I2 + 1/2(+ B - E + G - BE + BG - EG) = 43.1
I2 + 1/2(- B + E + G - BE - BG + EG) = 33.0
I2 + 1/2(+ B + E - G + BE - BG - EG) = 46.4

donde I2 representa la media de este segundo bloque de cuatro experimentos añadidos y los efectos
están multiplicados por 1/2 para que, tal como se explica en la sección 7.7, representen lo que cambia
la respuesta al cambiar una unidad el nivel.
Resolviendo el sistema planteado de siete ecuaciones con siete incógnitas, se obtiene que:
I2 = 42.00
B = 5.80
E = -4.95
G = 0.25
BE = 8.15
BG = -0.35
EG = 0.30
194
Y, por tanto, la confusión queda deshecha, ya que claramente los efectos significativos son el B
(presión del seguidor), el E (velocidad del eje b) y su interacción. La media de los primeros ocho
experimentos era I1 = 44.2, por lo que no está claro si se ha producido un descenso de nivel o puede
ser atribuible al ruido, pero en cualquier caso no afecta a las conclusiones.
En este ejemplo no había, tras los primeros experimentos, ningún efecto no confundido que
fuese significativo. Si lo hubiese habido naturalmente se tendría que haber incorporado a las
ecuaciones. Por ejemplo, si el efecto de A hubiese sido 12, en las ecuaciones hubiese tenido que
añadirse un término 1/2(A), es decir, 6. Con signo + en aquellas ecuaciones correspondientes a
experimentos en los que A hubiese estado a nivel alto (todos en este caso) y signo - en caso caso
contrario. Entonces cobra sentido incorporar I2 a las ecuaciones, ya que en el ejemplo descrito, el valor
de I2 coincide con el promedio de los cuatro experimentos añadidos.

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

Apéndice 8A Teoría de la proyección

Se ha comentado en la sección 8.1 que una de las justificaciones para la utilización de los diseños
fatoriales fraccionales es el cumplimiento del principio de Pareto respecto al tamaño de los efectos. El
principio es aplicable a la situción, frecuente en la industria, de tratar de encontrar entre los muchos
factores que pueden afectar a una respuesta los pocos que, en general, la afectan apreciablemente. En
estos casos se suelen utilizar diseños altamente fraccionados (de resolución III), que provocan patrones
de confusión complejos.
Relacionada con este principio está la teoría de la proyección de diseños fraccionales. En
esencia, esta teoría dice que, cuando tras realizar y analizar un diseño fraccional con k factores, uno
resulta inerte, es como si se hubiese realizado un experimento con solo k-1 factores (y el mismo
número de experimentos) y, por tanto, se hubiese utilizado un diseño menos fraccionado.
Para ver con más detalle la idea de proyección, supongamos que de los k factores considerados
sólo un subconjunto pequeño de tamaño d desconocido, cuya identidad también es desconocida, serán
activos (producirán efectos principales e interacciones apreciables) y que los restantes k-d serán inertes.
En estos casos, si se trabaja con diseños 2k-p y al analizar los resultados se comprueba que varios
factores son inertes, el diseño resultante en los factores activos puede tener un patrón de confusión
mucho más favorable que el diseño original.
Como ilustración consideremos el caso de un 23-1 con factores A, B y C. Si una de las tres
variables resulta ser inerte, cualesquiera que sea, el diseño proporciona un diseño 22 completo en las
dos variables activas (ver figura 8A.1).
Sobre la relación de definición, el efecto de eliminar un factor que ha resultado ser inerte es el
de suprimir todos los términos en los que éste aparecía. Así, en el 23-1 la relación de definición es I = 195
ABC, por lo que al eliminar cualquier factor la relación de definición desaparece, indicando que el
diseño “proyección” es un factorial completo.
En general al proyectar (eliminar los factores que han resultado inertes) se pueden obtener
diseños factoriales fraccionales (replicados o no) o diseños factoriales completos (replicados o no),
dependiendo del diseño de partida y de los factores que
resulten inertes.
Los diseños de resolución R se proyectan como
factoriales completos en cualquier subconjunto de R-1
factores. Así:
> el 23-1 es de resolución III y se proyecta como un
completo en cualquier subconjunto de dos
variables.
> un 27-3 de resolución IV se proyecta como un
factorial completo 23 (replicado) en cualquier
subconjunto de tres variables.
> un 215-11 de resolución III se proyecta como un
factorial completo 22 (replicado cuatro veces) en
cualquier subconjunto de dos variables.
De hecho, es posible ir más allá de lo enunciado,
ya que este mismo diseño 215-11 se proyecta como un
factorial completo 23 (replicado) en 420 de los 455
subconjuntos posibles de tres variables, y como un
factorial completo 24 en 840 de los 1365 subconjuntos Fig. 8A Proyección de un diseño 23-1 en tres
posibles de cuatro variables. diseños 23 completos

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

El problema que se plantea en todo lo expuesto es que, al proyectar un diseño altamente


fraccionado, se está dando por supuesto que los factores cuyo efecto principal no es importante no
interaccionan con los demás. Recuérdese que las interaccionas de dos factores estarán, en general
(resolución III), confundidas con los efectos principales y, por lo tanto, es obligado admitir que son
indistinguibles del ruido sin ningún tipo de comprobación, si se desea eliminar ese factor.
Por este motivo, la teoría de la proyección resulta más util como justificación para la utilización
de diseños fraccionales que como herramienta práctica al analizarlos. A continuación, en el apéndice
8B, se expone una posible justificación para su utilización en la práctica.

Apéndice 8B Significación de las interacciones de dos factores

Al interpretar los resultados de diseños factoriales fraccionales, especialmente si son de resolución


inferior a V, se plantea el problema de tener que decidir si es factible que una interacción de dos
factores que esté confundida con otras interacciones de dos o incluso con algún efecto principal sea
significativa.
Una consideración que puede ayudar a resolver las
+1 X3 X4 dudas es la siguiente: es raro que aparezca una interacción
de dos factores significativa sin que lo sea por lo menos uno
FACTOR B

de los efectos principales de los dos factores que la


componen, y extremadamente raro sin que los sea ninguno
de ellos.
196 Veamos estas dos situaciones a través de un ejemplo
+2
X1 X2 sencillo. Supongamos que al representar la interacción de
dos factores A y B obtenemos el gráfico de la figura 8b.1,
donde X1, X2, X3 y X4 representan la media de las respuestas
-1 FACTOR A +1
obtenidas bajo las condiciones de A y B indicadas.
A la vista del gráfico, está claro que los efectos son:
Fig. 8B

− X1 + X 2 − X3 + X 4
A=
2

− X1 − X 2 + X3 + X 4
B=
2

X1 − X 2 − X3 + X 4
AB =
2

Y, por lo tanto, para que A = 0 y AB ≠ 0, se debe cumplir que:

X2 + X4 = X1 + X3
X1 + X4 X2 + X3

Cosa que ocurre, por ejemplo, cuando:

© los autores, 1998; © Edicions UPC, 1998.


π DISEÑOS FACTORIALES FRACCIONALES

X1 = 50 10 20
X2 = 40
X3 = 10
50 40
X4 = 20

Estos casos son relativamente raros. Ya que, además de que el efecto de una variable tiene que
cambiar de signo al cambiar el nivel de la otra, éstos se han de compensar. Piénsese en la forma de la
superficie de respuesta que valores de este tipo implican.
Con todo, el caso anterior se presenta en la práctica con cierta frecuencia, incluso mayor de lo
que la intuición parece indicar. Lo que es extremadamente raro es el segundo caso mencionado, es
decir, que ninguno de los dos factores tenga efecto significativo y sí lo tenga su interacción. Para que
esto ocurra (A=0, B=0 y AB0) debe suceder que:

X2 + X4 = X1 + X3
X1 + X2 = X3 + X4
X1 + X4 X2 + X3
Cosa que ocurre, por ejemplo, cuando:

X0 = 50 10 20
X1 = 40
X2 = 10
50 40
X3 = 20
197
Como se ve, esto implica haber escogido los niveles de las variables de forma tal que la zona
de la superficie de repuesta hallada sea realmente particular.
Estos criterios han sido los utilizados en el ejemplo del curvado de la sección 8.4 para decidir
cuáles eran las interpretaciones más probables de los resultados hallados.

© los autores, 1998; © Edicions UPC, 1998.


9
Introducción a la metodología
de superficie de respuesta

En los capítulos 7 y 8 se han expuesto las técnicas de diseño y análisis de experimentos, que permiten
al experimentador seleccionar aquellos factores que influyen en una determinada característica de
calidad, y los niveles de los mismos que optimicen tal característica en la región donde se haya
experimentado.
En la práctica, el experimentador desea extender estos objetivos a otras regiones de
experimentación y se pregunta: ¿qué factores influyen en la característica en general?, ¿cuál es la
región óptima?, ¿cómo se relacionan los factores con la respuesta en esta región? 201
En este capítulo presentaremos técnicas que comprenden lo que se denomina metodología de
superficie de respuesta (MSR), que permitirán encontrar la región de interés y contestar a las anteriores
preguntas en esta región.

9.1 Introducción. Necesidad de los modelos

Uno de los deseos más fuertes que a lo largo de la historia ha mostrado la humanidad es el de modelar
la realidad, es decir, el de encontrar funciones matemáticas que expliquen los distintos fenómenos de
índole física, social, económica, etc.
Este deseo de encontrar modelos responde principalmente a las dos aplicaciones más
inmediatas que se pueden derivar de ellos:
a) La capacidad de predecir o explicar el valor de cierta respuesta Y una vez conocidos los valores
de ciertas variables X1, X2,..., Xk.
b) El hecho de poder seleccionar aquellas condiciones de los factores X1, X2,..., Xk que permitan
optimizar la respuesta Y.
Aunque, como veremos en el capítulo 10, conocer el modelo ayuda también a:
c) Determinar aquellas condiciones de los factores X1, X2,..., Xk en que la respuesta sea más robusta
o insensible al efecto de variaciones en factores que no son controlados por el experimentador
(tales factores se denominan factores ruido).
En la práctica, es muy difícil intentar resolver este problema de buscar un modelo único, si no
utópico. En su lugar, se intenta aproximar tales relaciones de forma local a través de funciones
polinómicas de primer y segundo orden. Además, el análisis de estas aproximaciones permitirá, como
se verá más adelante, localizar la región óptima de una manera secuencial.

© los autores, 1998; © Edicions UPC, 1998. Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del "copyright", bajo las sanciones
establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento
informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para su
distribución y venta fuera del ámbito de la Unión Europea.
MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

La figura 9.1 refleja la utilidad del uso de


aproximaciones locales para abordar la relación
teórica de la respuesta. En esta figura se ha
representado con curvas de nivel una supuesta
relación entre cierta característica Y, y dos
factores ξ1 y ξ2, en un amplio rango de
variación de estos dos factores. Aunque la
mejor función que expresa tal relación en toda
la región es una función complicada, en la
región R1 podría aproximarse dicha relación
mediante un modelo lineal, ya que el incre-
mento de la respuesta parece ser lineal en tal
región. Sin embargo, en la zona R2 cercana al
máximo, la superficie ya presenta evidencia de
curvatura y, por lo tanto, la aproximación local
se ha de hacer con modelos que incluyan térmi-
Fig. 9.1 Relación entre una característica Y con dos factores ξ1 nos cuadráticos.
y ξ2 a través de las curvas de nivel En la práctica, generalmente nunca se
obtendrá “el modelo” que rige la relación
existente para cualquier combinación de los factores, sino que se obtendrán aproximaciones locales a
tal modelo en diferentes regiones de los factores.

202
GRADO DE
DESCONOCIMIENTO OBJETIVO NOMBRE DESCRIPTIVO ESTADO

• Determinar el subconjunto ξ de las Eliminación de variables


f variables importantes de un con-
 
ξ  junto X grande de variables poten- Diseños factoriales fraccionales
CUÁL
θ  cialmente importantes
 
• Determinar empíricamente los Construcción del modelo empírico
efectos de las variables conocidas Diseño de experimentos
f • Determinar una aproximación de
CÓMO
 
θ  f( ξ , θ ) mediante interpolación local Metodología de superficie de
g( X, β) respuesta

• Determinar f Construcción de un modelo


f  • Determinar θ mecanicista POR QUÉ
 
θ 
Estimación de un modelo
mecanicista
θ

Tabla 9.1 Grado de conocimiento y objetivos en las diferentes etapas de la investigación

9.2 Grado de conocimiento y objetivos

Los modelos pueden ser, atendiendo al método que se siga para obtenerlos, mecanicistas o
empíricos (este tema fue anteriormente tratado en el apartado 7.1 del capítulo 7). En los primeros
se utilizan leyes físicas especializadas en el dominio concreto para seleccionar la estructura del

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

modelo y, en general, es necesario estimar los parámetros que en ellos aparecen a través de la recogida
de datos.
Cuando no se tiene conocimiento teórico de la estructura del modelo, se hace una
aproximación de forma empírica con los datos obtenidos en la experimentación. Tal experimentación
se ha de realizar de una forma secuencial y con una metodología que dependerá del grado de
conocimiento que se tenga del problema. Este conocimiento ayudará en la selección de un modelo
que se ajuste a la respuesta y en la selección del diseño a realizar para poder estimar todos los
parámetros de interés.
La tabla 9.1 presenta la relación existente entre el grado de conocimiento que se tiene de un
problema, los objetivos en cada instante y la metodología estadística que se lleva a cabo para conseguir
tales objetivos.
A la etapa de selección de variables y estimación de sus efectos se han dedicado los capítulo 7
y 8 de este libro y a ellos remitimos a aquellos lectores que deseen ampliar estos puntos.
En una primera etapa experimental, los métodos que se denominan metodología de superficie
de respuesta utilizan la experimentación para lograr principalmente tres objetivos:
> Encontrar un modelo capaz de explicar la relación existente entre cierta respuesta seleccionada
y determinados factores en una región de interés.
> Localizar las condiciones óptimas de los factores de experimentación para la respuesta (las
condiciones que hagan máxima la respuesta, por ejemplo).
> Realizar un estudio geométrico de la relación existente entre la respuesta y los factores en la
región óptima, por medio del análisis canónico del modelo estimado.
El logro de tales objetivos está ligado a las características que definen la MSR. En primer
lugar, es una metodología secuencial: la aproximación a la región de interés se realiza de forma 203
iterativa utilizando diseños cada vez más complejos dependiendo de la información que se obtiene en
cada etapa.
En segundo lugar, el método de trabajo que se utiliza es el descrito en el ciclo PDCA (ver el
apartado 1.2.2 del capítulo 1), que consiste esencialmente en plantear un modelo tentativo, seleccionar
un diseño que permita estimar los parámetros de interés, analizar los datos y verificar si el modelo
planteado es adecuado.

9.3 Estrategias de la metodología de superficie de respuesta

La metodología de superficie de respuesta contiene toda una serie de estrategias que el investigador
puede seguir para estimar el modelo, f(ξ,θ), que relaciona la respuesta de interés Y con los factores ξ
lo más adecuadamente posible, con el mínimo coste de experimentación. El investigador actúa como
un detective buscando las pistas que le lleven a la resolución del problema. Tales pistas son obtenidas
a través de la información que proporciona la experimentación secuencial.
Al comienzo de la experimentación se puede conocer poco del problema y en tal caso es
razonable suponer que la región donde se comienza a experimentar está lejos de la región óptima. Si
es así, una aproximación suficientemente buena a f(ξ,θ) es la que se obtiene con modelos lineales de
primer orden estimados a partir de diseños factoriales fraccionales a dos niveles.
Por el contrario, cuando se tiene un conocimiento más preciso sobre la relación existente, o se
está próximo a la región óptima, el experimentador se aproxima a la relación f(ξ,θ) mediante modelos
de segundo orden estimados a partir de diseños más complejos.
Por lo tanto, distinguiremos entre dos tipos de estrategias:

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

> Estrategias de primer orden:


Diseño 2k-p
Estimación por mínimos cuadrados1
Modelos de primer orden Y = β 0 + β1 X 1 + β 2 X 2 + ε
Mapas de contornos o curvas de nivel
Camino de máximo ascenso o steepest ascent
> Estrategias de segundo orden:
Diseño central compuesto
Estimación por mínimos cuadrados
Modelos de segundo orden Y = β 0 + β1 X 1 + β 2 X 2 + β11 X 12 + β 22 X 22 + β12 X 1 X 2 + ε
Mapas de contornos y análisis canónico
En la primera etapa, a la vez que se emplean los diseños 2k-p, se pueden llevar a cabo otras
acciones propias de los comienzos de la experimentación, tales como borrar o añadir factores en el
diseño, cambiar la escala de variación de los factores, replicar para una mejor estimación del error
experimental, añadir fracciones para romper las confusiones, etc. Estas acciones, representadas
gráficamente en la figura 9.2, tienen en común que, utilizadas adecuadamente, ayudan a salir de
diversas situaciones de incertidumbre.

204

Figura 9.2 Algunas acciones que se llevan a cabo con más frecuencia durante las primeras etapas de la
experimentación. (A: Borrar o añadir factores; B: Cambiar la escala; C: Replicar y D: Añadir fracciones )

Por otra parte, en cada momento existen métodos de chequeo que permitirán comprobar si el
modelo lineal de primer orden es suficientemente bueno, o detectar una evidencia de curvatura en la
respuesta. Este hecho implicará la selección de modelos de segundo orden y, por tanto, estrategias de
segundo orden.
En cuanto al modelo matemático a utilizar para aproximar f(ξ,θ), se emplearán funciones
polinómicas g(X,β) de primer o segundo grado, las cuales pueden ser interpretadas como las resultantes
de hacer el desarrollo de Taylor de f(ξ,θ) alrededor de (0,0), centro de la experimentación en unidades
codificadas, cortando el desarrollo en los términos de primer o segundo grado respectivamente.
Estos polinomios tienen la siguiente estructura para el caso particular de dos factores:

( )
r
g x, β = β 0 + β1 X 1 + β 2 X 2 + ε (9.1)

1 La estimación de los efectos en diseños 2k-p tal como se ha realizado en los capítulos 7 y 8 utilizando la regla de los signos
o el algoritmo de Yates, es equivalente a la estimación por mínimos cuadrados.

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

para los modelos de primer orden, y

( )
r
g x, β = β 0 + β1 x1 + β 2 x 2 + β12 x1 x 2 + β11 x12 + β 22 x 22 + ε (9.2)

para los modelos de segundo orden. En ambos, ε representa el efecto de aquellos factores que no se
han tenido en cuenta en la experimentación o el efecto de aquellos presentes en el estudio, pero cuyo
efecto no se ha podido recoger adecuadamente con el modelo seleccionado.
Los modelos de segundo orden necesitan más experimentos para ser estimados y sólo se recurre
a ellos cuando existe evidencia de curvatura en el modelo y, por lo tanto, la aproximación lineal no es
adecuada. Para poder detectar la curvatura, a los diseños de primer orden 2k-p se les añaden puntos
centrales, los cuales, como se verá en el apartado 9.4, permitirán realizar un test de curvatura.
Aquellas regiones de experimentación en las que la superficie no presenta evidencia de
curvatura son interpretadas como regiones lejanas a la zona óptima y, una vez más, existe una
estrategia consistente en acercarse lo más rápidamente a esta zona a lo largo de la dirección de máximo
cambio de la respuesta. La figura 9.3 presenta las dos
últimas estrategias para k=2 factores.
Por último, una vez se detecta la cercanía de la
región óptima, se pasa a la utilización de estrategias de
segundo orden. Una de ellas consiste en la selección de
un diseño de segundo orden apropiado que permita una
buena estimación de un modelo cuadrático.
Los diseños más utilizados son los “diseños
centrales compuestos” que aparecen en la figura 9.4, 205
obtenidos al añadir un “diseño estrella” a un diseño
factorial. Las características de estos diseños en cuanto
a los niveles en que se han de colocar los factores,
propiedades de las estimaciones obtenidas, etc., se
estudiarán más adelante en el apartado 9.5.
Una vez obtenida una aproximación cuadrática
que se ajuste a la superficie, es conveniente realizar un
análisis canónico del modelo resultante para interpretar
Fig. 9.3 Estrategias de experimentación. A) Añadir
de manera sencilla la geometría de la superficie puntos centrales para detectar curvatura. B)
estimada en la región de experimentación y obtener Experimentar a lo largo del camino de máximo
información que pueda ser útil para sugerir posibles crecimiento o decrecimiento
explicaciones teóricas del problema.

Fig. 9.4 Diseño central compuesto formado al añadir un “diseño estrella”


a un diseño 2k-p

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

En lo que queda de capítulo se van a desarrollar las diferentes estrategias presentadas en este
apartado, aplicadas en un ejemplo particular, el de la fundición de una determinada pieza de aluminio
por inyección.
El apartado 9.4 se dedica a las estrategias secuenciales de primer orden, los test de curvatura y
los métodos de selección del modelo lineal. A continuación, en el apartado 9.5 se presenta la técnica
del camino de máximo ascenso (descenso).
En el apartado 9.6 aparecen las estrategias de segundo orden, la estimación del modelo
cuadrático y los test que permiten la comprobación de la validez del modelo obtenido.
Finalmente, el apartado 9.7 está dedicado al análisis canónico de la superficie obtenida. En este
mismo apartado se incluirá la clasificación canónica de las superficies en función de su modelo
canónico.

9.4 Aproximación lineal a las condiciones óptimas

El presente ejemplo trata de un proceso de fundición de tapas de aluminio por inyección, en el que se
intenta minimizar el índice de porosidad encontrado en ellas. Tal índice es obtenido mediante un
método estándar a través de rayos-X. Al parecer la temperatura del aluminio líquido y la presión con
que éste se inyecta en el molde afectan al índice de porosidad de la placa resultante.
Los objetivos de la experimen-
tación son encontrar unas condi-
ciones óptimas de trabajo en las
206 cuales la porosidad sea mínima, y
estimar la relación existente entre
el índice de porosidad con la
temperatura y la presión, en una
región próxima a las condiciones
óptimas.
Los conocimientos que sobre
el tema tienen los técnicos del
proceso recomiendan no trabajar con
temperaturas externas al intervalo
600-900 ºC ni con presiones por de-
bajo de 700 Kg/cm2. Tales restriccio-
nes definen la región de operabilidad.
En la figura 9.5 se presentan
las estrategias de primer orden que
se seguirán en este ejemplo. En
primer lugar se plantea la hipótesis
sobre el modelo que mejor apro-
xima la respuesta en la zona de
experimentación de partida. Puesto
que estamos en los comienzos de la
experimentación y poco conoce-
mos, se asume que las condiciones
Fig. 9.5 Estrategias de primer orden en el ejemplo de la porosidad en tapas de óptimas no tienen por qué estar
aluminio próximas y que, por lo tanto, la

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

superficie de respuesta puede ser aproximada TEMPERATURA PRESIÓN ÍNDICE DE


mediante un modelo de primer orden. (ºC) (kg/cm2) POROSIDAD
Para estimar tal modelo se selecciona un -1 (640) -1 (950) 6.09
diseño 22 con dos puntos centrales tal como aparece +1 (660) -1 (950) 5.53
en la tabla 9.2.
-1 (640) +1 (1.000) 6.78
Los puntos centrales permitirán comprobar
+1 (660) +1 (1.000) 6.16
mediante un test de curvatura que se presenta en
(9.13), si el modelo de primer orden es adecuado 0 (650) 0 (975) 5.93
o, por el contrario, se necesita un modelo de se- 0 (650) 0 (975) 6.12
gundo orden.
Además, el hecho de tener réplicas (en este Tabla 9.2 Resultados de un primer experimento con
caso para 650ºC y 975 Kg/cm2) permite obtener una llantas de aluminio. Entre paréntesis figuran las unidades
estimación de σ2 independiente del modelo selec- originales de los factores
cionado. Tal estimación puede ser comparada con la
estimación obtenida a través de los residuos del modelo mediante un test de comparación de varianzas,
tal como se vio en el apartado 4.12 del capítulo 4. En el caso de que ambas estimaciones difieran
significativamente, tendremos la prueba de que el modelo propuesto no se ajusta bien a la superficie y
tendremos que pensar en transformar los datos o en aproximaciones cuadráticas.
El diseño anterior permite estimar los parámetros de un modelo como el presentado en (9.1) que
puede ser expresado en forma matricial como:
Y = Xβ+e (9.3)
donde Y corresponde al vector de observaciones, X es la matriz de diseño, β es el vector de los 207
parámetros del modelo y ε es el vector de errores. Para el ejemplo que nos ocupa:

6.09 1 −1 −1
5.53  1 1 −1
    β 0 
6.78 1 −1 1 
= β 1 
(9.4)
Y =  , X =  , β
. 
616 1 1 −1 β 2 
5.93  1 0 0
   
612
.  1 0 0

La estimación mínimo cuadrática de los coeficientes del modelo en 9.3 se puede realizar
empleando las técnicas de regresión lineal, lo cual equivale a resolver la ecuación siguiente:

b = β$ = ( X ' X ) −1 X ' Y Varianza (b) = σ$ 2 ( X ' X )


−1
(9.5)

con

 1/ 6 1/ 6 1/ 6 1 / 6 1 / 6 1 / 6
− 1 / 4 0 
(X' X) −1
X' =  1/ 4 −1/ 4 1/ 4 0 (9.6)
 − 1 / 4 − 1 / 4 1/ 4 1/ 4 0 0 
obteniéndose los resultados

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

 6.10  0.045
b =  − 0.29  Desv. estandar (b) = 0.055 (9.7)
   
 0.33  0.055
y, por lo tanto, todos los coeficientes significativos.
En esta etapa, y tal como aparece en la figura 9.5, se ha de comprobar si existe alguna prueba
de que el modelo lineal estimado no sea una buena aproximación a la respuesta y se necesiten modelos
más complejos, es decir, modelos cuadráticos.
Ello equivale a plantear el siguiente test:
> H0 = Modelo esperado: y = β 0 + β 1 x1 + β 2 x 2 + ε
> H1 = Modelo “temido”2: y = β 0 + β1 x1 + β 2 x 2 + β12 x1 x 2 + β11 x12 + β 22 x 22 + ε
o en forma matricial
> H0 = Modelo esperado: Y = X β +ε
> H1 = Modelo “temido”: Y = X β +Zγ +ε (9.8)
donde Z corresponde a la matriz de términos cuadráticos y γ al vector de sus coeficientes.
El test que se debe utilizar para tomar una decisión en (9.8) está relacionado con las
consecuencias que se derivan de aceptar como mejor aproximación la que da un modelo lineal (H0),
cuando en realidad la mejor es la de un modelo cuadrático (H1).
En efecto, si se estiman los parámetros del modelo como en (9.5), suponiendo que H0 es cierta,
cuando en realidad lo es H1 se obtiene

[
E [ b] = E ( X ' X )
−1
]
X 'Y = ( X ' X )
−1
X ' E[Y ] = ( X ' X )
−1
X '( X β + Z γ ) = β + ( X ' X )
−1
X'Zγ (9.9)
208 es decir,
E [b] = β + Aγ (9.10)

con A = (X’X)-1X’Z denominada matriz de alias o de confusiones.


Esta confusión en las estimaciones para el caso de las tapas de aluminio es

E b0 = β 0 +
2
[ ]
β + β 22
3 11
( )
(9.11)
E [ b1 ] = β 1 ; E [ b2 ] = β 2

Por lo tanto, en caso de que b11+b22 fuese significativo, al aproximar la superficie mediante
modelos lineales se comete un error en la estimación de la constante del modelo.
Los diseños de primer orden no pueden estimar por separado β11 y β22, pero sí su efecto
conjunto, β11+β22. La estimación de tal efecto por mínimos cuadrados es equivalente a comparar los
promedios de la porosidad en el centro de la superficie con el promedio en las esquinas del cubo, tal
como lo muestra la figura 9.6.
Luego el test de hipótesis planteado en (9.8) sobre la necesidad de modelos de segundo orden
es equivalente al test de hipótesis:

 H 0 : Ycubo − Ycentro = 0


  (9.12)
 H1 : Ycubo − Ycentro ≠ 0 

2 The Feared Model tal como lo denomina el profesor N. Draper, autor, junto con G. Box, del libro Empirical Model-Building
and Response Surfaces.

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

sobre la existencia de curvatura, que puede comprobarse comparando el valor del estadístico
Ycubo − Ycentro
(9.13)
s / ncubo + s 2 / ncentro
2

con el valor de la t de Student con ν grados de libertad, siendo ν los grados de libertad con los que se
ha estimado σ,. a partir de s.
En el ejemplo de las tapas, al aplicar la ecuación 9.12 se obtiene
6.14 − 6.025
= 1.21 (9.14)
0.012 / 4 + 0.012 / 2
con s2=0.012 estimada con 3 grados de libertad. Por lo tanto,
al obtener un valor no significativo, no encontramos
evidencia de curvatura. En consecuencia, no se puede
rechazar Ho en (9.8), y concluimos que el modelo lineal
realiza una aproximación suficientemente buena de la
respuesta de interés.
En consecuencia, se intuye que se está lejos de la
región óptima y, por lo tanto, la siguiente estrategia será la de
en alejarse lo más rápidamente posible en la dirección de
máximo decrecimiento (se desea obtener llantas con mínimo
índice de porosidad) hacia las condiciones óptimas de
Fig. 9.6 Figura que representa la diferencia
experimentación, y allí volver a plantear un diseño de primer entre la respuesta en el centro y en las 209
orden con puntos centrales, o directamente uno de segundo si esquinas del cubo en una superficie que
existe alguna evidencia de curvatura. presenta curvatura

9.5 Aproximación por el camino de máxima pendiente

En este momento del experimento, la estrategia que se debe adoptar es la de experimentar a lo largo
de la dirección de máximo decrecimiento hasta que la porosidad deje de disminuir. Tal hecho indicará
que, o bien se ha cruzado la zona óptima, o bien hay que rectificar la dirección de máximo
decrecimiento.
Siguiendo con el ejemplo de las tapas de aluminio, a partir del modelo
Y = 6.10 - 0.29 T + 0.33 P (9.14)
obtenido de (9.7), se puede obtener la dirección de máximo crecimiento de la respuesta a través de la
dirección del gradiente, la cual se obtiene derivando respecto a cada factor,

∂Y
= − 0.29
∂T (9.15)
∂Y
= 0.33
∂P

y, por lo tanto, la dirección de máximo decrecimiento será la opuesta,

d=[0.29, -0.33] (9.16)

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

la cual marca una dirección orientativa sobre la dirección a seguir en los nuevos experimentos. Si se
desea experimentar en puntos a distancias de una unidad, similar a la distancia entre las condiciones
experimentales anteriores, se puede utilizar el vector unidad como vector orientativo.

 0.295 0.33 
u =  0.44 , − 0.44  = [0.67 , − 0.75] (9.17)
 
El número de experimentos que
POSICIÓN TEMPERATURA PRESIÓN ÍNDICE DE deben realizarse y la cercanía de éstos
(º C) (Kg/cm2) POROSIDAD depende en todo momento del cono-
1 3 u = (2.01, -2.25) 670 920 4.53 cimiento que tenga el experimentador
2 5u = (3.35, -3.75) 685 880 3.28 sobre el proceso. En el ejemplo de las
3 7u = (4.69, -5.25) 700 845 2.54 tapas se han realizado cuatro
4 9u = (6.03, -6.85) 710 805 4.15 experimentos más, cada uno a dos
unidades de distancia del anterior, tal
Tabla 9.3 Experimentos adicionales en la dirección de máximo decrecimiento como lo muestra la tabla 9.3.
Cabe notar que, para obtener
los valores originales de la temperatura y la presión, basta con descodificar las unidades de la tabla 9.3
utilizando las expresiones:
T − 650 P − 975
x1 = x2 =
10 25 (9.18)
210 T = 650 + 10 x1 P = 975 + 25 x 2

donde x1 y x2 son los valores de la temperatura y la presión en unidades codificadas.


La dirección de máximo decrecimiento se ha de tomar como un camino orientativo, pero los
experimentos no tienen porqué coincidir exactamente con tal dirección. En el ejemplo de las tapas, los
valores en unidades originales resultantes de descodificar las cuatro posiciones se han adaptado a la
operabilidad del proceso.
Como se puede observar, la porosidad ha ido disminuyendo excepto en el experimento 4, donde
ha vuelto a aumentar significativamente. Ello induce a pensar que se ha “atravesado” la superficie y
que por lo tanto, no es recomendable proseguir experimentando por este camino, aunque exista
incertidumbre sobre la zona por donde se ha atravesado.
Si ésta es la zona óptima, la superficie ha de mostrar una curvatura tal, que será necesario
utilizar modelos de segundo orden para aproximarla. En cambio, si no es así, pudiera ser que la
aproximación por modelos de primer orden fuese todavía lo suficientemente buena como para
continuar por este camino. En tal situación, se seguiría experimentando posteriormente a lo largo de
una dirección del steepest descent rectificada.
En cualquier caso, la MSR permite experimentar secuencialmente utilizando un diseño de
primer orden para estimar el “modelo plano”, pudiendo añadir en un segundo bloque uno de
segundo orden, si se llega a la conclusión de que el modelo lineal no se ajusta suficientemente bien
a la respuesta.
En el ejemplo de las tapas, seleccionando el experimento 3 de la tabla 9.3 como el centro de
la nueva región de experimentación, se ha decidido utilizar un diseño de primer orden y se han
obtenido los resultados que aparecen en la tabla 9.4. El experimento señalado con una flecha es el
experimento 3 de la etapa anterior; se ha considerado conveniente incluirlo para una mejor estimación
de la respuesta.

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

Con las réplicas de este experimento se puede obtener una estimación del error experimental
con dos grados de libertad. Asimismo, se puede obtener otra estimación del error con un grado de
libertad con las réplicas del primer experimento, que se
encuentran en la tabla 9.2. Ponderando estas dos TEMPERATURA PRESIÓN ÍNDICE DE
estimaciones se obtiene una estimación de σ2 con tres (ºC) (kg/cm2) POROSIDAD
grados de libertad de s2 = 0.0318. Esta estimación, obtenida -1 (690) -1 (820) 2.20
a través de réplicas, se denomina “error puro”. +1 (710) -1 (820) 3.71
A continuación se trata de repetir los pasos del -1 (690) +1 (870) 2.86
apartado 9.4 para confirmar si el modelo lineal realiza una +1 (710) +1 (870) 3.49
aproximación suficientemente buena a la superficie o si, por 0 (700) 0 (845) 2.53
el contrario, existen indicios de curvatura. Aplicando el test 0 (700) 0 (845) 2.30
de curvatura de (9.13) para los datos en la tabla 9.4 se obtiene: 0 (700) 0 (845) 2.54 7

Ycubo − Ycentro 3.06 − 2.46 Tabla 9.4 Resultados del experimento 3 en el


= (9.19)
ejemplo de las llantas de aluminio.
s / ncubo + s / ncentro
2 2 .
014 1/ 4 + 1/ 3

que es un valor estadísticamente significativo en la t de Student con tres grados de libertad. Por lo
tanto, en el test planteado en (9.8) se rechaza la hipótesis nula y se acepta que el modelo de segundo
orden:
y = β 0 + β1 x1 + β 2 x 2 + β12 x1 x 2 + β11 x12 + β 22 x 22 + ε (9.20)

se aproxima mejor a la respuesta. 211


Así pues, ahora es el momento de comenzar a utilizar las estrategias de segundo orden, que
están esquemáticamente representadas en la figura 9.7.

Fig. 9.7 Estrategias de segundo orden

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

9.6 Aproximación cuadrática. Diseños centrales compuestos

En estos momentos de la experimentación se ha de añadir un segundo diseño al realizado anteriormente


en la tabla 9.4 si se quiere estimar un modelo cuadrático con la precisión suficiente.
El hecho de realizar la experimentación en dos tiempos puede provocar un efecto bloque (ver
el apartado 7.8 del capítulo 7 sobre efectos bloque si se quiere ampliar el tema), que puede afectar a la
estimación de los efectos si las condiciones experimentales del segundo diseño no se han seleccionado
adecuadamente.
Para que esto no ocurra, es decir, para que la estimación de los factores sea independiente del
hecho de haber experimentado en dos bloques, el efecto bloque ha de ser ortogonal a efectos de las
demás variables.
Si además se desea que las estimaciones de los factores sean independientes entre sí, los dos
diseños han de ser ortogonales en sus factores y ortogonales con los bloques.
El primer diseño,
1 −1 −1
1 1 −1
 
1 −1 1 
 
X = 1 1 1 
1 0 0
 
1 0 0
212 1 0 0
 

ya cumple la condición de ortogonalidad, basta con multiplicar las columnas del diseño entre sí y
observar que todos los productos se anulan.
El segundo diseño, denominado diseño estrella, contiene los experimentos dispuestos de la
siguiente forma
1 −α 0
1 α 0 

1 0 −α 
 
X = 1 0 α
1 0 0
 
1 0 0
1 K K 

donde α y el número de puntos centrales n0e se han de determinar según los criterios que se explican a
continuación.
El resultado de añadir un diseño factorial y un diseño estrella se conoce como diseño central
compuesto o central composite design. La forma de tal diseño para tres factores se puede ver en la
figura 9.4.
La selección de α y n0e está basada en dos criterios: el criterio de ortogonalidad mencionado
anteriormente y el criterio de rotabilidad. Se dice que un diseño es rotable si la precisión en la
estimación de la superficie es igual para todos los puntos equidistantes del centro del diseño,

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

independientemente de la dirección en que se encuentren; es decir, se puede girar la superficie sobre


su centro y la precisión en la estimación es la misma.
La rotabilidad en diseños centrales compuestos sólo depende del valor de α y del número de
experimentos que se haya realizado en el cubo sin contar los puntos centrales, Nc, a través de la fórmula,

α = 4 Nc (9.23)

La condición de ortogonalidad en cambio, implica que las estimaciones de los parámetros en el


modelo (9.20) son independientes entre sí e independientes a su vez del efecto bloque. Para que esto
ocurra se han de cumplir dos condiciones:
1. Cada bloque debe contener un diseño ortogonal.
2. La fracción del total de la suma de cuadrados de cada variable xi en cada bloque debe ser igual
a la fracción del número total de observaciones distribuidas en cada bloque. Es decir, para cada
variable i y sobre cada bloque b se ha de cumplir:
nb

∑ xbij2 nb
j =1 (9.24)
N
=
N
∑x 2
bij
j =1

i = Indicador de la variable i.
j = Indicador de la observación j de la variable i en el bloque b.
nb = Número de observaciones en el bloque b. 213
N = Número total de observaciones.
Llamando n0c y n0e al número de puntos centrales en el cubo y en el diseño estrella
respectivamente, y k al número de factores en el diseño, al aplicar la condición de ortogonalidad (9.24)
al caso particular de los diseños compuestos centrales se obtiene la fórmula simplificada siguiente

N c ( 2k + noe )
α =
2 ( N c + noc ) (9.25)

donde Nc el número de puntos en el primer diseño exceptuando los puntos en el centro. (Nc será de la
forma 2k o 2k-p.)
La tabla 9.5 muestra algunos diseños compuestos centrales con los correspondientes valores de
α si se quiere obtener ortogonalidad y rotabilidad. Como se puede observar, algunas veces no se
pueden conseguir los dos criterios exactamente.
Volviendo al ejemplo de las tapas de aluminio, si se desea añadir un nuevo diseño ortogonal al
presentado en la tabla (9.4) y tal que el conjunto sea rotable, basta con sustituir los valores de las
constantes: k=2, Nc=4 y n0c=3 en las expresiones (9.23) y (9.25), y se obtiene:

4 ( 4 + noe ) (9.26)
α = y α = 4
4 = 2
2 ( 4 + 3)
para la condición de ortogonalidad y rotabilidad respectivamente.
Por lo tanto, si se han de cumplir las dos condiciones, el número de puntos centrales que ha de
contener el diseño estrella será de noe =3.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

k 2 3 4 5 5(1/2) 6
Fracción del cubo 1 1 1 1 ½ ½
Nc 4 8 16 32 16 32
Bloques en cubo - 2x4 2x8 4x8 - 2 x 16
Ne=2 k 4 6 8 10 10 12
nco por bloque 3 2x2 2x2 2x4 6 4x2
nso 3 2 2 4 1 2
N total 14 20 30 54 33 54
α (ortogonalidad) 1.4142 1.6330 2.000 2.3664 2.000 2.3664
α (rotabilidad) 1.4142 1.6818 2.000 2.3784 2.000 2.3784
Generadores de - B=123 B=1234 B1=123 - B=123
bloque B2=2345
Generadores del - - - - 5=1234 6=12345
diseño fraccional

Tabla 9.5 Algunos diseños centrales compuestos

4 ( 4 + noe ) (9.27)
α = = 2 ⇒ noe = 3
2 ( 4 + 3)

TEMPERATURA PRESIÓN ÍNDICE DE


La matriz del diseño estrella resultante, junto con los
214 (ºC) (kg/cm2) POROSIDAD resultados de la experimentación, se puede encontrar
−-/22 (685) 0 (845) 3.02 en la tabla 9.6. Además, en la figura 9.8 se puede
/22 (715) 0 (845) 4.40 localizar el conjunto de los experimentos realizados
0 (700) −-/22 (810) 3.90 hasta el momento y desde el comienzo con las dife-
0 (700) /22 (880) 3.76 rentes estrategias utilizadas.
0 (700) 0 (845) 3.20 Con los datos de los dos diseños en las tablas
0 (700) 0 (845) 3.28 9.4 y 9.6 se puede estimar un modelo de segundo
0 (700) 0 (845) 3.17 orden por mínimos cuadrados, resolviendo la
ecuación (9.5) para el modelo en (9.20). Si además
Tabla 9.6 Diseño estrella y resultados en el ejemplo de
las tapas de aluminio con los puntos en la estrella a una
se añade una variable con signos -1 y 1, se logrará
distancia de 1.41 estimar el efecto bloque como diferencia entre los
promedios de los dos bloques dependiendo
La ecuación de regresión es de si los experimentos vienen del primer
Porosidad = 2.84+0.36 B + 0.51T + 0.26 T2 + 0.32 P2 - 0.22 T·P diseño o del segundo.
El resultado del análisis por regre-
Predictor Coef. Stdev. t-ratio p-valor
sión se encuentra en la tabla 9.7. El modelo
Constante 2.84 0.048 59.65 0.000 así obtenido explica un porcentaje elevado
Bloque 0.36 0.031 11.70 0.000
Temperatura 0.51 0.041 12.42 0.000 de la variabilidad en el índice de porosidad
(Temperatura)2 0.26 0.043 6.07 0.000 en función de los dos factores estudiados:
(Presión) 0.32 0.043 7.47 0.000 presión y temperatura.
Temp. · Presión -0.22 0.058 -3.78 0.005
Se observa que existe un efecto
s = 0.1165 (8 g. l.) R-Sq = 98.0 % R-Sq(adj) = 96.7 % bloque estadísticamente significativo, es
decir, el hecho de realizar el experimento
Tabla 9.7 Resultado del análisis por medio de regresión lineal de los en dos tiempos diferentes ha afectado a la
datos de la tabla 9.6 respuesta con un aumento de 0.71 unidades

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

de porosidad del segundo al primer experimento. Este hecho induce a una investigación por parte de
los técnicos para encontrar las condiciones que han cambiado en las dos etapas y que provocan este
cambio en la porosidad.
Antes de aceptar el modelo obtenido por regresión se ha de hacer una prueba de ajuste de los
datos al modelo. Esta prueba se realiza comparando dos estimaciones independientes de σ2, una de las
cuales depende totalmente de la bondad del ajuste del modelo.
La estimación de σ2 en la tabla 9.7 ha sido obtenida como un promedio de otras dos estimaciones:

4 s 2puro + 4 sajust
2
2
stotal = (9.28)
8

> Donde sp2 es la obtenida a través de las seis


réplicas (una vez eliminado el efecto bloque)
y denomina estimación pura
sp2 =0.011 con 4 g. l. (9.29)
> 2
Y saj es la obtenida a través de los residuos
por falta de ajuste de los datos al modelo. A
esta estimación se le denomina “estimación
por falta de ajuste” y tendrá 3 g. l. Llevando
el valor de (9.29) a (9.28) se obtiene
saj2 =0.016 con 4 g. l. (9.30)
Fig. 9.8 Dirección del camino de máximo descenso
Por lo tanto, si el modelo se ajusta bien a los (steepest descent) 215
datos, los valores en (9.29) y (9.30) son estimaciones
independientes de σ2 y, según se vio en el capítulo 3, el cociente de ambos valores será un valor típico
en la distribución F de Snedecor con cuatro y cuatro grados de libertad.
2
sajuste 0.016
= = 145
. (9.31)
s 2puro 0.011
lo cual es cierto. En consecuencia, se acepta que la aproximación a la respuesta en la región próxima
a las condiciones de 700 ºC y 845 kg/cm2 por el modelo
y = 2.84 + 0.36 B + 0.51 Temp. + 0.26 Temp.2 + 0.32Presion2 - 0.22 Temp. * Presión (9.32)

es una buena aproximación.


Una vez obtenida la aproximación cuadrática a la respuesta, se ha de analizar si la región en que
se ha aproximado contiene las condiciones óptimas de porosidad. Para poder resolver este dilema se
ha de realizar el análisis canónico que se presenta en el próximo apartado.

9.7 Análisis canónico de la superficie

La interpretación del modelo resultante puede hacerse bien a través de curvas de nivel, o bien en
función del análisis canónico del modelo. El análisis gráfico es posible cuando se estudian dos o tres
factores. Si el número de factores aumenta no se pueden representar conjuntamente los factores y la
respuesta en un mismo gráfico. Cuando el número de factores es alto, se puede trabajar con
proyecciones sobre un subconjunto de dos o tres factores, pero entonces la interpretación de la
superficie es más compleja.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

900 Para k=2 factores, éstos se representan


4.9 5.5
4.3 en los ejes de ordenadas y abcisas indistin-
3.7
tamente. Entonces, sustituyendo pares de
3.1
valores de la temperatura y la presión en (9.32)
se obtiene el valor de la respuesta, el cual se
Presión

850
lleva al gráfico situándolo sobre el punto
representado por el par de condiciones. Una
6.1
6.7
vez obtenida una cantidad suficiente de valores
800 7.3 de la respuesta, se trazan líneas de nivel para
7.9 valores de respuesta similar. Las líneas así
8.5

675 685 695 705 715 725


formadas representan la proyección tridimen-
sional de la respuesta en el plano de experi-
Temperatura
mentación formado por los dos factores.
Fig. 9.9. Análisis gráfico de la porosidad por curvas de nivel Veámoslo en el ejemplo de las tapas de
aluminio. La representación se ha realizado
promediando el efecto bloque, ya que el efecto bloque no influye en la localización del óptimo. Para el
gráfico se han utilizado las variables en unidades originales.
Del análisis gráfico se observa que las curvas de nivel son concéntricas y su valor disminuye
conforme se acercan al punto central. Existe, por lo tanto, una única condición óptima en cuanto a
porosidad mínima en torno a la condición: temperatura 690 ºC y presión 835 Kg/cm2.
Las coordenadas de tal punto también se pueden encontrar derivando la ecuación de la respuesta
respecto a sus parámetros e igualando a 0.
216

=
(
∂ Y ∂ 2.84 + 0.36 B + 0.51T + 0.26 T + 0.32 P − 0.22 T ∗ P
2 2
)
= 0.51 + 0.52 T − 0.22 P = 0
∂T ∂T
(9.33)
∂Y
=
(
∂ 2.84 + 0.36 B + 0.51T + 0.26 T 2 + 0.32 P 2 − 0.22 T ∗ P ) = 0.64 P − 0.22 T = 0
∂P ∂P
T = -1.15, P = -0.39
Las coordenadas del punto crítico en unidades originales, así como el valor estimado de la
porosidad, son:
Pc (688.5 ºC, 835.1 Kg/cm2)
YPc = 2.19 (Bloque 1) (9.34)
YPc = 2.91 (Bloque 2)

Análisis canónico

El conjunto de todas las superficies cuadráticas se clasifican según su forma canónica. Ésta
corresponde a la representación de la superficie con ejes de simetría paralelos a los ejes de coordenadas
y centrada en el origen (de coordenadas 0 en todas las variables x).
Las superficies que se obtienen de la metodología de superficie de respuesta no tienen por qué
cumplir las dos condiciones anteriores y, en tal caso, resulta difícil conocer el tipo de superficie de que
se trata. Sin embargo, mediante las dos operaciones que a continuación se detallan, se puede
recodificar la superficie para expresarla en su forma canónica. Estas dos operaciones son:
> Utilizar los ejes de simetría como nuevos ejes de coordenadas.
> Seleccionar el punto crítico de la superficie como nuevo origen de coordenadas.

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

La ecuación resultante de la primera operación se denomina forma canónica A y, si se aplica la


segunda condición, la ecuación resultante se denomina forma canónica B.
Si llamamos,
 x1  b1 
x  b  K
 2  2 b11 1 / 2b12 1 / 2b1k 
 x3  b3  1 / 2b b22 K 1 / 2b2 k 
b0 = ( b0 ) X =  b=  B=
12
(9.35)
K  K K K K K 
K  K  
1 / 2 b 1 / 2b2 k K bkk 
    1k
 x k  bk 

el método general de obtener las dos formas canónicas es muy simple y está basado en las propiedades
algebraicas de la matriz B.
Para ello, primero expresaremos el modelo de segundo orden para la superficie de respuesta en
forma matricial,
Y = b0 + X’b + X’ B X (9.36)
Ahora, si M es la matriz en cuyas columnas están los vectores propios estandarizados de B: m1,
m2, ..., mk, siendo λ1, λ2, ...,λk, sus valores propios, se cumple:
BM = MΛ
M’= M (9.37)
M’BM = M’MΛ’ = Λ
donde Λ es la matriz diagonal con λ1, λ2, ...,λk, en la diagonal. 217
Dado que M’M = I, se puede intercalar este producto de matrices en la ecuación (9.36), y
agrupando convenientemente se obtiene
Y = b0 + ( x ' M ) ( M ' b ) + ( x ' M ) ( M ' BM ) ( M ' x ) (9.38)
Utilizando las propiedades en (9.37) en (9.38), la ecuación (9.36) puede reescribirse como,

Forma canónica A
Y = b0 + X’θ + X’ΛX
(9.39)
X=M’x y θ=M’b
La forma canónica A obtenida en (9.39) sólo contiene términos cuadráticos puros, ya que han
desaparecido las interacciones. Si se representa de nuevo la superficie, pero ahora respecto a las nuevas
variables X, se observa que los ejes de simetría de la superficie son paralelos a los ejes de coordenadas.
Para hallar la forma canónica B hay que determinar la distancia a la que se encuentran los
puntos críticos de la superficie (máximo, mínimo, punto silla, zona de máximos, etc.) del origen de
coordenadas. Si la zona crítica está dentro de la región de experimentación, se considera que la
aproximación de la superficie será igual de válida alrededor del nuevo origen de coordenadas. Si en
cambio la región crítica está lejos de la zona de experimentación, no tiene sentido extrapolar la
superficie hasta la zona crítica y, por lo tanto, no se halla la forma canónica B.
En el ejemplo de las tapas, la distancia del punto crítico al centro de experimentación es
d = . 2 + 0.39 2
115 = 1.2 (9.40)
y; por lo tanto, podemos considerar que la aproximación obtenida en (9.26) puede extenderse a la
región alrededor de este punto.

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

Por consiguiente, para obtener la forma canónica B, se puede realizar la segunda operación de
cambiar el origen de coordenadas de (0,0) por (-1.15,-0.39), si se trabaja en unidades codificadas
originales, o de (0,0) por M’ (-1.15,-0.39), si se trabaja con las coordenadas nuevas.
Dado que el resultado final es independiente del orden en que se realicen estas dos operaciones
(cambio de ejes de coordenadas y traslación del origen), en aquellos casos en que se han calculado con
anterioridad las coordenadas del punto crítico, es más sencillo trabajar con las coordenadas del punto
crítico en unidades originales x.
Por lo tanto, si se aplica este cambio de origen en (9.38) antes de pasar a cambiar los ejes, se
obtiene la expresión

Y = Y0 + (( x − x )' M ) ( M ' b) + (( x − x )' M )( M ' BM ) ( M ' ( x − x ))


0 0 0 (9.41)

que se simplifica dando lugar a la forma canónica B, que aparece en (9.39) en su forma general.

Forma canónica B
~ ~ ~
Y = Y0 + λ1 X 12 + λ 2 X 22 + K + λ k X k2
(9.42)
M ' ( xi − xio ) d
~
Xi = = M ' xi − M ' xio = X i − X io

Es decir, las nuevas coordenadas se pueden obtener trasladando xo (en unidades originales
codificadas) y girando con M, o girando con M para obtener las nuevas coordenadas X y trasladando
X0 respecto a las coordenadas del punto estacionario (en las nuevas coordenadas).
218 Con la ecuación (9.42) se está en situación de interpretar la superficie. El signo de los valores
propios λi determinarán el tipo de superficie, y su valor absoluto determina el tamaño de los ejes de
simetría.
La figura 9.9 contiene la clasificación de las superficies para dos factores. Para interpretar
superficies con más factores se pueden seleccionar subgrupos de dos factores e interpretar la
proyección de la superficie en ellos.
En el caso de las tapas de aluminio, para hallar la forma canónica B se han de obtener los valores
propios y los vectores propios de la matriz B en el modelo (9.32).

 x1  0.51  0.26 −011


. 
b0 = (2.84) X =  b=  B=
 x2   0   − 011
. 0.32
(9.43)
 −0.61 0.79
M =  0.79 0.61 λ1 = 0.40 λ2 = 018
.
 
Por lo tanto, llevando los valores de (9.43) a (9.42) se obtiene la forma canónica B:
~ ~
Y = 2.55 + 0.36 B + 0.40 X 12 + 018
. X 22 (9.44)

donde la relación entre las nuevas coordenadas y las anteriores es:

X1 = − 0.61( x1 + 115
. ) + 0.79 ( x2 + 0.39) = − 0.61 x1 + 0.79 x2 − 0.39
~
(9.45)
= 0.79 ( x1 + 115
. ) + 0.61( x2 + 0.39) = 0.79 x1 + 0.61 x2 − 115
~
X2 .

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

donde x1 y x2 los son valores de la presión y la temperatura en unidades codificadas.


Una vez en la última etapa de la investigación (figura 9.6) se ha de hacer un estudio de la forma
canónica de la superficie si se desean conocer las condiciones óptimas y la manera en que se relaciona
la porosidad con los factores de control.
Analizando la forma canónica se puede contestar a los objetivos planteados en el apartado 9.2.
Se aprecian los siguientes hechos:

3
37
2 40
43
1 46
49

B
0

-1

-2

-3
-3 -2 -1 0 1 2 3
A

3
18.5
16.0
2
13.5
1 11.0

8.5 6.0 3.5


B

0 3.5 6.0 8.5

11.0
-1
13.5
-2
16.0 219
18.5
-3
-3 -2 -1 0 1 2 3
A

2
3.5 5.0 6.5 8.0 9.5 9.5 8.0 6.5 5.0 3.5
1
B

-1

-2

-3
-3 -2 -1 0 1 2 3

3
6 4 2 0
2
8

10
B

-1

12
-2

-3
-3 -2 -1 0 1 2 3

Figura 9.10 Representación de superficies cuadráticas en dos factores. a) Máximo (λ1 y λ2 <0) (o mínimo (λ1 y λ2 >0);
b) Punto silla (λ1 y λ2 de distinto signo); c) Teja horizontal (λ2 = 0 ); d) Teja inclinada (λ2 =0) y término lineal en X1)

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

> Al ser positivos los coeficientes de los términos cuadráticos en la forma canónica B, existe un
único punto donde se obtiene un índice de porosidad mínimo. Las coordenadas de este punto
son aproximadamente (688.5ºC, 835.1 kg/cm2).
> Si se desean hacer predicciones del valor de la respuesta para determinadas condiciones de los
factores, se puede obtener el modelo en unidades originales. No obstante, hay que tener en
cuenta que el modelo obtenido es una aproximación local de la superficie en la zona de
experimentación y que, cuanto más alejado de tal zona se esté, menor precisión en la predicción
se obtendrá. La manera más sencilla de obtener el modelo en unidades originales es
descodificando la ecuación (9.32) mediante:
T − 700 P − 845 (9.46)
x1 = x2 =
10 25
para obtener el modelo en unidades originales,
Y = 1087 ⋅ 6 + 0.36 B − 2.85 T − 0.25 P + 0.0026 T 2 + 0.00051 P 2 − 0.00088 T ∗ P (9.47)
~ ~ ~ ~
> La porosidad cambia más rápidamente en la dirección de X 1 ( X 2 = 0 ) que en la de X 2 ( X 1 = 0 ) ello
es debido a que el valor propio λ1 =0.39 es mayor que λ2 = 0.17. La dirección de mínimo cambio
en porosidad viene determinada por
~
X1 = 0 = − 0.61 x1 + 0.79 x 2 − 0.39 (9.48)

y la de máximo por
~
X2 = 0 = 0.79 x1 + 0.61x 2 + 115
. (9.49)
220
es decir, manteniendo similares los valores de x1 y x2 , se logra la mínima variación en la
porosidad al variar las condiciones de temperatura y presión.
> Dada una porosidad límite, existe una variedad de combinación de condiciones para la
temperatura y la presión que permite trabajar con menor porosidad. Basta con hallar la curva de
nivel apropiada para este valor y seleccionar cualquier combinación que quede en la región
interna de la curva de nivel.

© los autores, 1998; © Edicions UPC, 1998.


π INTRODUCCIÓN A LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA

Ejercicios

9.1. Se realiza un experimento con dos variables codificadas x1 = (X1-450)/10 y x2 = (X2-130)/5 y se


obtienen los siguientes resultados:
a) ¿Es necesario el uso de un modelo de segundo orden para aproxi- x1 x2 y
marnos a la superficie estimada por y? -1 -1 44.1
b) Razonar si un modelo de primer orden se ajusta bien a la superficie de 1 -1 53.2
respuesta representada por y. (Use algún tipo de test de ajuste del -1 1 47.3
modelo.) 1 1 56.4
0 0 49.5
c) ¿Está el punto (X1,X2) = (268,98) en el camino de máximo decre- 0 0 51.0
cimiento?
d) Dé un modelo que permita predecir los valores de la respuesta a través
de los valores de X1 y X2 sin codificar.

9.2. Un experimentador ha realizado un diseño 25-1 con cuatro puntos añadidos en el centro y desea
añadir una estrella a una distancia axial α y ne0 puntos en el centro.
a) ¿Qué valor de se ha de seleccionar si se quiere conseguir rotabilidad?
b) ¿Y si se quiere conseguir que los dos bloques sean ortogonales?
c) ¿Se puede conseguir rotabilidad y ortogonalidad a la vez?

9.3. Realice un análisis canónico de la superficie:


y = 6.88 + 0.0325 x1 + 0.2588 x2 - 0.1363 x3 - 0.1466 (x1)2 -0.0053 (x2)2 + 0.1359 (x3)2
obtenida por un análisis de regresión usando las variables codificadas: 221
x1=(x1-5)/3, x2 =(x2-4)/10 y x3=(x3-25)/9
a) ¿Cuáles son las coordenadas del punto estacionario y el valor de la respuesta en tal punto?
b) ¿Qué tipo de superficie es?
c) Realice un gráfico de contornos en función de x1 y x2 (variables codificadas originales)
alrededor del punto estacionario, dejando fijo el valor de x3 en la coordenada que posee el punto
estacionario.

9.4. Un experimentador realiza un experimento con dos


X1 80 100 80 100 90
variables x1 y x2 alrededor del punto (90,20), para el
X2 10 10 30 30 20
que realiza cinco experimentos:
Y 11 0 29 6 12

a) Ajuste un modelo a los datos y diga cuál de X1 64.5 47.5 39 30.5 43.25 34.75
las siguientes observaciones estarían en la X2 38 50 56 62 53 59
dirección del steepest ascent. Y 43 58 72 62 65 68

El experimentador decide ahora combinar X1 34.75 43.25 39 39 39 39


los dos experimentos de coordenadas X2 53 59 56 56 56 56
(X1,X2,Y) = (43.25, 53, 65) y (34.75, 59,68) Y 71 68 71 72 72 73
con las seis siguientes:

b) Ajuste un modelo de primer orden a los datos.


c) Realice un test de falta de ajuste usando las réplicas.
d) Realice un dibujo de cómo han sido expuestos los experimentos con los respectivos valores de
la respuesta.

© los autores, 1998; © Edicions UPC, 1998.


10
Diseño de productos robustos

Las metodologías de diseño de experimentos y superficie de respuesta presentadas en los


capítulos anteriores han sido utilizadas para la determinación de los factores que afectaban a una
característica particular de calidad, para la selección de los niveles óptimos de tales factores, y para la
estimación local de la relación existente entre la respuesta y los factores de diseño en la región de las
condiciones óptimas.
En la práctica, muchas características de calidad vienen afectadas por factores de difícil control
o que no han podido ser controlados durante la obtención del producto, incluso por factores que 223
aparecen una vez que el producto está en manos del cliente.
Una manera de atacar este problema sería mediante el control de tales fuentes de variación, lo
cual resulta caro y muchas veces imposible. Por el contrario, se pueden diseñar productos o procesos
robustos que sean insensibles a estas causas.
En este capítulo vamos a presentar la aplicación de las técnicas anteriormente citadas en la
consecución de tales objetivos.

10.1 Concepto de producto robusto

La definición que da el diccionario a la palabra robusto es “fuerte, vigoroso, sano, saludable”.


Por ejemplo, decimos que un ciclista es robusto cuando su rendimiento queda poco afectado por
los cambios que se producen en su entorno: pedalea con igual intensidad en días de sol o en días de
lluvia, no le afectan las críticas de los periódicos, se adapta a los diferentes tipos de bicicletas, etc.
En la industria también se desea obtener productos robustos y serán aquellos que mantengan
sus características de calidad con un mínimo nivel de variabilidad. Como veremos en el apartado 10.2,
esta variabilidad en el nivel de calidad es debida a factores externos (temperatura ambiente, humedad,
etc.), internos (deterioro, etc.) y de producción (capacidad de los procesos de fabricación).
Veamos dos situaciones en las que se desea obtener productos robustos, que serán analizadas en
detalle a lo largo del capítulo.
> Se desea obtener una fórmula para fabricar un suavizante de ropa. La característica de calidad
que se estudia es su viscosidad. Se conocen el tipo de materia prima, la cantidad de
estabilizante, el Ph del producto y el tipo y la cantidad de sales que han de entrar en la fórmula
del producto. Ahora bien, la viscosidad así obtenida puede verse alterada una vez que el

© los autores, 1998; © Edicions UPC, 1998.


MÉTODOS ESTADÍSTICOS. CONTROL Y MEJORA DE LA CALIDAD π

producto esté en manos del cliente, debido al tiempo en que el envase del producto permanece
abierto o debido a características del agua de lavado. El suavizante que se desea ha de ser
robusto a estos factores externos a su fórmula, es decir, su viscosidad debe mantenerse en un
nivel aceptable sea cual sea el agua de lavado o el tiempo en que el envase esté abierto.
> Se desea diseñar un tubo calefactor seleccionando los niveles de tres parámetros de diseño:
temperatura interior y exterior del cilindro calefactor y proporción entre diámetro exterior e
interior. El tubo resultante, además de permitir el paso de un flujo determinado de calor por su
superficie, ha de ser robusto, o insensible, a pequeñas variaciones en los parámetros de diseño.
Esta preocupación reciente en las empresas por obtener productos robustos ha sido motivada
por las demandas actuales del cliente dentro de un entorno competitivo muy particular.
Un mismo producto puede ser fabricado en empresas situadas en zonas geográficas lejanas, las
cuales pueden ser aprovisionadas por diferentes proveedores, e incluso tener diseñados sus procesos de
diferente manera. Sin embargo, cuando el cliente compra un producto quiere que sea robusto a estas
condiciones del mercado o a otras tales como las características culturales, condiciones ambientales,
etc. El producto es identificado por la marca y no por la empresa que lo fabrica.
Un cliente no satisfecho puede reclamar una compensación económica por la falta de calidad o
incluso puede cambiarse a un producto de la competencia. Ello conlleva unas pérdidas económicas a
la empresa que se estima que son directamente proporcionales a la desviación cuadrática de la
característica de calidad respecto a su valor nominal u objetivo.
Algunos autores prefieren hablar de una función matemática que mide la calidad de un producto
en función de la desviaciones cuadráticas de cada individuo respecto al valor nominal. El ingeniero
Genichi Taguchi (1986), por ejemplo, define la función de pérdidas que presentamos en el apéndice 10.A.
224 El objetivo del diseñador es por lo tanto definir productos en los que las pérdidas debidas a estas
fuentes de variación sean mínimas. No basta con fabricar bajo el nivel nominal, hay que hacerlo con
la mínima variabilidad.

10.2 Variabilidad funcional

La variabilidad entre productos una vez que éstos están en manos del cliente es inevitable. Sin
embargo, si se identifican las causas de tales variaciones, se pueden tomar medidas con el fin de
reducirla.
Las causas que originan tal variabilidad pueden englobarse en tres grupos:
> Causas que provocan variabilidad en el proceso que da lugar al producto, y que determinan la
capacidad de aquél: variaciones en la materia prima, métodos de trabajo, mantenimiento, etc.
> Causas en el entorno en que se usa el producto: variaciones humanas en el uso del producto,
condiciones