Anda di halaman 1dari 84

MANUAL DE CONTROL ESTADÍSTICO DE PROCESOS

INDICE
1 .- INTRODUCCIÓN A LA PROBABILIDAD

2 .- CONCEPTOS ESTADÍSTICOS FUNDAMENTALES

o Población estadística
o La Distribución de Frecuencias

3.- METRICA EN EL ESPACIO ESTADISTICO

o Medidas de tendencia central


o Medidas de Dispersión
o Media y Varianza de una Muestra
o Muestreo Aleatorio

4.- FUNCIONES DE DISTRIBUCIÓN DE PROBABILIDADES

o Generalidades
o La Distribución Normal
o La Distribución Normal Standard
o La Distribución T de Student
o Distribución de Promedios Muestrales
o Distribución binomial
o Distribución de Poisson

5.- TEST DE HIPÓTESIS

o Herramientas para contrastar hipótesis


o Región crítica. Tipos de errores .
 Contraste de medias.
 Contraste de diferencia de medias
o Comprobación de la normalidad de una muestra.

6 .- CONTROL DE PROCESO

o Control de proceso
o Control Estadístico de Proceso (C.E.P.)
o Gráficos C.E.P. Generalidades
o Variables y atributos
o Eficacia estadística de los gráficos de control
o Subgrupos racionales
o Ventajas de los gráficos de control

7.- GRAFICOS DE CONTROL POR VARIABLES

o Introducción.
o Gráficos de control ( , R)
 Gráfico basado en estudio inicial
 Gráficos basados en valores standar
 Gráficos de control para valores individuales
 Gráficos de control de media móvil (desgaste de herramientas)
 Recogida de datos e interpretación
 Establecimiento de límites del Proceso
 Líneas generales para el diseño del grafico ( , R)
 Interpretación de los gráficos ( , R)
 Eficacia de los gráficos ( , R)
o Gráficos de control ( , S)
o Gráficos de control de sumas acumuladas (CUSUM)

o Otros gráficos de control


 Gráfico de control de media móvil
 Gráficos de Control Multidimensional

8.- CAPACIDAD DEL PROCESO

o Introducción

o Análisis de la capacidad del proceso


 Análisis de la capacidad del proceso usando histogramas
 Análisis de la capacidad del proceso usando gráficos de control

9.- GRAFICOS DE CONTROL POR ATRIBUTOS

o Introducción

o Gráfico “p” para porcentajes defectuosos


 Operativa del gráfico de control “p”
 Diseño del gráfico “p”

o Gráfico np para unidades defectuosas


o Gráficos “C” para tamaño de muestra constante
o Análisis de defectos
o Gráfico “U”

10.- LINEAS GENERALES PARA IMPLANTAR GRAFICOS DE CONTROL


CAPÍTULO 1.- INTRODUCCIÓN A LA PROBABILIDAD
Cada vez que realizamos un cálculo matemático para resolver un problema físico, estamos
aplicando un modelo matemático a un fenómeno de la realidad.

Este fenómeno puede ser, por ejemplo, la caída de un objeto desde cierta altura, y en este caso
utilizamos un modelo que es la Ley de Gravedad.

¿Qué es un modelo?. Al enfrentar un problema de física, química, ingeniería, etc., estamos


analizando e investigando una parte o aspecto de la realidad material que nos rodea. Para
resolver el problema, necesitamos modelar esa realidad, es decir, construir una representación en
la mente de cómo ocurren los hechos, junto con ecuaciones matemáticas que permitan calcular
los efectos de los mismos.

En ningún caso se debe confundir modelo con realidad. Un modelo es sólo una representación de
la realidad, utilizado para estudiar y analizar dicha realidad.

Hay modelos matemáticos que nos permiten obtener un resultado numérico preciso, por ejemplo,
que la velocidad de un automóvil es de 175,5 Km/Hora. O que la corriente eléctrica que circula
por un cable es de 5,7 Amperios. Este tipo de modelos matemáticos se denominan
Determinísticos.

Existen también fenómenos que necesitan otro tipo de modelos matemáticos, denominados no
determinísticos, probabilísticos o estocásticos.

Por ejemplo, supongamos que se ha previsto la realización de unas pruebas balísticas para las
que se necesita saber la cantidad de lluvia que va a caer en un próximo periodo de tiempo, antes
de decidir la forma de llevar a cabo los ensayos. El Técnico responsable podrá informarse en el
servicio meteorológico en relación con la presión barométrica, la temperatura, velocidad del viento
y otros datos meteorológicos, sin embargo, no hay una ecuación que con todos esos datos le
permita calcular de forma precisa los milímetros de lluvia que van a caer durante el periodo de
tiempo que le interesa.

De la misma forma, ningún operador puede calcular cuanto va a subir la Bolsa, ni siquiera si va a
subir o bajar, aún cuando tenga a su alcance todas las variables económicas disponibles.

Este tipo de fenómenos no admiten un modelo determinístico, sino un modelo probabilístico, que
como resultado nos dice la probabilidad de que llueva una cierta cantidad, o la probabilidad de
que la Bolsa suba un cierto porcentaje. El resultado no es un valor determinado, sino la
probabilidad de un valor.

Veamos algunos ejemplos de fenómenos para los cuales es apropiado utilizar un modelo
probabilístico:

Experimento 1:
Se lanza un dado y se anota el número
que aparece en la cara superior.
Experimento 2:
Se arroja una moneda cuatro veces y
se anota la sucesión de caras y cruces
obtenidas.
Experimento 3:
Se fabrican artículos en una línea de producción y se cuenta el número de
artículos defectuosos producidos en 24 horas.
En todos estos casos, el resultado del experimento no se puede predecir con absoluta certeza.
Hay varios resultados posibles cada vez que se realiza la experiencia.
Para cada experimento del tipo que estamos considerando, se define el Espacio Muestral como el
conjunto de todos los resultados posibles que pueden producirse al realizar el experimento.

Los espacios muestrales respectivos son :


S1 = {1,2,3,4,5,6}
S2 = {cccc, xccc, cxcc, ccxc, cccx, xxcc, xcxc, xccx, cxcx, ccxx, xxxc, xxcx,
cxxx, xcxx, xxxx}
S3 = {1,2,3,…, N} ; N máximo de artículos producidos en 24 horas.
Un Suceso, respecto a un espacio muestral S asociado con determinado experimento, es un
subconjunto de resultados del espacio muestral. El conjunto vacío, el formado por un solo
elemento y el formado por todos los elementos del espacio muestral son también sucesos.

Vemos entonces que, dado un experimento aleatorio cualquiera, hay un espacio muestral
asociado cuyos elementos son todos los resultados que se pueden obtener de la experiencia. Un
subgrupo o subconjunto de resultados es un suceso. Ahora, ¿cómo podemos saber si la
posibilidad de que ocurra un suceso es grande o pequeña? Por ejemplo, si arrojamos un dado,
¿cómo podemos calcular la probabilidad de que salga un 2 ?. Para esto necesitamos un número
asociado con cada suceso, al cual se lo denomina probabilidad del suceso. Entonces, la
probabilidad P de un suceso es un número entre 0 y 1, que nos dice en que medida es posible
que ocurra el suceso. Si la probabilidad es 1 significa que el suceso ocurrirá con toda certeza. Si
la probabilidad es 0,5 significa que un suceso puede ocurrir o puede no ocurrir con la misma
probabilidad. Probabilidad 0 quiere decir que el suceso es imposible que ocurra. ¿Cómo podemos
calcular la Probabilidad de un suceso?
La respuesta a esta pregunta no
siempre es sencilla y depende del
experimento y de su espacio muestral
asociado. Hay casos simples en los que
el cálculo es relativamente sencillo. En
primer término, supondremos que se
trata de un experimento cuyo espacio
muestral es finito y tiene un número
pequeño de resultados posibles.
En segundo término, supondremos que todos los resultados que integran el espacio muestral
(sucesos elementales) tienen la misma probabilidad de ocurrir.

Con estas dos hipótesis, la fórmula para calcular la probabilidad es muy sencilla. Supongamos
que se trata de un experimento cualquiera cuyo espacio muestral S tiene N elementos (N
resultados posibles). Deseamos calcular la probabilidad de un suceso H (Un subconjunto H del
espacio muestral S) que tiene m elementos. De acuerdo a lo dicho previamente, el número N
tiene que ser pequeño y la probabilidad de cada suceso elemental tiene que ser la misma.

Entonces la probabilidad P de que ocurra el suceso H es: P = m/N

Veamos algunos ejemplos.

Supongamos que se arroja un dado sobre una mesa y apostamos a que salga un número igual o
menor que 4. Sabemos que son igualmente posibles los números: {1, 2, 3, 4, 5 y 6} (Espacio
muestral con 6 elementos).

Pero los números favorables a nuestra apuesta son: {1, 2, 3 y 4} (Suceso con 4 elementos).
Entonces, la probabilidad de que ganemos es P = 4/6 = 0,666…

Es decir que tenemos a nuestro favor una probabilidad de 0,666.. (o sea aproximadamente del 67
%).

Si apostamos a un sólo número (sacar un As), la probabilidad de ganar sería P = 1/6 = 0,1666…

Repitiendo, la probabilidad es un número entre 0 y 1, que nos dice en que medida es posible que
ocurra un suceso.

----------------------------------------------------------------------------------------------------------------------------------
CAPITULO 2.- CONCEPTOS ESTADÍSTICOS FUNDAMENTALES
Población estadística.

Hasta ahora hemos visto el caso de fenómenos o


experimentos cuyo espacio muestral asociado tiene un
número pequeño de elementos. Ello nos ha servido para
introducir la noción de probabilidad, Pero en muchos
casos es necesario trabajar con experiencias o procesos
que generan un número muy grande de datos o resultados
numéricos, es decir, espacios muestrales con un número
infinito o muy grande de elementos.Cuando tenemos un
conjunto muy grande de datos numéricos para analizar
decimos que tenemos un Universo o Población de
observaciones.

Cada dato numérico es un elemento de la población o universo. Una Muestra es un subconjunto


pequeño de observaciones extraídas de un universo o población.

La Estadística trabaja con


poblaciones de datos y con
muestras extraídas de las mismas.
Los conceptos de población y
muestra a veces resultan
ambiguos en su aplicación
práctica.

Por ejemplo, supongamos que en una ciudad de 5000 habitantes se realiza un censo médico en
el cual se mide el peso, la altura y se relevan otros datos de todos los habitantes de la ciudad.

Alguien podría referirse al universo o población censada teniendo in mente el conjunto de los
habitantes de la ciudad. Pero cuando hablamos en términos estadísticos, nos referimos a
poblaciones o universos de datos.

Por ejemplo, el conjunto de todas las mediciones de altura (De los habitantes de la ciudad) es un
conjunto de datos y por lo tanto constituye un universo o población de datos desde el punto de
vista estadístico. Otro universo o población de datos son los pesos medidos (De los habitantes de
la ciudad). Pero la población de habitantes, es decir, las personas que habitan la ciudad no son la
población a la que nos estamos refiriendo desde el punto de vista estadístico.

Supongamos que en una empresa se fabrica un lote de 10


toneladas de un producto químico, y un técnico debe controlar la
calidad del mismo.

El técnico toma una pequeña porción, por ejemplo, 100 gramos y


dirá que tomó una muestra del producto para analizar en el
laboratorio. Hasta el momento, la muestra no fue analizada y por lo
tanto no tenemos ningún dato numérico.

Cuando el laboratorio efectúa algún ensayo en la muestra y obtiene un resultado numérico, dicho
dato podría ser analizado desde el punto de vista estadístico.
Vamos a suponer hipotéticamente que el técnico continúa
sacando otras muestras del producto, hasta agotar el lote y
cada una es ensayada en el laboratorio, que nos da los
resultados.
Como teníamos 10 toneladas de producto y las muestras son aproximadamente de 100 gramos,
el técnico seguramente extraerá alrededor de 100000 muestras y el laboratorio nos entregará
alrededor de 100000 resultados. Este conjunto de datos numéricos es nuestro universo o
población de datos.

Si tomamos al azar 10 de esos resultados, podemos decir que tenemos una muestra de 10
elementos de ese universo o población. No debemos confundir esta muestra (Desde el punto de
vista estadístico) con la muestra de material que extrajo el técnico para ser analizada en el
laboratorio.

Ahora bien, nuestro universo o población de datos a veces no existe en la realidad, sino que es
un concepto o abstracción que utilizamos para referirnos al universo o población que
hipotéticamente podría existir.

Veamos el ejemplo anterior. Supongamos que el técnico toma solamente 5 muestras y las envía
para analizar al laboratorio. El laboratorio nos enviará sólo 5 resultados, y nosotros diremos que
tenemos una muestra de datos extraída del universo o población de datos total. Y estamos
pensando en el universo o población que tendríamos si se hubieran extraído y analizado las
100000 muestras de material.

Muchas veces resulta difícil imaginarse cual es el universo del cual extrajimos los datos.
Supongamos que tenemos una máquina que produce piezas de plástico en serie y un técnico
toma 5 piezas sucesivas y les mide la altura con un calibre. Tenemos, entonces, 5 resultados, es
decir una muestra de 5 elementos. ¿Cuál es el universo al cual pertenece esa muestra de datos?.

Debemos imaginar lo siguiente: Si la máquina continuara trabajando en las mismas condiciones


(Es decir, a la misma velocidad, con las mismas materias primas, a la misma temperatura,
manejada por el mismo operario, etc.) ...y a cada pieza que produce se le mide la altura
tendríamos un conjunto muy grande de resultados numéricos. Ese conjunto muy grande de
resultados numéricos que no existe, pero que podría obtenerse en esas condiciones es el
universo o población del cual extrajimos la muestra de 5 observaciones.

Veamos otro ejemplo. Supongamos que el sindicato de


la industria textil desea saber cual es el sueldo medio
de un operario en esa industria. Entonces, encarga una
encuesta a una empresa especializada, que entrevista
a 20 operarios de la industria textil y averigua sus
salarios.

Estos datos son una muestra de 20 observaciones del universo o población formado por los
salarios de todos los operarios de la industria textil del país. Aunque el encuestador no disponga
de esos datos, sabemos que existen miles de operarios que ganan un salario determinado y por
lo tanto podemos hablar de un universo o población cuyos elementos son los salarios de los
operarios de la industria textil en el país. Además, esa población de datos es seguramente
diferente de la población de salarios de los operarios de la industria textil inglesa o brasileña
(Usando una misma moneda de referencia).

¿Qué representa una Población de datos? El análisis estadístico de una población o universo de
datos tiene como objetivo final descubrir las características y propiedades de aquello que generó
los datos. Por ejemplo, se tiene una población de escolares (Población física, población humana)
y se les mide la altura. El conjunto de datos de altura constituye una población o universo
estadístico.

El análisis de estos datos de altura


(Universo estadístico) sirve para
caracterizar y estudiar a la
población de estudiantes (Que no
es una Población estadística).

Supongamos que un instituto


dedicado a estudios económicos
ha realizado una encuesta de
ingresos en el país. El universo de
datos generados por la encuesta
sirve a los fines de caracterizar a
la población física, a la población
real del país, desde un punto de
vista económico.

Un ingeniero controla un proceso industrial, que genera a diario muchos lotes de un producto
(Población de lotes). Para cada lote se mide una característica de calidad, obteniéndose una gran
cantidad de resultados numéricos (Población de datos).

El ingeniero realiza esta tarea porque a través de los datos numéricos obtenidos se puede evaluar
el comportamiento del proceso, que es lo que realmente le interesa.

Es importante destacar que detrás de un universo o población de datos se encuentra una


población física subyacente, formada por elementos de la realidad que nos rodea, de la cual, a
través de algún tipo de medición, se obtuvieron los datos numéricos. Es esa población física
subyacente (Elementos de la realidad, seres humanos, lotes de material, etc.) la que deseamos
estudiar y caracterizar por medio del análisis estadístico de los datos obtenidos.

La población estadística está representando, entonces, una población física o natural formada por
elementos de la realidad, con respecto a una característica o propiedad de esa población física.
Es muy importante, al utilizar métodos estadísticos, no confundir la población física, formada por
elementos de la realidad que estamos estudiando, con la población o universo de datos
generados a partir de la primera. De aquí en adelante, cuando utilicemos los términos población o
universo sin otro adjetivo nos estaremos refiriendo a población o universo de datos numéricos
(También llamados observaciones, mediciones o valores).

La Distribución de Frecuencias

Vimos que una Población o Universo de datos es un conjunto muy grande de números. Estos
números pueden estar en un gran listado o puede ser un conjunto hipotético, es decir, podemos
imaginar los números pero no los tenemos realmente. Una gran tabla de números ordenados al
azar prácticamente no nos muestra información acerca de la población de datos. Suponiendo que
disponemos de los datos del universo, ¿cómo podemos clasificar y ordenar los números para
obtener más información acerca de ese universo de datos?.

Una forma sería escribir los números desde el menor hasta el mayor y colocar encima de cada
uno tantas cruces o cuadraditos como veces que figure repetido en la población.

El número de veces que aparece repetido cada dato es la frecuencia de dicho valor. La
representación gráfica que hemos visto se denomina Distribución de Frecuencias de la población.

La representación gráfica nos


permite ver información que
antes no aparecía tan evidente.
Por ejemplo, sin hacer ningún
cálculo nos damos cuenta donde
está aproximadamente el
promedio de la población.

También nos muestra cuales son


los valores máximo y mínimo de
la población, es decir, el rango o
recorrido.

En el caso anterior, los datos de la población son números enteros. Cuando los números no son
enteros o cuando tenemos un número muy grande de datos, se divide el rango total en
subintervalos y se cuenta el número de valores que cae dentro de cada subintervalo.

Vamos a suponer, ahora, que tenemos una cierta población de N = 500 datos, por ejemplo el
peso de varones adultos de 40 años. Una manera de caracterizar esta población es construir una
distribución de frecuencias o gráfico de frecuencias. Para ello seguimos los pasos siguientes:

1) Tomamos nota del valor máximo y el valor mínimo de la serie de datos que estamos
considerando.

2) Subdividimos el intervalo entre el máximo y el mínimo en algún número de intervalos (15 ó 20)
mas pequeños iguales entre sí.

3) Contamos el número de datos que encontramos dentro de cada intervalo (Frecuencia). Por
ejemplo, supongamos que en el intervalo i hay ni observaciones (S*ni = N).
4)Para construir el gráfico, colocamos en el eje de abcisas (Horizontal) los intervalos y
levantamos en cada intervalo un rectángulo de altura proporcional al número ni de datos dentro
del mismo.

Si hacemos el área del rectángulo levantado sobre el intervalo i-ésimo igual a la frecuencia
relativa ni/N, el área total bajo el histograma será igual a la unidad:

Obtenemos así un histograma que nos muestra la distribución de frecuencias de la población:

Esta distribución de frecuencias nos muestra si hay resultados que son mas frecuentes que otros;
si los valores están ubicados alrededor de un valor central, si están muy dispersos o poco
dispersos. Podemos observar que fracción de todas las mediciones cae por ejemplo, entre 70 y
80 Kg.

Si elegimos una persona del grupo y la pesamos, el resultado es un dato que pertenece a la
población de datos representada en el gráfico. Decimos, entonces, que estamos extrayendo un
dato de la población de datos. Pero hay distintas maneras de elegir la persona, es decir, distintas
maneras de realizar la extracción del dato.

Si nos paramos frente al grupo y elegimos una persona, estaremos seleccionando al más gordo,
al más flaco o al más alto (y por lo tanto pesa más que otros), de acuerdo a criterios subjetivos
que no podemos evitar. En cambio, si escribimos los nombres de todas las personas en una
etiqueta, metemos todas las etiquetas en una caja y luego le pedimos a alguien que retire una
etiqueta, la selección no estará influida por nuestra subjetividad. En este caso, decimos que la
extracción es aleatoria.

Una extracción aleatoria es aquella en que cada miembro de la población tiene la misma
posibilidad de ser elegido.

-------------------------------------------------------------------------------------------------------------------------------
CAPÍTULO 3.- METRICA EN EL ESPACIO ESTADISTICO

Medidas de tendencia central

Una característica importante de cualquier población es su posición, es decir, donde está situada
con respecto al eje de abscisas (Eje horizontal). En nuestro caso, es importante saber si los datos
se agrupan alrededor de 60 Kg. o de 90 Kg. o alrededor de 12 Kg. Una manera de obtener un
dato numérico que nos dé idea de la posición de nuestra población es calcular el Promedio o
Media de todas las observaciones:

Este importante parámetro nos permite efectuar comparaciones entre distintas poblaciones. Por
ejemplo, si tuviéramos una población formada por mediciones del peso de mujeres de 30 años,
otra de peso de varones de 40 años y una tercera de peso de niños de 8 años, es indudable que
los promedios van a ser diferentes. El promedio, entonces, nos está diciendo que las tres
poblaciones son diferentes y también en que medida difieren.

Ahora, si tuviéramos una población de varones con peso promedio 70 Kg. y otra población de
varones con el mismo promedio, ¿se puede afirmar que ambas poblaciones son equivalentes?
Para responder esta pregunta necesitamos tener medidas de la dispersión de la población de
datos.

Medidas de Dispersión

La otra característica muy importante de una población es el grado de dispersión de las


observaciones. No es lo mismo si en nuestra población encontramos que todos los valores están
entre 75 y 90 Kg. que si están entre 60 y 105 Kg., aunque el promedio sea el mismo. Es
necesario agregar alguna idea de la dispersión de los valores.

Una manera es a través del Rango de las observaciones, es decir, el valor Máximo y el valor
Mínimo de los datos de la población. Entonces, una descripción mas realista acerca de los seres
humanos sería decir que pesan en promedio 70 Kg. y que el rango es de 40 a 120 Kg. (Estos
valores son supuestos).

Una manera más precisa de dar idea de la dispersión de valores de una población es a través de
la Varianza o su raíz cuadrada, que es la Desviación Standard.

Vamos a calcular la varianza y la desviación standard de un


número pequeño de datos (Una muestra) para ilustrar el
cálculo. Supongamos que se midió la altura de 10 personas
adultas y de sexo femenino, y se obtuvieron los valores
siguientes (en cm)

165 ; 163 ; 171 ; 156 ; 162 ; 159 ; 162 ; 168 : 159 ; 167

El promedio de estas observaciones es:


= 163, 2 cm
Si a cada una de las observaciones le restamos el promedio, obtenemos los Residuos:

Los residuos también nos dan una idea de la dispersión de las observaciones individuales
alrededor del promedio. Si el valor absoluto (El valor numérico sin el signo) de los residuos es
grande, es porque los valores están muy dispersos. Si el valor absoluto de los residuos es
pequeño, significa que las observaciones individuales están muy cerca del promedio, y por lo
tanto, hay poca dispersión.

Pero nosotros necesitamos un sólo número que nos provea información acerca de la dispersión
de los valores. Si sumamos los residuos, como algunos son positivos y otros negativos, se
cancelarían entre sí, con lo cual perdemos la información acerca de la dispersión. Entonces, los
elevamos al cuadrado:

Si ahora sumamos los residuos elevados al cuadrado, tenemos un número donde se condensa
toda la información de la dispersión de la población:

Este número, la suma de cuadrados, es dependiente del número de datos N, y por lo tanto no nos
sirve para comparar poblaciones con distinto número de observaciones.

Pero si dividimos la suma de cuadrados por N, tenemos un número que es independiente del
número de observaciones, que se denomina Varianza:

En nuestro caso:

Las fórmulas anteriores son las que se aplican al cálculo de la varianza y desviación standard de
una población de datos. Mas adelante veremos que las fórmulas a aplicar en el caso de una
muestra son ligeramente diferentes. La varianza es un número que nos permite comparar
poblaciones. Cuando la dispersión de las observaciones es grande (Datos que se alejan mucho
por encima y por debajo del promedio), el valor de los residuos (distancia entre cada dato y el
promedio) será grande. Entonces aumenta la suma de cuadrados de los residuos y por lo tanto la
varianza.

También se utiliza la raíz cuadrada de la varianza:


Por lo tanto:

La desviación standard o desviación típica tiene las mismas unidades que la variable con la que
estamos trabajando, en nuestro caso el centímetro. Tanto la varianza como la desviación
standard nos permiten comparar el grado de dispersión de distintas poblaciones.

Media y Varianza de una Muestra

Hasta ahora hemos visto como se calcula la media o promedio de una población y también como
se calcula la varianza y la desviación standard de una población o universo de observaciones.
Cuando tenemos una muestra (Subconjunto de algunos datos extraídos de una población),
también podemos calcular su media, su varianza y su desviación standard. Es muy importante
distinguir entre la media, varianza y desviación standard poblacional, de la media, varianza y
desviación standard muestral.

La media, varianza y desviación standard de una población o universo se denominan parámetros


de la población y en general se designan con letras griegas: μ para la Media, σ2 para la Varianza
y σ para la Desviación Standard poblacionales. En el caso de una muestra, la media, varianza y
desviación standard se denominan estadísticos y se utilizan letras de nuestro alfabeto:

para la Media

s2 para la Varianza

s para la Desviación Standard muestral


El cálculo de la varianza y la desviación standard de una muestra de n observaciones se realiza
con una fórmula levemente diferente que la ya vista para la varianza y desviación standard de una
población:

En lugar de dividir por n, el número total de observaciones en la muestra, dividimos por n - 1. Este
valor, n - 1, son los Grados de Libertad de la muestra. En general, cuando tenemos una muestra
de n observaciones, se dice que la misma tiene n - 1 grados de libertad.

La media, varianza y desviación standard de una muestra, en general, no van a coincidir con los
mismos parámetros de la población de la cual se extrajo la muestra (Aunque usemos la misma
fórmula para calcular la varianza muestral y poblacional). Si extraemos n muestras de una
población, vamos a obtener n promedios muestrales distintos del promedio de la población y n
varianzas muestrales distintas de la varianza de la población. Esto se debe a que una población o
universo tienen un número muy grande de datos, mientras que una muestra son sólo algunos
pocos datos extraídos de ese universo. Cuando sacamos una segunda, tercera, ... etc. muestras,
los datos extraídos no tienen por que ser los mismos que en la primer muestra. Por lo tanto, el
promedio y la varianza de las muestras van a ser distintos para las distintas muestras, y distintos
de la media y la varianza de la población de la cual se extrajeron las muestras.

Muestreo Aleatorio

En general, no es posible disponer de todas las observaciones de un universo o población, ya sea


porque es un universo hipotético o porque la disposición de todos los datos resulta una tarea
excesiva para nuestras posibilidades. Normalmente se dispone de una muestra de datos
extraídos de un universo, y lo que se pretende es estimar (Conocer de manera aproximada) los
parámetros del universo por medio de cálculos realizados sobre la muestra. En este sentido
decimos que la media muestral es una estimación de la media del universo, y que la varianza y
desviación standard muestrales son estimaciones de la varianza y desviación standard
poblacionales respectivamente.

Veamos algunos ejemplos. Supongamos que un partido político necesita averiguar la cantidad de
personas que están dispuestas a votar por su candidato. Entonces, encarga a una empresa la
realización de una encuesta un día previo a las elecciones. El encargado de la encuesta podría
pensar en consultar la intención de voto de toda la población de votantes (Mas de 40 millones en
España). Esto, obviamente, es una tarea excesiva que por distintas razones no se puede realizar.
Entonces, el camino que resta es tomar una muestra representativa de esa población de
personas y consultar la intención de voto en esa muestra. Los resultados que se obtengan son
solamente una estimación del resultado que se hubiera obtenido si la consulta se hubiera
efectuado sobre toda la población de votantes.

Ahora bien, ¿cómo se obtiene una muestra representativa?

Para tratar de entenderlo, vamos a trabajar con una población de muy pocos datos. Supongamos
que nuestra población son 10 bolas con los siguientes números 2, 5 y 9 y una frecuencia según la
tabla adjunta:

El promedio de la población es 4. Supongamos que queremos obtener una muestra de 5


elementos de esa población. Hay varias formas de hacerlo. Supongamos que puedo ver los
números y elijo 2, 2, 2, 2 y 5. El promedio de estos 5 números extraídos de la población es 2,6
que difiere sustancialmente del promedio de la población

Es evidente que dicha muestra no es representativa de la población de la que fue extraída. No se


mantiene la misma proporción de cada número que existe en la población. Una muestra de 5
elementos en la que hay la misma proporción de cada dígito debería tener 3 dos, 1 cinco y 1
nueve, y su promedio es 4, el mismo de la población:

En una población de muchos datos, no es posible obtener una muestra eligiendo cada elemento
para que figure en la misma proporción que en la población, porque para ello deberíamos
disponer de todos los datos de la misma, y en ese caso no sería necesario sacar una muestra. Si
a cada elemento de la población se le da la misma oportunidad de ser elegido, entonces se
supone que cada número estará en la muestra en un número proporcional a la cantidad de veces
que está en la población. Por ejemplo, el 2 va a estar en la muestra mas veces que el 5, porque
en la población hay 6 dos y sólo 2 cincos.
Si introducimos las diez bolas
en una bolsa y las mezclamos
suficientemente, la
probabilidad que tiene una
bola individual de ser extraída
es la misma para cualquiera
de las bolas.

En esas condiciones, si extraemos cinco


bolas sucesivas, mezclándolas
previamente en cada oportunidad, es
razonable pensar que vamos a sacar el 2
en más oportunidades que el 5 ó el 9.Esta
forma de obtener la muestra es lo que se
conoce como Muestreo Aleatorio.

El muestreo aleatorio no garantiza que la muestra va a ser representativa de la población, pero al


eliminar toda influencia externa en el acto de extraer un elemento de la población, la proporción
de cada uno estará influida sólo por la cantidad de veces que está presente en la población de la
cual se extrae la muestra.
Entonces, realizando el
muestreo en forma aleatoria (al
azar), la probabilidad de obtener
una muestra representativa de la
población es mayor que si en la
elección de los elementos de la
muestra interviene la voluntad
del que efectúa la operación o
algún otro factor de influencia
-----------------------------------------------------------------------------------------------------------------------------------------------------
CAPÍTULO 4.- FUNCIONES DE DISTRIBUCIÓN DE PROBABILIDADES
Hemos visto como se construye un gráfico de frecuencias con datos extraídos de una población.
A medida que aumentamos la cantidad de observaciones que tomamos de la población, podemos
construir nuestro gráfico con un número mayor de intervalos, aunque de menor amplitud (El rango
total cubierto por la población es el mismo).

Si continuamos este proceso, con


intervalos cada vez mas estrechos y
numerosos, los altibajos en el gráfico de
la distribución de frecuencias tienden a
desaparecer.

En el límite, el ancho del intervalo tiende


a cero y la población puede
representarse por una distribución de
probabilidad continua.
Cuando, para representar esta distribución de probabilidad continua se utiliza una función
matemática, esta se denomina Función de Densidad de Probabilidad.

La forma de la curva en el gráfico de la


función de distribución es característica de la
población de observaciones asociada con la
misma, y depende de variables internas del
proceso que generó los datos de la
población.Existen distintas funciones de
distribución teóricas, cada una de las cuales
está basada en un modelo de
comportamiento del proceso que generó el
universo de observaciones.

La aplicación de una de estas distribuciones teóricas a una población particular está justificada si
las hipótesis (suposiciones) del modelo de comportamiento del proceso que generó la población
se cumplen. Dicho de otro modo, si conocemos el proceso, es decir, el conjunto de fenómenos
que dieron lugar a nuestra población de mediciones u observaciones, y además estamos seguros
de que el mismo se ajusta a un modelo de comportamiento determinado, entonces podemos decir
que la distribución de probabilidades de nuestra población es la que corresponde al modelo.
En la práctica, se sabe que ciertos procesos y fenómenos generan resultados numéricos cuya
distribución de probabilidades se puede ajustar a determinados modelos teóricos. Por ejemplo, el
número de partículas alfa emitidas por un material radiactivo sigue una distribución de Poisson.
Existen muchas otras distribuciones teóricas, como la Binomial, la Exponencial, la de Weisbull,
etc. Cada una de ellas tiene su propio campo de aplicación, que se sostiene en un determinado
comportamiento de los fenómenos, y al aplicarla se está haciendo en forma implícita la suposición
de que se cumplen las suposiciones del modelo subyacente.

La Distribución Normal
Una distribución muy
importante es la Distribución
Normal o de Gauss.
La ecuación matemática de la
función de Gauss es la
siguiente:

La distribución normal es una curva con forma de campana, con eje de simetría en el punto
correspondiente al promedio del universo μ. La distancia entre el eje de simetría de la campana y
el punto de inflexión de la curva es igual a σ, la desviación standard de la población.
El área total debajo de la curva es igual a 1. El área debajo de la curva comprendida entre μ - σ y
μ + σ es aproximadamente igual a 0,68 del área total; entre μ - 2σ y μ + 2σ es aproximadamente
igual a 0,95 del área total:
Es importante ver que los únicos parámetros necesarios para dibujar el gráfico de la distribución
normal son y (Media y desviación standard de la población). Con estos dos parámetros sabemos
donde situar la campana de Gauss (En el punto correspondiente a la media) y cual es su ancho
(Determinado por la desviación standard).
Cuando nos encontramos con una población de observaciones, si podemos afirmar que la
distribución correspondiente es normal, sólo hace falta estimar la media y la desviación standard
para tener toda la información necesaria acerca de dicha población.

La Distribución Normal Standard

Podemos escribir la fórmula de la distribución normal de la siguiente manera:

con

Esta es la fórmula de la Distribución Normal Standard o Tipificada. Como podemos observar, en


ella hay un sólo parámetro, Z, que incluye al promedio y la desviación standard de la población.
Esta función está tabulada.
Al calcular Z, lo que estamos haciendo, en realidad, es un cambio de variable por el cual
movemos la campana de Gauss centrándola en el 0 del eje X, y modificamos el ancho para que la
desviación standard sea 1.

De esta manera tenemos tabulada una


función de Gauss que no depende de
cual sea el promedio y la desviación
standard de nuestra población real. El
cambio de variable hace que se
conserve la forma de la función y que
sirva para cualquier población, siempre
y cuando esa población tenga una
distribución normal.

Cuando queremos calcular las probabilidades para una población real, calculamos Z y entramos
en la tabla de la función normal estandard.

La Distribución T de Student

En la generalidad de los casos, no disponemos de la desviación standard de la población, sino de


una estimación calculada a partir de una muestra extraída de la misma y por lo tanto no podemos
calcular Z.

En estos casos calculamos el


estadístico T:

con

donde S es la desviación standard muestral, calculada con n-1 grados de libertad.

Nótese que utilizamos S, la Desviación Standard de una Muestra, en lugar de μ, la Desviación


Standard de la Población.

El estadístico T tiene una distribución que se denomina distribución T de Student, que está
tabulada para 1, 2, 3, ... etc. grados de libertad de la muestra con la cual se calculó la desviación
standard. La distribución T tiene en cuenta la incertidumbre en la estimación de la desviación
standard de la población, porque en realidad la tabla de T contiene las distribuciones de
probabilidades para distintos grados de libertad.

La distribución T es mas ancha que la distribución normal tipificada Para un número de grados de
libertad pequeño. Cuando los grados de libertad tienden a infinito, la distribución T tiende a
coincidir con la distribución normal standard. Es decir, en la medida que aumentemos el número
de observaciones de la muestra, la desviación standard calculada estará mas próxima a la
desviación standard de la población y entonces la distribución T correspondiente se acerca a la
distribución normal standard. El uso de la distribución T presupone que la población con que
estamos trabajando tiene una distribución normal.

Distribución de Promedios Muestrales

Para comprender que significa distribución de promedios muestrales, vamos a suponer que
realizamos un experimento con bombos como los usados en la lotería. Colocamos un número
muy grande de bolas blancas en un bombo blanco, en cada una de las cuales figura un dato X.
Este bombo representa la población de observaciones X, y tiene media m y varianza s2.
Supongamos que a continuación hacemos los siguiente:
1) Tomamos una muestra de n=10 bolas blancas.

2) Calculamos la media y la anotamos en una bola azul.

3) Colocamos la bola azul en un segundo bombo de color azul.

4) Devolvemos las bolas blancas a su bombo y le damos vueltas.


5)Repetimos toda la operación muchas veces hasta que el bombo azul esté
lleno de bolas azules.
Entonces, los números del bombo azul forman una población de promedios muestrales. Esta es
una población derivada de la anterior, y tiene la misma media o promedio que la distribución
original, pero su varianza es un enésimo de la varianza de la distribución original:

En el caso del bombo azul, si denominamos a la varianza y μm a la media, tenemos:

La distribución de medias muestrales está situada en el mismo lugar (alrededor de la misma


media) que la distribución original, pero es mucho mas estrecha, porque su varianza es la décima
parte de la varianza original. La distribución original de observaciones representada por el bombo
blanco se denomina comúnmente distribución madre o base. Al construir la población de
promedios muestrales, realizábamos extracciones de 10 bolas blancas después de dar vueltas al
bombo. Es decir, que estábamos realizando un muestreo aleatorio de la población madre, porque
cada una de las bolas blancas tenía la misma posibilidad de ser elegida para integrar la muestra.
Aunque la población original no sea de distribución normal, si el muestreo es aleatorio, la
población de promedios muestrales se aproximará a la normalidad, es decir, será casi de
distribución normal. Este efecto se debe a un teorema de estadística matemática denominado
Teorema Central del Límite. En resumen, si se cumple la hipótesis de muestreo aleatorio,
tenemos:

En general, en los problemas que se presentan habitualmente, existe una población de


observaciones cualesquiera, de la cual tomamos una muestra aleatoria, por medio de la cual
intentamos conocer todo lo que sea posible acerca de la población de la cual fue extraída. El
promedio de la muestra de n elementos pertenece a la distribución de promedios muestrales de la
población original. Es decir, que el promedio de la muestra que obtuvimos es uno de los muchos
promedios muestrales que se distribuyen alrededor de m con desviación standard.
Por lo tanto, si la muestra es mas grande (n mayor), estaremos en una distribución de promedios
con desviación standard mas pequeña, por lo cual, el promedio de la muestra estará mas cerca
del promedio del universo. Es por esto que es razonable pensar que el promedio de la muestra es
una estimación del promedio del universo.
Distribución binomial

Una persona arroja un dado apostando con otra a que saca un as (un 1). La probabilidad de sacar
el as es igual a:

Es decir que la probabilidad que tiene de acertar es 17 % aproximadamente. Ahora, supongamos


que la persona arroja 5 dados iguales a la vez. ¿Cuál es la probabilidad de que saque 0, 1, 2, 3...
unos?.

Cuando realizamos una experiencia individual donde el resultado debe ser sólo uno de dos
posibles: acierto/fallo, cara/cruz, etc. decimos que es un ensayo de Bernouilli.

¿Es tan probable sacar 1 ó 2 ases


como sacar 5 ases?. A priori
parecería que no. En nuestro caso,
cada vez que arrojamos un dado
podemos definir nuestro
experimento registrando sólo dos
resultados posibles:

Cada acto individual de arrojar un dado es independiente de los otros y las probabilidades de
obtener un as o de no obtener ninguno, son, respectivamente :
Por lo que, cuando arrojamos 5
dados, la probabilidad de obtener
5 ases es:

Y la probabilidad de no obtener ningún As en los 5 dados arrojados es:

Nos falta calcular las probabilidades intermedias, es decir la probabilidad de obtener 1, 2,


3...ases. Es posible calcular todas estas probabilidades con una fórmula binomial. ¿Cuál es la
probabilidad de sacar un As al arrojar cinco dados? Por ejemplo, una forma es que salga un As
en el primer dado.

La probabilidad de sacar 1 As en el primer dado y no sacar As en los otros cuatro es:

Pero hay 5 formas diferentes de obtener 1 As en cinco dados arrojados: que se obtenga en el 1º
de los dado, o en el 2º o en el 3º o en el 4º o en el 5º.

Por lo tanto, la probabilidad de sacar 1 As al arrojar 5 dados es:


¿Cómo podemos generalizar el cálculo de las distintas formas de obtener 1 As, 2 Ases, etc. en
cinco dados arrojados? La respuesta la dan los números combinatorios:

; donde : m! = 1*2*3*…*m y n! = 1*2*3*…*n

son el factorial de m y de n respectivamente.

La expresión representa el número de combinaciones de m elementos tomados de n en n


(agrupados de n en n).

Por ejemplo, si tenemos las 5 letras A, B, C, D y E, y queremos saber cuantas son todas las
combinaciones posibles agrupándolas de a tres en cualquier orden: ABC, ADC,...etc., tenemos :

Y las distintas combinaciones son :


ABC, ABD, ABE, ACD, ACE, ADE, BCD, BCE, BDE, CDE
Supongamos que se realizan n ensayos de Bernoulli, con probabilidad p de tener un acierto, ó (1-
p) de tener un fallo. Entonces, la probabilidad de obtener y aciertos en n ensayos de Bernouilli es:

Esta probabilidad es un término del binomio siguiente:

, donde p+q = 1

Los términos de la suma son las probabilidades P(y), que determinan la distribución de
probabilidades de la variable aleatoria y, la cual es una variable discreta (toma los valores 0, 1, 2,
...etc.). Aplicando la fórmula al caso de 5 dados:

Las probabilidades de no sacar ningún As o de sacar uno, dos, tres, cuatro o cinco, son :

¿Cuáles son los parámetros estadísticos de la variable aleatoria Y ?


La media es: ; la varianza es: , y, finalmente, la desviación standard resulta:

En la experiencia de arrojar 5 dados:

¿Cómo interpretamos este resultado? Si bien el promedio resulta un valor fraccionario, nos está
diciendo que al arrojar los cinco dados estaremos más cerca de sacar 1 As que de sacar 2 o más
ases. De una manera más rigurosa, ese valor nos dice que si se repitiera la experiencia muchas
veces, el promedio del número de ases que se obtendría en todos los experimentos sería igual a
0.83

La varianza de Y resulta ser y la desviación standard:

Volvamos, ahora a nuestro jugador. Supongamos que arroja 5 dados y apuesta a que va a sacar
3 o más ases, ¿cuál es la probabilidad que tiene de ganar?

Esta probabilidad es la suma de los términos del binomio para 3, 4 y 5 aciertos (ases), es decir:

Lo que significa una probabilidad de ganar de aproximadamente el 3,5 %.

CAPÍTULO 4.- FUNCIONES DE DISTRIBUCIÓN DE PROBABILIDADES

Distribución de Poisson

Para entender la Distribución de Poisson, vamos analizar un ejemplo detenidamente.


Supongamos que se tiene una tabla rectangular de madera, de 1 metro por 1 metro, pintada con
un recubrimiento sobre cuya superficie se presentan aleatoriamente pequeños defectos. Estos
defectos podrían ser por ejemplo partículas muy pequeñas de pigmento que no fueron bien
molidas al fabricar la pintura. Se desea calcular la probabilidad de que aparezcan estos defectos y
para ello podríamos subdividir la superficie en zonas rectangulares mas pequeñas y de igual
tamaño :
Tenemos la superficie dividida en 4 zonas rectangulares de igual tamaño. Observamos que en
algunas zonas aparece un defecto superficial y en otras no. Vamos a hacer las siguientes
suposiciones:

 En cada zona sólo puede aparecer 1 defecto.

 Si la probabilidad de que aparezca un defecto en todo el área es p, la


probabilidad de que aparezca un defecto en una zona es p/4.

Entonces, utilizando la Distribución Binomial podemos calcular la probabilidad de que en nuestra


superficie aparezcan 0, 1, 2, 3, 4 defectos:

El promedio de defectos en la superficie total será:

Pero sabemos que en realidad en cada zona podrían aparecer más de 1 defecto. Esto hace
inexacto nuestro cálculo. Podríamos hacer el cálculo más exacto si subdividimos las zonas:

Dividimos cada zona en 4 y ahora tenemos 16 zonas. La probabilidad de tener 1 defecto en una
zona es p/16 con lo que podemos entonces calcular la probabilidad de tener 0, 1, 2, 3, ...., 16
defectos en el área total:

Y el promedio de defectos en la superficie resulta ser el mismo que antes:

Aún así podrían aparecer más defectos por zona, por lo que si dividimos nuevamente cada zona
en 4 tendríamos 64 zonas y ahora la probabilidad de tener 1 defecto en una zona sería p/64

La probabilidad de tener 0, 1, 2, 3, ....., 64 defectos en la superficie total sería:


Y nuevamente el promedio de defectos en la superficie es p.

Lo que estamos haciendo es ir aumentando n al mismo tiempo que disminuye p en igual


proporción y de ese modo, el promedio de defectos en la superficie total n.p se mantiene
constante. Como vimos, al suponer que en cada subzona sólo puede haber 1 defecto o ningún
defecto estamos cometiendo un error. Este error se hace cada vez menor, porque a medida que
subdividimos el area total se hace menos probable que en una subzona aparezca más de un
defecto. Si continuamos subdividiendo el área indefinidamente, la fórmula binomial nos dará la
probabilidad de obtener 0, 1, 2, 3, ... n defectos, con n tendiendo a infinito.

En el límite, la fórmula binomial tiende a la fórmula de Poisson:

donde x es la variable aleatoria y λ el parámetro de la distribución de Poisson. En el límite, el


producto de n por p, , es igual al parámetro de la distribución:

El número de defectos x en la superficie total es una variable aleatoria discreta que puede tomar
valores 0, 1, 2, 3, 4, ... y cuya distribución de probabilidades se conoce como Distribución de
Poisson.

Se puede observar que la curva de la función de Poisson es asimétrica, como la binomial. El


promedio y la varianza de esta variable aleatoria son iguales al parámetro de la distribución:

Por lo que, la desviación standard es:


La distribución de Poisson tiene una propiedad cuyas consecuencias son muy importantes para el
Control Estadístico de Procesos. Supongamos que se tienen m variables aleatorias de Poisson:

Si w es una combinación lineal de tales variables:

Entonces w es una variable aleatoria de Poisson con parámetro:

Esto es muy importante porque podemos imaginar el producto fabricado por un proceso (Una
licuadora, una computadora, un televisor, etc.) como una superficie en la que se pueden producir
múltiples defectos, y donde el número de cada tipo de defecto es una variable aleatoria de
Poisson. Entonces, la propiedad mencionada nos permite tratar la suma de todos los tipos de
defectos como una variable aleatoria de Poisson. Esto se utiliza para el control del Número de
Defectos en un producto (Gráficos C).

Supongamos ahora que tenemos un gran lote de artefactos, por ejemplo licuadoras. Tomamos
una muestra de m = 5 unidades y medimos el número total de defectos en las 5 unidades. Si
obtuvimos x1, x2, x3, ... xm defectos en cada unidad, el número total de defectos será:

El número promedio de defectos por unidad será:

y es una variable aleatoria discreta que puede tomar valores 0, 1/m, 2/m, 3/m, ... etc. ¿Cuál es la
varianza de y?

La varianza de xi es λ cualquiera que sea el subindice i, porque todas las xi tienen la misma
distribución; por lo tanto:

Este es un importante resultado que se utilizará para calcular la varianza en los Gráficos U.
CAPÍTULO 5.- TEST DE HIPÓTESIS

El contraste de hipótesis o test


de hipótesis es una herramienta
ampliamente utilizada para
comparar mediciones y tomar
decisiones basadas en una
probabilidad.

Los pasos a seguir para aplicar


esta metodología son:

 Plantear unas hipótesis.


 Escoger un estadístico
concreto.
 Conocer la distribución
del estadístico.

Y, a partir de ahí, decidir si, con los datos que poseemos de la muestra, tenemos caracterizada a
la población.

Herramientas para contrastar hipótesis

Los dos tipos de distribuciones más importantes, aunque no únicos, para el contraste de
hipótesis, son las distribuciones Normal y T-Student, que hemos visto en el capítulo anterior.

El contraste de hipótesis es un conjunto de reglas que nos permiten decidir cuál de entre dos
hipótesis debe ser aceptada como cierta en base a los resultados obtenidos en una observación
muestral. Se conocen como hipótesis nula (Ho) e hipótesis alternativa (Ha).

La hipótesis nula puede mantenerse mientras los datos no indiquen su falsedad; la hipótesis nula
nunca se puede afirmar , solo podremos aceptarla o rechazarla. Por lo tanto trataremos de decidir
si la información muestral que poseemos está en consonancia con Ho, o bien nos permite
rechazar esa creencia con lo que aceptaremos Ha.

Podemos distinguir entre dos tipos de hipótesis:

 Paramétricas que se refieren a conjeturas sobre el parámetro de una


distribución.

 No paramétricas que responden a afirmaciones acerca de la naturaleza de la


distribución.

Región crítica. Tipos de errores

En la práctica el Contraste de Hipótesis consiste en estudiar si un estadístico que es función de


las observaciones de la muestra está dentro de una región llamada de aceptación, o se encuentra
en la región de rechazo o región crítica, de tal forma que si el estadístico se encuentra en la
región de aceptación se aceptará la hipótesis nula y si cae en la región de rechazo se rechazará
dicha hipótesis.

El estadístico muestral es un fenómeno aleatorio, por lo que pudiera pasar que aunque la H o fuera
cierta, el estadístico se encontrara en la región de rechazo, en esta situación estaríamos
cometiendo un Error de Tipo I (α). Otra posible situación sería encontrar el estadístico en la región
de aceptación siendo la Ho falsa, con lo que cometeríamos un Error Tipo II (β). La forma de
minimizar este problema es empleando muestras de tamaño grande. Generalmente se procede
fijando una probabilidad de error α. Al valor α se le denomina nivel de significación y
habitualmente es del 5%.

Aunque existen diversos tipos de contrastes de hipótesis, únicamente explicaremos y pondremos


ejemplo de dos de ellos, que son el contraste de medias y el contraste de diferencias de medias.

Contraste de medias

Con la notación que habitualmente se utiliza en el contraste de hipótesis tendremos que μ es la


media de la población, σ la desviación típica de la población, s la desviación típica de la muestra,
n es el tamaño de muestra, X la media de la muestra, y Z o t es el estadístico.

Con relación al contraste de medias, suelen emplearse dos tipos de pruebas, los tests unilaterales
o los tests bilaterales, que tienen, respectivamente, las siguientes estructuras.

Ejemplo 1. Un laboratorio farmacéutico afirma que el antiinflamatorio fabricado por ellos elimina
la inflamación en 14 minutos en los casos corrientes.

Con el objeto de comprobar estadísticamente esta afirmación, eligimos al azar 18 pacientes con
inflamaciones varias y tomamos como variable de respuesta el tiempo transcurrido entre la
administración del antiinflamatorio y el momento en que desaparece la inflamación. Además, nos
dicen que la variable tiempo transcurrido entre la administración del antiinflamatorio y el momento
en que desaparece la inflamación sigue una distribución normal de media 14 y desviación 7. El
tiempo medio de respuesta de la muestra fue de 19 minutos.
Se pide comprobar la afirmación del laboratorio a un nivel de significación de 0.05.

Solución.

Primero consideremos los datos que tenemos.

X = 19, μ = 14, σ = 7, n = 18
Planteemos ahora las hipótesis de este test. Queremos contrastar la hipótesis nula a partir de la
afirmación de la empresa que dice que la inflamación desaparece en 14 minutos; así pues,
tendremos:
Hipótesis nula → Ho : μ = 14
La hipótesis alternativa será el caso desfavorable, en esta ocasión para la empresa, y puede
escribirse:
Hipótesis alternativa → Ha : μ> 14
Procederemos aceptando de entrada la hipótesis nula (m = 14), calculando el estadístico y
observando si se sitúa en la región crítica. Si así sucediera, rechazaríamos la creencia inicial de
aceptación de la hipótesis nula.

Sustituyendo los parámetros de la población y de la muestra en el estadístico tenemos :


Con lo que podemos observar que el estadístico se sitúa en la región crítica y ,por lo tanto no
sigue el criterio de aceptación de la hipótesis nula.

De ese modo, rechazaríamos la hipótesis Ho de que μ = 14 y concluimos que a un nivel 0.05 el


tiempo medio de eliminar la inflamación por este antiinflamatorio es superior a 14 minutos.

CAPÍTULO 5.- TEST DE HIPÓTESIS

Contraste de diferencia de medias

Sean X1 y X2 dos medias muestrales de dos poblaciones. Los tamaños de cada una de estas
muestras son n1 y n2 respectivamente. Queremos observar si la diferencia entre las medias es
significativa o no, es decir, comprobar si podemos aceptar que μ 1 = μ2.

Tenemos:

Si las desviaciones de las poblaciones son desconocidas y sólo conocemos las desviaciones
muestrales, tendremos que considerar la distribución t de Student en vez de la normal.

Ejemplo 2. Se conocen los datos de dos muestras de dos poblaciones, que son los siguientes:

Se pide contrastar estadísticamente si hay diferencia entre las dos poblaciones, a un nivel de
significación del 0.05.

Las dos poblaciones siguen una distribución Normal N(μ1, σ1) y N(μ2, σ2)

Solución.

Sabemos que las distribuciones de las dos poblaciones son Normales, pero desconocemos el
valor de su desviación, sólo conocemos el valor de la desviación típica de las muestras. Por
ahora, planteemos las hipótesis:

 Hipótesis nula → Ho : μ1 - μ2= 0, es decir, μ1 = μ2,

 Hipótesis alternativa → Ha : μ1 - μ2 ≠ 0, es decir, μ1 ≠ μ2

Aunque el estadístico que correspondería a este test es el asociado a una distribución T-Student,
por ser las desviaciones de las poblaciones desconocidas, como el tamaño de las muestras es
elevado y sabemos que una distribución T-Student con muchos grados de libertad se aproximaba
mucho a una Normal, utilizaremos el siguiente estadístico:

Estadístico → con distribución N(0,1)


Con los datos de la población y de la muestra, calculamos el estadístico, aceptando, por ahora, la
hipótesis nula (m1 = m2), y observemos en que región se sitúa el estadístico.

Como podemos ver, el estadístico se sitúa en la región de aceptación de la hipótesis nula, con lo
que aceptaríamos la Ho (μ1 = μ2), y podríamos concluir que, a un nivel de significación de 0.05, las
dos poblaciones se pueden considerar iguales estadísticamente.

Comprobación de la normalidad de una muestra.

Muchas pruebas estadísticas están basadas en el supuesto de que el universo del que se saca la
muestra está normalmente distribuido. Por tanto, es prudente cuando sea posible, comprobar este
supuesto de normalidad. Son varios los procedimientos disponibles para realizar la prueba. El
método más utilizado es la prueba X2.
Una prueba X2 es aquella que compara un conjunto de frecuencias de muestras con el conjunto
de frecuencias que cabría esperar basadas en alguna hipótesis. Si los dos grupos se comparan
bien, la hipótesis se rechaza. Como la distribución en la cual se basa la decisión de aceptar o
rechazar se funda en la distribución X2, esta prueba se denomina prueba X2. Se puede utilizar
para comprobar la adecuación de cualquier curva de frecuencia. En nuestro caso la hipótesis es
que la distribución de frecuencias sigue una distribución Normal

La formulación precisa de una prueba X2 es la siguiente; supongamos que F1, F2,…, Fk sean las
frecuencias de muestra de k clases y f1, f2, …; fk las frecuencias que se esperarían con base en la
hipótesis de normalidad.

En tal caso, si Ho es cierto, los valores de muestra de la cantidad

tenderán a formar una distribución X2, de parámetro “v”.

Al aplicar una prueba X2 para determinar la normalidad de una distribución, las frecuencias reales
de un histograma se comparan con las frecuencias teóricas obtenidas, suponiendo que el
universo está normalmente distribuido. Se “adapta” la curva normal dándole las mismas medias y
desviación estandar del histograma de la muestra. Las frecuencias teóricas y reales se comparan
en la forma que se describe mediante la fórmula anterior, y la tabla X2 se utiliza entrando con v =
k-3, siendo k el número de intervalos elegidos en el diagrama de frecuencias.

El proceso de adaptación impone a continuación las tres condiciones siguientes:

Utilizando la nomenclatura usada en estadística matemática, decimos que estas tres condiciones
ocasionan una pérdida de tres “grados de libertad”.

----------------------------------------------------------------------------------------------------------------------------------
CAPÍTULO 6.- MANUAL DE CONTROL ESTADÍSTICO DE PROCESOS
Introducción

Un sistema de control del proceso puede definirse como un sistema de realimentación de la


información en el que hay 4 elementos fundamentales:

Proceso
Por proceso entendemos la combinación global de personas, equipo,
materiales utilizados, métodos y medio ambiente, que colaboran en la
producción. El comportamiento real del proceso -la calidad de la producción y
su eficacia productiva- dependen de la forma en que se diseñó y construyó, y
de la forma en que es administrado. El sistema de control del proceso sólo es
útil si contribuye a mejorar dicho comportamiento.
Información Sobre el Comportamiento
El proceso de producción incluye no solo los productos producidos, sino
también los “estados” intermedios que definen el estado operativo del
proceso tales como temperaturas, duración de los ciclos, etc. Si esta
información se recopila e interpreta correctamente, podrá indicar si son
necesarias medidas para corregir el proceso o la producción que se acaba de
obtener. No obstante, si no se toman las medidas adecuadas y oportunas,
todo el trabajo de recogida de información será un trabajo perdido.
Actuación Sobre el Proceso
Las actuaciones sobre el proceso están orientadas al futuro, ya que se toman
en caso necesario para impedir que éste se deteriore. Estas medidas pueden
consistir en la modificación de las operaciones (por ejemplo, instrucciones de
operarios, cambios en los materiales de entrada, etc) o en los elementos
básicos del proceso mismo (por ejemplo, el equipo -que puede necesitar
mantenimiento, o el diseño del proceso en su conjunto- que puede ser
sensible a los cambios de temperatura o de humedad del taller). Debe
llevarse un control sobre el efecto de estas medidas, realizándose ulteriores
análisis y tomando las medidas que se estimen necesarias.
Actuación sobre la Producción

Las actuaciones sobre la producción están orientadas al pasado, porque la


misma implica la detección de productos ya producidos que no se ajustan a
las especificaciones.

Si los productos fabricados no satisfacen las especificaciones, será necesario


clasificarlos y retirar o reprocesar aquellos no conformes con las
especificaciones.

Este procedimiento deberá continuar hasta haberse tomado las medidas


correctoras necesarias sobre el proceso y haberse verificado las mismas, o
hasta que se modifiquen las especificaciones del producto.

Es obvio que la inspección seguida por la actuación únicamente sobre la


producción es un pobre sustituto de un rendimiento eficaz del proceso desde
el comienzo. El Control del Proceso centra la atención en la recogida y
análisis de información sobre el proceso, a fin de que puedan tomarse
medidas para perfeccionar el mismo.
Hay dos formas diferentes de diseño y análisis de sistemas de control que utilizan herramientas
estadísticas :

 Control Estadístico de Proceso (CEP) del que trata este manual.

 Control adaptativo, que utiliza lazos de retroalimentación para predecir futuros


valores de las variables de proceso. Este control dice cuando hay que
corregir para mantener a las variables con oscilaciones mínimas alrededor de
los valores objetivos y está basado en el Análisis de series Temporales (Box-
Jenkins).

Este tipo de control puede implementarse mediante sistemas de control automático digital (caso
más habitual) o mediante gráficos de control.

En o sucesivo nos referiremos únicamente al Control Estadístico del Proceso.

Control Estadístico de Procesos (C.E.P)

El CEP es una herramienta estadística que se utiliza en el puesto de trabajo para conseguir el
producto adecuado y a la primera. Los gráficos de control constituyen el procedimiento básico del
C.E.P. Con dicho procedimiento se pretende cubrir 3 objetivos

- Seguimiento y vigilancia del proceso

- Reducción de la variación

- Menos costo por unidad


En cualquier proceso productivo, por muy bien que se diseñe y por muy cuidadosamente que se
controle, siempre existirá una cierta variabilidad inherente, natural, que no se puede evitar. Esta
variabilidad natural, este “ruido de fondo”, es el efecto acumulado de muchas pequeñas causas
de carácter, esencialmente, incontrolable. Cuando el “ruido de fondo” sea relativamente pequeño
consideraremos aceptable el nivel de funcionamiento del proceso y diremos que la variabilidad
natural es originada por un „sistema estable de causas de azar”. Un proceso sobre el que solo
actúan causas de azar se dice que está bajo control estadístico.

Por el contrario, existen otras causas de variabilidad que pueden estar, ocasionalmente,
presentes y que actuarán sobre el proceso. Estas causas se derivan, fundamentalmente, de tres
fuentes:

 Ajuste inadecuado de las máquinas


 Errores de las personas que manejan las máquinas
 Materia prima defectuosa.
La variabilidad producida por estas causas suele ser grande en comparación con el “ruido de
fondo” y habitualmente sitúa al proceso en un nivel inaceptable de funcionamiento.
Denominaremos a estas causas “ causas asignables‟‟ y diremos que un proceso funcionando
bajo “causas asignables” está fuera de control.

Un objetivo fundamental del C.E.P. es detectar rápidamente la presencia de “causas asignables”


para emprender acciones correctoras que eviten la fabricación de productos defectuosos.

Alcanzar un estado de control estadístico de proceso puede requerir un gran esfuerzo pero es
sólo el primer paso. Una vez alcanzado, podremos utilizar la información de dicho control como
base para estudiar el efecto de cambios planificados en el proceso de producción con el objetivo
de mejorar la calidad del mismo. La Operación Evolutiva es un tipo de Diseño de Experimentos en
línea (aplicado al proceso productivo) que sirve como herramienta para acercarnos a las
condiciones óptimas de funcionamiento del proceso.

Gráficos CEP. Generalidades

Los gráficos de control o cartas de control son una importante herramienta utilizada en control de
calidad de procesos. Básicamente, una Carta de Control es un gráfico en el cual se representan
los valores de algún tipo de medición realizada durante el funcionamiento de un proceso continuo,
y que sirve para controlar dicho proceso. Vamos a tratar de entenderlo con un ejemplo.

Supongamos que tenemos una máquina de inyección que produce piezas de plástico, por
ejemplo de PVC. Una característica de calidad importante es el peso de la pieza de plástico,
porque indica la cantidad de PVC que la máquina inyectó en la matriz. Si la cantidad de PVC es
poca la pieza de plástico será deficiente; si la cantidad es excesiva, la producción se encarece
porque se consume más materia prima.

En el lugar de salida de las piezas, hay un operario que cada 30 minutos toma una, la pesa en
una balanza y registra la observación.

Supongamos que estos datos se registran en un gráfico de líneas en función del tiempo:

Observamos una línea quebrada irregular, que nos muestra las fluctuaciones del peso de las
piezas a lo largo del tiempo. Esta es la fluctuación esperable y natural del proceso. Los valores se
mueven alrededor de un valor central (El promedio de los datos), la mayor parte del tiempo cerca
del mismo. Pero en algún momento puede ocurrir que aparezca uno o más valores demasiado
alejados del promedio.

¿Cómo podemos distinguir si esto se produce por la fluctuación natural del proceso o porque el
mismo ya no está funcionando bien?

El control estadístico de procesos provee la respuesta a la anterior pregunta y a continuación


veremos como lo hace.

Todo proceso de fabricación funciona bajo ciertas condiciones o variables que son establecidas
por las personas que lo manejan para lograr una producción satisfactoria.

Cada uno de estos factores está sujeto a variaciones que realizan aportes más o menos
significativos a la fluctuación de las características del producto, durante el proceso de
fabricación. Los responsables del funcionamiento del proceso de fabricación fijan los valores de
algunas de estas variables, que se denominan variables controlables. Por ejemplo, en el caso de
la inyectora se fija la temperatura de fusión del plástico, la velocidad de trabajo, la presión del
pistón, la materia prima que se utiliza (Proveedor del plástico), etc.

Proceso bajo control estadístico

Un proceso de fabricación es una suma compleja de eventos grandes y pequeños. Hay una gran
cantidad de variables que sería imposible o muy difícil controlar. Estas se denominan variables no
controlables. Por ejemplo, pequeñas variaciones de calidad del plástico, pequeños cambios en la
velocidad del pistón, ligeras fluctuaciones de la corriente eléctrica que alimenta la máquina, etc.

Los efectos que producen las variables no controlables son aleatorios. Además, la contribución de
cada una de dichas variables a la variabilidad total es cuantitativamente pequeña. Son las
variables no controlables las responsables de la variabilidad de las características de calidad del
producto.

Los cambios en las variables controlables se denominan Causas Asignables de variación del
proceso, porque es posible identificarlas. Las fluctuaciones al azar de la variables no controlables
se denominan Causas No Asignables de variación del proceso, porque no son pasibles de ser
identificadas. Causas Asignables: Son causas que pueden ser identificadas y que conviene
descubrir y eliminar, por ejemplo, una falla de la máquina por desgaste de una pieza, un cambio
muy notorio en la calidad del plástico, etc. Estas causas provocan que el proceso no funcione
como se desea y por lo tanto es necesario eliminar la causa, y retornar el proceso a un
funcionamiento correcto.

Causas No Asignables: Son una multitud de causas no identificadas, ya sea por falta de medios
técnicos o porque no es económico hacerlo, cada una de las cuales ejerce un pequeño efecto en
la variación total. Son inherentes al proceso mismo y no pueden ser reducidas o eliminadas a
menos que se modifique el proceso.

Cuando el proceso trabaja afectado solamente por un sistema constante de variables aleatorias
no controlables (Causas no asignables) se dice que está funcionando bajo Control Estadístico.
Cuando, además de las causas no asignables, aparece una o varias causas asignables, se dice
que el proceso está fuera de control.

El uso del control estadístico de procesos implica algunas hipótesis que describiremos a
continuación:

1) Una vez que el proceso está en funcionamiento bajo condiciones


establecidas, se supone que la variabilidad de los resultados en la medición
de una característica de calidad del producto se debe sólo a un sistema de
causas aleatorias, que es inherente a cada proceso en particular.

2) El sistema de causas aleatorias que actúa sobre el proceso genera un


universo hipotético de observaciones (mediciones) que tiene una Distribución
Normal.

3) Cuando aparece alguna causa asignable provocando desviaciones


adicionales en los resultados del proceso, se dice que el proceso está fuera
de control.
La función del control estadístico de procesos es comprobar en forma permanente si los
resultados que van surgiendo de las mediciones están de acuerdo con las dos primeras hipótesis.
Si aparecen uno o varios resultados que contradicen o se oponen a las mismas, es necesario
detener el proceso, encontrar las causas por las cuales el proceso se apartó de su
funcionamiento habitual y corregirlas.

La puesta en marcha de un programa de control estadístico para un proceso implica dos etapas:

Antes de pasar a la segunda etapa, se verifica si el proceso está ajustado. En caso contrario, se
retorna a la primera etapa. En la 1ª etapa se recogen unas 100-200 mediciones, con las cuales se
calcula el promedio y la desviación standard:

Luego se calculan los Límites de Control de la siguiente manera:

Límite inferior = X - 3,09s ; Límite superior = X+ 3,09s


Estos límites surgen de la hipótesis de que la distribución de las observaciones es normal. En
general se utilizan límites de 2 sigmas ó de 3 sigmas alrededor del promedio. En la distribución
normal, el intervalo de 3,09 sigmas alrededor del promedio corresponde a una probabilidad de
0,998.
Se construye un gráfico de prueba y se traza una línea recta a lo largo del eje de ordenadas (Eje
X), a la altura del promedio (Valor central de las observaciones) y otras dos líneas rectas a la
altura de los límites de control.

En el gráfico de prueba se representan los puntos correspondientes a las observaciones con las
que se calcularon los límites de control y se analiza detenidamente para verificar si está de
acuerdo con la hipótesis de que la variabilidad del proceso se debe sólo a un sistema de causas
aleatorias o si, por el contrario, existen causas asignables de variación. Esto se puede establecer
porque cuando la fluctuación de las mediciones se debe a un sistema constante de causas
aleatorias la distribución de las observaciones es normal:

Cuando las observaciones sucesivas tienen una distribución normal, la mayor parte de los puntos
se sitúa muy cerca del promedio, algunos pocos se alejan algo más y prácticamente no hay
ninguno en las zonas más alejadas.

Es difícil decir como es el gráfico de un conjunto de puntos que siguen un patrón aleatorio de
distribución normal, pero sí es fácil darse cuenta cuando no lo es. Veremos algunos ejemplos de
patrones No Aleatorios en el capítulo 7.

Si no se descubren causas asignables entonces se adoptan los límites de control calculados


como definitivos, y se construyen cartas de control con esos límites.

Si sólo hay pocos puntos fuera de control (2 ó 3), estos se eliminan, se recalculan la media,
desviación standard y límites de control con los restantes, y se construye un nuevo gráfico de
prueba. Cuando las observaciones no siguen un patrón aleatorio, indicando la existencia de
causas asignables, se hace necesario investigar para descubrirlas y eliminarlas. Una vez hecho
esto, se deberán recoger nuevas observaciones y calcular nuevos límites de control de prueba,
comenzando otra vez con la primera etapa.

En la 2ª etapa, las nuevas observaciones que van surgiendo del proceso se representan en el
gráfico, y se controlan verificando que estén dentro de los límites, y que no se produzcan
patrones no aleatorios.

Como hemos visto, el 99,8 % de las observaciones deben estar dentro de los límites de 3,09
sigmas alrededor de la media. Esto significa que sólo una observación en 500 puede estar por
causas aleatorias fuera de los límites de control. Cuando se encuentra más de un punto en 500
fuera de los límites de control, significa que el sistema de causas aleatorias que provocaba la
variabilidad habitual de las observaciones ha sido alterado por la aparición de una causa
asignable que es necesario descubrir y eliminar. En ese caso, el supervisor del proceso debe
detener la marcha del mismo e investigar con los que operan el proceso hasta descubrir la(s)
causas que desviaron al proceso de su comportamiento habitual. Una vez eliminadas las causas
del problema, se puede continuar con la producción normal.

Estos límites de control se escogen de forma que si el proceso está bajo control, prácticamente
todos los puntos del gráfico estarán contenidos entre dichos límites. En tanto los puntos estén
dentro de los limites no será precisa ninguna acción correctora porque se supone que el proceso
esté balo control. Sin embargo, un punto fuera de los límites de control se interpreta como una
evidencia de que el proceso está fuera de control debiendo investigarse la naturaleza de la causa
o causas asignables presentes a fin de eliminarlas, adoptando la oportuna medida correctora.

Si el proceso está bajo control, además de situarse los puntos dentro de los límites de control,
todos los puntos del gráfico presentarán una posición originada por el azar sin la presencia de
patrones especiales de variabilidad.

IMPORTANTE : No hay que confundir los límites de control con los límites de tolerancia.
Los límites de tolerancia son los
valores de una determinada
característica que separan valores
correctos e incorrectos de la misma
(fijados normalmente por el proyectista
para que el producto funcione
adecuadamente)

Los límites de control son aquellos


entre los cuales el estadístico
considerado (sean valores individuales,
medias, medianas, recorridos desviaciones típicas, sumas acumuladas, etc.) tiene una
probabilidad muy alta de situarse cuando el proceso está bajo control (no hay causa asignable).

Cuando un proceso (que suponemos sigue una distribución Normal) se desplaza respecto a sus
valores nominales o aumenta su dispersión, genera más elementos defectuosos (más elementos
fuera de los límites de tolerancia).

Variables y atributos

Los gráficos de control se clasifican en dos tipos: Variables y Atributos. Si la característica dc


calidad puede medirse y expresarse como un número la llamamos variable. En tales casos es
conveniente describir la característica de calidad con una medida de tendencia central y una
medida de dispersión mediante los llamados gráficos de control por variables, que veremos en el
capítulo 7.

Los gráficos X son los más ampliamente utilizados para controlar la tendencia central mientras
que los gráficos de rango (recorrido) y de desviación típica se utilizan para controlar la dispersión.
Muchas características cualitativas no se miden en una escala cuantitativa. En estos casos,
juzgaremos si una unidad de producto es o no conforme si posee ciertos atributos o contando el
número de defectos que aparecen en cada unidad de producto. Los gráficos de control para estas
características se denominan gráficos de control por atributos, que veremos en otro de los
capítulos.

Eficacia estadística de los gráficos de control

El objetivo básico de un gráfico de control es detectar, de la forma más rápida posible, cambios
en el proceso.

Cuando un punto cae fuera de los límites de control decimos que el proceso está fuera de control,
que existe una causa asignable. Realmente, como en cualquier contraste de hipótesis estadístico
existe una probabilidad de dictaminar una situación fuera de control cuando el proceso está
realmente bajo control (error tipo I) así como una probabilidad de (error tipo II) de decir que el
proceso está bajo control (puntos entre límites de control) cuando realmente el proceso está fuera
de control. Al diseñar el gráfico tenemos presente estos dos errores, que determinan la eficacia
estadística del mismo. Dicha eficacia viene recogida en dos curvas:

Curva ARL (Longitud de racha media). Indica el número medio de muestras necesario para
detectar un cambio en el proceso de magnitud determinada.

Es la principal característica del gráfico ya que nos mide la rapidez de respuesta del mismo.

Como se observa en la curva ARL, si no hay descentrado (d =0), también hay puntos fuera de
límites (falsas señales o error tipo I)

Curva característica. Da la probabilidad de que el siguiente punto caiga dentro de tos límites de
control para un cambio en el proceso de magnitud determinada.

Para diseñar un gráfico de control con una eficiencia estadística determinada fijaremos:
A) Separación de límites de control. Cuanto más alejados estén uno de otro
el error tipo I será menor y aumentará el tipo II
B) Tamaño de la muestra. Al aumentar el tamaño de la muestra el error tipo II
disminuye
Subgrupos racionales

El concepto de subgrupo racional es una idea fundamental para el uso de gráficos de control
debida a Shewhart. De acuerdo con este concepto, la muestra (subgrupo racional) debe tomarse
de tal forma que si la causa asignable está presente, la probabilidad de aparición de diferencias
significativas dentro de los subgrupos se minimice.

Dicho de otra forma, los subgrupos deben elegirse de forma que tengan la máxima probabilidad
de que las mediciones realizadas en cada subgrupo sean semejantes y la máxima probabilidad
de que los subgrupos se diferencien entre si. El principal esfuerzo ha de centrarse en garantizar
que las unidades de cada subgrupo se producen, esencialmente, bajo las mismas condiciones.

Cuando los gráficos de control se aplican a los procesos de producción, el orden de producción
será una base lógica para el agrupamiento en subgrupos racionales. Aún cuando se respete el
orden de producción es posible formar subgrupos erróneamente.

Los subgrupos se realizan agrupando las mediciones de tal modo que haya la máxima
variabilidad entre subgrupos y la mínima variabilidad dentro de cada subgrupo. Por ejemplo, si se
toman unas observaciones de una muestra al final de un turno y las restantes al comienzo de!
siguiente, entonces podrían no ser detectados algunos cambios.

Supongamos una fábrica que produce


piezas cilíndricas para la industria
automotriz. La característica de calidad que
se desea controlar es el diámetro de las
piezas.

Existen dos caminos para formar subgrupos


racionales. Una de ellas es retirar varias
piezas juntas a intervalos regulares, por
ejemplo cada hora.

Este método se utiliza cuando el propósito fundamental del gráfico de control es detectar cambios
de nivel del proceso.

La otra forma es retirar piezas individuales a lo largo del intervalo de tiempo correspondiente al
subgrupo.
... etc

Este método se utiliza sobre todo cuando los gráficos se emplean para tomar decisiones respecto
de la aceptación de todas las unidades producidas desde la última muestra.

Por cualquiera de los dos caminos, obtenemos grupos de igual número de mediciones.

Si tomamos muestras según el primer método en un proceso que puede cambiar a una situación
de fuera de control y volver de nuevo dentro de control en el período comprendido entre
muestras, entonces, no detectaríamos la producción defectuosa, por lo que sería mas adecuado
utilizar el segundo método.

Hacemos notar, sin embargo, que cuando se forman subgrupos de esta segunda forma, los
gráficos de control para la dispersión (rango y sigmas) requieren una cuidadosa interpretación ya
que es posible la aparición de puntos fuera de control aún cuando no existan cambios en la
variabilidad del proceso.

Existen otras bases para formar subgrupos racionales: Diferentes máquinas, distintos
trabajadores, etc. A veces, por ejemplo, será preciso realizar un gráfico de control para cada
máquina.

----------------------------------------------------------------------------------------------------------------------------------
CAPÍTULO 7.- GRAFICOS DE CONTROL POR VARIABLES
Introducción. Gráficos basado en un estudio inicial

Muchas características de calidad pueden expresarse en términos de medida numérica. Por


ejemplo, el diámetro de una pieza puede medirse con un micrómetro y expresarse en milímetros.
Una característica cualitativa que sea medible tal como un volumen, un peso, o cualquier
dimensión, en general, es una variable.
Cuando nos referimos a una variable, es una práctica normal el controlar tanto el valor medio
como la dispersión. El control del valor medio se realiza, habitualmente, con el gráfico de control
para medias, o gráfico X. El control de la dispersión puede efectuarse bien con el gráfico de
control de la desviación típica (gráfico S) o con el gráfico de control de rangos (gráfico R). El uso
del gráfico R está más extendido que el del gráfico S.
Debemos señalar que es necesario mantener el control sobre ambos: Media y dispersión del
proceso. La figura 2 representa la situación de un proceso. En a) tanto la media μ como la
desviación típica σ están bajo control a sus valores nominales (μ o, σo) y en consecuencia la
mayor parte de la producción del proceso cae dentro de los límites de especificación. En la figura
b) la media se ha trasladado μ 1 > μo dando como resultado una cierta fracción de la producción
fuera de especificación. En la figura c) la desviación típica ha cambiado σ 1 > σo lo que origina
también que un parte de la producción esté fuera de norma.

Los gráficos X-R se utilizan cuando la característica de calidad que se desea controlar es una
variable continua.

A.- Gráfico de la media

Supongamos que una variable está normalmente distribuida con media μ y desviación típica σ y
que ambas son conocidas. Si X1, X2, ... son mediciones de una muestra de tamaño n, la media
muestral, dada por :

está normalmente distribuida con media μ y desviación típica . Además, la probabilidad


de que cualquier media muestral caiga en el intervalo
es 1 - α, siendo α el error tipo I o Nivel de significación (probabilidad de decir que el proceso se ha
descorregido cuando en realidad el proceso sigue la distribución N(μ , σ)),

Por consiguiente, si μ y σ son conocidos la expresión


anterior puede utilizarse para determinar los límites de
control de la media muestral. Habitualmente usaremos los
límites 3σ reemplazando Zα/2 por 3. Si la media muestral
cae fuera de estos límites, esto indicará que la media del
proceso no permanece en μ.

Hemos supuesto que la distribución original era normal.


Si no lo fuera, los anteriores resultados serían también
aproximadamente válidos por aplicación del teorema
central del límite.
En la práctica no conocemos μ ni σ, por consiguiente,
debemos estimarlas a partir de muestras previas
obtenidas del proceso cuando se cree que éste está bajo
control. Esta estimación debe basase como mínimo en 20
o 25 muestras.

Supongamos que disponemos de (m) muestras, cada una de ellas con (n) observaciones.
Típicamente, n será pequeño 4 ó 5. En esa situación, el mejor estimador de la media del proceso
será

se utilizará como valor de la línea central del gráfico.

Para construir los límites de control, necesitamos un estimador de la desviación típica s.


Podemos estimar s a partir de los rangos o de las desviaciones típicas de las (m) muestras. De
momento, haremos la estimación a partir de los rangos. Si X1, X2,..., Xn, son mediciones de una
muestra de tamaño n, el rango de la muestra es R =Xmax - Xmin.

La variable aleatoria W = R/s sigue una distribución conocida denominada distribución del rango
relativo. Los parámetros de esta distribución son función del tamaño de muestra (n). La media de
W es (d2) y la desviación típica (d3). En consecuencia, un estimador de s es R/d2. Los valores de
d2 están tabulados (Tablas II y III). Si

la mejor estima de s será

Cuando el tamaño de la muestra es pequeño: n = 4 ó 5 el método de estimar a partir del rango da


casi tan buen resultado como estimarla a partir de la varianza muestral. Sin embargo, para
valores de n, digamos no mayores de 10, pierde rápidamente eficiencia ya que ignora toda la
información comprendida entre Xmax y Xmin.
Si usamos Xcomo estimador de m y como estimador de s entonces los límites de control
del gráfico de medias quedarían:

Za/2 lo obtendríamos de las tablas de Distribución Normal (Tabla I), una vez elegido a (error tipo I).

Normalmente Za/2 = 3 (a = 0,0027), en este caso la cantidad esta tabulada y el


calculo de los límites de control da:

B.- Gráfico del recorrido

Hemos visto que el rango muestral está relacionado con la desviación típica del proceso. Por
consiguiente, la variabilidad del proceso puede controlarse representando los valores sucesivos
del rango muestral que constituyen el gráfico del rango (R).
Los parámetros de (R) pueden determinarse con facilidad, la línea central será . Para
determinar los límites de control necesitamos estimar σR. Suponiendo que la variable sigue una
distribución normal, σR puede encontrarse a partir de la distribución del rango relativo W = R/σ. Al
ser la desviación típica de W = d3, la desviación típica de R será . Como σ es
desconocida la estimamos por R/d2 con lo que . Considerando los límites habituales
“3 sigma” los parámetros del gráfico de control serán:

Si hacemos

resulta :

Las constantes D3 y D4 están tabuladas para diferentes valores de D (Tabla IV).

Podemos calcular los límites del gráfico del recorrido especificando el error I (α) y utilizando la
tabla de la distribución del rango relativo, calcular W α (que depende del tamaño de la muestra) y
calcular luego el límite superior de control
Cuando se inicia el control estadístico y las muestras previas son utilizadas para construir los
gráficos,X, R, los primeros límites de control calculados suelen considerarse como valores de
prueba. A continuación, las medias y los rangos son representados en los gráficos y se investigan
aquellos puntos situados fuera de control. Si se descubren causas asignables, los puntos se
descartan y se calculan nuevos límites de prueba. El procedimiento se repite hasta que todos los
puntos se sitúen dentro de control. la muestra inicial no debe reducirse por debajo de
aproximadamente 20 muestras.
El concepto del subgrupo racional juega un importante papel en el uso de los gráficos (X, R). El
gráfico Xrealiza el seguimiento del nivel medio de calidad del proceso. Por consiguiente, las
muestras deben seleccionarse de forma que se maximice la probabilidad de diferencia entre
medias muestrales. Otra forma de expresar lo anterior es que el gráfico X hace el seguimiento de
variabilidad del proceso a lo largo del tiempo mientras que el gráfico del rango R mide la
variabilidad dentro de la muestra (variabilidad instantánea en un momento dado).
La estima de la desviación típica del proceso, utilizada para calcular los límites de control se
calcula a partir de la variabilidad dentro de cada muestra y por consiguiente refleja solamente la
variabilidad dentro de la muestra. No es correcto estimar σ basándose en

que sobreestimaría σ por combinar la variabilidad entre muestras con la variabilidad dentro de la
muestra.

Ejemplo:
En una fabricación se desea controlar el peso de unos cartuchos de calibre 55, pero no se
conocen la media ni la dispersión del proceso. Durante varios días en que la producción se estimó
bajo control se obtuvieron 25 muestras de 5 unidades (los valores no son reales)

Utilizando criterio 3? para el gráfico de medias obtendríamos:


Vemos que las muestras 6, 18 y 19 caen fuera de límites. Rechazadas dichas muestras los
nuevos límites quedarían:

Y todas las medias de subgrupos caen dentro de estos límites.


Veamos que ocurre con los recorridos (ó rangos) -(utilizamos criterios 3 σR )

La muestra 21 tiene un recorrida (0.032) mayor que LS por lo que la eliminamos. Con las
muestras 6, 18, 19 y 21 eliminadas calculamos de nuevo los límites:

Para la media

Para el recorrido

La muestra 11 queda fuera de límites por lo que eliminándola, lo nuevos limites quedarán:

Los nuevos límites:


De medias muestrales

De recorridos muestrales

Como vemos no hay medias muestrales ni recorridos muestrales que se salgan de éstos líimites.
Estos últimos quedan como definitivos.

Gráficos basados en valores estandar


Cuando es posible especificar valores desviación típica del proceso, usaremos límites de control
del gráfico X, R, sin Supongamos que los estandar dados son μ y σ. Entonces los parámetros del
gráfico son :

donde α es el error tipo I elegido.

Normalmente Zα/2 = 3 (α = 0,0027), la cantidad ,que solo depende de n, esta tabulada


en la tabla I, por lo que los parámetros quedarán :

Para construir el gráfico R con un valor estándar σ, tendremos en cuenta los valores tabulados d2
y d3 que son, respectivamente, el valor central y la desviación típica de la distribución del rango
relativo W = R/σ. Por consiguiente, (utilizando el criterio 3 σR) los parámetros serán :

También están tabulados los valores :

con lo que los límites de control serán

Si definimos un error tipo I determinado, utilizamos las tablas de la distribución del rango relativo
para calcular los límites.
La utilización de los gráficos basados en valores estándar debe ejercerse con cuidado ya que
puede ser que estos valores no sean realmente aplicables al proceso y que, en consecuencia,
resulten muchos puntos fuera de control.
Si el proceso está en realidad bajo control para una media y una desviación típica diferentes
podemos gastar un esfuerzo considerable en buscar causas asignables inexistentes. En aquellos
procesos en los que la característica cualitativa se controle mediante ajustes de la máquina este
tipo de gráficos suele dar buenos resultados para conseguir los objetivos propuestos.

Ejemplo.- Supongamos que una especificación señala que debemos fabricar un material granular
de diámetro exterior 10,8 ± 0,2 mm y que nos aceptan alrededor de 5.5% de granos defectuosos.
El colectivo debe seguir una Distribución Normal de media
10,8 y σ = 0,1 (si queremos dejar cuando el proceso está
centrado un 4% (<5,5) de granos defectuosos.

Para elegir el gráfico de control de medias muestrales:

Elijo α (Probabilidad de detectar un cambio en el proceso


cuando en realidad no se ha producido, error tipo 1).α = 2.
7 o/oo (criterio 3σ).

Elijo n (tamaño de la muestra). Con el tamaño de la


muestra controlo el error tipo II (Probabilidad de no
detectar cambios en el proceso cuando los hay). Ver
curvas características y ARL en el punto. 2.2.2.
Normalmente n = 5.

Para elegir el gráfico de control del recorrido:

Elijo el error tipo I, por ejemplo α = 2. 7o/oo. luego 1-α =


0,9975. En la tabla de la distribución del rango relativo
(tablas II y III), para n = 5 obtengo y = 5,25, luego LSC =
5,25 x 0,1 = 0,52

Gráficos de control para valores individuales

Existen muchas situaciones en las que el tamaño de muestra utilizado para el control del proceso
es n = 1. Esto ocurre con frecuencia cuando la inspección está automatizada y se mide cada
unidad producida. También se utiliza cuando el ratio de producción es demasiado bajo para
esperar a tomar una decisión hasta tener muestras de tamaño n > 1. También, por ejemplo, en
procesos químicos en los que las medidas sucesivas que pudieran hacerse sobre muestras
tomadas en un corto intervalo de tiempo solo difieren por razón del error experimental del análisis.

Para estimar la variabilidad del proceso se puede utilizar el recorrido entre dos observaciones
sucesivas. También es posible establecer un gráfico de control para el recorrido móvil de dos
observaciones sucesivas.

Gráficos de control de media móvil (desgaste de herramientas)

Si durante el proceso de investigación se presentan ciertas causas de variación que, aunque


identificadas por los gráficos de control como causas especiales, y en calidad de tales son
“asignables”, son consideradas una característica integral del proceso (por ejemplo herramientas
que se desgastan en el transcurso del tiempo sin ser reemplazadas para conseguir máxima
productividad, o una solución química cuyos elementos constituyentes son, dejados que cambien
progresivamente de nivel antes de reemplazar la solución completa). Tal vez no resulte práctico
eliminar estos cambios de nivel completamente, por lo que habrá de tenerse esto en cuenta en el
trazado del gráfico de control para un proceso que demuestre dicha tendencia.

Recogida de datos e interpretación (Ver figura 3)


Los datos deben ser recogidos en el gráfico de control de la forma acostumbrada, mientras el
proceso marcha bajo condiciones normales de producción, anotando cualesquiera
acontecimientos o cambios que puedan afectar al proceso. Una vez recogidos suficientes datos
que abarquen por lo menos un ciclo completo del proceso (es decir el período entre cambios de
herramienta o solución), será necesario identificar cualesquiera causas especiales de cambios en
el proceso, aparte de la tendencia prevista, mediante la búsqueda de pautas inusuales en el
gráfico con los límites diagonales situados a una distancia encima de la línea de tendencia y
debajo de la línea de tendencia (línea de regresión).

Establecimiento de límites del Proceso

Para poder utilizar el gráfico de control como indicador de cuándo deben hacerse los cambios del
proceso, ahora es necesario calcular el movimiento promedio de la media observada. El proceso
debe marchar en condiciones de trabajo normales durante varios ciclos del proceso. El
movimiento de la media correspondiente a cada ciclo, se calcula de la siguiente forma:
movimiento de media = observado - observado
Entonces se calcula el Movimiento Promedio de la Media como promedio de estos valores.
Posteriormente se pueden trazar los límites sobre el gráfico de control de la siguiente manera:
= X +(0,5) x Movimiento promedio de media +
= X - (0,5) x Movimiento promedio de media -
LCI y LCS son establecidos como para un gráfico de control basado en valores standard.

Líneas generales para el diseño del grafico X ,R


Para diseñar el gráfico X , R debemos especificar el tamaño de muestra, la amplitud de los límites
de control y la frecuencia del desmuestre. Sin una detallada información de los factores
económicos y estadísticos que afectan al problema, no puede darse una solución exacta al diseño
del gráfico de control. Una solución completa exige conocer el coste del desmuestre, el coste de
investigar y corregir el proceso cuando está fuera de control y el coste asociado con producir
fuera de los límites especificados. Sin embargo, pueden darse unas líneas generales para el
diseño.

Si el gráfico X se quiere utilizar para detectar cambios relativamente grandes (del orden de 2σ)
son suficientemente efectivos tamaños de muestra n = 4 a 6. Si lo que deseamos es detectar
cambios más pequeños puede ser necesario aumentar el tamaño de muestra hasta n = 15 ó 25.

Cuando se toman muestras pequeñas existe menor riesgo de que el cambio se produzca en el
curso de la toma de muestra. Si el cambio tiene lugar durante el desmuestre la media muestral no
reflejará debidamente el cambio por estar influida por las restantes observaciones. De ahí un
argumento para utilizar un tamaño de muestra tan pequeño como sea posible pero que a la vez
sea suficiente para detectar un cambio de la magnitud requerida.

Una alternativa a incrementar el tamaño de muestra es utilizar límites de atención.


El gráfico A es relativamente insensible a los cambios en la desviación típica para pequeñas
muestras. Por ejemplo muestras del tamaño n = 5 solo tienen una probabilidad de detectar de
aproximadamente el 40% en la primera muestra, un cambio en la desviación típica del proceso de
σ a 2σ. Con tamaños de muestra mayores, la efectividad sería mayor pero también seria A peor
estimador de a por lo que sería más conveniente para n = 10 utilizar los gráficos S en lugar del R.
Desde el punto de vista estadístico las curvas ARL de los gráficos X , R son un poderoso auxiliar
para escoger el tamaño de muestra.

Por ser, casi siempre, limitados los recursos que pueden emplearse en el desmuestre, las
estrategias posibles consistirán en tomar pequeñas muestras a intervalos cortos o grandes
muestras de menor frecuencia. No se puede dar una regla general para todos los casos, aunque
la tendencia en la práctica industrial es la de tomar pequeñas y frecuentes muestras. La
percepción más generalizada es que si el intervalo entre desmuestres es demasiado grande
puede producirse un porcentaje elevado de producto defectuoso antes de que se detecte el
cambio en el proceso. Desde el punto de vista económico, sí el coste asociado con la producción
de unidades defectuosas es elevado es también mejor tomar muestras pequeñas y frecuentes
que muestras de mayor tamaño más espaciadas.

El ratio de producción también influye en la frecuencia y tamaño de la muestra. A mayor


producción/hora, mayor frecuencia de desmuestre. Si el coste de desmuestre y de la mediación
no son excesivos los procesos de elevado ratio de producción se desmuestran con tamaños de
muestra mayores n = 15/25.

El uso de límites de control “3σ” en los gráficos X ,R es la práctica más ampliamente extendida.
Existen, sin embargo, situaciones en las que es conveniente adoptar otros criterios.

Por ejemplo, si las falsas alarmas (errores de tipo II son muy costosas de investigar puede ser
mejor utilizar límites de control a “4σ”. Por el contrario, si para un determinado proceso las
señales de fuera de control son rápida y fácilmente investigadas puede ser mejor colocar los
límites de control a “2σ”.

Interpretación de los gráficosX ,R

Una vez desarrolladas las técnicas para el cálculo de los gráficos de control conviene establecer
unas pautas generales tendentes a ayudar a la "lectura de los gráficos", con vistas a obtener el
máximo provecho de ellos.
a) Generales

Los gráficos de control pueden indicar una situación fuera de control aún sin existir puntos fuera
de los límites de control cuando los puntos representados sigan pautas distintas al
comportamiento aleatorio. En algunos casos estas pautas pueden utilizarse para realizar
modificaciones que reduzcan la variabilidad del proceso (objetivo básico del C.E.P.)

Para interpretar pautas en el gráfico X es preciso antes asegurarse de que el gráfico R está bajo
control. Lo primero será, pues, eliminar las causas asignables correspondientes al gráfico R. Esto,
en muchos casos, eliminará automáticamente las pautas del gráficoX .

Normalmente sólo interesan los puntos fuera de los intervalos. Estos deberán marcarse o
destacarse (por ejemplo, con un círculo rojo). Los puntos que estén muy cerca de las líneas de
control conviene marcarlos con un semicírculo (rojo, cuando están fuera y negro cuando caen
dentro.

No es conveniente dedicar demasiada atención al movimiento de los puntos dentro de los límites
de control, excepto en los casos de “sesgo” y “tendencia” que veremos mas adelante.

Se considera que el proceso está en estado controlado cuando:

 25 puntos consecutivos caen dentro de los límites de control

 En 100 puntos consecutivos no hay más de 2 que caen fuera de límites de


control

No obstante hay que investigar y corregir la anomalía.

Se considera, también, que hay anomalía en el proceso cuando varios puntos caen al mismo lado
de la línea central:

 7 o más puntos consecutivos

 10 de 11 puntos consecutivos
 12 de 14 puntos consecutivos

Cuando los puntos caen masivamente entorno a la línea central (sobrestabilidad), deben
analizarse las causas (pues suponen una mejora) para intentar hacerlas permanentes.

Los cambios en el gráfico de X no tienen porque reflejarse en el de R. Sin embargo, un cambio en


la variabilidad (R), si que suele traducirse en cambios en el de medias (X).

Los cambios de turnos (operarios), de materias primas, etc. pueden dar lugar a “periodicidades”
(ciclos).

Cuando hay “grandes-fluctuaciones” en los puntos, suele deberse al mal manejo o falta de
entrenamiento o interés del operario u operarios.

b) Aspectos específicos de los gráficos R

Un punto que sobrepasa el límite superior puede indicar:

 La variabilidad del proceso ha empeorado


 Cambio de persona o instrumento de medida

En todos los casos en los que un punto cae fuera de los límites de control (superior o inferior), hay
que comprobar antes de cualquier acción:

 Que el punto ha sido bien marcado

 Que los límites han sido bien calculados

Frecuentemente, pueden detectarse cambios anormales del proceso antes de que este se salga
de los límites de control. Estos cambios son advertidos por un “Sesgo” en el gráfico, como ocurre
en el caso de que 7 o más puntos sucesivos caigan en el lado superior de la línea central, sin
salirse de los límites.

Un "sesgo" significa mayor variabilidad en la producción (cambio de lote de producto, avería de


máquina, etc.)

Cuando el “sesgo” esté por debajo de la línea central R, esto indica MENOR variabilidad en el
proceso, lo que es indicador de una mejora, que debe ser estudiada para intentar hacerla
permanente.

A título orientativo un 60% de los puntos deben caer en el 1/3 central, un 40% en los 2/3 restantes
aproximadamente. Si no es así, conviene “recalcular de nuevo los límites de control”.

Cada vez que un punto salga de los límites de control, y se detecte y corrija la causa, deberían
“recalcularse” los límites de control. En cualquier caso estos deberían recalcularse cada 5-6
meses. En los nuevos cálculos deben suprimirse los datos que están fuera de límites de control,
siempre y cuando se hayan determinado y eliminado las causas.

Cuando los R están bajo control la “variabilidad” del proceso está controlada, por lo que el
proceso es estable, y puede pasar a analizarse el Gráfico X.

c) Aspectos específicos de los gráficos X

Un punto fuera de límites indica generalmente:

 El proceso ha sido modificado en ese momento o desde la última toma de


muestra

 Modificación de la medida por cambio de persona o instrumento de medición


 El punto está mal marcado o los límites están mal calculados

Al igual que en los Gráficos R, existe “sesgo” cuando hay 7 o más puntos seguidos a un mismo
lado de la línea de X.

Una tendencia puede significar un desajuste gradual del proceso.

Igual que en los gráficos R, el reparto de puntos aproximado debe ser 60% 1/3 central, 40% 2/3
restantes.

El recálculo de los límites de control debe hacerse a la vez que el de R, y siguiendo los mismos
criterios.
La figura 3-a presenta
una pauta de tipo cíclico.

Esta pauta en el gráfico


X puede ser debida a
cambios en el ambiente
tales como temperatura;
fatiga del operario,
rotación de trabajadores
y/o máquinas,
fluctuaciones en el
voltaje o en la presión.
etc.
Los gráficos A también suelen indicar pautas originadas por los programas de mantenimiento, la
fatiga del operario.

La figura 3-b indica una mezcla de dos o más colectivos. En este caso, los puntos tienden a caer
fuera o ligeramente fuera de los limites de control. A veces, esta pauta aparece por “sobrecontrol”
cuando los operadores ajustan frecuentemente el proceso respondiendo a variaciones aleatorias
más que a la aparición de causas sistemáticas.

La figura 3-c indica un cambio en el nivel del proceso.


Estos cambios pueden producirse tras la introducción
de nuevos operarios, o tras cambios en las máquinas,
materias primas o en la motivación de los operadores.
A veces, se nota incluso mejora tras la simple
introducción del programa de implantación del C.E.P.
por la motivación ejercida sobre los operadores.

La figura 3-d indica una tendencia, que es un


movimiento continuo en una sola dirección. Las
tendencias son debidas usualmente al deterioro
gradual de las herramientas u otros componentes
críticos del proceso.
Fig 3-d
También pueden originarse
las tendencias por la fatiga
del operario o la presencia de
supervisores o por
influencias estacionales
como la temperatura.
Cuando las tendencias son
debidas a causas
sistemáticas de deterioro,
éstas pueden ser
incorporadas a los gráficos.
fig 3-e La figura 3-e indica
estratificación que se traduce
en un excesivo agrupamiento
de puntos cerca de la línea
central.
.Esta situación puede originarse por haber calculado mal los límites de control.

Finalmente, indicamos que las pautas deben considerarse observando a la vez los gráficos , R. Si
la distribución original es normal, los gráficos , R evolucionarán de forma independiente. Cualquier
correlación entre ambos gráficos señalará que la distribución no es normal sino sesgada.

Eficacia de los gráficos X ,R

La eficacia de estos gráficos se describe a través de las curvas ARL (Longitud de racha media) y
curva característica.

A) calculo de las curvas características y ARL del gráfico

- Curva característica

Suponemos la desviación típica conocida y constante. Si la medía cambia desde


el valor objetivo μo hasta otro valor μ1 = μo + K. σ ,la probabilidad de no detectar el
cambio en la primera muestra que se tome será:

con :

por lo cual :

Normalmente se elige α = 0,0027 (Error tipo I) Z α/2 = 3. Esta curva (Probabilidad de que el
siguiente punto caiga dentro de los límites de control en función del Descentrado del proceso)
viene representada (con α = 0,0027), para distintos tamaños de muestra (n) en la figura C.
Curva ARL

La probabilidad de no detectar el cambio en la 1ª muestra es 1- β. La de no detectarlo en la 2ª es


β (1- β). La probabilidad de no detectarlo en la muestra K será: βk-1 (1- β). Esta es una
distribución geométrica de media 1/(1- β).
Conocida la curva característica, la construcción de la ARL es inmediata ya que:

Descentrado Curva
Curva ARL
del proceso caractrística
β 1/(1-β)
K Probabilidad de no detectar el cambio en la Número medio de muestras para detectar el
siguiente muestra cambio

B) Cálculo de las curvas características y ARL del gráfico RCurva característica.

Hay que utilizar la distribución del rango relativo. La probabilidad de que una muestra caiga dentro
de los límites de control será:

para un α determinado (error tipo 1) y dando valores a α (variación en la dispersión del proceso)
obtenemos tos valores de β.

La curva ARL la Aumento de dispersión Curva


Curva ARL
obtenemos mediante la en el proceso caractrística
fórmula 1/(1- β) σ+/σ β 1/(1-β)
Gráficos de control ( , S)
Cuando crece el tamaño de muestra (n = 10 a12) el método del rango para estimar σ pierde
eficiencia. En este caso es mejor reemplazar los gráficos ( , R) por los ( X, S) y calcular para
cada subgrupo la media y la desviación típica S.

Aunque,

es un estimador centrado de σ 2 S no lo es respecto de σ, ya que realmente estima C4σ ya que


E(s) = C4σ ; C4 es una constante que depende del tamaño de muestra.

Por otra parte la desviación típica de S es

Con esta información ya podemos establecer los límites de control con criterio “3σ ”:

Y poniendo :

tendremos :
Los parámetros B5, B6 están en la tabla IV

Si no se conoce σ, lo estimaremos de los datos pasados. A partir de (m) subgrupos obtenemos :

Siendo un estimador centrado de σ.

Los límites de control, resultarán:

Y poniendo :

tendremos :

En cuanto al gráfico X, cuando utilizamos como estimador de σ a , los límites de control


“3σ” resultarán:

Y poniendo :

tendremos :

Las constantes A3, B3 y B4 figuran en la tabla IV

Gráficos de control de sumas acumuladas (CUSUM)

Los gráficos de control que hemos visto hasta ahora se conocen como gráficos de Shewhart. Un
punto débil de los gráficos de Shewhart es que solo se utiliza la información contenida en la última
muestra representada e ignora la información dada por el conjunto de muestras. Es cierto que la
incorporación de límites de atención y el estudio de pautas trata de mejorar la sensibilidad del
gráfico Shewhart utilizando más el conjunto de la información pero a costa de complicar algo el
gráfico reduciendo la sencillez de la Interpretación

El gráfico de sumas acumuladas (CUSUM) se presenta como una alternativa al grafico de


Shewhart. Incorpora directamente toda la información representando las sumas acumuladas de
las desviaciones de los valores muestrales respecto de un valor objetivo. Por ejemplo,
supongamos que se toman muestras de tamaño igual o mayor que 1, siendo la media
muestral de la muestra i.

Si suponemos que μo es el objetivo para la media del proceso, el gráfico de sumas acumuladas
se formará representando la cantidad respecto al número de orden (m) de la
muestra.

Por combinar la información de varias muestras, los gráficos de sumas acumuladas son más
efectivos que los gráficos de Shewhart para detectar pequeños cambios. Son particularmente
eficaces cuando el tamaño de muestra es n = 1 y, por consiguiente, adecuados para su utilización
cuando la tecnología permite inspeccionar y medir cada unidad producida usando a la vez un
microordenador en el puesto de trabajo.

Si el proceso se mantiene bajo control en el objetivo μo , la suma acumulable


variará aleatoriamente respecto del valor cero. Sin embargo, si la media asciende a μ1 > μo se
apreciará una tendencia ascendente en la suma acumulada Sm. Por el contrario, si la media se
desplaza a μ2 < μo se apreciara una tendencia decreciente en Sm. Por consiguiente, una
tendencia determinada (positiva o negativa) se considerará como una evidencia de que la media
del proceso se ha desplazado debido a la presencia de alguna causa asignable que hay que
investigar y eliminar.

Existen dos criterios para establecer formalmente que el proceso está fuera de control. Uno de
ellos es un procedimiento gráfico: La máscara V propuesta por Barnhard en 1959 y otro es un
procedimiento numérico muy adecuado para establecer en conjunción con un microordenador.
Aquí veremos este segundo procedimiento.

En cada toma de muestra hay que calcular los 2 valores siguientes :

donde:
es la media muestral en la toma i-ésima.
μo es el valor objetivo (media centrada)
F es un parámetro de la carta de control que normalmente vale δo/2 siendo δo
el cambio que queremos detectar con prontitud.
, siendo normalmente f = 0,5 ya que queremos detectar normalmente
cambios del orden de (n es el tamaño muestral).Como veremos más adelante, F se puede
seleccionar también en algún juego de cartas ARL.

Cuando algún valor Si ó Ti cumple que Si > H ó Ti < -H (H elegido de acuerdo a la curva ARL que
nos interese siendo h normalmente 5) el proceso se considera fuera de control. Si Si se
hace negativo o se pone a 0, de igual forma si T i se hace positivo o se pone a 0.

Una vez corregido el proceso los contadores Si y Ti se pondrían a 0.

Las curvas ARL de los gráficos CUSUM, se calculan a partir de los parámetros del grafico, h y f (y
del tamaño de la muestra, que está implícito en el desplazamiento) utilizando cadenas de Markov.

En la tabla 2.3 se dan valores de h y f más comunes en función del desplazamiento de la media a
detectar y sus curvas ARL.

Ejemplo CUSUM

Consideremos el peso de cartuchos de certa fabricación sigue siendo una distribución Normal
(ver ejemplo anterior) de media 1,3917 y desviación típica 0,005. Valores que resultaban cuando
el proceso estaba bajo control.
Si utilizamos las muestras de tamaño 5 del ejemplo anterior y queremos detectar
desplazamientos de la medía del orden de , elejimos h = 5 y f = 0,5 con
lo que obtenemos

F = 0,5 x 0,0022 = 0,0011 ; H = 5 x 0,0022 = 0,01

En el sexto subgrupo Ti <-0,01 por lo tanto es un punto fuera de control y deberíamos corregir el
proceso.

Para controlar la variabilidad dentro de las muestras se pueden utilizar los gráficos de Shewart del
recorrido o de la desviación típica, en conjunción con el CUSUM de medias.

No obstante también es posible diseñar una carta de control CUSUM específicamente por los
gráficos de recorridos o de desviaciones típicas. La forma de realizarlos es muy similar al CUSUM
de medias. Los parámetros h y f con sus curvas ARL del CUSUM para recorridos o desviaciones
típicas están recogidos en la norma británica BS 5703.

TABLA 2.3

Valores de h y f recomendados para detectar un desplazamiento de la media de magnitud


(*)
Otros gráficos de control.- Gráfico de control de media móvil

Los gráficos de control de media móvil son también muy efectivos para detectar pequeños
cambios en el proceso, Como los CUSUM, estos gráficos son muy adecuados para implantar en
procesos automatizados.

Supongamos que se han tomado muestras de tamaño n y que indiquen las


correspondientes medias muestrales. La media móvil de amplitud W en el momento t se define
como

Es decir, en cada momento t se elimina la muestra vieja y se sustituye por la más reciente.

La varianza de Mt, es :

Y los límites de control con criterio “3σ” serán:


El procedimiento de control consistirá en calcular con cada nuevo valor de la nueva Mt y
llevarla al gráfico con límites de control dados por (II) concluyendo que el proceso está fuera de
control si se exceden los puntos del gráfico. En general, la magnitud del cambio a detectar y la
amplitud de W están inversamente relacionados: La detección de un cambio pequeño se
garantiza mejor con una muestra de tamaño elevado.

El uso simultaneo de y Mt puede dar buenos resultados. En este caso, habrá situación de
fuera de control cuando , Mt , o ambos caigan fuera de los límites de control respectivos. La
media móvil es también muy adecuada para usar cuando el tamaño de muestra es n = 1.

Gráficos de Control Multidimensional

Existen muchas situaciones en las que es necesario el control simultáneo de dos o más
características de calidad. Por ejemplo supongamos una pieza con un diámetro interior y otro
exterior que juntos determinen la conformidad de la pieza. Podríamos aplicar los gráficos de
control habituales a las características y considerar que el proceso está bajo control solamente
cuando ambas medias estuvieran dentro de los respectivos límites de control, esto es
equivalente a que el punto caiga dentro del área rayada en la figura.

Controlar ambas características independientemente puede ser engañoso. La probabilidad de que


excedan sus límites de control “3σ” es 0,0027, sin embargo la probabilidad de que
ambas variables excedan los limites cuando el proceso está bajo control es (0,0027)x(0,0027) =
0,00000729 que es muy inferior a 0,0027. Es decir, el error de tipo I es muy diferente de los de los
gráficos individuales. Esta distorsión se incrementa cuando aumenta el número de variables.

Si existen P características independientes y se elabora un gráfico X para cada una con error de
tipo I = α, el error de tipo I conjunto es σ‟ = 1- (1- α)p y la probabilidad de que las P medias caigan
dentro de sus respectivos límites (1- α)p. El problema se complica más todavía si existe
correlación entre las diferentes características (caso frecuente). Problemas como estos
constituyen el llamado control de calidad multidimensional y fueron estudiados inicialmente por
Hotelling .

Supongamos que existen dos característica cualitativas X1 y X2 que se distribuyen de acuerdo con
una distribución normal bivariada siendo X1 y X2 sus valores nominales, S12 y S22 sus varianzas y
S12 su covarianza (la covarianza mide el grado de dependencia entre X1 y X2). Si es la
media muestral calculada para un subgrupo de tamaño n, el estadístico :

se distribuye según una distribución T2 de Hotelling con 2 y (n-1) grados de libertad.


Si al menos de una de las dos características está fuera de control.

T2α/2, n-1 es el percentil de la distribución de Hotelling que deja una cola a la derecha de valor α.

Representando en secuencia los valores resultantes de la ecuación anterior para cada muestra,
como si se tratase de un gráfico de control, podemos investigar pautas y otras tendencias no
aleatorias del gráfico.

La mayoría de los paquetes de software de control de Calidad permiten analizar con facilidad
estos gráficos multidimensionales referidos a dos ó más variables.

TABLAS PARA LA ELABORACIÓN DE GRÁFICOS

TABLA 1.- DISTRIBUCION NORMAL

Probabilidades acumulativas de la distribución de probabilidad normal (áreas bajo la curva desde


- infinito hasta z)
TABLAS II y III.- DISTRIBUCION RANGO RELATIVO

Puntos de porcentaje de la distribución de la amplitud relativa w = R/σ‟, universo normal *

*Probabilidades tomadas de E. S. Péarson, “The Probabilily Integral of the Range in Samples of n


Observation from, a Normal Population”, Biometrika, Vol. XXXII(1941-42), págs 301-8. La media y la σ tomadas
de E. S. Pearson “The Percentage Limits for the Distributíons of Range in Samples from, a Normal
Population”, Biometrika, Vol, XXIV (1932), pág. 404-17.

Obsérvese que en contraste con la tabla C estas probabilidades están acumuladas desde el extremo inferior
de la distribución.

n = Tamaño de la muestra

TABLA IV - GRAFICOS POR VARIABLES

FACTORES PARA CONSTRUIR LIMITES DE CONTROL


ESTUDIO INICIAL - RESUMEN DE FORMULAS

CONTROL RESPECTO A ESTANDAR - RESUMEN DE FORMULAS

----------------------------------------------------------------------------------------------------------------------------------
CAPÍTULO 8.- CAPACIDAD DEL PROCESO
Introducción

Un proceso de fabricación es un conjunto de equipos, materiales, personas y métodos de trabajo


que genera un producto fabricado.

Para analizar el comportamiento del proceso, se toman muestras de producto fabricado y se


realizan ensayos para determinar el valor de una característica de calidad seleccionada
previamente. Desde el punto de vista del control estadístico, es conveniente incluir la etapa de
muestreo y ensayo dentro del proceso mismo.

Conceptualmente debemos considerar que cualquier


variación en las condiciones de un proceso
(Modificación en el equipo, cambio de materias
primas, etc.) da lugar a otro proceso, diferente del
anterior.

El primer paso para aplicar una técnica estadística es definir la característica de calidad que se va
a medir en el producto fabricado. Desde el punto de vista estadístico, esta característica de
calidad constituye una variable aleatoria, porque aún después de realizar una serie de
mediciones, el valor que se obtendría en la siguiente medición no puede predecirse por cálculo.

El conjunto de todos los resultados de mediciones que pueden obtenerse es nuestro universo o
población. Cualquier subconjunto de mediciones extraído del universo constituye una muestra.
Con respecto al concepto de universo o población, cuando se aplica a resultados de mediciones
en un proceso, es necesario puntualizar lo siguiente: La población o universo de resultados es el
conjunto de datos que se obtuvieron hasta ese momento mas aquellos que se obtendrían si el
proceso continuara funcionando siempre bajo las mismas condiciones. Esto se conoce como
Universo Hipotético de mediciones de la característica de calidad.

Antes de aplicar cualquier técnica estadística, es necesario establecer algunas hipótesis bajo las
cuales se va a desarrollar el análisis. En primer lugar, vamos a suponer que la característica de
calidad (Variable aleatoria) es continua y de distribución normal. En segundo lugar,
consideraremos que el proceso está bajo control estadístico, es decir que la variabilidad se debe
solamente a un sistema constante de causas aleatorias (No intervienen causas asignables).

Al realizar una sucesión de mediciones de la característica de calidad sobre muestras del


producto fabricado, encontramos que los valores fluctúan alrededor de un valor central. Esto es lo
que llamamos la fluctuación natural y esperable del proceso. Esta variación de la característica de
calidad medida se debe a un conjunto muy grande de causas que afectan el proceso, cuyo efecto
individual es pequeño y que actúan en forma aleatoria (Sistema constante de causas aleatorias).
La fluctuación natural del proceso es inherente al mismo y no puede eliminarse, sólo puede
reducirse realizando modificaciones al proceso mismo, lo cual significa, como ya hemos dicho,
trabajar con otro proceso. La fluctuación natural de un proceso puede cuantificarse a través de la
desviación standard del mismo, con la cual podemos calcular Límites de Tolerancia Natural del
proceso. Se debe insistir en que estos límites no pueden fijarse voluntariamente, dependen del
proceso y de las variables no controlables del mismo. Generalmente se toma un rango para la
fluctuación natural de 6 sigmas.

Los Límites de Especificación de un producto son fijados voluntariamente por el cliente, por el
fabricante o por alguna norma. Estos límites constituyen un requisito a cumplir por el producto y
no deben confundirse en ningún caso con los Límites de Control o con los Límites de Tolerancia
Natural del proceso.

La Capacidad de un proceso es la aptitud para generar un producto que cumpla con


determinadas especificaciones. En el mejor de los casos, es conveniente que los Límites de
Tolerancia Natural del proceso se encuentren dentro de los Límites de Especificación del
producto. De esta manera nos aseguramos que toda la producción cumplirá con las
especificaciones.

Para analizar la capacidad del proceso se puede utilizar un histograma de frecuencias. Si se


dispusiera de todos los datos del universo para la característica de calidad medida y se hiciera un
histograma este permitiría tener una idea exacta de la fluctuación natural del proceso. Como esto
es imposible, es necesario tomar un cierto número de mediciones (Mínimo 100-200) y efectuar
con ellas un histograma de frecuencias.

Este es el histograma de una muestra y por lo tanto es sólo una estimación del verdadero
histograma del universo. Si representamos en las abscisas los Límites de Especificación del
producto, podemos ver gráficamente si el proceso tiene aptitud (Capacidad) para fabricar dicho
producto.
CAPÍTULO 8.- CAPACIDAD DEL PROCESO

Análisis de la capacidad del proceso

Las técnicas estadísticas son útiles a lo largo de todo el ciclo productivo incluyendo: Actividades
previas a la fabricación, cuantificación de la variabilidad del proceso, comparación de la
variabilidad con las especificaciones y la reducción de la variabilidad. Al conjunto de estas
actividades se le denomina análisis en la capacidad del proceso.

Definiremos el análisis de capacidad, como el estudio de ingeniería encaminado a estimar la


capacidad del proceso. La capacidad del proceso puede estimarse definiendo la forma de la
distribución que sigue la variable en estudio y dando una medida del valor central (media) y de la
dispersión (sigma).

La capacidad del proceso se refiere a su uniformidad, la variabilidad es una medida de la


uniformidad. Existen dos formas de variabilidad, la variabilidad inherente, existente en un
momento dado, también llamada variabilidad instantánea y la variabilidad a lo largo del tiempo.

Como medida de la capacidad de un proceso es costumbre tomar un intervalo de 6σ u 8σ en la


distribución de la característica en estudio. La figura adjunta muestra un proceso para el que la
distribución es Normal con media μ y desviación típica σ. Los límites naturales de tolerancia
inferior y superior del proceso caen en el intervalo μ - 3.σ -:- μ+ 3.σ . Para la distribución Normal
los límites de tolerancia incluyen el 99,75% de los valores de la variable. Dicho de otra forma, sólo
el 0,27% de los valores caen fuera de los límites naturales de tolerancia. Si la distribución no es
Normal, el porcentaje de valores fuera de los límites μ ± 3σ puede desviarse sensiblemente del
0,27% citado.

Se pueden utilizar como medida de la capacidad otros criterios como por ejemplo que el 98% de
la producción entre en el intervalo de Tolerancia. En este caso utilizando las tablas de la
Distribución Normal (Tabla I) vemos que deben entrar como mínimo 2x2,33σ = 4,66 σ.

El análisis de capacidad del proceso es fundamental en un Programa Integral de Mejora de


Calidad. Entre sus aplicaciones, podemos señalar :
1. Predecir como se comportará el proceso respecto de las especificaciones.

2. Ayudar en la selección o modificación de los parámetros del proceso.

3. Orientar en el establecimiento de la frecuencia de los desmuestres para el


control del proceso.

4. Especificar las tolerancias de nuevos equipos

5. Reducir la variabilidad en el proceso de fabricación.


Dos son, principalmente, las técnicas utilizadas en el análisis de la capacidad de un proceso:
Histogramas y Gráficos de Control.

Análisis de la capacidad del proceso usando histogramas

La distribución de frecuencias suele ser útil para estimar la capacidad del proceso. Se requieren,
por lo menos, entre 50/100 observaciones para realizar la estimación. Siempre que sea posible y
antes de comenzar la recogida de datos, deben seguirse los siguientes pasos:
a) Escoger adecuadamente la máquina o máquinas sobre las que va a
realizarse el estudio de forma que sean representativas del conjunto de
máquinas al que van a extenderse las conclusiones.

b) Seleccionar las condiciones operativas del proceso definiendo


cuidadosamente estas condiciones ya que su variación puede afectar a la
capacidad del proceso.

c) Seleccionar, cuando proceda, un operador representativo.

d) Seguir estrechamente el proceso de toma de datos y registrar el orden en


que se producen.
El histograma, con su valor medio X y su desviación típica S estima la capacidad del proceso que
es X ± 3S. Una ventaja del histograma es que nos da una impresión inmediata de como es la
característica en estudio.

Para cuantificar la Capacidad de Proceso se utilizan coeficientes que permiten comparar el rango
de especificaciones con la fluctuación natural del proceso. Uno de ellos es C p:

donde LSE y LIE son, respectivamente, el Límite Superior y el límite inferior de Especificación

Si el proceso tiene capacidad para fabricar el producto, entonces C p > 1. En general se exige Cp >
1.30 para mayor seguridad.
Cp tiene el inconveniente de que para poder aplicarlo, el centro de gravedad del rango de
especificaciones debe coincidir con la tendencia central de las mediciones del proceso. Cuando
esto no ocurre se emplea el Cpk:

Donde:

En el gráfico podemos observar que una buena parte del producto está por encima del Límite
Superior de Especificación (LSE). Aún así resulta Cp > 1, indicando erróneamente que el proceso
tiene capacidad suficiente.

En este caso se debe usar el segundo coeficiente que muestra claramente que el proceso no
tiene capacidad suficiente (Cpk < 1), tal como se puede observar en el gráfico.

Un proceso suele decirse que es apto cuando Cp > 1 ó incluso Cp > 1,3 Modernamente, ha
comenzado a utilizarse :

donde :
siendo :

El uso de un histograma para analizar la capacidad de un proceso tiene la ventaja de que se


puede apreciar la forma de la distribución, con lo cual se puede confirmar o rechazar la hipótesis
de que la misma es normal. Pero el problema es que no se puede detectar la presencia de
patrones no aleatorios, con lo cual no es posible confirmar o rechazar la hipótesis de que el
proceso está bajo control estadístico. Si el proceso no está bajo control estadístico los resultados
del análisis de la capacidad de proceso no serán válidos y pueden llevar a conclusiones
equivocadas.

Análisis de la capacidad del proceso usando gráficos de control

Los histogramas y otros métodos de análisis tales como los gráficos de probabilidad indican como
varía el proceso pero no muestran, necesariamente, la capacidad potencial del proceso ya que
éste puede estar en situación de fuera de control o presentar pautas que si se eliminaran
reducirían la variabilidad de la característica en estudio. Los gráficos de control son muy útiles en
este sentido y deben ser considerados la técnica principal en los análisis de capacidad.

En los análisis de capacidad pueden usarse los gráficos de control por variables y los gráficos de
control por atributos aunque son preferibles los primeros por la mayor información que
suministran.

Los gráficos X, R permiten estimar la variabilidad instantánea (capacidad del proceso a corto
plazo) y la variabilidad a lo largo del tiempo(capacidad del proceso a largo plazo). La variabilidad
instantanea viene dada por s = R/d2 , donde d2 es un valor tabulado en función del tamaño de
muestra n.

No debe estimarse la capacidad del proceso a corto plazo cuando se presenta una situación fuera
de control ya que previamente habría que encontrar las causas asignables y poner el proceso
bajo control.

Cuando se utilizan gráficos X-R, en el gráfico de X se representan los promedios de subgrupos,


es decir, promedios muestrales. No debe confundirse la desviación standard del proceso con la
desviación standard de los promedios muestrales. Si la desviación standard del proceso es s y
cada subgrupo tiene m mediciones, la desviación standard entre subgrupos es:

Si se utiliza por error la desviación standard entre subgrupos para calcular los coeficientes de
capacidad del proceso, se obtendrán valores más altos que los que corresponden a la verdadera
capacidad del proceso.
-------------------------------------------------------------------------------------------------------------------------------------------------------
CAPÍTULO 9.- GRAFICOS DE CONTROL POR ATRIBUTOS
Introducción

Algunas características de calidad no pueden ser representadas convenientemente por medio de


variables cuantitativas. En estos casos, las unidades de producto se clasifican en “conformes” o
en “no conformes” según la característica o características cualitativas sean o no conformes con
las especificaciones. Las características de calidad de este tipo se denominan atributos. Los
datos de tipo atributo tienen solamente dos valores: Conforme / no conforme, pasa / no pasa,
funciona / no funciona, presente / ausente. También se consideran atributos aquellas
características cuantitativas que se registran en términos de sino como por ejemplo, el diámetro
de un eje cuya conformidad solo la medimos en términos de aceptable/no aceptable, las
imperfecciones de pintura en una puerta de un automóvil, las burbujas en la laca de un detonador,
la presencia/ausencia de un percutor, etc.

Vamos a analizar cuatro tipos de gráficos de control por atributos:


Gráfico “p” para porcentajes defectuosos

Gráfico “np” para el número de unidades defectuosas

Gráfico “c” para el número de defectos

Gráfico “u” para el número de defectos por unidad inspeccionada


Gráfico “p” para porcentajes defectuosos

La fracción no conforme de un colectivo se define como el cociente entre el número de unidades


defectuosas y el número total de unidades en dicho colectivo. Cada unidad de producto puede ser
examinada por el inspector respecto de una o varias características cualitativas. Si la unidad
inspeccionada no es conforme respecto a la especificación en una o más características, se
clasifica como no conforme. Habitualmente, la fracción no conforme se expresa en forma decimal
aunque puede también indicarse en tanto por ciento.

La distribución binomial es la base estadística del gráfico de control por atributos. Supondremos
que el proceso está operando de forma estable y que la posibilidad de que una unidad de
producto sea defectuosa es constante y de valor p. También, supondremos que las unidades
producidas sucesivamente son independientes. Entonces, si tomamos una muestra de n
unidades, y llamamos x al número de unidades no conformes, la probabilidad de que x tome los
valores 0, 1, 2.... n vendrá determinada por la distribución binomial con parámetros n, p:

El valor medio y la varianza de esta distribución son :

La fracción muestral no conforme se define como el cociente entre el número de unidades no


conformes en la muestra x y el tamaño de la misma p = x/n.

El valor medio y la varianza de p serán respectivamente :


como consecuencia de la relación p = x/n

Operativa del gráfico de control “p”

La base estadística para definir los límites de control es común con los restantes gráficos de
Shewhart: Si W es un estadístico que describe una determinada característica de calidad siendo
μw y σw2 su media y su varianza, los límites de control se definen como :

K es la distancia de los límites de control a la línea central expresada como un múltiplo de sw.
Habitualmente escogeremos K = 3.

Supongamos que conocemos o se especifica la fracción p no conforme de un proceso de


producción. Entonces los limites de control resultan:

La operativa consiste en tomar sucesivas muestras de n unidades, contar dentro de cada muestra
el número de unidades no conformes y calcular = D/n llevando este valor al gráfico. En tanto
permanezca dentro de los límites de control y la secuencia de puntos no señale ninguna pauta
distinta a la que puede surgir por mero azar, diremos que el proceso está bajo control al nivel p de
fracción no conforme. Si por el contrario, observamos algún punto fuera de control o un patrón
inusual diremos que la fracción defectuosa ha cambiado a un nivel diferente y que el proceso está
fuera de control.

Cuando se desconoce p, debe estimarse a partir de los datos. El procedimiento a seguir es


seleccionar m muestras preliminares, cada una de tamaño n. Como norma general, m estará
comprendido entre 20 y 25. Si Di es el número de unidades defectuosas en la muestra i,
calcularemos la fracción defectuosa en la muestra como ; i = 1, 2... .n y la media de
estas fracciones, , estimará la media p del proceso siendo los límites de control:

Frecuentemente se utiliza solo el límite superior.

Estos límites de control se consideran como limites de prueba y sirven para determinar si el
proceso estaba bajo control cuando las m muestras iniciales fueron seleccionadas. Si todos los
puntos caen dentro de los límites de control y no se observa ninguna pauta anormal
dictaminaremos que el proceso estaba bajo control a la toma de las m muestras y los límites de
prueba serán validos para controlar la producción actual y la futura.

Los límites de control para la producción actual deben basarse en datos obtenidos de una
situación estable. Por ello, cuando alguno de los puntos iniciales está fuera de control se hace
necesario revisar los límites de control. Esto se realiza examinando cada punto fuera de control y
buscando las causas asignables. Si se localiza la causa asignable se descarta el punto
correspondiente y se vuelven a calcular los límites de control con los puntos restantes. Puede
darse el caso que alguno de estos restantes puntos se encuentre ahora fuera de control respecto
de los nuevos límites ya que estos serán, normalmente, más estrechos que los iniciales.
Entonces, deben repetirse los pasos dados anteriormente hasta que todos los puntos se
encuentren dentro de control con lo que ya podremos adoptar los límites hasta entonces
provisionales como límites definitivos.
Si el gráfico de control se basa en un valor estandar conocido (un objetivo) para la fracción no
conforme p, entonces el cálculo de límites de prueba es, generalmente, innecesario aunque
deben tomarse ciertas precauciones en el sentido de comprobar si el proceso está bajo control a
un valor de p diferente dei indicado en el objetivo. Por ejemplo, supongamos que la Dirección
señala como valor objetivo p = 0,01 pero que el proceso se encuentra realmente bajo control a p
= 0,05.

Utilizando el gráfico correspondiente a p = 0,01 encontraremos muchos puntos fuera de control


sin que aparezca causa asignable. No obstante, suele ser útil esta opción para mejorar el nivel de
calidad llevando el proceso al nivel adecuado, sobre todo en procesos donde la fracción no
conforme puede ser controlada mediante un proceso sencillo de ajuste.

Diseño del gráfico p

El gráfico p tiene tres parámetros a especificar: Tamaño y frecuencia del desmuestre y distancia
entre límites de control.

Es frecuente calcular el gráfico de control a partir de la inspección realizada a lo largo de un


periodo de tiempo determinado. Un día, un turno, etc. En este caso, la frecuencia y el tamaño de
la muestra están relacionados. Generalmente, se selecciona inicialmente la frecuencia del
desmuestre apropiada para la producción a inspeccionar y de ahí resulta el tamaño de la muestra,

Los subgrupos racionales pueden jugar también un papel importante en determinar la frecuencia
del desmuestre. Por ejemplo, si hay tres turnos y sospechamos que entre turnos puede variar el
nivel de calidad utilizaremos cada turno como un subgrupo sin mezclarlos para obtener una
fracción diaria no conforme. Si p es pequeño n deberá ser suficientemente grande para encontrar,
al menos una unidad defectuosa en la muestra.

Se ha sugerido que el tamaño de muestra debe ser lo bastante grande para tener una
probabilidad de aprox. 50% de detectar un cambio de una determinada magnitud. Por ejemplo,
supongamos que p = 0,01 y que queremos que la probabilidad de detectar un cambio a p = 0,05
sea del 50%. Suponiendo que aproximamos la distribución binomial respecto de la normal,
escogeremos de tal forma que el límite de Control Superior coincide con la fracción no conforme
en la situación de fuera de control. Si 6 es la magnitud del cambio del proceso, entonces n debe
satisfacer

En nuestro ejemplo, p = 0,01, δ = 0,05-0,01 = 0,04 y con K=3 → n = 56

Los límites 3σ son los que se usan con más frecuencia aunque pueden adaptarse otros más
sensibles a costa de exponerse a situaciones más frecuentes de falsa alarma.

A veces, suelen usarse limites más estrechos (por ejemplo 2σ) dentro de una situación de
urgencia para mejorar la calidad de un proceso. Estos límites deben utilizarse con precaución
porque las falsas alarmas destruyen la confianza de los operadores en los gráficos de control.

Hay que tener en cuenta que los límites de control estudiados se basan en la distribución binomial
que considera constante la proporción defectuosa “p‟ y que los valores sucesivos son
independientes. En procesos en los que las unidades no conformes están agrupadas o en los que
la probabilidad de producir una unidad defectuosa depende de que la anterior unidad producida
haya sido no defectuosa, no son aplicables este tipo de gráficos.

Deben examinarse con cuidado aquellos puntos situados por debajo del límite de control inferior.
Estos puntos no suelen ser lo que aparentemente indican: Una mejora en la calidad del proceso
por disminución de a sino que suelen originarse por errores en la inspección o por causa de
aparatos de medida mal calibrados. También puede deberse a que los operadores hayan
registrado datos ficticios para cubrir su responsabilidad.

Gráfico np para unidades defectuosas

Supongamos un proceso que fabrica tornillos. Una manera de ensayar cada tornillo sería probarlo
con una rosca calibrada.
El resultado de este ensayo sólo tiene dos posibles resultados:
Defectuoso - No Defectuoso (ó Conforme-No Conforme )
. Si el tornillo no entra en la rosca, se lo considera defectuoso o no
conforme.

Para controlar este proceso, se puede tomar una muestra de tornillos y contar el número de
defectuosos presentes en la muestra.

La variable aleatoria número de defectuosos es una variable aleatoria discreta, porque puede
tomar un número finito de valores, o infinito numerable. Los gráficos np se utilizan para controlar
el número de defectuosos en una muestra.

Para controlar este proceso, un inspector se coloca al final de la línea de producción y cada hora
retira una muestra de n=50 tornillos (por ejemplo), comprueba cada uno con la rosca y anota el
número de defectuosos.

Este resultado se anota en un gráfico hora por hora denominado gráfico np.

Si se tomara del proceso un sólo tornillo ¿Cuál es la probabilidad de que sea defectuoso?
Imaginando la población de tornillos que podría fabricar el proceso trabajando siempre en las
mismas condiciones, una cierta proporción p de estos serían defectuosos. Entonces, la
probabilidad de tomar un tornillo y que sea defectuoso es p.

En una muestra de n tornillos, la probabilidad de encontrar:


0 defectuosos ; 1 defectuoso ; 2 defectuosos ; ... ; n defectuosos
está dada por una distribución binomial con parámetros n y p.

Como sabemos, el promedio de la población es p y la varianza es n.p.(1-p).

Para construir los gráficos de control np, en una primera etapa se toman N muestras (más de 20 ó
25) a intervalos regulares, cada una con n tornillos. Se cuenta en cada muestra el Número de
Defectuosos y se registra. Se obtendría una Tabla como la siguiente:
En cada muestra, la fracción de defectuosos es Di/n, siendo Di el número de elementos
defectuosos en la muestra i, y n el número de elementos en la muestra i

A partir de la tabla podemos calcular p como promedio de las fracciones de defectuosos en las
muestras:

siendo N el número de muestras, y luego la Desviación Standard s:

Con esto podemos calcular los Límites de Control para el gráfico np:

Construimos entonces un Gráfico np de prueba y representamos el número de defectuosos en las


muestras.

Si no hay puntos fuera de los límites de control y no se encuentran patrones no aleatorios, se


adoptan los límites calculados para controlar la producción futura.

Para las personas con poco entrenamiento estadístico, este gráfico suele ser más fácil de
interpretar que el gráfico p. Frecuentemente se utiliza solo el límite superior.

En algunos procesos interesa medir la cantidad de defectos que presentan las unidades de
producto que se están fabricando. Por ejemplo, se fabrican teléfonos celulares y entonces se
toma uno de ellos y se cuenta el número total de defectos. Estos podrían ser:
 Rayas en la superficie.

 grietas en el plástico

 Antena defectuosa

 Botón defectuoso.

 Etc.

Los defectos pueden ser de diferentes tipos y se cuenta el total de todos estos defectos en la
unidad inspeccionada. Obtenemos un resultado que es el Número de Defectos por unidad de
inspección.

A medida que el proceso genera las unidades (Teléfonos móviles), retiramos una unidad a
intervalos regulares y contamos el número total de defectos. En cada unidad podemos
encontrar:? 0 defectos

 1 defecto

 2 defectos

 ...

 n defectos

Los resultados obtenidos al contar el Número de Defectos en unidades de inspección tomadas a


intervalos regulares constituyen una variable aleatoria discreta, porque puede tomar los valores
discretos 0, 1, 2, ... n. Esta variable aleatoria tiene una distribución de Poisson:

Los gráficos C se utilizan para controlar el número de defectos en una muestra del producto o
unidad de inspección. Para controlar este proceso, un inspector se coloca al final de la línea de
producción y cada cierto intervalo retira una unidad de inspección , verifica y anota el número total
de defectos.

Este resultado se anota en un gráfico denominado gráfico C. De acuerdo a la Distribución de


Poisson, si denominamos C al parámetro de la función de distribución, el promedio de la
población es C y la varianza también es C.

Una unidad defectuosa puede tener uno o más defectos. Sin embargo, es posible que una unidad
de producto tenga varios defectos y que no sea clasificada como defectuosa debido a la
naturaleza poco importante del defecto. Existen en la práctica muchas situaciones en las que es
preferible trabajar con el número de defectos que con el porcentaje o el número de unidades
defectuosas. Por ejemplo, el número de soldaduras defectuosas en un tubo de conducción de
gas, el número de defectos funcionales es un dispositivo electrónico, etc.

Se pueden efectuar gráficos de control para el número total de defectos por unidad de producto o
para el número de defectos en la muestra. Estos gráficos de control se basan en la distribución de
Poísson que exige un número de puntos donde potencialmente podría producirse el defecto
infinitamente grande, así como que la probabilidad de que el defecto aparezca en un determinado
punto sea muy pequeña y constante.

La unidad de inspección debe ser la misma en cada muestra. Es decir cada unidad de inspección
debe representar siempre una probabilidad igual de que se produzcan los defectos. En la mayor
parte de las situaciones prácticas, estas condiciones no se satisfacen exactamente. El número de
oportunidades (puntos) para los defectos suele ser finito y la probabilidad de aparición de
defectos puede no ser constante. Si las desviaciones respecto de la situación ideal no son
importantes, puede usarse el modelo de Poisson. Existen, sin embargo, casos en los que las
desviaciones respecto de las condiciones del modelo son considerables y en los que la utilización
de la distribución de Poisson es inadecuada.

Gráficos “c” para tamaño de muestra constante

En el gráfico „c‟ se representan el número de defectos existentes en cada unidad de inspección.


En la mayor parte de los casos, la unidad de inspección será una unidad de producto aunque esto
no es absolutamente necesario ya que la unidad de inspección constituye simplemente una
porción de producción sobre la que es conveniente registrar el número de defectos encontrados.
Puede ser un grupo de 1,5 6 10 unidades de producto. Supongamos que los defectos tienen lugar
en esta unidad de inspección de acuerdo con la distribución de Poisson

donde x es el número de defectos en la unidad de inspección y C es el parámetro de la


distribución, Sabemos que la media y la varianza de la distribución de Poisson son ambas iguales
a C. En consecuencia, los límites de control 3 sigma para el número de defectos serán:

Hay que tener en cuenta que la probabilidad de producir una falsa alarma por situarse el punto
por encima del límite de control superior es diferente que la de situarse por debajo del límite
inferior (colas superior e inferior diferentes). Si no se conoce el parámetro c, debe estimarse a
partir de una muestra preliminar de unidades de inspección. El valor obtenido en la estimación, O
sustituirá al valor O en los límites arriba indicados.

Análisis de defectos

Los datos sobre defectos aportan siempre mayor información que los relativos a unidades
defectuosas ya que habitualmente existen diversos tipos de defectos.

Al analizar por conteo la frecuencia de cada tipo de defecto observamos que, en muchas
ocasiones, los resultados están acordes con la distribución de PARETO y que un pequeño
número de defectos es causa de la mayor parte de los problemas. Si somos capaces de eliminar
las causas de unos pocos tipos de defectos, habremos conseguido una drástica mejora en la
calidad.

Gráfico “u”

Supongamos que se está controlando el número de defectos en un proceso de ensamblado de


licuadoras y se define una unidad de inspección de 5 licuadoras. En este caso es posible trabajar
con un gráfico C, como ya hemos visto. Pero tal vez se desea controlar el promedio de defectos
por cada licuadora (unidad de producción) en lugar del total de defectos para las 5 licuadoras
(unidad de inspección):
siendo ni la cantidad de Defectos por Unidad de Inspección y m el número de Unidades de
Producción en la Unidad de Inspección.

En nuestro ejemplo, si encontramos ni defectos en la unidad de inspección (5 licuadoras), la


cantidad promedio de defectos por licuadora será

Se debe tener en cuenta que x es una nueva variable aleatoria discreta que toma valores 0, 1/m,
2/m, …etc., y cuya distribución de probabilidades se puede calcular a partir de la Distribución de
Poisson.

Como en el caso de los gráficos C, en una primera etapa se toman N unidades de inspección
(más de 25 ó 30) a intervalos regulares. Se cuenta en cada unidad de inspección el Número de
Defectos y se registra. Luego se divide el Número de Defectos de cada unidad de inspección por
m (Número de unidades de producción en cada unidad de inspección).

En nuestro ejemplo (m = 5) la Tabla quedaría así:

Entonces, a partir de la tabla podemos calcular el parámetro U, como promedio del Número de
Defectos por licuadora, y la Desviación Standard:

siendo : ni la cantidad de Defectos por Unidad de Inspección, m el Número de Unidades de


Producción en la Unidad de Inspección y N el Número de Unidades de Inspección

Con esto podemos calcular los Límites de Control para el gráfico U:


DISTRIBUCIÓN BINOMIAL

Probabilidad de r o menos sucesos en n intentos, donde p es la ocurrencia de cada intento.


-----------------------------------------------------------------------------------------------------------------------------------------------
10.- LINEAS GENERALES PARA IMPLANTAR GRAFICOS DE CONTROL
Ventajas de los gráficos de control

Existen importantes razones para implantar los gráficos de control. Destacamos las siguientes:

a) Los gráficos de control son una técnica de eficacia probada para mejorar la productividad. La
adecuada implantación de un programa de C.E.P. reduce la repetición de las operaciones no
conformes y los rechazos por desechos que son uno de los principales enemigos de la
productividad. De esta reducción se deriva una disminución en los costes y un incremento de
producción de producto correcto

b) Los gráficos de control son eficaces en la prevención de defectos. El objetivo básico del gráfico
de control es detectar cualquier cambio en el proceso o en el producto. Siempre es más barato
hacer las cosas bien de entrada que escoger las unidades buenas dentro de un lote de malas y
buenas. Si no se posee un control eficaz, se estará pagando por fabricar producción no conforme.

c) Los gráficos de control previenen de ajustes innecesarios del proceso. El gráfico de control
distingue entre el “ruido de fondo” y una variación anormal. Si el operador ajusta el proceso
basándose en comprobaciones periódicas no relacionadas con la implantación sistemática de los
gráficos de control, a menudo reaccionará frente al ruido de fondo y realizará ajustes
innecesarios.

d) El gráfico de control proporciona información sobre la capacidad del Proceso. El gráfico


suministra información sobre los parámetros básicos del proceso y sobre su estabilidad a lo largo
del tiempo.

La tecnología moderna, utilizando ordenadores, hacen sencilla la implantación de los gráficos de


control, en cualquier tipo de proceso.
Como resumen de lo visto en los capítulos anterores, vamos a tratar sobre los siguientes puntos :
A) Determinación de la característica a controlar y desde donde se va a
controlar

B) Selección del gráfico adecuado


A) Selección de la característica a controlar y donde controlarla

a) En el comienzo de la implantación se aplican los gráficos a aquellas


características del proceso o del producto que se consideran importantes.
Los gráficos nos dirán si son realmente necesarias.

b) Eliminar gráficos que se encuentren innecesarios.

c) Disponer de una información actualizada sobre el número y tipos de


gráficos de control existentes en el proceso. Cuando comienza la
implantación, el número de gráficos suele crecer de forma continuada,
después decrece. Cuando el proceso se estabiliza, el número de variables
seguidas por gráficos, suele mantenerse constante aunque éstas no son
necesariamente las mismas.

d) Según se va sabiendo más sobre el proceso, el número de gráficos por


atributos disminuye y el número de gráficos por variables aumenta.

e) Al comienzo, suelen utilizarse bastantes gráficos por atributos para el


producto final o intermedio. Después estos gráficos tienden a ser sustituidos
por gráficos por variables para características de las primeras fases del
proceso.

f) Los gráficos de control son procedimientos a implantar en la línea tan cerca


del puesto de trabajo como sea posible, así, la información llegará con
rapidez. Además, las personas responsables de producción tendrán la
responsabilidad directa de recoger datos, realizar los gráficos e interpretar
resultados. Los operadores e ingenieros que trabajan en el proceso disponen
del conocimiento del mismo necesario para corregir fallos y utilizar el gráfico
como una herramienta para mejorar la calidad. Los ordenadores facilitan
enormemente la rapidez de cálculos y presentación de gráficos por lo que no
pueden faltar en ningún procedimiento moderno de control estadístico del
proceso.
B) Selección del gráfico adecuado
Gráficos X, R (o X, S); Solo para variables cuantitativas.

Los gráficos por variables se utilizan en los casos siguientes:

a) Comienza un nuevo proceso, o un nuevo producto va a fabricarse en un


proceso existente.

b) El proceso tiene continuos problemas o es incapaz de cumplir las


tolerancias especificadas.

c) La verificación de la calidad producida requiere ensayos destructivos o


costosos procedimientos de ensayo.

d) Se desea reducir la inspección por desmuestre y otras verificaciones sobre


el producto al mínimo

e) Se han utilizado, sin resultado, gráficos de control por atributos.

f) Procesos con especificaciones muy estrechas.

g) Situaciones en las que el operador debe decidir si ajusta o no el proceso.

h) Cuando ha de demostrarse ante el cliente de forma continuada, la


estabilidad y la capacidad del proceso.

Gráficos CUSUM

Se puede utilizar en todos los casos señalados para el gráfico , R, pero


donde realmente muestra más ventajas es:

a) Cuando los procesos vayan descorrigiéndose lentamente (por ejemplo


procesos químicos)

b) Cuando sea necesario descubrir rápidamente pequeños desajustes.

c) Situaciones en las que es posible disponer un microordenador en la línea

Gráficos por atributos

Se recomienda utilizar los gráficos por atributos en los siguientes casos:

a) Los operadores controlan las causas asignables y es preciso reducir el


porcentaje de fallos.

b) El proceso es una operación de montaje compleja y la calidad del producto


se mide en términos de conforme/no conforme.

c) Es necesario el control del proceso pero no pueden obtenerse datos


cuantitativos.

d) Para facilitar a la dirección una visión con un resumen informativo sobre la


eficacia del proceso.

Gráficos de control para valores individuales

Se puede usar conjuntamente con los gráficos de rango móvil en los


siguientes casos:

a) Procesos en los que no puede obtenerse más que una medida por
muestra o donde las medidas repetidas solo difieren debido a errores
analíticos. Esto suele suceder en los procesos químicos.

b) Procesos donde la tecnología existente cuantifica cada unidad producida.


En estos casos, también pueden considerarse los gráficos de media móvil.

c) Cuando la cadencia de aparición de nuevos datos es muy lenta y sería


impracticable esperar a reunir una muestra mayor porque esto supondría una
reacción demasiado tardía ante los problemas.

FIN DEL MANUAL DE CONTROL ESTADISTICO DE PROCESOS

Anda mungkin juga menyukai