Es una denominación dada a un conjunto fijo de técnicas gráficas identificadas como las más útiles en la solución de problemas relacionados con la
calidad.
Se llaman básicas porque son adecuadas para personas con poca formación en materia de estadística, también pueden ser utilizadas para resolver la
gran mayoría de las cuestiones relacionadas con la calidad.
Las siete herramientas básicas están en contraste con los métodos más avanzados de estadística, tales como muestreos de encuestas, muestreos de
aceptación, pruebas de hipótesis, diseño de experimentos, análisis multivariados, y los distintos métodos desarrollados en el campo de la Investigación
de operaciones.
Estas herramientas fueron recopiladas y divulgadas en Japón por Kaoru Ishikawa, profesor de ingeniería en la Universidad de Tokio y padre de los
‘círculos de calidad’.
Posteriormente se extendieron a todo el mundo con el nombre de “herramientas básicas para la mejora de la calidad” o también, “las 7 herramientas
básicas de Ishikawa” y varias denominaciones similares.
En su libro “Guía del Control de Calidad”, Ishikawa sentaba las bases de esas 7 herramientas que luego recorrerían el mundo entero.
La designación surgió en los tiempos de Japón en la posguerra y fue una inspiración de las siete famosas armas del monje guerrero
SaitōMusashibōBenkei, también conocido «Benkei».
Identifica muchas causas posibles de un efecto o problema y clasifica las ideas en categorías útiles.
El enunciado del problema, colocado en la cabeza de la espina de pescado, se utiliza como punto de partida para trazar el origen del problema hacia su
causa raíz.
Típicamente, el enunciado describe el problema como una brecha que se debe cerrar o como un objetivo que se debe lograr. El mecanismo para
encontrar las causas consiste en considerar el problema y preguntarse “por qué” hasta que se llegue a identificar la causa raíz o hasta que se hayan
agotado las opciones razonables en cada diagrama de espina de pescado.
Diagrama de flujo
Muestran la secuencia de pasos y las posibilidades de ramificaciones que existen en un proceso que transforma una o más entradas en una o más
salidas. Los diagramas de flujo muestran las actividades, los puntos de decisión, las ramificaciones, las rutas paralelas y el orden general de proceso.
Los diagramas de flujo pueden resultar útiles para entender y estimar el costo de la calidad de un proceso. Esto se consigue mediante la aplicación de
la lógica de ramificaciones del diagrama de flujo y sus frecuencias relativas para estimar el valor monetario esperado para el trabajo conforme y no
conforme requerido para entregar la salida conforme esperada.
Estratificación
La estratificación es una técnica utilizada en combinación con otras herramientas de análisis de datos. Cuando se han agrupado los datos de una
variedad de fuentes o categorías, el significado de los mismos puede ser imposible de ver. Esta técnica los separa para que los patrones se puedan
ver.
Hojas de verificación
También conocidas como hojas de control, se pueden utilizar como lista de comprobación a la hora de recoger datos.
Las hojas de verificación se utilizan para organizar los hechos de manera que se facilite la recopilación de un conjunto de datos útiles sobre un posible
problema de calidad.
Son especialmente útiles a la hora de recoger datos de los atributos mientras se realizan inspecciones para identificar defectos. Por ejemplo, los datos
sobre frecuencias o consecuencias de defectos recogidos en las hojas de verificación se representan a menudo utilizando diagramas de Pareto.
Diagrama de Pareto
Los diagramas de Pareto son una forma particular de un diagrama de barras verticales y se utilizan para identificar las pocas fuentes clave
responsables de la mayor parte de los efectos de los problemas.
Las categorías que se muestran en el eje horizontal representan una distribución probabilística válida que cubre el 100% de las observaciones posibles.
Las frecuencias relativas de cada una de las causas especificadas recogidas en el eje horizontal van disminuyendo en magnitud, hasta llegar a una
fuente por defecto denominada “otros” que recoge todas las causas no especificadas. Por lo general, el diagrama de Pareto se organiza en categorías
que miden frecuencias o consecuencias.
Histogramas
Son una forma especial de diagrama de barras y se utilizan para describir la tendencia central, dispersión y forma de una distribución estadística. A
diferencia del diagrama de control, el histograma no tiene en cuenta la influencia del tiempo en la variación existente en la distribución.
Diagramas o gráficos de control
Se utilizan para determinar si un proceso es estable o tiene un comportamiento predecible.Los límites superior e inferior de las especificaciones se
basan en los requisitos establecidos previamente. Reflejan los valores máximo y mínimo permitidos. Puede haber sanciones asociadas al
incumplimiento de los límites de las especificaciones. Los límites de control superior e inferior son diferentes de los límites de las especificaciones.
Estos se determinan mediante la utilización de cálculos y principios estadísticos estándar para establecer la capacidad natural de obtener un proceso
estable.
Se puede utilizar los límites de control calculados estadísticamente para identificar los puntos en que se aplicarán medidas correctivas para prevenir un
desempeño anormal. En general la acción correctiva busca el mantener la estabilidad natural de un proceso estable y eficaz.
Para procesos repetitivos, los límites de control se establecen por lo general en ±3 s alrededor de una media del proceso, que se establece a su vez en
0 s.
Se puede utilizar los diagramas de control para monitorear diferentes tipos de variables de salida. Se utilizan con mayor frecuencia para realizar el
seguimiento de actividades repetitivas relativas a la fabricación de lotes.
Diagramas de dispersión
Representan pares ordenados (X, Y) y a menudo se les denomina diagramas de correlación, ya que pretenden explicar un cambio en la variable
dependiente Y en relación con un cambio observado en la variable independiente X.
La dirección de la correlación puede ser proporcional (correlación positiva), inversa (correlación negativa), o bien puede no darse un patrón de
correlación (correlación cero). En caso de que se pueda establecer una correlación, se puede calcular una línea de regresión y utilizarla para estimar
cómo un cambio en la variable independiente influirá en el valor de la variable dependiente.
Tipos de gráficos relacionados con el histograma
Representa la frecuencia absoluta mediante la altura de las barras. Se usa mucho en educación no universitaria por su sencillez, pero sólo se puede
aplicar cuando todos los intervalos son iguales, ya que en ese caso las alturas y las superficies son proporcionales. En esos niveles educativos se
introduce una estadística elemental y todavía no se puede profundizar en estos detalles.
Representa la frecuencia relativa mediante la altura de las barras. Igual que en el caso anterior se usa mucho en educación no universitaria. La
elaboración del gráfico es más complicada pues los números ya no son enteros. Como en el caso anterior sólo se puede aplicar cuando todos los
intervalos son iguales, ya que en ese caso las alturas y las superficies son proporcionales.
Histograma
Representa la frecuencia relativa mediante la superficie de las barras. Aunque esto sea cierto en todos los histogramas, cuando se agrupan los datos
en intervalos desiguales hay que atender a la superficie de las barras, que no se corresponderá con la altura como ocurría en los casos anteriores. Es
el que se suele usar en educación universitaria. Para su elaboración debe introducirse el concepto de altura de histograma, que es un concepto
equivalente al de densidad de probabilidad, y que se calcula dividiendo la frecuencia relativa de ese intervalo (o sea la superficie que queremos darle)
entre la anchura del intervalo (la base del rectángulo). Ahora las barras tendrán siempre superficie igual a la frecuencia relativa y la suma de todas esas
superficies (de todas las barras) será 1, o sea el 100%.
Función densidad
Representa la probabilidad mediante la superficie de las barras. Es un gráfico idéntico al histograma pero aplicado a distribuciones teóricas. El concepto
de frecuencia relativa se cambia por el de probabilidad, pero también se representa por superficies y la suma de todas esas superficies (de todas las
barras) será 1, como en el histograma, o sea el 100% de probabilidad.
Es un gráfico acumulativo que representa la frecuencia relativa acumulada hasta cada valor de la variable. Si el rango es finito el primer valor del rango
tiene frecuencia acumulada (anterior) cero y el último tiene frecuencia acumulada 1 (100%). Así el eje vertical siempre toma valores de cero a uno y
representa frecuencias relativas (o probabilidades si se trata de distribuciones teóricas). Se utiliza para introducir el concepto y el cálculo de la mediana,
los cuartiles, los deciles y en general los parámetros llamados de posición. Si el rango es infinito, como suele ocurrir en las distribuciones teóricas el
cero puede no alcanzarse y será el valor asintótico por la izquierda, si tampoco se alcanza el uno también será el valor asintótico derecho, y en muchos
casos no se alcanza ni uno ni otro, teniendo dos asintotas. Este gráfico es la integral del histograma (cuando trabajamos con distribuciones reales) o de
la función densidad (cuando trabajamos con distribuciones teóricas).
Es un gráfico acumulativo que representa la frecuencia absoluta acumulada hasta cada valor de la variable. Realmente no es un gráfico relacionado
con el histograma, pero es muy parecido a la curva acumulativa y a la función de distribución. Se usa mucho en enseñanza no universitaria por su
sencillez, ya que permite trabajar con números enteros (frecuencias absolutas) y, como la anterior, permite introducir y calcular mediana, cuartiles, etc.
Esta curva no irá entre cero y uno sino entre cero y el total de individuos de la muestra.
Nota
En todos estos diagramas la muestra o la población se divide en intervalos (del parámetro a estudiar, por ejemplo estatura) y aparece el dilema de si
incluir el extremo del intervalo (por ejemplo 180 cm) en el primer o en el segundo intervalo en los que aparece. Tradicionalmente se incluye en el
segundo y los intervalos quedan abiertos por la derecha: [170, 180) y [180,190). Sin embargo, dependiendo del problema a estudiar (problemas en que
los extremos salen con mucha frecuencia frente a otros en que no salen nunca) y de la costumbre, se pueden encontrar otras elecciones.
Paso 1
Determinar el rango de los datos. Rango es igual al mayor valor menos el menor valor.
Paso 2
Obtener todos los números de grupos, existen 4 criterios para determinar el número de clases (o barras) –por ejemplo, la regla de Sturges etc.
Paso 3
Establecer la anchura de clase. Si queremos intervalos iguales tomaremos el rango dividido por el número de clases y comparar con los resultados
obtenidos de la dispersión.
Paso 4
Construir los intervalos de clases: Los intervalos resultan de dividir el rango de los datos en segmentos iguales usando la anchura de clase obtenida en
el PASO 3.
Paso 5
Graficar el histograma: Como todas las clases tienen la misma amplitud las bases de las barras son los intervalos de clases y la altura es la frecuencia
de las clases
Paso 1: Establecemos el contexto sobre el cual vamos a medir los datos. Básicamente lo que hacemos aquí es planear, y una de las mejores
herramientas para apoyarnos es el 5w+2h.
Qué
Por qué
Cuándo
Dónde
Quién
Cómo
Cuánto.
Paso 2: Creamos el formato de la hoja, el cual estará diseñado de acuerdo al 5w+2h del paso anterior.
Paso 3: Recolectar los datos. Es importante que los datos se recolecten como se definió en el cómo, cuándo y dónde del paso 1. Así aseguramos la
pertinencia de los datos recolectados.
Paso 1:
Qué: Clasificar los defectos de tienen los clientes en su computador y la eficacia en la solución por parte del personal.
Por qué: Prestar un mejor servicio de acuerdo al tipo de defecto y capacitar al personal nuevo en los defectos más frecuentes.
Cuándo: Los datos se tomarán por tres semanas.
Dónde: Los datos se tomarán en el salón de reparaciones.
Quién: Los datos serán tomados por el ingeniero de producto y se evaluarán tres técnicos.
Cómo: Los datos serán tomados a través de hojas de chequeo, según la siguiente clasificación:
Una cruz: Defectos en la board
Un circulo: Defectos en el monitor
Un triángulo: Defectos de ventilación
Una equis: Defectos por software o de virus
Cuánto: Se tomarán los datos de 50 clientes o hasta que se cumpla el tiempo estipulado.
Paso 2:
Fíjate en lo definido en el paso 1. Requerimos clasificar datos según la semana, la parte del computador y el número de servicios prestados por cada
técnico. Podemos adaptar varios tipos de hojas de verificación. ¿Qué te parece esta?
Ejemplo de formato de hoja de verificación
Ejemplo de formato de hoja de verificación
Paso 3: Y así luce el formato diligenciado. Con esto podemos determinar el número de servicios según la clasificación definida, cuántos servicios
realizó cada técnico y la semana en que lo hicieron.
Con estos datos ya podemos tomar decisiones respectivas o adelantar otros estudios con otras herramientas de análisis y priorización de problemas.
Por ejemplo,…
La relación 80/20 se ha encontrado en distintos campos. Por ejemplo, el 80% de los problemas de una organización son debidos a un 20% de las
causas posibles. El 80% de los defectos de un producto se debe al 20% de causas potenciales. El 80% del absentismo, es causado por un 20% de
empleados…
Evidentemente, la relación no debe ser exactamente 80/20. Pero sí se puede aventurar que unas pocas causas son responsables de la mayor parte de
los problemas.
Ventajas
Permite centrarse en los aspectos cuya mejora tendrán más impacto, optimizando por tanto los esfuerzos.
Proporciona una visión sencilla y rápida de la importancia relativa de los problemas.
Ayuda a evitar que empeoren algunas causas al tratar de solucionar otras menos significativas.
Su visión gráfica del análisis es fácil de comprender y estimula al equipo para continuar con la mejora.
Utilidades
Determinar cuál es la causa clave de un problema, separándolas de otras presentes, pero menos importantes.
Decidir cuál será el objetivo de las acciones de mejora, optimizando la eficiencia de los esfuerzos llevados a cabo para ello.
Contrastar la efectividad de las mejoras obtenidas, comparando sucesivos diagramas obtenidos en momentos diferentes.
Puede ser utilizado tanto para investigar efectos, como analizar causas.
Comunicar fácilmente a otros miembros de la organización las conclusiones sobre causas, efectos y coste de los errores.
Origen del Diagrama de Pareto
En 1909 el economista y sociólogo Vilfredo Pareto (1848 – 1923) publicó los resultados de sus estudios sobre la distribución de la riqueza, observando
que el 80% de la misma se encontraba concentrada en el 20% de la población.
A finales de los años 30, durante una visita a la central de General Motors Corporation para el intercambio de buenas prácticas de ingeniería industrial,
Juran tuvo la oportunidad de conocer los trabajos de Pareto sobre la distribución de la riqueza.
Más adelante Juran, mientras preparaba la primera edición de su obra Manual de Control de la Calidad [1], se vio ante la necesidad de dar un nombre
corto al principio de “los pocos vitales los muchos triviales”. Bajo el título “La mala distribución de las pérdidas de calidad”, en el que figuraban
numerosos ejemplos de mala distribución, señaló que Pareto había encontrado mal distribuida la riqueza.
Asimismo, mostró ejemplos de curvas acumulativas para la desigual distribución de la riqueza y la desigual distribución de las pérdidas de calidad.
Tituló esas curvas como principio de Pareto de la distribución desigual aplicado a la distribución de la riqueza y la distribución de las pérdidas de calidad
.
Elaboración del Diagrama de Pareto
Los pasos a seguir para la elaboración de un diagrama de Pareto son.
1. Seleccionar los datos.
Aquellos que se van a analizar. También el periodo de tiempo al que se refieren dichos datos.
2. Agrupar los datos.
Se agrupan según categorías, de acuerdo con un criterio determinado.
3. Tabular los datos.
Comenzando por la categoría que contenga más elementos y, siguiendo en orden descendente, calcular las frecuencias:
Absoluta.
Absoluta acumulada.
Relativa unitaria.
Relativa acumulada.
4. Dibujar el diagrama de Pareto.
Ahora, se delinea el diagrama, sus ejes de ordenadas y abscisas.
5. Representar el gráfico de barras.
En esta representación, el eje horizontal aparecerá también en orden descendente.
6. Delinear la curva acumulativa.
Se dibuja un punto que represente el total de cada categoría. Tras la conexión de estos puntos se formará una línea poligonal.
7. Identificar el diagrama.
Se etiquetan los datos como: título, fehca de realización, periodo estudiado,…
8. Analizar el diagrama de Pareto.
Finalmente, se analiza el diagrama de Pareto.
En el diagrama de Pareto anterior puede observarse como dos tipos de incidencias comprenden el 49,73% de los requerimientos de asistencia:
Reponer papel (30,60%) y Requiere limpieza (19,13%).
Ley de Pareto
La Ley o Principio de Pareto, también conocida como la Regla del 80/20 (ó 20/80), establece que, de forma general y para un amplio número de
fenómenos, aproximadamente el 80% de las consecuencias proviene del 20% de las causas.
Vilfredo Federico Pareto (1848-1923) fue un ingeniero, sociólogo, economista y filósofo italiano, cuyo Principio o Ley nos puede servir de referencia
para centrarnos en lo que realmente importa, en lo que nos puede dar mayores satisfacciones con menores esfuerzos, sin malgastar energías y
recursos en obtener pobres resultados.
En el mundo empresarial, la Ley de Pareto suele cumplirse, por ejemplo, en los campos de ventas y gastos. Así, en muchos casos se podrá comprobar
cómo el 80% de las ventas de una empresa proviene de un 20% de sus clientes, o de un 20% de sus productos, o el 80% de sus gastos del 20% de
sus proveedores.
También se puede aplicar en logística (controlando el 20% de los productos almacenados puede controlarse el 80% del valor de los productos del
almacén), o en ingeniería de software (el 80% de los fallos de un software tiene su origen en un 20% del código de dicho software).
O en más casos:
El 20% de los vendedores producen el 80% de las ventas.
El 80% de las ventas corresponden a ventas del 20% de los productos.
El 80% de los gastos de una empresa se centran en el 20% de las partidas de gastos.
El 80% de las quejas de nuestros clientes recaen sobre el 20% de nuestros productos.
El 80% de nuestros nuevos clientes son captados por el 20% de nuestras campañas publicitarias.
El 80% de las visitas orgánicas a una web proceden del 20% de las keywords o palabras clave
El 20% de las campañas de banner generan el 80% del tráfico de esos banner
El 20% de nuestros afiliados conseguirán el 80% de las ventas de afiliados.
Así pues, la Ley de Pareto puede ser de gran utilidad para la gestión empresarial, puesto que identificando el 20% de un factor concreto que produzca
el 80% que queremos controlar, es posible conocer dónde es más rentable poner esfuerzos extras para conseguir un mejor resultado.
El Principio de Pareto, también conocido como la regla de 80/20, es una teoría mantiene que el 80% de las consecuencias de una situación o sistema
se determina por el 20% de las causas.
¿Qué establece el Principio de Pareto?
El Principio de Pareto fue descrito por el economista y sociólogo Vilfredo Pareto, que especifica una relación desigual entre entradas y salidas. El
principio establece que el 20% de la lo que entra o se invierte es responsable del 80% de los resultados obtenidos. Dicho de otra manera, el 80% de las
consecuencias se derivan de 20% de las causas; esto también se conoce como la “regla de Pareto” o la “regla 80/20.”
De manera más general, el Principio de Pareto es la observación (no ley) que la mayoría de las cosas en la vida no se distribuyen de manera
uniforme. Por ejemplo:
El 20% de las consecuencias derivan del 80% de las causas
El 20% de los trabajadores producen el 80% de los resultados
El 20% de los clientes a crean el 80% de los ingresos
El 20% de los errores de software causan el 80% de los fallos del software.
El 20% de los inversores se quedan con el 80% de las ganancias obtenidas en Bolsa, y esto a su vez tiene su origen en el 20% de los valores
de una cartera individual.
Y así sucesivamente…
El principio no estipula que todas las situaciones vayan a mostrar exactamente esta relación, se refiere a una distribución típica. De forma general el
principio se puede interpretar como que una minoría de causas derivan en la mayoría de los resultados.
Cap 11
1Identifique tres sitios web dedicados a hacer comparaciones de precios y verifique la información de un modelo específico de una cámara digital en los tres
sitios. Compare los rangos de precios que proporciona cada página. Con base en su investigación, determine un precio justo para la cámara (AACSB:
comunicación; uso de la TI).
Kuantokuesta: dispone de una decena de categorías en las que agrupa los diferentes productos –electrodomésticos, informática, telefonía, imagen hy sonido, belleza y bienestar, deportes, moda, videojuegos y consolas, bebés y niños, y
juegos y juguetes- además de un buscador integrado. También permite a las marcas registrarse y pone a nuestra disposición un área de productos destacados.
Minderest: española de pura cepa y nacida en 2012, se trata de una aplicación que permite comparar los precios de una larga lista de productos del sector retail. Una plataforma pensada para empresas que incluye los de las tiendas offline y
que cuenta con clientes de la talla de Telefónica, Worten y La Casa del Libro. ¿Su propósito? Ponérselo más fácil a la hora de conocer en tiempo real las estrategias de precios de sus competidores.
Kelkoo: otro buscador y comparador de precios que indaga en más de un centenar de tiendas (las encontrarás agrupadas por orden alfabético) de diversa índole. De hecho, cuenta con distintas categorías para facilitarte la búsqueda.
Idealo: muy similar a la que le precede en esta lista, se trata de un portal que lleva a cabo su selección de entre 7.400 tiendas online. Además de los precios, cuenta con opiniones de los usuarios y filtros de búsqueda. Asimismo, actualmente
cuenta con otro comparador integrado centrado en los vuelos y que compara las ofertas de más 900 aerolíneas.
¿por qué sube o por qué baja?, los factores que determinan las fluctuaciones del dólar son dos. Como indicó el director de la Escuela de Economía de la Universidad
Industrial de Santander, UIS, Jorge Navarro, “la oferta y la demanda son la base del mercado de divisas norteamericanas”. Eso significa que las operaciones que se realizan
para vender y comprar dólares marcan la pauta para el precio diario.
Entonces, qué es lo que hace que el precio suba, básicamente, la disponibilidad frente a la escasez de divisa. Si hay muchos dólares en el mercado, el precio tiende a bajar,
la falta de moneda norteamericana en el país la hace más apetecida y por ende más costosa. Esto en principio serían las bases de la TRM
ENFOQUE EN LA Ética
Ha sucedido que 2 personas compren un viaje en avión para el mismo destino, salgan la misma fecha y hora, suban al mismo avión, se sienten uno al lado del otro pero...
uno de ellos ha pagado el doble o hasta el triple, ¿Por qué? Aquí te cuento...
En realidad, el precio de un pasaje aéreo es un misterio para muchos, en una reunión de viajeros pregunte: ¿cómo encuentran los precios más económicos? la mayoría
solo me dijo, que si lo compra con 2 meses de anticipación encuentra el mejor precio (más o menos va por ahí), otros me dicen que todo depende de donde te sientes,
mientras más adelante es más caro (esto no es correcto), por ahí dijeron que depende de la Clase, si es Económica tiene un precio y si es Business es otro precio (NO a
medias), por ultimo tambien dijeron que solo por internet encuentras los mas baratos (no siempre).
¿Entonces como encontrar las tarifas económicas?
Esta pregunta se responde, solo si conoces el sistema de Clases que usan las aerolíneas para colocar los precios, este sistema es muy conocido por los counter de las
agencias de viajes. Hasta el momento, todos saben que existen 4 tipos de clases en un avión: Promocional, Económica o Turista, Business o Ejecutiva y la Primera Clase,
esta última solo hay en grandes aviones, he visto primera clase en algunos vuelos de USA a Europa o Asia.
clase1
Pero... las clases que acabo de nombrar son genéricas, solo para que el pasajero sepa que tipo de pasaje estan comprando, porque el sistema de Clases para las aerolíneas
es diferente, ellos las clasifican con una letra del abecedario para identificar que tipo de boleto es, cada clase tiene una tarifa diferente (y restricciones diferentes), además,
cada letra o clase agrupa una cantidad de espacios o asientos en el avión (casi siempre son 7 o 9)...
Entonces, solo 7 o 9 asientos tienen el mismo precio porque pertenecen a una clase o letra, después, la siguiente clase tendrá otro precio.