Вы находитесь на странице: 1из 91

INSTITUTO POLITECNICO NACIONAL

Unidad Profesional Interdisciplinaria de


Ingeniería y Ciencias Sociales y Administrativas.

ALUMNOS:
CASTAÑEDA GUZMAN OSCAR ARMANDO
CRUZ MONREAL JESSICA
DELGADILLO GALVEZ PEDRO DE JESUS
GONZALEZ CAMACHO ALEXIS JAVIER
IBARRA ZAMORANO KEILA JIREH
OTILIO CASTILLO JOSE LUIS
NAVA RAMIREZ RODRIGO

SECUENCIA
4AV70

CONTROL DE LOS PROCESOS.

PROFESOR:
GONZALEZ BERMEJO JUAN JOSE.

“MANUAL DE CONTROL DE LOS PROCESOS”

“La técnica al servicio de la patria”


INDICE:

UNIDAD TEMATICA 1: FUNDAMENTOS DEL CONTROL DE CALDAD EN LOS


PROCESOS

1.1 Filosofías de la calidad


1.2 Enfoque de los procesos y el empleo de las herramientas básicas de calidad
1.2.1 Recopilación de la información (hoja de control, verificación o comprobación)
1.2.2 Determinación de las causas (diagrama de Ishikawa)
1.2.3 Determinación de las causas relevantes (diagrama de Pareto)
1.3 Diagrama de estratificación.
CONCLUSIONES ESPECÍFICAS

UNIDAD TEMATICA 2: HERRAMIENTAS ESTADISTICAS BASICAS

2.1 Relación de las causas más importantes (diagrama de dispersión)


2.2 Histogramas
2.3 Distribución normal en los procesos
2.4 Graficas de control
2.4.1 Por variables
2.4.2 Por atributos
2.5 Capacidad y habilidad del proceso (CP y CPK)
CONCLUSIONES ESPECÍFICAS

UNIDAD TEMATICA 3: TECNICAS AVANZADAS DE CALIDAD

3.1 Las 7 nuevas herramientas


3.2 Las 5 S’S
3.3 Mejora continua (Kaizen)
3.4 Six Sigma
3.5 Otras técnicas importantes
3.5.1 Reingeniería
3.5.2 Kanban
3.5.3 Poca yoke
3.5.4 Just time
3.5.5 Benchmarking
CONCLUSIONES ESPECÍFICAS
EJEMPLOS RESUELTOS
EJEMPLOS SIN RESOLVER
CASOS PRACTICOS
CONCLUSIONES GENERALES
UNIDAD TEMATICA 1: FUNDAMENTOS DEL CONTROL DE
CALDAD EN LOS PROCESOS
1.1 FILOSOFÍAS DE LA CALIDAD
Cuando se habla de la Calidad y su evolución histórica, todos los autores se
refieren, obligatoriamente, a los llamados cinco grandes de la calidad, o gurus de
la calidad, que son:
William Eduards Deming, Joseph M. Juran, Armand V. Feigenbaum, Kaoru
Ishikawa y Philip B.
Crosby.
El control de la calidad surgió en Estados Unidos en los años 20 del siglo pasado,
y estaba basado en las técnicas del Control Estadístico de los Procesos
industriales.
William Eduards Deming desarrolló este Control Estadístico de la Calidad
orientándolo, en los años 40, hacia las operaciones que se desarrollaban en el
ámbito de la administración de la empresa, demostrando que era tan efectivo
como en el ámbito industrial. Eduards Deming fue invitado, en 1947, a ir a Japón

Los catorce puntos de Deming:

1. Crear constancia en el propósito de mejorar el producto y el servicio


2. Adaptar la empresa a la nueva economía en que vivimos
3. Evitar la inspección masiva de productos
4. Comprar por calidad, no por precio, y estrechar lazos con los proveedores
5. Mejorar continuamente en todos los ámbitos de la empresa
6. Formar y entrenar a los trabajadores para mejorar el desempeño del trabajo
7. Adaptar e implantar el liderazgo
8. Eliminar el miedo, para que las personas trabajen seguras y en lo mejor de sí
mismas
9. Romper las barreras entre departamentos
10. Eliminar eslóganes y consignas para los operarios, sustituyéndolo por
acciones de mejora
11. Eliminar estándares de trabajo, incentivos y trabajo a destajo, pues son
incompatibles con la mejora continua
12. Eliminar las barreras que privan a la gente de estar orgullosas de su trabajo
13. Estimular a la gente para su mejora personal
14. Poner a trabajar a todos para realizar esta transformación, aplicando el método
PDCA
Con sus “catorce puntos para la gestión”, Deming pretende mostrar la importancia
del papel de las personas, y, en especial, de la dirección, en la competitividad de
las empresas.
Durante la segunda mitad del siglo XX, W. Edwards Deming popularizó el ciclo
PDCA
(Planificar, Desarrollar, Comprobar, Actuar), inicialmente desarrollado por
Shewhart, que es utilizado extensamente en los ámbitos de la gestión de la
calidad. Esta herramienta ayuda a establecer en la organización una metodología
de trabajo encaminada a la mejora continua.

Planificar (P). La dirección de la organización define los problemas y realiza el


análisis de datos,
y marca una política, junto con una serie de directrices, metodologías, procesos de
trabajo y objetivos que se desean alcanzar en un periodo determinado, incluyendo
la asignación de recursos. Estas actividades que corresponden a la alta dirección
se engloban bajo el término
“Planificar” (“Plan”, en inglés), que constituye el primero de los grupos
anteriormente citados.

Hacer (D). A partir de las directrices que emanan de la planificación, la


organización efectúa una serie de actividades encaminadas a la obtención de los
productos o los servicios que proporciona a sus clientes (“Do” en inglés). En estos
procesos, se deben tener en cuenta todos los requisitos del cliente, de forma que
el producto o servicio obtenido se ajuste lo más posible a sus expectativas. De ello
dependerá el grado de satisfacción del cliente.

Comprobar (C). Finalizado el proceso productivo, debemos evaluar su eficacia y


eficiencia realizando un seguimiento y un control con una serie de parámetros que
son indicativos de su funcionamiento. Se trata de comprobar (“Check” en inglés)
objetivamente los resultados obtenidos por la organización mediante el análisis de
sus procesos, comparándolos con los resultados previamente definidos en los
requisitos, en la política y en los objetivos de la organización, para verificar si se
han producido las mejoras esperadas, averiguar las causas de las desviaciones o
errores y plantear posibles mejoras.

Ajustar (A). En función de los resultados obtenidos, y una vez analizados por la
dirección, ésta marcará una serie de nuevas acciones correctoras para mejorar
aquellos aspectos de los procesos en los que se han detectado debilidades o
errores. En consecuencia, se tiene que “Actuar” (“Act” en inglés) para estandarizar
las soluciones, mejorar la actividad global de la organización y la satisfacción del
cliente.
Para cerrar el ciclo, la dirección, haciendo un análisis global del ciclo completo,
volverá a planificar una serie de objetivos aplicables a la siguiente iteración del
bucle.
1.2 ENFOQUE DE LOS PROCESOS Y EL EMPLEO DE LAS HERRAMIENTAS
BÁSICAS DE CALIDAD

ENFOQUE DE PROCESOS
• Un proceso es un conjunto de actividades que están relacionadas entre sí,
o que interactúan entre sí. Los procesos utilizan recursos para trasformar
insumos en productos o servicios.

Las Siete Herramientas Básicas de la Calidad


Estas herramientas, que posteriormente se denominaron “las siete herramientas
básicas de la calidad”. Pueden ser descritas genéricamente como métodos para la
mejora continua y la solución de problemas.
Las siete herramientas básicas de la calidad son:

 Diagrama Causa – Efecto. Ayuda a identificar, clasificar y poner de manifiesto


posibles causas, tanto de problemas específicos como de efectos deseados.
 Hoja de Comprobación. Registro de datos relativos a la ocurrencia de
determinados sucesos, mediante un método sencillo.
 Gráficos de Control. Herramienta estadística utilizada para controlar y mejorar
un proceso mediante el análisis de su variación a través del tiempo.
 Histograma. Gráfico de barras verticales que representa la distribución de
frecuencias de un conjunto de datos.
 Diagrama de Pareto. Método de análisis que permite discriminar entre las
causas más importantes de un problema (los pocos y vitales) y las que lo son
menos (los muchos y triviales).
 Diagrama de Dispersión. Herramienta que ayuda a identificar la posible relación
entre dos variables.
 Estratificación. Procedimiento consistente en clasificar los datos disponibles por
grupos con similares características. Muestra gráficamente la distribución de los
datos que proceden de fuentes o condiciones diferentes.

Su éxito radica en la capacidad que han demostrado para su aplicación en un


amplio rango de problemas. Desde el control de calidad hasta las áreas de
producción, marketing y administración. Las organizaciones de servicios también
son susceptibles de aplicarlas, aunque su uso comenzara en el ámbito industrial.

1.2.1 RECOPILACION DE LA INFORMACIÓN (HOJA DE CONTROL,


VERIFICACION O COMPROBACION)

Recopilación de la información.

Es esencial al hacer investigación saber cómo localizar los trabajos previos


relativos al área de investigación de su interés, para eso debe conocer:

1. Las fuentes de información que contienen los trabajos anteriores o


información sobre ellos.

2. los organismos que generan, recopilan u organizan ese tipo de


información.

3. La forma en que se puede tenerse acceso a esa información.

4. Los procedimientos correspondientes para obtenerla, tanto en el


país de origen como en el extranjero; el tiempo que tardaría en tenerla en sus
manos y,

5. Costo aproximado de los servicios más inmediatos para obtener la


información.

Dentro de la recolección de datos se pueden apelar a diversas técnicas:


las encuestas, la observación, la toma de muestras y las entrevistas, entre otras,
permiten realizar la tarea.
La recolección de datos es muy importante ya que permite sustentar el
conocimiento que se generará luego. De todas formas, la recolección por sí sola
no garantiza la calidad del saber producido.
El mejoramiento incesante de la calidad de bienes y servicios es un asunto que
emplea una metodología que hace uso de herramientas tradicionales y se
enriquece con nuevas técnicas cada día.

Hoja de control.
Las hojas de control o también llamadas hojas de registro o recogida de datos son
formas estructuradas que facilitan la recopilación de información, previamente
diseñadas con base en las necesidades y características de los datos que se
requieren para medir y evaluar uno o varios procesos.
Una hoja de registro es un formato pre impreso en el cual aparecen los ítems que
se van a registrar, de tal manera que los datos puedan recogerse fácil y
concisamente. (Vasco & Kumen, 1992).
Las Hojas de Recogida de Datos son impresos que se utilizan para reunir datos
que, en general, se anotan de forma tabular o en columnas. Normalmente
requieren de un proceso adicional, una vez recogidos los datos, utilizando una
herramienta de análisis de los mismos.
Se puede afirmar que las hojas de control son las herramientas bases para la
recolección y análisis de datos, que permiten realizar seguimientos en el proceso
de resolución de problemas.

Hojas de Comprobación
Las hojas de comprobación (también llamadas “de verificación”, “de control” o “de
chequeo”) son impresos con formato de tabla o diagrama, destinados a registrar
datos relativos a la ocurrencia de determinados sucesos, mediante un método
sencillo.

Las hojas de comprobación:

 Facilitan el registro de datos de forma fácil y comprensible.


 Suponen poca interferencia con la actividad habitual de quien realiza el registro.
 Permiten que los patrones de comportamiento de un fenómeno se visualice
rápidamente.
 Facilitan el estudio de los síntomas de un problema.
 Ayudan a investigar las causas de un problema.
 Permiten analizar datos para probar alguna hipótesis.

Esta técnica de recogida de datos se prepara de manera que su uso sea fácil. Que
no interfiera lo menos posible con la actividad de quien realiza el registro. En
la mejora de la Calidad, se utiliza tanto en el estudio de los síntomas de un
problema, como en la investigación de las causas o en la recogida y análisis de
datos para probar alguna hipótesis.
Las hojas de comprobación centran la atención en los hechos. Es decir, objetiva
un problema sobre la base de datos que ofrezcan una perspectiva realista.
Los datos a coleccionar pueden ser de muy distinta naturaleza, así como los
fenómenos a estudiar. Los tipos de formatos de hojas de comprobación también
pueden ser muy diversos, de modo que se ajusten al problema o hipótesis a
analizar.

Fases de Aplicación de las Hojas de Comprobación

1. Determinar el objetivo

Precisándolo de manera clara e inequívoca: verificar la distribución de un proceso,


revisar defectos y/o errores, contar la frecuencia en la ocurrencia incidencias…

2. Definir el modo en que se llevará a cabo el registro


En este paso se establece quién efectuará el registro, cómo y dónde, si se
registrarán todas las ocurrencias o se realizará un muestreo,…

3. Diseñar la hoja de comprobación


La hoja de comprobación ha de permitir que el registro de datos sea sencillo, que
la situación registrada pueda entenderse con inmediatez y que los datos no
presenten dificultad para ser procesados.

4. Tomar datos
Una vez diseñada la hoja de comprobación se procede a iniciar la toma de datos.

A continuación se presenta un formato de hoja de comprobación. En este caso,


destinado a obtener datos sobre las incidencias informadas en la vía pública
según el distrito de la ciudad.
La hoja de verificación se utiliza para reunir datos basados en la observación del
comportamiento de un proceso con el fin de detectar tendencias, por medio de la
captura, análisis y control de información relativa al proceso. Básicamente es un
formato que facilita que una persona pueda tomar datos en una forma ordenada y
de acuerdo al estándar requerido en el análisis que se esté realizando. Las hojas
de verificación, también conocidas como de comprobación o de chequeo,
organizan los datos de manera que puedan usarse con facilidad más adelante.
Brinda grandes respuestas.

Consejos para la elaboración e interpretación de las hojas de verificación.

 Asegúrese de que las observaciones sean representativas.

 Asegúrese de que el proceso de observación es eficiente de manera que las


personas tengan tiempo suficiente para hacerlo.

 La población (universo) muestreada debe ser homogénea, en caso contrario,


el primer paso es utilizar la estratificación (agrupación) para el análisis de las
muestras/observaciones las cuales se llevarán a cabo en forma individual.
Sus objetivos principales de manera general son:
· Facilitar la recolección de datos.
· Organizar automáticamente los datos de manera que puedan usarse con
facilidad más adelante.
· Son el punto de partida para la elaboración de otras herramientas, como por
ejemplo los Gráficos de Control.

Ventajas:
· Es un método que proporciona datos fáciles de comprender y que son obtenidos
mediante un proceso simple y eficiente que puede ser aplicado a cualquier área
de la organización.
· Estas hojas reflejan rápidamente las tendencias y patrones derivados de los
datos.
· Proporciona registros históricos, que ayudan a percibir los cambios en el tiempo.
· Facilita el inicio del pensamiento estadístico.
· Ayuda a traducir las opiniones en hechos y datos.

Características:
A continuación se citan una serie de características que ayudan a comprender
la naturaleza de la herramienta.
· Sencillez: Una Hoja de Comprobación permite registrar los datos de forma simple
y directa.
· Comunicación de información: Permite ver si hay una tendencia en los datos
según se va completando la hoja. Permite un análisis visual de dichas tendencias
o comportamientos.
· Flexibilidad: La forma en la que presentan los datos, permite utilizar, los mismos
para múltiples análisis posteriores y contestar diferentes preguntas.
· Disponibilidad: Permiten tener los datos reunidos de forma ordenada y sencilla
para su posterior utilización.

Usos y aplicaciones:
La hoja de recogida de datos se construye en función de los objetivos y de la
finalidad, que pueden ser muy diversos de una situación a otra:
· Problemas relacionados con la seguridad
· Tipo y número de defectos.
· Cantidad de producto fuera de las especificaciones.
· Respeto de una secuencia de operaciones.
· Valoración completa o en detalle de un problema.
· Grado de influencia sobre un problema de aspectos tales como el turno,
los materiales, las maquinas, etc.

Proceso para la elaboración y aplicación de hojas de control.


Paso 1: Formulación de las preguntas
Formular las preguntas correctas es el primer paso clave para el éxito de la
recogida de datos. Las preguntas deben ser concretas y específicas. El plantear
preguntas de este tipo favorece su labor en dos aspectos:
- Facilita la definición de los datos que han de ser obtenidos.
- Ayuda a que los demás nos faciliten los datos, puesto que se sabe lo que se
busca y la información resultante va a ser utilizada.

Paso 2: Definir las herramientas apropiadas para el análisis de datos


Cada una de las herramientas utilizadas en el análisis posterior de datos tiene sus
particularidades, ventajas, inconvenientes, y aplicaciones ligeramente diferentes.
Algunas de estas diferencias se traducen en diferentes requerimientos para los
datos. (Volumen de datos, exactitud, características, etc). Es frecuente ver
repeticiones de recogidas de datos o tomas de decisiones basadas en análisis
incompletos debido a que los datos no sirven como base del tratamiento posterior
que se considera idóneo.
Paso 3: Definir el punto de recogida de los datos
El objetivo de este paso es identificar un punto del proceso en estudio donde se
pudiesen recoger todos los datos necesarios sin introducir perturbaciones en el
propio proceso.
La herramienta clave para la identificación de los puntos idóneos de recogida de
datos es el diagrama de flujo del proceso en estudio.

Paso 4: Elegir el personal que debe recoger los datos


La obtención de datos será realizada por las personas con un acceso más fácil y
directo a los hechos. A la hora de diseñar la recogida de datos hay que tener en
cuenta que, en general, su realización introduce factores que distorsionan el
proceso.
El grupo de trabajo analizará tanto las actividades necesarias para la recogida de
datos como la asignación de responsabilidades para las mismas, de forma que el
sesgo a introducir sea el menor posible.

Paso 5: Evaluar los conocimientos del personal encargado de la recogida de datos


y de su entorno
· El grupo de trabajo debe tener en cuenta los siguientes factores:
· La formación y experiencia del personal de recogida de datos. Este factor afecta
a la complejidad del trabajo que se puede realizar y a los conocimientos que se
puedan dar por sabidos.
· El tiempo disponible por este personal para dedicar a las tareas necesarias para
la recogida de datos.
· La cantidad de trabajo que suponen dichas tareas.
· La posibilidad de información o formación directa para estas personas, o bien la
necesidad de basarse en instrucciones escritas.
· El impacto de la toma de datos sobre el entorno de trabajo y/o bien el impacto del
entorno sobre la tarea de recogida de datos.

Paso 6: Diseño del impreso de toma de datos


Una vez definida la pregunta o preguntas, el tipo de datos necesario, los puntos
del proceso y las condiciones de la recogida de datos, se decidirá, en base a estos
factores y a las características particulares de los dos tipos de Hojas, cuál de ellos
es el idóneo.
Principios a tener en cuenta para el diseño:
a) La anotación de los datos debe ser una tarea sencilla.
b) Se diseñará tratando de evitar posibilidades de error y/o malentendidos en la
anotación e interpretación de los datos.
c) El impreso debe ser completo.
d) El impreso debe ser auto explicativo.
e) Se prestará atención al aspecto del impreso.

Paso 7: Preparación de la utilización del impreso


Atendiendo a las características del impreso, de las personas que realizarán las
actividades y de las condiciones de la recogida de datos se deben diseñar las
instrucciones y la capacidad para su puesta en práctica.

Paso 8: Probar los impresos y sus instrucciones


Es importante probar los impresos y sus instrucciones para evitar la aparición de
problemas imprevistos tales como:
· Errores por malentendidos respecto a la forma de rellenar los impresos.
· Pasar por alto información adicional importante, debido a que en la fase de
diseño no se conocían todas las variables del proceso.
· Datos incompletos debido a impresos difíciles de rellenar en medio de la
problemática del proceso.
· Datos incompletos o sesgados por temor a la utilización de la información
obtenida.

Paso 9: Informar y formar al personal de toma de datos


Asegurarse de que el personal conoce y entiende:
- El propósito de la recogida de datos.
- El significado de cada parte del impreso (mostrar un ejemplo relleno).
- La importancia de obtener datos completos y no sesgados.

Paso 10: Realización de la recogida de datos


Se recogerán los datos según el plan establecido.

Paso 11: Revisar el proceso de toma de datos y validar los resultados


Se debe revisar y observar el proceso de obtención y recogida de datos. Antes de
empezar el análisis de los datos, hay que validar los resultados:
- ¿Contesta la recogida de datos a las preguntas planteadas?
- ¿Muestran los resultados de las revisiones evidencias de sesgos en el proceso
de obtención?
- ¿Es el número de observaciones realizado, el especificado?
- ¿Son similares los datos recogidos por todos los encargados de la toma de
datos?
Paso 12: Interpretación de resultados
Una vez obtenidos y validados los datos es hora de analizarlos y satisfacer las
necesidades de información respondiendo a las preguntas inicialmente
formuladas.

Tipos y ejemplos:
Hoja de control para la distribución de frecuencias:
Para estudiar la distribución de los valores característicos de un proceso, se usan
normalmente histogramas. Una manera más sencilla es clasificar los datos
exactamente en el momento de recogerlos; para ello se utiliza una hoja de control
en la cual se coloca una marca cada vez que se realiza una medición, de manera
que el histograma esté listo cuando se acaben de hacer las mediciones.

Hoja de control de defectos


Se utiliza para cuantificar o tipificar los defectos presentados en los productos. El
simple conocimiento del número total de defectos no lleva a acciones correctivas,
pero si se usa una hoja de registro como el ejemplo mostrado en la figura 3,
podrán obtenerse indicios muy importantes para el mejoramiento del proceso
porque la información muestra claramente cuáles son los defectos más frecuentes
y cuáles no. En la figura muestra se muestra otra hoja de control de defectos,
estratificándolos por día, turno, máquina y operario, lo que permite analizar si
alguno de los estratos está relacionado con una causa importante de defectos.
Hoja de control de ubicación del defecto.
Cuando los defectos son externos no es suficiente con indicar su frecuencia y el
estrato en que se han utilizado. La ubicación del defecto puede ayudar a encontrar
la causa que lo genera, consiguiéndose de esta forma su eliminación y, por tanto,
la mejora de calidad. Normalmente esta hoja de control contiene una figura del
producto con el fin de ubicar en él los diferentes defectos que se encuentren. En la
figura 5 se observa una hoja de control diseñada para responder a la pregunta:
¿Son ciertas aéreas de nuestros electrodomésticos más susceptibles de sufrir
desconchados del esmalte durante el transporte?
• Las hojas de control, también llamadas de verificación, se pueden utilizar
como lista de comprobación a la hora de recoger datos.

• Las hojas de verificación se utilizan para organizar los hechos de manera


que se facilite la recopilación de un conjunto de datos útiles sobre un
posible problema de calidad.

LA FUNCION DE UNA HOJA DE VERIFICACIÓN VARÍA DE ACUERDO AL TIPO


DE HOJA
• Para cuantificar los defectos por producto

• Para cuantificar defectos por localización

• Para cuantificar defectos por causa (maquina o trabajador)

• Para realizar un seguimiento a las actividades de un proceso (lista de


verificación)

1.2.2 DETERMINACION DE LAS CAUSAS (DIAGRAMA DE ISHIKAWA)


Diagrama de Ishikawa

La cantidad de procesos y elementos que se mueven en el interior de las


empresas son muchísimos, por lo que se hace necesario algún tipo de
metodología que sirva para estructurar, analizar, corregir errores y definir
estrategias. Una de estas metodologías es el empleo del diagrama de
Ishikawa o diagrama de espina de pescado, también denominado diagrama de
causa y efecto, ideado por el químico japonés Kaoru Ishikawa en el año 1943,
experto en control de calidad. Esto puede ser muy útil para la realización de
un análisis FODA en la empresa.

¿Qué es el diagrama de Ishikawa?


El diagrama de Ishikawa o diagrama de espina de pescado (por su forma similar a
la de un pez), es una representación gráfica muy sencilla en la que puede verse,
de manera relacional, una especie de espina o línea central en horizontal, la cual
representa el problema concreto a analizar.
Además, a través del método Ishikawa tenemos aglutinadas distintas variables y/o
categorías que podrían ser consideradas como origen y causa del problema en
cuestión.

El diagrama de Ishikawa identifica un problema y luego enumera un conjunto de


potenciales causas que lo hayan podido provocar.

Así, lo que Kaoru Ishikawa consiguió con metodología es disponer de un diagrama


muy atractivo a la vista y donde se ordenan de manera clara, amigable y sencilla
las posibles causas de los problemas que surgen en cualquier proceso de la
empresa. Esto nos puede ayudar a conocer los motivos de las debilidades de la
empresa y poder darle soluciones.

¿Cómo hacer un Diagrama de Ishikawa?

El diagrama de Ishikawa o diagrama de espina de pescado es empleado para


facilitar el análisis de los problemas y detectar rápidamente las posibles soluciones
al mismo.

Para ello, Kaoru Ishikawa, experto en control de calidad comprobó que muchos de
los problemas con los que se topan las empresas día a día tienen 4 categorías:

 Personas.
 Materiales.
 Maquinaria.
 Procesos o métodos.

Estos cuatro elementos cubren casi todas las potenciales causas que dan origen a
un problema empresarial.

Otras formas de hacer un diagrama de causa y efecto


Más allá de las detecciones hechas por controles de calidad y demás, existen
clasificaciones específicas de áreas del conocimiento, concretamente las 8p’s del
mercadeo y las 4s’s de la industria de servicios.
8p’s del mercadeo
Es una evolución de las 4p’s. En este caso, tu diagrama de pescado estaría
compuesto por:
 Personas
 Evidencia física o presentación (Physical evidence)
 Proceso (Process)
 Alianzas estratégicas (Partners)
 Producto (product)
 Precio (price)
 Plaza o distribución (Place)
 Promoción o comunicación (promotion)
Alexis Rosas de Mejora tu empresa da un acercamiento más profundo al tema de
las 8p’s del mercadeo
4’s de la industria de servicios
Es de común aplicación en la industria de servicios al considerar los siguientes
aspectos:
 Entorno (Surroundings)
 Habilidades (Skills)
 Sistemas (systems)
 Proveedores (Suppliers)

1.2.3 DEFINICION DE LAS CAUSAS RELEVANTES (DIAGRAMA DE PARETO)


El diagrama de Pareto, también llamado curva cerrada o Distribución A-B-C, es
una gráfica para organizar datos de forma que estos queden en orden
descendente, de izquierda a derecha y separados por barras. Permite asignar un
orden de prioridades. El diagrama permite mostrar gráficamente el principio de
Pareto (pocos vitales, muchos triviales), es decir, que hay muchos problemas sin
importancia frente a unos pocos muy importantes. Mediante la gráfica colocamos
los "pocos que son vitales" a la izquierda y los "muchos triviales" a la derecha. El
diagrama facilita el estudio de las fallas en las industrias o empresas comerciales,
así como fenómenos sociales o naturales psicosomáticos, como se puede ver en
el ejemplo de la gráfica al principio del artículo.
Hay que tener en cuenta que tanto la distribución de los efectos como sus posibles
causas no es un proceso lineal sino que el 20% de las causas totales hace que
sean originados el 80% de los efectos y rebotes internos del pronosticado. El
principal uso que tiene el elaborar este tipo de diagrama es para poder establecer
un orden de prioridades en la toma de decisiones dentro de una organización.
Evaluar todas las fallas, saber si se pueden resolver o mejor evitarla.

DESCRIPCIÓN
Pareto enunció el principio basándose en el denominado conocimiento empírico.
Estudió que la gente en su sociedad se dividía naturalmente entre los «pocos de
mucho» y los «muchos de poco»; se establecían así dos grupos de proporciones
80-20 tales que el grupo minoritario, formado por un 20% de población, ostentaba
el 80% de algo y el grupo mayoritario, formado por un 80% de población, el 20%
de ese mismo algo. En concreto, Pareto estudió la propiedad de la tierra en Italia y
lo que descubrió fue que el 20% de los propietarios poseían el 80% de las tierras,
mientras que el restante 20% de los terrenos pertenecía al 80% de la población
restante.
Estas cifras son arbitrarias; no son exactas y pueden variar. Su aplicación reside
en la descripción de un fenómeno y, como tal, es aproximada y adaptable a cada
caso particular.

El principio de Pareto se ha aplicado con éxito a los ámbitos de la política y


la Economía. Se describió cómo una población en la que aproximadamente el
20% ostentaba el 80% del poder político y la abundancia económica, mientras que
el otro 80% de población, lo que Pareto denominó «las masas», y tenía poca
influencia política. Así sucede, en líneas generales, con el reparto de los bienes
naturales y la riqueza mundial.
Cabe mencionar que si bien Pareto determinó esta relación basándose en sus
estudios sobre la riqueza, la aplicación universal, es decir, la aplicación del
principio a otras áreas fuera de la economía se debe al trabajo de Joseph Juran,
quién encontró la relación 80-20 y la aplicó a otros fenómenos.

VENTAJAS

1. -Permite centrarse en los aspectos cuya mejora tendrá más impacto,


optimizando por tanto los esfuerzos.
2. -Proporciona una visión simple y rápida de la importancia relativa de los
problemas.
3. -Ayuda a evitar que se empeoren algunas causas al tratar de solucionar otras y
ser resueltas.
4. -Su visión gráfica del análisis es fácil de comprender y estimula al equipo para
continuar con la mejora.

APLICACIONES

Cuando un almacén tiene un inventario grande, para concentrar los esfuerzos de


control en los artículos o mercancías más significativos, se suele utilizar el
principio de Pareto. Así, controlando el 20% de los productos almacenados puede
controlarse aproximadamente el 80% del valor de los artículos del almacén. La
clasificación ABC de los productos también se utiliza para agrupar los artículos
dentro del almacén en un número limitado de categorías, cuando se controlan
según su nivel de disponibilidad. Los productos A, 20% de los artículos, que
generan el 80% de los movimientos del almacén, se colocarán cerca de los
lugares donde se preparan los pedidos, para que se pierda el menor tiempo
posible en mover mercancías dentro de un almacén.

EN CONTROL DE CALIDAD:
El principio de Pareto permite utilizar herramientas de gestión, como el diagrama
de Pareto, que se usa ampliamente en cuestiones relacionadas con el control de
calidad (el 20% de los defectos afectan en el 80% de los procesos). Así, de forma
relativamente sencilla, aparecen los distintos elementos que participan en un fallo
y se pueden identificar los problemas realmente relevantes, que acarrean el mayor
porcentaje de error.
EN INGENIERÍA DEL SOFTWARE:
De la misma manera, en el mundo de la ingeniería del software el principio de
Pareto puede ser enunciado de diferentes formas:
5. Así por ejemplo cuando hablamos de los costes de desarrollo podríamos
decir que «el 80% del esfuerzo de desarrollo (en tiempo y recursos)
produce el 20% del código, mientras que el 80% restante es producido con
tan solo un 20% del esfuerzo».
6. Si hablamos de pruebas de software, el principio nos dice que «el 80% de
los fallos de un software es generado por un 20% del código de dicho
software, mientras que el otro 80% genera tan solo un 20% de los fallos».

Además existen algunas particularizaciones o instancias conocidas del principio,


como la regla del noventa-noventa cuyo enunciado en tono cómico dice que «el
primer 90% del código ocupa el 90% del tiempo de desarrollo. El 10% restante del
código ocupa el otro 90% de tiempo de desarrollo» haciendo alusión a la creencia
en el entorno del desarrollo de software de que cualquier planificación nace
condenada a no cumplirse. De ahí que los porcentajes referidos al tiempo son
mayores a 100.

FINANZAS PERSONALES:
Por dónde empezar para generar nuevos ingresos? Dicho de otra manera, si
tienes que recortar tus gastos, si en tu empresa tienes que eliminar costos
superfluos, si no todos los productos que vendes te dejan la misma
ganancia, ¿qué hacer si vives al día con tu sueldo y te sientes atrapado?
Hace más de un siglo, alguien observó algo muy interesante sobre la relación
causa-efecto. Esta regla no es exacta, pero vale la pena tener en cuenta esta
visión del mundo y sus consecuencias.

El Principio de Pareto establece que, para muchos eventos, aproximadamente 80


por ciento de los efectos provienen de 20 por ciento de las causas.

El Principio de Pareto es también conocido como la regla 80-20. Estas cifras son
arbitrarias; no son exactas y pueden variar. Su aplicación reside en la descripción
de un fenómeno y, como tal, es aproximada y adaptable a cada caso particular.

El italiano, Wilfredo Pareto, decía que la gente en su sociedad se podía dividir en


dos grupos: el minoritario, formado por 20 por ciento de población, ostentaba 80
por ciento de algo, y el grupo mayoritario, formado por 80 por ciento de población,
que era poseedora de 20 por ciento de ese mismo algo.

Ejemplos:

80 por ciento de tus ventas, provienen de 20 por ciento de tus clientes.

80 por ciento de tus gastos personales, provienen de 20 por ciento de tu lista de


presupuesto mensual.

80 por ciento de la riqueza mundial, se concentra en menos de 20 por ciento de la


población.

Entonces cabe preguntarse: ¿Dónde hay que poner el foco? Me preocupo por el
80 o por el 20? La respuesta mágica es: depende. Hay muchos que hicieron
fortunas trabajando solo con la venta de los mejores libros (best sellers), o con las
mejores películas, o con la mejor música. Seguramente, éstos son el 20 por ciento
que genera el 80 por ciento del dinero en un mercado. ¿Qué pasa con el resto?
Como dicen algunos: “estamos dejando dinero sobre la mesa”.
Hay muchos autores desconocidos que tienen una audiencia, también reducida. El
punto es que son muchos; pequeños, pero muchos.

Antes existían menos de una decena de canales de televisión, solo trasmitidos por
antena y disponibles en la zona geográfica donde uno vivía; luego apareció la
televisión por cable, agregando así más de 100 canales. Hoy en día, con internet,
existen cientos de miles de canales.

Algunos genios han creado un modelo de negocios nuevo e innovador, pensando


en esa multitud que “solo” genera 20 por ciento de ingresos o de flujo de dinero de
un mercado, del otro 80 por ciento, ya se están ocupando las grandes marcas
conocidas.

Para tu economía personal, la reflexión de este principio es: que es común que
tengas pocas fuentes de ingresos (generalmente tenemos una) y, que de ellas,
emane la mayor parte del monto total de tus gastos.

Independientemente de que hagas un presupuesto y te apegues a él, es


importante que busques fuentes alternas de ingresos. Ingresos por tus hobbies,
por tus pasiones, por ayudarle a alguien en su trabajo, por innovar, por resolver el
problema de algún conocido, amigo o familiar, por ventas de objetos que ya no
usas o de servicios profesionales que sabes que puedes brindar, etc.

Quizás, simplemente haciendo sinergias, recomendando personas para el


intercambio de servicios o productos a cambio de ayudar a alguien y, además,
quizás obtener una comisión como producto de hacer comunidad, comunidad que
también puede ser financiera.

1.3 DIGRAMA DE ESTRATIFICACIÓN

Estratificación. Herramienta para la mejora


La estratificación es una técnica utilizada en combinación con otras herramientas
de análisis de datos. Cuando los datos, de una variedad de fuentes o categorías,
han sido agrupados su significado puede ser imposible de interpretar.
Esta herramienta separa los datos para que los patrones de distribución de dos o
más grupos se puedan distinguir.
A cada grupo se le denomina estrato. El objetivo es aislar la causa de un
problema, identificando el grado de influencia de ciertos factores en el resultado de
un proceso.

Los estratos a definir lo serán en función de la situación particular de que se trate,


pudiendo establecerse estratificaciones atendiendo a:
 Personal.
 Materiales.
 Maquinaria y equipo.
 Áreas de gestión.
 Tiempo.
 Entorno.
 Localización geográfica.
 Otros.

La estratificación puede apoyarse en distintas herramientas de calidad, si bien el


histograma es el modo más habitual de presentarla.

El desarrollo de la técnica atiende a la metodología presentada para los


histogramas, para el caso de los histogramas estatificados[1]. Al fin y al cabo se
trata de construir los histogramas correspondientes.
Ventajas de la estratificación
 Permite aislar la causa de un problema, identificando el grado de influencia de
ciertos factores en el resultado de un proceso
 La estratificación puede apoyarse y servir de base en distintas herramientas de
calidad, si bien el histograma es el modo más habitual de presentarla
 Destaca que la comprensión de un fenómeno resulta más completa
Fases de aplicación de la estratificación
 1. Definir el fenómeno o característica a analizar.
 2. De manera general, representar los datos relativos a dicho fenómeno.
 3. Seleccionar los factores de estratificación. Los datos los podemos agrupar
en función del tiempo (turno, día, semana, estaciones, etc.); de operarios
(antigüedad, experiencia, sexo, edad, etc.); máquinas y equipo (modelo, tipo,
edad, tecnología, útiles, etc.); o materiales (proveedores, composición,
expedición, etc.).
 4. Clasificar los datos en grupos homogéneos en función de los factores de
estratificación seleccionados.
 5. Representar gráficamente cada grupo homogéneo de datos. Para ello se
pueden utilizar otras herramientas, como por ejemplo, histogramas o el análisis
de Pareto.
 6. Comparar los grupos homogéneos de datos dentro de cada criterio de
estratificación para observar la posible existencia de diferencias significativas
entre los propios grupos. Si observamos diferencias significativas, la
estratificación habrá sido útil.
Usos de la estratificación
 a. Identificar las causas que tienen mayor influencia en la variación.
 b. Comprender de manera detallada la estructura de un grupo de datos, lo cual
permitirá identificar las causas del problema y llevar a cabo
las acciones correctivas convenientes.
 c. Examinar las diferencias entre los valores promedios y la variación entre
diferentes estratos, y tomar medidas contra la diferencia que pueda existir.
Ejemplos de estratificación
En un determinado departamento, se está estudiando un defecto de producción y
se han recogido datos, que se han representado en un histograma como el de la
figura 1.

Figura 1.
Estratificando esos datos se pueden obtener informaciones útiles; por ejemplo, si
ese departamento trabaja en dos turnos, puede resultar útil, estratificar los datos
entre los dos turnos y observar si existen diferencias. En el caso que se analizará,
como se refleja en los dos histogramas de las figuras 2 y 3, se observa que la
dispersión del primer turno es mayor que la del segundo. Ese hecho nos
proporciona la clave de la lectura de la situación: efectivamente, nos dice que el
primer turno ofrece una situación menos positiva. Eso servirá de base para un
análisis más profundo, aunque limitado al primer turno.

Figura 2.
Figura 3.
Otro ejemplo, si en una empresa mecánica existen tres maquinas fresadoras
cuya producción total tiene unos rechazos del 10%, se puede proceder a una
estratificación de los rechazos por tipo de maquina recogiendo los datos durante
una semana. Estratificando de esta manera se puede poner de manifiesto, por
ejemplo, que una de las tres maquinas genera por sí sola el 9% de los rechazos,
mientras que cada una de las otras dos provoca unos rechazos del 0,5%.
El objetivo de la estratificación es el de hacer que hablen los datos, es decir,
definir el factor (o los factores) más significativos en cuanto a los datos que
representan cierto fenómeno.

CONCLUSIONES ESPECÍFICAS 1ER PARCIAL


FUNDAMENTOS DEL CONTROL DE CALIDAD EN LOS PROCESOS
Consideramos que en el desarrollo de esta unidad temática se abordan los temas
fundamentales sobre el control de calidad enfocado a los procesos que se
establecen en las organizaciones.
Desde los aspectos filosóficos sobre lo que conlleva la calidad y como se aplica, y
analizando las herramientas básicas con las cuales se califica la calidad en un
proceso.
Para esto se utilizan técnicas para recopilar información por diversos métodos,
dependiendo las necesidades que se tengan o los objetivos que se tengan.
Algunos de los métodos que utilizamos son el de Hoja de Control, y el de
Verificación o Comprobación.
Por otra parte, se analizan las causas de los diversos problemas que se podrían
presentar en una organización, esto aplicando el Diagrama de Ishikawa, en el cual
se analizan los factores y se determina el porque de las causas de dichos sucesos
para determinar una solución a estos hechos. El cual va ligado al Diagrama de
Pareto o Diagrama 80/20 en el cual también se analizan las causas y el cual nos
dice que analizando el 20% de las causas más frecuentes o más relevantes, y
atendiendo solo estas se solucionarán las demás, ya que estás son el origen de
las demás, y esto se puede emplear en cualquier otro ámbito.
Con estos temas tenemos los conocimientos necesarios para abordar el tema de
calidad y como se lleva su control en los procesos, sabremos identificarlos y
aplicar procedimientos para determinar en que situación se encuentra un proceso
y determinar las causas del porque están ahí.

UNIDAD TEMATICA 2: HERRAMIENTAS ESTADISTICAS BASICAS


2.1 Relación de las causas más importantes (Diagrama de dispersión).

Un Diagrama de dispersión es la forma más sencilla de definir si existe o no una


relación causa efecto entre dos variables y que tan firme es esta relación, como
estatura y peso.

Una aumenta (o disminuye) al mismo tiempo con la otra. El Diagrama de


Dispersión es de gran utilidad para la solución de problemas de la calidad en un
proceso y producto, ya que nos sirve para comprobar que causas (factores) están
influyendo o perturbando la dispersión de una característica de calidad o variable
del proceso a controlar.

Tres conceptos especialmente destacables son que el descubrimiento de las


verdaderas relaciones de causa-efecto es la clave de la resolución eficaz de un
problema, que las relaciones de causa-efecto casi siempre muestran variaciones,
y que es más fácil ver la relación en un diagrama de dispersión que en una simple
tabla de números.

Características

Impacto visual: Un diagrama de dispersión muestra la posibilidad de la existencia


de correlación entre dos variables de un vistazo.
Comunicación. Simplifica el análisis de situaciones numéricas complejas
Guía en la investigación. El análisis de datos mediante esta herramienta
proporciona mayor información que el simple análisis matemático de correlación,
sugiriendo posibilidades y alternativas de estudio, basadas en la necesidad de
conjugar datos y procesos en su utilización.
Estratificación. Separar un conjunto de datos en diferentes grupos o categorías, de
forma que los datos pertenecientes a cada grupo comparten características
comunes que definen la categoría.

Proceso

Pasos previos a la construcción de un diagrama de dispersión:

Paso 1: Elaborar una teoría admisible y relevante sobre la supuesta relación entre
dos variables. Este paso previo es de gran importancia, puesto que el análisis de
un Diagrama de Dispersión permite obtener conclusiones sobre la existencia de
una relación entre dos variables, no sobre la naturaleza de dicha relación.

Paso 2: Obtener los pares de datos correspondientes a las dos variables al igual
que en cualquier otra herramienta de análisis de datos, estos son la base de las
conclusiones obtenidas, por tanto cumplirán las siguientes condiciones:

En cantidad suficiente: Se consideran necesarios al menos 40 pares de datos


para construir un diagrama de dispersión.

Datos correctamente emparejados: Se estudiará la relación entre ambos.

Datos exactos: Las inexactitudes afectan a su situación en el diagrama


desvirtuando su apariencia visual.

Datos representativos: Asegúrese de que cubren todas las condiciones


operativas del proceso.

Información completa: Anotar las condiciones en que han sido obtenidos los
datos.

Paso 3: Determinar los valores máximo y mínimo para cada una de las variables.

Paso 4: Decidir sobre qué eje representará a cada una de las variables

Si se está estudiando una posible relación causa-efecto, el eje horizontal


representará la supuesta causa.

EJEMPLO

Con el ejemplo base que hemos expuesto podemos analizar que la variable
tiempo de egreso de la IPS, después del alta médica, está relacionada con los
días estancia en la institución, con el tipo de patología, la condición del paciente;
para nuestros fines se analizara la primera consecuencia que es la estancia que
ocasiona el paciente por sus variantes expuestas.

Relacionamos tiempo de demora del cierre de la cuenta o tiempo que se gasta la


institución en dar la salida después del alta médica con las estancias de los
pacientes en la institución.

Tomo una muestra al azar de 22 pacientes y se determinaron los días de estancia


y el tiempo medidos por el egreso del hospital después de haber sido dado de alta
por el galeno respectivo.

Se muestra en la tabla siguiente la muestra que fue tomada aleatoriamente de 22


pacientes y además el gráfico de dispersión realizado con los días estancia y
tiempo de cierre y alta del hospital, con su coeficiente de correlación (es un índice
que relaciona linealmente las dos abribles analizadas) que para el caso es de 0.87
ó sea muy cercano a 1 que es la máxima correlación; además la correlación fue
positiva es decir a medida que aumente los días estancias de los pacientes el
tiempo para el cierre de la cuenta es mayor, ó sea el paciente se va a demorar
más para salir de la institución, situación que deben analizar los especialistas o
responsable de los procesos.

ESTANCIA DEL PACIENTE TIEMPO DEL EGRESO


PACIENTE
DÍAS MINUTOS
1 2 40
2 3 42
3 1 45
4 3 34
5 4 38
6 4 45
7 7 56
8 7 67
9 6 56
10 7 67
11 15 78
12 25 95
13 18 87
14 10 54
15 9 56
16 5 45
17 5 48
18 2 22
19 12 67
20 10 56
21 14 68
22 22 85
2.2 Histogramas

Es una representación gráfica que maneja distintas estadísticas. Su utilidad se


basa en ver o mostrar la posibilidad de establecer de manera visual, ordenada y
fácil los datos numéricos y estadísticos que pueden tornarse complicados de
entender. Existen varios tipos de histogramas que ejecutan de manera variada
muchos tipos de información.

Normalmente son utilizados en la estadística, con la intención de exponer


gráficamente número, variables y cifras con el fin de que los resultados sean
visualmente claros y ordenados. Casi siempre se presenta en barras, ya que es
mucho más fácil entenderlos de esta manera, dependiendo de cómo se utilicen.

Los puntos focales de un histograma, son los siguientes:

 Realizar un análisis de distribución de datos.


 Comprobar el grado de cumplimiento de las especificaciones.
 Evaluar la eficacia de las soluciones.

Existen además, dos tipos de informaciones básicas para la elaboración de los


histogramas, las cuales son la complejidad, el diseño, la frecuencia de los valores
y los valores en sí. Normalmente, las frecuencias son representadas en el eje
vertical mientras que en el horizontal se representan los valores de cada una de
las variables (que aparecen en el histograma como barras bi o tridimensionales).

Tipos de histogramas:

 De barras simples: son las más utilizados.


 De barras compuestas: permiten introducir información sobre dos
variables.
 De barras agrupadas: se rigen bajo un información específica.
 Polígono de frecuencia y ojiva porcentual: ambos son utilizados
normalmente por expertos.

A pesar de la complejidad con la que esta definición se trata, existe material


suficiente respecto a la creación de estos gráficos estadísticos. Las frecuencias
acumuladas según expertos son más fácil de representar en los histogramas, ya
que se muestran en las barras con bastante claridad dos situaciones distintas, por
ejemplo: comparar una fecha con otra o un período con otro, para así facilitar el
entendimiento de la misma. Otra manera frecuente es representar dos
histogramas de la misma variable con dos ejemplos, muy parecido al anterior pero
partiendo de situaciones completamente distintas. Existen además, las variables
cuantitativas y las cualitativas ordinales que pueden presentarse en forma de
polígonos de frecuencia en vez de histogramas, en este caso cuando es un gráfica
acumulativa pasaría a ser ojiva.
Como puntos destacables tenemos:

 Es una forma eficaz de organizar y ordenar datos.


 Nos muestra la naturaleza y el grado de la variación de los resultados de un
proceso, actividad, etc.…
 Adopta la forma de gráfico de barras donde el eje vertical muestra la
frecuencia y el horizontal las clases.
 Son de utilidad para comparar datos mediante la segmentación por elementos
y para la investigación de diferencias entre segmentos.
 Permiten comprobar la efectividad de las medidas de mejora implantadas
comparando el gráfico inicial creado con el posterior, después de haber
implantado las acciones de mejora.

2.3 Distribución normal en los procesos

La distribución normal es una distribución de probabilidad de variable continua que


describe los datos que se agrupan en torno a un valor central. Todo proceso en el
que solo existan causas aleatorias de variación sigue una ley de distribución
normal. Esta condición que aparece con frecuencia en fenómenos naturales (de
ahí que se la denomine “normal”), puede obtenerse en los procesos industriales si
los procesos se llevan a un esta do en el que solo existen causas comunes de
variación.

Una distribución normal se caracteriza por:

1. Los valores de las mediciones tienden a agruparse alrededor de un punto


central, la media
2. La representación de los datos es simétrica a ambos lados de la media

3. Las desviaciones estándares quedan situadas a igual distancia unas de otras

4. La proporción de mediciones situada entre la media y las desviaciones es una


constante en la que:

 La media ± 1 * desviación estándar = cubre el 68,3% de los casos


 La media ± 2 * desviación estándar = cubre el 95,5% de los casos
 La media ± 3 * desviación estándar = cubre el 99,7% de los casos
Podemos analizar el comportamiento de los procesos gráficos y determinar su
efectividad tomando como base su grado de aproximación a la curva de
distribución normal a partir de los datos generados y la creación de histogramas
que permitan la comparación con curva de distribución normal.

Posibilidades:

La curva de distribución normal del proceso coincide o está dentro de los límites
establecidos por la industria (bien en las normas de calidad desarrolladas o bien
en las recomendaciones establecidas por las asociaciones). En este caso el
proceso opera con eficacia y se pueden realizar trabajos de alta exigencia con
respecto a la variable controlada.
La curva de distribución supera los límites establecidos por la industria. En este
caso puede que estén operando causas asignables de variación o que existen
limitaciones debidas a los recursos y equipos empleados por lo que no es posible
realizar trabajos exigentes con respecto a la variable controlada hasta que no se
hayan eliminado las causas especiales de variación o no se dispongan de los
recursos y equipos adecuados.
El histograma generado no muestra las características básicas de una distribución
normal. En este caso están claramente actuando causas asignables de variación
que habrá que resolver si queremos conseguir un alto grado de fiabilidad del
proceso y realizar trabajos de alta exigencia.
2.4 Gráficas de control

Los gráficos de control tienen su origen al final de la década de 1920, cuando


Walter A. Shewhart analizó numerosos procesos de Gráficos de control -
fabricación concluyendo que todos presentaban variaciones. Encontró que estas
variaciones pueden ser de dos clases: una aleatoria, entendiendo por ella que su
causa era insignificante o desconocida. Otra, imputable (también llamada
asignable), cuyas causas podían ser descubiertas y eliminadas tras un correcto
diagnóstico.

La variación de una determinada característica de calidad puede ser cuantificada


realizando un muestreo de las salidas del proceso y estimando los parámetros de
su distribución estadística. Shewhart inició así el moderno control de calidad. Este
se fundamenta en el control estadístico del proceso. Rebasa así al clásico control
de calidad, limitado a la inspección final del producto.

Los cambios en la distribución pueden comprobarse representando ciertos


parámetros en un gráfico en función del tiempo, denominado gráfico de control.

Todo proceso tendrá variaciones, pudiendo estas agruparse en:

Causas aleatorias de variación: Desconocidas y con poca significación. Su


origen está en el azar y se encuentran presentes en todo proceso.

Causas específicas (imputables o asignables): Normalmente no deben estar


presentes en el proceso. Provocan variaciones significativas.

Las causas aleatorias son de difícil identificación y eliminación. Las causas


específicas sí pueden descubrirse y elimnarse, para alcanzar el objetivo de
estabilizar el proceso.

Existen diferentes tipos de gráficos de control:

2.4.1 POR VARIABLES

Las gráficas de control de variables grafican datos de procesos de medición


continua, tales como longitud o presión, en una secuencia ordenada por tiempo.
En contraste, las gráficas de control de atributos grafican datos de conteo, tales
como el número de defectos o unidades defectuosas. Las gráficas de control de
variables, las gráficas de variables, como todas las gráficas de control, ayudan a
identificar las causas de variación que se deben investigar, de manera que usted
pueda ajustar su proceso sin controlarlo exageradamente.

Existen dos tipos principales de gráficas de control de variables: gráficas para


datos recopilados en subgrupos y gráficas para mediciones individuales.
2.4.2 POR ATRIBUTOS

Son Gráficos de Control basados en la observación de la presencia o ausencia de


una determinada característica, o de cualquier tipo de defecto en el producto,
servicio o proceso en estudio.

Los gráficos de control por atributos se utilizan para representar la evolución de


características no medibles ni cuantificables, tan solo se puede representar si se
verifica o no dicha característica.

Se trata de características que no pueden medirse, pero que sin embargo hay que
controlar.

Las características de calidad que no pueden ser medidas con una escala
numérica, se juzga a través de un criterio más o menos subjetivo.
Los datos se presentan con periodicidad a la gerencia y con ellos se integran
números índices, que son muy importantes en el desarrollo de una empresa, estos
pueden referirse al producto, desperdicio rechazo de materiales.

Dentro de la clasificación de las características calidad por atributos se requiere:

· De un criterio
· De una prueba
· De una decisión

El criterio se establece de acuerdo con las especificaciones.

La prueba consiste en la operación que se realiza para averiguar la existencia o no


del criterio establecido.

La decisión determina que título debe darse al productos, es decir si paso o no


pasa.
El gráfico cuenta con una línea central y con dos límites de control, uno superior
(LCS) y otro inferior (LCI), que se establecen a ± 3 desviaciones típicas (sigma) de
la media (la línea central). El espacio entre ambos límites define la variación
aleatoria del proceso. Los puntos que exceden estos límites indicarían la posible
presencia de causas específicas de variación.

2.5 Capacidad y Habilidad del proceso (Cp y Cpk)

CP.

Cp quiere decir “Capacidad del Proceso” (Process Capability)

La “capacidad” a la que nos referimos es la que tiene el proceso para producir


piezas de acuerdo con las especificaciones, es decir, dentro de los límites de
tolerancia establecidos.

Para evaluar la capacidad de un proceso es necesario contar con suficientes


muestras, por lo que el cálculo del Cp se encuadra dentro de un estudio
estadístico.
Un proceso se considera “capaz” si Cp ≥ 1,33
Ahora bien, la media (μ), no entra en juego en el Cp. Por lo que lo que podríamos
tener un Cp muy alto gracias a valores muy centrados (pequeña desviación típica)
pero muy desplazados de lo que se requiere según especificación:

Para evitar este problema debemos incluir en el cálculo de la capacidad el valor


medio de los resultados del proceso:

μ media

Para ello consideramos el indicador Cpk.

CPK.

Con el Cpk conseguimos evaluar no sólo si la capacidad es acorde con las


tolerancias sino si la media “natural” del proceso se encuentra o no centrada.
CONCLUSIONES ESPECÍFICAS 2DO PARCIAL
HERRAMIENTAS ESTADISTICAS BÁSICAS
En este parcial se abordaron temas que tienen relación con la determinación de
las causas pero sobre todo con la distribución que se tiene durante los procesos,
aplicando gráficas en las cuales se representarán los datos obtenidos para
determinar los datos estadísticos de como se encuentran los procesos que se
están analizando.
Se estudia la relación que tienen las causas más importantes por medio de un
Diagrama de Dispersión con el cual nos ayudará a darles una solución oportuna.
En esta unidad temática se desarrolla bastante la elaboración de gráficas de
diferente tipo con el fin de observar el comportamiento de las causas y de los
factores que influyen en los procesos, y con cada diferente tipo de gráfica se
analizan diferentes parámetros dependiendo de los datos con los que se cuentan
o el objetivo que se tiene y se pretende alcanzar.
Las gráficas de control nos indican como están establecidos los estándares de
calidad y nos muestran los resultados de que tanto control se tiene en los
procesos.
Estas se presentan analizando una variable y la forma en la que está influye en los
resultados de calidad y también se analiza por producto, en este tipo de gráficas
se evalúa todos los procesos que lleva a la producción de algún producto y que
tanto se tiene en control todos los procesos involucrados.
Al final del desarrollo de todos estos temas tenemos el conocimiento de como
evaluar y expresar los estándares de control y de calidad que se tienen de un
proceso o de alguna variable influyente en él, con el fin de saber que cambios se
deben realizar y que aspectos deben perfeccionarse.
UNIDAD TEMATICA 3: TECNICAS AVANZADAS DE CALIDAD

3.1 LAS SIETE NUEVAS HERRAMIENTAS

Ingenieros (JUSE) analizó un gran conjunto de técnicas y herramientas de gestión


existentes selecciono de entre
ellas las denominadas “siete
nuevas herramientas de gestión
y planificación”
Objetivos.

 Ayudar en el programa de
calidad total.
 Identificar oportunidades de
mejora
 Implantar programas de de mejora.

Diagrama de Relaciones

Esta herramienta es sumamente útil para el análisis de un problema en el cual sus


causas se encuentran relacionadas entre sí de manera compleja. Su
implementación se realiza generalmente de manera grupal mediante el uso de
tarjetas.
Diagrama de Afinidad

Este diagrama es conocido también como Diagrama KJ por las iniciales de su


creador, Kawakita Jiro. Surgido en la década de 1980, constituye una
herramienta esencial para ordenar grandes cantidades de datos. El criterio
utilizado es el de agrupar los datos en función de la afinidad, de alguna relación
que exista entre ellos. Esto permite clarificar mejor las ideas a la hora de
determinar la causa de un problema. En mucho de los casos, su resultado puede
no ser determinante pero sí orientativo. Es decir, puede no brindarnos la respuesta
exacta sobre la causa del problema aunque sí guiarnos hacia la dirección correcta.
Diagrama de Árbol

Esta es quizás una de las herramientas más sencillas, aunque no por eso menos
útil. Permite obtener una visión sistemática del problema (razón por la que también
se lo conoce como Diagrama Sistemático). Su estructura es similar a la del
organigrama de una organización en el que se plantea una relación jerárquica. En
el nivel superior se coloca el objetivo principal a alcanzar y luego se va
desglosando en ramas. De cada objetivo se van desprendiendo los medios
posibles para alcanzarlo y un nuevo objetivo del cual se desprenderán nuevos
medios, y así sucesivamente. Una mejor comprensión puede obtenerse a través
del siguiente esquema:

Diagrama de Matriz

Es quizás la mejor manera de volcar gráficamente la relación que hay entre dos
aspectos o variables a analizar. Se pueden vincular opciones con criterios, causas
con efectos, etc. Uno de los aspectos se coloca en las filas de la matriz, y el otro
en las columnas. En la celda que resulta de la intersección de ambas se coloca
generalmente un símbolo que suele representar el grado de relación existente:
fuerte, media o débil. Esto nos permite tener referencia del grado de vinculación o
conexión que existe entre ambos aspectos.

Con estos símbolos suele representarse el grado de vinculación entre aspectos.


De izquierda a derecha: relación fuerte o alta, relación media y relación débil o
baja

Matriz de Priorización

Esta herramienta se utiliza para escoger entre varias opciones, en función de


criterios predefinidos y de manera ponderada. El grupo de trabajo es quien
determina cuáles son las opciones disponibles y qué criterios se tendrán en
cuenta. Estos criterios deben ser diferentes entre sí. Es importante escoger un
número prudente de criterios, sólo los más importantes, para reducir la
complejidad del análisis. Tres o cuatro criterios suelen ser aceptables. Para
elaborar una Matriz de Priorización, en primer lugar, se debe definir claramente el
objetivo. Luego se deben determinar las opciones disponibles. A continuación, se
deberán especificar los criterios sobre los cuales se decidirá. Seguramente no
todos los criterios tienen igual importancia (igual "peso"). Por lo tanto, se deben
ponderar los criterios para que no todos impacten de igual manera a la hora de
tomar la decisión final.
Diagrama de Proceso de Decisiones

Es una herramienta, también conocida por las siglas PDPC (Process Decision
Program Chart) muy útil para detectar posibles obstáculos o inconvenientes al
implementar un plan de acción, permitiéndonos tomar decisiones a tiempo para
solucionarlos. Se parte desde la actividad inicial y se va descendiendo. En primer
lugar encontramos a las fases, que son las tareas fundamentales que deben
realizarse para alcanzar el objetivo. De cada una de ellas se plantean problemas
que puedan surgir (problemas potenciales) los cuales aparecen en el nivel
inmediato inferior. Para cada problema se determinan medidas para
contrarrestarlos. Las medidas aparecen en el nivel inferior. Si la medida es
efectiva, se coloca un círculo (O) debajo. Si no lo es, una cruz (X). Se
implementan, entonces, sólo las medidas que llevan un círculo.
Diagrama de Flechas

El Diagrama de Flechas se utiliza para representar de manera gráfica una red


compuesta por la secuencia lógica de las actividades que se precisan realizar para
resolver un problema o alcanzar una meta. Nos permite, por ejemplo, determinar
posibles "cuellos de botella" o hallar los caminos más cortos.

Como en todos los casos, antes de comenzar el grupo de trabajo debe identificar
claramente cuál es el objetivo del uso de la herramienta y definir los límites y el
alcance. Los eventos o situaciones son representados por círculos y las
actividades necesarias para pasar de un evento a otro, por flechas.

3.2 LAS 5’ S.

Es una práctica de Calidad ideada en Japón referida al “Mantenimiento Integral”


de la empresa, no sólo de maquinaria, equipo e infraestructura sino del
mantenimiento del entorno de trabajo por parte de todos.
En Ingles se ha dado en llamar “housekeeping” que traducido es “ser amos de
casa también en el trabajo”.
Las Iniciales de las 5 S:
JAPONES CASTELLANO

Seiri Clasificación y Descarte


Seiton Organización
Seiso Limpieza
Seiketsu
Higiene y Visualización
Shitsuke
Disciplina y Compromiso
Es una técnica que se aplica en todo el mundo con excelentes resultados por su sencillez y efectividad.
Su aplicación mejora los niveles de:
Calidad.
Eliminación de Tiempos Muertos.
Reducción de Costos.
La aplicación de esta Técnica requiere el compromiso personal y duradera para que nuestra empresa sea
un auténtico modelo de organización, limpieza , seguridad e higiene.

Los primeros en asumir este compromiso son los Gerentes y los Jefes y la aplicación de esta es el ejemplo
más claro de resultados acorto plazo.
Resultado de Aplicación de las 5 S
Estudios estadísticos en empresas de todo el mundo que tienen implantado este sistema demuestran
que:
Aplicación de 3 primeras S :
-Reducción del 40% de sus costos de Mantenimiento.
-Reducción del 70% del número de accidentes.
-Crecimiento del 10% de la fiabilidad del equipo.
-Crecimiento del 15% del tiempo medio entre fallas.
¿QUÉ BENEFICIOS APORTAN LAS 5S?
La implantación de las 5S se basa en el trabajo en equipo.
Los trabajadores se comprometen.
Se valoran sus aportaciones y conocimiento.
LA MEJORA CONTINUA SE HACE UNA TAREA DE TODOS.
Conseguimos una MAYOR PRODUCTIVIDAD que se traduce en:
Menos productos defectuosos.
Menos averías.
Menor nivel de existencias o inventarios.
Menos accidentes.
Menos movimientos y traslados inútiles.
Menor tiempo para el cambio de herramientas.
Lograr un MEJOR LUGAR DE TRABAJO para todos, puesto que conseguimos:
Más espacio.
Orgullo del lugar en el que se trabaja.
Mejor imagen ante nuestros clientes.
Mayor cooperación y trabajo en equipo.
Mayor compromiso y responsabilidad en las tareas.
Mayor conocimiento del puesto.

Seiri (selección):
Distinguir entre aquellas cosas que se necesitan y aquellas que pueden esperar.
Seiton (organización):
Organizar las cosas para que luego sea más fácil encontrarlas.
Seiso (limpieza):
Disponer de un sitio de trabajo limpio, cómodo y debidamente ordenado.
Seiketsu (Estandarización):
Mantener las 3 primeras s (selección, organización y limpieza).

Shitsuke (hábitos):
Disciplina, constancia; realizar las acciones correctas como parte de nuestra rutina.

3.3 MEJORA CONTINUA (KAIZEN)


El término Kaizen es de origen japonés, y significa "cambio para mejorar", lo
cual con el tiempo se ha aceptado como "Proceso de Mejora Continua". La
traducción literal del término es:

KAI: Modificaciones
ZEN: Para mejorar

El principio en el que se sustenta el método Kaizen, consiste en integrar de forma


activa a todos los trabajadores de una organización en sus continuos procesos de
mejora, a través de pequeños aportes.
La implementación de pequeñas mejoras, por más simples que estas parezcan,
tienen el potencial de mejorar la eficiencia de las operaciones, y lo que es más
importante, crean una cultura organizacional que garantiza la continuidad de los
aportes, y la participación activa del personal en una búsqueda constante de
soluciones adicionales.

La experiencia de implementación de la filosofía Kaizen en occidente nos permite


concluir que las principales restricciones para su introducción son de carácter
cultural, tanto en el caso de las convicciones personales de los trabajadores, como
en la estructura organizacional de las compañías de occidente. Una compañía que
quiera desarrollar una metodología Kaizen deberá cumplir con las siguientes
condiciones:

Alto compromiso de la dirección de la empresa (Creación de escenarios de


participación)
Alta receptividad y perspectiva respecto a nuevos puntos de vista y aportes
Alta disposición de implementar cambios
Actitud receptiva hacia errores identificados durante el proceso
Alta valoración del recurso humano
Disposición de elaboración de estándares (garantía para no depreciar las mejoras)

En la práctica la metodología Kaizen, y la aplicación de sus eventos de


mejora se lleva a cabo cuando:
Se pretende redistribuir las áreas de la empresa.
Se requiere optimizar el tiempo de alistamiento de un equipo o un proceso.
Se requiere mejorar un atributo de calidad.
Se pretende optimizar el ciclo total de pedido.
Se requieren disminuir los desperdicios.
Se requieren disminuir los gastos operacionales.
Se requiere mejorar el orden y la limpieza.

Los anteriores son tan solo algunos ejemplos de los casos en los cuales aplica la
ejecución de un evento Kaizen.

Para la implementación de una filosofía kaizeno un Proceso de Mejora Continua,


deben aplicarse como mínimo cuatro principios fundamentales, estos son:
Optimización de los recursos actuales: La tendencia de las organizaciones que
pretenden alcanzar una mejora es a dotarse de nuevos recursos. Para
implementar Kaizen el primer paso consiste en un análisis profundo del grado de
utilización de los recursos actuales, del mismo modo que se buscan alternativas
para mejorar el uso y el funcionamiento de estos.
Rapidez para la implementación de soluciones: Sí las soluciones a los
problemas que se han identificado se fijan a plazos largos de ejecución, no
estamos practicando Kaizen. Un principio básico del Kaizen es la de minimizar los
procesos burocráticos de análisis y autorización de soluciones; en caso de que los
problemas sean de sustantiva complejidad, Kaizen propone desgranar el problema
en pequeños hitos de sencilla solución.

Criterio de bajo o nulo costo: El Kaizen es una filosofía de mínima inversión que
complementa la innovación, de ninguna manera estimula que un parámetro de
gestión se mejore mediante el uso intensivo de capital dejando de lado la mejora
continua. Las alternativas de inversión que propone se centran en la creación de
mecanismos de participación y estímulo del personal.

Participación activa del operario en todas las etapas: Es fundamental que el


operario se vincule de forma activa en todas las etapas de las mejoras, incluyendo
la planificación, el análisis, la ejecución y el seguimiento. El primer mito que
desestima el Kaizen es aquel de que "Al operario no se le paga para pensar". Esta
filosofía que parece apenas solidaria e incluyente tiene aún más fundamentos, y
se sustenta en que es el operario el mejor sabedor de los problemas atinentes a la
operación con la que convive.
METODOLOGÍA DEL KAIZEN

Antes de abordar la metodología Kaizen, la organización


ya ha tenido que haber definido su firme intención, por
parte de la dirección, para el desarrollo de actividades de
mejora continua. Una vez se ha superado esta etapa, la
siguiente consiste en un diseño instruccional para inculcar
el espíritu Kaizen al personal desde la formación. Una vez esto se vaya
desarrollando y ya teniendo un líder responsable de la filosofía dentro de la
compañía, se procede con la herramienta de reconocimiento de problemas, que
siempre es un buen punto de origen para implementar un proceso de mejora
continua.

Para tal fin existen herramientas como el ciclo de Deming o PDCA, o herramientas
como MOVE WorkShop. Explicaremos en este caso el ciclo sistemático de
Deming.
1. Planificar (Plan)

Esta etapa es de selección del objeto de mejora, en ella se explican las razones
de dicha elección y se definen unos objetivos claros que se deben alcanzar.
Situación actual
Análisis de información (Datos del objeto)
Objetivo
2. Hacer (Do)

Esta etapa corresponde al trabajo de campo de la mejora, consiste en propuestas


de solución y rápida implementación de las mejoras de mayor prioridad. Los pasos
que se incluyen en el hacer son:
Propuestas de solución
Just Do It
Verificar (Check)

En esta etapa se debe comprobar el objetivo planteado en el plan respecto a la


situación inicial que se identificó. Por ende comprobamos que se estén
alcanzando los resultados o en caso contrario volveremos al Hacer. Este paso
incluye:
Monitorización
Verificación
Actuar (Action)

Esta es una etapa fundamental en la mejora continua, dado que asegurarnos de


que las mejoras no se deprecien depende del estándar u oficialización de las
medidas correctivas. Para proceder a la estandarización debemos haber
comprobado que las medidas han alcanzado los resultados esperados, además,
debemos plantearnos siempre la posibilidad de seguir mejorando el objeto de
análisis.
Estandarización
Búsqueda de la optimización

La metodología Kaizen nos enseña a no subestimar el impacto de lo simple. La


suma de pequeños aportes constituye una gran mejora.

3.4 SIX SIGMA.

Six sigma o seis sigma, como es conocida en español, es una filosofía de trabajo
que nació como una metodología de mejora y solución de problemas complejos.
Su creador fue el doctor Mikel Harry, el cual la desarrolló como una herramienta
de control y disminución de la variación en los procesos. A partir de ese entonces
su concepto ha evolucionado a través de múltiples aportes hasta convertirse en
una filosofía puesta en práctica en los procesos de más alto desempeño.
En el ámbito organizacional fueron Motorola, General Electric y Honeywell quienes
popularizaron la metodología, con participación activa de su creador.

Conceptualmente, six sigma puede tener diversos significados; para efectos


prácticos nos centraremos en dos:

Desde un punto de vista estadístico: Six sigma es una métrica que permite
medir y describir un proceso, producto o servicio con una capacidad de proceso
extremadamente alta (precisión del 99,9997%). Six sigma significa "seis
desviaciones estándar de la media", lo cual se traduce matemáticamente a menos
de 3,4 defectos por millón.

Lo anterior significa que un proceso que implemente six sigma dejará de utilizar el
promedio como métrica para evaluar los resultados globales; en cambio utilizará la
desviación estándar, la cual representa la variación de un conjunto respecto a su
media, de manera que el proceso deberá cumplir de forma "consistente" con las
especificaciones de calidad, cambiando el paradigma de promediar buenos y
malos resultados.
Desde un punto de vista estratégico: Six sigma es una filosofía (estrategia y
disciplina) que ajusta los procesos con la mínima tolerancia posible como una
forma de reducir los desperdicios, los defectos y las irregularidades tanto en los
productos como en los servicios.
Estrategia: se enfoca en la satisfacción del cliente.
Disciplina: Sigue un modelo formal y sistemático de mejora continua, DMAIC.

El principal propósito del Six sigma es lograr la satisfacción de los clientes, en ese
orden se enfoca en comprender sus necesidades, recolectar información, y por
medio de un análisis estadístico encontrar oportunidades de mejora, una mejora
consistente.

Una vez implementado y logrado Six sigma el control de calidad se hace


innecesario, dado que estamos hablando de procesos con los más altos niveles de
desempeño, dado que Six sigma permite:
Asegurar la calidad en cada puesto de trabajo (control innecesario).
Formar personas capaces de mejorar la calidad.
Asegura la sostenibilidad y rentabilidad de los negocios.
Diseñar y desarrollar procesos, productos y servicios capaces.
Principios de Six Sigma
Debe capacitarse a todo el personal en Six sigma.
La aplicación de Six sigma tiene un enfoque proactivo.
Six sigma es una metodología sistemática y de herramientas estructuradas.

Debe trabajarse desde las características críticas hasta asegurar todas las
variables de lo procesos. (AMEF)

En primer lugar se debe considerar que Lean Manufacturing y Six sigma son
estrategias diferentes; mientras Lean Manufacturing tiene un enfoque orientado en
la productividad, Six sigma tiene un enfoque orientado en la reducción de la
variación.

Lean Six Sigma es entonces un nuevo concepto, que algunos especialistas


definen como:
"Lean Seis Sigma trata sobre un mejoramiento continuo, incesante; análisis tras
análisis, medida tras medida y proyecto tras proyecto. Lean causa que los
productos se muevan más rápido a través del proceso y Seis Sigma mejora la
calidad".

Tal como se ha precitado, Six sigma utiliza la metodología DMAIC (Define,


Measure, Analyze, Improve, Control), que consiste en:
DEFINIR

Se define el proyecto a realizar, generalmente en función a propósito, alcance y


resultados; o en función a problema, procesos y objetivos. Así entonces, el
propósito y los objetivos del Six sigma serán reducir la tasa de defectos a menos
de 3,4 por millón, en función del tiempo estimado para cada organización.

Herramientas de apoyo: Diagramas matriciales, Diagramas Pareto, Mapas de


procesos.
MEDIR

Se obtienen datos y mediciones del proceso. Es usual que esta fase se soporte
en mapas de valor y observación. Deben medirse y documentarse aspectos
claves, datos relevantes, contemplar todas las variables y los parámetros que
afectan los procesos.

Herramientas de apoyo: Diagramas de flujo, Mapas de proceso, Técnicas de


muestreo, AMEF, QFD, Modelo de Kano, OEE, Nivel Sigma.

ANALIZAR
Tal como afirma el especialista Oskar Olofsson: "Si las estadísticas no apoyan una
relación causa y efecto, DMAIC de Six sigma no ofrece una solución."

En este paso los datos recabados en la medición se convierten en información; en


esta fase deben identificarse a partir de las variables y los parámetros, las causas
claves de los problemas.

Herramientas de apoyo: Mapas de valor, Diagramas de flujo, Diagramas de


recorrido, Análisis de mudas, Ishikawa, Gráficas de control, Cpk, AMEF.
MEJORAR

Según las causas principales de los problemas, deben modificarse o rediseñarse


los procesos. Es clave involucrar al personal que se relaciona directamente con
los procesos, esto constituye un paso fundamental en la continuidad de las
mejoras.

Herramientas de apoyo: 5's, Ingeniería de métodos, Balance de


líneas, SMED, TPM, Kanban, Andon.

CONTROLAR

Debe verificarse que se sostengan los resultados, esta fase es el principio de la


mejora continua. Las mejoras en el proceso deben asegurarse de manera que se
sostengan los niveles de desempeño, del mismo modo en que se adaptan mejoras
incrementales a lo largo del tiempo.

Es vital implementar en esta fase sistemas de recolección de información de


manera que permita contrastar constantemente los indicadores del proceso
mejorado con los parámetros identificados en la fase "DEFINIR".

Herramientas de apoyo: Andon, POE's, LUP's, Capacitación.

3.5 OTRAS TECNICAS IMPORTANTES


3.5.1 REINGENERIA.

La reingeniería es un enfoque administrativo de gran aceptación entre las


empresas en la actualidad, el cual consiste en admistrar los procesos en vez de
las funciones, rediseñando los procesos de la organización en vez de introducir
pequeños cambios para llevar a cabo una mejora continua.

“La reingeniería de procesos es, por definición, el método mediante el cual una
organización puede lograr un cambio radical de rendimiento medido por el costo,
tiempo de ciclo, servicio y calidad, por medio de la aplicación de varias
herramientas y técnicas enfocadas en el negocio, orientadas hacia el cliente, en
lugar de una serie de funciones organizacionales, Todas las personas deben
entender las metas finales, la manera de alcanzarlas y los indicadores que
medirán el éxito”.

De acuerdo a este enfoque, la empresa debe orientar sus esfuerzos hacia el logro
de metas que consideren al cliente y sus criterios de valor. Para esto los
indicadores de actuación que se establecen son:

 Calidad.
 Tiempo de fabricación
 Costo.
 Servicio.

Algunos puntos básicos que se pueden resaltar de la reingeniería son los


siguientes:
La mejora continua es substituida por una mejora radical

Se tiene una marcada orientación hacia el mercado, buscando que el producto o


servicio ofrecido sea considerado como el mejor por los consumidores

Los resultados son medidos a través factores externos como la participación de


mercado
Está orientada hacia los procesos básicos de la organización
Cuestiona los principios, propósitos y supuestos de los negocios

Permite que los esfuerzos del Just in Time (JIT) y el Total Quality Management
(TQM) se vean incrementados.

De acuerdo a Johansson, un aspecto muy importante del proceso de la


desfuncionalización de proyectos es, el tener un panorama completamente nuevo
acerca de los principales componentes de una organización, los cuales de
acuerdo a Johansson, McHug, Pendlebury y Wheeler (los cuatro expertos de la
reingeniería actual), pueden ser identificados como:

Tipos de Reingeniería de Procesos

Son tres los tipos de reingeniería de procesos que pueden ser implementados por
una empresa:
Mejorar costos
Lograr “ser el mejor de su clase”
Realizar un punto de innovación radical

Fuente: Johanson, et. al., Reingeniería de procesos de negocios , Ed.


Limusa, México, 1994.
El enfoque básico de la reingeniería de procesos se compone de tres fases:

Fase 1. Descubrimiento:La empresa define una visión estratégica en busca del


domino y de la competitividad renovada en el mercado, determinando la manera
en que sus procesos pueden ser modificados con el fin de alcanzar la visión
estratégica establecida.
Fase 2. Rediseño: Se detalla, planifica y organiza el proceso de rediseño.

Fase 3. Ejecución: Se lleva a cabo el rediseño para alcanzar la visión estratégica


establecida.

Algunas de las características principales de los procesos rediseñados a


través de la reingeniería son los siguientes.
Varios oficios o tareas son combinados en uno
Los trabajadores toman decisiones como parte de su trabajo
Los procesos se ejecutan en orden natural

Los trabajos tienen múltiples versiones, las cuales son aplicadas de acuerdo a las
circunstancias
El trabajo se lleva a cabo en el sitio razonable Los controles y verificaciones son
reducidos
La coalición se minimiza
Un gerente de caso ofrece un solo punto de contacto
Prevalecen las operaciones híbridas centralizadas – descentralizadas

Como consecuencia de la implementación del rediseño de los procesos de


una empresa, se pueden presentar los siguientes cambios:
Las unidades de trabajo pasan de ser departamentos funcionales a equipos de
proceso.

Los oficios dejan de ser tareas simples para convertirse en trabajo


multidimensional

Al trabajador se le otorgan las facultades necesarias para llevar a cabo su trabajo


sin necesidad de ser supervisado.
La preparación para el oficio cambia de entrenamiento a educación

Las medidas de desempeño y compensación son los resultados sustituyendo a las


actividades
Los ascensos son otorgados en base a las habilidades, en vez de rendimiento
Se dejan a un lado los valores proteccionistas, implantando valores productivos
Los gerentes toman el rol de entrenadores en vez de supervisores

Las estructuras organizacionales se aplanan, formando organizaciones menos


complejas y con flexibilidad para adaptarse a los requerimientos cambiantes del
ambiente

Los ejecutivos dejan a un lado su búsqueda por el reconocimiento individual par


asumir un papel de líder y motivador de los trabajadores del equipo

3.5.2 KANBAN.

La metodología Kanban está ganando gran popularidad en corporaciones y


empresas de todo el mundo como una manera de gestionar el trabajo de forma
fluida…. Proveniente de Japón, Kanban es un símbolo visual que se utiliza para
desencadenar una acción. A menudo se representa en un tablero Kanban para
reflejar los procesos de su flujo de trabajo.
Kanban, representada por una tarjeta Kanban, se moverá a través de las diversas
etapas de su trabajo hasta su finalización. A menudo se habla de él como un
método de extracción, de forma que usted tira de sus tareas a través de su flujo de
trabajo, ya que permite a los usuarios mover de sitio libremente las tareas en un
entorno de trabajo basado en el equipo.
Cuáles son los beneficios clave

1. Estímulo del rendimiento. Análisis profundo y estimaciones que permiten


medir su rendimiento. Detección de cualquier problema existente y ajuste del flujo
de trabajo para ganar en eficiencia. El método Kanban es muy flexible y le permite
perfeccionar sus procesos para obtener los mejores resultados.

2. Organización y colaboración. La metodologia Kanban le permite beneficiarse


del poder del enfoque visual, mediante el uso de columnas, carriles y tarjetas de
colores. Usted será capaz de trabajar en el mismo tablero que su equipo y
colaborar en tiempo real. Los tableros digitales Kanban le permitirán acceder a su
flujo de trabajo desde cualquier sitio, compartir tareas con facilidad y comunicarse
en su trabajo con sus colegas.

3. Distribución del trabajo. Una cómoda visión general de los trabajos en curso y
menos tiempo dedicado a la distribución y presentación de los trabajos. Las
estimaciones son imperfectas, por consiguiente, un flujo constante de tareas
reducirá su tiempo de espera y el tiempo dedicado a la asignación de tareas.
Usted selecciona sus tareas, por tanto no tendrá que esperar a que la tarea vaya
hacia usted.
3.5.3 POKA YOKE.

Poka-Yoke es una herramienta procedente de Japón que significa “a prueba de


errores”. Lo que se busca con esta forma de diseñar los procesos es eliminar o
evitar equivocaciones, ya sean de origen humano o automatizado. Este sistema
se puede implantar también para facilitar la detección de errores.

Si nos centramos en las operaciones que se realizan durante la fabricación de un


producto, estas pueden tener muchas actividades intermedias y el producto final
puede estar formado por un gran número de piezas. Durante estas actividades,
puede haber ensamblajes y otras operaciones que suelen ser simples pero muy
repetitivas. En estos casos, el riesgo de cometer algún error es muy alto,
independientemente de la complejidad de las operaciones. Los “Poka-Yokes”
ayudan a minimizar este riesgo con medidas sencillas y baratas.
Funciones de los sistemas Poka-Yoke

El sistema Poka-Yoke puede diseñarse para prevenir los errores o para advertir
sobre ellos:
1- Función de control:

En este caso se diseña un sistema para impedir que el error ocurra. Se busca la
utilización de formas o colores que diferencien cómo deben realizarse los
procesos o como deben encajar la piezas.
2- Función de advertencia:

En este caso asumimos que el error puede llegar a producirse, pero diseñamos un
dispositivo que reaccione cuando tenga lugar el fallo para advertir al operario de
que debe corregirlo. Por ejemplo, esto se puede realizar instalando barreras
fotoeléctricas, sensores de presión, alarmas, etc.

¿Cómo implementar un sistema Poka Yoke a prueba de errores?


Los tipos más comunes de Poka-Yoke son:

– Un diseño que sólo permita conectar las piezas de la forma correcta. Si lo


intentas encajar al revés o en un sitio equivocado las piezas no encajarán.

– Códigos de colores. Por ejemplo en los conectores de los ordenadores, cada


tipo de conexión tiene un color diferente para facilitar su montaje.

– Flechas e indicaciones del tipo “a-> <-a“, “b-> <-b“… para indicar dónde va
encajada cada pieza y cuál es su orientación.

Las ventajas usar un sistema Poka-Yoke son:

 Se elimina el riesgo de cometer errores en las actividades repetitivas


(producción en cadena…) o en las actividades donde los operarios puedan
equivocarse por desconocimiento o despiste (montaje de ordenadores…).
 El operario puede centrarse en las operaciones que añadan más valor, en
lugar de dedicar su esfuerzo a comprobaciones para la prevención de
errores o a la subsanación de los mismos.
 Implantar un Poka-Yoke supone mejorar la calidad en su origen, actuando
sobre la fuente del defecto, en lugar de tener que realizar correcciones,
reparaciones y controles de calidad posteriores.
 Se caracterizan por ser soluciones simples de implantar y muy baratas.
El concepto de Poka-Yoke tiene como misión apoyar al trabajador en sus
actividades rutinarias. En el caso en que el dispositivo forme parte del
funcionamiento de una máquina, es decir, que sea la máquina la que realiza las
tareas, estaremos hablando de otro concepto similar: “jidoka” (automatización “con
un toque humano”).

3.5.4 JUST TIME.

Pues se entiende como just in time a la filosofía que busca la eliminación de todo
lo que implique desperdició en el proceso de producción, desde las compras hasta
la distribución.
Se basa en que tanto el material intermedio como los productos acabados deben
estar en su sitio justo cuando sea necesario y no antes. Además, la cantidad de
material intermedio, como de producto terminado, debe ser la justa para satisfacer
las necesidades del cliente.
roducir bajo stock se considera un aumento en los costes de producción.

Por tanto, es un modelo productivo que se basa principalmente en la gestión o


aprovisionamiento de los materiales del sistema productivo a través de un sistema
Pull, es decir, el material debe aportarse en el momento y la cantidad que son
requeridos para su consumo.

En la década de los 80, en occidente se empezaba a escuchar sobre las buenas


prácticas que se implementan en las empresas japonesas. Se hablaba de su
excelente calidad, su alta productividad y sus métodos de fabricación.

Las empresas occidentales empezaron a analizar el éxito que estaban teniendo


las principales empresas japonesas, encontrando puntos clave relacionados con el
respeto por las personas y aspectos técnicos orientados a la eliminación del
desperdicio.

Hasta esa época, este método se conocía como el método japonés, pero que al
ser estudiado para una propia implementación en los países de occidente,
principalmente de Estados Unidos, pasó a recibir el nombre de just in time o justo
a tiempo.

Antes de encontrarse con el just in time, las empresas norteamericanas se habían


dedicado a planificar la fabricación, a incrementar la automatización y producir en
masa, restándole importancia a la calidad de sus productos.
Lo único que buscaban era reducir el precio/hora de los productos en cada
máquina, pero produciendo de esta forma, acumulaban mucho stock y
aumentaban los plazos de entrega, por lo que cada vez eran menos competitivas
en un mercado cada vez más exigente y frente a la fuerte competencia japonesa.
La filosofía justo a tiempo propone un punto de vista diferente:
 Identificar y evidenciar el problema
 Eliminar desperdicios
 Simplificar la producción
 Centrarse en la demanda

Los objetivos de la implementación del just in time son:

 Reducir los niveles de stock produciendo justo la cantidad que nos indica la
operación inmediatamente posterior
 Disminución de inventarios de productos intermedios al mínimo; así se
detectarán cuellos de botella y permitirán su mejora.
 Simplificación de toda la tarea administrativa del aprovisionamiento.
 Conseguir un flujo de producción nivelado y equilibrado.

3.5.5 BENCHMARKING.
El benchmarking es un proceso continuo por el cual se toma como referencia los
productos, servicios o procesos de trabajo de las empresas líderes, para
compararlos con los de tu propia empresa y posteriormente realizar mejoras e
implementarlas.
No se trata de copiar lo que está haciendo tu competencia, si no de aprender que
están haciendo los líderes para implementarlo en tu empresa añadiéndole
mejoras. Si tomamos como referencia a aquellos que destacan en el área que
queremos mejorar y estudiamos sus estrategias, métodos y técnicas para
posteriormente mejorarlas y adaptarlas a nuestra empresa, conseguiremos
alcanzar un nivel alto de competitividad.
TIPOS DE BENCHMARKING
Existen diferentes tipos de benchmarking: competitivo, interno y funcional. El
objetivo común de los tres tipos es ayudar a los managers a que miren hacia
fuera de sus departamentos, de sus organizaciones, hacia su competencia o hacia
otros sectores en las que hay compañías que son las mejores en su clase.
-Competitivo
El benchmarking competitivo busca medir los productos, servicios, procesos y
funciones de los principales competidores para realizar una comparación con
nuestra empresa y poder detectar y llevar a cabo mejoras que superen a las de
nuestros competidores.
Quizás sea el más complicado de llevar a cabo de los tres tipos, puesto que el
análisis y el estudio como ya he mencionado se realizan sobre los principales
competidores. Al considerarse tu competencia directa, en la gran mayoría de los
casos no están interesados en colaborar. ¿Esto quiere decir que si no colaboran
no lo podamos llevar a cabo? Por supuesto que no, pero obviamente en la
recopilación de los datos necesarios se deberán emplear más recursos, y por
tanto será mucho más costosa.

-Interno
El benchmarking interno se lleva a cabo dentro de la misma empresa. Se suele
llevar a cabo en empresas grandes que cuentan con diferentes departamentos o
también con grupos empresariales que están formados por varias empresas. En el
proceso se identifica un departamento o área que sea un ejemplo a seguir por sus
buenos resultados para poder llevar a cabo un benchmark con los demás
departamentos internos de la compañía.
Es el más fácil de realizar dentro de compañías con estructuras con un cierto
tamaño, además normalmente es el que menos recursos necesita para llevarlo a
cabo, ya que la información se obtiene de la propia empresa.

-Funcional
El benchmarking funcional identifica las mejores prácticas de una empresa que
sea excelente en el área que se quiere mejorar. No es necesario que esta
empresa sea competidora o incluso que pertenezca al mismo sector.
Normalmente es muy productivo, dado que al no tratarse de organizaciones que
no son competidoras directas no existe un problema de confidencialidad y se suele
ofrecer la información necesaria para el estudio.
ETAPAS DEL BENCHMARKING
Para diseñar y hacer correctamente un proceso de benchmarking en tu empresa,
recomiendo seguir los siguientes pasos: planificación, recopilación de datos,
análisis, acción y seguimiento.

1.Planificación
El objetivo principal de esta primera etapa es planificar la investigación que se va
realizar. En esta etapa hemos de responder a tres preguntas:
-¿Qué quiero medir? Toda investigación tiene que tener un porqué, y éste debe
estar relacionado con un área de nuestra empresa que queremos mejorar.

-¿A quién voy a medir? Para responder a esta segunda pregunta hemos de
plantearnos qué tipo de benchmarking vamos a seguir: competitivo, interno o
funcional. Una vez hayamos tomado la decisión sabremos si nos compararemos
con un departamento propio o con una empresa de dentro o fuera del sector.
-¿Cómo vamos hacerlo? Para llevar a cabo el proyecto hemos de crear un equipo
de trabajo para que sea responsable de la organización y de la dirección del
mismo.

2. Datos
La recopilación de datos es fundamental para el benchmarking, de ello dependerá
en gran medida el éxito o el fracaso de todo el proceso. Podemos obtener datos
de diferentes fuentes: interna, asociaciones profesionales o investigaciones
propias entre otras.

3. Análisis
Una vez hemos recopilado la información necesaria, hemos de analizar los
elementos que causan las diferencias entre nuestra compañía y las empresas
estudiadas, para poder identificar las oportunidades de mejora.
Una vez hemos identificado la magnitud de las diferencias, es el momento de
proponer las mejoras que vamos a llevar a cabo. Hay que tener en cuenta que
únicamente seleccionaremos aquellas mejoras que por tamaño, recursos e
infraestructura sea viable llevar a cabo por nuestra empresa.

4.Acción
El siguiente paso después de analizar la información y de haber seleccionado los
aspectos de referencia en las empresas seleccionadas, es el momento de
adaptarlos a nuestra empresa pero siempre implementando mejoras.
Dicho de otro modo, después de analizar la información y de lograr identificar los
mejores aspectos de las empresas que hemos seleccionado, los tomamos como
puntos de referencia para adaptarlos a nuestra empresa pero siempre añadiéndole
alguna mejora o alguna ventaja que le aporte valor a nuestros clientes.

5.Seguimiento y mejora
En esta última etapa se debe hacer un informe con toda la información destacada
del proceso. Esto ayudará a retomar el trabajo en proyectos posteriores. La idea
es que se convierta en un ejercicio de la empresa sostenido en el tiempo para
adoptar una mejora continua.

EJEMPLOS DE BENCHMARKING
Uno de los mejores ejemplos que se ha llevado a cabo en los últimos años, es el
protagonizado por Starbucks. La inestabilidad económica y la apuesta por
potenciar las ventas de café por parte de empresas de fast food como McDonalds,
han hecho que Starbucks haya iniciado un proceso de benchmarking.
¿Qué decidieron mejorar para paliar esta situación? Uno de los aspectos vitales
para su modelo de negocio es el tiempo de la preparación de sus cafés. Como
hemos visto anteriormente, se necesita una empresa líder en quien fijarse para
implementar posteriormente las mejoras. La empresa elegida: el fabricante
automovilístico japonés Toyota. Sin duda un gran ejemplo a seguir en la
optimización del tiempo de fabricación de sus productos.
Al parecer el 30% del tiempo empleado en la preparación de los famosos cafés de
Starbucks se pierde en el tiempo utilizado por los empleados en agacharse, andar
o escoger los ingredientes. Después de realizar un análisis de los benchmarks,
implementaron un plan de acción basado en la optimización de los procesos para
preparar sus cafés, un rediseño del espacio de trabajo, junto con una nueva
disposición de los utensilios y las maquinas necesarias para la preparación de sus
productos. Aspectos aparentemente tan simples como acercar y mejorar la
disposición de los ingredientes más utilizados en sus cafés, hicieron que se
mejorara casi en un 20% el tiempo de elaboración de sus productos.

La compañía Xerox Corporation fue la primera empresa en utilizar el


benchmarking. A principio de los años 80 empresas como Minolta, Ricoh o
Canon entre otras irrumpieron en el mercado norteamericano de las fotocopias y
de la gestión de la impresión con precios de venta al público que eran mucho más
económicos que los propios costes de producción de Xerox. El problema era
evidente.
Para resolver esta situación Xerox decidió analizar métodos, procesos, materiales
y productos de su afiliada japonesa Fuji – Xerox. El resultado indico que existía un
gran retraso en todas las áreas estudiadas. Xerox pudo reaccionar rápido,
marcando nuevos objetivos y Kpis para realizar el seguimiento adecuado. En los
siguientes años Xerox adoptó el benchmarking como estrategia de mejora
continua.

CONCLUSIONES ESPECÍFICAS 3ER PARCIAL.


TÉCNICAS AVANZADAS DE CALIDAD
Con el desarrollo de esta unidad aprendimos sobre las diversas técnicas que se
pueden emplear para aumentar la calidad de los procesos, todas ellas muy
diferentes pero cada una aporta un enfoque diferente que sin duda son de mucha
ayuda y creemos que brindarán excelentes resultados siempre y cuando se
adaptan a la situación correcta.
Se analizó la técnica de las 5´s, que es una técnica japonesa inspirada en la
mejora continua por medio de diversas aplicaciones y mejoras en 5 variables, al
desarrollar y aplicar esta técnica se podrán obtener resultados en el aumento de la
calidad basados en el método japonés.
Otra técnica importante es la de la Mejora continua o Kaizen, en la cual tiene como
propósito principal estar buscando constantemente fallas u oportunidades para
mejorar los procesos y es por esto que en la búsqueda constante se pueden
obtener grandes beneficios en cuanto a la mejora de los procesos y por ende
mejores resultados en la calidad.
A estas técnicas se suman muchas otras en las que destacan el Just Time, que
significa, justo a tiempo en el cual se destacan el propósito y filosofía de terminar y
realizar los procesos en su tiempo sin retrasos y esto con el fin de cumplir con los
estándares previamente establecidos.
Esta técnica se adapta en todo tipo de proceso, desde la recepción de la materia
prima en almacén hasta el proceso de entrega al consumidor final.
Concluimos que todas estas técnicas son de bastante utilidad para poder obtener
una mejora en los resultados de los procesos y por consecuente tener una mejor
calidad en los mismos.

CONCLUSIÓN GENERAL
Consideramos que al desarrollar todos los tópicos incluidos en estas unidades
temáticas, nos brindan los conocimientos necesarios y esperados para lo cual se
elaboró dicho programa. Todos los temas se adaptan al propósito y obtenemos
conocimientos bastos en cuanto a los procesos se refiere.
Se abarcaron temas como la identificación y la importancia del papel que juega la
calidad en los procesos, y como esta representa todo el trabajo y la planeación
que se la da a la elaboración de dichos procesos y su ejecución.
Siempre buscando una mejora continua para poder elevar la calidad en cada
proceso y obtener así mayor efectividad.
También se pretende mitigar los errores y las causas de las cuales se deriva en
pérdidas y a la falla en procesos, ya sea por variables internas a dicho proceso o a
factores externos. Que de igual forma se le debe dar la misma prioridad para
detectar los puntos flacos y trabajar en ellos para su correcta ejecución.
Concluimos que son temas bastante interesantes y de los cuales se les puede
sacar mucho provecho y sobre todo porque cuentan con un amplio campo de
ejecución, lo cual nos da mayor versatilidad a la hora de salir al campo laborar y
poseer conocimiento sobre todas estas técnicas y que sin duda podremos
aplicarlas para dar mayores beneficios a la industria o a cualquier ámbito que la
apliquemos.

EJEMPLOS RESUELTOS.
Ejercicio diagrama de Pareto.

SOLUCIÓN Y DIAGRAMA.
Ejercicio diagrama de Pareto.
Ejercicio diagrama de Pareto.
Ejercicio histograma.
Ejercicio histograma.
Ejercicio histograma.
Ejercicio grafica u
Ejercicio grafica u
Un operario inspecciona la calidad de unos circuitos impresos (arañazos, bandas
incorrectas, grosor no uniforme, etc.). Los circuitos que inspecciona son muy
diversos. Según el tipo de circuito se apunta su superficie y el número de
defectos. Tras inspeccionar 12 placas obtiene los datos de la tabla.

Superficie cm2 50 50 34 38 54 22 22 25 50 34 34 38

Nº de defectos 4 3 4 4 4 3 5 3 4 2 2 4

El número total de defectos es 42 y la superficie total 451cm2. Por tanto

Ejercicio grafica u
Grafica p
Grafica p

Una empresa inspecciona un artículo eléctrico tomando muestras de 100 unidades


cada vez. Si bien se verifican 5 características relevantes de la calidad, finalmente
cada artículo se clasifica como aceptable o defectuoso. Las últimas 25 muestras
aplicadas muestran los siguientes resultados:

Primero se calcula el promedio de unidades defectuosas, lo cual determina la


línea central de la gráfica de control y se obtiene como el promedio de los
porcentajes de defectuosos de cada muestra. En nuestro ejemplo el promedio de
defectuosos o no conformantes se obtiene de la siguiente forma:

p = (4% + 3% + 5% + .......... + 2% + 2%)/25 = 3,6%


Grafica p

Todos los días se tomaban muestras de las formas llenas, de un departamento en


particular, en una compañía de seguros para revisar la calidad del desempeño de
ese departamento. Con el fin de establecer una norma tentativa para el
departamento, se tomó una muestra de 300 unidades al día (n=300) durante 10
días, obteniendo los siguientes resultados: Desarrolle una gráfica de proporciones
o gráfica p utilizando un intervalo de confianza de un 90% para las 10 muestras
recolectadas.

EJEMPLOS SIN RESOLVER

FIAGRAMA DE PARETO.

Para el siguiente análisis de caso, se considera un proceso de producción que se


encuentra afectado por la siguientes causas:
 Fluctuaciones de energía
 Inestabilidad de la máquina
 Rotación frecuente del operador
 Rotación frecuente de la máquina
 Cambios ambientales cíclicos
 Cansancio o fatiga del operador
 Partida fría
 Error de medición
 Desviación del material
 Desgaste del equipo

GRAFICAS DE CONTROL
Todos los días se tomaban muestras de las formas llenas, de un departamento en
particular, en una compañía de seguros para revisar la calidad del desempeño de
ese departamento. Con el fin de establecer una norma tentativa para el
departamento, se tomó una muestra de 300 unidades al día (n=300) durante 10
días, obteniendo los siguientes resultados:
Desarrolle una gráfica de
proporciones o gráfica p
utilizando un intervalo de
confianza de un 90% para las 10
muestras recolectadas. ¿Qué
comentarios puede hacer sobre
el proceso?. ¿Qué sucede ahora
si los límites de control se
definen a un σ del promedio de
defectos?.

CASOS PRACTICOS.
APLICACIÓN DEL MODELO DE EXPERIMENTACION TAGUCHI EN UN
INGENIO AZUCARERO DEL VALLE DEL CAUCA
RESUMEN

El presente artículo muestra los resultados de la investigación en la cual se aplicó


la metodología Taguchi del diseño experimental en la planta de producción de un
ingenio azucarero del Valle del Cauca. Este trabajo destaca la importancia que
tiene el Diseño Experimental como herramienta estadística para el mejoramiento
de procesos productivos, que va más allá del simple monitoreo impuesto por las
técnicas de control estadístico de procesos, sin desmeritarlas como herramientas
útiles para controlar su rendimiento.

PALABRAS CLAVES: Análisis de varianza, Análisis de Residuales, Diseño


Experimental, Diseños Fraccionados, Efecto, Factores Controlables, Factores
Incontrolables, Interacción y Ortogonal.

1. INTRODUCCIÓN
Una herramienta que permite el mejoramiento tanto de los productos como de
procesos con el objetivo de que los bienes producidos se adecuen de la mejor
manera posible a las exigencias del mercado es el Diseño de Experimentos,
campo cuyo pionero fue Ronald A. Fisher, matemático y actuario, quien en
1919 realizó los primeros avances en este campo en la agricultura. Los
métodos estadísticos y las técnicas de diseños experimentales con
aplicaciones a problemas industriales fueron desarrollados principalmente en
Estados Unidos y Gran Bretaña por científicos del área aplicada (según
Lawson. Madrigal y Erjavec, 1992). Una de las ventajas de estos métodos es
que permite el estudio de diferentes variables simultáneamente. Además, son
empíricos y no requieren la definición de modelos matemáticos para describir
situaciones físicas. En lugar de eso, involucran planes de experimentos con
procedimientos definidos que agilizan la determinación de soluciones e
interpretación de datos. Un experimento es una prueba o ensayo. El
experimento diseñado es una prueba o serie de pruebas en las cuales se
inducen cambios deliberados en la variable de entrada de un proceso o
sistema, de manera que sea posible observar e identificar las causas de los
cambios en la respuesta de salida (según Montgomery, 1996). Un proceso o
sistema puede ser representado por medio de una caja negra .

En la figura 1, se observa la existencia de factores controlables X1, X2 ,..... , Xi;


factores no controlables Z1, Z2 ,..... , Zi (aunque pueden ser controlables para
los fines del experimento); entradas y una respuesta o salida del sistema. Entre
los objetivos del experimento pueden incluirse:

• Determinar cuáles variables (factores) tienen mayor influencia en la salida del


proceso (Y).

• Determinar el mejor valor de las X que influyen en la salida del proceso, de


manera que Y tenga un valor cercano al valor deseado.

• Determinar el mejor valor de las X que influyen en Y de modo que su


variabilidad sea pequeña.
• Determinar el mejor valor de las X que influyen en Y, de modo que se
minimicen los efectos de los factores no Controlables Z. A continuación se
expone la aplicación de un modelo Taguchi con el objetivo de observar el
comportamiento del proceso de extracción de jugo dulce en un ingenio
azucarero.

2. METODOLOGIA TAGUCHI
El Diseño de Experimentos es una herramienta que también puede llegar a ser
usada en las etapas de diseño de productos y procesos con el objetivo de
minimizar la variación del desempeño de éstos en manos de los consumidores
finales con respecto a los factores ambientales como medio para mejorar la
calidad. La idea de diseñar productos y procesos cuyo desempeño sea
insensible a las condiciones ambientales (robustez del sistema) y realizar esto
en las etapas de diseño a través del uso de Diseño de Experimentos ha sido la
piedra angular de la metodología Taguchi. Las fortalezas de la metodología de
Taguchi son las siguientes:

• Enfatiza en la calidad durante la etapa del diseño del proceso.

• Reconoce la importancia relativa de los factores que influyen en el


desempeño de los productos o procesos.

• Enfatiza en la reducción de la variabilidad, por medio del uso de la función de


pérdida y de la razón señal-ruido (existiendo una para cada objetivo que se
quiera lograr con el experimento). • Se concentra en el concepto de diseño de
parámetros que sirvan para disminuir la variabilidad en el desempeño de los
productos.

• También puede ser utilizada para el mejoramiento de procesos y productos


ya existentes. El modelo de Taguchi enfatiza la importancia de evaluar el
desempeño bajo condiciones de campo como parte del proceso de diseño y el
hecho que la variación funcional en el desempeño está influenciada por los
factores de ruido los cuales varían en el ambiente en el que los procesos o
productos están funcionando.

La filosofía Taguchi está basada en un modelo aditivo de los efectos


principales para la cual, la presencia de interacciones es algo indeseable y en
caso que en el proceso se encuentre una relación de este tipo esta es tomada
como parte del error experimental (Fowkles Y Creveling, 1995). Por
consiguiente, la filosofía Taguchi está basada en un modelo como el expresado
en los siguientes términos:

Y= 0  +  1 x1 +  2 x2 + 3 x3 +.....+ k  xk (1)


En la expresión anterior se puede observar la aditividad dejada de manifiesto
en ésta metodología y la no presencia de interacciones bajo la cual se ampara
el método de diseño experimental propuesto por Taguchi. Otra característica
clave de esta metodología son los arreglos ortogonales, los cuales no son más
que arreglos factoriales fraccionados en los que se basa como medio para la
realización del experimento, así como la utilización de una medida de
variabilidad denominada razón señal ruido (S/N) para la realización del análisis
de resultados.

3. DESCRIPCION DEL PROCESO


En esta sección se realiza una descripción general del proceso de producción
de azúcar en un Ingenio, en el cual se aplicó la metodología antes descrita con
el fin de lograr un aumento en el nivel de extracción de la fábrica.

Preparación de la Caña: El objetivo de esta etapa es convertir la caña entera


en un material formado por pedazos cortos y pequeños, generando una masa
compacta que cae fácilmente a la tolva de alimentación o Donelly y que el
primer Molino tomará sin dificultad absorbiéndola de manera continua.

Molienda: En esta etapa del proceso, la caña sufre un trabajo de compresión


por parte de seis molinos en línea produciéndose de esta manera la extracción
del jugo de la caña de azúcar.
Clarificación: En esta etapa, el jugo que es extraído en el proceso de molienda
es limpiado mediante la combinación de diferentes técnicas.

Evaporación: En la etapa anterior del proceso se produjo jugo claro. Este jugo
es una mezcla de azúcar disuelta en agua en presencia de algunas impurezas.
Cuando se ha quitado ya la mayor cantidad de éstas, resta eliminar el agua.

Clarificación y Centrifugación: El proceso de cristalización es llevado


principalmente en los tachos1 , en los que a través de una adecuada
combinación de vacío y temperatura, se promueve la concentración, formación
y crecimiento del grano en el jarabe proveniente de la evaporación. En la
centrifugación, se procede a la separación de la solución altamente viscosa
formada por las mieles con alta concentración de azúcar, aprovechando la
fuerza centrífuga generada en centrifugas de altas velocidades de giro.

Refinación: En esta etapa del proceso se refina el tamaño y la pureza del grano
presente en el licor proveniente de la etapa de cristalización y centrifugación.

Secado y Empaque: El azúcar comercial que sale de las centrífugas de refina


con una humedad aproximada del 1%, muy alta debido a que sí el azúcar se
almacena en estas condiciones se ve perjudicada la calidad final del producto.
Por lo tanto se hace necesario el secado del azúcar para disminuir su
contenido de humedad hasta niveles manejables (< 0.03%), con el objetivo de
garantizar su conservación. Esta investigación se concentró principalmente en
el comportamiento de la eficiencia de extracción del primer molino, que
mostraba un rendimiento del 57.5 %, debido a que mediante su incremento se
lograría impulsar la extracción global del tándem2 de molienda, que alcanzaba
un 95.1%, lo que se vería reflejado en un aumento en 27.000 quintales de
azúcar de la producción del ingenio en el periodo enero-septiembre de 2005,
generando ingresos adicionales de US$ 490.000 en ese periodo.

4. FACTORES EXPERIMENTALES
Antes de entrar de lleno al análisis de los resultados experimentales es
importante realizar una breve descripción de los factores estudiados.

Se realizó una primera fase experimental, en la cual se analizaron tres variables


ruido que se sospechaban tenían gran influencia en la extracción del molino 1,
estas variables fueron:

(a) Variedad de caña; (b) Tipo de corte; y (c) Materia extraña. De este primer
análisis se concluyó que la variable ruido más significativa era el Tipo de corte
de la caña al momento de ser alimentado el tándem de molienda.
(b) En la segunda fase experimental se involucraron el ajuste del molino 1; la
presión hidráulica en los cabezotes del molino 1 y las velocidades de las
picadoras I y II, junto con el Tipo de corte como variable ruido más importante,
en un gran experimento que serviría como herramienta de mejoramiento del
proceso de molienda.

5. EXPERIMENTACION CON EL METODO TAGUCHI


A continuación se analizan los resultados obtenidos en la aplicación de la
metodología Taguchi en el proceso de molienda del Ingenio azucarero en el
Valle del Cauca, tomando como variable respuesta la extracción del molino 1
del tándem de molienda 2, involucrando en la experimentación el tipo de corte
como variable ruido, según lo encontrado en la anterior fase de
experimentación. Se seleccionó un arreglo ortogonal L9 para la matriz interna,
permitiendo estudiar máximo cuatro factores a tres niveles cada uno, utilizando
la técnica del falso nivel para permitir involucrar un factor a dos niveles en una
columna desarrollada para estudiar factores a tres niveles (Fowkles y
Creveling, 1995), y un arreglo compuesto de solo dos corridas para la matriz
externa. En la Tabla 1 se observan los factores estudiados, sus respectivos
niveles y el código con que se identificarán en esta sección.
6. CONCLUSIONES
La técnica de experimentación aquí analizada, es una herramienta que
muestra mucha más efectividad que el seleccionar al azar niveles de los
factores, observando qué sucede y si se logra un mejoramiento al fijar los
niveles de los factores analizados en estos puntos de operatividad Si por el
contrario se observa una disminución en la eficiencia del proceso se retorna
a los niveles de los factores a los rangos originales o se cambian a otros
niveles de operatividad buscando un incremento del rendimiento del
sistema, metodología de mejoramiento ampliamente usada en el Ingenio
antes de la realización de este estudio debido a que brinda más altos
niveles de entendimiento de los procesos productivos en los que son
aplicados y por ende generan herramientas para alcanzar un más alto
rendimiento de éstos.
Es de suma relevancia en esta metodología el tratamiento que se hace por
separado de los factores controlables e incontrolables con el objetivo de
buscar los niveles de los primeros que vuelvan al sistema menos insensible
a cambios en los segundos.

Casos Prácticos de Calidad en la Producción Cartográfica


Bloque 1: Mejora de la Calidad
Caso 2: Utilización del diagrama de Pareto

Total de casos de cada tipo de problema detectado en el


lote
Tipo de problema Casos
1 - No pasa el control de calidad posicional en Y. 81
2 - Problemas de cruces entre curvas de nivel. 51
3 - Errores en la rotulación de los cultivos. 31
4 - Errores en la ubicación de topónimos. 24
5 - Ausencia de topónimos. 19
6 - No pasa el control de calidad posicional en X. 13
7 - Errores en los rótulos de las vías de
comunicación. 8
8 - Problemas en el título y el número de hoja. 7
9 - Problemas de rotulación de la cuadrícula de
coordenadas. 5
10 - Errores en la rotulación de municipios. 4
11 - Desplazamiento en la ubicación de la leyenda. 2

Distribución de los problemas detectados en el lote


Nº de
mapas Tipo de problema encontrado
1 2 3 4 5 6 7 8 9 10 11
38 x
17 x
10 x
3 x
6 x
5 x
4 x
5 x
2 x
2 x
1 x
18 x x
7 x x
6 x x x
6 x x
5 x x x
3 x x x x
3 x x x x
2 x x
2 x x x x
2 x x x
1 x x x x x x x
1 x x x x x x x x x x
1 x x x x
Total de
casos 81 51 31 24 19 13 8 7 5 4 2

Ejercicios
1.- Durante una semana se ha medido diariamente el contenido de humedad
correspondiente a 24 paquetes de un determinado producto, tomados al azar a la
salida de una línea de envasado. Los resultados obtenidos son :

Indicar que conclusiones se pueden obtener a partir de estos datos.

2.- Construir los diagramas causa-efecto para los siguientes efectos:


a) llegar tarde al trabajo
b) suspender un examen
c) derrota en una competición deportiva

3.- En un diagrama causa-efecto aparece la temperatura de la matriz de una


prensa como posible causa de la aparición de poros en el producto. Para
confirmarlo, se recogen datos de 50 prensadas y se realiza un diagrama bi
variante entre la temperatura (T) y el numero de poros obtenidos (P).
Indique cuales serian las conclusiones obtenidas al realizar el test de correlación
de ishikawa en cada uno de los siguientes casos.

4.- Hace unos años en una revista editada en la Escuela Técnica, aparecía una
nota de la Dirección de la Escuela en la que se informaba que en el primer parcial
de ese curso se había gastado el 75% de todo el papel de examen que se
necesito en el curso anterior. Se incluía también la siguiente tabla:
Desde el punto de vista de la economía de la escuela y con el único objetivo de
disminuir al máximo el consumo de papel, si solo se pudiera llamar la atención a
un departamento. Cual habría escogido usted?
Justifique su respuesta realizando el grafico que le parezca mas adecuado.

5.- El numero de piezas defectuosas detectadas en un mes debido a diversas


causas es el que se muestra a continuación:

Se realiza una modificación para intentar reducir el numero de piezas defectuosas


y se obtienen los siguientes resultados..

Realice un grafico que ponga en manifiesto los efectos de la modificación


introducida.

6.- (univ)Un equipo de proyecto estudia el costo que implican las descomposturas
en una línea para embotellar bebidas refrescantes. El análisis de datos en miles
de dólares correspondientes a un periodo de tres meses son: regulador de
presión, 30; ajuste del gusano de alimentación, 15; atoramiento de la cabeza de
cobre, 6; perdidas de enfriamiento, 52; reemplazo de válvula, 8; otras 5, Construya
el diagrama de Pareto y analice la información.

7.- (univ) Una supervisora de mantenimiento de aeronaves realizo


una inspección en una entrega reciente de pernos por parte de un nuevo
proveedor. Para ello envió 25 de estos pernos a un laboratorio de pruebas para
determinar la fuerza necesaria para romper cada uno de los pernos. A
continuación se presentan los resultados en miles de libras-fuerza.
147.8 137.4 125.2 141.1 145.7 119.9
133.3 142.3 138.7 125.7 142.0 130.8
129.8 141.2 134.9 125.0 128.9
142.0 118.6 133.0 151.1 125.7 126.
3 140.9 138.2

A) Que fracción de los pernos soporto al menos 120.000 libras-fuerza? que


fracción de los pernos soporto al menos 150.000 libras-fuerza?
B) Si la supervisora sabe que estos pernos, cuando se utilicen es
una aeronave, se verán sujetos a fuerzas de hasta 140.000 libras-fuerza,
Que fracción de la muestra se romperá estando en uso? Que debería
recomendar la supervisora a la compañía con respecto al nuevo proveedor
de pernos?
JUST TIME
Caso de aplicación en la industria alimenticia (Fast Food)

Vamos a referirnos a la muy popular marca de comida rápida McDonald’s, la cual


aplica el concepto de JIT debido a que no empieza a cocinar sus órdenes hasta
que un cliente ha realizado un pedido específico. Los principales beneficios de
McDonald’s son mejores alimentos a un costo menor.

Por un lado, la mejora en la calidad viene dada por una hamburguesa fresca, la
cual es mucho más sabrosa. Recordemos que en el viejo esquema de
McDonald’s, las hamburguesas estaban pre-cocidas a la espera del pedido de un
cliente. Con la aplicación del JIT, esto logra modificarse, permitiendo a la empresa
contar con productos de mayor calidad. Además, dado que ahora esperan el
pedido concreto del cliente antes de empezar a preparar la orden, los empleados
no entran en pánico ante un requerimiento fuera de lo esperado (como una
hamburguesa sin condimentos). Por último, el JIT permite a McDonald´s adaptarse
a la demanda un poco mejor: dado que pueden producir hamburguesas en un
tiempo récord, no deben preocuparse por tener gran stock de seguridad.

Por otro lado, la disminución de los costos viene de reducir la cantidad de


productos deteriorados. Antiguamente y, debido a la gran cantidad de
hamburguesas prefabricadas que tenían para satisfacer el requerimiento propio de
“comida rápida”, se tiraba gran parte de los productos por superar la vida útil (una
hamburguesa debe venderse en 15 minutos o menos). Esas hamburguesas
desperdiciadas elevaban el precio de las vendidas para compensar los costos. Al
aplicar el JIT, los costos se reducen notablemente.

El otro aspecto de JIT es la drástica reducción de existencias de seguridad. Este


stock de seguridad viene dado por dos factores: la variabilidad de la demanda y la
variabilidad de plazos de proveedores (en el caso de McDonald’s, el proveedor es
el proceso de producción interna). McDonald’s logra esta reducción mediante la
creación de un sistema que permite una producción más rápida de hamburguesas.
A su vez, se reduce el tiempo necesario para satisfacer la demanda al
estandarizar la producción.
POKA YOKE
EJEMPLOS EN LAS EMPRESAS

 Alarmas. Por cuestiones de seguridad, es muy frecuente encontrarse con alarmas


visuales o sonoras que evitan poner en peligro a los trabajadores. El detector de
humo es un claro ejemplo.

 Listas de chequeo. Son ideales para seguir los procesos de la manera adecuada,
las listas de chequeo es un Poka Yoke de clasificación de secuencia.

 Topes. Aquí entra el ejemplo que mencioné anteriormente, regularmente son


elementos físicos que ayudan de recordatorio del uso de cierta herramienta.
Previniendo los errores por olvido o falta de conocimiento.

PASOS PARA IMPLEMENTAR UN POKA YOKE

 Detección del problema. Si notas que en cierto procedimiento se cometen


errores muy seguido, o estos errores salen caros para la empresa, es posible que
se pueda implementar un Poka Yoke

 Llegar a la raíz del problema. Se realiza una investigación para saber la causa
original del problema y saber a dónde atacar.

 Diseñar un Poka Yoke. Se presenta la propuesta, la herramienta que corregirá el


problema de forma definitiva.

 Probar y verificar el correcto funcionamiento. Es momento de hacer varias


pruebas para checa que si se haya solucionado el defecto.

 Capacitación. Es necesario una capacitación a todos los involucrados con el


Poka Yoke implementado para enseñar el nuevo procedimiento.

 Revisión constante. Por último, se recomienda hacer inspecciones


periódicamente para checar que no se volvieron a presentar fallas y que también
las personas le estén dando buen uso.
CONCLUSIONES GENERALES
Consideramos que al desarrollar todos los tópicos incluidos en estas unidades
temáticas, nos brindan los conocimientos necesarios y esperados para lo cual se
elaboró dicho programa. Todos los temas se adaptan al propósito y obtenemos
conocimientos bastos en cuanto a los procesos se refiere.
Se abarcaron temas como la identificación y la importancia del papel que juega la
calidad en los procesos, y como esta representa todo el trabajo y la planeación
que se la da a la elaboración de dichos procesos y su ejecución.
Siempre buscando una mejora continua para poder elevar la calidad en cada
proceso y obtener así mayor efectividad.
También se pretende mitigar los errores y las causas de las cuales se deriva en
pérdidas y a la falla en procesos, ya sea por variables internas a dicho proceso o a
factores externos. Que de igual forma se le debe dar la misma prioridad para
detectar los puntos flacos y trabajar en ellos para su correcta ejecución.
Concluimos que son temas bastante interesantes y de los cuales se les puede
sacar mucho provecho y sobre todo porque cuentan con un amplio campo de
ejecución, lo cual nos da mayor versatilidad a la hora de salir al campo laborar y
poseer conocimiento sobre todas estas técnicas y que sin duda podremos
aplicarlas para dar mayores beneficios a la industria o a cualquier ámbito que la
apliquemos.

Вам также может понравиться