Вы находитесь на странице: 1из 26

(GESTION DE LA CALIDAD)

Gestión de la calidad: conceptos, enfoques, modelos y sistemas


De César Camisón, Sonia Cruz, Tomás González

Inicios del control estadístico de calidad CAPITULO 1


Cesar Camisón en su libro gestión de la calidad hace referencia que: “Los verdaderos
inicios del control estadístico de la calidad se encuentran en la Society of Industrial
Quality Statisticians (SIQS), la Society of Quality Control Engineers, la Federated
Societies y la Society for Quality Control, nacidas a principios de los años 40” (2007:7).

En el libro gestión de la calidad Camisón señala que la conformación de los grupos con
iniciativas hacia la calidad no fueron constituidos sino hasta tener establecida una amplia
organización de expertos en la materia: “el primer antecedente fuese el Six Men Board,
constituido en 1966 por Armand Vallin Feigenbaum con los japoneses Kaoru Ishikawa y
Kiminobu Kogure, el británico F. Nixon, el francés Georges Borel y el estadounidense
Jack Lancaster” (2007:7). Posteriormente pasando a convertirse en la international
academy for Quality (IAQ).

En febrero de 1946 se realiza un llamado a todas las organizaciones y movimientos de


la calidad a formar parte de la unificación de estos, pasando así a llamarse la American
Society for Quality (ASQC). Mientras que en el año de 1997 se realiza un cambio en el
nombre de esta sociedad, reduciendo su nombre a lo que hoy en día se conoce como
la American Society for Quality (ASQ). En la actualidad es la más grande asociación
contando con expertos de todo el mundo con más de 100.000 miembros, la cual se
encarga de impartir conocimientos a favor de mejorar la calidad. (Camisón et al, 2007:8).

Por otro lado en los Estados Unidos existen otras organizaciones enfocadas en la
calidad que tienen sus propios objetivos, una de ellas es la American Productivity &
Quality Center (APQC) la cual menciona Camisón: “Es una corporación exenta de
impuestos fundada en 1977 por 11 empresas líderes (AT&T, Arthur Andersen,
Browning-Ferris Industries, Campbell Soup Company, DRI/McGraw-Hill, General Motors
Corporation, Hewlett-Packard Company, Honeywell, IBM Corporation, Price
Waterhouse y Xerox)”(2007:10). En la actualidad son más de 500 miembros que tienen
como principal objetivo ayudar a las organizaciones que están asociadas a mantener su
ventaja competitiva a través de lo que se conoce como la mejora continua. Otra de las
organizaciones más importantes de la calidad es la Union of Japanese Scientists and
Engineers (JUSE), que tuvo su formación en 1946 y la cual tuvo al propio Ishikawa como
su primer presidente.

En Europa se crea en 1956 la European Organization for Quality (EOQ) la cual se hace
presente como una organización sin ánimos de lucro, una vez que el control estadístico
de procesos ya estaba bastante extendido por todo el continente las asociaciones de
Francia, Holanda, Reino Unido, Italia y Alemania Federal deciden por su propia voluntad
formar parte de esta organización. Teniendo como misión mejorar la competitividad y
ayudar en el desarrollo sostenible de Europa mediante la fomentación de las políticas
de calidad, además de compartir información, conocimientos y técnicas de calidad entre
los miembros de la organización (Camisón et al, 2007:11).

Por parte de Iberoamérica se creó la fundación iberoamericana para la gestión de la


calidad (FUNDIBEQ) en 1998, de la cual formaban parte España y otros 20 países.
Tenían como misión promover la gestión de la calidad como medio para para alcanzar
el bienestar de la sociedad a través de una libre circulación de productos y servicios
(Camisón et al, 2007:14).

Existen además las organizaciones que se encargan de la normalización,


estandarización y regulación siendo las más importantes o principales la International
Electrotechnical Commission (IEC), la International Telecommunication Union (ITU) y la
International Organization for Standardization (ISO). Son encargadas de la creación de
normas técnicas mediante las cuales se implementa una estandarización que son
utilizadas a nivel internacional, siendo la más importantes en la actualidad las normas
ISO que fueron constituidas en 1926 por la International Federation of the National
Standardizing Associations (ISA). La principal actividad realizada por ISO se enfoca en
el desarrollo de estándares técnicos para los diferentes componentes, productos y
también para los procesos, ayudando de esta manera a llevar un proceso más adecuado
que cumpla con todas las características de calidad necesarias. Por parte de Estados
Unidos están la American National Standards Institute (ANSI), la cual también es una
de las más importantes a nivel internacional y es la encargada de coordinar el sistema
de normalización americano. (Camisón et al, 2007:15-19).

Gestión de la calidad
La gestión de la calidad tiene diferentes enfoques el primero de ellos es el enfoque
técnico de la calidad, este hace referencia al control estadístico de procesos y parte
como un conjuntos de métodos que son utilizados netamente para el control de la
calidad tanto de los productos como de los procesos. Si bien la gestión de la calidad
tiene una perspectiva muy mecánica cuando se habla de herramientas y procesos para
mejorar la eficiencia o realizar un control estadístico de procesos que puedan ayudar a
cumplir con las especificaciones de un producto y a su vez reducir la variabilidad de
dicho proceso. No se puede tener esta visión tan cerrada ya que la gestión de la calidad
va más allá de solo los procesos, apuntando a un área de especialización gerencial
haciendo que sea necesario la formación de especialistas que puedan ser capaces de
asumir estas responsabilidades. (Camisón et al, 2007:50-56).

El enfoque humano de la gestión de la calidad hace su primera aparición en Japón el


cual se enfoca en los trabajadores y como estos pueden llegar a ser un pilar fundamental
dentro del proceso y mejora de la calidad. Se invierte más en la formación y capacitación
de las personas, se trabaja más en sus necesidades y en la forma de pensar de cada
uno de ellos ayudándoles a ser más autónomos en la toma de decisiones y en la
resolución de problemas. El enfoque estratégico la eficiencia queda en segundo plano,
aquí se llega a dar prioridad a la calidad del servicio y principalmente a alcanzar la
satisfacción plena del cliente (Camisón et al, 2007:81-83).

La primera generación en la historia de la calidad tenía establecido como prioridad la


calidad del producto terminado. Lo que se hacía era inspeccionar el producto una vez
que ha terminado su proceso de elaboración para verificar si cumple con las
especificaciones previamente establecidas y en caso de no llegar a cumplirlas dicho
producto era desechado o reprocesado. Esto era motivo para que existan altos costes
de no calidad debido alto porcentaje de producto desechado o reprocesado y a la falta
de planes de mejora o de prevención. La calidad como función industrial aparece con el
cambio del sistema artesanal a la fábrica. Los artesanos eran los encargados de realizar
la inspección de sus propios productos ya que tenían pleno control de todo el proceso,
una vez finalizado el proceso se encargaban de verificar que cumpliese con las
especificaciones que debía tener el producto tal como había sido elaborado por
generaciones. Estos conocimientos eran transmitidos a sus aprendices garantizando así
que se siga la línea de producción establecida, por este motivo había escasa innovación
y era estrictamente enfocado hacia el proceso más no hacia el cumplimiento de las
necesidades del cliente (Camisón et al, 2007:84).

En Estados Unidos desde 1830 empieza a crecer a gran escala el sistema de producción
intercambiable. Este sistema se trata de la producción en masa de productos de iguales
características cuidando que se cumplan los parámetros del producto final con un
margen de tolerancia muy estrecho. Como menciona Camisón: “El modelo de referencia
en este modelo productivo es la fábrica construida por Henry Ford entre 1908 y 1910.
El sistema fordista supuso lecciones trascendentales sobre la producción en masa
acortando tiempos, la estandarización y la mejora continua” (2007:86-87). Debido a la
necesidad de controlar la producción y asegurar la calidad nace la inspección a gran
escala la cual era muy deficiente ya que se controlaba cada pieza de forma individual
formándose así grupos de inspectores de calidad que igualaban en número al de
trabajadores de la producción. Aquí también nace el rol de especialista en calidad que
pasa a ser la persona encargada del diseño y las inspecciones que se realizan además
de las herramientas que serán utilizados para la realización de estas inspecciones.

Con el crecimiento a gran escala de la producción y la aparición de nuevas y más


complejas tecnologías aplicadas en las industrias crecen también los problemas que las
inspecciones tradicionales no pueden controlar siendo cada vez más complicado. Esto
hizo que se desarrollen nuevas técnicas matemáticas, así como también la introducción
de conceptos de probabilidad y estadística, logrando así el desarrollo de sistemas
enfocados al control estadístico de calidad (CEC). El presidente de AT&T encomendó a
Western Electric un método más fiable y económico de asegurar la producción de
componentes eléctricos dando así con el desarrollo de uno de los primeros
departamentos de inspección estadística de calidad. Con esto se daba prioridad al
perfeccionamiento de las inspecciones pero también se daba un nuevo enfoque que era
el control estadístico de procesos (CEP) (Camisón et al, 2007:88).

Los ingenieros de Bells principalmente Harold F. Dodge y Harry G. Romig desde 1920
empezaron a trabajar en un conjunto de teorías estadísticas dando así con el desarrollo
de los llamados planes de muestreo por aceptación. Debido a que este tipo de muestreo
no era muy confiable ya que la probabilidad de que se rechacen lotes que se debían
aceptar o viceversa era muy alta se vieron en la necesidad de mejor este tipo de
muestro, dando así paso a la creación de las tablas de muestro de inspección que
estaban dirigidas a las personas que no tenían conocimientos básicos de estadística lo
cual les permitía poder realizar planes de muestreo con mayor facilidad. Este tipo de
muestreo estadístico fue de gran utilidad ya que permitía realizar las inspecciones con
mayor facilidad, debido a que se reducía considerablemente el tamaño de las muestras
a ser inspeccionadas ayudando a que se pueda controlar grandes cantidades de
producción, mediante la toma de muestras aleatorias que ayudarían a conocer la
probabilidad estadística de los defectos que tiene cada lote producido. El físico Walter
A. Shewhart lidera una segunda investigación en los laboratorios de Bells que esta vez
estaría orientada en el proceso y en el control del mismo, las dificultades que se pueden
presentar en las líneas de producción y ya no solo en el producto terminado. Este nuevo
enfoque se conocería como el control estadístico de procesos (CEP) (Camisón et al,
2007:90).

A partir de sus investigaciones Shewhart puede reconocer que la variabilidad en los


procesos de producción era algo natural debido a que existían muchas causas
netamente aleatorias que podían estar inmersas en cada una de las etapas del proceso
empezando desde las diferencias existentes entre las materias primas, defectos de la
misma maquinaria o herramientas de trabajo y también las destrezas o capacitación de
cada uno de los trabajadores al momento de realizar sus actividades. El problema
fundamental derivado de esto era poder encontrar de entre todos estos tipos de
variación cual era aceptable y cual debía ser el rango permitido de variación dentro del
proceso, una vez logrado esto poder encontrar sus causas y tratar de reducirlas
eficazmente. Con la finalidad de resolver todas estas interrogantes Shewhart aplico la
probabilidad que lo ayudarían a desarrollar nuevas y más sencillas técnicas para
encontrar así los límites de variación aceptables, dando así lugar a l aparición de los
gráficos de control X y R en el año de 1924. Con esta nueva técnica se podría distinguir
entre la variación normal que se debía a causas aleatorias y la variación excesiva que
era fácilmente determinada en el proceso (Camisón et al, 2007:91).

Hoy en día la última tendencia del enfoque técnico es el llamado seis sigma (six sigma).
Está dirigido básicamente a la eliminación de defectos, lo cual fue fuertemente inspirado
en las ideas de Taguchi. Motorola fue la primera empresa en aplicar este método en su
afán de no decaer en el mercado de componentes electrónicos que se veía en riesgo
debido a la fuerte competencia por parte de los japoneses. Fue desarrollada por Mikel
Harry dio inicio a esta nueva metodología que se basaba en la mejora continua de la
calidad mediante la combinación de métodos estadísticos que ya eran conocidos como
son el diseño de experimentos, el análisis modal de fallos y efectos, las siete
herramientas básicas de control de calidad establecidas por Ishikawa y el control
estadístico de procesos solo que se les dio una forma de aplicabilidad más original
(Camisón et al, 2007:115).

CONCEPTOS

PROCESO el conjunto de recursos y actividades interrelacionados que posibilitan la


transformación de elementos de entrada en resultados. (p 148 prr 1)

Todo proceso puede dividirse en subprocesos, que son partes bien definidas de un
proceso. Los procedimientos simbolizan la estructura de subprocesos que, integrados,
forman un proceso. La estructura de subprocesos de un proceso no es única, existiendo
potencialmente distintas tecnologías o métodos para desarrollar un proceso que pueden
dar lugar a la identificación de subprocesos distintos. (p 148 prr 3)

Las diferentes perspectivas conceptuales de la calidad pueden organizarse en dos


categorías, según hablen de calidad objetiva y calidad subjetiva (p 148 prr 5)

La calidad objetiva deriva de la comparación entre un estándar y un desempeño,


referidos a características de calidad medibles cuantitativamente con métodos
ingenieriles o tecnológicos. (p 148-149 prr 5)

La calidad subjetiva se basa en la percepción y en los juicios de valor de las personas,


y es medible cualitativamente estudiando la satisfacción del cliente. (p 148-149 prr 5)

Calidad estática y calidad dinámica la calidad no es un blanco fijo que se alcanza una
vez que se logra cierto nivel, sino un proceso de mejora continua. (p 149 prr 2)

Calidad absoluta y calidad relativa La calidad se valora entonces de forma absoluta,


con independencia de la persona, y se mide de forma incontestable por la distancia entre
la calidad realizada y la calidad programada. (p 149 prr 3)

La definición de calidad es relativa ya que cada empresa deberá depender de las


expectativas y necesidades de sus clientes, pudiendo variar su identificación de las
dimensiones que incorpore en cada caso. (p 149 prr 4)
Calidad interna y calidad externa
Los conceptos absolutos de calidad son también definiciones internas para mejorar la
conformidad de productos y procesos, de las cuales está ausente el análisis del entorno
competitivo y de los mercados. Este concepto de calidad interna hace hincapié en la
mejora de la eficiencia interna para lograr la conformidad con las especificaciones en
los procesos y la reducción de los costes de no calidad. (p 149 prr 5)

La perspectiva externa, nacida con el auge de mercados de compradores, enfatiza la


eficacia, entendida en el sentido de que la principal prioridad de la empresa debe ser
satisfacer las expectativas de los clientes, aun a costa de relegar la eficiencia. (p 150
prr 1)

Concepto técnico de calidad como conformidad con las especificaciones


La definición de calidad debe ante todo servir para medir la calidad del producto de
modo que sea posible un análisis continuo de su evolución en el tiempo. Las medidas
son entonces tomadas continuamente para determinar la conformidad con aquellas
especificaciones. La no conformidad detectada es la ausencia de calidad. (p 154-155
prr 3)

Considera la calidad como un conjunto de características medibles que se requieren


para satisfacer al cliente. (p 155 prr 1)

Concepto estadístico de calidad como uniformidad


El CEP acepta que una pieza tiene calidad cuando sus características están dentro de
los límites de tolerancia superior e inferior de la especificación. Pero la conformidad con
las metas de las especificaciones no es suficiente como base para una Gestión de la
Calidad realmente eficaz. (p 156 prr 4)

El concepto estadístico de calidad como uniformidad sigue centrado en los aspectos


internos de la producción, pero se enfoca a lograr productos libres de errores que
satisfagan con precisión las metas de las especificaciones de diseño. El concepto
estadístico de calidad gira entonces alrededor de los procesos (p 156-157 prr 6)

Enfoques de Gestión de calidad

Los enfoques de Gestión de la Calidad se pueden distinguir por los principios, las
prácticas y las técnicas en que se basan. (cap. 4 pag.9)
Aunque el proceso de avance ha sido incremental, se observa un momento de cambio
fundamental, en el que los enfoques pasan de controlar a gestionar la calidad. La
inspección y el CEC (control estadistico de calidad) son enfoques de control de calidad.
El CCT, el CWQC y la GCT son enfoques de Gestión de la Calidad. (cap. 4 pag.9)

Concepto de la gestión de calidad

Estos enfoques han ido adecuándose a las nuevas concepciones de calidad, las
diferencias y relaciones entre los diferentes enfoques no están suficientemente
completas. La complejidad ha sido además estimulada con los procesos de reforma de
todos los modelos existentes, entre ellos las normas ISO 9000:2000. (pag.210)
Aclarar el concepto es importante, porque una conceptualización parcial suele conducir
a la percepción incompleta por los directivos de los principios, prácticas y técnicas que
forman cada enfoque de Gestión de la Calidad. (pag.210)

Las definiciones y los instrumentos referentes a gestión de la calidad que se ha


elaborado para su medición y operativización (sinónimo), tienen deficiencias
importantes por parte de la literatura (pag.210)

 Se olvida que la gestión de la calidad es un concepto complejo y abstracto (fayas,


1995, 177), es inobservable, fácil de conceptuar y medir si no es a través de
otras variables directamente observables aunque sea a través de percepciones.
(pag.210)
 Muchas definiciones adoptan una conceptualización parcial, sigue existiendo
una importante incertidumbre sobre cómo poner en práctica los enfoques de
gestión de la calidad. (pag.210)

Con todos los instrumentos de medida previos que parten de un concepto de


gestión de la calidad centrado en las prácticas y las tecnicas. Cada autor
selecciona los elementos que considera importantes, omitiendo frecuentemente
otros que tambien definen el contenido de un enfoque de gestión de la calidad,
como son las dimensiones organizativa, cultural y estratégica. (Flynn, Schroeder
y Sakakibara, 1995; Greene, 1993) (pag.210)

Enfoques
Junto a estos cinco enfoques de gestión de la calidad como son la inspección de la
calidad, control estadístico de calidad, control de calidad total, Company-wide quality
control, y gestión de la calidad total, se ha incluido otras dos aproximaciones: gestión de
la calidad de servicio (GCS) y al enfoque humano (EH9), que no han llegado a
constituirse como enfoques, sino como coadyuvadores en la formación de otros
enfoques. (pag.215)

Concepto de calidad
En el libro de gestión de la calidad por Camisón C, Cruz S, González T, (2006) señalan
12 características que hablan sobre el perfil de cada enfoque de gestión de la calidad.

 El concepto de calidad es subyacente a la inspección, despejando la idea de que


la conformidad debe mantenerse en el tiempo. El CCT y el CWQC amplían dicho
concepto, uniendo la calidad de diseño y la calidad de conformidad, con el fin de
obtener la minimización de la variabilidad. Por otro lado la gestión total de calidad
adopta un concepto de calidad total que se preocupa tanto de la dimensión
interna como de la dimensión externa. (pag.217)
 El CCT centra su atención en lograr la aptitud para el uso del producto mediante
el diseño, la planificación y el control del sistema de calidad. La GCT extiende
su interés a todos los grupos de interés de la empresa.
 El CEC asume un talante estadístico por su fuerte uso de herramientas de este
tipo el CCT implica a todos los proceso directos de producción analizados desde
un enfoque sistemático. (pag.217)
 Los enfoques de inspección y CEC se centran en el control operativo de la
calidad de la producción. La GCT trasciende las fronteras de la organización
para extenderse al sistema de valor completo y a otros grupos de interés
externos claves para la empresa
 Existen pues, enfoques preocupados por la detección de errores, frente a
enfoques más preventivos de errores, hasta culminar en enfoques proactivos. La
inspección y el CEC son enfoques de control de calidad. (pag.218)
El CEC da pie a utilizar la información extraída de los proceso para identificar y
corregir áreas de mejora, adoptando un enfoque reactivo por parte de la
empresas con el fin que la calidad o la no calidad es un problema a solucionar.
(pag.218)

(CONTROL DE CALIDAD Y BENEFICIO EMPRESARIAL)

(Control de calidad y beneficio empresarial de Enrick Norbert L. Lester Ronald H.


Mottley Harry E.)

Calidad

Al evaluar las características del producto fabricado, el término calidad se utiliza para
indicar el nivel de comportamiento del producto. Generalmente, el comportamiento
deseado se mide en términos de los requisitos especificados.

Se conoce como calidad a la capacidad que tiene el producto para cumplir con las
especificaciones previamente establecidas para el mismo, y como se comportan cada
una de sus características. Cada uno de los componentes del producto deben ser
sometidas a pruebas para comprobar así el cumplimiento de los límites de tolerancia
permitidos, de esta manera se podrá probar si tiene calidad aceptable o deberá ser
rechazado (Enrick et al, 1989:25).

Control

El control hace referencia a todas las acciones que se realizaran para dar seguimiento
a un producto las cuales van desde la medición de las características que este posee y
observar cuál es su comportamiento una vez sometido a diferentes pruebas. Una vez
esto hecho se podrán aplicar todas las acciones correctoras de ser el caso que no se
lleguen a cumplir con las especificaciones, de otro modo el producto que si las cumpla
será considerado como aceptable y no habrá la necesidad de realizar ninguna otra
acción (Enrick et al, 1989:25).

Aplicación de sistemas

Los sistemas de control de calidad se encargan de estructurar los diferentes niveles de


calidad que posee un producto y realizar una separación entre los de mayor importancia
y los menos importantes. Siendo las más importantes las relacionadas a la
características del producto, la descripción exacta y los límites de tolerancia que cada
una de estas debe cumplir, además de ciertas medidas estandarizadas que pueden ser
las dimensiones, el peso y otras especificaciones propias del producto. Todo este
proceso está en manos del departamento de producción encargado del proceso de
elaboración y aplicación de cada una de estas características que definen al producto
(Enrick et al, 1989:26-27).
Programa del control de calidad

Un programa de control de calidad abarca todos los procedimientos que serán


necesarios para el seguimiento y la comprobación de los objetivos planteados por el
sistema de calidad. Estos procedimientos empiezan por revisar que las especificaciones
del producto se ajusten a las necesidades del cliente y que cumplan con las normas de
estandarización, una vez realizado esto se debe documentar todas las operaciones que
se realizan durante el proceso de elaboración con la finalidad de que en caso de
presentarse problemas poder encontrarlos directamente y aplicar las acciones
correctivas necesarias. Se deben describir todas las etapas u operaciones que se
realizan en todo el proceso, esto ayuda a que se identifique en que segmento se produce
cierta característica de calidad. Los auditores de calidad toman toda esta información al
momento de realizar las inspecciones y comprobar el cumplimiento de especificaciones,
registrando los hallazgos encontrados a manera de historial que será útil para la
comprobación y mejora de los procesos cuando se determinan problemas de larga
duración y determinar los lugares donde se deberá aplicar las acciones correctivas
necesarias (Enrick et al, 1989: 27-28).

Revisión de las especificaciones

La revisión de las especificaciones es un procedimiento sistemático en el cual se ponen


a discusión toda la información y datos que debe poseer un producto. Estos datos deben
ser considerados de acuerdo al comportamiento y uso que tendrá este producto, que
componentes harán parte de este y la manera en como se lo fabricara es decir los
métodos operarios que se aplicaran para su elaboración (Enrick et al, 1989: 33).

(INTRODUCCION AL CONTROL DE CALIDAD)

(Introducción al control de calidad de Ishikawa Kaoru)

Herramientas estadísticas

Las herramientas estadísticas para el control de calidad planteadas por Ishikawa fueron
siete en honor al mismo número de armas de un guerrero ancestral de la historia
japonesa llamado Kamakura Benkei, con las cuales pudo salir triunfante de las batallas.
Estas herramientas aplicadas de una manera correcta serían capaces de ayudar a
resolver el noventa y cinco de los problemas que se presentan en las empresas, es decir
que solo se necesitaría aplicar métodos más avanzados de estadística para resolver el
cinco por ciento restante de los problemas (Ishikawa, 1994: 111).

Estas herramientas son las siguientes:

1. Los diagramas de Pareto


2. Los diagramas de causa y efecto (no son estrictamente una herramienta
estadística)
3. La idea de estratificación (mencionada en todos los capítulos)
4. Hojas de comprobación
5. Histogramas y distribuciones de frecuencia
6. Diagramas de dispersión (los conceptos de correlación y regresión).
7. Gráficos y gráficos de control
Además de estas siete herramientas conocidas como métodos estadísticos básicos
Ishikawa menciona que también se deben aplicar los métodos intermedios que deberían
ser dirigidos para los ingenieros o las personas que tienen una mayor preparación,
siendo estos métodos los siguientes:
1. Distribución de los estadísticos, estimación estadística y pruebas estadísticas.
2. Estimación del muestreo, teoría del error estadístico, y aditividad de la
varianza.
3. Inspección por muestreo estadístico.
4. El uso del papel probabilístico binomial.
5. Una introducción al diseño de experimentos (uso simple de la disposición
ortogonal incluyendo las tablas de contingencia; análisis de la varianza).
6. Correlación simple y análisis de regresión.
7. Técnicas sencillas de fiabilidad.
8. Métodos sencillos de ensayos sensoriales.

Mientras que para las personas con un nivel más avanzado y personas especializadas
en control de calidad están los siguientes métodos:
1. Diseño avanzado de experimentos.
2. Análisis multivariante.
3. Técnicas avanzadas de fiabilidad.
4. Métodos avanzados de ensayos sensoriales.
5. Análisis de series temporales, m é todos de investigación operativa
6. Otros métodos.

Control de los procesos


El control de los procesos muchas veces tiene un significado confuso ya que puede ser
visto solo como la capacidad de controlar el proceso de producción de una línea hasta
obtener un producto terminado para el consumo. Mientras que en realidad controlar
todas las actividades que se realizan durante un proceso desde el diseño hasta el
análisis adecuado de dicho proceso (Ishikawa, 1994: 111).
Ishikawa (1994: 312) plantea algunas diferencias entre control y otros términos que
muchas veces son confundidos:
"Control" y "Mejora"
"Control" quiere decir mantener un proceso en su estado presente, de momento. Sin
embargo, si sucede una anomalía, su causa es eliminada y se evita que vuelva a
suceder, y esta acción produce una ligera mejora. En este sentido, el control es una
forma pasiva de mejora. La "mejora" consiste en buscar activamente los problemas,
resolverlos, efectuar un arreglo permanente para evitar cualquier vuelta atrás, y
controlar la nueva situación. Quiere decir continuar mejorando activamente las cosas.
"Control" e "Inspección"
El "control" consiste en hacer comparaciones con estándares de control o con límites de
control en los gráficos de control, buscar las causas asignables en el proceso o trabajo
si se violan los estándares o hay puntos que caen fuera de los límites, y acometer
acciones respecto al proceso. En contraste, la "inspección" consiste en hacer
comparaciones con normas de inspección y, si no se cumplen, acometer acciones sobre
el producto, e.g., designando a los productos individuales como unidades defectuosas,
rechazando a los lotes por inaceptables o instituyendo la inspección del 100 %
(inspección tipo cribado). La idea de que se debe adoptar la inspección del 100 % si un
gráfico de control indica que un proceso se ha salido de control es equivocada. La
decisión de si hacer o no una inspección del 100 % se debe basar en las normas para
la inspección del tipo del cribado.
"Control" (eliminación de causas asignables) y "Ajuste"
"Control" quiere decir buscar y eliminar las causas de las anomalías siempre que los
puntos de un gráfico de control caigan fuera de los límites de control, i.e., cuando el
gráfico indica falta de control. "Ajuste" quiere decir realizar alguna acción reguladora tal
como alterar la temperatura cuando se exceden ciertos límites de ajuste. Generalmente,
es erróneo hacer ajustes tales como alterar la temperatura o cambiar la profundidad
de penetración de una herramienta cortante cuando algunos puntos caen fuera de los
límites de control en un gráfico de control. Tales ajustes pueden hacerse como medida
provisional, pero esto no elimina las verdaderas causas de la anomalía. Usualmente, los
límites de control y los de ajuste son intrínsecamente diferentes.

(CALIDAD TOTAL: FUENTE DE VENTAJA COMPETITIVA)

(Calidad total: fuente de ventaja competitiva de Juan José Tarí Guillo)

Evolución del concepto de calidad


El concepto de calidad ha ido evolucionando a través de la historia de la humanidad, a
partir de las exigencias del hombre por satisfacer sus necesidades. Tarí (2003) en su
libro control total de la calidad menciona cinco etapas que fueron claves para poder
alcanzar el actual enfoque integral o sistémico de la calidad. Siendo estas etapas las
siguientes: 1) edad media-revolución industrial, 2) revolución industrial-finales siglo XIX,
3) administración científica-II Guerra Mundial, 4) II Guerra Mundial-década de los
setenta y 5) década de los ochenta y noventa. Cada una de estas etapas se detalla a
continuación:
Edad media-revolución industrial
En esta etapa aparecen los artesanos que eran responsables de elaborar un producto
determinado y también eran los encargados de todo el proceso ya que muchas veces
trabajaban individualmente. La producción se realizaba en pequeños talleres y era
comercializada en los mercados locales, por este motivo la relación con los clientes era
muy cercana lo que permitía que estos den especificaciones sobre el producto que
quieren comprar lo cual obligaba al artesano a cumplir estas exigencias y así mejorar
sus habilidades. A partir del siglo XVII surgen cambios con la creación de las ciudades
que eran levantadas en zonas a apartadas de las comunidades rurales, esto dio paso a
que los artesanos decidan migrar a estas ciudades en las cuales veían más
oportunidades de poder comercializar sus productos. Debido al creciente comercio
dentro de las ciudades aparecen los mercaderes quienes compraban parte de la
producción a los artesanos para después vendida a diferentes precios establecidos por
ellos mismos, al existir esta especie de intermediarios entre productor y consumidores
los artesanos podían dedicarse solamente a producir olvidándose de otros aspectos y
de esta manera se incrementaba la producción a la vez que se daba mayor énfasis a la
calidad la cual dependía meramente del artesano y de sus habilidades (Tarí, 2003).
Revolución Industrial - finales siglo XIX
Con la aparición de la revolución industrial y de las grandes fábricas algunos artesanos
se vieron obligados a dejar sus actividades, algunos se convirtieron en empresarios, otro
grupo decidió ingresar como operarios en estas industrias, siendo solo un pequeño
grupo los que continuaban con su trabajo anterior. A finales de siglo XIX con la llegada
de las maquinas se producía un cambio total ya que los artesanos que ahora eran
operarios debían adaptarse y aprender a manipular estas nuevas tecnologías, que
además estaban destinadas para la producción a grandes volúmenes. Estos productos
elaborados dentro de las fábricas debían cumplir con especificaciones de los clientes
que eran dados al comprador el cual era encargado de diseñar y ajustar los requisitos
que debía poseer cada producto para después pasar esta información a los operarios
para su elaboración. De esta manera seguía existiendo una estrecha relación entre el
cliente y el productor a fin de que el producto final sea de acuerdo a los deseos del
consumidor y tenga buena calidad que en esta etapa de igual manera seguía
dependiendo de las habilidades que tenía cada uno de los operarios anteriormente
artesanos (Tarí, 2003).
Administración científica - II Guerra Mundial
La relación que había existido entre productor y cliente desaparece totalmente a finales
del siglo XIX en los Estados Unidos, dando así inicio a un nuevo proceso en el cual se
implanto una estricta división y estandarización del trabajo cambiando completamente
las condiciones y los métodos con los que se realizaban. Estos cambios fueron
causantes de un deterioro en la calidad de los productos debido a la producción en serie
que se tenía era muy frecuente que los operarios cometieran errores, que se olvidaran
de colocar piezas provocando así la entrega de artículos defectuosos. En vista de estos
primeros problemas las industrias se vieron en la necesidad de crear una nueva función
en la cual una persona seria la encargada de realizar la inspección y verificar que
productos cumplían con los requerimientos y cuáles no, dejando atrás esta
responsabilidad que antes era de los operarios y pasándosela al inspector. Aunque la
calidad en esta etapa no era realmente considerado como un problema que debía
corregirse inmediatamente ya que al haber poco abastecimiento en los mercados esto
hacia que los productos sean consumidos en su totalidad. La calidad en si solo se
empieza a estudiar a principios del siglo XX una vez que se la fue relacionando con los
ya implementados términos de inspección que para entonces ya estaban puestos en
marcha dentro de las industrias (Tarí, 2003).

II Guerra Mundial - Década de los setenta


Después de la II Guerra Mundial la calidad tomaba dos caminos diferentes, por un lado
estaba occidente los cuales se mantenían con su enfoque basado netamente en la
inspección de los productos, por otro lado hace su aparición el enfoque japonés el cual
era muy diferente a los que hasta entonces se conocía en occidente. En Japón se habían
empezado a emplear diferentes métodos estadísticos para el control de calidad, lo cual
no se hacía en occidente ya que no se daba mayor importancia a la calidad debido a
que en estos mercados sus productos eran vendidos con facilidad debido al poco
abastecimiento que existía en ese entonces. El control de calidad tenia cierto límite que
era enfocarse solo en la planta productiva, pero este enfoque fue ampliado gracias a las
lecciones del Dr. Juran sobre el arte del Quality management, las cuales fueron puestas
en prácticas en Japón y no en EE.UU., por este motivo la calidad empezó a ser vista de
forma mucho más amplia por la administración de las empresas japonesas. Durante la
década de los 50 Japón comprendió que los artículos debían producirse de manera
correcta desde el principio para no tener problemas al final. Por tal motivo además de
realizar la inspección al producto terminado se enfocaron en buscar la manera de
controlar los factores que intervenían en el proceso y que podían ocasionar productos
defectuosos. En vista de esto las empresas japonesas debían realizar una
estructuración de la empresa ya que la aplicación del control de calidad iba más allá de
solo el departamento de producción. Por lo cual para desarrollar un producto de buena
calidad era necesario que todos los departamentos de la empresa estén involucrados
en el proceso. Por otro lado las empresas en occidente no evolucionaban y
consideraban todavía la inspección como sinónimo de calidad, por lo cual seguían
desarrollando técnicas que se basaban netamente en la inspección del producto final
mediante las cuales podían determinar si un producto era idóneo, debido a esto existía
gran cantidad de eliminación de producto y reproceso lo que ocasionaba que los costes
de fabricación aumenten siendo los principales afectados los clientes (Tarí, 2003).
Década de los ochenta y noventa
A mediados de los años setenta occidente se empieza a dar cuanta de la gran ventaja
que Japón tenia y el liderazgo que había conseguido producto de una reestructuración
de su cultura referente a la calidad. Mientras que en occidente esta cultura se basaba
en la productividad, los cuales con la llegada de la crisis petrolera se vieron en la
necesidad de ahorrar energía y disminuir los costes de producción lo cual solo se
lograría si se reducía los desperdicios y reprocesos que en ese entonces eran muy
elevados. Así empieza la etapa en la cual la competencia era cada vez más fuerte
debido a la globalización de los mercados lo que ocasiona que la industria
estadounidense empiece a perder el liderazgo que había obtenido por décadas en
diferentes sectores. Los mercados se enfrentan ahora a consumidores cada vez más
informados que ya no se conforman solamente con recibir un producto sino que
empiezan a exigir la calidad como factor determinante para adquirir un bien o servicio.
El enfoque japonés sobre la prevención en vez de la inspección pasa a ser parte
importante a nivel mundial teniendo a la calidad como único requisito para que una
empresa pueda ser competitiva, debido a esto durante los años ochenta y noventa las
empresas de todo el mundo tratan de importar soluciones empeladas por los japoneses,
retomando así la estrecha relación entre cliente y productor que se había distanciado
durante gran parte del siglo XX (Tarí, 2003).

(CONTROL ESTADISTICO DE LA CALIDAD)


(Madrigal, Maldonado, Rafael. Control estadístico de la calidad: un enfoque creativo,
Grupo Editorial Patria, 2018. ProQuest Ebook Central,
http://ebookcentral.proquest.com/lib/ucesp/detail.action?docID=5513414.)

Antecedentes históricos de la calidad


El objetivo de la calidad a finales del siglo xix siempre fue la producción, el cambio en
el proceso de producción consiguió cambios en la organización de la empresa. (pag. 8)
Tari (2000) señala que fue necesario introducir procedimientos específicos en las
fábricas para atender la calidad en los productos fabricados de forma masiva. (pag.8)
W.A Shewart. De bell telephone laboratorios en 1924 diseño una gráfica de estadísticas
para controlar las variables de un producto, con este suceso inicio la era del control
estadístico de la calidad. (pag.8)

Deming, juran y Crosby son calificados como los “gurús de la administración”, Josepth
Juran contribuyo a destacar el importante compromiso que tiene el área gerencial para
el logro de la calidad. Philip Crosby creo el movimiento cero defectos en Martin Marietta
durante la década de 1960, el principio de él era hacer las cosas en forma correcta
desde el principio. (pag.11)
El Dr. Taguchi diseño una combinación de herramientas estadísticas para la mejoras en
costos calidad, mediante la optimización del diseño de los productos y el proceso de
elaboración. (pag.11)
La primera generación en la historia de la calidad se caracterizó por tener como punto
clave la calidad del producto. (pag.11)
Habilidad y capacidad del proceso
Antes de hablar sobre la capacidad del proceso se mencionan algunas definiciones que
nos ayudara en la compresión del mismo (Castillo, 2017) (pag.112)
Proceso Combinación única de máquinas, herramientas, métodos, materiales y
personas involucradas en la producción. (pag.112)
Capacidad o habilidad Término utilizado en el sentido de aptitud, basada en el
desempeño probado, para lograr resultados que puedan medirse. (pag.112)
Capacidad del proceso Aptitud del proceso para producir productos dentro de los límites
de especificaciones de calidad. (pag.112)
Capacidad medida Se refiere al hecho de que la capacidad del proceso se cuantifica a
partir de datos que, a su vez, son resultado de la medición del trabajo realizado por el
proceso. (pag.113)
Capacidad inherente Uniformidad del producto que resulta de un proceso que se
encuentra en estado de control estadístico, es decir, en ausencia de causas especiales
o atribuibles de variación. (pag.113)
Variabilidad natural Los productos fabricados nunca son idénticos sino que presentan
cierta variabilidad. Cuando el proceso está bajo control, solo actúan las causas comunes
de variación en las características de calidad. (pag.113)
El análisis de capacidad del proceso se define como el estudio de ingeniería para
estimar la capacidad del proceso. La estimación puede estar representada en una
distribución de probabilidad. (pag.113)
Gonzales (2016) una necesidad muy frecuente en los procesos consiste en evaluar la
variabilidad y tendencia central de una característica de calidad. El hecho de que un
proceso esté en control estadístico significa que no existen causas especiales de
variación y al existir dicha variación fueron identificadas y eliminadas. (pag.113)
Evaluación de la capacidad de un proceso
El resultado de un proceso suele tener una o más características medibles, dichas
características pueden analizarse de manera estadística si los datos del resultado
muestran una distribución normal. (pag.113)
La capacidad del proceso solo involucra una variación de causa común y no una
variación de causa especial, para comprobar si un proceso es capaz o no, se deben
usar herramientas graficas como son: histogramas, gráficos de control y gráficos de
probabilidad. (pag.114)
Para que un proceso sea considerado capaz, su variación actual no debería representar
más de 75% de la variación permitida. (Castillo, 2017) (pag.114)

Conceptos generales y principios del CEP


Una gráfica de control es una herramienta utilizada para monitorear las características
de calidad que se requieren controlar durante un proceso, estableciendo por anticipado
un intervalo de control que nos permite observar la variabilidad. (pag.134)
Una gráfica de control es un diagrama que sirve para examinar si un proceso se
encuentra en una condición estable, o para asegurar que se mantenga en esa condición
(SPC, Consulting Group, 2013) (pag.134)
Se utilizan para identificar posibles inestabilidades y circunstancias anómalas que
afecten la calidad del producto final. En el momento en el que uno o varios puntos
aparecen fuera de los límites establecidos o no representan una distribución estadística
gaussiana, se considera que el proceso esta descontrolado y comienza la búsqueda de
la causa de su mal funcionamiento (PDCAhome, 2017) (pag.135)

Existen dos tipos de graficas de control que son: (pag.135)


Gráficos por variables.- se enfocan en información cuantitativa (longitud, Kg, presión,
temperatura, etc.)
Graficas por atributos.- es información meramente cualitativa, se caracteriza por utilizar
los cinco sentidos y obtener (olores, sabores, colores, etc.)
El control estadístico de procesos es una técnica que permite controlar las
características o atributos de los procesos, productos y servicios a lo largo de la cadena
productiva. (pag.135)
Dos de los principios de esta herramienta para la mejora continua son: el CEP es la
brújula que permite a las organizaciones orientar el rumbo. (pag.135)
Los gráficos de control apoyados con otras herramientas controlan y regulan las
mermas, de tal forma que los costos de producción se minimicen. Un proceso bajo
control estadístico puede ser mejorado mediante la reducción de la variabilidad natural
o aleatoria. (pag.135)
El índice de capacidad del proceso, también denominado ratio de capacidad del
proceso, es un cálculo estadístico sobre la capacidad de un proceso para producir un
resultado dentro de unos límites predefinidos (límite superior y límite inferior). (pag.163)
Uno de los requisitos para realizar un estudio de índices de capacidad es que el proceso
se encuentre estadísticamente estable y las medidas individuales del proceso sigan una
distribución normal. (pag.164)

(PRINCIPIOS DE ADMINISTRACION DE OPERACIONES)


(Principios de Administración de Operaciones de Jay Heizer y Barry Render)
DEFINICIÓN DE CALIDAD
Existen diversas definiciones de calidad una de ellas como hacen referencia Render y
Heizer (2014) la calidad tiene tres enfoques vistos desde diferentes puntos el primero
es un enfoque basado en el usuario mediante el cual debe realizarse una investigación
previa para conocer las necesidades y requerimientos del usuario. El segundo enfoque
está basado en el producto el cual adquiere las características o atributos que fueron
previamente indagados. Como tercer enfoque se presenta a la manufactura que se
encarga de elaborar y asegurar que el producto cumpla con las especificaciones
previamente establecidas para ser considerado de buena calidad. Dentro de cualquier
proceso de elaboración de un producto o servicio si se deja a un lado solo uno de estos
enfoques será razón suficiente para obtener como resultado un producto de mala
calidad.

CONCEPTOS DE TAGUCHI
En el libro principios de administración de operaciones de Render y Heizer (2014) se
pone en énfasis tres conceptos planteados por Genichi Taguchi que considera muy
importantes para lograr una mejora de la calidad en el producto y también en el proceso.
Estos tres conceptos son: calidad robusta, función de pérdida de calidad, y calidad
orientada hacia una meta.
Calidad robusta.- son aquellos productos se elaboran de una manera muy uniforme a
pesar de estar expuestos a condiciones no favorables tanto de manufactura como
ambientales. De esta manera Taguchi plantea que se debería eliminar los efectos que
provocan estas condiciones en lugar de eliminar las causas ya que esto resultaría más
barato logrando que de esta manera las pequeñas variaciones presentes en los
materiales y en los procesos no afecten la calidad del producto.
Función de pérdida de calidad.- esta función nos ayuda a poder identificar todos los
costos que se relacionan con la mala calidad de un producto y nos va mostrando la
forma en que aumenta a medida que un producto se desvía de las especificaciones
deseadas por un cliente. Dentro de estos costos además se incluyen los costos
relacionados con la garantía, los costos internos de inspección, costos de reparación,
costos de mantenimiento, y los costos ocasionados por la gran cantidad de desperdicios.
Cuando menor sea la perdida en la elaboración de un producto y su posterior uso, este
será más deseable para los clientes.
La calidad orientada hacia una meta.- para Taguchi cuando un producto está
orientado al cumplimiento de ciertas especificaciones es algo demasiado simple ya que
solo se enfoca en que estos productos caigan dentro de los límites de tolerancia,
aceptándose todos aquellos que estén dentro de estos límites aunque estén lejos de la
meta, esto hace que la perdida (costo) se incrementa en términos de satisfacción de los
clientes. Mientras que la calidad orientada hacia una meta hace que los productos se
centren en torno a las especificaciones que se desean cumplir, de esta manera se podrá
obtener más unidades cercanas a la meta establecida.

En el grafico se puede observar como Taguchi tiene su enfoque hacia la meta ya que si
los productos que se fabrican solo se acercan a los límites de tolerancia inferior y
superior establecidos provocara que la función de pérdida de calidad sea más alta.

CONTROL ESTADÍSTICO DEL PROCESO (SPC)


El control estadístico de procesos es una técnica que se utiliza en la producción de
bienes o servicios para asegurarse de que estos procesos de manufactura o de
prestación de servicios puedan cumplir con los estándares que han sido previamente
establecidos. En todos los procesos existe cierto grado de variabilidad que muchas
veces no es apreciada a simple vista, dicha variabilidad es separada en dos partes por
Walter Shewhart en 1920 mientras realizaba un estudio de datos del proceso de
laboratorios Bell y nombrándolas como causas comunes y causas especiales de
variación. En vista de la necesidad de identificarlas y separarlas en los procesos
Shewhart desarrollo la gráfica de control que es muy utilizadas hasta el presente. El
control estadístico de procesos es utilizado cuando se quiere conocer o medir el
desempeño que tiene un proceso llegando a ser un proceso bajo control estadístico
cuando solo tiene como fuente de variación a las causas comunes o también llamadas
causas naturales. Las causas especiales de variación deben ser detectadas y
eliminadas para que de esta manera se pueda tener un proceso predecible y dar lugar
a evaluaciones que probaran su habilidad para satisfacer las necesidades y
requerimientos de los clientes. De esta manera aplicando el control estadístico de
procesos se logra descubrir cuando en un proceso se presenta causas especiales de
variación y así poder tomar una acción correctiva inmediata para corregir o eliminar
dichas causas (Render y Heizer, 2014).
Variaciones naturales (comunes)
Las variaciones por causas naturales están presentes en todos los procesos de
producción aun cuando estos se encuentren bajo control estadístico, estas variaciones
provienen de diferentes fuentes que forman parte directa o indirecta del proceso. Estas
variaciones llegan a formar un sistema constante de causas probabilísticas que
individualmente no representan mayor diferencia pero agrupadas forman un patrón que
puede representarse como una distribución. Cuando la distribución obtenida de los
resultados obtenidos de los datos del proceso se encuentra dentro de los límites de
tolerancia especificados se puede decir que el proceso se encuentra bajo control y estas
variaciones naturales son toleradas (Render y Heizer, 2014).
Variaciones asignables (especiales)
Dentro de un proceso las variaciones asignables son aquellas que pueden ser
identificadas y rastreadas hasta llegar a su fuente. Estas causas de variación se pueden
presentar debido a muchos factores como pueden ser la descalibracion de los equipos,
falta de mantenimiento de la maquinaria, el cansancio por parte de los operarios, mala
capacitación para manejar la maquinaria o adquirir nuevos proveedores de materias
primas. El personal encargado de administrar las operaciones o los procesos se enfrenta
constantemente a dos tareas que es asegurarse de la capacidad del proceso para
operar bajo control teniendo en cuenta solo las variaciones naturales y por otro lado
poder identificar las variaciones por causas asignables y aplicar las acciones correctivas
necesarias para mantener el proceso bajo control estadístico (Render y Heizer, 2014).
Gráficas de control
Las gráficas de control nos permiten graficar las muestras de datos obtenidos del
proceso y examinar las características que poseen para después en base a esta
información poder observar si el proceso se encuentra dentro de los límites de control
establecidos. Las gráficas de control tienen como propósito ayudarnos a distinguir
cuando un proceso está trabajando solo con variaciones naturales y cuando están
presentes variaciones provocadas por causas asignables. Un procesos puede adoptar
tres tipos de resultados que los distinguen entre sí, el primero es cuando un proceso se
encuentra bajo control y también es capaz de producir dentro de los límites de control
establecidos, el segundo cuando un proceso está bajo control pero no es capaz de
producir dentro de los límites de control establecidos, y la tercera es cuando un proceso
se encuentra fuera de control (Render y Heizer, 2014).
Los tres tipos de resultados que se pueden presentar en un proceso como lo vimos
anteriormente se distinguen entre si ya que cada uno tiene sus propias características.
Render y Heizer (2014) presentan un gráfico en cual se describe con mayor detalle cada
una de las particularidades con que cuentan cada uno de estos.
Gráficas de control para variables
Cuando se trabaja con variables que poseen dimensiones continuas tales como el peso,
longitud, fuerza, temperatura o velocidad, las graficas utilizadas en estos casos son las
gráficas de control x-barra para la media y las gráficas R para el rango. La grafica x-
barra nos ayuda a identificar si han ocurrido cambios en la tendencia central del proceso
que en este caso sería cambios en la media del proceso, mismos cambios que pueden
presentarse debido al desgaste natural que tienen con el uso las herramientas, cambios
en la temperatura del ambiente, procedimientos diferentes con cada cambio de turno de
los operarios o la adquisidor de nueva materia prima o insumos. Por otro lado la gráfica
R indica si existe un aumento o disminución en la dispersión de los datos, lo cual se
puede presentar debido a la descalibracion de las herramientas o maquinarias, mal flujo
de los componentes necesarios para la elaboración de un producto o también al
cansancio o descuido por parte de los operarios. Estos dos tipos de gráficos son muy
importantes al momento de monitorear las variables es por esto que se deben utilizar al
mismo tiempo para medir la tendencia central y la dispersión que son dos parámetros
críticos (Render y Heizer, 2014).
Teorema del límite central
Las gráficas x-barra tienen su fundamento teórico en el teorema del límite central el cual
establece que sin importar que distribución tenga una población de datos, la distribución
de las medias de cada una de las muestras obtenidas de una población tiende a seguir
una curva normal, a medida que aumenta el número de muestras, a pesar de que una
muestra (n) sea pequeña es decir menor a cinco la distribución de los promedios seguirá
una curva normal. Dentro del teorema del límite central también se establece que la
media de la distribución de las medias será igual a la media de la población total que se
denota con el símbolo μ, mientras que la desviación estándar de la distribución de las
muestras será equivalente a la desviación estándar de la población que se divide entre
la raíz cuadrada del tamaño de la muestra n (Render y Heizer, 2014).
En el siguiente grafico se puede apreciar de manera más detallada la representación
del teorema del límite central.
Se muestran tres distribuciones poblacionales diferentes cada una con su media y
desviación estándar de las cuales si se toma una serie de muestras aleatorias de
tamaño n, la distribución resultante de estas muestras darán como resultado una
distribución normal. Al tener una distribución de las muestras normal se puede decir que
el 95.45% de las veces, los promedios de las muestras caerán dentro de  2
desviaciones estándar tomando en cuenta que el proceso tiene sólo variaciones
naturales. El 99.73% de las veces, los promedios de las muestras caerán dentro de 
3 desviaciones estándar si el proceso tiene sólo variaciones naturales. Mientras que si
un punto de la gráfica de control llega a caer fuera de los límites de control, entonces
estamos un 99.73% seguros de que el proceso ha cambiado. Toda esta teoría es
fundamental para dar un buen respaldo a las gráficas de control (Render y Heizer, 2014).
Determinación de los límites de la gráfica de la media (gráficas )
Si queremos determinar los límites de control para la gráfica de la media debemos
conocer la desviación estándar de la población de un proceso a partir de datos
históricos, si cumplimos con este requisito podemos aplicar las siguientes formulas:

𝑙𝑖𝑚𝑖𝑡𝑒 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙 𝑠𝑢𝑝𝑒𝑟𝑖𝑜 (𝐿𝐶𝑆) = X + 𝑍𝜎

𝑙𝑖𝑚𝑖𝑡𝑒 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟 (𝐿𝐶𝐼) = X − 𝑍𝜎

Donde

X = media de las medias muestrales o el valor meta establecido para el proceso


Z = número de desviaciones estándar (2 para el 95.45% de confianza, 3 para el
99.73%)
σ = desviación estándar de las medias muestrales = σ𝑛 √
σ = desviación estándar de la población (proceso)
n = tamaño de la muestra

Muchas de las veces no tenemos disponibles las desviaciones estándar del proceso por
lo que en estos casos se puede calcular los límites en base a los valores del rango
promedio para esto existen establecidos ciertos valores en tablas estandarizadas para
hacer posible estos cálculos. El rango se obtiene de la diferencia entre el valor más
grande y el valor más pequeño que se obtienen de las muestras. Las formulas y la tabla
necesaria para realizar estos cálculos son los presentados a continuación:
𝐿𝐶𝑆 = X +A2 R

𝐿𝐶𝐼 = X −A2 R

Donde

X = media de las medias muestrales o el valor meta establecido para el proceso


A2 = valor encontrado en la tabla
R = rango promedio de las muestras

Determinación de los límites de la gráfica del rango (gráficas R)

A pesar de que el promedio del proceso este aparentemente bajo control, la dispersión
del proceso podría no estarlo debido a fallas en las maquinarias lo que ocasionaría que
existan grandes diferencias entre piezas fabricadas lo que daría como resultado altas
variaciones en las muestras obtenidas del proceso. Las gráficas de control de rangos
juegan un papel muy importante ya que permiten observar la variabilidad dentro del
proceso su teoría se basa en la misma aplicada a las gráficas de control de promedios.
Para establecer los límites de control para la gráfica de rangos se aplica las siguientes
formulas:

𝐿𝐶𝑆𝑅 =D4 R

𝐿𝐶𝐼𝑅 = D3 R

Donde

LCSR= límite de control superior de la gráfica para el rango


LCSI = límite de control inferior de la gráfica para el rango
D4 y D3 = valores de la tabla

Uso de las gráficas de la media y del rango

Las gráficas x-barra y la gráfica R imitan dos parámetros que definen a una distribución
normal las cuales son la media y el rango, siendo que por un lado la gráfica x-barra es
muy sensible a cambios producidos en la media del procesos, por otro lado la gráfica R
es sensible a los cambios que se producen en la desviación estándar del proceso.
Cuando usamos estas dos graficas podemos dar un seguimiento muy preciso y observar
los cambios que ocurren en la distribución de cualquier proceso (Render y Heizer, 2014).

En el siguiente grafico se puede observar la utilización de ambos gráficos y como se


afecta la media y el rango al detectar cambios en la distribución de los datos.
En la parte (a) del grafico se puede observar como la media del proceso va sufriendo
cambios que alteran la tendencia central, sin embargo como la dispersión sigue siendo
constante no se detectan cambios en la gráfica R. mientras que en la parte (b) del grafico
no se detectan cambios en la tendencia central del proceso debido a que la media
muestral es constante, pero en este caso la dispersión va incrementándose y es
detectada inmediatamente por la gráfica R.

Pasos a seguir cuando se usan las gráficas de control

El uso de estas graficas es muy importante y por tal motivo se las debe emplear de una
manera correcta es por esto que Render y Heizer (2014) ponen en énfasis cinco pasos
fundamentales que se deben seguir al momento de emplear las gráficas y R, los
mismos que se describen a continuación:

1. Recolectar 20 o 25 muestras, a menudo de n =4 o n =5 observaciones cada una,


a partir de un proceso estable y calcular la media y el rango de cada una.
2. Calcular las medias globales X y R , establecer los límites de control apropiados,
usualmente en el nivel del 99.73%, y calcular los límites de control superior e
inferior preliminares.
3. Graficar las medias y los rangos de las muestras en sus respectivas gráficas de
control y determinar si caen fuera de los límites aceptables.
4. Investigar los puntos o patrones que indiquen que el proceso está fuera de
control. Tratar de asignar las causas de la variación, enfrentarlas, y después
reanudar el proceso.
5. Recolectar muestras adicionales y, de ser necesario, revalidar los límites de
control con los nuevos datos.
Gráficas de control por atributos
Las gráficas de control para 𝑥̅ y R no se pueden aplicar a los muestreos de atributos, ya
que estos se clasifican como defectuosos o no defectuosos, y esto implica contar los
artículos defectuosos por ejemplo, número de lámparas malas en un lote, o número de
datos ingresados con error. Existen dos tipos de graficas de control por atributos que
son:
1. Graficas p.- miden el porcentaje de defectos encontrados en una muestra
determinada.
2. Graficas c.- indican el número de defectos por unidad de producción.
El uso de graficas p es la manera más práctica de tener un control de los atributos, para
obtener los límites de la gráfica p se puede utilizar la distribución normal, aun cuando
los atributos sigan una distribución binomial, siempre y cuando las muestras sean
grandes.
Un registro defectuoso es aquel que presenta al menos un defecto, y un registro malo
es el que contiene más de un defecto.
Las gráficas de control de defectos son muy favorables para dar seguimiento a procesos
en los que existe un gran número de errores potenciales.
Las fórmulas para calcular los límites de control superior e inferior para la gráfica p son:

La distribución de probabilidad de Poisson, donde la varianza es igual a la media, es la


base de las gráficas c. Como 𝑐̅ es el número promedio de defectos por unidad, la
desviación estándar es igual a √𝑐̅. Para calcular límites de control del 99.73% para 𝑐̅,
utilizamos la fórmula:

En un mundo ideal, la calidad es uniforme y alta que los empleados no necesitan tomar
muestras y monitorear las variables y atributos a través de graficas de control o
herramientas estadísticas útiles para observar la calidad del proceso, sin embargo los
procesos aún tienen falencias que no permiten que lleguen a la perfección, es por esto
que los administradores o la alta gerencia debe tomar en cuenta tres aspectos
importantes sobre el uso de las gráficas de control.
1. Deben identificar las fases críticas de su proceso que necesitan SPC.
2. Decidir qué tipo de graficas son las adecuadas para aplicar, ya sean las gráficas
de variables o las gráficas de atributos.
3. Establecer políticas de SPC claras y precisas que los empleados deben seguir.
Existe una herramienta conocida como corrida de prueba que es utilizada para identificar
el tipo de anomalías divisadas en un proceso, como son variaciones no aleatorias.
Aunque todos los puntos caigan dentro de los límites de control, surge una señal. Esto
significa que el proceso no puede estar estadísticamente bajo control.

HABILIDAD DEL PROCESO


El control estadístico del proceso implica mantener un proceso bajo control. La variación
natural del proceso debe ser estable.
La habilidad de un proceso para cumplir las especificaciones de diseño, establecidas
por ingeniería de diseño o por los requerimientos del cliente, se denomina habilidad del
proceso.
Aun cuando un proceso esté bajo control estadístico (estable), el resultado de ese
proceso podría no apegarse a las especificaciones. Si no es así, los requerimientos de
algunos clientes no quedarán satisfechos. Existen dos medidas populares para
determinar cuantitativamente si un proceso es capaz: la razón de habilidad del proceso
(Cp) y el índice de habilidad del proceso (Cpk).

Razón de habilidad del proceso (Cp) Para que un proceso sea capaz, sus valores deben
caer dentro de las especificaciones superior e inferior. Significa que la habilidad del
proceso está dentro de ±3 desviaciones estándar de la media del proceso. Como este
rango de valores es de 6 desviaciones estándar, las especificaciones superior e inferior,
debe ser mayor o igual a 6.
La razón de la habilidad del proceso, Cp, se calcula como:
Un proceso capaz tiene una Cp de al menos 1.0. Si la Cp es menor que 1.0, el proceso
da como resultado productos o servicios que están fuera de su tolerancia permitida. Con
una Cp de 1.0, se espera que 2.7 partes en 1,000 estén “fuera de las especificaciones”.
Entre mayor sea la razón de habilidad del proceso, mayor será la probabilidad de que
el proceso esté dentro de las especificaciones de diseño.
Muchas empresas han elegido como meta una razón Cp de 1.33 (un estándar de 4
sigma) para reducir la variabilidad del proceso. Esperan que sólo 64 partes por millón
estén fuera de lo especificado.
Cp Razón para determinar si un proceso cumple con las especificaciones de diseño;
cociente de la especificación sobre la variación del proceso.

Índice de habilidad del proceso (Cpk)


El índice de habilidad del proceso, Cpk, mide la diferencia que hay entre las dimensiones
deseadas y las reales de los bienes o servicios producidos. La fórmula para Cpk es:

El índice Cpk para los límites de especificación superior e inferior es igual a 1.0, la
variación del proceso se centra y el proceso es capaz de producir dentro de 3
desviaciones estándar (menos de 2,700 defectos por millón). Un Cpk de 2.0 significa
que el proceso es capaz de producir menos de 3.4 defectos por millón. Para que el Cpk
sea mayor que 1, σ debe ser menor que de la diferencia que hay entre la especificación
y la media del proceso 𝑥̅
Cp y Cpk serán iguales cuando el proceso esté centrado.
Cpk Proporción de la variación natural (3σ) que hay entre el centro del proceso y el límite
de especificación más cercano.
MUESTREO DE ACEPTACIÓN
El muestreo de aceptación es una manera de realizar pruebas que implica tomar
muestras aleatorias de “lotes” o grupos de productos terminados para medirlas contra
estándares predeterminados. Aunque mediante el muestreo de aceptación se pueden
inspeccionar tanto los atributos como las variables, es más común usar la inspección
por atributos. El muestreo de aceptación suele aplicarse cuando los materiales llegan a
la planta o en la inspección final, pero casi siempre se usa para controlar los lotes de
productos comprados entrantes. Sin embargo, el muestreo de aceptación no es un
sustituto de los controles adecuados del proceso. De hecho, el enfoque actual es
construir controles estadísticos de calidad para los proveedores con el propósito de que
el muestreo de aceptación pueda eliminarse.
Muestreo de aceptación Método de medición contra estándares predeterminados, de
muestras aleatorias de lotes o grupos de productos.
Curva característica de operación
Describe qué tan bien discrimina entre lotes buenos y malos un plan de aceptación.
Pertenece a un plan específico es decir, a una combinación de n (tamaño de la muestra)
y c (nivel de aceptación. Al especificar un plan de muestreo, cada parte quiere evitar los
costosos errores de aceptar o rechazar un lote. La curva OC muestra las características
de un plan de muestreo en particular, incluyendo los riesgos de tomar una decisión
equivocada. El AQL (Aceptable Quality Level; nivel de calidad aceptable) es el nivel de
calidad más bajo que se está dispuesto a aceptar. Deseamos aceptar lotes con este
nivel de calidad o mejor, pero no peor. El LTPD (Lot Tolerance Percent Defective;
porcentaje de defectos tolerados en el lote) es el nivel de calidad de un lote considerado
malo.
Calidad de salida promedio
El uso de esta técnica de reemplazo mejora la calidad de producción promedio en
términos del porcentaje de defectos. La AOQ (Average Outgoing Quality; calidad de
salida promedio) como un porcentaje de defectos. La ecuación para la AOQ es:

El valor máximo de la AOQ corresponde al porcentaje de defectos promedio más alto o


a la calidad promedio más baja para el plan de muestreo. El muestreo de aceptación es
útil para tamizar los lotes entrantes. Cuando se reemplazan las partes defectuosas con
partes buenas, el muestreo de aceptación ayuda a incrementar la calidad de los lotes al
reducir el porcentaje de defectos de salida.

Вам также может понравиться