Logo Studenta

Control Estadístico de Procesos Resumen - Noemi Morales

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
Control Estadístico de Procesos 
Fundamentos estadísticos 
La ciencia estadística es un instrumento utilizado para estudiar las variaciones ocurridas en el proceso de 
fabricación, el analizar estas variaciones es el objeto de las mismas. 
Siempre existe cierta variación en un proceso ya que no existe maquinaria que funciones exactamente igual todo 
el tiempo existiendo mínimas variaciones. Por esta razón los técnicos fijan una calidad denominada como límite 
de tolerancia, y es el reconocimiento de cierta variación en el proceso. 
Las causas de la variación pueden ser aleatorias o asignables. Al ser la producción un conjunto entre el operario, 
la maquina y el material, existen variaciones que son producidas por el azar y no son fáciles de eliminar o 
identificar, estas son aleatorias. En cambio, si la variación es producida por factores determinables y corregibles, 
esta entonces es asignable. 
El límite que separa estas variables es el control, viendo así si por ejemplo una maquina u otro factor está 
funcionando fuera de los limites estipulados por los técnicos, indicando que es necesario tomar medidas. 
Distribución de frecuencias. 
Con el fin de conocer la variación se recopilan datos, se ordenan, se agrupan y se representan gráficamente. La 
distribución de frecuencias es la tabulación del número de veces que ocurre una medida dentro de una muestra 
o un colectivo, este número de veces es llamado frecuencia. Si esta se expresa como porcentaje entonces es 
relativa, el cual se calcula como la frecuencia absoluta sobre la total. 
𝑓𝑟𝑒𝑐𝑢𝑎𝑛𝑐𝑖𝑎 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑎 =
𝑓𝑟𝑒𝑐𝑢𝑎𝑛𝑐𝑖𝑎 𝑎𝑏𝑠𝑜𝑙𝑢𝑡𝑎
𝑓𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑡𝑜𝑡𝑎𝑙
 
 
 
Un conjunto de datos se puede representar de diversas formas, siendo la más utilizada el histograma: 
 
Se debe diferenciar la variación natural del proceso con la variación establecida o permitida desde la oficina 
técnica. Se ve que las muestras hacen centrar la gráfica en un valor medio y existe cierta variación, la cual se 
llama variación natural. 
2 
 
Se puede observar que las líneas de puntos son la variación permitida o 
establecida mientras que las continuas corresponden a la variación natural del 
proceso. A partir de la observación se ve que la maquinaria trabaja dentro de los 
parámetros permitidos, por lo que posee la capacidad de cumplir las exigencias 
técnicas, siendo también el proceso económico por no producir chatarra. Sin 
embrago se observa que la tendencia central esta desviada (debería ser 0.3), esto 
también significa que la maquina podría producir piezas más allá del límite 
superior. 
 
 
Distribuciones de frecuencias respecto a las tolerancias. 
 
El campo de variación natural es inferior a la tolerancia y la maquina se 
encuentra bien centrada. 
 
La variación natural es más estrecha que las tolerancias, pero la maquina no está 
centrada por lo que existirá un porcentaje de piezas defectuosas. 
 
 
La variación natural es más amplia que las tolerancias, sin embargo, la maquina 
está centrada por lo que se deberá verificar si desde oficina técnica se pueden 
ampliar las tolerancias, en caso negativo, se debe cambiar de máquina o 
inspeccionar el 100% de las piezas y esto es caro. 
 
La distribución truncada es la que se realiza después de inspeccionar el 100% de las piezas 
con el fin de que todas se encuentren dentro de la tolerancia. 
 
 
En el caso de una distribucion truncada mal hecha donde se han 
dejado piezas defetuosas sin apartarse se representa de la siguiente manera. 
 
3 
 
 
 
En este caso es una distribución truncada en la inspección de 100% mal hecha por 
imprecisión de los instrumentos de medición. 
 
 
Esta es una distribución de frecuencias bimodal, esto puede ocurrir por mezclar dos 
fuentes de producción o dos materias primas de distintos proveedores. Si las 
variaciones son mayores a la tolerancia se debe buscar la razón y modificara, sino 
no pasa nada, siempre que me mantenga en especificación. 
 
 
Esta es una distribución de frecuencia con antipatía de los números medios. Puede 
ocurrir cuando la escala de medidas es muy exacta pero los instrumentos usados 
carecen de la precisión necesaria. Los valores medios serán decididos por apreciación. 
 
Esta es una distribución de frecuencia rectangular. Esta se da cuando el operario 
mueve el reglaje en cada pieza y ofrece igual posibilidad a las piezas en todas las 
medidas. Este proceso es antieconómico para el operario. 
 
 
Medida del valor central. 
Existen varias medidas del valor central, la más utilizada es la media aritmética. Se calcula del siguiente modo: 
X̅ =
∑ Xi
n
=
∑ 𝑓Xi
f
 
Siendo n el número de datos, xi cada dato y f la frecuencia. 
Medida de dispersión o variación. 
Es el grado de variación de los datos que tienden a dispersarse con respecto a su valor central. Existen diversas 
variables: 
- Recorrido: es la diferencia entre el valor mayor y el menor de los datos, sirve solo para pocos datos (unos 15), ya 
que cuando hay muchos valores pierde utilidad. 
- Desviación standard: es la raíz del promedio de las desviaciones cuadráticas, la desviación es la diferencia entre 
el valor individual y el valor medio: 
4 
 
S = √
∑(Xi − �̅�)
2
N
 
Probabilidad. 
Se sabe que la probabilidad varia de 0 a 1, siendo el cero la certeza de que no ocurre y el 1 la certeza de que 
ocurre. No siempre se puede asegurar esto, por lo cual se aproximan con las frecuencias relativas. En un lote lo 
suficientemente grande, se puede aproximar la probabilidad como la frecuencia relativa de una parte de la 
producción. 
Cálculo de probabilidades. 
Existen dos leyes fundamentales: 
- Ley de adición: la probabilidad de que dos sucesos compatibles ocurran es la suma de sus probabilidades 
individuales, mientras que si son incompatibles no se suman. Siempre hay que tener en cuanta de no contabilizar 
las cosas dos veces para no aumentar la probabilidad de modo arbitrario e irreal. 
- Ley de multiplicación: se usa para calcular la probabilidad de que un suceso ocurra n veces consecutivas, si el 
muestreo es con reposición se obtendrá la probabilidad elevada a la n, si es sin reposición, la probabilidad irá 
variando y se multiplican las probabilidades individuales. 
Distribución normal. 
Si a un conjunto de valores los ordeno, los agrupo y hago un histograma, obtengo una gráfica como las anteriores, 
a medida que los grupos son más pequeños, la gráfica tiende a hacerse una curva como la que se muestra (en el 
caso ideal en el que se haga infinitas observaciones). 
La curva no se ajusta exactamente a una 
distribución de frecuencias con variable discreta en 
forma de histograma, pero esa es la curva que cabe 
obtener como un límite, siempre que el número de 
observaciones aumente gradualmente y el intervalo 
se estreche hasta el mínimo. 
El modelo matemático de la curva normal es: 
Los valores de X se extienden desde menos infinito a infinito, la 
representación gráfica es: 
 
 La fórmula matemática expresa una función continua, 
que se la llama función normal de densidad, ya que la 
variable X indica los valores en la abscisa y la y, el área 
correspondiente debajo de la curva, σ es la desviación 
estándar y µ es la media aritmética. Para cada valor de µ 
y σ tendremos una curva distinta. 
5 
 
Cualquier distribución normal puede convertirse en una función tipificada, para la que se han confeccionado las 
tablas, con un cambio de variable. 
Esta función tipificada es la que tiene µ=0 y σ=1, el modelo matemático será: 
 
El área debajo de la curva normal representa la probabilidad, y por lo tanto, el área total de la curva normal es la 
unidad. 
Tipos de cambios en la variación aleatoria, con respecto a las tolerancias. 
El primer tipo de cambio es la modificación del promedio sin variar la dispersión. 
Esto causa un aumento de piezas fuera de las tolerancias. Este fenómeno es 
motivado por la introducción de algúncambio externo 
 
 
El segundo tipo de cambio es la modificación de la dispersión, pero no del promedio. Esto se produce por lo general 
por averías de la máquina. 
El tercer tipo de cambio es la modificación en el promedio y en la dispersión. El motivo puede ser múltiple y es 
necesario averiguar las causas perturbadoras. 
 
Principios de control de calidad 
Definición de control: 
Control es el dominio o prevención. Controlar la calidad es dominar la producción para que se mantenga dentro 
de las especificaciones establecidas. Los medios para dominar y prevenir la calidad se denominan métodos 
estadísticos. 
Definición de calidad: 
Calidad es la satisfacción del cliente externo e interno. Las características del producto y la falta de deficiencias 
son los principales determinantes de la satisfacción. Las características del producto tienen un efecto importante 
en los mayores ingresos por ventas, aumentar la calidad de diseño por lo general se traduce en costos más altos. 
La falta de deficiencias tiene un mayor efecto en los costos a través de la reducción de desperdicios, retrabajo, 
quejas. La falta de deficiencias se refiere a la calidad de conformancia. Aumentar la calidad de conformancia 
significa costos menores. 
Las características del producto afectan el ingreso, mientras que la falta de deficiencias afecta los costos. 
Función de calidad. Espiral de progreso. 
6 
 
La función de calidad es la colección completa de 
actividades a través de las cuales se logra la 
adecuación para el uso (satisfacción del cliente), sin 
importar donde se realicen. 
 
 
 
 
 
Administración de la calidad. 
La administración de la calidad es el proceso de identificar y administrar las actividades necesarias para lograr 
los objetivos de calidad de una organización. 
Todos los trabajos incluyen tres papeles para el que los 
realiza (concepto de triple papel): el cliente que recibe los 
insumos de información y bienes físicos, el procesador que 
convierte estos insumos en productos, el proveedor que 
distribuye los productos a los clientes. Esto se conoce como 
trilogía de Juran. 
La administración de calidad total (ACT) es el sistema de 
actividades dirigidas al logro de clientes complacidos, 
empleados capaces, ingresos mayores y costos más bajos. 
 
Costos de calidad. 
Todos los productos que no están conformes con sus especificaciones ocasionan una pérdida a la empresa, a esta 
pérdida se la llama “costo de calidad”. También se puede definir como el precio que se paga para obtener el 
producto de acuerdo con sus especificaciones. 
Se pueden hallar los siguientes costos de calidad: 
• Costos de fallas internas: son los costos asociados con defectos (errores, no conformancia) que se 
encuentran antes de trasferir el producto al cliente. Son costos que desaparecerían si no existieran 
defectos en el producto antes de la entrega. Subcategorías: 
➢ Desperdicio 
➢ Retrabajo 
➢ Análisis de fallas 
➢ Materiales de desperdicio y retrabajo 
➢ Inspección del 100% 
➢ Perdidas de proceso evitables 
➢ Rebajas 
7 
 
• Costos de fallas externas: asociados con defectos que se encuentran después de mandar el producto al 
cliente. Desaparecerían si no hubiera defecto. Ejemplo: 
➢ Costos de garantías 
➢ Conciliación de quejas 
➢ Material regresado 
• Costos de evaluación: costos en los que s incurre al determinar el grado de conformancia con los 
requerimientos de calidad. Ejemplos: 
➢ Inspección y prueba al recibir 
➢ Inspección y prueba final 
➢ Auditorias de calidad del producto 
➢ Mantenimiento de la exactitud del equipo de prueba 
➢ Evaluación del inventario 
• Costos preventivos: costos en los que se incurre al mantener los costos de fallas y de apreciación al 
mínimo. Ejemplos: 
➢ Planeación de la calidad 
➢ Revisión de nuevos productos 
➢ Control de procesos 
➢ Auditorias de calidad 
➢ Entrenamiento 
Los costos de evaluación y preventivos representan inversiones (costos controlables), mientras que los de fallas 
son pérdidas (costos resultantes). La suma de los cuatro costos es el costo total. 
Índices: 
• Base Mano de Obra: (Costos de fallas internas/Mano de Obra directa) 
• Base Costo: (Costos total de fallas/Costos de producción) 
• Base Ventas: (Costos totales de calidad/Ventas netas) 
• Base Unidad de Producción: (Costos de pruebas e inspección/Unidades de producción) 
• Base Valor agregado (Costos totales de calidad/Valor agregado) 
 
Modelos económicos de la calidad de conformancia. 
8 
 
Cada modelo muestra 3 curvas: 
1.Costos de fallas: son igual a cero cuando el 
producto es 100% aceptable y se elevan a 
infinito cuando el producto es 100% 
defectuoso. 
2.Costo de evaluación más prevención: son 
cero con 100% de unidades defectuosas y se 
elevan cuando se acerca a la perfección. La 
cantidad en la que aumentan difieren para 
los dos modelos. 
Suma de curvas 1 y 2: representa el costo 
total de la calidad por unidad aceptable de producto. 
En la siguiente figura se divide la curva de costo total de calidad de la 2.2a en tres zonas: 
Zona de proyectos de mejoramiento: los costos 
por fallas constituyen más del 70% de los costos 
de calidad totales, mientras que los costos de 
prevención son menores al 10% del total. Existen 
oportunidades para reducir los costos de calidad 
totales mediante el mejoramiento de la calidad 
de conformancia, reduciendo así los costos de 
fallas. 
Zona de altos costos de evaluación: los costos de 
evaluación exceden a los costos de fallas. 
También se pueden reducir los costos como por 
ejemplo comparando el costo de los defectuosos 
detectados con el daño que casarán si no se 
detectan. 
Zona de indiferencia: los costos de fallas significan alrededor de la mitad de los costos de calidad mientras que los 
costos de prevención constituyen cerca del 10% de los costos de calidad. En esta zona se ha alcanzado el óptimo 
en términos de proyectos de mejoramiento de la calidad. 
El mejoramiento de la calidad de conformancia da como resultado una reducción del costo total. Esto contradice 
la idea de que “calidad” alta requiere costos más altos. 
Costos de calidad ocultos. 
Son costos que pueden resultar en una subestimación de los costos de calidad. 
9 
 
 
Atributos y variables. 
Existen dos tipos diferentes de características sobre las cuales se efectúa el control de calidad: 
Características verificables llamadas atributos (roturas, grietas), y características medibles llamadas variables 
(composición química, dimensiones). 
Factores que afectan a la calidad: mano de obra; materiales; maquinaria y métodos. 
Los responsables de la calidad: 
Es deber del que trabaja el producto, controlar la calidad al mismo tiempo. Una buena calidad no depende de 
una buena inspección por parte de los inspectores del Control, sino de una buena fabricación. 
En primer término, la responsabilidad de la calidad es del operario, y luego, del maestro y así sucesivamente 
hasta la Dirección General. 
El Control es un órgano staff que asesora y ayuda a la Dirección o a la Fabricación proporcionándole la 
información a su debido tiempo sobre las causas perturbadoras de la calidad. Es decir, se limita a una labor de 
información y carece de autoridad para modificar el proceso. 
Departamento de control de calidad. 
Este es un órgano staff que se encarga de coordinar los esfuerzos de los diversos departamentos para mantener 
y mejorar la calidad a un nivel lo más económico posible. 
Debe efectuar cuatros tareas fundamentales: 
• Tarea preventiva: estudio de la capacidad de proceso; gráficos de control; planes de muestreo para 
aceptación. 
• Tarea de conformidad: inspección en la recepción, en el proceso; comprobación de calibres. 
• Tarea correctiva: búsqueda de fallos; revisión de la calidad para su mejora. 
• Tarea de seguridad: control de la salida de productos; estudio económico del coste de calidad; 
adiestramiento del personal. 
Inspección.10 
 
La inspección es un acto de comprobación, por la cual se verifican los productos terminados en una fase 
determinada, según las especificaciones requeridas. La inspección debe cumplir dos misiones: 
Proporcionar la base para una decisión respecto al proceso de fabricación, con vistas a la futura producción 
(decidir si el proceso es bueno o si debe ser alterado) y proporcionar la base para una decisión respecto al producto 
ya terminado (si el lote tiene que ser admitido o rechazado). 
Existen dos clases de inspección: 
• Directa: es el control directo por parte de los inspectores del proceso de fabricación. El medio más eficaz 
de analizar los resultados de la calidad es el grafico de control de variables. 
• Indirecta: consiste en que el control del proceso es llevado por el mismo operario, quedando a 
comprobación para el inspector. El operario juzga la calidad y modifica el reglaje si es necesario. Es más 
económico, el éxito descansa en la conciencia de calidad de los operarios. 
Relación entre el Control, la Oficina técnica y la Fabricación: 
La Oficina técnica establece las especificaciones y define las características del producto para la sección de 
Fabricación. 
El Control comprueba el articulo fabricado para verificar si está conforme o no con las especificaciones. En caso 
de que la Fabricación no haya cumplido estas, el Control tiene el deber de saber el por qué: si es por negligencia 
del operario o de la capacidad del proceso. Si es por esto último, el Control debe dar parte a la Oficina técnica para 
que amplie las tolerancias. 
Relación entre verificadores o inspectores y maestros: 
Los verificadores son asesores de los maestros en cuestiones de calidad. Los verificadores no tienen autoridad 
para parar la máquina, pero tienen la obligación de informar al maestro para que tome las medidas pertinentes. 
Los maestros deben respetar a los verificadores sobre las interpretaciones de calidad. Sin embargo, pueden tener 
su propio criterio y pueden no aceptar dichas interpretaciones; en este caso cargan con su responsabilidad. 
 
Herramientas básicas para el control estadístico de procesos. 
a) Herramientas para la recolección de datos 
• Hojas de verificación. 
b) Herramientas que presentan relaciones y que promueven el que la organización unifique sus puntos de 
vista 
• Diagrama de flujo 
• Diagrama de Pareto 
• Diagrama causa-efecto: representa la relación entre algún efecto y todas las posibles causas que 
influyen en él. 
11 
 
 
• Diagrama de dispersión 
• Análisis de campos de fuerzas: método para identificar las razones por las que se mantiene una 
situación dada. Adopta la figura de una T. 
 
c) Herramientas que resumen los datos en orden a una comunicación eficaz del contenido relevante de 
dichos datos 
• Histogramas 
• Corridas: presentan los datos a través del tiempo o de una secuencia. 
• Estratificación 
d) Herramientas que, además de lo anterior, permiten identificar si el proceso está bajo control estadístico 
o no 
• Graficas de control 
e) Herramientas que permite organizar las ideas 
• Diagrama de afinidad: se utilizan para sintetizar un conjunto más o menos numeroso de 
opiniones, agrupándolas en pocos apartados o rubros. 
 
f) Herramientas que permiten organizar los pasos de un proceso 
• Diagramas de flujo: representación gráfica que muestra todos los pasos de un proceso y la forma 
como éstos se relacionan entre sí. 
 
 
12 
 
Gráficas de control. 
Son un instrumento para detectar si la variación de los procesos amerita considerarlos bajo control estadístico o 
no. Se clasifican en por variables y por atributos 
Las gráficas de control por variables se emplean cuando se tienen datos continuos como dimensión, peso, 
temperatura, etc. Para este control se utilizan las gráficas de promedio e intervalo. 
Las gráficas de control por atributo se usan cuando se tienen datos discretos (muestras de trabajo, fugas en 
radiadores) o cuando se desea clasificar una serie de medidas continuas como aceptables o no (registro de autos 
que no cumplan con las normas de emisión de gases). 
Estos gráficos hacen una comparación de la calidad actual con la experiencia anterior mediante muestras, 
siguiendo un orden cronológico. Esta secuencia de datos permite hacer una predicción con respecto al futuro 
desempeño del proceso, con base en experiencias anteriores se concluye que algún determinado fenómeno va a 
suceder con mayor o menor probabilidad. 
Es importante determinar los límites de variación ya que la comparación del comportamiento del proceso en 
relación a ellos nos permite asumir si el proceso está o no bajo control estadístico. Los pasos de este procedimiento 
son: 
1. Periódicamente, se recogen grupos de muestras y se obtienen los datos de estas. 
2. Se obtiene el promedio y el rango de variación de los datos de cada grupo de muestras. 
3. Se obtiene el promedio de los promedios y el promedio de los rangos. 
4. Con base a estos dos promedios y teniendo en cuenta unas constantes que se han establecido 
estadísticamente, se identifican los límites de control de la gráfica. 
 
En general, σx y σR se estiman mediante el valor R y el factor que viene representado por A2 para los límites de X, 
y D3 y D4 para los límites del gráfico R. 
 
Los límites de control del grafico X serán: 
13 
 
 
Los límites de control del gráfico R serán: 
 
Interpretación de las gráficas: 
Las X fuera de los límites de control son seña de un cambio general que afecta todas las piezas posteriores al 
primer subgrupo fuera de los límites. Las causas comunes son un cambio en el material, e personal, la preparación 
de la máquina, etc. 
Las R fuera de los límites de control indican que la uniformidad del proceso ha cambiado. Las causas comunes son 
un cambio en el personal, un aumento en la variabilidad del material o desgaste en la maquinaria. 
En un caso, un aumento repentino de R advierte sobre un accidente que pudo ocurrir. 
Una sola R fuera de control puede ser causada por un cambio en el proceso ocurrido mientras se tomaba la 
muestra del subgrupo. 
Si en un periodo breve, se verifican dos puntos fuera de control, el proceso señala su modificación. 
También se interpreta como fuera de control si se encuentra una serie de valores, por ejemplo 7 puntos sucesivos 
que caen en un lado de la línea central (figura b). 
A veces se registran los valores siguiendo una tendencia hacia las medida mayores, a medida que se va gastando 
la herramienta. Mientras estos valores no estén más allá del límite no se interpreta que el proceso esté fuera de 
control (figura c) 
Si los valores de X oscilan mucho de muestra a muestra significa que la máquina está mal ajustada (figura d). 
 
 
 
 
14 
 
Capacidad de procesos. 
Control del proceso: un proceso bajo control estadístico es aquel que se comporta siempre igual a través del 
tiempo. 
Proceso capaz: es aquel que puede lograr cumplir las especificaciones de ingeniería. 
Interpretación de resultados: es mejor cuanto más grande es el Cpk. 
CpK=min(
𝐿𝑆𝐸−µ
3𝜎
;
µ−𝐿𝐼𝐸
3𝜎
) 
Objetivos del control estadístico de proceso: establecer la capacidad del sistema y controlar el mismo. 
Tasa de habilidad: Cp= Rango de especificación/habilidad del proceso. 
Cp=(LES-LEI) /6s 
Si el Cp y el Cpk son iguales, significa que el proceso está centrado y opera de forma previsibles. El Cp es siempre 
mayor o igual al Cpk (creo). 
 
15 
 
 
 
Valores que puede llegar adoptar el Cpk: 
 
El rango en el cual se encuentra comprendido el Cpk es 
(-∞,0). El valor de Cpk es negativo debido a que la diferencia 
entre el límite superior y la media encontrada es menor a 
cero. 
 
 
16 
 
 
 
 
El valor del Cpk es cero debido a que la diferencia entre el 
límite superior y la media es cero. La mitad de los valores 
sobrepasan el límite de control superior. 
 
 
 
 
El Cpk se encuentra entre (0,1), debido a que la media real sehalla entre el límite inferior y la media esperada. 
 
 
 
 
 
 
El Cpk se aproxima a la unidad porque la media real está cerca 
de la media esperada y la campana está centrada. Además, el 
Cpk resulta igual al Cp. 
 
 
Técnicas de pre-control. 
Es un método estadístico de control de calidad que puede ser llevado a cabo por el mismo operario y es aplicable 
a la mayoría de las máquinas, siempre que la capacidad del proceso sea satisfactoria, o sea, q la variación natural 
de 6σ sea menor o igual que las tolerancias. 
El pre-control permite al operario de un máquina, prever simple y rápidamente si el producto que él hace 
continuará cayendo dentro de las tolerancias. 
Ventajas: 
• Muy simple, lo entiende cualquier operario. 
• Sin necesidad de cálculos. 
• Gráfico simple, no necesita ningún papeleo. 
• No utiliza datos para trazar los límites de control. 
• Permite el empleo de calibre pasa-no pasa. 
• Sensible para detectar cambios de proceso que pueden ocasionar rechazos. 
Normas para su establecimiento: 
17 
 
a. Límites de pre-control. Dividir el campo de tolerancias en 4 partes: el límite superior de pre-control 
está a un cuarto del campo de la tolerancia superior y el límite inferior de pre-control está a un cuarto 
de la tolerancia inferior; la zona del pre-control equivale a la mitad del campo de las tolerancias. 
 
b. Si las medidas de dos piezas consecutivas caen ambas por afuera del límite de pre-control hacia arriba 
debemos ajustar el proceso hacia abajo. 
c. Si las medidas de dos piezas consecutivas caen ambas por afuera del límite de pre-control hacia abajo 
debemos ajustar el proceso hacia arriba. 
d. Cuando los resultados de dos piezas consecutivas caen fuera de los límites de pre-control, uno arriba 
y otro abajo, indica que la capacidad de proceso es menor que las tolerancias. 
e. Si las medidas de cinco piezas consecutivas caen dentro de la zona de pre-control, se aprueba la puesta 
en marcha. 
 
 
Gráfico de control por atributos. 
Los gráficos de control por atributos persiguen los mismos objetivos que los gráficos por medidas; pero, con 
respecto al control sobre el proceso, no tienen la misma sensibilidad, porque los gráficos por atributos requieren 
muestra de tamaño grande. 
Con los gráficos de control por atributos solamente se identificará la falta de control si la muestra es grande; pero 
si la muestra es pequeña, la calidad tiene que ser muy mala. 
Podemos clasificar los gráficos de control por atributos en dos grupos: 
• Para conocer el nivel de calidad de un artículo o de una sección del taller 
• Para controlar el proceso de fabricación 
Gráfica p- Fracción de unidades defectuosas: 
La gráfica p mide la fracción defectuosa, o sea el porcentaje de unidades defectuosas en el proceso. Pasos para la 
elaboración de la gráfica: 
Paso 1- Frecuencia y tamaño de la muestra: 
Establezca la frecuencia con la cual los datos serán tomados (horaria, diaria, semanal). Los intervalos cortos entre 
tomas de muestras permitirán una rápida retroalimentación al proceso ante la presencia de problemas. Los 
tamaños de muestra grandes permiten evaluaciones más estables del desarrollo del proceso y son más sensibles 
18 
 
a pequeños cambios en el promedio del mismo. Se aconseja tomar tamaños de muestras iguales, aunque no 
necesariamente se tiene que dar esta situación. El tamaño de muestra debería de ser mayor a 30. La cantidad de 
muestras o subgrupos será de 25 o más. 
Paso 2- Cálculo del porcentaje defectuoso (p) del subgrupo: 
 Registre la siguiente información para cada subgrupo: 
• El número de unidades inspeccionadas: n 
• El número de unidades defectuosas: np = D 
• Cantidad de subgrupos: k 
Calcule la fracción defectuosa (p) mediante: 𝑝 = 
𝑛𝑝
𝑛
=
𝐷
𝑛
 
Paso 3 – Calculo de porcentaje defectuoso promedio y límites de control 
El porcentaje defectuoso promedio para los k subgrupos se calcula con la siguiente fórmula: 
Donde �̅� es el tamaño de muestra promedio, es decir, el promedio de las piezas 
inspeccionadas. Si el número de inspección es fijo, �̅� es igual a n. 
 Cuando �̅� y/o �̅� es pequeño, el límite de control inferior puede resultar negativo, en 
estos casos el valor del límite será = 0 
Los límites de control varían según el tamaño de la muestra. 
 
 
Paso 4- Trace la gráfica y analice los resultados. 
Gráfica np – Número de Unidades Defectuosas. 
Es una variante del gráfico p, es deseable usar el gráfico np cuando el tamaño de la muestra es constante. La 
gráfica np está basada en el número de piezas defectuosas, en vez de la proporción de defectuosos. Los límites 
son calculados mediante las siguientes fórmulas. Se usa para conocer la cantidad de defectuosas en la muestra o 
el lote con n fijo. 
 
Gráfica C – Número de defectos. 
Se utiliza para determinar la ocurrencia de defectos en la inspección de una unidad de producto. Esto es 
determinar cuántos defectos tiene un producto. Podemos tener un grupo de 5 unidades de producto, 10 unidades, 
etc. Es muy útil para conocer el nivel de calidad de los aparatos, antes de entregar a los clientes. 
Si M es la cantidad de defectos, la cantidad de defectos promedio será: 
19 
 
Los límites de control se calculan mediante las siguientes fórmulas: 
 
Grafica U – Promedio de Defectos por Unidad. 
Los gráficos U se utilizan para controlar el número de defectos o no conformidades promedio por unidad 
inspeccionada. 
 Siendo: 
• M: número de defectos. 
• n= cantidad de piezas inspeccionadas. 
Para determinar los límites de control utilizamos las fórmulas siguientes: 
 
Gráficas de control para sumas acumuladas. 
Es una gráfica cronológica de la suma acumulada de las desviaciones de una muestra estadística que se alejan de 
un valor de referencia. La gráfica CUSUM incorpora toda la información contenida en la secuencia de los valores 
muestrales graficando las sumas acumuladas de las desviaciones que presentan los valores muestrales respecto 
al valor objetivo. Se supone que se colectan muestras de tamaño mayor o igual a 1, y que xj es el promedio de la 
j-ésima muestra. Entonces, si µ0 es el objetivo para la media del proceso, la gráfica de control de suma acumulada 
se construye graficando la cantidad: 
A Ci se le llama suma acumulada hasta la i-ésima muestra, incluyéndola. 
Si el proceso se mantiene bajo control en el valor objetivo µ0, la suma 
acumulada definida en la ecuación anterior es una fluctuación aleatoria 
con media cero. Si la medida experimenta un corrimiento ascendente, 
entonces se desarrollará una alineación ascendente o positiva en la suma acumulada. Recíprocamente, si la media 
experimenta un corrimiento descendente, desarrollará una desalineación descendente o negativa en la suma 
acumulada. Por lo tanto, si se desarrolla una tendencia en los puntos graficados, sea ascendente o descendente, 
ésta deberá considerarse como evidencia de que la media del proceso se ha corrido y deberá realizarse la 
búsqueda de alguna causa. 
La gráfica CUSUM no es una gráfica de control, ya que carece de los límites de control estadístico. La CUSUM se 
puede presentar tabulada (o algorítmica) o en forma de máscara V. 
Estas gráficas se diseñaron para identificar cambios pequeños, pero sostenidos, en el nivel del proceso, con mayor 
rapidez que las gráficas X normales. 
20 
 
La gráfica de suma acumulada abarca todos los datos anteriores, al graficar sumas acumuladas de las deviaciones 
de los valores de la muestra respecto a un valor meta; es decir: 
Donde Xi (rayita) es el promedio del i-ésimo subgrupo. X0 (rayita) es el valor normal o 
de referencia, y St la suma acumulada cuando se efectúa la i-ésima observación. 
La gráfica de suma acumulada tiene aspecto distinto a las gráficas X y R normales. En lugar de un eje central y 
límites horizontales de control, se forma una mascarilla que consiste en un puntero de lugar y dos límites de 
control angulados. 
La mascarilla se colocade tal manera que la punta P quede en el último punto graficado. La distancia d y el ángulo 
tita son los parámetros de diseño de la mascarilla. 
Si no hay punto anteriores fuera de los límites de control, se supone que el proceso está bajo control. Si hay un 
desplazamiento en el promedio del proceso sobre el valor de referencia, cada nuevo valor que se añade a la suma 
acumulada hará que St aumente y ocasionará una tendencia hacia arriba. Finalmente, un punto puede quedar 
fuera del límite superior de control, lo que indica que el proceso ha salido de control. Si el promedio se desplaza 
hacia abajo, sucede lo contrario. 
 
 
Muestreo de aceptación por atributos. 
Los planes de muestreo para aceptación pueden ser por atributos o por variables. 
El muestreo para la aceptación de material por atributos es un método estadístico, mediante el cual se determina 
la calidad de un lote a través de la inspección de una o varias muestras aleatorias extraídas. 
21 
 
La muestra es una parte del lote, pero con evidencia de la calidad del conjunto. Las defectuosas que contiene una 
muestra guarda relación directa con las defectuosas del lote donde se ha sacado dicha muestra. 
Las técnicas estadísticas que aquí se aplican se basan en el criterio del porcentaje o tanto por uno defectuoso y 
no tienen en cuenta la cantidad exacta de piezas defectuosas de un lote. 
Los planes de muestreo para la aceptación de material se usan porque ofrecen diversas ventajas: 
• Más económico que la inspección 100%: el coste de inspección por muestreo es más reducido. 
• Más eficaz que la inspección 100%: en los lotes grandes con pequeños porcentajes defectuosos, la 
inspección 100% tiene una baja eficacia debido a la fatiga y monotonía. 
• Algunos casos no son practicables para la inspección 100%: muchos materiales tienen que ser destruidos 
para conocer su calidad, no se puede averiguar la calidad de un lote sin su total destrucción. 
Los planes de muestreo para la aceptación de material se pueden aplicar en: 
• Entrada de material comprado. 
• Material semimanufcturado de una sección a otra dentro de la fábrica. 
• Producto terminado que sale para el consumidor. 
Criterios para la aceptación de material por muestreo significa ¿qué porcentaje de piezas defectuosas puede ser 
tolerado en un lote? Se utilizan distintos criterios para fijar el porcentaje de defectuosas: 
1. Primer criterio: Punto de indiferencia (P). 
Surge de la comparación del costo de hallar una pieza defectuosa con el costo de los daños producidos por no 
haber hallado dicha defectuosa. Se encuentra un punto de equilibrio o punto de indiferencia en el cual, para cierto 
nivel de porcentaje defectuoso en el lote, es igual para la empresa inspeccionarlo o dejarlo pasar. En la siguiente 
representación, la abscisa indica el porcentaje defectuoso; el costo para hallar una defectuosa es variable porque 
depende del porcentaje defectuoso del lote. El coste de no hallar una defectuosa es constante. El punto de 
intersección es el punto de indiferencia con su correspondiente porcentaje defectuoso, en el cual es 
económicamente igual inspeccionar el lote o dejarlo pasar. 
 
Conocido el punto de indiferencia se puede trazar un pan de inspección. Por ejemplo, si el punto de indiferencia 
está en el 2%, si un lote contiene un poco menos de ese porcentaje lo aceptamos, mientras que, si tiene un poco 
más, se rechaza. En este plan se distinguen las dos zonas, y supone que se hace una inspección de 100%. 
Este plan es demasiado rígido, por lo que se prefiere un plan más suave en forma de curva. Esta curva se denomina 
curva característica. En el punto de indiferencia el lote tiene un 50% de probabilidades de ser aceptado; a medida 
que va aumentando el porcentaje defectuoso disminuye la probabilidad de aceptación; mientras mejora la calidad 
se incrementa la probabilidad de aceptación. 
22 
 
 
El riesgo de que un lote sea rechazado a pesar de tener buena calidad se conoce como “riesgo del productor” (α). 
También hay probabilidad de aceptar lotes malos, que se llama “riesgo del consumidor” (β). 
2. Segundo criterio: Porcentaje defectuoso máximo tolerable (LTPD). 
Este porcentaje defectuoso máximo, es uno que el consumidor no desea aceptar 
más que excepcionalmente. Las tablas basadas en este criterio se establecen de 
modo que un lote que contenga este LTPD prefijado se rechace en el 90% de los 
casos. 
 
 
 
3. Tercer criterio: Nivel aceptable de calidad (NAC). 
Se coloca el riesgo del productor alrededor del 5%, cuando el lote tiene un porcentaje defectuoso que se considera 
bueno. Con las tablas basadas en este criterio, los lotes que contengan el mismo nivel de calidad aceptable (NAC) 
se aceptan la mayor parte de las veces. 
 
4. Cuarto criterio: Límite de la calidad de salida media (AOQL). 
AOQL significa el límite máximo de la calidad media del porcentaje defectuoso en los lotes aceptados y rechazados, 
pero repuestos por la inspección detallada. La probabilidad de rechazo es α y la probabilidad de aceptación es β. 
23 
 
El valor máximo de los AOQ es AOQL. Si P (rayita) es igual a cero, AOQ debe ser 
cero también, porque no hay ninguna defectuosa. Si P es igual a 1, AOQ debe ser 
cero, porque todas las defectuosas serán sustituidas. 
 
Curva característica de operación (OP): 
La curva característica de operación de un plan de muestreo para aceptación muestra la capacidad del plan para 
distinguir entre los lotes buenos y malos. 
Al juzgar distintos planes de aceptación es preferible comparar su comportamiento en una serie de posibles grados 
de calidad del producto presentado. La OC da una excelente imagen de ese comportamiento. 
Para cualquier fracción defectuosa p en un lote recibido, la curva OC muestra la probabilidad Pa de que se aceptará 
ese lote con el plan de muestro que se emplee. 
Los planes de muestreo para aceptación con el mismo porcentaje de muestra dan una protección de calidad muy 
diferente. Existe la idea errónea de que la protección otorgada por los sistemas de muestreo es constante si la 
relación entre el tamaño de la muestra y el tamaño del lote es contante. 
 
24 
 
Conforme aumenta el valor de C (manteniendo n constante), mayor es la probabilidad de aceptación del lote. Esto 
representa un riesgo para el comprador, ya que posee una probabilidad más alta de adquirir un lote con mayor 
porcentaje de piezas defectuosas. 
Por otro lado, al aumentar el tamaño de la muestra manteniendo el número de aceptación constante, se produce 
una disminución notable de la probabilidad de aceptación del lote. Debido a eso, el productor tendrá un mayor 
riesgo de rechazo de su lote mientras que el consumidor poseerá mayor seguridad en la compra del mismo a causa 
de un menor porcentaje de piezas defectuosas. 
 
 
Muestreo doble y múltiple: 
Hasta ahora se vio muestreo simple, que significa que la decisión que se toma depende de una muestra única. El 
muestreo doble sirve para tener otra oportunidad de decidir si se acepta o se rechaza el lote. El fundamento del 
muestro múltiple es igual al del muestro doble. 
Elección entre muestro sencillo, doble y múltiple: 
Algunos de los factores a tener en cuenta para la decisión son: 
• Ventajas psicológicas del muestro doble: hay dos ventajas importantes. A los lotes que están en el límite 
se les da una segunda oportunidad para aceptarlos. No se rechaza ningún lote debido a que no hay un 
solo artículo defectivo. 
• Diferencias esperadas en los costos de administración: estos costos suelen ser mayores en el muestreo 
múltiple y menores en el muestreo sencillo. 
• Dificultad de adiestrar a los inspectores para el empleo correcto del muestreo múltiple: si la técnica de 
inspección es complicada, los inspectores para no molestarse en sacar muchas muestras eligen de 
cualquier forma, resultando que las muestras no son aleatorias. 
• Necesidad de estimaciones rápidas y confiables del promedio del procesopara diversos fines, incluso la 
decisión entre inspección normal, rigurosa y reducida. 
• Disponibilidad d personal y equipo para inspección. 
Factores a determinar para elegir un plan de muestreo: 
1. Determinar si la calidad se define en función del porcentaje defectuoso o del número de defectos por 
100 unidades. 
2. Clasificar los defectos según su gravedad en defecto crítico, defecto principal o defecto secundario. 
25 
 
3. Establecer el nivel de calidad aceptable NAC. 
4. Determinar el tamaño del lote para inspección. 
5. Elegir un plan de muestro (simple, doble o múltiple). 
6. Elegir entre inspección normal. Rigurosa o reducida. 
7. Elegir un nivel de inspección (I, II, III). 
Cambio de inspección normal a la rigurosa y viceversa: 
Si la inspección normal está en vigente, deberá implementarse la rigurosa cuando dos de los cinco lotes 
consecutivos hayan sido rechazados en la inspección original. 
Si la inspección rigurosa está en vigente, deberá implementarse la normal cuando cinco lotes consecutivos hayan 
sido aceptados en la inspección original. 
Cambio de la inspección normal a la reducida y viceversa: 
Si está en vigente la normal, deberá implementarse la reducida cuando: 
A. Los 10 lotes precedentes han estado bajo inspección normal, sin que haya sido rechazado ninguno. 
B. El número total de unidades defectuosas halladas en las muestras de los 10 lotes precedentes es igual o 
menor que el número permitidos en tablas de acuerdo con su NAC. 
C. La producción está en régimen uniforme. 
El criterio para pasar de inspección reducida a normal es cuando: 
A. Un lote es rechazado. 
B. Si las unidades defectuosas de la muestra sobrepasan al número de aceptación sin llegar al número de 
rechazo de las tablas. 
C. La producción se hace irregular o se retrasa. 
 
Muestreo de aceptación por medidas. 
Método Lot-Plot: es una clase de pan de muestreo por variables, basándose en una representación gráfica de las 
medidas de una muestra, cuyo tamaño es constante (50 unidades), sin que se deba tener en cuenta el número de 
piezas que contenga el lote. 
A través de la fotografía de a muestra, se puede apreciar el valor central y la dispersión de todo el lote. 
Las representaciones gráficas sobre los lotes para diferentes suministradores de un mismo producto sirven para 
evaluar y comparar la calidad de cada uno. 
Pasos del Lot-Plot: (es muy largo no se si de vió). 
Interpretación del Lot-Plot: 
A. Si las líneas de variación quedan comprendidas entre los límites de tolerancia, el lote no contiene unidades 
defectuosas. 
26 
 
 
B. Si uno de los límites de variación coincide con un límite de tolerancia, el lote puede contener 
aproximadamente un 0,1% de unidades defectuosas. 
 
C. Si un límite de variación cae fuera de la especificación técnica, el porcentaje estimado de piezas 
defectuosas se obtiene así: 
 
El número de casillas comprendido entre el límite de variación y el límite d tolerancia, se divide entre el 
correspondiente valor de 3σ y leyendo en la tabla de equivalencias se obtiene el porcentaje aproximado 
de defectuosas. 
 
Planes de muestreo para producción continua. 
Los planes de muestreo continuo tienen carácter del plan “aceptación-rectificación”, es decir, no rechaza el 
producto, sino que lo somete a una verificación total para obtener la parte fabricada satisfactoriamente. 
• Plan AOQL de Dodge para producción continua, CSP-1: 
Cuando la producción es continua, la formación de lotes de inspección para la aceptación lote por lote, es un tanto 
artificial. Dodge explica su procedimiento: 
1. Se inspeccionan todos los productos 100%, según el orden de fabricación; cuando se hayan inspeccionado 
i unidades consecutivas del producto sin hallar ninguna defectuosa, interrumpe la inspección 100% y 
empieza el muestreo. 
2. El muestreo consiste en inspeccionar una fracción f de unidades. Por ejemplo, f=0,1 quiere decir cada 10 
piezas se verifica una. 
3. Si durante la inspección por muestro se halla una defectuosa, se vuelve a la inspección 100% 
inmediatamente. 
4. Si después de verificar nuevamente i unidades consecutivas sin hallar ninguna defectuosa se empieza de 
nuevo la inspección por muestreo en la verificación de una fracción f de unidades producidas. 
27 
 
5. Todas las defectuosas encontradas, por este plan, deben ser sustituidas por buenas, tanto en la inspección 
100% como por muestreo. 
Dodge preparó un gráfico para las combinaciones de i y f con los valores de AOQL: 
 
Si hay más de una clase de defectos, es preferible elegir un i para defectos mayores y otro i para defectos menores, 
manteniendo constante f. 
• Modificaciones al CSP-1: 
➢ Plan CSP-2: difiere del CSP-1 en que, una vez iniciada la inspección, no se recurre a la inspección de 
100% cuando se encuentra cada defecto, sino que se emplean sólo si el defecto ocurre en las 
siguientes k unidades o menos de la muestra. Es decir, si dos defectos observados durante el muestreo 
están separados por k o menos unidades inspeccionadas, se debe aplicar la inspección de 100%. De 
lo contrario, se continúa el muestreo. 
➢ Plan CSP-3: es una mejora del CSP-2 a fin de dar mayor protección contra una corrida súbita de mala 
calidad. Cuando se encuentra una muestra defectiva, se inspeccionan las cuatro unidades siguientes 
en la línea de producción y si ninguna de éstas se encuentra defectuosa, se continúa el procedimiento 
de muestreo como con CSP-2; si una de las cuatro unidades está defectiva, se reanuda de inmediato 
la inspección de 100% y se continúa de acuerdo con las reglas para CSP-2. En el CSP-3, el valor de i se 
utiliza para una f y un AOQL dados y el mismo que en CSP-2. 
 
Planes de muestreo secuencial con inspección “pieza por pieza”. 
En esta técnica de muestreo la verificación se hace de pieza en pieza, y el número definitivo de las piezas que 
deben ser seleccionadas dependen del resultado del proceso de inspección de las piezas precedentes; mientras 
que la del muestreo doble o múltiple, se inspecciona de muestra en muestra y la decisión de tomar las siguiente 
muestra, depende del resultado de las anteriores. Por lo tanto, la reducción del costo de inspección será aún más 
considerable en este plan de muestreo secuencial. 
28 
 
La técnica se basa en la noción de “juegos de azar”. En ella se determina si una pieza es buena o mala. Se acumulan 
los resultados registrados y si el número de positivos supero cierto valor límite se acepta el lote. En caso contrario, 
si la suma de los valores negativos alcanza otro límite predeterminado, se rechaza el lote. 
En el plan de muestreo secuencial se fijan 4 parámetros: 
 
• P: nivel de calidad aceptable, expresado en porcentaje 
defectuoso. 
• α: probabilidad de rechazar el lote de este nivel de calidad 
aceptable P1. 
• P2: nivel de calidad inaceptable, expresado en fracción 
defectuosa. 
• β: probabilidad de aceptar un lote de esta calidad inaceptable P2. 
Con estos 4 parámetros se pueden calcular tres constantes h1, h2 y S, que caracterizan el gráfico de control, 
en el cual debe basarse la inspección del lote. 
 
Con estas tres constantes, se establecen las siguientes ecuaciones: 
 
 
La abscisa representa las unidades de las muestras inspeccionadas y la ordenada representa las piezas 
defectuosas acumuladas. Si en cierto número de muestras, el número acumulado de defectuosas es superior 
a d2 se rechaza el lote; si es inferior a d1 se acepta. Si cae entre d1 y d2 se deben continuar sacando muestras 
de pieza en pieza hasta que se pueda adoptar una decisión definitiva. 
 
29 
 
Confiabilidad. 
La confiabilidad indica la capacidad que tiene un equipo de operar sin fallas, se expresa en forma de probabilidad, 
es la probabilidad de que el equipo no falle dentro de un periodo determinado de operación. La confiabilidad de 
un equipo o sistema depende de la confiabilidad de cada elemento del mismo. 
Confiablidad es la capacidad que tiene unproducto de desepeñarse tal y como se espera durante su tiempo de 
vida. Es un aspecto esencial tanto del diseño del producto como del proceso. 
Concepto basado en la idea de cuantificar la fiabilidad: es la probabilidad de que un producto, pieza de equipo o 
sistema realice sin falla una función determinada bajo condiciones dadas y durante un periodo de tiempo 
determinado. Fiabilidad es la probabilidad de que un producto funcione. 
Concepto basado en la idea de planificar fiabilidad: realización de una serie de tereas que deben asignarse a las 
funciones asociadas con el desarrollo del producto desde el nacimiento hasta su muerte. 
Fijación de objetivos globales de fiabilidad: requiere de un acuerdo sobre la fiabilidad como número, sobre las 
condiciones ambientales a las que este número debe aplicarse y sobre una definición de lo que es buen 
funcionamiento del producto. En algunos casos el cliente fija esta cota numérica y el diseñador debe alcanzarla, 
en otro en el que el cliente no la ha fijado, a buena práctica exige que la fije el fabricante y la comunique a los 
interesados. 
Prorrateo de la fiabilidad: es el proceso de fraccionar o distribuir la cota final de fiabilidad entre los subsistemas. 
La fiabilidad de un sistema es función de las fiabilidades de los subsistemas. Mientras más fiables estos 
subsistemas, más fiable será el sistema total. 
Predicción de la fiabilidad: es el proceso de estimar cuantitativamente la probabilidad de que un producto 
(componente, subsistema, sistema) realice su misión. 
Etapas de la predicción de la fiabilidad: 
Es un proceso continuo que comienza con las predicciones sobre el papel, basadas en un diseño y en información 
anterior de tasas de fallo, y termina con la medición de la fiabilidad, basada en datos de utilización del producto 
por el cliente. 
El proceso de predicción de la fiabilidad sólo está justificado si demuestra ser útil proporcionando un producto 
final más fiable. 
Revisiones de diseño: 
Es un mecanismo para pasar una completa revista a un diseño propuesto a fin de asegurarse de que dicho diseño 
puede fabricarse al costo más bajo posible y funcionar con éxito bajo las condiciones de utilización previstas. 
Ensayos de fiabilidad: 
Son los realizados para verificar que un producto funcionará durante un tiempo dado. Los problemas de estos 
ensayos se concentran en tres elementos: 
• Requisitos de actuación: se definen especialmente para cada producto (ejemplo: potencia de un motor). 
Una herramienta puede ser determinar por muestreo el uso real que del producto hacen los clientes 
típicos o bien simular el uso por el cliente. 
30 
 
• Condiciones ambientales: (temperatura, vibración, humedad). Primero se debe determinar los niveles 
ambientales esperados y luego, ensayar para verificar que el producto puede soportarlos. 
• Requisitos de tiempo: el tiempo que demanden estos ensayos puede ser importante, existen dos métodos 
para resolver el problema: 
➢ Hacer funcionar simultáneamente gran número de unidades durante menos tiempo. 
➢ Acelerar el ensayo haciendo funcionar las unidades bajo esfuerzos y niveles ambientales más severos para 
que fallen antes. Luego se hacen extrapolaciones a las condiciones esperadas. 
Métodos para mejorar la fiabilidad de un diseño. ¿? 
Programa de componentes críticos: 
Se dirige a identificar los pocos componentes vitales que contribuyen decisivamente a la fiabilidad del sistema 
total. Un componente se considera critico si se da alguna de estas condiciones: 
1. Se usa en el equipo en gran número. 
2. Sólo puede obtenerse de una única fuente. 
3. Ha de funcionar dentro de estrechos límites. 
4. No tiene un historial probado de alta fiabilidad. 
Se prepara una lista de los componentes críticos que sirve para: planear programas de ensayos para evaluar 
componentes; descubrir las causas de falla que exigen acción preventiva; descubrir causas de falla que exigen 
procedimientos especiales de manejo durante la fabricación y utilización del componente. 
Análisis del modo de producirse y efecto de las fallas: 
Esta técnica preventiva estudia las cusas y efectos de las fallas antes de finalizar un diseño. Su particularidad 
consiste en que proporciona al diseñador una manera metódica de examinar su diseño. 
Esta técnica adquiere importancia en el caso de productos de cierta complejidad y cuando la función de diseño 
está realizada por unidades responsables de pequeñas partes del producto. 
Organización de la acción correctiva: 
Los informes de fallas y acción correctiva tienen tres objetivos: 
• Detectar y asegurar la resolución de los problemas que afectan a la fiabilidad. 
• Recoger y dar a conocer historiales de fallos y otros datos de referencia para usarlos en la prevención de 
fallas parecidas en las modificaciones de los actuales productos y en productos futuros. 
• Mantener a la dirección enterada de la situación de los problemas que afectan al producto. 
Organización para la fiabilidad: 
1. Un programa de fiabilidad ha de cubrir todas las secciones que afecten a la fiabilidad final en su lugar de 
utilización. 
2. Hay que proveer fondos para un programa de fiabilidad y dichos fondos han de determinarse durante la 
fase propuesta. 
3. La ejecución de un programa de fiabilidad implica tareas técnica y tarea de dirección: tareas técnicas 
consisten en los esfuerzos para diseñar un producto fiables. La de dirección consiste en integrar todos os 
esfuerzos técnicos y controlarlos. 
4. El especialista en fiabilidad proporciona guía y asistencia al personal de línea para ejecutar sus tareas. 
31 
 
5. El programa para cada proyecto ha de incluir un plan escrito y especificar responsabilidades, 
procedimientos y cuadro de fechas. 
6. El programa ha de incluir controles que detecten y comuniquen a la dirección todas las desviaciones en 
los planes y la actuación real. 
7. El programa ha de abarcar tanto a los proveedores como a las operaciones internas de la empresa. 
8. La integración y evaluación totales del programa de fiabilidad han de ser realizadas por una organización 
que sea independiente de aquellos que tienen la responsabilidad de dar los pasos detallados necesarios 
para alcanzar la fiabilidad requerida. 
Mantenibilidad: 
Es la probabilidad de que un sistema fallado se restaure a la condición de utilizable en un tiempo especificado de 
ineptitud, cuando el mantenimiento se realiza bajo condiciones determinadas 
La cuantificación consiste en la creación de dos nuevos parámetros: 
• Un parámetro de tiempo para expresar el tiempo necesario para restaurar el servicio, es decir, el máximo 
tiempo de ineptitud. 
• Un parámetro de probabilidad para expresar la probabilidad de cumplir el parámetro de tiempo. 
Cuantificados estos parámetros, se puede asegurar un acuerdo entro los interesados sobre cuales son los 
objetivos, cómo planear su logro y cómo juzgar si se han alcanzado. 
Cuantificación de la mantenibilidad: 
A un sistema se le puede fijar un objetivo numérico total de fiabilidad. Esta meta global se reparte a fin de 
determinar un objetivo para cada subsistema. La mantenibilidad puede predecirse sobre el papel durante la fase 
de diseño y puede ser finalmente medida cronometrando el periodo requerido para ciertas acciones de 
mantenimiento sobre unidades reales. 
Compensación entre parámetros: 
Es el proceso de equilibrar costos y efectos. El objetivo de una industria es alcanzar una óptima efectividad global 
a un óptimo costo total. 
Disponibilidad: 
Es a veces una medida más apropiada que la fiabilidad. Mientras que la fiabilidad es una medida del 
funcionamiento sin falla, la disponibilidad tiene en cuenta tanto la fiabilidad como la mantenibilidad. 
La disponibilidad en tiempo es el porcentaje de tiempo en que un equipo está operativo. Se calcula así: 
 
Disponibilidad de equipos es el porcentaje de equipos que estarán disponibles para su uso después de t horas de 
funcionamiento debidoal efecto combinado de las unidades que no fallen y de aquellas en las que restablezca el 
servicio dentro de un tiempo máximo especificado de ineptitud. 
32 
 
Disponibilidad de misión es el porcentaje de misiones de duración t en las que no se producirá ninguna falla que 
no pueda repararse dentro de un tiempo máximo especificado de ineptitud. 
Medición de la confiabilidad: 
La confiabilidad se determina mediante el número de fallas por unidad de tiempo durante la duración bajo 
consideración (llamado tasa de fallas). Como medida alterna se utiliza el reciproco de la tasa de fallas. Algunos 
productos deben desecharse y reemplazarse cuando fallan; otros pueden repararse. Para los que deben 
reemplazarse el reciproco de la tasa de fallas (con dimensiones y unidades de tiempo por falla) se conoce como 
tiempo medio hasta la falla (MTTF). En caso de productos reparables, se utiliza el tiempo medio entre fallas 
(MTBF). 
A considerar la tasa de fallas de un producto, suponga que se prueba un grupo grande de elementos, hasta que 
todos ellos fallen, y que para cada uno de ellos se registra el tiempo de falla. Si se traza el porcentaje acumulado 
de falla contra tiempo, se obtiene la siguiente curva, donde la pendiente de la curva en cualquiera de sus puntos 
nos da la tasa instantánea de fallas (fallas por unidad de tiempo) en cualquier punto del tiempo. 
 
La siguiente figura muestra la curva de la tasa de fallas, conocida como curva característica de la vida del producto, 
que corresponde a la curva de fallas acumuladas de la figura anterior. Esta curva se obtuvo trazando la pendiente 
de la curva en todos los puntos. La pendiente de la curva, y consecuentemente la tasa de fallas, puede cambiar 
durante el tiempo. 
 
33 
 
La tasa de fallas promedio en cualquier intervalo de tiempo es la pendiente de la línea entre los dos puntos 
extremos del intervalo sobre la curva. 
 
Si únicamente se dispone de algunos datos, la tasa de fallas se calcula utilizando alguna de las siguientes fórmulas: 
 
 
Funciones básicas para definir la fiabilidad, la tasa de falla λ: 
• Probabilidad de falla G (t): es la probabilidad de que una unidad, perteneciente al stock inicial, salga de 
servicio antes de alcanzar una vida útil t. desde el punto de vista estadístico, G (t) es una función de 
distribución. 
• Probabilidad de sobrevivir R (t): es la probabilidad de que una unidad, perteneciente al stock inicial, supere 
una vida útil predeterminada t. 
R (t)= 1- G (t) 
• Tasa de falla λ (t): indica la probabilidad de que una unidad que todavía no salió al servicio hasta el 
momento t, lo haga en el próximo intervalo de tiempo corto. Se corresponde con la fracción de unidades 
todavía existente que van a salir de servicio, en promedio, en el próximo intervalo de tiempo. Es una 
medida de la susceptibilidad a fallar de un producto determinado en el momento t, siempre que el 
producto no haya salido a servicio hasta el momento t. por lo tanto, la tasa de falla se refiere siempre a 
las unidades no salidas de servicios al momento t. 
La tasa de falla varia a lo largo de la vida útil de muchos productos. La forma típica de la curva se muestra en la 
figura, y se la conoce como curva de la bañera. 
34 
 
 
Esta curva de vida útil representa la tasa de fallas en función del tiempo. La parte central corresponde a una 
distribución exponencial. 
Existen tres fases: 
• I-Fallas tempranas: se deben a defectos de la fabricación; la tasa de falla decrece en un lapso corto. Los 
fabricantes se empeñan en que estas salidas de servicio no lleguen hasta el cliente. 
• II-Fallas casuales: no se produce (casi) desgaste; la tasa de falla es (casi) constante. Únicamente ocurren 
fallas por azar. 
• III-Fallas por desgaste: se deben a un envejecimiento/desgaste crecientes; la tasa de fallo crece. 
Vida útil de un producto: tiempo hasta que el producto sale de servicio. Puede ser: 
❖ Salida de servicio abrupta: falla directa. 
❖ Salida del servicio gradual: fin de un proceso continuo de cambio. 
MTBF: tiempo promedio entre dos fallas sucesivas. 
MTTF. Tiempo promedio hasta la falla. 
T: tiempo hasta la falla. 
Cualquiera sea el modelo probabilístico lo caracterizamos con: 
 
Distribución exponencial: la tasa de fala es constante, λ (t)=α. significa que usar el producto no altera su 
probabilidad de fallar. Mientras el artículo funcione es tan bueno como nuevo. Por ejemplo, un fusible que no se 
ha quemado está prácticamente como nuevo. Es la distribución que le corresponde al sector central de la curva 
de la bañera. 
35 
 
 
 
Distribución de Weibull: 
 
Alfa y beta son parámetro de escala y de forma. Al modificarlos la distribución asume diversas formas. Es una 
herramienta muy flexible de modelado. Se la usa para modelar datos de falla de componentes de memoria y 
elementos estructurales de autos. 
Si β es menor a 1: la razón de falla disminuye con el tiempo. 
Si β es mayor a 1: la razón de falla aumenta con el tiempo. 
Si β es igual a 1: Weibull=Exponencial, y por lo tanto λ (t)=α. 
Sistema en serie y en paralelo: 
Un sistema en serie es aquel cuyos componentes están todos tan interrelacionados que el sistema completo fallará 
si alguno de sus componentes falla; un sistema en paralelo es aquel que fallará tan solo si todos sus componentes 
fallan. 
La probabilidad de que un sistema en serie funcionará está dada por la regla de multiplicación de probabilidades, 
donde Ri es la confiabilidad del i-ésimo componente y Rs la confiabilidad del sistema en serie. Esta ley de productos 
de confiabilidades es aplicable a sistemas en serie de componentes independientes (los elementos siempre deben 
funcionar en forma independiente). 
 
La confiabilidad del sistema en serie es menor que la de cualquiera de sus componentes. 
36 
 
Ejemplo: Un sistema consiste en 5 componentes independientes en serie, y cada uno tiene una confiabilidad de 
0.970. ¿Cuál es la confiabilidad del sistema? ¿Qué ocurre con la confiabilidad del sistema, si su complejidad 
aumenta de modo que contiene 10 componentes similares? 
La confiabilidad del sistema de 5 componentes es: (0,970)5=0,859 
Aumentar la complejidad del sistema a 10 componentes reducirá la confiabilidad del sistema a: (0,970)10=0,737 
Si un sistema consiste en n componentes independientes conectados en paralelo, fallará en su funcionamiento 
solo si fallan todos los n componentes. Por ende, si Fi = 1 − Ri es la “no confiabilidad” del i-ésimo componente, se 
puede aplicar de nuevo la regla especial de la multiplicación de probabilidades para obtener: 
Donde FP es la no confiabilidad del sistema en paralelo y RP = 1 – FP es la confiabilidad del 
sistema en paralelo. Por ende, para sistemas en paralelo, se tiene una ley de productos 
de no confiabilidades similar a la ley de productos de confiabilidades para sistemas en 
serie. 
Al escribir esta ley de otra forma se obtiene: 
Para la confiabilidad de un sistema en paralelo. 
La confiabilidad de un sistema en paralelo es mayor que la de cualquiera de sus componentes. 
Ejemplo de un sistema complejo: 
 
 
 
 
 
 
 
37 
 
Métodos Taguchi 
Controlar la calidad en un producto o servicio es, en realidad, controlar la variabilidad del proceso que lo origina. 
Las definiciones de calidad pueden dividirse en dos categorías. Una de ellas pone el énfasis en el cumplimiento de 
las especificaciones de los productos o servicios; y la otra basa la calidad en la satisfacción del cliente, 
independientemente del cumplimiento de los estándares de calidad fijados. El ingeniero japonés Genichi Taguchi 
propuso una visión diferente de la calidad, una que la relaciona con el costo y la pérdida en términos monetarios. 
“La calidad es la pérdida que un producto causa a la sociedad después de haber sido entregado”. 
Considera a la calidad como una pérdida, la que puede ser ocasionada tanto por las desviaciones en la 
característica de calidad como porlos efectos secundarios del producto. Taguchi desarrolló una metodología 
propia para la mejora de la calidad y la reducción de los costos, conocida como “métodos Taguchi”. 
La filosofía de calidad de Taguchi se basa en tres conceptos fundamentales: 
• Considera que el diseño en la fase inicial del producto es fundamental para lograr la calidad en el resultado 
final. 
• Sostiene que la calidad de los productos mejora cuando se minimiza la variabilidad en torno al valor 
nominal u objetivo. 
• Entiende a los costos de la no calidad como resultado del accionar de toda la organización en su conjunto 
y, en particular, como función de la variabilidad en los procesos. 
En su enfoque se empieza a pensar en la calidad del producto desde el diseño del mismo. El objetivo de su 
propuesta es el de diseñar productos menos sensibles a los factores aleatorios (o ruidos) que hacen que varíen los 
parámetros que definen su calidad. Esto es lo que se llama crear un diseño robusto. Para esto definió un proceso 
de diseño de producto (y proceso de fabricación) en tres etapas: 
➢ Diseño del sistema: Esta es la etapa conceptual en la que se determinan las características generales, 
parámetros a tener en cuenta, objetivos, etc. 
➢ Diseño de parámetros: Una vez establecido el concepto comienza la etapa de ingeniería de detalle, en la 
que se definen los parámetros del producto: dimensiones, especificaciones, materiales, etc. En esta etapa 
un análisis permite establecer parámetros que minimicen los efectos de la variabilidad en el proceso, 
medio ambiente y manipulación en la performance final del producto. 
➢ Diseño de tolerancias: Completado el diseño de parámetros, y con una real comprensión de los efectos 
de cada uno de los parámetros en la performance final del producto. Se puede centrar la atención en unos 
pocos parámetros clave, sobre los que se trabajará en obtener tolerancias más estrechas. 
Los elementos clave de la filosofía de Taguchi son: 
• Función Pérdida de Calidad. 
• Índice de Capacidad de Procesos (Cpm). 
• Incorporación de los Arreglos Ortogonales al Diseño de Experimentos. 
• Índice de Señal Ruido. 
Constituyen herramientas valiosas del Control Estadístico de la Calidad para la identificación, medición, control y 
reducción de la variación de los procesos. 
Función pérdida de calidad: 
38 
 
Se considera la figura 1.1 que contiene las curvas de distribución de frecuencia para la densidad de color de 
televisores. Una curva representa la distribución de frecuencias asociada a lotes manufacturados en Japón y la 
otra a lotes manufacturados en los Estados Unidos. 
 
Ambas fábricas eran idénticas, utilizaban los mismos diseños y tolerancias y pertenecían a la misma compañía. Sin 
embargo, a pesar de las similitudes, el consumidor estadounidense mostró preferencia por los equipos fabricados 
en Japón. Los lotes fabricados en EEUU estaban libres de defectos y ningún producto fuera de la tolerancia fue 
entregado a los consumidores. Entonces, ¿por qué se prefirieron los equipos japoneses? 
Los métodos tradicionales de interpretar a las especificaciones como límites dentro de los cuales todas las piezas 
son igualmente buenas y fuera de ellos son igualmente malas fallan en explicar el fenómeno antes descripto. Esa 
visión se condensa en la figura 1.2 
 
Obsérvese que el costo de variabilidad para la sociedad aumenta en un salto cuántico una vez que se superan los 
límites de especificación. 
La falacia en este tipo de criterios de juicio se ilustró en el ejemplo, donde aunque todos los equipos fabricados 
en Estados Unidos estaban dentro de las especificaciones, los requisitos del cliente aparentemente se satisfacían 
mejor con los equipos construidos en Japón. 
Taguchi ha señalado la equivocación en la visión tradicional en dos aspectos: 
• Desde el punto de vista del cliente, el producto manufacturado que apenas se ajusta a los límites de 
especificación es más similar a una pieza defectuosa que a una pieza en el valor objetivo. Por el contrario, 
existe una diferencia considerable en la calidad de un producto que está en el objetivo y la calidad de otro 
que está cerca de un límite de especificación. Para algunos clientes tal desviación del óptimo es 
39 
 
inaceptable y es lo que influyó en la preferencia de los televisores japonés por sobre los estadounidenses. 
En casi cualquier cosa posible de medir, el cliente no ve una línea muy definida, sino más bien una 
graduación de aceptabilidad. 
• A medida que los clientes se vuelven más exigentes, existe presión para reducir la variabilidad. Sin 
embargo, la figura 1.2 no refleja esta lógica. 
La pérdida de calidad ocurre cuando la característica de calidad se desvía del valor objetivo. Por lo tanto, la calidad 
debe ser evaluada en función de la desviación de su valor objetivo. Recordemos que Taguchi define a la calidad 
de un producto como la pérdida económica impuesta a la sociedad desde el momento en que el producto es 
lanzado al mercado. Estas pérdidas son función de la variación, es decir, de la desviación de la característica de 
calidad del producto respecto del valor nominal. Para el análisis de las pérdidas debidas a la calidad, Taguchi 
desarrolló la Función Pérdida de Calidad, la cual se representa por una función cuadrática con vértice en el valor 
nominal m de la característica de calidad. 
La función permite apreciar que a medida 
que el valor de la característica de calidad se 
aleja de m, la calidad decae y, por lo tanto, 
las pérdidas aumentan, es decir, aun estando 
dentro de las especificaciones, los niveles de 
calidad de los productos pueden variar. 
 
 
 
 
 
¿Cuáles son los elementos de pérdida para la sociedad? 
Se debe pensar tanto en costos internos como externos. 
Internamente, cuanto más variable sea el proceso de manufactura, más desperdicios se generan y más tendrá que 
gastar una compañía en probar e inspeccionar para determinar la conformidad. 
Externamente, los clientes descubrirán que el producto no dura tanto ni funciona tan bien si no está cerca del 
valor objetivo. Habrá costos de mantenimiento, reparación, asociados a la falla en el funcionamiento, costos 
logísticos, etc. 
Desde luego, si los productos se desechan consistentemente cuando están por fuera de las especificaciones, en la 
mayor parte de los casos la curva se aplana a un valor equivalente al costo de desperdicio en los rangos por fuera 
de las especificaciones. Esto se debe a que esos productos al menos teóricamente nunca se venderán, de modo 
que no existe un costo externo para la sociedad. Sin embargo, en muchas situaciones prácticas, o bien el proceso 
es capaz de producir un porcentaje muy alto de productos dentro de la especificaciones y/o no se realiza una 
revisión del cien por ciento, y/o los productos por fuera de las especificaciones se pueden retrabajar para que 
cumplan con las mismas. En cualquiera de estas situaciones, la función perdida parabólica por lo general es un 
supuesto razonable. 
40 
 
 Si se considera que x representa la medición de una característica de calidad de un producto en una escala 
continua y que L representa la pérdida en valor monetario sufrida por el consumidor por recibir el producto 
desviado respecto del valor nominal m, la Función Pérdida de Calidad que Taguchi propone de manera general es: 
 
L: pérdida para la sociedad asociada con una unidad de producto producida a un valor x. 
m: objetivo o meta. 
K: una constante. Se puede expresar como: 
 
c: la pérdida asociada con una unidad de producto producida en un límite de especificación, suponiendo que la 
pérdida para una unidad en el objetivo es cero. Es un valor conjetural (creo). 
d: distancia desde el objetivo hasta el límite de especificación. 
Con n unidades de producto, la pérdida promedio por unidad se convierte en: 
 
Aunque esta fórmula evalúa la perdida promedio, es un poco incomoda porque los datos por lo general no seconsiguen de una manera que haga conveniente la computación del término suma. Sin embargo, a menudo 
existen datos disponibles sobre la media histórica y la desviación estándar para el ítem que interesa. Cuando estos 
datos se conocen, se puede aproximar bastante la perdida promedio por: 
𝜇: promedio del proceso. 
σ: desviación estándar del proceso. 
 
Se observa que la pérdida promedio se reduce si el valor medio de la característica de calidad se acerca al valor 
nominal m (o, según el caso, se acerca a cero o aumenta) y si disminuye la variabilidad de la característica de 
calidad. Es por esto que la pérdida promedio constituye un indicador relevante del desempeño del proceso por la 
información que involucra sobre su media y su variación. 
La única dificultad que plantea la aplicación de la anterior fórmula a una situación práctica es la determinación de 
un valor válido de c. Se sugirió que el valor debía ser una décima parte del precio de venta de un ítem particular. 
Esto significa que, si una unidad estuviera justo en el límite, existe una posibilidad razonable de que, debido a la 
variabilidad de la prueba, la unidad no pase la inspección final. Además, existe una posibilidad razonable de que 
el cliente tendría más problemas con una unidad en el límite que con una en el objetivo y esto redundaría en una 
pérdida para el cliente y posibles devoluciones por garantía. 
41 
 
La pérdida promedio por unidad producida constituye el núcleo del pensamiento de Taguchi sobre la mejora de 
la calidad. En otras palabras, entiende que la mejora radica, por una parte, en el ajuste de la media, pero también 
en la reducción de la variabilidad. Basa su estrategia para el ajuste de la media en torno al valor nominal en la 
implementación del Diseño de Experimentos, y en el índice de Señal Ruido para la reducción de la variabilidad. 
Menor-mejor y Mayor-mejor: 
El análisis precedente corresponde a características de calidad donde el valor nominal es el mejor. 
Una característica de calidad menor-mejor es el tipo en el que se desea minimizar el resultado, siendo el objetivo 
ideal cero. Por ejemplo: 
• el desgaste de un componente 
• la cantidad de ruido audible del motor 
• la cantidad de contaminación del aire 
En las características de menor-mejor no se incluyen datos negativos. La función pérdida de calidad para este caso 
es: 
 
La función pérdida de calidad promedio por unidad para menos-mejor: 
 
 
Las características de calidad mayor-mejor son aquellas en las que se desea maximizar el resultado, el objetivo 
ideal es el infinito. Por ejemplo: 
• resistencia del material 
• eficiencia del combustible 
La función pérdida de calidad para este caso es: 
 
42 
 
 
 
Índice de capacidad de procesos Cpm: 
La calidad final de un producto comienza desde el momento mismo en que es diseñado y prosigue con la 
implementación y control del proceso que lo lleva a cabo. Cuando la variabilidad de los procesos sólo está afectada 
por causas aleatorias, es decir, el proceso está bajo control estadístico, tiene sentido medir su capacidad para 
producir unidades dentro de las especificaciones. 
Los índices más convencionales para cuantificar la capacidad de un proceso son los índices Cp y Cpk, que calculan 
la capacidad como el cociente entre las especificaciones de diseño y la variación natural del proceso. La aplicación 
de estos índices presupone que los procesos a los cuales se aplican tienen característica de calidad con distribución 
de probabilidad normal. Para una característica de calidad con especificaciones bilaterales, la capacidad de un 
proceso centrado en el valor nominal y que opera bajo control estadístico, se mide por medio del índice Cp como: 
 
Si el proceso se desplaza de su centro se recurre al índice Cpk que tiene en cuenta, además de la variabilidad, la 
media μ del proceso: 
 
A mayor valor de Cp o Cpk, menos porcentaje de la producción estará fuera de especificación. Todas las medidas 
resultantes en el intervalo de tolerancias son consideradas “buenas”, sin tener en cuenta su proximidad a los 
límites de especificación. 
Taguchi, a partir de la función pérdida y de la pérdida promedio, desarrolla una alternativa a los índices de 
capacidad de procesos: el índice Cpm, que mide mejor que el Cpk el centrado del proceso y la variabilidad. Se 
define como: 
43 
 
 
El índice Cpm considera las desviaciones del valor objetivo de manera de pérdida cuadrática. Su definición tiene 
en cuenta la variación total del proceso alrededor del valor nominal a través de τ, considerando tanto la 
variabilidad σ2 del proceso como su descentrado (μ- m)2 y también se acepta como valor razonable 1.33. 
Las medidas no solo deben ser “buenas” por estar dentro del intervalo de especificación, sino que también se 
debe saber qué tan buenas son por su proximidad al valor nominal. Cp y Cpk refieren al porcentaje de elementos 
fuera de especificación, mientras que Cpm refiere a la calidad global de los mismos. Taguchi se enfoca en la 
reducción de la variación en relación con un valor objetivo y no en la reducción de la variabilidad sólo para cumplir 
con las especificaciones. 
Diseño de experimentos: 
El método de Diseño de Experimentos (DOE) se utiliza en aquellos procesos en los que se desea determinar si una 
o más variables independientes (factores) tienen influencia sobre la media de una variable respuesta. Evalúa 
simultáneamente en una misma experimentación los efectos de los factores y sus interacciones; permite un 
análisis completo de los resultados experimentales, pudiéndose además obtener, para aquellos factores que 
tienen influencia sobre la media de la variable respuesta, el mejor nivel que la optimiza. 
 Existen diversos tipos de DOE, entre ellos, el del método de Taguchi que innovó y simplificó el DOE clásico con la 
introducción de las tablas conocidas como arreglos ortogonales (AO), que son una modificación de las matrices 
de Hadamard. A través de un AO se determina de una manera estandarizada la combinación de los niveles de los 
factores que se probarán en cada ensayo. Facilitan y, en algunos casos, reducen gran parte del esfuerzo del diseño 
experimental porque posibilitan evaluar simultáneamente numerosos factores con un número mínimo de 
ensayos, permitiendo así disminuir los requerimientos de la experimentación. 
Índice de señal-ruido: 
En los diseños de Taguchi los factores de control son aquellos parámetros de diseño y proceso que pueden ser 
controlados. Los factores de ruido no se pueden controlar durante la producción o el uso de un producto, pero sí 
se pueden controlar durante la experimentación. En un experimento diseñado de Taguchi, los factores de ruido 
se manipulan para hacer que haya variabilidad y, con base en los resultados, identificar la configuración óptima 
de los factores de control que haga que el proceso o producto sea robusto o resistente ante la variación provocada 
por los factores de ruido. Valores más altos en la relación de señal a ruido (S/N) identifican configuraciones de 
factores de control que minimizan los efectos de los factores de ruido. 
Los experimentos de Taguchi suelen usar un proceso de optimización de 2 pasos. En el paso 1, se utiliza la relación 
señal a ruido para identificar los factores de control que reducen la variabilidad. En el paso 2, se identifica los 
factores de control que permiten mover la media al objetivo y tienen poco o ningún efecto sobre la relación de 
señal a ruido. 
La relación de señal a ruido mide cómo varía la respuesta en relación con el valor nominal u objetivo bajo 
condiciones de ruido diferentes. Se puede elegir entre diferentes relaciones de señal a ruido, dependiendo de la 
meta del experimento. 
44 
 
Test de hipótesis y significancia 
En este tema se tratará el importante aspecto de la toma de decisiones, referida a decidir si un valor obtenido a 
partir de la muestra es probable que pertenezca

Continuar navegando