Logo Studenta

DocsTec-4847

¡Este material tiene más páginas!

Vista previa del material en texto

INSTITUTO TECNOLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY 
CAMPUS MONTERREY 
 
 
 
 
DIVISIÓN DE INGENIERÍA Y ARQUITECTURA 
PROGRAMA DE GRADUADOS EN INGENIERÍA 
 
 
 
 
Alternativa de Herramientas Estadísticas para el Desarrollo de 
Proyectos Seis Sigma con Datos No Normales 
 
 
 
TESIS 
 
PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER 
EL GRADO ACADÉMICO DE: 
 
 
 
MAESTRA EN CIENCIAS 
ESPECIALIDAD EN SISTEMAS DE CALIDAD Y PRODUCTIVIDAD 
 
 
 
 
POR: 
 
MARCIA ORTEGA INFANTE 
 
 
 
 
MONTERREY, N. L. MAYO DE 2006
INSTITUTO TECNOLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY 
CAMPUS MONTERREY 
 
DIVISIÓN DE INGENIERÍA Y ARQUITECTURA 
PROGRAMA DE GRADUADOS EN INGENIERÍA 
 
 
 
Los miembros del Comité de Tesis recomendamos que el presente Proyecto de Tesis 
presentado por la Ing. Marcia Ortega Infante sea aceptado como requisito parcial para 
obtener el grado académico de: 
 
 
Maestra en Ciencias 
Especialidad en Sistemas de Calidad y Productividad 
 
 
 
Comité de Tesis: 
 
 
 
 
 
 
María del Carmen Temblador Pérez, M. C. 
Asesora 
 
 
 
 
 
 
 
Alberto Hernández Luna, Ph. D. Erika Guadalupe Acosta Silva, M.C. 
 Sinodal Sinodal 
 
 
Aprobado: 
 
 
 
 
 
Federico Viramontes Brown, Ph. D. 
Director del Programa de Graduados en Ingeniería 
 
 
 
Mayo 2006
 
 
 
 
 
 
 
DEDICATORIA 
 
 
 
A mis papás, Mayda y Guillermo, 
mi ejemplo, mi fuerza, mi fuente inagotable de amor. 
 
 
 
A mi hermana, Mariana, 
mi inspiración, mi alegría, mi amor. 
 
 
 
 
A mis abuelos, Guadalupe y Baldemar, 
mi apoyo, mis amigos incondicionales. 
 
 
 
 
 
A mis padrinos, Irma Ruth y Jorge Luis 
y a mis primas, Krysthel y Alejandra, 
mi familia, mis compañeros inseparables. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
AGRADECIMIENTOS 
 
 
 
 
A mi familia, especialmente a mis padres, por quienes soy lo que soy, a quienes 
debo todo. Por su amor y fe en mí. 
 
 
 
A mi asesora, Maricarmen Temblador, por su apoyo incondicional en la 
realización de esta tesis, por ser un ejemplo a seguir en lo profesional y en lo 
personal, pero sobre todo, por su amistad. 
 
 
 
A mis sinodales, Alberto Hernández y Erika Acosta, por sus consejos y sus 
comentarios oportunos y relevantes para esta tesis. 
 
 
 
A los profesores y directivos del Departamento de Ingeniería Industrial y de 
Sistemas y del Centro de Calidad y Manufactura del Tecnológico de Monterrey, 
Campus Monterrey, por su apoyo a lo largo de mis estudios de posgrado. 
 
 
 
A mis amigos, que también son familia, por estar conmigo en las buenas y en las 
malas. 
 
 
 
 
 
 
 
 
 
 
 
RESUMEN 
 
 
 
La metodología Seis Sigma es uno de lo programas de calidad más 
implementados alrededor del mundo por organizaciones reconocidas 
internacionalmente. A lo largo de las cinco fases que integran su modelo 
genérico DMAIC (Definir, Medir, Analizar, Mejorar y Controlar), se utiliza una gran 
variedad de herramientas estadísticas. 
 
Al hablar de las etapas MAIC, encontramos que los procedimientos estadísticos 
tradicionales implementados en éstas tienen como requisito básico la normalidad 
de los datos. Cuando los datos de los procesos bajo estudio no son normales, 
existen técnicas que permiten su ajuste o normalización. Sin embargo, hay 
ocasiones en las que ninguna de estas técnicas cumple su objetivo y los datos 
permanecen no normales. Cuando se presenta una situación como ésta, es 
necesario el uso de procedimientos estadísticos no paramétricos, insensibles al 
supuesto de normalidad, dándole validez a los resultados obtenidos y otorgando 
al investigador evidencia suficiente para la toma de decisiones. 
 
En el Capítulo 1 de este documento se plantea la definición del problema, las 
hipótesis de la investigación, así como la justificación de la misma. 
 
En el Capítulo 2 se presentan los antecedentes tanto de Seis Sigma, como de la 
Estadística No Paramétrica. 
 
A lo largo del Capítulo 3 se presentan algunas de las herramientas estadísticas no 
paramétricas equivalentes a los procedimientos paramétricos comúnmente 
utilizados en las fases MAIC. 
 
En el Capítulo 4 se muestra la aplicación de algunas de las herramientas no 
paramétricas expuestas en el capítulo anterior, en la problemática de una 
empresa de la localidad. Se desarrollan las mismas pruebas con su contraparte 
paramétrica, con el fin de comparar los resultados obtenidos. 
 
Finalmente, en el Capítulo 5 se concluye acerca de la investigación realizada. 
 
 
 
 
 
 
 
 
 ii 
 
ÍNDICE 
 
 
 
 Resumen ii 
 
 
 Índice iii 
 
 
 Capítulo 1: Introducción 
 
1.1 Planteamiento del problema 01 
 
1.2 Objetivos 02 
 
1.3 Hipótesis 03 
 
1.4 Preguntas de Investigación 03 
 
1.5 Justificación 04 
 1.5.1 Magnitud y trascendencia 04 
 1.5.2 Valor metodológico 05 
 
1.6 Método de Investigación 06 
 1.6.1 Tipo de estudio 06 
 1.6.2 Alcance del estudio 06 
 1.6.3 Pasos para elaborar la investigación 07 
 1.6.4 Selección de la muestra 07 
 1.6.5 Recolección de datos 07 
 1.6.6 Análisis de datos 08 
 
1.7 Alcance y Limitaciones 08 
 1.7.1 Características de la muestra 08 
 1.7.2 Área geográfica para el estudio 08 
 1.7.3 Limitaciones ni definidas por el investigador 08 
 
 
 Capítulo 2: Antecedentes 
 
2.1 Antecedentes 09 
 
2.2 Seis Sigma 10 
 2.2.1 Metodología DMAIC 12 
 2.2.2 Equipos de Trabajo 15 
 
 iii 
 
2.3 La Estadística 16 
 2.3.1 La Estadística Paramétrica y la Estadística No Paramétrica 16 
 2.3.2 Limitaciones de la Estadística No Paramétrica 17 
 2.3.3 Ventajas de la Estadística No Paramétrica 18 
 
 
 Capítulo 3: Procedimientos Estadísticos No Paramétricos 
 
3.1 Conceptos Básicos 20 
 3.1.1 Niveles de Medición 20 
 3.1.2 Variables Continuas y Discretas 21 
 3.1.3 Estadístico contra Parámetro 21 
 3.1.4 Pruebas de Hipótesis 21 
 
3.2 Procedimientos No Paramétricos 23 
 3.2.2 Medición 27 
3.2.2.1 Capacidad del Sistema de Medición: 
Análisis de Dos Factores 27 
 3.2.2.2 Capacidad del Proceso: Curvas de Pearson 29 
 
 3.2.3 Análisis 33 
 3.2.3.1 Prueba de Ranks Con Signo de Wilcoxon 33 
 3.2.3.2 La Prueba Chi Cuadrada 34 
 3.2.3.3 Prueba de la χ2 para Tablas r x c 36 
 3.2.3.4 Prueba de Bondad de Ajuste Kolmogorov – Smirnov 37 
 3.2.3.5 Prueba de Bondad de Ajuste de la χ2 39 
 3.2.3.6 Prueba de Bondad de Ajuste Anderson – Darling 40 
 
 3.2.4 Mejora 41 
 3.2.4.1 Prueba U de Mann – Whitney 41 
 3.2.4.2 La Prueba Kruskal – Wallis 42 
 3.2.4.3 Análisis de un Factor para Alternativas 
en Forma Curva 43 
 3.2.4.4 La Prueba de Levene 45 
 3.2.4.5 La Prueba de Siegel – Tukey 46 
 3.2.4.6 La Prueba de Moses 48 
 3.2.4.7 La Prueba de Rangos Cuadrados 50 
 3.2.4.8 Prueba de Rangos Cuadrados con 
Signo de Wilcoxon para Muestras Pareadas 51 
 3.2.4.9 Prueba Q de Cochran 53 
 3.2.4.10 Coeficiente de Correlación de Spearman 55 
 
 3.2.5 Control 56 
 3.2.5.1 Gráficas de Control EWMA 56 
 
3.3 Síntesis del Capítulo 58 
 
 iv
 
 Capítulo 4: Aplicación 
 
4.1 Definición 61 
 4.1.1 Introducción a la Problemática 61 
 4.1.2 Definición 61 
 
4.2 Medición con Procedimientos No Paramétricos 62 
 4.2.1 Proceso 62 
4.2.2 Pruebas de Normalidad 64 
4.2.3 Capacidad del Proceso en la Variable Brillo 67 
 
4.3 Análisis con Procedimientos No Paramétricos 68 
 4.3.1 Gráficas de Dispersión 68 
 4.3.2 Correlación 70 
 4.3.3 Comparación de Medianas de la Variable Brillo 72 
 4.3.4 Gráfico de Control EWMA 73 
 4.3.5 Comparación de Kilogramos Rechazados en 
 Puntos Dentro y Fuera de Control en la Variable Brillo 76 
 4.3.6 Comparación de Kilogramos Rechazados en Puntos 
 Fuera de Control para la Variable Brillo en la Cara 
 Superior y Cara Inferior77 
 4.3.7 Comparación de Kilogramos Rechazados 
 a Diferentes Temperaturas 78 
 4.3.8 Comparación de Kilogramos Rechazados 
 a Diferentes Viscosidades 79 
 4.3.9 Comparación de la Interacción entre las Variables 
 Temperatura, Viscosidad y Kilogramos Rechazados 80 
 4.3.10 Resultados Obtenidos 81 
 
4.4 Medición con Procedimientos Paramétricos 82 
4.4.1 Capacidad del Proceso en la Variable Brillo 82 
 
4.5 Análisis con Procedimientos Paramétricos 83 
 4.5.1 Comparación de Medianas de la Variable Brillo 83 
 4.5.2 Gráfico de Control X – R 86 
 4.5.3 Comparación de Kilogramos Rechazados en 
 Puntos Dentro y Fuera de Control en la Variable Brillo 89 
 4.5.4 Comparación de Kilogramos Rechazados en Puntos 
 Fuera de Control para la Variable Brillo en la Cara 
 Superior y Cara Inferior 92 
 4.5.5 Comparación de Kilogramos Rechazados 
 a Diferentes Temperaturas 93 
 4.5.6 Comparación de Kilogramos Rechazados 
 a Diferentes Viscosidades 95 
 4.5.7 Resultados Obtenidos 96 
 
4.6 Conclusión sobre Resultados Obtenidos 96 
 v
 
 
 
 Capítulo 5: Conclusiones 
5.1 De la Investigación 99 
5.2 Del Contenido 99 
5.3 De la Aplicabilidad de la Herramienta 100 
5.4 De Futuras Investigaciones 101 
 
 
 
 Referencias 102 
 
 
 Lista de Figuras 104 
 
 
 Lista de Tablas 105
 
 
 Anexos 106 
 
 vi
 
CAPÍTULO 1 
 
INTRODUCCIÓN 
 
 
En la década de los 80’s, época en la que inició el boom de la calidad, Philip 
Crosby popularizó el concepto de Cero Defectos como orientación para el 
control de calidad (Cantú, 1999). Este enfoque tiene la particular característica 
de establecer como meta resultados perfectos, que carezcan de errores en su 
totalidad. 
 
Este concepto no difiere tanto al enfoque Seis Sigma. Ésta es una metodología 
integrada por herramientas estadísticas que permite llevar a cabo, de forma 
sostenida y eficiente, el proceso de solución de problemas, transformando un 
problema real en uno estadístico, y finalmente, las soluciones estadísticas a 
soluciones reales, a través del desarrollo de proyectos. 
 
Aunque el término Seis Sigma surgió también en los años 80 como una importante 
aportación de Motorola, actualmente hay una continua búsqueda por adaptar 
este enfoque a las necesidades emergentes de las organizaciones. Debido a la 
naturaleza de la metodología Seis Sigma (cimentada en conceptos relativos a la 
normalidad de los datos), los análisis estadísticos concernientes a cada proyecto 
se realizan teniendo como base una distribución normal. Pero, ¿qué sucede 
cuando un analista encuentra que los datos arrojados por sus procesos no se 
ajustan a esta distribución? Es entonces cuando se presenta la necesidad de 
utilizar los fundamentos de la estadística no paramétrica. 
 
Debido a lo anterior, el principal objetivo de esta tesis es recopilar las herramientas 
estadísticas básicas que permitan desarrollar proyectos Seis Sigma cuando los 
datos del proceso bajo estudio no cumplen con el criterio básico de normalidad. 
 
 
 
1.1 Planteamiento del Problema 
 
 
La forma más común de ver a la metodología Seis Sigma es a través de su 
objetivo de eliminar los defectos y la variación de los procesos por medio de las 
herramientas estadísticas adecuadas. 
 
La opción gráfica de la aplicación Seis Sigma generalmente se ve relacionada 
con la distribución de probabilidad normal, dado que una gran variedad de 
procesos sigue un desempeño similar al de esta distribución (Stamatis, 2002). 
 
Capítulo 1: Introducción 1
 
El desempeño estándar de un proceso actualmente gira alrededor de 3 sigmas, 
es decir, partiendo de la media del proceso, sus límites de especificación se 
encuentran a ± 3 desviaciones estándar. El área que se encuentra fuera de estos 
límites corresponde a aquellas partes defectuosas que no cumplen la 
especificación proporcionada por el cliente. Un proceso Seis Sigma equivaldría a 
tener 6 desviaciones estándar de cada lado de la media a los mismos límites de 
especificación, lo que se traduce en una menor variación, incrementando así la 
confiabilidad de los procesos. 
 
Como resultado, entonces, encontramos que generalmente se relaciona esta 
metodología con procesos normales. Pero, ¿qué sucede cuando, al realizar la 
recolección y análisis de datos para el desarrollo de un proyecto, se detecta que 
los datos de los procesos bajo estudio no se ajustan a esta distribución? 
 
La bibliografía acerca de la implementación del modelo DMAIC dentro de Seis 
Sigma para datos que se distribuyen normalmente es vasta; sin embargo, cuando 
se trata de lidiar con datos no normales, la información acerca de los 
procedimientos estadísticos disponibles y aplicables comienza a escasear. 
 
Con lo anterior, ahora se puede definir el problema en una pregunta: 
 
“¿Cuáles son algunas de las herramientas estadísticas no paramétricas que 
debe contener el modelo DMAIC, cuando se manejan procesos con datos no 
normales, para que su implementación sea exitosa?”. 
 
 
1.2 Objetivos 
 
 
• Objetivo General 
 
Determinar y mostrar el uso de algunas de las herramientas estadísticas no 
paramétricas que equivalen a las herramientas paramétricas estándar en el 
modelo DMAIC, cuando los procesos bajo análisis arrojan datos no normales. 
 
• Objetivos Específicos 
 
o Definir en cada una de las etapas del modelo DMAIC, dentro del Seis 
Sigma, las posibles herramientas a utilizar cuando los datos bajo análisis no 
son normales. 
o Determinar en qué casos es necesaria la aplicación de métodos 
estadísticos no paramétricos cuando se desarrolla un proyecto Seis Sigma. 
o Proponer qué pruebas estadísticas no paramétricas son las adecuadas 
para cada caso. 
o Evaluar la factibilidad, cuando aplique, de su uso mediante la aplicación 
en una empresa manufacturera de la localidad. 
Capítulo 1: Introducción 2
 
1.3 Hipótesis 
 
 
Como resultado de la identificación y planteamiento del problema y del 
establecimiento de los objetivos de esta tesis, se obtuvo la siguiente hipótesis: 
 
“Es posible identificar y describir el procedimiento de las herramientas 
estadísticas no paramétricas más comunes equivalentes a las existentes en el 
modelo DMAIC, para hacerlo utilizable en procesos con datos no normales”. 
 
La hipótesis será validada a lo largo de la realización de esta tesis mediante la 
investigación y análisis de literatura especializada en el tema. Algunas de ellas se 
validarán a través de su aplicación en la problemática de una empresa, 
obteniendo de esta manera evidencia suficiente, tanto teórica como práctica, 
que permita finalmente aceptarla o rechazarla. 
 
 
 
1.4 Preguntas de Investigación 
 
 
Ahora bien, considerando la problemática, los objetivos y la hipótesis de esta tesis, 
las preguntas que servirán como guía de la investigación son: 
 
• ¿Cuáles son los orígenes de la calidad? 
• ¿Cuáles son los principios que rigen la metodología Seis Sigma? 
• ¿Cuál es su aportación a la calidad? 
• ¿Quiénes participan en esta metodología? 
• ¿Qué pasos/procedimientos se sigue en esta metodología? 
• ¿En qué consiste el proceso DMAIC? 
• ¿En qué parte de la metodología se aplica el análisis estadístico? ¿Qué 
resultados se esperan en cada etapa o fase del desarrollo de un proyecto 
Seis Sigma? 
• ¿Qué pruebas estadísticas son necesarias antes de iniciar un proyecto Seis 
Sigma? 
• ¿Qué pruebas estadísticas son necesarias durante el desarrollo de un 
proyecto Seis Sigma? 
• ¿Qué relación existe entre la metodología Seis Sigma y la Estadística No 
Paramétrica? 
• ¿En qué casos es necesario el uso de la Estadística No Paramétrica? 
• ¿Existen pruebas básicas en la Estadística No Paramétrica? 
• ¿Cuáles son útiles y aplicables para un proyecto Seis Sigma? 
• ¿Es factible aplicarlas a un caso real? 
 
 
 
Capítulo 1: Introducción 3
 
1.5 JustificaciónSeis Sigma es una metodología que involucra el uso de herramientas estadísticas 
como parte elemental en su aplicación. Es muy común el hecho de relacionarla 
estrechamente con procedimientos estadísticos que tienen como supuesto 
primordial la normalidad de los datos bajo análisis. Esto puede suceder debido a 
que la metodología en sí está desarrollada a partir los fundamentos de la 
distribución normal, ya que se engloba conceptos como media, desviaciones 
estándar y áreas defectuosas bajo la curva. Por otro lado, gran parte del 
entrenamiento para convertirse en un experto en Seis Sigma se enfoca de 
manera exclusiva en la estadística paramétrica, utilizando métodos válidos 
únicamente para datos normales. 
 
Inconvenientemente, los procesos no siempre se ajustan a una distribución 
normal; de hecho, es bastante común que éstos sigan distribuciones diferentes 
(Azzimonti, 2000). La mayoría de los procesos, especialmente aquellos que tienen 
que ver con la confiabilidad y ciclos de vida, no se distribuyen normalmente. En 
días pasados se pensaba que había algo mal con los procesos que no seguían 
esta distribución o incluso que estaban fuera de control. Actualmente los 
estadísticos y profesionales de la calidad reconocen que la distribución normal es 
utilizada debido a su simplicidad y a su buena definición; sin embargo gran parte 
de los proyectos en pro de la calidad involucran procesos con datos no normales 
(Padnis, 2006). Entre éstos se encuentran tiempos de ciclo, llamadas por hora, 
tiempo de espera del cliente, perpendicularidad, encogimiento, etc. 
 
De este modo, si el analista detecta que los datos que está manejando no son 
normales, se topa con la escasez de información que le permita conocer las 
opciones en cuanto a procedimientos estadísticos se refiere. Cuando se presenta 
una situación como ésta, la estadística no paramétrica brinda al investigador las 
herramientas adecuadas para el tratamiento de dichos datos. 
 
Es en este punto que radica la importancia de investigar, recopilar y desarrollar 
las herramientas estadísticas no paramétricas básicas, que sean útiles al analista 
en caso de encontrarse con procesos no normales durante el desarrollo de un 
proyecto de mejora Seis Sigma. 
 
 
1.5.1 Magnitud y trascendencia 
 
Actualmente uno de los principales retos a los que se enfrentan las organizaciones 
es la competencia en un mundo cada vez más global e interdependiente. La 
calidad, más que un valor agregado, es ahora una exigencia del cliente y una 
ventaja competitiva para el proveedor que puede otorgarla. 
 
Si a esto se le agrega la aceleración del desarrollo y renovación de la tecnología, 
la urgencia de una mejora continua y de la eficiencia de los procesos es 
Capítulo 1: Introducción 4
 
evidente. Debido a esta situación, las empresas se han percatado de la enorme 
necesidad de realizar un cambio en su estilo de manejarse. Una de las respuestas 
que ha traído muy buenos resultados ha sido la metodología Seis Sigma, debido a 
tres características principales: 
 
• Seis Sigma está enfocado en el cliente. 
• Los proyectos Seis Sigma producen importantes retornos sobre la inversión. En 
un artículo del “Harvard Business Review”, Sasser y Reichheld señalan que las 
compañías pueden ampliar sus ganancias en casi un 100% si retienen sólo un 
5% más de sus clientes gracias al logro un alto grado de calidad. 
• Seis Sigma cambia el modo que opera la organización, al conocer y aprender 
nuevos enfoques en la forma de resolver problemas y tomar decisiones. 
 
Por otra parte, el llamado “costo de la calidad” es un concepto que también 
expone la magnitud y trascendencia de la aplicación de proyectos Seis Sigma 
(PPG Consultores, 2003). Mientras que los directivos de las empresas pueden llegar 
a pensar que invertir en la mejora de la calidad en los procesos representa un 
costo, la realidad es que el gasto mayor se da a partir de la ausencia de la 
calidad (fallas internas o externas). Cuando un proceso se encuentra controlado 
a seis desviaciones estándar, como lo propone la metodología, se presume que 
los costos de calidad, como porcentaje de las ventas, disminuyen 
considerablemente como se observa en la Tabla 1.1: 
 
 
Nivel de 
Calidad DPMO 
Nivel 
Sigma 
Costo 
Calidad 
30.90% 690,000 1 NA 
69.20% 308,000 2 NA 
93.30% 66,800 3 25-40% 
99.40% 6,210 4 15-25% 
99.98% 320 5 5-15% 
100.00% 3.4 6 <1% 
Tabla 1.1: El Costo de Calidad 
Extraída de PPG Consultores, 2003 
 
Con los argumentos anteriores, es posible percatarse de la importancia de la 
correcta implementación de Seis Sigma en las organizaciones. Pues bien, si el 
desarrollo de estos proyectos de mejora es hoy en día trascendental para las 
empresas que manejan Seis Sigma, por consecuencia, lo es también la aplicación 
de los procedimientos no paramétricos adecuados a lo largo de la metodología 
MAIC, cuando se tienen datos no normales. 
 
 
1.5.2 Valor metodológico 
 
La riqueza metodológica y teórica de esta tesis reside en que la recopilación de 
las herramientas estadísticas adecuadas para el desarrollo de proyectos Seis 
Sigma con datos no normales será un instrumento prácticamente nuevo. Su 
Capítulo 1: Introducción 5
 
 
aportación se presenta en forma de una guía, considerada de gran utilidad para 
los analistas que se enfrentan a esta situación en el desarrollo de los proyectos de 
mejora. La información obtenida con esta investigación brinda orientación en un 
tema sobre el cual no existe literatura extensa ni condensada en un solo 
documento. Por tanto, cabe la posibilidad de que esta tesis dé pie al surgimiento 
de nuevas investigaciones y sirva como base para otras similares. 
 
 
 
1.6 Método de Investigación 
 
 
1.6.1 Tipo de estudio 
 
El enfoque de esta investigación es mixto, es decir, una combinación de 
cualitativo y cuantitativo. Al inicio y durante la mayor parte de la realización de 
esta tesis, la naturaleza del estudio fue cualitativo debido a que se utilizó la 
recolección de datos en forma de investigación bibliográfica, sin involucrar la 
medición numérica (Hernández, 2002), para contestar las preguntas de 
investigación enfocadas a la aplicación del Seis Sigma y al uso de la estadística 
no paramétrica en conjunto, desde un punto de vista teórico. 
 
Por otra parte, se utilizó el enfoque cuantitativo al aplicar el procedimiento 
resultante de la investigación teórica, con datos reales en una empresa, para 
probar la hipótesis de que el modelo MAIC en Seis Sigma sí puede ser adaptado 
para procesos no normales, con base a la medición numérica y el análisis 
estadístico (Salkind, 1998). 
 
 
1.6.2 Alcance del estudio 
 
Esta investigación comenzó como un estudio exploratorio, debido a que el 
problema de investigación examinado ha sido poco estudiado (Hernández, 
2002). Si bien es cierto que existe una cantidad importante de literatura respecto 
a Seis Sigma y la estadística no paramétrica por separado, cuando se trata de la 
conjunción de ambos elementos, la información se reduce considerablemente. 
Por otra parte, esta investigación también tuvo una naturaleza descriptiva, ya que 
se busca identificar las propiedades y características esenciales que deben tener 
los procedimientos estadísticos no paramétricos para que su aplicabilidad pueda 
ser validada en una empresa. Esta investigación incluye la recopilación y 
desarrollo de las herramientas básicas que pueden ser de gran ayuda a los 
miembros de un equipo Seis Sigma cuando los procesos que están analizando 
presentan datos no normales. 
 
 
 
Capítulo 1: Introducción 6
 
1.6.3 Pasos para elaborar la investigación 
 
A grandes rasgos, los pasos para la elaboración de esta tesis fueron los siguientes: 
• Se realizó una revisión bibliográfica de fuentes primarias y secundarias, para 
recolectar información que pudiera contestar las preguntas de investigación y 
dar un soporte teórico a las herramientas estadísticas más adecuadas para 
cada situación, que a fin de cuentas, es el entregable deesta tesis. 
• Se hizo un análisis de la información recolectada, para hacer uso de la 
literatura realmente útil y relevante para los objetivos de investigación y, por 
consecuencia, desechar lo inservible. 
• Con todo lo anterior, se determinaron los elementos teóricos y prácticos que 
debe contener la descripción de las herramientas estadísticas para la 
aplicación de Seis Sigma a proyectos que involucren procesos con datos no 
normales. 
• Se revisó, integró y estructuró la información. 
• Se elaboró el reporte de herramientas no paramétricas adecuadas para cada 
situación. 
• Se buscó, evaluó y seleccionó un proyecto de mejora adecuado para validar 
la aplicabilidad del procedimiento ya elaborado. 
• Se aplicaron los procedimientos investigados al proyecto. 
• Se interpretaron los resultados obtenidos. 
• Se elaboraron las conclusiones. 
 
 
1.6.4 Selección de la muestra 
 
Se utilizaron datos de un proceso que cumpliera con el requisito de la existencia 
de procesos con datos no normales y se evaluó la factibilidad de aplicación de 
las herramientas investigadas. Por otra parte, la muestra de los datos que se 
analizaron estadísticamente se tomó de manera directa de los procesos de 
manufactura de una organización de la localidad. 
 
La cantidad de datos a ser analizados corresponde a 302, obtenidos de 35 
muestras con un promedio de 9 lecturas en cada muestra, correspondientes a 5 
días de trabajo. 
 
 
1.6.5 Recolección de datos 
 
La recolección de información teórica se realizó a través de la investigación 
bibliográfica en fuentes primarias y secundarias. En la parte práctica, aplicable a 
los procesos de una organización, la recolección de datos para su análisis 
estadístico se hizo a través un muestro del proceso bajo estudio, en la compañía 
seleccionada. 
 
 
 
Capítulo 1: Introducción 7
 
1.6.6 Análisis de datos 
 
El análisis de la muestra se llevó a cabo a través de la aplicación de las 
herramientas estadísticas no paramétricas adecuadas para cada caso, de 
acuerdo a la información obtenida de la investigación literaria, que se presenta 
posteriormente en el marco teórico de esta tesis. Asimismo, se aplicaron las 
herramientas paramétricas estándar para comparar los resultados obtenidos, así 
como la validez de su implementación. 
 
 
 
1.7 Alcance y Limitaciones 
 
 
1.7.1 Características de la muestra 
 
Se buscó específicamente que la muestra seleccionada para el estudio en el 
proyecto de mejora cumpliera con la característica de no normalidad, ya que 
ésta es un requisito básico para la aplicabilidad de los procedimientos y 
herramientas estadísticas propuestos. 
 
 
1.7.2 Área geográfica para el estudio 
 
El estudio fue realizado con datos recolectados a partir de los procesos de 
manufactura de una empresa de Monterrey, Nuevo León, México. 
 
 
1.7.3 Limitaciones no definidas por el investigador 
 
Por cuestiones de tiempo, la validación de la aplicabilidad de los procedimientos 
estadísticos puede llegar a ser sólo analítica, ya que la implementación real 
podría tomarse incluso como material para otras tesis, o bien, para la 
continuación de ésta. Además, debido a la confidencialidad acordada con la 
organización involucrada, se omiten algunos de los datos relacionados a sus 
procesos. 
 
 
 
 
 
 
 
 
 
 
Capítulo 1: Introducción 8
 
CAPÍTULO 2 
 
ANTECEDENTES 
 
 
Desde su nacimiento, el programa de calidad Seis Sigma ha tenido como 
cimiento el uso de diferentes métodos estadísticos para el análisis de información 
y la optimización de procesos. Debido a que su concepción se basa 
principalmente en parámetros referentes a la curva normal, Seis Sigma se ha visto 
estrechamente vinculado a la Estadística Paramétrica. A causa de esto, la 
mayoría de las personas involucradas con proyectos de esta naturaleza esperan 
que los datos arrojados por la medición de sus procesos se ajusten a la distribución 
normal, siendo que esto no sucede en todos los casos. Cuando una situación 
como ésta se presenta es necesario el uso de la Estadística No Paramétrica. 
Algunas de las herramientas estadísticas no paramétricas útiles para este caso se 
muestran a lo largo del Capítulo 3. 
 
 
2.1 Antecedentes 
 
La metodología Seis Sigma se inicia en los años 80's como una estrategia de 
negocios y de mejora de calidad, introducida por Motorola, adoptándose y 
difundiéndose posteriormente por otras organizaciones de clase mundial como 
G.E., Sony, Polaroid, FeDex, Dupont, Toshiba, Ford y Black & Decker, entre otros. 
 
Su origen en Motorola se da cuando Mikel Harry comienza a influenciar a la 
organización para que se estudie la variación en los procesos, es decir, la 
desviación estándar. Esta iniciativa se convirtió en el centro del esfuerzo para 
mejorar la calidad en la empresa, capturando la atención de Bob Galvin, 
ejecutivo de Motorola. Con el apoyo de Galvin, se hizo énfasis, no sólo en el 
análisis de la variación, sino también en la mejora continua, estableciendo como 
meta obtener 3.4 defectos por millón en los procesos. 
 
Anteriormente, Motorola había utilizado herramientas de los grandes gurúes de la 
calidad, como Juran, e implantado aplicaciones del Control Estadístico del 
Proceso (SPC). Esto propició el desarrollo de una nueva metodología tomando lo 
mejor de aquellos conceptos, pero ahora con un enfoque completo hacia la 
satisfacción del cliente. Esta metodología fue llamada después Seis Sigma. El 
impulso hacia esta metodología se incrementó cuando Motorola ganó el 
Malcolm Baldridge Nacional Quality Award en 1988. 
 
En 1991, Lawrence Bossidy, CEO de Allied Signal, implantó esta metodología, 
logrando transformarla de una empresa con problemas en una realmente exitosa. 
Durante la implantación de Seis Sigma en los años 90, Allied Signal multiplicó sus 
ganancias de manera considerable. Durante el verano de 1995, Jack Welch de 
Capítulo 2: Antecedentes 9
 
GE se entera del éxito de esta nueva estrategia, dando lugar al mayor cambio 
iniciado en esta organización. 
La forma en que Seis Sigma se convirtió de un programa de calidad en 
manufactura, a un sistema para reducir fallas en el diseño y comercialización de 
productos se logró por dos razones significativas: la formación de equipos de 
trabajo como los Master Black Belts, Black Belts y Green Belts; además de la 
inclusión de la metodología de selección y desarrollo de proyectos como el 
DMAIC (Snee, 2001). 
 
En el modelo DMAIC (Definir, Medir, Analizar, Mejorar y Controlar), todas las 
etapas utilizan herramientas estadísticas, pero son las de medición, análisis, mejora 
y control las que involucran el uso de métodos estadísticos con requerimientos de 
normalidad. Cuando dicho requerimiento no se cumple, hace su entrada la 
Estadística No Paramétrica. Generalmente en los proyectos Seis Sigma, se 
analizan modelos estadísticos que implican distribuciones tanto continuas como 
discretas, con ciertos supuestos básicos para la aplicación de estas técnicas (el 
supuesto de normalidad, por ejemplo). El principal uso de estos modelos es la 
estimación de parámetros desconocidos de la población que se está estudiando, 
para poder hacer pruebas de validación y de hipótesis planteadas. A esta 
metodología de trabajo se le denomina Estadística Paramétrica. Mientras los 
supuestos usados en la paramétrica especifican la distribución original, hay otros 
casos en la práctica donde no se puede hacer esto. Se requiere entonces de otra 
metodología de trabajo, la Estadística No Paramétrica (Azzimonti, 2000). 
 
En las secciones posteriores de esta tesis, se hace una mención más extensa de 
los conceptos mencionados anteriormente. 
 
 
 
2.2 Seis Sigma 
 
Desde principios de la década de 1980 a 1990, surgió la conciencia de la 
necesidad de productos de buena calidad: las normas que las que las empresas 
seguían ya no eran aceptables. Fue así como la satisfacción del cliente, la 
confiabilidad, la productividad, los costos y la rentabilidad comenzaron a ser 
directamente dependientes a la calidadde los productos y servicios. 
 
A la par de esta tendencia, surgió también un movimiento que incluía teorías, 
metodologías y herramientas para lograr lo demandado por los clientes, basados 
en conceptos previos y nuevos referentes al control de la calidad. Entre ellos se 
encontraba la metodología Seis Sigma. Pero ¿qué diferencia a Seis Sigma de 
todas las demás metodologías y herramientas? 
 
Desarrollada en 1987 por Motorola como una iniciativa de negocios, Seis Sigma 
tiene el principal objetivo de reducir el número de defectos en un proceso para 
lograr la satisfacción del cliente, basándose en el hecho de que la variación es el 
principal enemigo de la productividad en cualquier organización. 
Capítulo 2: Antecedentes 10
 
 
El término Seis Sigma tiene su origen en la estadística a partir de un proceso capaz 
de abarcar seis sigmas en la curva normal. Sigma (σ) es la letra griega que se 
utiliza para representar la desviación estándar, una medida de dispersión en una 
distribución. Por tanto, un proceso que comprenda seis sigmas, es decir, seis 
desviaciones estándar, puede tener 3.4 defectos por millón de oportunidades. 
Esto equivale a un nivel de calidad de 99.99966%, que se aproxima de forma 
considerable al ideal de cero defectos. 
 
En esencia, entonces, la sigma refleja la capacidad de un proceso y tiene la 
propiedad de relacionarse de manera directa con características como defectos 
por unidad, partes por millón y la probabilidad de falla o error. Por lo anterior, el 
seis sigma en sí se ha convertido en la meta para muchas organizaciones, ya que 
provee un métrico uniforme para medir el desempeño. La comparación clásica 
de la diferencia del nivel 6σ se muestra en la Tabla 2.1: 
 
Capacidad del 
Proceso 
Defectos por 
Millón de 
Oportunidades 
(DPMO) 
6 3.4 
5 233 
4 6,210 
3 66,807 
2 308,537 
Tabla 2.1: Niveles Sigma con un desplazamiento de ± 1.5σ 
Extraída de Stamatis, D.H., 2002 
 
Otra forma de apreciar y entender el efecto de moverse del estándar histórico de 
3σ, al estándar actual de la mayoría de las organizaciones de 4σ y, finalmente, al 
nuevo estándar de 6σ, se presenta en la Tabla 2.2: 
 
Sigma Tiempo Dinero 
3σ 3.5 meses por cada 100 años. 
Por cada $1000 millones de 
activos, hay una deuda de 
$2.7 millones. 
4σ 2.5 días por cada 100 años. 
Por cada $1000 millones de 
activos, hay una deuda de 
$63,000. 
5σ 30 minutos por cada 100 años. 
Por cada $1000 millones de 
activos, hay una deuda de 
$570. 
6σ 6 segundos por cada 100 años. 
Por cada $1000 millones de 
activos, hay una deuda de 
$2. 
Tabla 2.2: Comparación de Estándares 
Adaptada de Stamatis, D.H. (2002) 
Capítulo 2: Antecedentes 11
 
Sin embargo, y por conveniente que esto es, Seis Sigma no se enfoca solamente 
en lo que se refiere a los métricos de desempeño de la organización, sino que 
exige además un cambio de paradigma total en sus funciones, involucrando el 
compromiso de la dirección y la responsabilidad y aceptación de la propiedad 
del proceso de quienes forman parte de los mismos. Por tanto, Seis Sigma tiene 
una metodología específica para identificar, medir, analizar, mejorar y controlar 
los procesos, a partir del trabajo en equipo. 
 
La utilidad de la metodología Seis Sigma radica en que puede ser aplicada no 
solamente a procesos de manufactura, que es el ambiente del que proviene, sino 
también a procesos transaccionales y de servicios. 
 
 
2.2.1 Metodología DMAIC 
 
La metodología DMAIC* es el modelo genérico de Seis Sigma∗. Es un acrónimo 
cuyas siglas en inglés significan Definir, Medir, Análisis, Mejorar y Controlar, 
representando cada una de las fases que se siguen en un proyecto de mejora. 
 
 
Figura 2.1: Modelo General DMAIC 
 
 
• Definir 
Se identifican los posibles proyectos Seis Sigma evaluados por la alta 
dirección. En esta fase se especifica la misión del proyecto, se selecciona el 
equipo de trabajo, se asignan roles, se determinan objetivos, metas y roles, así 
como el alcance del mismo. 
 
 Herramientas: 
o QFD: Traducir los requerimientos del cliente (VOC) a CTQ’s (Critical to 
Quality). 
o Diagrama de Pareto: Identificar la principal problemática a atacar. 
o AMEF: Identificar parámetros que no desea el cliente o fallas 
potenciales. 
o Benchmarking: Comparar lo que hacen otras empresas contra la 
propia. 
o Mapa del proceso: Identificar procesos principales. 
o SIPOC: Identificar proveedores, entradas, procesos, salidas y clientes. 
o VOP: Identificar los requerimientos principales del proceso. 
o Planeación Operativa: Identificar áreas de oportunidad que se 
transformen en proyectos Seis Sigma. 
 
 
∗ Términos acuñados por Motorola. 
Capítulo 2: Antecedentes 12
 
 Resultados: 
o Equipo integrado. 
o Requerimientos del cliente y del proceso. 
o Oportunidades de triunfo. 
o Planteamiento del problema. 
o Proyecto clarificado. 
 
 
• Medir 
Se basa en la caracterización del proceso. En ésta se identifican los requisitos 
clave de los clientes, las características clave del producto (o variables de 
salida) y los parámetros (variables de entrada) que afectan al 
funcionamiento del proceso. A partir de esta caracterización se define el 
sistema de medición y se mide la capacidad del proceso. 
 
 Herramientas: 
o Gráficos de Control: Verificar si el proceso se encuentra bajo control. 
o Cp y Cpk: Conocer la capacidad del proceso. 
o MSA= Atributos y Gage R&R: Conocer la capacidad del sistema de 
medición. 
o DPMO: Medición de los defectos por millón de oportunidades. 
o Diagrama Causa – Efecto (Ishikawa) y Matriz Causa – Efecto: Encontrar 
las causas raíz de un problema determinado. 
o Baseline: Determinar el estado actual del proceso y su nivel sigma. 
o Series de tiempo: Comprender el comportamiento de datos de los 
procesos a través del tiempo en intervalos uniformes. 
 
 Resultados: 
o Indicadores del proceso, de entradas y de salidas. 
o Identificación de las posibles variables que afectan al métrico primario. 
o Representación del proceso para obtener un punto de partida válido. 
 
 
• Analizar 
El equipo analiza los datos obtenidos en la fase anterior. Se desarrollan y 
comprueban hipótesis sobre posibles relaciones causa-efecto utilizando 
diversas herramientas estadísticas. De esta forma el equipo identifica las 
variables clave de entrada que afectan a las variables de respuesta del 
proceso. 
 
 Herramientas: 
o Pruebas de Hipótesis: Verificar la relación entre los efectos. 
o Análisis de Regresión: Identificar las relaciones entre las variables de 
entrada y las de salida. 
o ANOVA: Verificar la igualdad de medias de los procesos. 
o Diagrama de Ishikawa: Identificar las causas raíz. 
o AMEF: Plantear planes de acción para controlar las variables críticas 
identificadas en la etapa anterior. 
Capítulo 2: Antecedentes 13
 
 Resultados: 
o Análisis de datos. 
o Causas raíz validadas. 
o Fuentes de variación. 
o Identificación de variables a mejorar. 
o Identificación de variables a discriminar. 
o Comprobación de la relación causal entre las variables críticas y el 
métrico primario. 
 
 
• Mejorar 
El equipo de trabajo trata de determinar la relación causa-efecto para 
predecir, mejorar y optimizar el funcionamiento del proceso. Por último se 
determina el rango operacional de los parámetros o variables de entrada del 
proceso. 
 
 Herramientas: 
o Diseño de Experimentos y Superficies de Respuesta: Optimizar las 
salidas a través del uso de los niveles adecuados de las entradas. 
o EVOP: Alcanzar el óptimo mediante cambios paulatinos. 
o Regresión: Desaclopar variables para simplificar su control. 
o Simulación: Encontrar el óptimo mediante la representación de 
condiciones reales del proceso. 
o Series de tiempo: Comprender el comportamiento de los datos para 
predecir eventos futuros. 
 
 Resultados: 
o Soluciones. 
o Documentación de cambios necesarios. 
o Niveles óptimos de operación. 
o Comprobación de los cambios propuestos.• Controlar 
Se diseñan y documentan los controles necesarios para asegurar que lo 
conseguido mediante el proyecto se mantenga una vez que se hayan 
implantado los cambios. 
 
 Herramientas: 
o Planes de Control: Determinar planes de contingencia. 
o Gráficos de Control y Control Estadístico del Proceso: Monitorear la 
estabilidad del proceso y comprobar las mejoras. 
o Planes de Mantenimiento Preventivo y Predictivo: Evitar adoptar la 
filosofía de “apagar incendios”. 
o Poka Yoke: Procesos a “prueba de errores”. 
o Auditorías: Asegurarse de que las soluciones se han puesto en marcha 
y se han mantenido. 
o Planes de transición: Organizar los esfuerzos para mantener la mejora. 
Capítulo 2: Antecedentes 14
 
 
 
 Resultados: 
o Planes de control. 
o Planes de transición. 
o Evidencia de la mejora. 
o Reportes de auditorías. 
o Normas y procedimientos. 
 
 
2.2.2 Equipos de Trabajo 
 
En la actualidad, y de forma creciente, las organizaciones están implementando 
equipos de trabajo para alcanzar los beneficios del esfuerzo colectivas. La 
metodología Seis Sigma no es ajena a esta tendencia, sino, por el contrario, es 
promotora del trabajo en equipo, y éste forma parte esencial de sus 
procedimientos. 
 
Como una forma de identificar a determinados miembros dentro de la 
organización que cumplen funciones específicas en la metodología de Seis 
Sigma, e inspirados en las artes marciales como filosofía de mejora, se asignan 
diferentes niveles de cinturones para aquéllos que lideran y están involucrados de 
alguna forma en los proyectos. 
 
De esta manera, los Black Belt son personas que se dedican a tiempo completo a 
detectar oportunidades de cambio y a conseguir que logren resultados. El Black 
Belt es responsable de liderar, entrenar y cuidar de los miembros de su equipo. 
Debe poseer conocimientos tanto en materia de calidad, como en temas 
relativos a estadística, resolución de problemas y toma de decisiones. 
 
El Green Belt está formado en la metodología Seis Sigma como apoyo a las tareas 
del Black Belt. Sus funciones fundamentales consisten en aplicar los nuevos 
conceptos y herramientas de Seis Sigma a las actividades del día a día de la 
organización. 
 
El Master Black Belt desempeña un rol de entrenador, mentor y consultor para los 
Black Belts que trabajan en los diversos proyectos. Debe poseer amplia 
experiencia en el campo de Seis Sigma y en las operaciones de producción, 
administrativas y de servicios de la organización. 
 
El Champion es un ejecutivo o directivo que inicia y patrocina a un Black Belt o a 
un equipo de proyecto, siendo sus responsabilidades garantizar que éstos estén 
alineados con los objetivos generales de la empresa y proveer dirección cuando 
eso no ocurra, mantener informados a los otros directivos sobre el progreso del 
proyecto, proveer o persuadir a terceros para aportar al equipo los recursos 
necesarios y efectuar enlaces con otros proyectos Seis Sigma. 
 
 
Capítulo 2: Antecedentes 15
 
2.3 La Estadística 
 
Actualmente, las organizaciones, en su lucha constante por el liderazgo, tienen la 
tarea de esforzarse por mejorar constantemente la calidad de sus productos y 
servicios, con el objetivo de competir exitosamente en el mercado local y 
mundial. Los ingenieros juegan un papel fundamental en este afán por el 
mejoramiento de la calidad, ya que son ellos quienes tienen como 
responsabilidad diseñar y desarrollar nuevos productos y procesos de fabricación, 
así como el perfeccionamiento de los ya existentes. 
 
Los recursos estadísticos son una herramienta básica en estas actividades debido 
a que proporcionan métodos descriptivos y analíticos para conocer y manejar la 
variabilidad de los datos observados dentro de los procesos de interés. La 
Estadística trata de la recolección, presentación, análisis y uso de datos para la 
toma de decisiones, solución de problemas y diseño de productos y procesos 
(Montgomery, 2002). 
 
 
2.3.1 La Estadísica Paramétrica y la Estadística No Paramétrica 
 
La estadística es un campo dentro de las matemáticas, que involucra la 
agrupación, clasificación y análisis de datos. La estadística puede ser dividida en 
dos áreas generales, la estadística descriptiva y la estadística inferencial. 
 
La estadística descriptiva emplea métodos y procedimientos para presentar y 
organizar datos, mientras que en la estadística inferencial los datos son utilizados 
para hacer predicciones y derivar conclusiones acerca de una población 
mediante la selección de una muestra. Ambas ramas de la estadística poseen 
procedimientos paramétricos y no paramétricos. 
 
El propósito de la estadística es proporcionar las herramientas necesarias para 
darle objetividad a las conclusiones de los analistas; de esta manera, es posible 
separar la ciencia de la opinión (Conover, 1980). Las leyes de la probabilidad son 
aplicadas a ciertos modelos de experimentación con el objetivo de determinar 
cuáles son las oportunidades de ocurrencia de todos los resultados posibles. 
 
A pesar de que en ocasiones es difícil describir un modelo teórico apropiado para 
cada experimento, la mayor dificultad se da cuando, después de que el modelo 
ha sido definido, se desean determinar las probabilidades asociadas a dicho 
modelo. Por tanto, existen modelos para los cuales nunca se han encontrado 
soluciones probabilísticas. Ante esta circunstancia los estadísticos han modificado 
ligeramente los modelos, con el objetivo de encontrar las probabilidades 
deseadas, procurando que el cambio sea lo suficientemente pequeño para 
obtener resultados válidos. De esta forma, se encuentran soluciones exactas a 
problemas aproximados. A esta parte de la Estadística, se le llama Estadística 
Paramétrica, e incluye pruebas tan conocidas como la prueba T o la prueba F. 
 
Capítulo 2: Antecedentes 16
 
En la década de 1930 a 1940, surgió un enfoque diferente para lidiar con este tipo 
de problemas. Éste involucraba métodos simples para encontrar las 
probabilidades deseadas, o al menos una buena aproximación de estas 
probabilidades, haciendo pocas o ninguna modificación al modelo original. Con 
esto era posible encontrar soluciones aproximadas a problemas exactos, lo 
contrario a la estadística paramétrica. A esta rama de la estadística se le conoce 
desde entonces como Estadística No Paramétrica. 
 
La mayoría de los procedimientos relativos a pruebas de hipótesis y construcción 
de intervalos de confianza utilizados en diversos ámbitos, especialmente en 
ingeniería, parten del supuesto de que las muestras aleatorias con las que se 
trabajan provienen de poblaciones normales. Estos procedimientos son conocidos 
como métodos paramétricos, ya que se basan en una distribución paramétrica 
particular, en este caso, la normal. 
 
De igual manera, existen los llamados métodos no paramétricos, también 
conocidos como métodos de distribución libre. Generalmente, el único supuesto 
en el que éstos se basan es el de continuidad, es decir, que la distribución de la 
población de la proceden es continua. 
 
Una de las ventajas de estos procedimientos es que no es necesario que los datos 
sean cuantitativos, sino que pueden ser datos categóricos o datos en forma de 
rank, además su aplicación es rápida y sencilla. 
 
Si es posible aplicar ambos métodos (paramétricos y no paramétricos) en un 
problema específico, se optaría por utilizar un método paramétrico eficiente 
(Montgomery, 2002). Sin embargo, los supuestos necesarios para que este tipo de 
procedimientos sean válidos en ocasiones pueden ser difíciles o imposibles de 
satisfacer, situación que es muy frecuente en la práctica. Por ejemplo, en caso de 
que los datos estén en forma de ranks, es improbable que éstos cumplan el 
supuesto de normalidad. Muchos métodos no paramétricos incluyen el análisis de 
ranks y, por tanto, se ajustan a este tipo de problemas. 
 
Una diferencia importante entre ambos tipos de estadística, que no puede 
dejarse de mencionar, es que la paramétrica se enfoca enel valor de los datos 
como tal, mientras que la no paramétrica considera el orden de éstos (por ello se 
otorga el nombre de estadísticos de orden). De esta forma, mientras la primera 
utiliza como medidas la media y la varianza, la segunda hace uso de la mediana 
y ranking de los datos. 
 
 
 
2.3.2 Limitaciones de la Estadística No Paramétrica 
 
La mayoría de las fuentes hacen distinción entre las pruebas paramétricas y las no 
paramétricas basándose en el hecho de que las primeras hacen suposiciones 
específicas con respecto a uno o más parámetros que caracterizan a la 
Capítulo 2: Antecedentes 17
 
distribución poblacional para cual se está empleando dicha prueba (Sheskin, 
2004). 
 
De la misma manera, se hace énfasis en la descripción de las pruebas no 
paramétricas como pruebas de “distribuciones libres”, debido a que no se hace 
ninguna suposición acerca de los parámetros de la población. Sin embargo, es 
importante señalar que en realidad las pruebas no paramétricas también hacen 
ciertas suposiciones. 
 
Como una regla general, las pruebas de inferencia estadística que evalúan datos 
categóricos o nominales y ordinales o ordenados, se categorizan como no 
paramétricas, mientras que aquellas que evalúan datos en forma de intervalo o 
proporción se conocen como paramétricas. 
 
Los autores concuerdan en que mientras no haya ninguna razón para creer que 
una o más de las suposiciones de las pruebas paramétricas no han sido cumplidas 
y cuando el nivel de medición de un grupo de datos está en forma de intervalo o 
proporción, éste debe ser evaluado con la prueba paramétrica apropiada. Sin 
embargo, si una o más de las suposiciones son violadas, algunas fuentes (no 
todas) mencionan que es prudente transformar los datos a un formato 
compatible para el análisis con la prueba no paramétrica adecuada (Sheskin, 
2004). 
 
Sin embargo, existe cierta negativa por parte de algunos autores en hacer esta 
transformación, ya que los datos en forma de intervalo o proporción contienen 
más información que los otros formatos. Debido a lo anterior, se cree más 
prudente emplear la prueba paramétrica apropiada aun cuando existe la duda 
del cumplimiento de los supuestos. Estos autores argumentan que las pruebas 
paramétricas son robustas, es decir, pueden proveer información razonablemente 
confiable acerca de la población, a pesar de lo anteriormente mencionado. 
Generalmente cuando una prueba paramétrica es empleada bajo estas 
condiciones se hacen ciertos ajustes en lo que se refiere a la evaluación del 
estadístico de prueba para mejorar su confiabilidad. 
 
 
 
2.3.3 Ventajas de la Estadística No Paramétrica 
 
A pesar de tener ciertas limitaciones, es importante resaltar las ventajas que 
tienen los métodos no paramétricos sobre los paramétricos. Hollander y Wolfe 
(1999) las sintetizan en una lista: 
 Los procedimientos no paramétricos requieren pocas suposiciones acerca 
de las poblaciones de las cuales proceden los datos bajo análisis. De 
manera particular, es posible dejar a un lado la suposición de normalidad 
de los datos. 
 Estos métodos son capaces de proveer con exactitud p-valores e intervalos 
de confianza para diferentes pruebas de hipótesis, así como tasas de error 
para comparaciones múltiples, entre otras. 
Capítulo 2: Antecedentes 18
 
 Las pruebas no paramétricas son a menudo más fáciles de aplicar y 
entender que sus contrapartes paramétricas. 
 Aunque a primera vista pareciera que estos procedimientos sacrifican 
mucha información contenida en las muestras, investigaciones teóricas 
han demostrado que éste no es el caso, sino por el contrario, cuando los 
datos no son normales, su eficiencia puede ser igual o mayor que las 
pruebas paramétricas. 
 Las técnicas no paramétricas son relativamente insensibles a observaciones 
alejadas del centro de los datos. Esto es, que al usar parámetros como el 
rango (R), cualquier variación en los datos afecta el resultado, mientras 
que en la estadística no paramétrica, se utiliza la posición del dato 
(ranking), insensibilizando así el resultado ante observaciones alejadas del 
centro de los datos (mediana). 
 Éstas son aplicables en muchas situaciones donde los procedimientos de la 
teoría normal no pueden ser utilizados. 
 Son la alternativa ideal a utilizar cuando los datos no pueden ser 
transformados a normales. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Capítulo 2: Antecedentes 19
 
 
Capítulo 2: Antecedentes 20
 
CAPÍTULO 3 
 
PROCEDIMIENTOS ESTADÍSTICOS 
NO PARAMÉTRICOS 
 
 
3.1 Conceptos Básicos 
 
 
3.1.1 Niveles de Medición 
 
La información cuantificada con propósitos de análisis es clasificada respecto al 
nivel de medición que presentan los datos. Existen diferentes niveles de medición, 
los cuales contienen diferentes cantidades de información de lo que sea que se 
está midiendo (Sheskin, 2004). 
 
Stevens (1946) desarrolló un sistema de clasificación de niveles de medición, el 
más usado en las disciplinas científicas. Las categorías existentes se presentan a 
continuación: 
 
 
a) Nominal/Categórico: En este tipo de nivel de medición, los números se 
utilizan para identificar categorías mutuamente excluyentes, pero no 
pueden ser manipulados de forma matemática. Por ejemplo, la matrícula 
de un vehículo, cuyo único propósito es la identificación y por ende no 
puede ser utilizada en una operación aritmética. 
 
 
b) Ordinal: En este caso, los números representan un orden específico, pero 
no proporcionan ninguna información acerca de las diferencias entre 
órdenes adyacentes. Por ejemplo, el orden de llegada en una carrera, que 
no indica la distancia de diferencia entre primero, segundo y tercer lugar. 
 
 
c) Intervalo: Una escala en intervalo considera el orden relativo de las 
mediciones pero también considera el hecho de que una diferencia en 
escala entre dos medidas, corresponde a la misma diferencia en la 
cantidad del atributo medido. Por ejemplo, si se hablara del IQ 
(Coeficiente Intelectual), la diferencia entre una persona que tiene un IQ 
de 100 y otra de 101 debería ser igual a una que tiene un IQ de 130 y otra 
de 131. 
 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 21
 
d) Proporción: El concepto de nivel de medición tipo proporción es igual al 
del intervalo, pero además se caracteriza por tener un punto cero. Debido 
a lo anterior, es posible hacer aseveraciones significativas acerca del 
atributo o variable medido. Por ejemplo, la mayoría de las medidas físicas 
(estatura, peso) tienen este tipo de nivel: tienen un punto cero y se pueden 
hacer afirmaciones sobre el peso de alguien en forma de proporción (una 
persona pesa el doble que otra). 
 
 
3.1.2 Variables Continuas y Discretas 
 
Cuando se hacen mediciones acerca de personas u objetos, se asume que 
existirá cierta variabilidad, es decir, que lo que estamos cuantificando o midiendo 
no tendrá siempre el mismo valor para todos los sujetos estudiados. Es por esto 
que cuando algo es medido, comúnmente es llamado variable. 
 
Las variables se clasifican en continuas y discretas. Una variable continua es 
aquella que puede asumir cualquier valor dentro de un rango que define los 
límites de dicha variable, por ejemplo, la temperatura ambiental. Por otro lado, 
una variable discreta es que aquella que sólo puede tomar un número limitado 
de valores, por ejemplo, el valor de una de las caras de un dado, que sólo puede 
asumir valores enteros entre 1 y el 6. 
 
 
3.1.3 Estadístico contra Parámetro 
 
Un estadístico se refiere a la característica de una muestra, mientras que un 
parámetro se refiere a la característica de una población. Un estadístico puede 
ser utilizado tanto para propósitos descriptivos como inferenciales. En la 
estadística inferencial un estadístico se emplea para hacer suposiciones acerca 
de su parámetro correspondiente dentro de una población, de la cual se ha 
extraído una muestra aleatoria. 
 
 
3.1.4 Pruebas de Hipótesis 
 
La inferencia estadísticatiene muchas formas. La forma que ha tenido mayor 
aplicación, difusión y atención por parte de los usuarios de los métodos no 
paramétricos es la llamada prueba de hipótesis (Conover, 1980). 
 
La prueba de hipótesis es el proceso de inferir, a partir de una muestra, si un 
enunciado acerca de una población debe ser aceptado o rechazado. Dicho 
enunciado es lo que se llama hipótesis. En cada caso la hipótesis es probada a 
partir de evidencia contenida en la muestra. Ésta es rechazada si la evidencia 
existente nos revela con cierto grado de confianza que la hipótesis es falsa. Si, por 
el contrario, la evidencia muestra que la hipótesis es verdadera, ésta se acepta. El 
procedimiento general para realizar una prueba de hipótesis es el siguiente: 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 22
 
 
a) Las hipótesis son establecidas en términos de la población. 
b) Se selecciona un estadístico de prueba. 
c) Se establece una regla en cuanto a los valores posibles del estadístico de 
prueba, para decidir se si se acepta o rechaza la hipótesis. 
d) Se evalúa dicho estadístico contra la evidencia que arroje la muestra 
aleatoria extraída de la población, y se toma la decisión. 
 
 
Existen dos tipos de hipótesis, la nula y la alternativa. La hipótesis nula (H0) es la 
hipótesis que afirma una verdad establecida, y en caso de ser cierta, no es 
necesario ejecutar acción alguna. Por otro lado, la hipótesis alternativa (H1) es la 
que se desea sea la sustituta de la hipótesis nula y, cuando es verdadera, es 
necesario efectuar cambios. 
 
 
De la misma manera, hay dos tipos de errores que pueden ser cometidos en al 
momento de llevara cabo una prueba de hipótesis, el Error tipo I y Error tipo II, su 
definición se presenta en la Tabla 3.1: 
 
 
Naturaleza Se acepta H0 Se rechaza H0
H0 es verdadera No existe error Error tipo I 
H0 es falsa Error tipo II No existe error 
Tabla 3.1: Errores Tipo I y Tipo II 
 
 
Por otra parte, el nivel de significancia es la probabilidad de cometer el error tipo 
I, y se denota por α. A la probabilidad de cometer el error tipo II se le conoce 
como β. 
 
Existen dos tipos de pruebas de hipótesis, la prueba bilateral y la prueba unilateral. 
La hipótesis nula es la misma para ambos casos, y se representa como: 
 
00 : θθ =H 
 
En la prueba bilateral, la hipótesis alternativa es: 
 
01 : θθ ≠H 
 
En la prueba unilateral, hay dos opciones de hipótesis alternativa: 
 
01 : θθ >H 
ó 
01 : θθ <H 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 23
 
 
Una forma de reportar los resultados de una prueba de hipótesis es enunciando 
que la hipótesis nula se rechazó o no en un nivel de significancia determinado. 
Este enunciado puede ser inadecuado, ya que no le da al analista ninguna idea 
acerca de cuánto se acercó el estadístico de prueba a la zona de rechazo. 
 
Para evitar esto, se utiliza el p-value o p-valor. Éste es la probabilidad de que el 
estadístico de prueba tome un valor que es al menos tan extremo como el valor 
observado del estadístico cuando la hipótesis nula es verdadera (Montgomery, 
2002). 
 
 
 
3.2 Procedimientos No Paramétricos 
 
3.2.1 Procedimientos Paramétricos vs No Paramétricos 
 
En la Sección 2.2.1 se describieron cada una de las etapas de la metodología 
DMAIC (Definir, Medir, Analizar, Mejorar, Controlar) como corazón de Seis Sigma, 
tanto su definición, como una breve explicación las herramientas utilizadas. 
 
Dentro de la etapa de Definición, como puede observarse, sólo se aplica 
estadística descriptiva, que no requiere de la normalidad de los datos, por lo que 
los procedimientos no paramétricos presentados en los siguientes apartados se 
enfocarán específicamente en las etapas MAIC. 
 
Teniendo como base diversas fuentes consultadas especializadas en estadística, y 
como resultado de esta tesis, en la Tabla 3.2, se presenta una propuesta que 
incluye los sustitutos o equivalentes no paramétricos para algunos de los 
procedimientos paramétricos utilizados en las fases MAIC. Se incluye también la 
fase de Definición, con algunas de las herramientas de estadística descriptiva 
empleadas, así como una guía a grandes rasgos, para verificar que los datos no 
pueden ser normalizados, y por tanto, tomar la decisión de utilizar herramientas no 
paramétricas. 
 
 
 
 
 
 
 
 
 
 
 
 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 24
 
 
 
Tabla 3.2: Procedimientos Paramétricos vs Procedimientos No Paramétricos Propuestos 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 25
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 26
 
Tabla 3.2: Procedimientos Paramétricos vs Procedimientos No Paramétricos Propuestos 
(Continuación)∗ **
 
 
 
 
 
 
 
 
 
 
 
 
 
 
∗ Debido a que la prueba Gage R&R es considerada como un ANOVA de dos factores, su 
equivalente no paramétrico es el Análisis de 2 Factores, o Two-Way Layout. 
** Algunos autores, como Sheskin, consideran la Prueba Chi Cuadrada como no paramétrica, 
mientras que otros, como Montgomery, la consideran un procedimiento paramétrico. 
 
Sí ¿Son normales 
los datos de y?
No
 
En los siguientes apartados del documento, se desarrollan las herramientas no 
paramétricas que se sugieren como equivalentes a las pruebas tradicionales de 
las etapas MAIC, estas son: 
 Medición 
o MSA- Análisis de 2 factores (Two Way Layout). 
o MSA-Friedman, Kendall y Babington-Smith. 
o MSA-Comparaciones Múltiples de Tratamientos Basados en el 
Procedimiento de Friedman. 
o Capacidad del Proceso – Curvas de Pearson. 
 Análisis 
o Pruebas de Hipótesis para Mediana – Wilcoxon. 
o Pruebas de Hipótesis para Medianas – Mann – Whitney, Kruskal – 
Wallis, Análisis de un Factor para Alternativas con Forma Curva. 
o Prueba de Hipótesis para Medianas con Muestras Dependientes – 
Rangos con Signo Wilcoxon. 
o Pruebas de Hipótesis para Varianza – Chi Cuadrada. 
o Pruebas de Hipótesis para Varianzas – Levene, Siegel–Tukey, 
Moses, Rangos Cuadrados. 
o Pruebas para Proporciones - Cochran, Tablas de Contingencia. 
o Pruebas de Forma: Chi Cuadrada, Anderson–Darling, 
Kolmogorov–Smirnov. 
 Mejora 
o Pruebas de Hipótesis para Medianas – Mann–Whitney, Kruskal–
Wallis, Análisis de un Factor para Alternativas con Forma Curva. 
o Pruebas de Hipótesis para Varianzas – Levene, Siegel–Tukey, 
Moses, Rangos Cuadrados. 
o Pruebas para Proporciones - Cochran, Tablas de Contingencia. 
o Coeficiente de Correlación – Spearman. 
 Control 
o Gráficos de Control – EWMA. 
 
 
La presentación de estas herramientas incluye el planteamiento de las hipótesis 
nula y alternativa, los supuestos bajo los cuales opera, sus requisitos, el 
procedimiento general para llevar a cabo la prueba y finalmente, la 
interpretación de los resultados. 
 
Debido a que puede dar pie a confusiones, cabe aclarar que la traducción de 
“rank” al español es rango, por ello, en los nombres de las herramientas se seguirá 
manejando este término en español, ya que es la manera en la que comúnmente 
se maneja, mientras que en el procedimiento se utilizarán términos como rank y 
rankeo. 
 
 
 
 
 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 27
 
 
3.2.2 Medición 
 
3.2.2.1 Capacidad del Sistema de Medición: Análisis de 2 Factores (Two Way 
Layout) 
 
El Análisis de 2 Factores se refiere al análisis estadístico de datos recolectados 
generalmente bajo un diseño de experimentos que involucran dos factores, a dos 
o más niveles. Este tipo de estudio es útil para analizar la capacidad de un sistema 
de medición, ya que se enfoca en los efectos o medianas de los diferentes niveles 
de uno de estos factores, llamados tratamientos y de los niveles de un segundo 
factor, llamado bloque. Lo anterior puede ser representado en la Tabla 3.3: 
 
 
 Tratamientos 
Bloques 1 2 … k 
1 x11 x12 … x1k
2 x21 x22 … x2k
…
 
…
 
…
 
…
 
…
 
N xn1 xn2 … xnk
Tabla 3.3: Modelo General de Tratamientos y Bloques 
Adaptadade Hollander y Wolfe 1999 
 
La hipótesis nula básica para este tipo de análisis es la igualdad de los efectos 
(medianas) de los k tratamientos dentro de cada uno de los bloques. 
 
• Suposiciones 
o Los N datos { , i = 1,…, n y j = 1,…, son mutuamente 
independientes. 
),...,( 11 knxx }k
o Las funciones de distribución Fij tienen la relación expresada en la Ecuación 
3.1: 
 
∞<<∞−−−= uuFuF jiij ),()( τβ (3.1) 
 
donde F es una función de distribución continua con mediana 
desconocida θ, βi es el efecto aditivo desconocido del bloque i, y τi es el 
efecto aditivo del tratamiento j. 
 
 Hipótesis nula 
kH τττ === L210 : 
 Hipótesis alternativa 
:1H Al menos hay un par , tal que ji ττ ≠ ji ≠ . 
 
 
 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 28
 
3.2.2.1.1 Prueba de Friedman, Kendall – Babington Smith 
 
• Procedimiento 
 
Dada una muestra de N datos, agrupados en la forma n bloques y k tratamientos: 
1. Ordenar de menor a mayor las k observaciones de forma separada dentro de 
cada uno de los n bloques. 
2. Asignarle a la observación más pequeña el rank 1, a la segunda el rank 2 y así 
sucesivamente. 
3. Realizar la sumatoria de los ranks de cada bloque, como se muestra en la 
Ecuación 3.2: 
∑
=
=
n
i
ijj rR
1
 (3.2) 
 
donde rij es el rank de xij dentro del bloque i. 
 
4. Calcular el rank promedio de cada bloque, utilizando la Ecuación 3.3: 
 
n
R
R jj =. (3.3) 
 
5. Calcular el estadístico de prueba S de Friedman, dado por la Ecuación 3.4: 
 
∑
=
⋅ ⎟
⎠
⎞
⎜
⎝
⎛ +−
+
=
k
j
j
kR
kk
nS
1
2
2
1
)1(
12
 (3.4) 
 
 
• Interpretación de los Resultados 
 
Rechazar la hipótesis nula si el estadístico de prueba S de Friedman es mayor o 
igual al valor crítico de tablas sα en su respectivo nivel de significancia. 
 
 
3.2.2.1.2 Comparaciones Múltiples de Tratamientos Basadas en el Procedimiento 
de Friedman 
 
 
Este procedimiento de comparación múltiple, se basa en el modelo de Friedman 
desarrollado en el apartado anterior, y tiene el objetivo de dar al analista 
evidencia para tomar decisiones en base a las diferencias individuales entre pares 
de tratamientos (τi, τj), para i < j. 
 
Es empleado para datos agrupados en la forma de n bloques y k tratamientos, 
como se muestra en la Tabla 3.3, con un dato por celda. Su uso es válido después 
de rechazar la hipótesis nula del procedimiento de Friedman, que sostiene que las 
medianas de los tratamientos son iguales. 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 29
 
• Procedimiento 
 
Dada una muestra de N datos, agrupados en la forma n bloques y k tratamientos, 
con un dato por celda: 
Siendo R1, …, Rk las sumas de los ranks dadas por 3.2, calcular las k(k-1)/2 
diferencias absolutas, como se muestra en la Ecuación 3.5: 
kvuRR vu ≤<≤− 1 (3.5) 
 
 
• Interpretación de los Resultados 
 
Concluir vu ττ ≠ si αrRR vu ≥− , donde rα es la constante elegida para que la tasa 
de error del experimento sea α. 
 
 
3.2.2.2 Capacidad del Proceso: Curvas de Pearson 
 
El cálculo de la capacidad del proceso comúnmente utilizado tiene el supuesto 
básico de que los datos provienen de una distribución normal. Cuando este 
supuesto no se cumple se utilizada un método basado en las Curvas de Pearson. 
Éste puede ser utilizado para cualquier forma de distribución, es fácil de visualizar 
gráficamente y es relativamente fácil de calcular. Además, cuando la distribución 
resulta ser normal, los resultados arrojados son exactamente los mismos que en el 
método tradicional. 
 
En 1893, Karl Pearson publicó su familia de curvas. Este sistema incluye la curva 
normal y otras curvas estadísticas como casos especiales. Éstas sirven de base 
teórica para calcular los Índices de Capacidad de Proceso. 
 
En este método, al manejar datos no normales, se utiliza la mediana como 
medida de centralidad, para asegurar que el Cps y el Cpi midan la relación entre 
las mitades superior e inferior de la distribución de los datos y los límites de 
especificación. De esta manera, al igual que el método tradicional, el Cpk 
proporciona un índice para la “peor” mitad de los datos. 
 
Figura 3.1: Representación del Cp con Distribuciones No Normales 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 30
 
 
En la Figura 3.1 los símbolos tienen la siguiente notación: 
 LIE: Límite Inferior de Especificación. 
 LSE: Límite Superior de Especificación. 
 PI: Percentil Inferior (0.135). 
 PS: Percentil Superior (99.865). 
 
 
Los valores de los percentiles obedecen al nivel usual de confianza de 99.73%. 
Este nivel de confianza es el equivalente a tener cubiertos 3 sigmas de cada lado 
de la media, como se muestra en la Figura 3.2: 
 
Figura 3.2: Nivel de Confianza del 99.73% 
 
on esto, se pretende cubrir el 99.73% del área bajo la curvan sin importar el tipo 
 
ara la aplicación de este método es necesario realizar el cálculo del sesgo y la 
sesgo negativo. En la Figura 3.2 se muestran ambos tipos de sesgo. 
C
de distribución con que se esté trabajando, como se presenta en la Figura 3.3. 
 
Figura 3.3: Percentiles Estándar 
 
P
curtosis de la distribución de los datos bajo análisis. El sesgo es el grado de 
asimetría de una distribución: si la curva de frecuencias tiene una cola más larga 
a la derecha del máximo central que a la izquierda, se dice que la distribución 
tiene un sesgo positivo. Si sucede lo contrario, se dice que la distribución tiene un 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 31
 
Figura 3.4: Tipos de Sesgo 
 
Por otro lado, la curtosis es el nto de una distribución: si la 
istribución tiene un apuntamiento alto se dice que es leptocúrtica, mientras que 
na distribución más plana se llama platicúrtica. La distribución normal se 
 
 
 
 Procedimiento 
. Calcular la media
 
 grado de apuntamie
d
u
denomina mesocúrtica. La Figura 3.3 ilustra mejor lo anterior. 
 
Figura 3.5: Tipos de Curtosis 
•
 
 x1 de los datos, utilizando la Ecuación 3.6: 
 
n
x
i
i∑
x
n
= (3.6) 
 
2. Calcular la desviación están ión 3.7: 
 
= 1
dar σ de los datos, usando la Ecuac
n
xx
i
i∑
n
=
2
 (3.7) 
 
3. Calcular el coeficiente de sesgo, a3, con la Ecuación 3.8: 
 
−
= 12
)(
σ
Capítulo 3: Procedimientos Estadísticos No Paramétricos 32
 
3
3
3 σ
ma = (3.8) 
donde 
 
n
xx
i
i∑
m
n
=
3 . 
 
4. Calcular el coeficiente de curt 4 : 
 
−
= 1
3)(
osis, a , utilizando la Ecuación 3.9
4
4
4 σ
ma = (3.9) 
n
m i
xx
n
i∑
donde =
− 4)(
. 
 
 
2. Obtener el percentil estandarizado I’ tivo, utilizar la 
Tabla 1a; para sesgo negativo, utilizar la Tabla 1b. 
 
3. r el percentil es , utilizar la 
bla 1b; para sesgo negativo utilizar la Tabla 1a. 
 
= 14 . En el método se utiliza la cantidad a4 – 3
0.135, P . Para sesgo posi
Obtene tandarizado 99.865, PS’. Para sesgo positivo
Ta
4. Obtener la mediana estandarizada M’, de la Tabla 2. Para sesgo positivo, 
cambiar el signo; para sesgo negativo, dejar el signo original. 
 
5. Calcular el percentil 0.135 estimado, PI, con la Ecuación 3.10: 
'II PxP σ−= (3.10) 
 
6. Calcular el percentil 99.865 estimado, PS, usando la Ecuación 3.11: 
'SS PxP σ−= (3.11) 
 
7. Calcular la mediana estimada, M, utilizando la Ecuación 3.12: 
MxM '− σ=
 
. Calcular los Índices de Habilidad del Proceso: 
ot nc
 (3.12) 
 
 
8
 
 Para la Capacidad P e ial 
IS
p PP
LIELSEC
−
−
= 3.13) 
 Para la Capacidad Real 
 (
I
pi PM
LIEMC
−
−
= (3.14) 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 33
 
MP
MLSEC
S
ps −
−
= (3.15) 
 
{ }pspipk mínC = CC , (3.16) 
 
 
 
 
3.2.3 Análisis 
 
3.2.3.1 Prueba de Rangos con Signo de W
a Prueba de Rangos con Signo (Wilcoxon, 1945) es un procedimiento no 
aramétrico empleado en pruebas de hipótesis que involucran una sola muestra 
ara determinar si ésta se deriva o no de una población en la cual la mediana (θ) 
a prueba arroja un resultado significativo, el 
vestigador puede concluir que existe evidenciasuficiente de que la muestra 
rente a θ (Sheskin, 
004). 
están en el formato de intervalo/proporción. 
o La distribución de la población es simétrica. 
 Hipótesis nula 
ilcoxon (1 Mediana) 
 
L
p
p
es igual a un valor específico. Si est
in
procede de una población cuya media tiene un valor dife
2
 
• Suposiciones 
 
o La muestra ha sido seleccionada aleatoriamente de la población que 
representa. 
o Los registros originales obtenidos para cada uno de los sujetos/objetos 
 
0:0 θθ =H 
ótesis alterna Hip tiva 
0:1 θθ ≠H 
ó 
01 : θθ >H 
ó 
 01 : θθ <H
 
• Procedim to 
 
Dada ra de n observaciones: 
1. Calcular las diferencias 
ien
una muest
0θ−= ixD . 
2. Ordenar lo alores absolutos de las diferencias |D|. 
3. as diferencias iguales a cero no se ordenan. Esto quiere decir que se elimina 
er sujeto que arroje una diferencia de cero. 
s v
el análisis cualqui
L
d
Capítulo 3: Procedimientos Estadísticos No Paramétricos 34
 
4. Se debe utilizar el siguiente protocolo al ordenar los valores de las diferencias: 
 con el valor absoluto más pequeño, el 
con el se undo valor absoluto más pequeño y así 
do al valor absoluto más 
6. 
Se le asigna el rank 1 a la diferencia
rank 2 a la diferencia g
sucesivamente hasta que el rank más alto sea asigna
grande. En caso de que exista un empate en dichos valores, se le asigna a 
cada uno de éstos el promedio de sus respectivos ranks. 
5. Después de ordenar |D|, se coloca el signo de cada diferencia enfrente de 
su respectivo rank. 
Se registra la suma de los ranks con signo positivo +ΣR y la suma de los ranks 
con signo negativo −ΣR . La Ecuación 3.17 permite verificar la exactitud de 
estos valores. Si la relación expresada en esta ecuación no se obtiene, 
entonces se ha cometido un error al realizar los cálculos: 
2
)1( +
=Σ+Σ −+
nnRR (3.17) 
 
Interpretación de los Resultados 
 
• 
 
Si el valor de +ΣR − es significativamente mayor que el valor ΣR , esto
 procede de una pob
 indica que 
hay una alta posibilidad de que la muestra lación cuya 
mediana es mayor que −ΣR es mayor que +ΣR0θ . Por otro lado si el valor , , esto 
uie a viene de una población q re decir que existe alta posibilidad de que la muestr
cuya mediana es menor que 0θ . 
 
El valor absoluto del más pequeño de los valores +ΣR y −ΣR se designa como el 
estadístico de prueba Wilcoxon T. El valor T es interpretado usando la Tabla de 
Valores T Críticos para la Prueba Wilcoxon (Tabla 5, Anexos). Para e sea 
significativo, el valor obtenido de T debe ser menor o igual que el valor crítico T de 
tablas, en su respectivo nivel de signi
qu
ficancia, es deci a si r, se rechaz 0H αTT ≤ . 
involucran una 
la muestra, con el objetivo de determinar si dicha muestra con una varianza 
stimada de s2 se deriva de una población con una varianza σ2. Esta prueba 
tiliza datos en forma de intervalo / proporción. 
 
 
 
3.2.3.2 La Prueba Chi Cuadrada (1 Varianza) 
 
La Prueba Chi Cuadrada se utiliza en pruebas de hipótesis que 
so
e
u
 
 Suposiciones •
 
o La distribución de los datos de la población de la cual se deriva la muestra, 
es normal. 
o La muestra ha sido seleccionada aleatoriamente de la población que 
representa. 
 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 35
 
• Requisito 
o La muestra debe ser n ≥ 5. 
 ip
 Hip tiva 
σ 
 
 
 
 
edimiento 
 
ra de n observaciones: 
 obtener el estadístico de prueba es necesario utilizar los datos muestrales 
para calcular un estimado de la varianza poblacional, utilizando la 
Ecuación 3.18: 
 
H ótesis nula 
2
0
2: σσ =H 
ótesis alterna
0
2
0
2
1 :σ ≠H
 ó
22
01
 ó 
H : σσ >
 20
2
1 : σσ <H
 
• Proc
Dada una muest
1. Para
2~s ,
1−n
)(
~
2
2
2
Σ
−Σ
= n
XX
s (3.18) 
Donde 2XΣ es la sumatoria de los cuadrados de cada uno de los datos 
muestrales, mientras 2)( XΣ es el cuadrado de la sumatoria de los datos. 
Calcular el esta2. dístico de prueba chi-cuadrada utilizando la Ecuación 3.19: 
2
2
2
~)1(
σ
χ sn −= (3.19) 
Donde σ2 es el valor hipotético de la 
El estadístico de prueba es compar la Distribución 
Chi-Cuadrada (Tabla 4, Anexos). Est ón a los 
gra 3.20: 
df= n – 1 (3.20) 
 
esario usar los siguientes lineamientos: 
) Si la hipótesis alternativa empleada es bidireccional, la hipótesis nula puede 
poblacional 
mayor que el valor es en hipótesis n a puede ser rechazada 
si el estadístico de prueba es mayor o igual que el valor crítico de tablas, para 
varianza poblacional. 
 
 
• Interpretación de los Resultados 
 
ado con el valor de tablas para
os valores están listados en relaci
dos de libertad, los cuales se calculan utilizando la Ecuación
Para evaluar la hipótesis nula, es nec
a
ser rechazada si valor obtenido de Chi-Cuadrada es mayor o igual que el 
valor de tablas, al nivel de significancia requerido, o menor o igual. 
b) Si la hipótesis alternativa es unidireccional y predice una varianza 
tablecido la ula, ést
su respectivo nivel de significancia. 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 36
 
c) En caso contrario al anterior, la hipótesis nula puede ser rechazada si el valor 
del estadístico de prueba es menor o igual que el valor crítico, en el nivel de 
significancia especificado. 
 
3.3 Prueba de la χ
 
 
3.2. r x c (Tablas de Contingencia para 
 
La r x c es una extensión de la Prueba de Bondad de 
juste de la χ2 para tablas bidimensionales. Mientras que ésta puede ser 
mpleada únicamente con una sola muestra categorizdada en una dimensión, la 
rueba para Tablas r x c puede usarse para evaluar diseños que contienen datos 
tablas stas de r renglones y c columnas. Los valores de r y c son 
úmeros enteros iguales o mayores a 2. La Tabla 3.4 es el modelo general de una 
2 para Tablas
Proporciones) 
Prueba de la χ2 para Tablas 
A
e
p
categóricos en forma de una tabla, conocida como tabla de contingencia. Estas 
están compue
n
tabla de contingencia. 
 
 C1 C2 … Cj … Cc 
R1 O11 O12 … O1j … O1c O1.
R2 O21 O22 … O2j … O2c O2.
M M M M M 
Ri Oi1 Oi2 … Oij … Oic Oi.
M M M M M 
Rr r.Or1 Or2 … Orj … Orc O
 O.1 O.2 … O.j … O.c n 
 
Ta 3 re e a C g a 
Ext ída de Sheskin, 004. 
 
Existe un total de n ob rv io e s ta . da elemento dentro de la 
tabla es identificado por dos notaci la p ndica el renglón y el 
segundo, la columna l u c a ld de tal manera que la 
notación Oij represent el io e se encuentra en el i 
renglón y en la j colu
 
• Suposiciones 
: 
 m e la tabla r x c son iguales. 
 
bla .4: Ar glo d una Tabl de ontin enci
ra 2
se ac n s e n e ta bla Ca
ones,
loca
rimera i
 ceen a q e se liza ad a, 
a número de observac nes qu
mna. 
o La muestra de n sujetos ha sido aleatoriamente elegida de la población 
que representa. 
o El nivel de medición de los datos es nominal o categórica. 
o La frecuencia esperada de cada celda es igual o mayor a 5. 
 
 
 Hipótesis nula 
H0 En las poblaciones representadas por la muestra, todas las proporciones en 
la isma columna d
 
Hipótesis alternativa 
Capítulo 3: Procedimientos Estadísticos No Paramétricos 37
 
H1: En las poblaciones representadas por la muestra, todas las proporciones en 
la misma columna de la tabla r x c no son iguales para al menos una de las 
• 
 
 n datos, agrupados en la forma de una tabla de 
con
1. 
n la cual la celda de interés aparece por la suma de las 
bservaciones de la columna de esa misma celda. Dividir entre el total de 
. Esta operación se representa con la Ecuación 3.21: 
columnas. 
 
Procedimiento 
Dada una muestra de
tingencia r x c: 
Calcular las frecuencias esperadas: Multiplicar la suma de las observaciones 
en la fila e
o
observaciones n
n
E jiij
..= (3.21) 
OO ))((
2. Calcular el estadístico de prueba χ2, haciendo la sumatoria de las restas de la 
frecuencia observada menos la frecuencia esperada de cada celda entre la 
frecuencia esperada, como se puede observar en la Ecuación 3.22: 
 
∑∑
= = ⎥
⎥
⎦ij
ij
E
 (3.22) 
⎤−c EO 2)(
⎢
⎢
⎣
⎡
=
r

Continuar navegando