Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INSTITUTO TECNOLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY CAMPUS MONTERREY DIVISIÓN DE INGENIERÍA Y ARQUITECTURA PROGRAMA DE GRADUADOS EN INGENIERÍA Alternativa de Herramientas Estadísticas para el Desarrollo de Proyectos Seis Sigma con Datos No Normales TESIS PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO ACADÉMICO DE: MAESTRA EN CIENCIAS ESPECIALIDAD EN SISTEMAS DE CALIDAD Y PRODUCTIVIDAD POR: MARCIA ORTEGA INFANTE MONTERREY, N. L. MAYO DE 2006 INSTITUTO TECNOLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY CAMPUS MONTERREY DIVISIÓN DE INGENIERÍA Y ARQUITECTURA PROGRAMA DE GRADUADOS EN INGENIERÍA Los miembros del Comité de Tesis recomendamos que el presente Proyecto de Tesis presentado por la Ing. Marcia Ortega Infante sea aceptado como requisito parcial para obtener el grado académico de: Maestra en Ciencias Especialidad en Sistemas de Calidad y Productividad Comité de Tesis: María del Carmen Temblador Pérez, M. C. Asesora Alberto Hernández Luna, Ph. D. Erika Guadalupe Acosta Silva, M.C. Sinodal Sinodal Aprobado: Federico Viramontes Brown, Ph. D. Director del Programa de Graduados en Ingeniería Mayo 2006 DEDICATORIA A mis papás, Mayda y Guillermo, mi ejemplo, mi fuerza, mi fuente inagotable de amor. A mi hermana, Mariana, mi inspiración, mi alegría, mi amor. A mis abuelos, Guadalupe y Baldemar, mi apoyo, mis amigos incondicionales. A mis padrinos, Irma Ruth y Jorge Luis y a mis primas, Krysthel y Alejandra, mi familia, mis compañeros inseparables. AGRADECIMIENTOS A mi familia, especialmente a mis padres, por quienes soy lo que soy, a quienes debo todo. Por su amor y fe en mí. A mi asesora, Maricarmen Temblador, por su apoyo incondicional en la realización de esta tesis, por ser un ejemplo a seguir en lo profesional y en lo personal, pero sobre todo, por su amistad. A mis sinodales, Alberto Hernández y Erika Acosta, por sus consejos y sus comentarios oportunos y relevantes para esta tesis. A los profesores y directivos del Departamento de Ingeniería Industrial y de Sistemas y del Centro de Calidad y Manufactura del Tecnológico de Monterrey, Campus Monterrey, por su apoyo a lo largo de mis estudios de posgrado. A mis amigos, que también son familia, por estar conmigo en las buenas y en las malas. RESUMEN La metodología Seis Sigma es uno de lo programas de calidad más implementados alrededor del mundo por organizaciones reconocidas internacionalmente. A lo largo de las cinco fases que integran su modelo genérico DMAIC (Definir, Medir, Analizar, Mejorar y Controlar), se utiliza una gran variedad de herramientas estadísticas. Al hablar de las etapas MAIC, encontramos que los procedimientos estadísticos tradicionales implementados en éstas tienen como requisito básico la normalidad de los datos. Cuando los datos de los procesos bajo estudio no son normales, existen técnicas que permiten su ajuste o normalización. Sin embargo, hay ocasiones en las que ninguna de estas técnicas cumple su objetivo y los datos permanecen no normales. Cuando se presenta una situación como ésta, es necesario el uso de procedimientos estadísticos no paramétricos, insensibles al supuesto de normalidad, dándole validez a los resultados obtenidos y otorgando al investigador evidencia suficiente para la toma de decisiones. En el Capítulo 1 de este documento se plantea la definición del problema, las hipótesis de la investigación, así como la justificación de la misma. En el Capítulo 2 se presentan los antecedentes tanto de Seis Sigma, como de la Estadística No Paramétrica. A lo largo del Capítulo 3 se presentan algunas de las herramientas estadísticas no paramétricas equivalentes a los procedimientos paramétricos comúnmente utilizados en las fases MAIC. En el Capítulo 4 se muestra la aplicación de algunas de las herramientas no paramétricas expuestas en el capítulo anterior, en la problemática de una empresa de la localidad. Se desarrollan las mismas pruebas con su contraparte paramétrica, con el fin de comparar los resultados obtenidos. Finalmente, en el Capítulo 5 se concluye acerca de la investigación realizada. ii ÍNDICE Resumen ii Índice iii Capítulo 1: Introducción 1.1 Planteamiento del problema 01 1.2 Objetivos 02 1.3 Hipótesis 03 1.4 Preguntas de Investigación 03 1.5 Justificación 04 1.5.1 Magnitud y trascendencia 04 1.5.2 Valor metodológico 05 1.6 Método de Investigación 06 1.6.1 Tipo de estudio 06 1.6.2 Alcance del estudio 06 1.6.3 Pasos para elaborar la investigación 07 1.6.4 Selección de la muestra 07 1.6.5 Recolección de datos 07 1.6.6 Análisis de datos 08 1.7 Alcance y Limitaciones 08 1.7.1 Características de la muestra 08 1.7.2 Área geográfica para el estudio 08 1.7.3 Limitaciones ni definidas por el investigador 08 Capítulo 2: Antecedentes 2.1 Antecedentes 09 2.2 Seis Sigma 10 2.2.1 Metodología DMAIC 12 2.2.2 Equipos de Trabajo 15 iii 2.3 La Estadística 16 2.3.1 La Estadística Paramétrica y la Estadística No Paramétrica 16 2.3.2 Limitaciones de la Estadística No Paramétrica 17 2.3.3 Ventajas de la Estadística No Paramétrica 18 Capítulo 3: Procedimientos Estadísticos No Paramétricos 3.1 Conceptos Básicos 20 3.1.1 Niveles de Medición 20 3.1.2 Variables Continuas y Discretas 21 3.1.3 Estadístico contra Parámetro 21 3.1.4 Pruebas de Hipótesis 21 3.2 Procedimientos No Paramétricos 23 3.2.2 Medición 27 3.2.2.1 Capacidad del Sistema de Medición: Análisis de Dos Factores 27 3.2.2.2 Capacidad del Proceso: Curvas de Pearson 29 3.2.3 Análisis 33 3.2.3.1 Prueba de Ranks Con Signo de Wilcoxon 33 3.2.3.2 La Prueba Chi Cuadrada 34 3.2.3.3 Prueba de la χ2 para Tablas r x c 36 3.2.3.4 Prueba de Bondad de Ajuste Kolmogorov – Smirnov 37 3.2.3.5 Prueba de Bondad de Ajuste de la χ2 39 3.2.3.6 Prueba de Bondad de Ajuste Anderson – Darling 40 3.2.4 Mejora 41 3.2.4.1 Prueba U de Mann – Whitney 41 3.2.4.2 La Prueba Kruskal – Wallis 42 3.2.4.3 Análisis de un Factor para Alternativas en Forma Curva 43 3.2.4.4 La Prueba de Levene 45 3.2.4.5 La Prueba de Siegel – Tukey 46 3.2.4.6 La Prueba de Moses 48 3.2.4.7 La Prueba de Rangos Cuadrados 50 3.2.4.8 Prueba de Rangos Cuadrados con Signo de Wilcoxon para Muestras Pareadas 51 3.2.4.9 Prueba Q de Cochran 53 3.2.4.10 Coeficiente de Correlación de Spearman 55 3.2.5 Control 56 3.2.5.1 Gráficas de Control EWMA 56 3.3 Síntesis del Capítulo 58 iv Capítulo 4: Aplicación 4.1 Definición 61 4.1.1 Introducción a la Problemática 61 4.1.2 Definición 61 4.2 Medición con Procedimientos No Paramétricos 62 4.2.1 Proceso 62 4.2.2 Pruebas de Normalidad 64 4.2.3 Capacidad del Proceso en la Variable Brillo 67 4.3 Análisis con Procedimientos No Paramétricos 68 4.3.1 Gráficas de Dispersión 68 4.3.2 Correlación 70 4.3.3 Comparación de Medianas de la Variable Brillo 72 4.3.4 Gráfico de Control EWMA 73 4.3.5 Comparación de Kilogramos Rechazados en Puntos Dentro y Fuera de Control en la Variable Brillo 76 4.3.6 Comparación de Kilogramos Rechazados en Puntos Fuera de Control para la Variable Brillo en la Cara Superior y Cara Inferior77 4.3.7 Comparación de Kilogramos Rechazados a Diferentes Temperaturas 78 4.3.8 Comparación de Kilogramos Rechazados a Diferentes Viscosidades 79 4.3.9 Comparación de la Interacción entre las Variables Temperatura, Viscosidad y Kilogramos Rechazados 80 4.3.10 Resultados Obtenidos 81 4.4 Medición con Procedimientos Paramétricos 82 4.4.1 Capacidad del Proceso en la Variable Brillo 82 4.5 Análisis con Procedimientos Paramétricos 83 4.5.1 Comparación de Medianas de la Variable Brillo 83 4.5.2 Gráfico de Control X – R 86 4.5.3 Comparación de Kilogramos Rechazados en Puntos Dentro y Fuera de Control en la Variable Brillo 89 4.5.4 Comparación de Kilogramos Rechazados en Puntos Fuera de Control para la Variable Brillo en la Cara Superior y Cara Inferior 92 4.5.5 Comparación de Kilogramos Rechazados a Diferentes Temperaturas 93 4.5.6 Comparación de Kilogramos Rechazados a Diferentes Viscosidades 95 4.5.7 Resultados Obtenidos 96 4.6 Conclusión sobre Resultados Obtenidos 96 v Capítulo 5: Conclusiones 5.1 De la Investigación 99 5.2 Del Contenido 99 5.3 De la Aplicabilidad de la Herramienta 100 5.4 De Futuras Investigaciones 101 Referencias 102 Lista de Figuras 104 Lista de Tablas 105 Anexos 106 vi CAPÍTULO 1 INTRODUCCIÓN En la década de los 80’s, época en la que inició el boom de la calidad, Philip Crosby popularizó el concepto de Cero Defectos como orientación para el control de calidad (Cantú, 1999). Este enfoque tiene la particular característica de establecer como meta resultados perfectos, que carezcan de errores en su totalidad. Este concepto no difiere tanto al enfoque Seis Sigma. Ésta es una metodología integrada por herramientas estadísticas que permite llevar a cabo, de forma sostenida y eficiente, el proceso de solución de problemas, transformando un problema real en uno estadístico, y finalmente, las soluciones estadísticas a soluciones reales, a través del desarrollo de proyectos. Aunque el término Seis Sigma surgió también en los años 80 como una importante aportación de Motorola, actualmente hay una continua búsqueda por adaptar este enfoque a las necesidades emergentes de las organizaciones. Debido a la naturaleza de la metodología Seis Sigma (cimentada en conceptos relativos a la normalidad de los datos), los análisis estadísticos concernientes a cada proyecto se realizan teniendo como base una distribución normal. Pero, ¿qué sucede cuando un analista encuentra que los datos arrojados por sus procesos no se ajustan a esta distribución? Es entonces cuando se presenta la necesidad de utilizar los fundamentos de la estadística no paramétrica. Debido a lo anterior, el principal objetivo de esta tesis es recopilar las herramientas estadísticas básicas que permitan desarrollar proyectos Seis Sigma cuando los datos del proceso bajo estudio no cumplen con el criterio básico de normalidad. 1.1 Planteamiento del Problema La forma más común de ver a la metodología Seis Sigma es a través de su objetivo de eliminar los defectos y la variación de los procesos por medio de las herramientas estadísticas adecuadas. La opción gráfica de la aplicación Seis Sigma generalmente se ve relacionada con la distribución de probabilidad normal, dado que una gran variedad de procesos sigue un desempeño similar al de esta distribución (Stamatis, 2002). Capítulo 1: Introducción 1 El desempeño estándar de un proceso actualmente gira alrededor de 3 sigmas, es decir, partiendo de la media del proceso, sus límites de especificación se encuentran a ± 3 desviaciones estándar. El área que se encuentra fuera de estos límites corresponde a aquellas partes defectuosas que no cumplen la especificación proporcionada por el cliente. Un proceso Seis Sigma equivaldría a tener 6 desviaciones estándar de cada lado de la media a los mismos límites de especificación, lo que se traduce en una menor variación, incrementando así la confiabilidad de los procesos. Como resultado, entonces, encontramos que generalmente se relaciona esta metodología con procesos normales. Pero, ¿qué sucede cuando, al realizar la recolección y análisis de datos para el desarrollo de un proyecto, se detecta que los datos de los procesos bajo estudio no se ajustan a esta distribución? La bibliografía acerca de la implementación del modelo DMAIC dentro de Seis Sigma para datos que se distribuyen normalmente es vasta; sin embargo, cuando se trata de lidiar con datos no normales, la información acerca de los procedimientos estadísticos disponibles y aplicables comienza a escasear. Con lo anterior, ahora se puede definir el problema en una pregunta: “¿Cuáles son algunas de las herramientas estadísticas no paramétricas que debe contener el modelo DMAIC, cuando se manejan procesos con datos no normales, para que su implementación sea exitosa?”. 1.2 Objetivos • Objetivo General Determinar y mostrar el uso de algunas de las herramientas estadísticas no paramétricas que equivalen a las herramientas paramétricas estándar en el modelo DMAIC, cuando los procesos bajo análisis arrojan datos no normales. • Objetivos Específicos o Definir en cada una de las etapas del modelo DMAIC, dentro del Seis Sigma, las posibles herramientas a utilizar cuando los datos bajo análisis no son normales. o Determinar en qué casos es necesaria la aplicación de métodos estadísticos no paramétricos cuando se desarrolla un proyecto Seis Sigma. o Proponer qué pruebas estadísticas no paramétricas son las adecuadas para cada caso. o Evaluar la factibilidad, cuando aplique, de su uso mediante la aplicación en una empresa manufacturera de la localidad. Capítulo 1: Introducción 2 1.3 Hipótesis Como resultado de la identificación y planteamiento del problema y del establecimiento de los objetivos de esta tesis, se obtuvo la siguiente hipótesis: “Es posible identificar y describir el procedimiento de las herramientas estadísticas no paramétricas más comunes equivalentes a las existentes en el modelo DMAIC, para hacerlo utilizable en procesos con datos no normales”. La hipótesis será validada a lo largo de la realización de esta tesis mediante la investigación y análisis de literatura especializada en el tema. Algunas de ellas se validarán a través de su aplicación en la problemática de una empresa, obteniendo de esta manera evidencia suficiente, tanto teórica como práctica, que permita finalmente aceptarla o rechazarla. 1.4 Preguntas de Investigación Ahora bien, considerando la problemática, los objetivos y la hipótesis de esta tesis, las preguntas que servirán como guía de la investigación son: • ¿Cuáles son los orígenes de la calidad? • ¿Cuáles son los principios que rigen la metodología Seis Sigma? • ¿Cuál es su aportación a la calidad? • ¿Quiénes participan en esta metodología? • ¿Qué pasos/procedimientos se sigue en esta metodología? • ¿En qué consiste el proceso DMAIC? • ¿En qué parte de la metodología se aplica el análisis estadístico? ¿Qué resultados se esperan en cada etapa o fase del desarrollo de un proyecto Seis Sigma? • ¿Qué pruebas estadísticas son necesarias antes de iniciar un proyecto Seis Sigma? • ¿Qué pruebas estadísticas son necesarias durante el desarrollo de un proyecto Seis Sigma? • ¿Qué relación existe entre la metodología Seis Sigma y la Estadística No Paramétrica? • ¿En qué casos es necesario el uso de la Estadística No Paramétrica? • ¿Existen pruebas básicas en la Estadística No Paramétrica? • ¿Cuáles son útiles y aplicables para un proyecto Seis Sigma? • ¿Es factible aplicarlas a un caso real? Capítulo 1: Introducción 3 1.5 JustificaciónSeis Sigma es una metodología que involucra el uso de herramientas estadísticas como parte elemental en su aplicación. Es muy común el hecho de relacionarla estrechamente con procedimientos estadísticos que tienen como supuesto primordial la normalidad de los datos bajo análisis. Esto puede suceder debido a que la metodología en sí está desarrollada a partir los fundamentos de la distribución normal, ya que se engloba conceptos como media, desviaciones estándar y áreas defectuosas bajo la curva. Por otro lado, gran parte del entrenamiento para convertirse en un experto en Seis Sigma se enfoca de manera exclusiva en la estadística paramétrica, utilizando métodos válidos únicamente para datos normales. Inconvenientemente, los procesos no siempre se ajustan a una distribución normal; de hecho, es bastante común que éstos sigan distribuciones diferentes (Azzimonti, 2000). La mayoría de los procesos, especialmente aquellos que tienen que ver con la confiabilidad y ciclos de vida, no se distribuyen normalmente. En días pasados se pensaba que había algo mal con los procesos que no seguían esta distribución o incluso que estaban fuera de control. Actualmente los estadísticos y profesionales de la calidad reconocen que la distribución normal es utilizada debido a su simplicidad y a su buena definición; sin embargo gran parte de los proyectos en pro de la calidad involucran procesos con datos no normales (Padnis, 2006). Entre éstos se encuentran tiempos de ciclo, llamadas por hora, tiempo de espera del cliente, perpendicularidad, encogimiento, etc. De este modo, si el analista detecta que los datos que está manejando no son normales, se topa con la escasez de información que le permita conocer las opciones en cuanto a procedimientos estadísticos se refiere. Cuando se presenta una situación como ésta, la estadística no paramétrica brinda al investigador las herramientas adecuadas para el tratamiento de dichos datos. Es en este punto que radica la importancia de investigar, recopilar y desarrollar las herramientas estadísticas no paramétricas básicas, que sean útiles al analista en caso de encontrarse con procesos no normales durante el desarrollo de un proyecto de mejora Seis Sigma. 1.5.1 Magnitud y trascendencia Actualmente uno de los principales retos a los que se enfrentan las organizaciones es la competencia en un mundo cada vez más global e interdependiente. La calidad, más que un valor agregado, es ahora una exigencia del cliente y una ventaja competitiva para el proveedor que puede otorgarla. Si a esto se le agrega la aceleración del desarrollo y renovación de la tecnología, la urgencia de una mejora continua y de la eficiencia de los procesos es Capítulo 1: Introducción 4 evidente. Debido a esta situación, las empresas se han percatado de la enorme necesidad de realizar un cambio en su estilo de manejarse. Una de las respuestas que ha traído muy buenos resultados ha sido la metodología Seis Sigma, debido a tres características principales: • Seis Sigma está enfocado en el cliente. • Los proyectos Seis Sigma producen importantes retornos sobre la inversión. En un artículo del “Harvard Business Review”, Sasser y Reichheld señalan que las compañías pueden ampliar sus ganancias en casi un 100% si retienen sólo un 5% más de sus clientes gracias al logro un alto grado de calidad. • Seis Sigma cambia el modo que opera la organización, al conocer y aprender nuevos enfoques en la forma de resolver problemas y tomar decisiones. Por otra parte, el llamado “costo de la calidad” es un concepto que también expone la magnitud y trascendencia de la aplicación de proyectos Seis Sigma (PPG Consultores, 2003). Mientras que los directivos de las empresas pueden llegar a pensar que invertir en la mejora de la calidad en los procesos representa un costo, la realidad es que el gasto mayor se da a partir de la ausencia de la calidad (fallas internas o externas). Cuando un proceso se encuentra controlado a seis desviaciones estándar, como lo propone la metodología, se presume que los costos de calidad, como porcentaje de las ventas, disminuyen considerablemente como se observa en la Tabla 1.1: Nivel de Calidad DPMO Nivel Sigma Costo Calidad 30.90% 690,000 1 NA 69.20% 308,000 2 NA 93.30% 66,800 3 25-40% 99.40% 6,210 4 15-25% 99.98% 320 5 5-15% 100.00% 3.4 6 <1% Tabla 1.1: El Costo de Calidad Extraída de PPG Consultores, 2003 Con los argumentos anteriores, es posible percatarse de la importancia de la correcta implementación de Seis Sigma en las organizaciones. Pues bien, si el desarrollo de estos proyectos de mejora es hoy en día trascendental para las empresas que manejan Seis Sigma, por consecuencia, lo es también la aplicación de los procedimientos no paramétricos adecuados a lo largo de la metodología MAIC, cuando se tienen datos no normales. 1.5.2 Valor metodológico La riqueza metodológica y teórica de esta tesis reside en que la recopilación de las herramientas estadísticas adecuadas para el desarrollo de proyectos Seis Sigma con datos no normales será un instrumento prácticamente nuevo. Su Capítulo 1: Introducción 5 aportación se presenta en forma de una guía, considerada de gran utilidad para los analistas que se enfrentan a esta situación en el desarrollo de los proyectos de mejora. La información obtenida con esta investigación brinda orientación en un tema sobre el cual no existe literatura extensa ni condensada en un solo documento. Por tanto, cabe la posibilidad de que esta tesis dé pie al surgimiento de nuevas investigaciones y sirva como base para otras similares. 1.6 Método de Investigación 1.6.1 Tipo de estudio El enfoque de esta investigación es mixto, es decir, una combinación de cualitativo y cuantitativo. Al inicio y durante la mayor parte de la realización de esta tesis, la naturaleza del estudio fue cualitativo debido a que se utilizó la recolección de datos en forma de investigación bibliográfica, sin involucrar la medición numérica (Hernández, 2002), para contestar las preguntas de investigación enfocadas a la aplicación del Seis Sigma y al uso de la estadística no paramétrica en conjunto, desde un punto de vista teórico. Por otra parte, se utilizó el enfoque cuantitativo al aplicar el procedimiento resultante de la investigación teórica, con datos reales en una empresa, para probar la hipótesis de que el modelo MAIC en Seis Sigma sí puede ser adaptado para procesos no normales, con base a la medición numérica y el análisis estadístico (Salkind, 1998). 1.6.2 Alcance del estudio Esta investigación comenzó como un estudio exploratorio, debido a que el problema de investigación examinado ha sido poco estudiado (Hernández, 2002). Si bien es cierto que existe una cantidad importante de literatura respecto a Seis Sigma y la estadística no paramétrica por separado, cuando se trata de la conjunción de ambos elementos, la información se reduce considerablemente. Por otra parte, esta investigación también tuvo una naturaleza descriptiva, ya que se busca identificar las propiedades y características esenciales que deben tener los procedimientos estadísticos no paramétricos para que su aplicabilidad pueda ser validada en una empresa. Esta investigación incluye la recopilación y desarrollo de las herramientas básicas que pueden ser de gran ayuda a los miembros de un equipo Seis Sigma cuando los procesos que están analizando presentan datos no normales. Capítulo 1: Introducción 6 1.6.3 Pasos para elaborar la investigación A grandes rasgos, los pasos para la elaboración de esta tesis fueron los siguientes: • Se realizó una revisión bibliográfica de fuentes primarias y secundarias, para recolectar información que pudiera contestar las preguntas de investigación y dar un soporte teórico a las herramientas estadísticas más adecuadas para cada situación, que a fin de cuentas, es el entregable deesta tesis. • Se hizo un análisis de la información recolectada, para hacer uso de la literatura realmente útil y relevante para los objetivos de investigación y, por consecuencia, desechar lo inservible. • Con todo lo anterior, se determinaron los elementos teóricos y prácticos que debe contener la descripción de las herramientas estadísticas para la aplicación de Seis Sigma a proyectos que involucren procesos con datos no normales. • Se revisó, integró y estructuró la información. • Se elaboró el reporte de herramientas no paramétricas adecuadas para cada situación. • Se buscó, evaluó y seleccionó un proyecto de mejora adecuado para validar la aplicabilidad del procedimiento ya elaborado. • Se aplicaron los procedimientos investigados al proyecto. • Se interpretaron los resultados obtenidos. • Se elaboraron las conclusiones. 1.6.4 Selección de la muestra Se utilizaron datos de un proceso que cumpliera con el requisito de la existencia de procesos con datos no normales y se evaluó la factibilidad de aplicación de las herramientas investigadas. Por otra parte, la muestra de los datos que se analizaron estadísticamente se tomó de manera directa de los procesos de manufactura de una organización de la localidad. La cantidad de datos a ser analizados corresponde a 302, obtenidos de 35 muestras con un promedio de 9 lecturas en cada muestra, correspondientes a 5 días de trabajo. 1.6.5 Recolección de datos La recolección de información teórica se realizó a través de la investigación bibliográfica en fuentes primarias y secundarias. En la parte práctica, aplicable a los procesos de una organización, la recolección de datos para su análisis estadístico se hizo a través un muestro del proceso bajo estudio, en la compañía seleccionada. Capítulo 1: Introducción 7 1.6.6 Análisis de datos El análisis de la muestra se llevó a cabo a través de la aplicación de las herramientas estadísticas no paramétricas adecuadas para cada caso, de acuerdo a la información obtenida de la investigación literaria, que se presenta posteriormente en el marco teórico de esta tesis. Asimismo, se aplicaron las herramientas paramétricas estándar para comparar los resultados obtenidos, así como la validez de su implementación. 1.7 Alcance y Limitaciones 1.7.1 Características de la muestra Se buscó específicamente que la muestra seleccionada para el estudio en el proyecto de mejora cumpliera con la característica de no normalidad, ya que ésta es un requisito básico para la aplicabilidad de los procedimientos y herramientas estadísticas propuestos. 1.7.2 Área geográfica para el estudio El estudio fue realizado con datos recolectados a partir de los procesos de manufactura de una empresa de Monterrey, Nuevo León, México. 1.7.3 Limitaciones no definidas por el investigador Por cuestiones de tiempo, la validación de la aplicabilidad de los procedimientos estadísticos puede llegar a ser sólo analítica, ya que la implementación real podría tomarse incluso como material para otras tesis, o bien, para la continuación de ésta. Además, debido a la confidencialidad acordada con la organización involucrada, se omiten algunos de los datos relacionados a sus procesos. Capítulo 1: Introducción 8 CAPÍTULO 2 ANTECEDENTES Desde su nacimiento, el programa de calidad Seis Sigma ha tenido como cimiento el uso de diferentes métodos estadísticos para el análisis de información y la optimización de procesos. Debido a que su concepción se basa principalmente en parámetros referentes a la curva normal, Seis Sigma se ha visto estrechamente vinculado a la Estadística Paramétrica. A causa de esto, la mayoría de las personas involucradas con proyectos de esta naturaleza esperan que los datos arrojados por la medición de sus procesos se ajusten a la distribución normal, siendo que esto no sucede en todos los casos. Cuando una situación como ésta se presenta es necesario el uso de la Estadística No Paramétrica. Algunas de las herramientas estadísticas no paramétricas útiles para este caso se muestran a lo largo del Capítulo 3. 2.1 Antecedentes La metodología Seis Sigma se inicia en los años 80's como una estrategia de negocios y de mejora de calidad, introducida por Motorola, adoptándose y difundiéndose posteriormente por otras organizaciones de clase mundial como G.E., Sony, Polaroid, FeDex, Dupont, Toshiba, Ford y Black & Decker, entre otros. Su origen en Motorola se da cuando Mikel Harry comienza a influenciar a la organización para que se estudie la variación en los procesos, es decir, la desviación estándar. Esta iniciativa se convirtió en el centro del esfuerzo para mejorar la calidad en la empresa, capturando la atención de Bob Galvin, ejecutivo de Motorola. Con el apoyo de Galvin, se hizo énfasis, no sólo en el análisis de la variación, sino también en la mejora continua, estableciendo como meta obtener 3.4 defectos por millón en los procesos. Anteriormente, Motorola había utilizado herramientas de los grandes gurúes de la calidad, como Juran, e implantado aplicaciones del Control Estadístico del Proceso (SPC). Esto propició el desarrollo de una nueva metodología tomando lo mejor de aquellos conceptos, pero ahora con un enfoque completo hacia la satisfacción del cliente. Esta metodología fue llamada después Seis Sigma. El impulso hacia esta metodología se incrementó cuando Motorola ganó el Malcolm Baldridge Nacional Quality Award en 1988. En 1991, Lawrence Bossidy, CEO de Allied Signal, implantó esta metodología, logrando transformarla de una empresa con problemas en una realmente exitosa. Durante la implantación de Seis Sigma en los años 90, Allied Signal multiplicó sus ganancias de manera considerable. Durante el verano de 1995, Jack Welch de Capítulo 2: Antecedentes 9 GE se entera del éxito de esta nueva estrategia, dando lugar al mayor cambio iniciado en esta organización. La forma en que Seis Sigma se convirtió de un programa de calidad en manufactura, a un sistema para reducir fallas en el diseño y comercialización de productos se logró por dos razones significativas: la formación de equipos de trabajo como los Master Black Belts, Black Belts y Green Belts; además de la inclusión de la metodología de selección y desarrollo de proyectos como el DMAIC (Snee, 2001). En el modelo DMAIC (Definir, Medir, Analizar, Mejorar y Controlar), todas las etapas utilizan herramientas estadísticas, pero son las de medición, análisis, mejora y control las que involucran el uso de métodos estadísticos con requerimientos de normalidad. Cuando dicho requerimiento no se cumple, hace su entrada la Estadística No Paramétrica. Generalmente en los proyectos Seis Sigma, se analizan modelos estadísticos que implican distribuciones tanto continuas como discretas, con ciertos supuestos básicos para la aplicación de estas técnicas (el supuesto de normalidad, por ejemplo). El principal uso de estos modelos es la estimación de parámetros desconocidos de la población que se está estudiando, para poder hacer pruebas de validación y de hipótesis planteadas. A esta metodología de trabajo se le denomina Estadística Paramétrica. Mientras los supuestos usados en la paramétrica especifican la distribución original, hay otros casos en la práctica donde no se puede hacer esto. Se requiere entonces de otra metodología de trabajo, la Estadística No Paramétrica (Azzimonti, 2000). En las secciones posteriores de esta tesis, se hace una mención más extensa de los conceptos mencionados anteriormente. 2.2 Seis Sigma Desde principios de la década de 1980 a 1990, surgió la conciencia de la necesidad de productos de buena calidad: las normas que las que las empresas seguían ya no eran aceptables. Fue así como la satisfacción del cliente, la confiabilidad, la productividad, los costos y la rentabilidad comenzaron a ser directamente dependientes a la calidadde los productos y servicios. A la par de esta tendencia, surgió también un movimiento que incluía teorías, metodologías y herramientas para lograr lo demandado por los clientes, basados en conceptos previos y nuevos referentes al control de la calidad. Entre ellos se encontraba la metodología Seis Sigma. Pero ¿qué diferencia a Seis Sigma de todas las demás metodologías y herramientas? Desarrollada en 1987 por Motorola como una iniciativa de negocios, Seis Sigma tiene el principal objetivo de reducir el número de defectos en un proceso para lograr la satisfacción del cliente, basándose en el hecho de que la variación es el principal enemigo de la productividad en cualquier organización. Capítulo 2: Antecedentes 10 El término Seis Sigma tiene su origen en la estadística a partir de un proceso capaz de abarcar seis sigmas en la curva normal. Sigma (σ) es la letra griega que se utiliza para representar la desviación estándar, una medida de dispersión en una distribución. Por tanto, un proceso que comprenda seis sigmas, es decir, seis desviaciones estándar, puede tener 3.4 defectos por millón de oportunidades. Esto equivale a un nivel de calidad de 99.99966%, que se aproxima de forma considerable al ideal de cero defectos. En esencia, entonces, la sigma refleja la capacidad de un proceso y tiene la propiedad de relacionarse de manera directa con características como defectos por unidad, partes por millón y la probabilidad de falla o error. Por lo anterior, el seis sigma en sí se ha convertido en la meta para muchas organizaciones, ya que provee un métrico uniforme para medir el desempeño. La comparación clásica de la diferencia del nivel 6σ se muestra en la Tabla 2.1: Capacidad del Proceso Defectos por Millón de Oportunidades (DPMO) 6 3.4 5 233 4 6,210 3 66,807 2 308,537 Tabla 2.1: Niveles Sigma con un desplazamiento de ± 1.5σ Extraída de Stamatis, D.H., 2002 Otra forma de apreciar y entender el efecto de moverse del estándar histórico de 3σ, al estándar actual de la mayoría de las organizaciones de 4σ y, finalmente, al nuevo estándar de 6σ, se presenta en la Tabla 2.2: Sigma Tiempo Dinero 3σ 3.5 meses por cada 100 años. Por cada $1000 millones de activos, hay una deuda de $2.7 millones. 4σ 2.5 días por cada 100 años. Por cada $1000 millones de activos, hay una deuda de $63,000. 5σ 30 minutos por cada 100 años. Por cada $1000 millones de activos, hay una deuda de $570. 6σ 6 segundos por cada 100 años. Por cada $1000 millones de activos, hay una deuda de $2. Tabla 2.2: Comparación de Estándares Adaptada de Stamatis, D.H. (2002) Capítulo 2: Antecedentes 11 Sin embargo, y por conveniente que esto es, Seis Sigma no se enfoca solamente en lo que se refiere a los métricos de desempeño de la organización, sino que exige además un cambio de paradigma total en sus funciones, involucrando el compromiso de la dirección y la responsabilidad y aceptación de la propiedad del proceso de quienes forman parte de los mismos. Por tanto, Seis Sigma tiene una metodología específica para identificar, medir, analizar, mejorar y controlar los procesos, a partir del trabajo en equipo. La utilidad de la metodología Seis Sigma radica en que puede ser aplicada no solamente a procesos de manufactura, que es el ambiente del que proviene, sino también a procesos transaccionales y de servicios. 2.2.1 Metodología DMAIC La metodología DMAIC* es el modelo genérico de Seis Sigma∗. Es un acrónimo cuyas siglas en inglés significan Definir, Medir, Análisis, Mejorar y Controlar, representando cada una de las fases que se siguen en un proyecto de mejora. Figura 2.1: Modelo General DMAIC • Definir Se identifican los posibles proyectos Seis Sigma evaluados por la alta dirección. En esta fase se especifica la misión del proyecto, se selecciona el equipo de trabajo, se asignan roles, se determinan objetivos, metas y roles, así como el alcance del mismo. Herramientas: o QFD: Traducir los requerimientos del cliente (VOC) a CTQ’s (Critical to Quality). o Diagrama de Pareto: Identificar la principal problemática a atacar. o AMEF: Identificar parámetros que no desea el cliente o fallas potenciales. o Benchmarking: Comparar lo que hacen otras empresas contra la propia. o Mapa del proceso: Identificar procesos principales. o SIPOC: Identificar proveedores, entradas, procesos, salidas y clientes. o VOP: Identificar los requerimientos principales del proceso. o Planeación Operativa: Identificar áreas de oportunidad que se transformen en proyectos Seis Sigma. ∗ Términos acuñados por Motorola. Capítulo 2: Antecedentes 12 Resultados: o Equipo integrado. o Requerimientos del cliente y del proceso. o Oportunidades de triunfo. o Planteamiento del problema. o Proyecto clarificado. • Medir Se basa en la caracterización del proceso. En ésta se identifican los requisitos clave de los clientes, las características clave del producto (o variables de salida) y los parámetros (variables de entrada) que afectan al funcionamiento del proceso. A partir de esta caracterización se define el sistema de medición y se mide la capacidad del proceso. Herramientas: o Gráficos de Control: Verificar si el proceso se encuentra bajo control. o Cp y Cpk: Conocer la capacidad del proceso. o MSA= Atributos y Gage R&R: Conocer la capacidad del sistema de medición. o DPMO: Medición de los defectos por millón de oportunidades. o Diagrama Causa – Efecto (Ishikawa) y Matriz Causa – Efecto: Encontrar las causas raíz de un problema determinado. o Baseline: Determinar el estado actual del proceso y su nivel sigma. o Series de tiempo: Comprender el comportamiento de datos de los procesos a través del tiempo en intervalos uniformes. Resultados: o Indicadores del proceso, de entradas y de salidas. o Identificación de las posibles variables que afectan al métrico primario. o Representación del proceso para obtener un punto de partida válido. • Analizar El equipo analiza los datos obtenidos en la fase anterior. Se desarrollan y comprueban hipótesis sobre posibles relaciones causa-efecto utilizando diversas herramientas estadísticas. De esta forma el equipo identifica las variables clave de entrada que afectan a las variables de respuesta del proceso. Herramientas: o Pruebas de Hipótesis: Verificar la relación entre los efectos. o Análisis de Regresión: Identificar las relaciones entre las variables de entrada y las de salida. o ANOVA: Verificar la igualdad de medias de los procesos. o Diagrama de Ishikawa: Identificar las causas raíz. o AMEF: Plantear planes de acción para controlar las variables críticas identificadas en la etapa anterior. Capítulo 2: Antecedentes 13 Resultados: o Análisis de datos. o Causas raíz validadas. o Fuentes de variación. o Identificación de variables a mejorar. o Identificación de variables a discriminar. o Comprobación de la relación causal entre las variables críticas y el métrico primario. • Mejorar El equipo de trabajo trata de determinar la relación causa-efecto para predecir, mejorar y optimizar el funcionamiento del proceso. Por último se determina el rango operacional de los parámetros o variables de entrada del proceso. Herramientas: o Diseño de Experimentos y Superficies de Respuesta: Optimizar las salidas a través del uso de los niveles adecuados de las entradas. o EVOP: Alcanzar el óptimo mediante cambios paulatinos. o Regresión: Desaclopar variables para simplificar su control. o Simulación: Encontrar el óptimo mediante la representación de condiciones reales del proceso. o Series de tiempo: Comprender el comportamiento de los datos para predecir eventos futuros. Resultados: o Soluciones. o Documentación de cambios necesarios. o Niveles óptimos de operación. o Comprobación de los cambios propuestos.• Controlar Se diseñan y documentan los controles necesarios para asegurar que lo conseguido mediante el proyecto se mantenga una vez que se hayan implantado los cambios. Herramientas: o Planes de Control: Determinar planes de contingencia. o Gráficos de Control y Control Estadístico del Proceso: Monitorear la estabilidad del proceso y comprobar las mejoras. o Planes de Mantenimiento Preventivo y Predictivo: Evitar adoptar la filosofía de “apagar incendios”. o Poka Yoke: Procesos a “prueba de errores”. o Auditorías: Asegurarse de que las soluciones se han puesto en marcha y se han mantenido. o Planes de transición: Organizar los esfuerzos para mantener la mejora. Capítulo 2: Antecedentes 14 Resultados: o Planes de control. o Planes de transición. o Evidencia de la mejora. o Reportes de auditorías. o Normas y procedimientos. 2.2.2 Equipos de Trabajo En la actualidad, y de forma creciente, las organizaciones están implementando equipos de trabajo para alcanzar los beneficios del esfuerzo colectivas. La metodología Seis Sigma no es ajena a esta tendencia, sino, por el contrario, es promotora del trabajo en equipo, y éste forma parte esencial de sus procedimientos. Como una forma de identificar a determinados miembros dentro de la organización que cumplen funciones específicas en la metodología de Seis Sigma, e inspirados en las artes marciales como filosofía de mejora, se asignan diferentes niveles de cinturones para aquéllos que lideran y están involucrados de alguna forma en los proyectos. De esta manera, los Black Belt son personas que se dedican a tiempo completo a detectar oportunidades de cambio y a conseguir que logren resultados. El Black Belt es responsable de liderar, entrenar y cuidar de los miembros de su equipo. Debe poseer conocimientos tanto en materia de calidad, como en temas relativos a estadística, resolución de problemas y toma de decisiones. El Green Belt está formado en la metodología Seis Sigma como apoyo a las tareas del Black Belt. Sus funciones fundamentales consisten en aplicar los nuevos conceptos y herramientas de Seis Sigma a las actividades del día a día de la organización. El Master Black Belt desempeña un rol de entrenador, mentor y consultor para los Black Belts que trabajan en los diversos proyectos. Debe poseer amplia experiencia en el campo de Seis Sigma y en las operaciones de producción, administrativas y de servicios de la organización. El Champion es un ejecutivo o directivo que inicia y patrocina a un Black Belt o a un equipo de proyecto, siendo sus responsabilidades garantizar que éstos estén alineados con los objetivos generales de la empresa y proveer dirección cuando eso no ocurra, mantener informados a los otros directivos sobre el progreso del proyecto, proveer o persuadir a terceros para aportar al equipo los recursos necesarios y efectuar enlaces con otros proyectos Seis Sigma. Capítulo 2: Antecedentes 15 2.3 La Estadística Actualmente, las organizaciones, en su lucha constante por el liderazgo, tienen la tarea de esforzarse por mejorar constantemente la calidad de sus productos y servicios, con el objetivo de competir exitosamente en el mercado local y mundial. Los ingenieros juegan un papel fundamental en este afán por el mejoramiento de la calidad, ya que son ellos quienes tienen como responsabilidad diseñar y desarrollar nuevos productos y procesos de fabricación, así como el perfeccionamiento de los ya existentes. Los recursos estadísticos son una herramienta básica en estas actividades debido a que proporcionan métodos descriptivos y analíticos para conocer y manejar la variabilidad de los datos observados dentro de los procesos de interés. La Estadística trata de la recolección, presentación, análisis y uso de datos para la toma de decisiones, solución de problemas y diseño de productos y procesos (Montgomery, 2002). 2.3.1 La Estadísica Paramétrica y la Estadística No Paramétrica La estadística es un campo dentro de las matemáticas, que involucra la agrupación, clasificación y análisis de datos. La estadística puede ser dividida en dos áreas generales, la estadística descriptiva y la estadística inferencial. La estadística descriptiva emplea métodos y procedimientos para presentar y organizar datos, mientras que en la estadística inferencial los datos son utilizados para hacer predicciones y derivar conclusiones acerca de una población mediante la selección de una muestra. Ambas ramas de la estadística poseen procedimientos paramétricos y no paramétricos. El propósito de la estadística es proporcionar las herramientas necesarias para darle objetividad a las conclusiones de los analistas; de esta manera, es posible separar la ciencia de la opinión (Conover, 1980). Las leyes de la probabilidad son aplicadas a ciertos modelos de experimentación con el objetivo de determinar cuáles son las oportunidades de ocurrencia de todos los resultados posibles. A pesar de que en ocasiones es difícil describir un modelo teórico apropiado para cada experimento, la mayor dificultad se da cuando, después de que el modelo ha sido definido, se desean determinar las probabilidades asociadas a dicho modelo. Por tanto, existen modelos para los cuales nunca se han encontrado soluciones probabilísticas. Ante esta circunstancia los estadísticos han modificado ligeramente los modelos, con el objetivo de encontrar las probabilidades deseadas, procurando que el cambio sea lo suficientemente pequeño para obtener resultados válidos. De esta forma, se encuentran soluciones exactas a problemas aproximados. A esta parte de la Estadística, se le llama Estadística Paramétrica, e incluye pruebas tan conocidas como la prueba T o la prueba F. Capítulo 2: Antecedentes 16 En la década de 1930 a 1940, surgió un enfoque diferente para lidiar con este tipo de problemas. Éste involucraba métodos simples para encontrar las probabilidades deseadas, o al menos una buena aproximación de estas probabilidades, haciendo pocas o ninguna modificación al modelo original. Con esto era posible encontrar soluciones aproximadas a problemas exactos, lo contrario a la estadística paramétrica. A esta rama de la estadística se le conoce desde entonces como Estadística No Paramétrica. La mayoría de los procedimientos relativos a pruebas de hipótesis y construcción de intervalos de confianza utilizados en diversos ámbitos, especialmente en ingeniería, parten del supuesto de que las muestras aleatorias con las que se trabajan provienen de poblaciones normales. Estos procedimientos son conocidos como métodos paramétricos, ya que se basan en una distribución paramétrica particular, en este caso, la normal. De igual manera, existen los llamados métodos no paramétricos, también conocidos como métodos de distribución libre. Generalmente, el único supuesto en el que éstos se basan es el de continuidad, es decir, que la distribución de la población de la proceden es continua. Una de las ventajas de estos procedimientos es que no es necesario que los datos sean cuantitativos, sino que pueden ser datos categóricos o datos en forma de rank, además su aplicación es rápida y sencilla. Si es posible aplicar ambos métodos (paramétricos y no paramétricos) en un problema específico, se optaría por utilizar un método paramétrico eficiente (Montgomery, 2002). Sin embargo, los supuestos necesarios para que este tipo de procedimientos sean válidos en ocasiones pueden ser difíciles o imposibles de satisfacer, situación que es muy frecuente en la práctica. Por ejemplo, en caso de que los datos estén en forma de ranks, es improbable que éstos cumplan el supuesto de normalidad. Muchos métodos no paramétricos incluyen el análisis de ranks y, por tanto, se ajustan a este tipo de problemas. Una diferencia importante entre ambos tipos de estadística, que no puede dejarse de mencionar, es que la paramétrica se enfoca enel valor de los datos como tal, mientras que la no paramétrica considera el orden de éstos (por ello se otorga el nombre de estadísticos de orden). De esta forma, mientras la primera utiliza como medidas la media y la varianza, la segunda hace uso de la mediana y ranking de los datos. 2.3.2 Limitaciones de la Estadística No Paramétrica La mayoría de las fuentes hacen distinción entre las pruebas paramétricas y las no paramétricas basándose en el hecho de que las primeras hacen suposiciones específicas con respecto a uno o más parámetros que caracterizan a la Capítulo 2: Antecedentes 17 distribución poblacional para cual se está empleando dicha prueba (Sheskin, 2004). De la misma manera, se hace énfasis en la descripción de las pruebas no paramétricas como pruebas de “distribuciones libres”, debido a que no se hace ninguna suposición acerca de los parámetros de la población. Sin embargo, es importante señalar que en realidad las pruebas no paramétricas también hacen ciertas suposiciones. Como una regla general, las pruebas de inferencia estadística que evalúan datos categóricos o nominales y ordinales o ordenados, se categorizan como no paramétricas, mientras que aquellas que evalúan datos en forma de intervalo o proporción se conocen como paramétricas. Los autores concuerdan en que mientras no haya ninguna razón para creer que una o más de las suposiciones de las pruebas paramétricas no han sido cumplidas y cuando el nivel de medición de un grupo de datos está en forma de intervalo o proporción, éste debe ser evaluado con la prueba paramétrica apropiada. Sin embargo, si una o más de las suposiciones son violadas, algunas fuentes (no todas) mencionan que es prudente transformar los datos a un formato compatible para el análisis con la prueba no paramétrica adecuada (Sheskin, 2004). Sin embargo, existe cierta negativa por parte de algunos autores en hacer esta transformación, ya que los datos en forma de intervalo o proporción contienen más información que los otros formatos. Debido a lo anterior, se cree más prudente emplear la prueba paramétrica apropiada aun cuando existe la duda del cumplimiento de los supuestos. Estos autores argumentan que las pruebas paramétricas son robustas, es decir, pueden proveer información razonablemente confiable acerca de la población, a pesar de lo anteriormente mencionado. Generalmente cuando una prueba paramétrica es empleada bajo estas condiciones se hacen ciertos ajustes en lo que se refiere a la evaluación del estadístico de prueba para mejorar su confiabilidad. 2.3.3 Ventajas de la Estadística No Paramétrica A pesar de tener ciertas limitaciones, es importante resaltar las ventajas que tienen los métodos no paramétricos sobre los paramétricos. Hollander y Wolfe (1999) las sintetizan en una lista: Los procedimientos no paramétricos requieren pocas suposiciones acerca de las poblaciones de las cuales proceden los datos bajo análisis. De manera particular, es posible dejar a un lado la suposición de normalidad de los datos. Estos métodos son capaces de proveer con exactitud p-valores e intervalos de confianza para diferentes pruebas de hipótesis, así como tasas de error para comparaciones múltiples, entre otras. Capítulo 2: Antecedentes 18 Las pruebas no paramétricas son a menudo más fáciles de aplicar y entender que sus contrapartes paramétricas. Aunque a primera vista pareciera que estos procedimientos sacrifican mucha información contenida en las muestras, investigaciones teóricas han demostrado que éste no es el caso, sino por el contrario, cuando los datos no son normales, su eficiencia puede ser igual o mayor que las pruebas paramétricas. Las técnicas no paramétricas son relativamente insensibles a observaciones alejadas del centro de los datos. Esto es, que al usar parámetros como el rango (R), cualquier variación en los datos afecta el resultado, mientras que en la estadística no paramétrica, se utiliza la posición del dato (ranking), insensibilizando así el resultado ante observaciones alejadas del centro de los datos (mediana). Éstas son aplicables en muchas situaciones donde los procedimientos de la teoría normal no pueden ser utilizados. Son la alternativa ideal a utilizar cuando los datos no pueden ser transformados a normales. Capítulo 2: Antecedentes 19 Capítulo 2: Antecedentes 20 CAPÍTULO 3 PROCEDIMIENTOS ESTADÍSTICOS NO PARAMÉTRICOS 3.1 Conceptos Básicos 3.1.1 Niveles de Medición La información cuantificada con propósitos de análisis es clasificada respecto al nivel de medición que presentan los datos. Existen diferentes niveles de medición, los cuales contienen diferentes cantidades de información de lo que sea que se está midiendo (Sheskin, 2004). Stevens (1946) desarrolló un sistema de clasificación de niveles de medición, el más usado en las disciplinas científicas. Las categorías existentes se presentan a continuación: a) Nominal/Categórico: En este tipo de nivel de medición, los números se utilizan para identificar categorías mutuamente excluyentes, pero no pueden ser manipulados de forma matemática. Por ejemplo, la matrícula de un vehículo, cuyo único propósito es la identificación y por ende no puede ser utilizada en una operación aritmética. b) Ordinal: En este caso, los números representan un orden específico, pero no proporcionan ninguna información acerca de las diferencias entre órdenes adyacentes. Por ejemplo, el orden de llegada en una carrera, que no indica la distancia de diferencia entre primero, segundo y tercer lugar. c) Intervalo: Una escala en intervalo considera el orden relativo de las mediciones pero también considera el hecho de que una diferencia en escala entre dos medidas, corresponde a la misma diferencia en la cantidad del atributo medido. Por ejemplo, si se hablara del IQ (Coeficiente Intelectual), la diferencia entre una persona que tiene un IQ de 100 y otra de 101 debería ser igual a una que tiene un IQ de 130 y otra de 131. Capítulo 3: Procedimientos Estadísticos No Paramétricos 21 d) Proporción: El concepto de nivel de medición tipo proporción es igual al del intervalo, pero además se caracteriza por tener un punto cero. Debido a lo anterior, es posible hacer aseveraciones significativas acerca del atributo o variable medido. Por ejemplo, la mayoría de las medidas físicas (estatura, peso) tienen este tipo de nivel: tienen un punto cero y se pueden hacer afirmaciones sobre el peso de alguien en forma de proporción (una persona pesa el doble que otra). 3.1.2 Variables Continuas y Discretas Cuando se hacen mediciones acerca de personas u objetos, se asume que existirá cierta variabilidad, es decir, que lo que estamos cuantificando o midiendo no tendrá siempre el mismo valor para todos los sujetos estudiados. Es por esto que cuando algo es medido, comúnmente es llamado variable. Las variables se clasifican en continuas y discretas. Una variable continua es aquella que puede asumir cualquier valor dentro de un rango que define los límites de dicha variable, por ejemplo, la temperatura ambiental. Por otro lado, una variable discreta es que aquella que sólo puede tomar un número limitado de valores, por ejemplo, el valor de una de las caras de un dado, que sólo puede asumir valores enteros entre 1 y el 6. 3.1.3 Estadístico contra Parámetro Un estadístico se refiere a la característica de una muestra, mientras que un parámetro se refiere a la característica de una población. Un estadístico puede ser utilizado tanto para propósitos descriptivos como inferenciales. En la estadística inferencial un estadístico se emplea para hacer suposiciones acerca de su parámetro correspondiente dentro de una población, de la cual se ha extraído una muestra aleatoria. 3.1.4 Pruebas de Hipótesis La inferencia estadísticatiene muchas formas. La forma que ha tenido mayor aplicación, difusión y atención por parte de los usuarios de los métodos no paramétricos es la llamada prueba de hipótesis (Conover, 1980). La prueba de hipótesis es el proceso de inferir, a partir de una muestra, si un enunciado acerca de una población debe ser aceptado o rechazado. Dicho enunciado es lo que se llama hipótesis. En cada caso la hipótesis es probada a partir de evidencia contenida en la muestra. Ésta es rechazada si la evidencia existente nos revela con cierto grado de confianza que la hipótesis es falsa. Si, por el contrario, la evidencia muestra que la hipótesis es verdadera, ésta se acepta. El procedimiento general para realizar una prueba de hipótesis es el siguiente: Capítulo 3: Procedimientos Estadísticos No Paramétricos 22 a) Las hipótesis son establecidas en términos de la población. b) Se selecciona un estadístico de prueba. c) Se establece una regla en cuanto a los valores posibles del estadístico de prueba, para decidir se si se acepta o rechaza la hipótesis. d) Se evalúa dicho estadístico contra la evidencia que arroje la muestra aleatoria extraída de la población, y se toma la decisión. Existen dos tipos de hipótesis, la nula y la alternativa. La hipótesis nula (H0) es la hipótesis que afirma una verdad establecida, y en caso de ser cierta, no es necesario ejecutar acción alguna. Por otro lado, la hipótesis alternativa (H1) es la que se desea sea la sustituta de la hipótesis nula y, cuando es verdadera, es necesario efectuar cambios. De la misma manera, hay dos tipos de errores que pueden ser cometidos en al momento de llevara cabo una prueba de hipótesis, el Error tipo I y Error tipo II, su definición se presenta en la Tabla 3.1: Naturaleza Se acepta H0 Se rechaza H0 H0 es verdadera No existe error Error tipo I H0 es falsa Error tipo II No existe error Tabla 3.1: Errores Tipo I y Tipo II Por otra parte, el nivel de significancia es la probabilidad de cometer el error tipo I, y se denota por α. A la probabilidad de cometer el error tipo II se le conoce como β. Existen dos tipos de pruebas de hipótesis, la prueba bilateral y la prueba unilateral. La hipótesis nula es la misma para ambos casos, y se representa como: 00 : θθ =H En la prueba bilateral, la hipótesis alternativa es: 01 : θθ ≠H En la prueba unilateral, hay dos opciones de hipótesis alternativa: 01 : θθ >H ó 01 : θθ <H Capítulo 3: Procedimientos Estadísticos No Paramétricos 23 Una forma de reportar los resultados de una prueba de hipótesis es enunciando que la hipótesis nula se rechazó o no en un nivel de significancia determinado. Este enunciado puede ser inadecuado, ya que no le da al analista ninguna idea acerca de cuánto se acercó el estadístico de prueba a la zona de rechazo. Para evitar esto, se utiliza el p-value o p-valor. Éste es la probabilidad de que el estadístico de prueba tome un valor que es al menos tan extremo como el valor observado del estadístico cuando la hipótesis nula es verdadera (Montgomery, 2002). 3.2 Procedimientos No Paramétricos 3.2.1 Procedimientos Paramétricos vs No Paramétricos En la Sección 2.2.1 se describieron cada una de las etapas de la metodología DMAIC (Definir, Medir, Analizar, Mejorar, Controlar) como corazón de Seis Sigma, tanto su definición, como una breve explicación las herramientas utilizadas. Dentro de la etapa de Definición, como puede observarse, sólo se aplica estadística descriptiva, que no requiere de la normalidad de los datos, por lo que los procedimientos no paramétricos presentados en los siguientes apartados se enfocarán específicamente en las etapas MAIC. Teniendo como base diversas fuentes consultadas especializadas en estadística, y como resultado de esta tesis, en la Tabla 3.2, se presenta una propuesta que incluye los sustitutos o equivalentes no paramétricos para algunos de los procedimientos paramétricos utilizados en las fases MAIC. Se incluye también la fase de Definición, con algunas de las herramientas de estadística descriptiva empleadas, así como una guía a grandes rasgos, para verificar que los datos no pueden ser normalizados, y por tanto, tomar la decisión de utilizar herramientas no paramétricas. Capítulo 3: Procedimientos Estadísticos No Paramétricos 24 Tabla 3.2: Procedimientos Paramétricos vs Procedimientos No Paramétricos Propuestos Capítulo 3: Procedimientos Estadísticos No Paramétricos 25 Capítulo 3: Procedimientos Estadísticos No Paramétricos 26 Tabla 3.2: Procedimientos Paramétricos vs Procedimientos No Paramétricos Propuestos (Continuación)∗ ** ∗ Debido a que la prueba Gage R&R es considerada como un ANOVA de dos factores, su equivalente no paramétrico es el Análisis de 2 Factores, o Two-Way Layout. ** Algunos autores, como Sheskin, consideran la Prueba Chi Cuadrada como no paramétrica, mientras que otros, como Montgomery, la consideran un procedimiento paramétrico. Sí ¿Son normales los datos de y? No En los siguientes apartados del documento, se desarrollan las herramientas no paramétricas que se sugieren como equivalentes a las pruebas tradicionales de las etapas MAIC, estas son: Medición o MSA- Análisis de 2 factores (Two Way Layout). o MSA-Friedman, Kendall y Babington-Smith. o MSA-Comparaciones Múltiples de Tratamientos Basados en el Procedimiento de Friedman. o Capacidad del Proceso – Curvas de Pearson. Análisis o Pruebas de Hipótesis para Mediana – Wilcoxon. o Pruebas de Hipótesis para Medianas – Mann – Whitney, Kruskal – Wallis, Análisis de un Factor para Alternativas con Forma Curva. o Prueba de Hipótesis para Medianas con Muestras Dependientes – Rangos con Signo Wilcoxon. o Pruebas de Hipótesis para Varianza – Chi Cuadrada. o Pruebas de Hipótesis para Varianzas – Levene, Siegel–Tukey, Moses, Rangos Cuadrados. o Pruebas para Proporciones - Cochran, Tablas de Contingencia. o Pruebas de Forma: Chi Cuadrada, Anderson–Darling, Kolmogorov–Smirnov. Mejora o Pruebas de Hipótesis para Medianas – Mann–Whitney, Kruskal– Wallis, Análisis de un Factor para Alternativas con Forma Curva. o Pruebas de Hipótesis para Varianzas – Levene, Siegel–Tukey, Moses, Rangos Cuadrados. o Pruebas para Proporciones - Cochran, Tablas de Contingencia. o Coeficiente de Correlación – Spearman. Control o Gráficos de Control – EWMA. La presentación de estas herramientas incluye el planteamiento de las hipótesis nula y alternativa, los supuestos bajo los cuales opera, sus requisitos, el procedimiento general para llevar a cabo la prueba y finalmente, la interpretación de los resultados. Debido a que puede dar pie a confusiones, cabe aclarar que la traducción de “rank” al español es rango, por ello, en los nombres de las herramientas se seguirá manejando este término en español, ya que es la manera en la que comúnmente se maneja, mientras que en el procedimiento se utilizarán términos como rank y rankeo. Capítulo 3: Procedimientos Estadísticos No Paramétricos 27 3.2.2 Medición 3.2.2.1 Capacidad del Sistema de Medición: Análisis de 2 Factores (Two Way Layout) El Análisis de 2 Factores se refiere al análisis estadístico de datos recolectados generalmente bajo un diseño de experimentos que involucran dos factores, a dos o más niveles. Este tipo de estudio es útil para analizar la capacidad de un sistema de medición, ya que se enfoca en los efectos o medianas de los diferentes niveles de uno de estos factores, llamados tratamientos y de los niveles de un segundo factor, llamado bloque. Lo anterior puede ser representado en la Tabla 3.3: Tratamientos Bloques 1 2 … k 1 x11 x12 … x1k 2 x21 x22 … x2k … … … … … N xn1 xn2 … xnk Tabla 3.3: Modelo General de Tratamientos y Bloques Adaptadade Hollander y Wolfe 1999 La hipótesis nula básica para este tipo de análisis es la igualdad de los efectos (medianas) de los k tratamientos dentro de cada uno de los bloques. • Suposiciones o Los N datos { , i = 1,…, n y j = 1,…, son mutuamente independientes. ),...,( 11 knxx }k o Las funciones de distribución Fij tienen la relación expresada en la Ecuación 3.1: ∞<<∞−−−= uuFuF jiij ),()( τβ (3.1) donde F es una función de distribución continua con mediana desconocida θ, βi es el efecto aditivo desconocido del bloque i, y τi es el efecto aditivo del tratamiento j. Hipótesis nula kH τττ === L210 : Hipótesis alternativa :1H Al menos hay un par , tal que ji ττ ≠ ji ≠ . Capítulo 3: Procedimientos Estadísticos No Paramétricos 28 3.2.2.1.1 Prueba de Friedman, Kendall – Babington Smith • Procedimiento Dada una muestra de N datos, agrupados en la forma n bloques y k tratamientos: 1. Ordenar de menor a mayor las k observaciones de forma separada dentro de cada uno de los n bloques. 2. Asignarle a la observación más pequeña el rank 1, a la segunda el rank 2 y así sucesivamente. 3. Realizar la sumatoria de los ranks de cada bloque, como se muestra en la Ecuación 3.2: ∑ = = n i ijj rR 1 (3.2) donde rij es el rank de xij dentro del bloque i. 4. Calcular el rank promedio de cada bloque, utilizando la Ecuación 3.3: n R R jj =. (3.3) 5. Calcular el estadístico de prueba S de Friedman, dado por la Ecuación 3.4: ∑ = ⋅ ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ +− + = k j j kR kk nS 1 2 2 1 )1( 12 (3.4) • Interpretación de los Resultados Rechazar la hipótesis nula si el estadístico de prueba S de Friedman es mayor o igual al valor crítico de tablas sα en su respectivo nivel de significancia. 3.2.2.1.2 Comparaciones Múltiples de Tratamientos Basadas en el Procedimiento de Friedman Este procedimiento de comparación múltiple, se basa en el modelo de Friedman desarrollado en el apartado anterior, y tiene el objetivo de dar al analista evidencia para tomar decisiones en base a las diferencias individuales entre pares de tratamientos (τi, τj), para i < j. Es empleado para datos agrupados en la forma de n bloques y k tratamientos, como se muestra en la Tabla 3.3, con un dato por celda. Su uso es válido después de rechazar la hipótesis nula del procedimiento de Friedman, que sostiene que las medianas de los tratamientos son iguales. Capítulo 3: Procedimientos Estadísticos No Paramétricos 29 • Procedimiento Dada una muestra de N datos, agrupados en la forma n bloques y k tratamientos, con un dato por celda: Siendo R1, …, Rk las sumas de los ranks dadas por 3.2, calcular las k(k-1)/2 diferencias absolutas, como se muestra en la Ecuación 3.5: kvuRR vu ≤<≤− 1 (3.5) • Interpretación de los Resultados Concluir vu ττ ≠ si αrRR vu ≥− , donde rα es la constante elegida para que la tasa de error del experimento sea α. 3.2.2.2 Capacidad del Proceso: Curvas de Pearson El cálculo de la capacidad del proceso comúnmente utilizado tiene el supuesto básico de que los datos provienen de una distribución normal. Cuando este supuesto no se cumple se utilizada un método basado en las Curvas de Pearson. Éste puede ser utilizado para cualquier forma de distribución, es fácil de visualizar gráficamente y es relativamente fácil de calcular. Además, cuando la distribución resulta ser normal, los resultados arrojados son exactamente los mismos que en el método tradicional. En 1893, Karl Pearson publicó su familia de curvas. Este sistema incluye la curva normal y otras curvas estadísticas como casos especiales. Éstas sirven de base teórica para calcular los Índices de Capacidad de Proceso. En este método, al manejar datos no normales, se utiliza la mediana como medida de centralidad, para asegurar que el Cps y el Cpi midan la relación entre las mitades superior e inferior de la distribución de los datos y los límites de especificación. De esta manera, al igual que el método tradicional, el Cpk proporciona un índice para la “peor” mitad de los datos. Figura 3.1: Representación del Cp con Distribuciones No Normales Capítulo 3: Procedimientos Estadísticos No Paramétricos 30 En la Figura 3.1 los símbolos tienen la siguiente notación: LIE: Límite Inferior de Especificación. LSE: Límite Superior de Especificación. PI: Percentil Inferior (0.135). PS: Percentil Superior (99.865). Los valores de los percentiles obedecen al nivel usual de confianza de 99.73%. Este nivel de confianza es el equivalente a tener cubiertos 3 sigmas de cada lado de la media, como se muestra en la Figura 3.2: Figura 3.2: Nivel de Confianza del 99.73% on esto, se pretende cubrir el 99.73% del área bajo la curvan sin importar el tipo ara la aplicación de este método es necesario realizar el cálculo del sesgo y la sesgo negativo. En la Figura 3.2 se muestran ambos tipos de sesgo. C de distribución con que se esté trabajando, como se presenta en la Figura 3.3. Figura 3.3: Percentiles Estándar P curtosis de la distribución de los datos bajo análisis. El sesgo es el grado de asimetría de una distribución: si la curva de frecuencias tiene una cola más larga a la derecha del máximo central que a la izquierda, se dice que la distribución tiene un sesgo positivo. Si sucede lo contrario, se dice que la distribución tiene un Capítulo 3: Procedimientos Estadísticos No Paramétricos 31 Figura 3.4: Tipos de Sesgo Por otro lado, la curtosis es el nto de una distribución: si la istribución tiene un apuntamiento alto se dice que es leptocúrtica, mientras que na distribución más plana se llama platicúrtica. La distribución normal se Procedimiento . Calcular la media grado de apuntamie d u denomina mesocúrtica. La Figura 3.3 ilustra mejor lo anterior. Figura 3.5: Tipos de Curtosis • x1 de los datos, utilizando la Ecuación 3.6: n x i i∑ x n = (3.6) 2. Calcular la desviación están ión 3.7: = 1 dar σ de los datos, usando la Ecuac n xx i i∑ n = 2 (3.7) 3. Calcular el coeficiente de sesgo, a3, con la Ecuación 3.8: − = 12 )( σ Capítulo 3: Procedimientos Estadísticos No Paramétricos 32 3 3 3 σ ma = (3.8) donde n xx i i∑ m n = 3 . 4. Calcular el coeficiente de curt 4 : − = 1 3)( osis, a , utilizando la Ecuación 3.9 4 4 4 σ ma = (3.9) n m i xx n i∑ donde = − 4)( . 2. Obtener el percentil estandarizado I’ tivo, utilizar la Tabla 1a; para sesgo negativo, utilizar la Tabla 1b. 3. r el percentil es , utilizar la bla 1b; para sesgo negativo utilizar la Tabla 1a. = 14 . En el método se utiliza la cantidad a4 – 3 0.135, P . Para sesgo posi Obtene tandarizado 99.865, PS’. Para sesgo positivo Ta 4. Obtener la mediana estandarizada M’, de la Tabla 2. Para sesgo positivo, cambiar el signo; para sesgo negativo, dejar el signo original. 5. Calcular el percentil 0.135 estimado, PI, con la Ecuación 3.10: 'II PxP σ−= (3.10) 6. Calcular el percentil 99.865 estimado, PS, usando la Ecuación 3.11: 'SS PxP σ−= (3.11) 7. Calcular la mediana estimada, M, utilizando la Ecuación 3.12: MxM '− σ= . Calcular los Índices de Habilidad del Proceso: ot nc (3.12) 8 Para la Capacidad P e ial IS p PP LIELSEC − − = 3.13) Para la Capacidad Real ( I pi PM LIEMC − − = (3.14) Capítulo 3: Procedimientos Estadísticos No Paramétricos 33 MP MLSEC S ps − − = (3.15) { }pspipk mínC = CC , (3.16) 3.2.3 Análisis 3.2.3.1 Prueba de Rangos con Signo de W a Prueba de Rangos con Signo (Wilcoxon, 1945) es un procedimiento no aramétrico empleado en pruebas de hipótesis que involucran una sola muestra ara determinar si ésta se deriva o no de una población en la cual la mediana (θ) a prueba arroja un resultado significativo, el vestigador puede concluir que existe evidenciasuficiente de que la muestra rente a θ (Sheskin, 004). están en el formato de intervalo/proporción. o La distribución de la población es simétrica. Hipótesis nula ilcoxon (1 Mediana) L p p es igual a un valor específico. Si est in procede de una población cuya media tiene un valor dife 2 • Suposiciones o La muestra ha sido seleccionada aleatoriamente de la población que representa. o Los registros originales obtenidos para cada uno de los sujetos/objetos 0:0 θθ =H ótesis alterna Hip tiva 0:1 θθ ≠H ó 01 : θθ >H ó 01 : θθ <H • Procedim to Dada ra de n observaciones: 1. Calcular las diferencias ien una muest 0θ−= ixD . 2. Ordenar lo alores absolutos de las diferencias |D|. 3. as diferencias iguales a cero no se ordenan. Esto quiere decir que se elimina er sujeto que arroje una diferencia de cero. s v el análisis cualqui L d Capítulo 3: Procedimientos Estadísticos No Paramétricos 34 4. Se debe utilizar el siguiente protocolo al ordenar los valores de las diferencias: con el valor absoluto más pequeño, el con el se undo valor absoluto más pequeño y así do al valor absoluto más 6. Se le asigna el rank 1 a la diferencia rank 2 a la diferencia g sucesivamente hasta que el rank más alto sea asigna grande. En caso de que exista un empate en dichos valores, se le asigna a cada uno de éstos el promedio de sus respectivos ranks. 5. Después de ordenar |D|, se coloca el signo de cada diferencia enfrente de su respectivo rank. Se registra la suma de los ranks con signo positivo +ΣR y la suma de los ranks con signo negativo −ΣR . La Ecuación 3.17 permite verificar la exactitud de estos valores. Si la relación expresada en esta ecuación no se obtiene, entonces se ha cometido un error al realizar los cálculos: 2 )1( + =Σ+Σ −+ nnRR (3.17) Interpretación de los Resultados • Si el valor de +ΣR − es significativamente mayor que el valor ΣR , esto procede de una pob indica que hay una alta posibilidad de que la muestra lación cuya mediana es mayor que −ΣR es mayor que +ΣR0θ . Por otro lado si el valor , , esto uie a viene de una población q re decir que existe alta posibilidad de que la muestr cuya mediana es menor que 0θ . El valor absoluto del más pequeño de los valores +ΣR y −ΣR se designa como el estadístico de prueba Wilcoxon T. El valor T es interpretado usando la Tabla de Valores T Críticos para la Prueba Wilcoxon (Tabla 5, Anexos). Para e sea significativo, el valor obtenido de T debe ser menor o igual que el valor crítico T de tablas, en su respectivo nivel de signi qu ficancia, es deci a si r, se rechaz 0H αTT ≤ . involucran una la muestra, con el objetivo de determinar si dicha muestra con una varianza stimada de s2 se deriva de una población con una varianza σ2. Esta prueba tiliza datos en forma de intervalo / proporción. 3.2.3.2 La Prueba Chi Cuadrada (1 Varianza) La Prueba Chi Cuadrada se utiliza en pruebas de hipótesis que so e u Suposiciones • o La distribución de los datos de la población de la cual se deriva la muestra, es normal. o La muestra ha sido seleccionada aleatoriamente de la población que representa. Capítulo 3: Procedimientos Estadísticos No Paramétricos 35 • Requisito o La muestra debe ser n ≥ 5. ip Hip tiva σ edimiento ra de n observaciones: obtener el estadístico de prueba es necesario utilizar los datos muestrales para calcular un estimado de la varianza poblacional, utilizando la Ecuación 3.18: H ótesis nula 2 0 2: σσ =H ótesis alterna 0 2 0 2 1 :σ ≠H ó 22 01 ó H : σσ > 20 2 1 : σσ <H • Proc Dada una muest 1. Para 2~s , 1−n )( ~ 2 2 2 Σ −Σ = n XX s (3.18) Donde 2XΣ es la sumatoria de los cuadrados de cada uno de los datos muestrales, mientras 2)( XΣ es el cuadrado de la sumatoria de los datos. Calcular el esta2. dístico de prueba chi-cuadrada utilizando la Ecuación 3.19: 2 2 2 ~)1( σ χ sn −= (3.19) Donde σ2 es el valor hipotético de la El estadístico de prueba es compar la Distribución Chi-Cuadrada (Tabla 4, Anexos). Est ón a los gra 3.20: df= n – 1 (3.20) esario usar los siguientes lineamientos: ) Si la hipótesis alternativa empleada es bidireccional, la hipótesis nula puede poblacional mayor que el valor es en hipótesis n a puede ser rechazada si el estadístico de prueba es mayor o igual que el valor crítico de tablas, para varianza poblacional. • Interpretación de los Resultados ado con el valor de tablas para os valores están listados en relaci dos de libertad, los cuales se calculan utilizando la Ecuación Para evaluar la hipótesis nula, es nec a ser rechazada si valor obtenido de Chi-Cuadrada es mayor o igual que el valor de tablas, al nivel de significancia requerido, o menor o igual. b) Si la hipótesis alternativa es unidireccional y predice una varianza tablecido la ula, ést su respectivo nivel de significancia. Capítulo 3: Procedimientos Estadísticos No Paramétricos 36 c) En caso contrario al anterior, la hipótesis nula puede ser rechazada si el valor del estadístico de prueba es menor o igual que el valor crítico, en el nivel de significancia especificado. 3.3 Prueba de la χ 3.2. r x c (Tablas de Contingencia para La r x c es una extensión de la Prueba de Bondad de juste de la χ2 para tablas bidimensionales. Mientras que ésta puede ser mpleada únicamente con una sola muestra categorizdada en una dimensión, la rueba para Tablas r x c puede usarse para evaluar diseños que contienen datos tablas stas de r renglones y c columnas. Los valores de r y c son úmeros enteros iguales o mayores a 2. La Tabla 3.4 es el modelo general de una 2 para Tablas Proporciones) Prueba de la χ2 para Tablas A e p categóricos en forma de una tabla, conocida como tabla de contingencia. Estas están compue n tabla de contingencia. C1 C2 … Cj … Cc R1 O11 O12 … O1j … O1c O1. R2 O21 O22 … O2j … O2c O2. M M M M M Ri Oi1 Oi2 … Oij … Oic Oi. M M M M M Rr r.Or1 Or2 … Orj … Orc O O.1 O.2 … O.j … O.c n Ta 3 re e a C g a Ext ída de Sheskin, 004. Existe un total de n ob rv io e s ta . da elemento dentro de la tabla es identificado por dos notaci la p ndica el renglón y el segundo, la columna l u c a ld de tal manera que la notación Oij represent el io e se encuentra en el i renglón y en la j colu • Suposiciones : m e la tabla r x c son iguales. bla .4: Ar glo d una Tabl de ontin enci ra 2 se ac n s e n e ta bla Ca ones, loca rimera i ceen a q e se liza ad a, a número de observac nes qu mna. o La muestra de n sujetos ha sido aleatoriamente elegida de la población que representa. o El nivel de medición de los datos es nominal o categórica. o La frecuencia esperada de cada celda es igual o mayor a 5. Hipótesis nula H0 En las poblaciones representadas por la muestra, todas las proporciones en la isma columna d Hipótesis alternativa Capítulo 3: Procedimientos Estadísticos No Paramétricos 37 H1: En las poblaciones representadas por la muestra, todas las proporciones en la misma columna de la tabla r x c no son iguales para al menos una de las • n datos, agrupados en la forma de una tabla de con 1. n la cual la celda de interés aparece por la suma de las bservaciones de la columna de esa misma celda. Dividir entre el total de . Esta operación se representa con la Ecuación 3.21: columnas. Procedimiento Dada una muestra de tingencia r x c: Calcular las frecuencias esperadas: Multiplicar la suma de las observaciones en la fila e o observaciones n n E jiij ..= (3.21) OO ))(( 2. Calcular el estadístico de prueba χ2, haciendo la sumatoria de las restas de la frecuencia observada menos la frecuencia esperada de cada celda entre la frecuencia esperada, como se puede observar en la Ecuación 3.22: ∑∑ = = ⎥ ⎥ ⎦ij ij E (3.22) ⎤−c EO 2)( ⎢ ⎢ ⎣ ⎡ = r
Compartir