Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA UNIDAD PROFESIONAL AZCAPOTZALCO “DISEÑO DE LA PLATAFORMA PARA LA LÍNEA DE PRODUCCIÓN DE UN CENTRO DE COPIADO” TESIS PROFESIONAL SOMETIDA COMO REQUISITO PARA OBTENER EL TÍTULO DE: INGENIERO MECÁNICO QUE PRESENTA: ROBERTO HERNÁNDEZ GORDILLO MAYO 2007. Í N D I C E TEMAS PÁG. ii.1 iii.1 iii.2 JUSTIFICACIÓN………………………………………………………………. INTRODUCCIÓN……………………………………………………………… DELMIA QUEST………………………………………………………………. OBJETIVOS:…………………………………………………………………… GENERAL……………………………………………………………………………….. ESPECÍFICO……………………………………………………………………………. 1 3 6 9 10 10 CAPÍTULO 1 DESCRIPCIÓN DELMIA-QUEST 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 1.10 1.10.1 1.10.2 1.10.3 1.10.4 1.10.5 1.10.6 1.10.7 1.10.8 1.10.9 HISTORIA DEL COMPUTO…………………………………………………………… CLASIFICACIÓN DE LAS COMPUTADORAS……………………………………… HARDWARE…………………………………………………………………………….. DEFINICIÓN DE SOFTWARE………………………………………………………… SISTEMAS OPERATIVOS…………………………………………………………….. SISTEMAS OPERATIVOS MAS COMUNES……………………………………….. CONTROL Y ADMINISTRACIÓN DE PROCESOS………………………………… PLATAFORMAS DE IMPLEMENTACIÓN…………………………………………… DEFINICIÓN DE SISTEMAS SCADA………………………………………………… QUEST…………………………………………………………………………………… INTEGRACIÓN DE SISTEMAS, VALIDACIÓN DE PROCESO DEL FLUJO, VISUALIZACIÓN………………………………………………………………………... AMBIENTE DISCRETO JUNTO A LA SIMULACIÓN DE LOS ACONTECIMIENTOS………………………………………………………………….. CONSTRUCCIÓN/VALIDACIÓN/ANÁLISIS CON QUEST………………………… SIMULACIÓN DEL FLUJO DE LA FABRICA……………………………………….. ANALIZAR NIVELES DE INVENTARIO……………………………………………… MECÁNICA DE QUEST……………………………………………………………….. DOMINIOS DISPONIBLES PARA MAXIMIZAR EL POTENCIAL DE QUEST…... FASE DE LA EXPERIMENTACIÓN DE LA SIMULACIÓN OPTQUEST…………. FASE DE LOS RESULTADOS-QUEST EXPRESS………………………………… 12 12 15 21 22 27 28 29 32 37 38 39 40 41 42 43 44 48 49 CAPITULO 2 CREACIÓN, DESARROLLO Y SIMULACIÓN 2.1 2.2 2.3 2.4 2.5 2.5.1 2..6 2.7 2.8 ANTECEDENTES E INFORMACIÓN………………………………………. SOFTWARE DE SIMULACIÓN ……………………………………………... CREACIÓN DE GEOMETRÍAS (CAD)……………………………………… ANIMACIÓN DE GEOMETRÍAS…………………………………………….. CONSTRUCCIÓN DE MODELO EN QUEST (MODEL-MHS)…………… MODEL…………………………………………………………………………. ESCENARIO 1 (MODELO BÁSICO 1 PERSONA)………………………... ESCENARIO 2 (MODELO BÁSICO 1 PERSONA C/2 MÁQUINAS)…… ESCENARIO 3 (3 PERSONAS C/4 MÁQUINAS)…………………………. 51 55 56 57 59 60 61 66 69 CAPITULO 3 RESULTADOS, VALIDACIÓN E IMPLEMENTACIÓN 3.1 3.2 3.3 ESCENARIO 1 (IMPLEMENTACIÓN VIRTUAL-REAL C/1 PERSONA)... ESCENARIO 2 (IMPLEMENTACIÓN VIRTUAL-REAL 1 PERSONA C/2 MÁQUINAS)…………………………………………………………………… ESCENARIO 3 (3 PERSONAS C/4 MÁQUINAS)…………………………. 73 76 79 CAPITULO 4 EVALUACIÓN DE NUEVA PROPUESTA DE DISEÑO Y MATERIAL ADICIONAL 4.1 4.2 4.2.1 PROPUESTAS DE DISEÑO Y MATERIAL ADICIONAL…………………. EVALUACIÓN…………………………………………………………………. REQUERIMIENTOS MÍNIMOS PARA LA UTILIZACIÓN DE SOLUCIONES DELMIA………………………………………………………. 83 88 88 CONCLUSIONES……………………………………………………………... BIBLIOGRAFÍA………………………………………………………………… GLOSARIO…………………………………………………………………….. ÍNDICE DE FIGURAS………………………………………………………… 91 94 95 96 Agradecimientos: A toda mi familia por su apoyo incondicional durante el transcurso de toda mi carrera así como su confianza y su comprensión. En especial a mi padre que de no haber sido por el nunca en mi vida hubiera sabido lo que significaba el orgullo de ser Politécnico. A mi madre por toda su paciencia y su persistencia por verme culminar lo que algún día empecé. A mi hermano que nunca me dejo atrás en todo el recorrido de la vida más bien yo siempre iba por delante del camino. A mi hermana por siempre estar al pendiente de todo lo que sucedía en mi trayectoria así como en mi vida. A mi esposa por apoyarme en este camino que es el término de todo un proceso de maduración profesional. Dedicatoria: Al esfuerzo de todos mis profesores por forjarme palmo a palmo como una persona de provecho con criterio propio y el poder de decisión único que da el conocimiento. A mi hija la cual todavía no entiende esta situación pero que algún día se sentirá orgullosa de su padre. 1 JUSTIFICACIÓN 2 La necesidad de tener un control de rendimiento, tanto de recursos humanos, así como de consumibles y materiales en general, sin pasar por alto el balance exacto del desempeño de ambos en la cotidianeidad, ha propiciado el que se recurran a los avances tecnológicos de simulación de líneas de producción, por la única razón de que, es muy difícil determinar con herramientas que ya son obsoletas, si además, sabemos que en ésta era moderna, ya contamos con una herramienta tan eficaz, económica y exacta, como es el software de DELMIA-QUEST. El software DELMIA-QUEST es la herramienta que está fundamentada en tecnología de punta en simuladores, y en la cual este proyecto se apoya para su creación, ya que permite operar un negocio con reportes, incluyendo factores como eficiencia, fallas, rutinas de mantenimiento, tiempo y espacio, siendo el ideal o la mejor opción para ver lo que es trabajar en un 100% en la simulación, tanto al recurso humano, como material, para ver la situación real de funcionabilidad. Este poderoso software, nos permite tener bajo supervisión, los aspectos donde la simulación detecta deficiencias ó tal vez alguna carencia de carácter como es la operación (suministro de consumibles), ó tiempos de realización de las tareas programadas, ya que puede darse el caso de que en alguna remota ocasión, no se cubran las necesidades de tiempo y servicio a los clientes. Podríamos asegurar, que éste software es la punta de lanza, para que, tanto el Ingeniero de la Industria, como el Ingeniero que maneja su propio negocio, tenga una valiosa herramienta a la mano, para asegurar en un 100%, el cumplimiento de sus objetivos, y tener un óptimo rendimiento, que puede ser tanto humano, como material, es decir, el manejo de equipos y consumibles, así como el aprovechamiento máximo de la manufactura de su negocio o industria. 3 INTRODUCCIÓN 4 Una de las necesidades existentes dentro de Ingeniería en todos sus ámbitos, era una herramienta que proporcionara, entre otras virtudes, diseño y simulación, para evitar errores y así, tener la precisión necesaria para la toma de decisiones, que necesariamente conlleva a desembolsos financieros importantes. Dentro de la preparación integral de Ingeniería, siempre ha sido necesario hacer uso de herramientas efectivas, con el propósito de encontrar mayor precisión en el control de procesos y tareas, especialmente en el caso de ingeniería de manufactura. En estos momentos, contamos con una de las herramientas que han comenzado la revolución tecnológica dentro de los software de diseño, nos referimos a DELMIA (Digital Enterprise Lean Manufacturing Interactive Application), el cual también está entre la gama de productos de la compañía Dassautl Systemes creadora de CATIA (Cad Aided Three-dimensional Interactive Application). En el trabajo presente, se presentará una semblanza, de las bondades del software de diseño DELMIA, el cual no solo mantiene un control de la fuerza de trabajo, sino que cubre uno de los rubros más importantes, como es proteger la inversión del usuario, ya que al ser tan asertivo, va eliminando las posibilidades de error en el momento crucial, en que un inversionista decide elegirlo como su herramienta de trabajo principal. 5 Figura ii.1.- Productos de simulación Dassault Systemes. Los paquetes de diseño en particular de esta compañía utilizan el terminoPPR (Product - Process - Resources) como el vinculo entre las herramientas de diseño digital, debido a que el desarrollo de procesos resultan de la interacción entre recursos y productos. Actualmente las soluciones DELMIA se encuentran en versiones y liberaciones V5R17 (módulo HUMAN y ROBOTICS), D5R17 (QUEST) y también se encuentran en desarrollo las nuevas herramientas como son SIMULIA y VIRTOOLS. 6 i.1.-DELMIA QUEST. En esta tesis se hará uso de la herramienta QUEST D5R15, esto se debe a que la naturaleza del mismo requiere de este software de simulación de procesos. Bajo la filosofía de diseño “Ve lo que tratas de decir” y el “¿Que tal si?”, las herramientas de diseño y simulación proveen de ambientes de colaboración para los Ingenieros industriales, Ingenieros de manufactura, y administración. A través de esto es posible desarrollar y probar de forma práctica la mejor manera de manufacturar a través del diseño de procesos. EL objetivo del software de simulación de procesos, es mejorar diseños, reducir riesgos y costos, maximizar la eficiencia digital, como algunas de las muchas virtudes encontradas en este software, lo cual lleva a los empresarios, a hacer las cosas correctamente, desde la primera vez sin necesidad de desembolsar dinero adicional en instalaciones o bien arriesgar su inversión. QUEST (Queuing Event Simulation Tool) es una fábrica en 3D completamente ambientada para simulación de flujos de proceso y análisis precisos, es flexible, y la combinación del ambiente de simulación de eventos discretos con un visualizador poderoso y robustas capacidades hace que la ingeniería y la toma de decisiones se faciliten. También permite construir de manera fácil y sencilla modelos de simulación al nivel de detalle requerido, agregando tantos detalles como sean necesarios para mejorar la precisión a través del diseño de procesos. En resumen QUEST es una poderosa herramienta de análisis y desarrollo de simulación para validación y visualización del impacto del flujo de procesos hechos para requerimientos en producción. 7 Figura ii.2.- QUEST, la herramienta de vanguardia. También es pertinente comentar que los casos de éxito con empresas de talla internacional, se encuentran CHRYSLER, VOLKSWAGEN, GULFSTREAM, METALSA, NEMAK, KUKA, HERSA, TOYOTA, AUDI, DANA entre otros y es por eso que el propósito de esta tesis es dar a conocer algunas de las muchas virtudes que existen dentro del software DELMIA QUEST, como parte del compromiso que existe con la institución. Considerando que ya es el momento de continuar aportando de manera adecuada información para futuras generaciones y convocarlos a utilizar de manera interesante el software y de igual modo, el desarrollo práctico de proyectos con el apoyo del mismo. Anteriormente la única forma de simular algún evento era a través de herramientas muy limitadas, ya que era necesario ser un programador de 8 buen nivel para poder adaptarse a la sintaxis propia del software, y esto traía muchas dificultades a los usuarios, ya que de no entender la lógica de trabajo, caían en la desesperación y preferían hacer estadísticas o proyecciones de acuerdo a eventos previos. Las herramientas más efectivas que se utilizaban, son hojas de cálculo en conjunto con bases de datos para la administración de información referente a los procesos, sin embargo los procedimientos a seguir eran muy lentos y muchas veces la información no llegaba a tiempo o bien los ingenieros de las plantas no tenían el mismo enfoque. En esta tesis se mostrará lo fácil y ameno, que resulta realizar diseños y simulaciones por medio del software de simulación de procesos, ya que esta herramienta no es exclusiva de ingenieros industriales, de sistemas o diseño, sino que también puede ser utilizado por ingenieros electrónicos, mecatrónicos, biomecánicos, robóticos, o bien gente relacionada con el ambiente administrativo. Es muy extenso introducir información referente a todo lo relacionado con PLM (Product Lifecycle Management), es decir el manejo del ciclo de vida del producto, ya que así como ya existen herramientas de diseño y simulación, también existen herramientas para creación de comportamientos definidos que ya están dentro del campo de herramientas de diseño virtual, de hecho Dassault Systemes tiene un paquete llamado VIRTOOLS con el cual esta actualmente desarrollando proyectos de marketing para compañías como RENAULT en Francia y BMW en Alemania, con los cuales ya sobrepasa la línea de simulación y ahora entran a la interactividad con el usuario final, y lo más interesante es que las herramientas ya no requieren de escribir líneas de programación sino más bien realizar ensamble de diagramas a bloques que contienen las líneas de código definidas. 9 OBJETIVOS 10 iii.1.- OBJETIVO GENERAL: El objetivo general, será llevar a cabo el diseño de una plataforma de simulación virtual, para un centro de copiado basado en tecnología de punta en simuladores para cubrir hasta el más mínimo detalle de la producción dentro de los parámetros mas satisfactorios de la industria, que nos permita obtener el mejor rendimiento de los equipos, comportamiento humano, dando como resultado la máxima eficiencia. La decisión de aplicar el software DELMIA-QUEST, es para lograr la optimización de los recursos y de los procesos en la línea de producción , el cual permitirá hacer una relación directa de operador/máquina, proporcionando así, un amplio panorama de como realizar todas las tareas programadas de la mejor manera posible. En cuanto a la implementación del sistema, se hace todo lo posible por estar cerca de todos los parámetros que en su momento serán reevaluados para un mejor rendimiento, tomando en cuenta que el trabajo de la línea es variable en ciertas temporadas, como pueden ser los períodos vacacionales, días feriados, así como el desempeño de los trabajadores que puede verse disminuido por cuestiones de salud, problemas personales ó algún tipo de inconformidad de su realidad. iii.2.- OBJETIVO ESPECÍFICO: El objetivo específico de éste trabajo, es demostrar las bondades del software DELMIA-QUEST, ya que es una herramienta poco conocida, y se espera que este trabajo, sea punta de lanza para proyectos más ambiciosos de simulación, teniendo como finalidad, obtener el máximo aprovechamiento de los recursos humanos y de los recursos materiales, como pueden ser los equipos, maquinaria, y consumibles, para la optimización real de su uso y aplicación. 11 CAPÍTULO 1 Descripción DELMIA-QUEST 12 1.1.- Historia del cómputo Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación, el reemplazo de las memorias con núcleos magnéticos, por las de Chips de silicio y la colocación de muchos más componentes en un Chip, producto de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de Chips hizo posible la creación de las computadoras personales. (PC) Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacén en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña realice las mismas operaciones que con una computadora de la primera generación que ocupaban un cuarto completo. 1.2.- Clasificación de las computadoras Supercomputadoras Macrocomputadoras Minicomputadoras Microcomputadoras o PC´s Supercomputadoras: Una supercomputadora es el tipo de computadora más potente y más rápida que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y están dedicadas a una tarea específica. De la misma manera, son las más caras, sus precios alcanzan los 30mdd. y más, además de que, cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes que alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes: 13 1. Búsqueda y estudio de la energía y armas nucleares. 2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos. 3. El estudio y predicción de tornados. 4. El estudio y predicción del clima de cualquier parte del mundo. 5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo, etc. Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año. Macrocomputadoras: Las macrocomputadoras son también conocidas como mainframes, los cuales son grandes, rápidos y caros, además de que, son sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde 350,000 dólares hasta de varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. Pero las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada. Minicomputadoras: En 1960 surgió la mini computadora, una versión más pequeña de la Macrocomputadora, que al ser orientada a tareas específicas, no necesitaba 14 de todos los periféricos que necesita un Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento. Las Minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una mini computadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Microcomputadoras (PC´s): Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chip", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva de que para el año de 1981, IBM, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras, como la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo mini torre, separado del monitor. Computadoras personales portátiles "Laptop" o "Notebook". Computadoras personales más comunes, con el gabinete horizontal, separado del monitor. Computadoras personales que están en una sola 15 unidad compacta el monitor y el CPU. Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables, pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crystal Display). Estaciones de trabajo o Workstations: Las estaciones de trabajo se encuentran entre las Minicomputadoras y las macrocomputadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesamiento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de ingeniería CAD (Diseño asistido por computadora) CAM (manufactura asistida por computadora) Publicidad Creación de Software en redes, la palabra "Workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local. 1.3 Hardware Entrada Procesamiento Almacenamiento Secundario Salida Definición de Hardware: Hardware son todos aquellos componentes físicos de una computadora, todo lo visible y tangible. El Hardware realiza las 4 actividades fundamentales: entrada, procesamiento, salida y almacenamiento primario y secundario. Entrada para ingresar los datos a la computadora, se utilizan diferentes dispositivos, por ejemplo: 16 Teclado: Dispositivo de entrada más comúnmente utilizado que encontramos en todos los equipos computacionales. El teclado se encuentra compuesto de 3 partes: teclas de función, teclas alfanuméricas y teclas numéricas. Mouse: Es el segundo dispositivo de entrada más utilizado. El mouse o ratón es arrastrado a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor. Fue inventado por Douglas Engelbart y su nombre se deriva por su forma la cual se asemeja a la de un ratón. Procesamiento: El CPU (Central Proccesor Unit) es el responsable de controlar el flujo de datos (Actividades de Entrada y Salida E/S) y de la ejecución de las instrucciones de los programas sobre los datos. Realiza todos los cálculos (suma, resta, multiplicación, división y compara números y caracteres). Es el "cerebro" de la computadora. Se divide en 3 Componentes 1. Unidad de Control (UC) 2. Unidad Aritmético/Lógica (UAL) 3. Área de almacenamiento primario y secundario (memoria) Unidad de control: Es en esencia la que gobierna todas las actividades de la computadora, así como el CPU es el cerebro de la computadora, se puede decir que la UC es el núcleo del CPU. Supervisa la ejecución de los programas Coordina y controla al sistema de cómputo, es decir, coordina 17 actividades de E/S, determina que instrucción se debe ejecutar y pone a disposición los datos pedidos por la instrucción. Determina donde se almacenan los datos y los transfiere desde las posiciones donde están almacenados. Una vez ejecutada la instrucción la Unidad de Control debe determinar donde pondrá el resultado para salida ó para su uso posterior. Unidad Aritmético/Lógica: Esta unidad realiza cálculos (suma, resta, multiplicación y división) y operaciones lógicas (comparaciones). Transfiere los datos entre las posiciones de almacenamiento. Tiene un registro muy importante conocido como: Acumulador ACC, al realizar operaciones aritméticas y lógicas, la UAL mueve datos entre ella y el almacenamiento. Los datos usados en el procesamiento se transfieren de su posición en el almacenamiento a la UAL. Los datos se manipulan de acuerdo con las instrucciones del programa y regresan al almacenamiento. Debido a que el procesamiento no puede efectuarse en el área de almacenamiento, los datos deben transferirse a la UAL. Para terminar una operación puede suceder que los datos pasen de la UAL al área de almacenamiento varias veces. Área de almacenamiento Primario: La memoria de almacenamiento del procesador es temporal para programas y datos. Todos los programas y datos deben transferirse a la memoria desde un dispositivo de entrada o desde el almacenamiento secundario (disquete), antes de que los programas puedan ejecutarse o procesarse los datos. Las computadoras usan 2 tipos de memoria primaria: ROM (read only memory), memoria de sólo lectura, en la cual se almacena ciertos programas e información que necesita la computadoralas cuales están grabadas permanentemente y no pueden ser modificadas por el programador. 18 Las instrucciones básicas para arrancar una computadora están grabadas aquí y en algunas notebooks han grabado hojas de cálculo, basic, etc. RAM (Random access memory), memoria de acceso aleatorio, la utiliza el usuario mediante sus programas, y es volátil. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas que se están ejecutando en ese momento, los resultados del procesamiento y los datos que se preparan para la salida. Durante el procesamiento, el almacenamiento primario guarda los datos intermedios y finales de todas las operaciones a aritméticas y lógicas. La memoria está subdividida en celdas individuales cada una de las cuales tiene una capacidad similar para almacenar datos. Almacenamiento Secundario: El almacenamiento secundario es un medio de almacenamiento definitivo (no volátil como el de la memoria RAM). El proceso de transferencia de datos a un equipo de cómputo se le llama procedimiento de lectura. El proceso de transferencia de datos desde la computadora hacia el almacenamiento se denomina procedimiento de escritura. En la actualidad se pueden usar principalmente dos tecnologías para almacenar información: 1.- El almacenamiento Magnético. 2.- El almacenamiento Óptico. Algunos dispositivos combinan ambas tecnologías. Dispositivos de almacenamiento magnético: Almacenamiento Magnético 1.- Discos Flexibles 2.- Discos Duros 3.- Cintas Magnéticas o Cartuchos. 19 Almacenamiento Óptico: La necesidad de mayores capacidades de almacenamiento han llevado a los fabricantes de hardware a una búsqueda continua de medios de almacenamiento alternativos y cuando no hay opciones, a mejorar tecnologías disponibles y desarrollar nuevas. Las técnicas de almacenamiento óptico hacen posible el uso de la localización precisa mediante rayos láser. Leer información de un medio óptico es una tarea relativamente fácil, escribirla es otro asunto. El problema es la dificultad para modificar la superficie de un medio óptico, ya que los medios ópticos perforan físicamente la superficie para reflejar o dispersar la luz del láser. Los principales dispositivos de almacenamiento óptico son: 1.- CD ROM.- CD Read Only Memory 2.- WORM.- Write Once, Read Many Medios Magnético-Ópticos: Estos medios combinan algunas de las mejores características de las tecnologías de grabación magnética y óptica. Un disco MO tiene la capacidad de un disco óptico, pero puede ser regrabable con la facilidad de un disco magnético. Actualmente están disponibles en varios tamaños y capacidades. Salida: Los dispositivos de salida de una computadora es el hardware que se encarga de mandar una respuesta hacia el exterior de la computadora, como pueden ser: los monitores, impresoras, sistemas de sonido, módem. etc. 20 Monitores: El monitor ó pantalla de vídeo, es el dispositivo de salida más común. Hay algunos que forman parte del cuerpo de la computadora y otros están separados de la misma. Existen muchas formas de clasificar los monitores, la básica es en término de sus capacidades de color, pueden ser: Monocromáticos, despliegan sólo 2 colores, uno para el fondo y otro para la superficie. Los colores pueden ser blanco y negro, verde y negro ó ámbar y negro. Escala de Grises, un monitor a escala de grises es un tipo especial de monitor monocromático capaz de desplegar diferentes tonos de grises. Color.- Los monitores de color pueden desplegar de 4 hasta 1 millón de colores diferentes. Conforme ha avanzado la tecnología han surgido los diferentes modelos: TTL, Monocromático, muy pobre resolución, los primeros no tenían capacidad de graficar. CGA, Color Graphics Adapter, desplegaba 4 colores, con muy pobre resolución a comparación de los monitores actuales, hoy en día fuera del mercado. EGA, Enhanced Graphics Adapter, manejaba una mejor resolución que el CGA, de 640x350 pixeles. (Los pixeles son los puntos de luz con los que se forman los caracteres y gráficas en el monitor, mientras más pixeles mejor resolución). Desplegaban 64 colores VGA, Vídeo Graphics Array, los hay monocromáticos y de color. Adecuados para ambiente gráfico por su alta resolución (640x480 pixeles). Pueden llegar hasta 256,000 colores ó 64 tonalidades de gris dependiendo de la memoria destinada al dispositivo. SVGA, Super Vídeo Graphics Array, maneja una resolución más alta (1,024x768), el número de colores desplegables varía dependiendo de la memoria, pero puede ser mayor que 1 millón de colores. UVGA, Ultra Vídeo Graphics Array, Resolución de 1280 x 1024. La calidad de las imágenes que un monitor puede desplegar se define más por las capacidades de la Tarjeta controladora de vídeo, que por las del monitor mismo. El controlador de vídeo es un dispositivo intermediario entre 21 el CPU y el monitor. El controlador contiene la memoria y otros circuitos electrónicos necesarios para enviar la información al monitor para que la despliegue en la pantalla. 1.4 Definición de Software El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el software, la computadora sería un conjunto de medios sin utilizar. Al cargar los programas en una computadora, la máquina actuará como si recibiera una educación instantánea; de pronto "sabe" cómo pensar y cómo operar. El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación de un sistema de cómputo. Distinguiéndose de los componentes físicos llamados hardware. Comúnmente a los programas de computación se les llama software; el software asegura que el programa o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar. Es simplemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados. El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware. Clasificaciones del Software: El software se clasifica en 4 diferentes Categorías: Sistemas Operativos, Lenguajes de Programación, Software de uso general, Software de Aplicación. (Algunos autores consideran la 3era y 4ta clasificación como una sola). 22 1.5 Sistemas Operativos El sistema operativo es el gestor y organizador de todas las actividades que realiza la computadora. Marca las pautas según las cuales se intercambia información entre la memoria central y la externa, y determina las operaciones elementales que puede realizar el procesador. El sistema operativo, debe ser cargado en la memoria central antes que ninguna otra información. Lenguajes de Programación Mediante los programas se indican a la computadora que tarea debe realizar y cómo efectuarla, pero para ello es preciso introducir estas órdenes en un lenguaje que el sistema pueda entender. En principio, el ordenador sólo entiende las instrucciones en código máquina, es decir, el específico de la computadora. Sin embargo, a partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel. Software de Uso General: El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada a los usuarios (manuales de referencia, plantillas de teclado y demás). Software de aplicaciones: El software de aplicación esta diseñado y escrito para realizar tareas específicas personales, empresariales o científicascomo el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios. Todas éstas aplicación es procesan datos (recepción de materiales) y generan información (registros de nómina). 23 Sistemas Operativos: Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el teclado, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación. Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado auto prueba de encendido (Power On Self Test, POST). Durante la POST, la computadora identifica su memoria, sus discos, su teclado, su sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para arrancar (boot). Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en todo momento. Mientras la computadora esté encendida, el SO tiene 4 tareas principales. 1.- Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica al usuario, para que este último se pueda comunicar con la computadora. Interfaz de línea de comando: tú introduces palabras y símbolos desde el teclado de la computadora, ejemplo, el MS-DOS. Interfaz gráfica del Usuario (GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar sobre figuras llamadas iconos o seleccionar opciones de los menús. 2.- Administrar los dispositivos de hardware en la computadora. Cuando corren los programas, necesitan utilizar la memoria, el monitor, las unidades de disco, los puertos de Entrada/Salida (impresoras, módems, etc.). El SO sirve de intermediario entre los programas y el hardware. 24 3.- Administrar y mantener los sistemas de archivo de disco. Los SO agrupan la información dentro de compartimientos lógicos para almacenarlos en el disco. Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos proporciona las herramientas necesarias para organizar y manipular estos archivos. 4. Apoyar a otros programas. Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son similares a aquellos que el SO proporciona directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio disponible, etc. Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema". El Kernel y el Shell: Las funciones centrales de un SO son controladas por el núcleo (kernel) mientras que la interfaz del usuario es controlada por el entorno (shell). Por ejemplo, la parte más importante del DOS es un programa con el nombre "COMMAND.COM" Este programa tiene dos partes. El kernel, que se mantiene en memoria en todo momento, contiene el código máquina de bajo nivel para manejar la administración de hardware para otros programas que necesitan estos servicios, y para la segunda parte del COMMAND.COM el shell, el cual es el intérprete de comandos. Las funciones de bajo nivel del SO y las funciones de interpretación de comandos están separadas, de tal forma que puedes mantener el kernel DOS corriendo, pero utilizar una interfaz de usuario diferente. Esto es exactamente lo que sucede cuando cargas Microsoft Windows, el cual toma el lugar del shell, reemplazando la interfaz de línea de comandos con una 25 interfaz gráfica del usuario. Existen muchos shells diferentes en el mercado, ejemplo: NDOS (Norton DOS), XTG, PCTOOLS, o inclusive el mismo SO MS- DOS a partir de la versión 5.0 incluyó un Shell llamado DOS SHELL. Categorías de Sistemas Operativos MULTITAREA: El término multitarea se refiere a la capacidad del SO para correr mas de un programa al mismo tiempo. Existen dos esquemas que los programas de sistemas operativos utilizan para desarrollar SO multitarea, el primero requiere de la cooperación entre el SO y los programas de aplicación. Los programas son escritos de tal manera que periódicamente inspeccionan con el SO para ver si cualquier otro programa necesita a la CPU, si este es el caso, entonces dejan el control del CPU al siguiente programa, a este método se le llama multitarea cooperativa y es el método utilizado por el SO de las computadoras de Macintosh y DOS corriendo Windows de Microsoft. El segundo método es el llamada multitarea con asignación de prioridades. Con este esquema el SO mantiene una lista de procesos (programas) que están corriendo. Cuando se inicia cada proceso en la lista el SO le asigna una prioridad. En cualquier momento el SO puede intervenir y modificar la prioridad de un proceso organizando en forma efectiva la lista de prioridad, el SO también mantiene el control de la cantidad de tiempo que utiliza con cualquier proceso antes de ir al siguiente. Con multitarea de asignación de prioridades el SO puede sustituir en cualquier momento el proceso que esta corriendo y reasignar el tiempo a una tarea de mas prioridad. Unix OS-2 y Windows NT emplean este tipo de multitarea. Multiusuario: Un SO multiusuario permite a mas de un solo usuario accesar una computadora. Claro que, para llevarse esto a cabo, el SO también debe ser 26 capaz de efectuar multitareas. Unix es el Sistema Operativo Multiusuario más utilizado. Debido a que Unix fue originalmente diseñado para correr en una mini computadora, era multiusuario y multitarea desde su concepción. Actualmente se producen versiones de Unix para PC tales como The Santa Cruz Corporation Microport, Esix, IBM, y Sunsoft. Apple también produce una versión de Unix para la Macintosh llamada: A/UX. Unix, Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo. 1.- Mediante Módems. 2.- Mediante conexión de terminales a través de puertos seriales 3.- Mediante Redes. Multiproceso: Las computadoras que tienen mas de un CPU son llamadas multiproceso. Un sistema operativo multiproceso coordina las operaciones de las computadoras multiprocesadores. Ya que cada CPU en una computadora de multiproceso puede estar ejecutando una instrucción, el otro procesador queda liberado para procesar otras instrucciones simultáneamente. Al usar una computadora con capacidades de multiproceso incrementamos su velocidad de respuesta y procesos. Casi todas las computadoras que tienen capacidad de multiproceso ofrecen una gran ventaja. Los primeros Sistemas Operativos Multiproceso realizaban lo que se conoce como: Multiproceso asimétrico: Una CPU principal retiene el control global de la computadora, así como el de los otros procesadores. Esto fue un primer paso hacia el multiproceso pero no fue la dirección ideal a seguir ya que la CPU principal podía convertirse en un cuello de botella. Multiproceso simétrico: En un sistema multiproceso simétrico, no existe una CPU controladora única. La barrera a vencer al 27 implementar el multiproceso simétrico es que los SO tienen que ser rediseñados o diseñados desde el principio para trabajar en un ambiente multiproceso. Las extensiones de Unix, que soportan multiproceso asimétrico ya están disponibles y las extensiones simétricas se están haciendo disponibles. Windows NT de Microsoft soporta multiproceso simétrico. 1.6.- Sistemas Operativos más comunes MS-DOS: Es el más común y popular de todos los Sistemas Operativos para PC. La razón de su continua popularidad se debeal aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel. Cuando Intel liberó el 80286, D OS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.80186 Después de la introducción del procesador Intel 80286, IBM y Microsoft reconocieron la necesidad de tomar ventaja de las capacidades multitarea de esta CPU. Se unieron para desarrollar el OS/2, un moderno SO multitarea para los microprocesadores Intel. <BR> Sin embargo, la sociedad no duró mucho. Las diferencias en opiniones técnicas y la percepción de IBM al ver a Windows como una amenaza para el OS/2 causó una desavenencia entre las Compañías que al final las llevó a la disolución de la sociedad. IBM continuó el desarrollo y promoción del OS/2. Es un sistema operativo de multitarea para un solo usuario que requiere un microprocesador Intel 286 o mejor. Además de la multitarea, la gran ventaja 28 de la plataforma OS/2 es que permite manejar directamente hasta 16 MB de la RAM (en comparación con 1 MB en el caso del MS-DOS). Por otra parte, el OS/2 es un entorno muy complejo que requiere hasta 4 MB de la RAM. Los usuarios del OS/2 interactúan con el sistema mediante una interfaz gráfica para usuario llamada Administrador de presentaciones. A pesar de que el OS/2 rompe la barrera de 1 MB del MS-DOS, le llevó tiempo volverse popular. Los vendedores de software se muestran renuentes a destinar recursos a la creación de un software. 1.7.- Control y administración de procesos La necesidad de Controlar en forma más precisa y óptima los distintos procesos, junto con la incorporación elementos de supervisión e interacción con los diferentes elementos de control que intervienen en un proceso productivo, han hecho nacer una serie de programas de supervisión gráfica que permiten, mediante una PC o una red de computadoras más completa, monitorear y supervisar elementos tales como sistemas lógicos programables, adquisidores de datos, controladores, convertidores de frecuencia, etc. Estos programas de supervisión gráfica permiten, mediante la generación de mímicos del proceso, monitorear el estado de variables, trazar curvas de tendencias en tiempo real, generar archivos históricos, generación de alarmas, generación de reportes, etc. En general proporcionan los elementos básicos de Control, Monitoreo y Supervisión más herramientas de desarrollo que permiten crear elementos adicionales para la adaptación del Software a los diferentes procesos productivos. Estos software de supervisión gráfica se comunican con nuestros elementos de control mediante una línea de comunicaciones de tipo 29 estandarizada o mediante interfaces de comunicaciones propietarias (diseñadas por el fabricante). 1.8.- Plataformas de implementación Los software de supervisión inicialmente fueron concebidos en grandes sistemas de control de tipo distribuido, montados sobre plataformas de hardware y de software propietarias, esto es, en configuraciones de hardware, tanto de la arquitectura de los controladores como de la red de comunicaciones, diseñadas por el fabricante. Así también los sistemas operativos soportantes eran sistemas operativos diseñados especialmente para el sistema y pocas veces se utilizaban sistemas operativos de tipo comercial. Esta situación ha cambiado en nuestros días, especialmente para aplicaciones de diferentes escalas, en el sentido de utilizar computadores personales y redes de comunicaciones estándar para el monitoreo y supervisión de sistemas de control. El sistema de control debe ser eficiente, en el sentido de tener la menor cantidad de fallas o “caídas” con el fin de evitar la perdida de información del sistema y la perdida de monitoreo y supervisión. El Sistema Operativo que presentaba, tiempo atrás, la mejor performance en este aspecto era OS/2 de IBM y fue uno de los Sistemas Operativos por excelencia para los software de supervisión, un ejemplo de ello son: Onspec Monitor 77 Factory Link La creciente popularidad de Windows, y sus mejoras con respecto a la robustez, permitió que estos programas se implementaran en sistemas operativos más populares, es así como hoy en día las plataformas más 30 preferidas por los usuarios ( No necesariamente la plataforma óptima) son en orden de popularidad. Windows 3.11 Windows 95 Windows NT Unix Dos OS/2 Y los sistemas más populares para aplicaciones medianas a chicas, al menos en forma local son: Factory Link Wonderware Pcim Paragon Fix Onspec Genesis Licencias en un software de supervisión La mayoría del software de supervisión se compone de módulos que identifican las diferentes funcionalidades de estos. A su vez cada módulo se puede adquirir para dos formas de trabajo, estas son: Licencia RunTime Licencia para Desarrollo Licencia RunTime: Este modo corresponde al modulo destinado solamente para le ejecución final de la aplicación, solo permite que la aplicación sea ejecutada sin permitir modificaciones o cambios en la aplicación desarrollada. 31 Licencia para Desarrollo: Este modo de licencia permite la creación de la aplicación, es decir en la fase de desarrollo y construcción de nuestra aplicación debemos disponer de este modo para los distintos módulos que utilizaremos. Generalmente las fases de desarrollo de una aplicación se dividen en el desarrollo propiamente tal y la fase de ejecución. Para la primera fase se necesita al menos una Licencia de Desarrollo para la construcción de la aplicación y tantas licencias RunTime como estaciones de trabajo se requieran instalar. Módulos en un software de supervisión: La mayoría de los software de supervisión gráfica se componen en módulos que proporcionan las diferentes herramientas para el desarrollo de aplicaciones, entre estas, las más importantes son: Módulo de Configuración Módulo de Animación Gráfica Módulo de Tendencias en Tiempo Real Módulos de Generación de Históricos Módulos de Gestión de Alarmas Módulos de Generación de Reportes Módulo de Configuración de Drivers Drivers en un software de supervisión Una de las misiones adicionales de un Software de Supervisión es la integración y la interacción con dispositivos de control de distintos fabricantes, es así como estos programas proporcionan compatibilidad con la mayoría de los elementos de control que existen en el mercado. La compatibilidad se realiza mediante la creación de Módulos de Interfase (Drivers) que se encargan de la comunicación del Software con el, o los elementos de Control finales. 32 1.9.- Definición de sistema SCADA SCADA es el acrónimo de Supervisory Control And Data Acquisition (Supervisión, Control y Adquisición de Datos). Un SCADA es un sistema basado en computadoras que permite supervisar y controlar a distancia una instalación de cualquier tipo. A diferencia de los Sistemas de Control Distribuido, el lazo de control es GENERALMENTE cerrado por el operador. Los Sistemas de Control Distribuido se caracterizan por realizar las acciones de control en forma automática. Hoy en día es fácil hallar un sistema SCADA realizando labores de control automático en cualquiera de sus niveles, aunque su labor principal sea de supervisión y control por parte del operador. A continuación se muestra un cuadro comparativo de las principales características de los sistemas SCADA y los sistemas de Control Distribuido (DCS) (Éstas características no son limitantes para uno u otro tipo de sistemas, son típicas). Tabla 1.1.- Algunas diferencias típicas entre sistemas SCADA y DCS. ASPECTO SCADAsDCS TIPO DE ARQUITECTURA CENTRALIZADA DISTRIBUÍDA TIPO DE CONTROL PREDOMINANTE SUPERVISORIO: Lazos de control cerrados por el operador. Adicionalmente: control secuencial y regulatorio. REGULATIORIO: Lazos de control cerrados automáticamente por el sistema. Adicionalmente: control secuencial, batch, algoritmos avanzados, etc. TIPOS DE VARIABLES DESACOPLADAS ACOPLADAS ÁREA DE ACCIÓN Áreas geográficamente distribuidas Área de la planta. UNIDADES DE Remotas, PLCs. Controladores de lazo, PLCs. MEDIOS DE Radio, satélite, líneas Redes de área local, conexión BASE DE DATOS CENTRALIZADA DISTRIBUIDA 33 El flujo de la información en los sistemas SCADA es como se describe a continuación: El FENÓMENO FÍSICO lo constituye la variable que deseamos medir. Dependiendo del proceso, la naturaleza del fenómeno es muy diversa: presión, temperatura, flujo, potencia, intensidad de corriente, voltaje, ph, densidad, etc. Este fenómeno debe traducirse a una variable que sea inteligible para el sistema SCADA, es decir, en una variable eléctrica. Para ello, se utilizan los SENSORES o TRANSDUCTORES. Los SENSORES o TRANSDUCTORES convierten las variaciones del fenómeno físico en variaciones proporcionales de una variable eléctrica. Las variables eléctricas más utilizadas son: voltaje, corriente, carga, resistencia o capacitancia. Sin embargo, esta variedad de tipos de señales eléctricas debe ser procesada para ser entendida por el computador digital. Para ello se utilizan ACONDICIONADORES DE SEÑAL, cuya función es la de referenciar estos cambios eléctricos a una misma escala de corriente o voltaje. Además, provee aislamiento eléctrico y filtraje de la señal con el objeto de proteger el sistema de transeúntes y ruidos originados en el campo. Una vez acondicionada la señal, la misma se convierte en un valor digital equivalente en el bloque de CONVERSIÓN DE DATOS. Generalmente, esta función es llevada a cabo por un circuito de conversión analógico/digital. El computador almacena esta información, la cual es utilizada para su ANÁLISIS y para la TOMA DE DECISIONES. Simultáneamente, se MUESTRA LA INFORMACIÓN al usuario del sistema, en tiempo real. Basado en la información, el operador puede TOMAR LA DECISIÓN de realizar una acción de control sobre el proceso. El operador comanda al 34 computador a realizarla, y de nuevo debe convertirse la información digital a una señal eléctrica. Esta señal eléctrica es procesada por una SALIDA DE CONTROL, el cual funciona como un acondicionador de señal, la cual la escala para manejar un dispositivo dado: bobina de un relay, setpoint de un controlador, etc. Necesidad de un sistema SCADA. Para evaluar si un sistema SCADA es necesario para manejar una instalación dada, el proceso a controlar debe cumplir las siguientes características: a) El número de variables del proceso que se necesita monitorear es alto. b) El proceso está geográficamente distribuido. Esta condición no es limitativa, ya que puede instalarse un SCADA para la supervisión y control de un proceso concentrado en una localidad. c) Las información del proceso se necesita en el momento en que los cambios se producen en el mismo, o en otras palabras, la información se requiere en tiempo real. d) La necesidad de optimizar y facilitar las operaciones de la planta, así como la toma de decisiones, tanto gerenciales como operativas. e) Los beneficios obtenidos en el proceso justifican la inversión en un sistema SCADA. Estos beneficios pueden reflejarse como aumento de la efectividad de la producción, de los niveles de seguridad, etc. f) La complejidad y velocidad del proceso permiten que la mayoría de las acciones de control sean iniciadas por un operador. En caso contrario, se requerirá de un Sistema de Control Automático, el cual lo puede constituir un Sistema de Control Distribuido, PLCs, Controladores a Lazo Cerrado o una combinación de ellos. 35 FUNCIONES Dentro de las funciones básicas realizadas por un sistema SCADA están las siguientes: a) Recabar, almacenar y mostrar información, en forma continua y confiable, correspondiente a la señalización de campo: estados de dispositivos, mediciones, alarmas, etc. b) Ejecutar acciones de control iniciadas por el operador, tales como: abrir o cerrar válvulas, arrancar o parar bombas, etc. c) Alertar al operador de cambios detectados en la planta, tanto aquellos que no se consideren normales (alarmas) como cambios que se produzcan en la operación diaria de la planta (eventos). Estos cambios son almacenados en el sistema para su posterior análisis. d) Aplicaciones en general, basadas en la información obtenida por el sistema, tales como: reportes, gráficos de tendencia, historia de variables, cálculos, predicciones, detección de fugas, etc. El mayor sistema Scada instalado en el mundo bajo Windows NT. En 1999 se puso en marcha el Proyecto de Ampliación de las minas Olympic Dam en Australia. En este lugar se ha implementado el mayor sistema Scada instalado en mundo. Utiliza Citect bajo Windows NT 4.0. El Scada controla casi 500.000 variables de tiempo real, e incorpora más de 20.000 curvas de registro de tendencia y 60.000 alarmas. El sistema consta en total de 74 estaciones Scada en red, incluyendo servidores redundantes de entradas-salidas, alarmas, registros de tendencia e informes. Se comunica con más de 150 PLCs, de las marcas Allen Bradley y Siemens. 36 El tiempo de actualización de las variables en pantalla en cualquier terminal Scada es menor de 1 segundo, y la carga completa de una página de registros históricos menor de 4 segundos. 37 11..1100..-- QQUUEESSTT. Validación y visualización del flujo del proceso de la integración de sistemas con la simulación discreta del acontecimiento. Figura 1.1.- Formato típico QUEST. 38 Ventajas de la solución: Valida requisitos de proceso del flujo y de la producción a satisfacer (comunicación y rendimiento de procesamiento y costeo). Obtención de propuestas (comunicación y presentación). Valida el diseño de los sistemas de tramitación material complejos. Optimizar la utilización del espacio. Reduce costo y riesgo. Maximizar la utilización del equipo. Reducir o asignar el trabajo. Reducir el Inventario. Reducir al mínimo el trabajo en proceso (WIP). Validar el Itinerario de producción. Verificar el planeamiento de capacidad. Determinar el planeamiento de la falla. Justificar los bienes de equipo. Eficacia del aumento. 1.10.1.- Integración de sistemas, validación de proceso del flujo, visualización. Figura 1.2.- Línea de Producción QUEST. 39 Figura 1.3.-Flujo de proceso (ninguna disposición requerida). 1.10.2.- Ambiente discreto junto a la simulación de los acontecimientos. Figura 1.4.- Flujo de la fábrica. Figura 1.5.- Simulación de la fábrica. Figura 1.6.- Herramienta del análisis. 40 QUEST Model Entradas potenciales (apremios de satisfacción) Salidas que resultan (requisitos de la reunión) OptQuest Refinar la entrada (basada en objetivos) Analizar/Optimizar con OptQuest Comunicarse con QUEST Express 1.10.3.- Construcción/Validación/Analisis con QUEST. Definir las listas de piezas, lanzar los horarios DefineRecursos /Herramientas Definir el Proceso de Flujo y comportamiento Definir sistemas de tramitación de Material Definir los cambios de puesto y programar Definir la duración modelo Graficas 3D y 2D Graficos y estadisticas del negocio Analisis del embotellamiento Evaluación del trabajo en proceso WIP Analisis del rendimiento de procesamiento Requisitos de mano de obra Diagrama 1.1.- ¡Tener lo correcto a la primera! ¿Qué tal si…? 41 Simulación del acontecimiento del uso 3D y validación discretadel flujo del proceso a: -Anticipar el comportamiento de las plantas en funcionamiento. -Determinar el rendimiento de procesamiento con las varias mezclas del producto y los niveles del recurso. -Evalúan los alternativas de la dirección material, número de las máquinas requeridas determinan impactos de la disposición de la facilidad. -Determinar el número de las operaciones paralelas y seriales requeridos. -Analizar. -Tiempo del flujo. -Niveles del inventario. -Embotellamientos. -Rendimiento de procesamiento. -Capacidad. -Utilización. Objetivo:(Simulación basada) evaluación y mejora dinámicas de los procesos de fabricación y del flujo material. 1.10.4.- Simulación del flujo de la fábrica. Figura 1.7.- Simulación flujo QUEST. 42 1.10.5.- Analizar niveles del inventario. Las ventajas principales de QUEST que se usan en inventario nivelan la optimización: a) Definir los niveles óptimos del inventario. b) Validación de los sistemas de JIT (apenas a tiempo). Ahorros en: - Mano de obra. - Espacio de la planta. - Sistemas de tramitación material. Figura 1.8.- Análisis de flujo. 43 Definir las listas de piezas, lanzar los horario Definir el trabajo Cambiarde puesto y programar Definir la duración modelo Graficas 3D y 2D Gráficos de negocio dinámicos/estaticos Análisis del embotellamiento Evaluación del Trabajo en proceso WIP Análisis del rendimiento de procesamiento Mano de obra Requisitos Interfaz utilizador gráfico de gran alcance y lenguaje robusto. Doc./manual de usuario en línea de la ayuda para el cliente. Salida (análisis completo) Definir el proceso Flujo y comportamiento Definir los sistemas de tramitación material Define Recursos / Herramientas Entrada (facilidad de empleo) Diagrama 1.2.- Funcionamiento Entradas y Salidas. 1.10.6.- Mecánica de QUEST. 44 1.- Visualización rápida 3D. Integración de la base para la eficacia. Comunicar con eficacia tus mejores soluciones. 2.- Integración útil de los datos. Abrir el interfaz de la arquitectura para cualquier entrada-salida de proceso de los datos. Alimentar tu simulación y analizar tus resultados. con las hojas de balance, el etc. 1.10.7.- Dominios disponibles para maximizar el potencial de QUEST. Figura 1.9.- Visualización 3D e Integración de datos. 45 3.- Niveles múltiples de la maestría del usuario y del análisis de la simulación. Curva de aprendizaje rápido para los principiantes: Interfaz utilizador gráfico para la construcción de maquetas rápida. Acomoda a expertos: Lenguaje de programación de gran alcance para la robustez y la exactitud. Figura 1.10.- Niveles de organización. 46 4.- La mejor reutilidad para cada nivel del detalle. capacidades Objeto-basadas para las bibliotecas reutilizables a todos los niveles del detalle. Capturar tus mejores prácticas. 5.- Análisis visual y estadístico. Salida gráfica y numérica, proveyendo de responsables el cuadro completo para el rendimiento de procesamiento y el costo que examinan. XML-generación de informe para el cliente basado, un estándar mundial. Maximizar el uso de la simulación. Figura 1.11.- Simulación con tiempos y movimientos. 47 6.- Generación modelo automática. Validación de proceso dinámica del flujo vía el cubo de la fabricación de DELMIA. Validar las alternativas de proceso del planeamiento. Reducir el tiempo inicial de la construcción de maquetas. Los modelos de QUEST de la actualización con plan de proceso cambian rápidamente. Figura 1.12.- Proceso dinámico de flujo. 48 1.10.8.- Fase de la experimentación de la simulación – OptQuest. Objetivo: Evaluar las varias combinaciones de los parámetros de entrada para resolver el objetivo deseado del modelo de QUEST. Figura 1.13.- Establecer Factores principales para simulación. Automáticamente búsquedas para las soluciones óptimas a los sistemas complejos. Acercar rápidamente a una respuesta aceptable y factible para tus ediciones de la facilidad. Uso de determinar la mayoría de la combinación productiva de los recursos y de los procesos basados encendido: Presupuesto. Capacidades de la máquina. Limitaciones de la hora del trabajo. Tamaños mínimos y máximos de la porción. Iniciativas de la reducción del inventario. Alternativas de la disposición de la facilidad. 49 ¿Que tal si...? Utilizar una versión rentable, más simple de QUEST. Los encargados de la producción, supervisores, los ingenieros del mayor nivel que desean analizar necesidades de la producción, no pasar la mayor parte del tiempo modelando. QUEST Express hecho dentro de QUEST. Modificarte + analizar + validar + visualizar adentro de QUEST Express. Obtener regeneración visual y numérica, para comunicar y para probar el impacto de los resultados del experimento. Objetivo: Proporcionar la experimentación modelo eficiente y resultado de comunicación para el responsable. Figura 1.14.- Obtención de resultados. 1.10.9.- Fase de los resultados – QUEST Express. 50 CAPITULO 2 CREACIÓN, DESARROLLO Y SIMULACIÓN 51 2.1.-Antecedentes e información Dentro de la industria del copiado, se han podido apreciar distintos puntos clave en el crecimiento del mismo, desde el surgimiento de la copiadora de tinta en polvo creada y desarrollada por Chester Carlson, hasta el surgimiento del gigante noble llamado XEROX, con gente de alto potencial como Shelby Carter, quien sería el mejor agente de ventas de su época y cuando en su momento el modelo XEROX 1075 se convirtió en el Samurai Americano ganándole a Japón el mercado en su propia nación. La tesis en este caso se enfocará al estudio de procesos, tiempos y movimientos dentro de las líneas de producción en general de centros de copiado en donde hay producción no organizada de fotocopiado en alto volumen. Este proyecto tiene como objetivo realizar una expansión de los centros de copiado y optimización de los recursos, ya que el crecimiento es inminente y es necesario realizar estudios pertinentes para asegurar la inversión. El caso particular que se analizará en los siguientes capítulos es una muestra clara de cómo es posible desarrollar distintos escenarios con el software de simulación de procesos y llegar a una decisión final por parte de la administración, cuando obtengan la información pertinente para obtener el mayor número de datos posibles y tener en cuenta factores que determinan distintas opciones. Se debe mencionar que una de las virtudes del software es que se puede hacer reutilización de información para así obtener resultados precisos que puedan ser retroalimentados dentro de las configuraciones diseñadas en los siguientes capítulos. 52 La información obtenida para la realización de este proyecto es por parte del personal involucrado en las líneas de producción y de igual manera de los manuales proporcionados para el servicio técnico de distribuidoras autorizadas por XEROX A continuación se enlistan los datos necesarios para realizar la simulación: 1. -Layout (en caso de tener un espacio definido y un análisis previo de instalación) en cualquier formato WORD, EXCEL, PDF, AUTOCAD etc. Respuesta: El espacio aún no esta definido, por lo que aún no hay un croquis o bien layout, pero de cualquier forma, está disponible a cambios dependiendo del resultado del proyecto.2. -Fotografías o videos que ilustren de manera clara cual es el funcionamiento de las líneas o bien celdas de trabajo. Respuesta: Se cuenta con fotografías que muestran el estado actual de trabajo dentro de una de las líneas de fotocopiado. 3. -Número de empleados, descanso y comida por turno. Respuesta: Son tres trabajadores, hay un turno de 9 horas diario, un descanso de 30 minutos a la hora y media después de haber comenzado la jornada, y una hora de comida a las 6 horas de haber comenzado el turno. 4. -Número de máquinas y número de fallas por turno en las máquinas, ya sea por tiempo o bien por productividad. Respuesta: Cuatro máquinas, hay entre 8 y 10 fallas de atoramiento o bien de mantenimiento correctivo durante el tiempo del turno el cual dura aproximadamente 40 segundos y depende no del tiempo transcurrido sino del número de copias que se sacan. 53 5. -Intercambio de herramientas u actividades adicionales. Respuesta: Se requiere de un vehiculo para traer material al inicio del día y también para hacer colecta de 14 materiales a fotocopiar en un turno, engargolados y enmicados. 6. -¿Cual es la producción total por turno? Respuesta: un aproximado de 5000 copias en un turno con un total de 3 empleados y tres máquinas marca XEROX 1090 y una 1050 para fotocopiado de formato especial. 54 A continuación se presenta una tabla proporcionada por los manuales técnicos de las fotocopiadoras XEROX, donde podemos observar, cuál es la productividad a la que debe realizarse un mantenimiento preventivo o en su defecto un mantenimiento correctivo. Tabla 2.1.- Rutinas de mantenimiento programadas CONTROL DE COPIAS ACCIÓN DE MANTENIMIENTO 60,000 60,000 120,000 120,000 240,000 120,000 120,000 60,000 120,000 120,000 • Agregue el lubricante de fusor. • Sustituya la botella de toner usado. • Verificar el estado del revelador y el módulo xerográfico. • Sustituya el fieltro de la cubierta. • Sustituya las zapatas y los sellos de la separación cilindro-rodillo. • Sustituya el filtro de vacío. • Sustituya el revelador. • Sustituya la almohadilla absorbente del módulo del fusor. • Sustituya la correa de alimentación de la bandeja 1. • Sustituya la correa de alimentación de la bandeja principal. • Sustituya el filtro del extractor de la óptica. • Realice la limpieza de la óptica. • Limpie la correa del alimentador de documentos. • Realice la limpieza del sensor del control automático del toner. • Sustituya la rueda de paletas de la acabadora. TODAS LAS VISITAS • Limpie el área del depósito de toner. • Limpie el conjunto de disminución de toner, usando un paño de limpieza seco. • Limpie las etiquetas del módulo de entrada. • Limpie las muestras negras del alimentador de documentos (y el área de las correas entre las muestras) y las almohadillas de presión. PRIMERA VISITA • Realice todo lo de la lista de comprobación de la primera visita (cuadro 1). 55 2.1 .-Software de simulación Como se ha comentado en los apartados anteriores, se va a realizar el análisis y evaluación de esta tesis, con el software de simulación de procesos DELMIA-QUEST, y es muy importante que se identifiquen de manera rápida cada una de las herramientas que la componen. Figura 2.1.- Barras de funciones del software QUEST. En la parte superior encontraremos las herramientas de uso común para editar, salvar, leer modelos o bien crear librerías, del lado derecho se encuentra la barra de funciones las cuales se activan con el simple apretar de unos botones. Finalmente en la parte inferior se encuentran los botones de navegación, los cuales permiten al usuario navegar dentro del ambiente de trabajo de QUEST. Conforme se vaya avanzando en el desarrollo y creación de los modelos, se irá haciendo referencia a distintos botones de activación de funciones, aunque también se hará hincapié en las ligas pertinentes para encontrar de manera rápida y concreta la forma para una fácil consulta. 56 2.3.- Creación de geometrías (CAD) Las geometrías diseñadas son de dos copiadoras, una del modelo 1090 XEROX y otra modelo 1050 XEROX, las cuales son las que se utilizan actualmente en el proceso de fotocopiado. Estas geometrías se diseñaron a partir de bloques distintos ya que posteriormente serian requeridas para desarrollar la animación (KINEMATICS) dentro de los procesos de carga y de descarga de dichas máquinas. (A) (B) Figura 2.2.- Ensamble de partes, copiadora marca XEROX, modelo 1090. (A).- Base 1090. (B).- Accesorios 1090. (A) (B) Figura 2.3.- Máquinas copiadoras marca XEROX. (A).- modelo 1090. (B).- modelo 1050. 57 Durante la realización del diseño y ensamblaje de las partes de las máquinas se utilizaron herramientas propias del CAD con el que cuenta QUEST, entre ellas están: • CREATE: Botón que permite la creación de distintas geometrías, en las cuales se crearon bloques y cilindros, así como las funciones de clonado de elementos y operaciones para salvar o traer objetos de las librerías. • MODIFY: Botón que permite a los usuarios definir y modificar las características de las geometrías, ya sea la escala o bien si necesitamos realizar operaciones del tipo booleanas etc. • AUX: Botón que permite se agreguen etiquetas o bien logotipos a algunos elementos en sus superficies. • DATA: En el caso de tener creado alguna geometría en algún otro CAD (AUTOCAD por ejemplo), es posible hacer la importación de archivos con extensiones .dwg, .dxf, .igs, .vrml, .stl. De igual forma, se puede hacer la exportación a estos formatos. 2.4 Animación de Geometrías Una vez que se tienen las geometrías, es muy importante dejar en claro donde se encuentran los ejes coordenados del origen en que fueron creados, ya que esto permitirá al usuario realizar la animación de manera sencilla. 58 (A) (B) Figura 2.4.- Ubicación de ejes coordenados en CAD. (A).- eje de coordenada “x”. (B).- eje de coordenada “y”. Después de haber definido los ejes adecuadamente, se procede a insertar dichas geometrías, para hacer un ensamble dentro del modelo, el cual se realiza con las herramientas avanzadas de kinematics, creando los grados de libertad de cada una de las articulaciones de la máquina y automáticamente se crea un guión, que define el comportamiento de dichos grados de libertad durante el ciclo del proceso de las máquinas. (A) (B) Figura 2.5.- Kinematics de QUEST. (A).-Estructuración de copiadora. (B).-Movimientos de copiadora. 59 En este punto, es importante mencionar que kinematics es solamente una función dentro de QUEST, que genera única y exclusivamente animación, es decir, no tiene ningún efecto de simulación del maquinado de productos o despliegue de resultados referentes al desempeño de las piezas que componen a dichas máquinas. Para el propósito de análisis de diseños de máquinas más avanzadas, encontramos que CATIA, SIMULIA y DELMIA V5R17 contienen funciones o bien herramientas que definen el comportamiento, resistencia, y fatiga que las máquinas tienen durante los procesos. (A) (B) Figura 2.6.- Asignación y gradado de proceso con kinematics. (A).- Funciones de la copiadora. (B).- Asignación de tiempos. Sin embargo, en el capítulo 3 se mencionará el por qué se diseñó dentro del modelo laanimación de las máquinas durante el proceso. 2.5 Construcción de Modelo en QUEST (MODEL-MHS) Una vez que se tienen las geometrías pertinentes para dar el detalle necesario al proyecto, se procede a realizar la inserción de las máquinas con sus respectivas animaciones, para comenzar a armar el diseño de la distribución de los equipos e iniciar la creación de los escenarios propuestos. 60 (A) (B) Figura 2.7.- Elementos en el mundo de trabajo. (A).- Colocación de elementos en área de simulación. (B).- Ruta de materia prima a producto terminado. Dentro del software, se encuentra una amplia gama de funciones representadas con botones en barras de herramientas, de las cuales se describen las más utilizadas para este proyecto. 2.5.1.- MODEL Es el menú que tiene herramientas para el modelado dentro del mundo de QUEST, y entre las funciones que se pueden encontrar en él están las siguientes: a) BUILD: Botón de construcción básica donde se encuentran elementos de uso frecuente, tal es el caso de materia prima (Part), fuente de materia prima (Source), almacén de producto terminado (Sink), máquina (Machine), elementos de paso (Buffer y Conveyor). b) MHS: Botón para la creación de sistemas de manejo de materiales, y donde se pueden crear personas (Labor), transportadores (Carriers) o vehículos guiados de manera automatizada (AGV). c) LAYOUT: Como dice su nombre, sirve para trazar rutas de trabajo para los elementos que se crean dentro de MHS, y este botón incluye funciones para crear puntos de decisión dentro de las rutas trazadas. 61 d) AUX: Botón que activa funciones auxiliares tales como : tiempo total de turnos, incluyendo descansos y comidas (Shift Schedule), fallas de maquinaria por tiempo transcurrido (Failure Schedule), o creación de subrecursos (SR) o bien herramientas que pueden ser utilizados por los elementos de BUILD. e) PROCESS: Botón que activa de manera independiente, procesos que pueden ser creados fuera de cualquier elemento puesto en el mundo previamente, aunque también, se pueden modificar y asignar tantos procesos como se deseen. 2.6.-Escenario 1 La construcción del primer escenario comenzará a partir de un modelado básico, el cual implica una simulación con una persona, una máquina y solo proceso de copiado. (A) (B) Figura 2.8.- Modelado de escenario 1. (A).- Entrega de producto. (B).- Producto en proceso. 62 Se realizaron las pruebas pertinentes, y se encontraron distintos resultados viables que corresponden a lo implementado en la vida real, sin embargo, aún así se debe indicar que el modelo es un “ideal” y que obviamente se ingresarán los horarios de turno, que incluyen descansos y comidas en 9 horas. Se hará la inserción del turno a través de la función AUX, y de igual forma se insertará un código que creará en lenguaje SCL (Simulation Control Language), una explicación al atoramiento común en el proceso de copiado y de igual manera cubrirá los requerimientos de mantenimiento correctivo y preventivo. 63 A continuación se presenta el Programa al que se le llamó copierfailure.scl, el cual fue sustraído por completo del capítulo 14 del tutorial incluido dentro de la documentación en línea del Software QUEST • user_attrib • Atributos de usuario • fail count:real • Creación de contador real llamado conteo de falla • Var • Declaración de variables • proc_id • Declaración del proceso • procedure myproc () • Declaración del procedimiento llamado myproc • begin • Inicio de programa • require part any • Cualquier parte será considerada para este evento • proc_id=get_process(process_1”) • Llamado del ciclo de proceso • work_sample_cycle_time(proc_id) • Contador de hojas que entran a la copiadora • celem>fail_count=celem>fail_count+1 • Tiempo que deberá fallar. • If(celem->fail_count=0 endif • Final de la condición • If(celem->fail_count=10)then_fail 0,60 Pass() • En cualquier caso dejar pasar las hojas o partes • Celem->fail_count=0 endif Final del programa • End. 64 Una vez acondicionada la plataforma con el diseño del escenario, se realizan pruebas para obtener la compilación del programa insertado y también para obtener resultados de utilización de operador y máquina, como se puede apreciar en la siguiente figura, ya que se insertaron ventanas auxiliares 2D para introducir graficas de pastel y de barras, para visualizar el progreso de la utilización de dos elementos activos, que en este caso es la persona y la máquina. De igual manera es posible desarrollar distintas gráficas dependiendo del número de elementos activos, se hace la inserción de todos los elementos, como un solo grupo de trabajo y automáticamente el despliegue de gráficas indica dicho grupo. Figura 2.9.- Graficas dinámicas simultaneas. 65 Figura 2.10.- Inserción de programa y pruebas con gráficas dinámicas. Se diseñaron varios modos de rutas lógicas para el operador de la copiadora, sin embargo los que dieron mejor resultado de este modelo en línea fue con los puntos de decisión que gobiernan su comportamiento de carga y descarga. Esta ruta fue creada por medio del menú de funciones LAYOUT. 66 Figura 2.12.- Simulación con rutas lógicas arregladas e indicadores. Figura 2.11.- Definición de la ruta a seguir. 67 2.7.- Escenario 2 La construcción del segundo escenario parte del modelo básico, el cual implica la simulación con una persona, y dos máquinas del modelo XEROX 1090. Para este diseño se generó igual que en el evento anterior, una ruta con puntos de decisión, solo que en este caso fue necesario crear e indicar un grupo de puntos que tuvieran una lógica cíclica, es decir, que de forma uniforme tanto una como otra máquina fueran cargadas en igual manera, y por lo que también se le agregó una especial particularidad al Labor Controller, ya que en su lógica de proceso se le indica que debe acudir al punto de decisión del evento definido, es decir, sin necesidad de tener algún evento en espera, tiene que atender el que le corresponde según la secuencia que lleva. Todo el proceso de creación de este escenario, responde adecuadamente al que se presenta en la vida real, ya que las pruebas que se realizan son definidas por los datos previamente determinados. (A) (B) Figura 2.13.- Implementación de dos máquinas y ruta lógica. (A).- Ruta de entrada. (B).- Ruta de salida. 68 Es importante reiterar en este punto del diseño de la plataforma, que durante el desarrollo de la misma se han podido apreciar muchas de las virtudes que ofrece el software y con un mínimo de programación se ha podido lograr una gran parte del objetivo de esta tesis, que es optimizar los recursos de la línea de copiado. Es preciso indicar estos factores ya que son de gran trascendencia, porque una vez que son implementados en la vida real, sin necesidad de detener el estado actual de la línea, es posible modelar y visualizar con lujo de detalle, cuales son las posibilidades que tenemos en la realización de éste evento. Y es de esta misma manera como se pueden diseñar distintos escenarios dentro de las compañías para obtener la visión más clara de cómo pueden ser utilizados los recursos de la misma y encontrar puntos críticos en los procesos de las líneas. Figura 2.14.- Primer ruta y su productividad.
Compartir