Logo Studenta

DocsTec-7276

¡Este material tiene más páginas!

Vista previa del material en texto

IMVR: ROBOT GUIADO POR VISIÓN EN TIEMPO
REAL EN CELDA FLEXIBLE DE MANUFACTURA.
Por
Víctor Hugo Suárez Corona
Tesis
Presentada al Programa de Graduados de la Escuela de Ingeniería
y Arquitectura como requisito parcial para obtener el grado
académico de
Maestro en Ciencias
Especialidad en
Sistemas de Manufactura
TECNOLÓGICO
DE MONTERREY
Instituto Tecnológico y de Estudios Superiores
de Monterrey
Campus Monterrey
Mayo 2009
Instituto Tecnológico y de Estudios Superiores
de Monterrey
Campus Monterrey
Escuela de Ingeniería y Arquitectura
Programa de Graduados
Los miembros del comité de tesis recomendamos que la presente
tesis de Víctor Hugo Suarez Corona sea aceptada como requisito
parcial para obtener el grado académico de Maestro en
Ciencias, especialidad en:
Sistemas de Manufactura
Comité de tesis
Ing. Ricardo Jiménez González
Asesor de la tesis
Dr. Horacio Martínez Alfaro
Dr. Joaquín Acevedo
Director del programa de graduados
Mayo 2005
Cadena
Ing. Miguel de Jesús Ramírez
SinodalSinodal
Dedicado a:
Mis padres Sonia y Amado por su incondicional apoyo,
consejos y amor, quienes son mi inspiración a seguir adelante
Mis hermanos Edgar y Amado de quienes he aprendido bastante y
siempre serán mis grandes amigos
Amigos que me han apoyado y enseñado a lo largo de esta
aventura.
A ti por ser mi amiga, compañera, apoyo y amor incondicional y
poseer la luz de nuestras vidas...Diana.
Reconocimientos
A mi profesor y asesor Ing. Ricardo Jiménez por su gran apoyo, tiempo y
dedicación para la realización de esta tesis. Le estoy muy agradecido por la
confianza y fe depositada en mí.
Quiero agradecer a mis sinodales Dr. H. Martínez e Ing. M. de J. Ramírez por
su tiempo, interés y aportación a la tesis.
Agradezco al equipo de integración de celdas de manufactura del CIDyT,
ITESM campus Monterrey y a Irasema Cantú por permitir terminar mi
investigación en la celda de manufactura de TecMilenio.
Víctor Hugo Suárez Corona.
Instituto Tecnológico y de Estudios Superiores de Monterrey
Mayo 2009.
IMVR: ROBOT GUIADO POR VISIÓN EN TIEMPO
REAL EN CELDA FLEXIBLE DE MANUFACTURA.
Víctor Hugo Suárez Corona, M.C.
Instituto Tecnológico y de Estudios Superiores de Monterrey, 2009
Asesor de la tesis Ing. Ricardo Jiménez González
Resumen
Dentro del contexto del uso de los sistemas de visión para la identificación y
seguimiento de objetos se encuentra también el trazo o planeación de
trayectorias en tiempo real. Con la variante de hacer las trayectorias con
desviaciones de tamaño pequeñas perceptibles por el sensor de visión y que
puedan ejecutarse por medio del brazo de robot.
El presente trabajo muestra una forma estructurada basada en las técnicas
de medición visual, transformación de coordenadas, herramientas de
posicionamiento e intercambio de datos, para desarrollar una metodología
que manipule un brazo de robot en tiempo real (IMVR) dentro de una celda
flexible de manufactura.
La metodología IMVR utiliza las bases de FROVIS (Cuevas, 2005) y en
capítulo 4 presento la metodología propia que integra un robot guiado por
visión con el fin de obtener puntos específicos por medio de imágenes que
definen un segmento de trayectoria del contorno de una pieza.
Como parte de la investigación se desarrollara la metodología IMVR y se
pretende comprobar su eficiencia en una aplicación específica dentro de una
celda de manufactura.
Contenido
1 Introducción 1
1.1 Antecedentes 1
1.2 Definición del problema 3
1.3 Objetivo y alcance de la investigación 4
2 Sistemas de visión robótica 7
2.1 Tecnología de los sistemas de visión 7
2.2 Ejemplos con sistemas de visión robot 7
2.3 Clasificación de los sistemas de visión 9
2.4 Componentes del sistema de visión 10
2.5 Sensores ópticos 10
2.5.1 Cámaras de visión 10
2.5.2 Cámaras CCD 11
2.6 Análisis y procesamiento de una imagen 11
2.6.1 Reducción de los datos de la imagen 11
2.6.2 Segmentación 11
2.6.3 Extracción de características 12
2.6.4 Reconocimiento del objeto 12
2.6.5 Método para la obtención de contornos 12
2.7 Sistemas de iluminación 13
2.8 Lente para cámara 16
2.9 Procesamiento de imágenes en tiempo real 17
2.9.1 Características de los sistemas en tiempo real 18
2.9.2 Los sistemas de tiempo real y sus requerimientos 18
3 Descripción del sistema de robot guiado por visión 19
3.1 Componentes del sistema robot guiado por visión 19
3.2 Integración de sistemas de visión-robot 20
3.2.1 Arquitectura de integración física 20
3.2.2 Arquitectura de comunicación entre sistemas 21
3.3 Elementos del sistema de visión 24
3.3.1 Sensor de visión 24
3.3.2 Iluminación y lente de sistema de visión 24
3.3.3 Ubicación de la cámara 25
3.4 Sistema de robot 25
viii
3.4.1 Controlador del robot manipulador 25
3.4.2 Cinemática del robot 27
3.5 Entrenamiento 30
3.6 Procedimiento de calibración y transformación de coordenadas 30
4 Metodología de integración IMVR 33
4.1 Integración de los sistemas de visión robot 34
4.1.1 Integración física de sistemas de visión-robot 34
4.1.2 Estructura de comunicación controlador robot 35
4.1.3 Estructura de comunicación del sistema de visión 35
4.2 Modulo central 37
4.2.1 Metodología para obtención de trayectoria de por puntos 38
4.2.2 Algoritmo de comunicación 38
4.3 Interfaces de manipulación 41
4.4 Elección de componentes de sistemas de visión 41
4.4.1 Metodología para la elección del tipo de lente 41
4.4.2 Metodología para la elección de fuente y técnica de
iluminación para el sistema visión 42
4.5 Sistemas de calibración 43
4.5.1 Algoritmo de calibración para IMVR 43
5 Experimentación y resultados 47
5.1 Descripción de la tarea 47
5.2 Resultados de la metodología IMVR 47
5.2.1 Aplicación con cámara como actuador final del robot 53
5.2.2 Movimiento de brazo de robot 55
5.2.3 Resultados de calibración 57
5.3 Evaluación de IMVR 59
6 Conclusiones y recomendaciones 63
APÉNDICE 64
A1 Comparativa de fuentes de iluminación 64
A2 Interface principal del sistema 64
A3 Imágenes de la interface del sistema de visión y resultado activo empieza 65
Bibliografía 67
ix
Lista de figuras
Figura 1-1 de ventas de robots industriales 2004-2005 1
Figura 1-2 Vista de un sistema de manufactura flexible .............................................................2
Figura 1 -3 Celda de soldadura con fijador de pieza. Celda campus hidalgo 3
Figura 1-4 Entrenamiento de trayectoria para la aplicación de adhesivo (Mortimer, 2004)... 3
Figura 1-5 Esquema general de la metodología de integración 4
Figura 2-1 Sistemas de visión para el seguimiento de costuras (Servo-Robot Inc., 2008) 8
Figura 2-2 Aplicación de sellador guiado por visión (KUKA Industrial Robots, 2007) 8
Figura 2-3 Orientación de fin de brazo con sistema de visión (Fanuc Robot, 2008) 8
Figura 2-4 Referencia de medición (Castro J., 2009) 9
Figura 2-5 Presencia de tapa en pieza 9
Figura 2-6 Identificación y reconocimiento de coordenadas x, y 10
Figura 2-7 Efecto de Iluminación frontal 13
Figura 2-8 Técnicas de iluminación (Castro). M., 2009) 14
Figura 2-9 Elementos que describen el tipo de lente (Cognex visión system, 2009) 16
Figura 3-1 Diagrama de componentes de sistema 20
Figura 3-2 Arquitectura de integración física 20
Figura 3-3 Arquitectura de comunicación entre sistemas 21
Figura 3-4 Modelo de integración visión-genéricos 22
Figura 3-5 Diagrama de secuencia para configurar el sistema de visión-robot 23
Figura 3-6 Sensor CCD 24
Figura 3-7 Diagrama de elementos que componen el sistema de visión 24
Figura 3-8 a) Configuración de cámara montada en el robot b) Configuración cámara externa
(Torres, 2002) 25
Figura 3-9 Velocidad de transmisión 27
Figura 3-10 Cuadro de coordenadas en sistema visión-robot 28
Figura 3-11 Transformación marco de cámara a marco de pieza 29
Figura 3-12 Diagrama de flujo del proceso fuera de línea 31
Figura 3-13 Plantilla de calibración 31
Figura 3-14 Preparación de cámara para calibración 32
Figura 4-1 Diagrama de Metodología IMVR 34
Figura 4-2 Conexiones físicas requeridaspara la prueba de interface de manipulación entre
robot motoman y sensor In-sight 1100 34
Figura 4-3 Estructura de protocolos requeridos para controladores Motoman 35
x
Figura 4-4 Estructura de protocolos de comunicación para sistema de visión Cognex 36
Figura 4-5 Configuración de protocolos de comunicación con sensor de visión cognex. 36
Figura 4-6 Mapa conceptual entre los scripts (Background y Foreground) y el modulo
principal de control 37
Figura 4-7 Diagrama de la metodología obtención de trayectoria por puntos 38
Figura 4-8 Algoritmo de comunicación IMVR 40
Figura 4-9 Plantilla de ejecución de programa robot 41
Figura 4-10 Secuencia para elección del lente apropiado 42
Figura 4-11 Secuencia de elección fuente y tipo de iluminación 43
Figura 4-12 Plantilla de calibración cuadros 10 x 10 mm 43
Figura 4-13 Diagrama de secuencia de calibración 44
Figura 4-14 Rangos de calibración para resultado de calibración 45
Figura 5-1 Caseta de inspección celda de manufactura CIDyT 49
Figura 5-2 Sistema de inspección, cámara Siemens VS-725 con iluminación de halógeno...50
Figura 5-3 Sistema de inspección, cámara Siemens VS-725 con iluminación de halógeno.... 50
Figura 5-4 Imagen de pieza cuadrada metálica resaltando borde derecho 50
Figura 5-5 Gráfica comparativa de medición de pieza 51
Figura 5-6 Gráfica de tiempos de conexión módulo-robot 52
Figura 5-7 Gráfica de tiempos de conexión módulo-cámara 53
Figura 5-8 Ubicación de cámara como efector final de robot en celda de manufactura 53
Figura 5-9 Aplicación de cámara montada en robot 54
Figura 5-10 Muestra de piezas: Izquierda brillosa, en medio ideal, derecha oscura 54
Figura 5-11 Relación de velocidad lineal y nivel aceptable 56
Figura 5-12 Cámara en robot y plantilla de calibración 57
Figura 5-13 Resultado de calibración cámara en robot 57
Figura 5-14 Gráfica de proporción pixel-milímetro 58
Figura 5-15 Exactitud de la aplicación 58
Figura 5-16 Robot con sistema de visión "Eye in Hand" 60
Figura 5-17 Imagen de suejeción a herramental 60
Figura 5-18 Secuencia de imágenes obtenidas por el sistema de visión 61
xi
Lista de tablas
Tabla 1 Ventajas, desventajas y aplicaciones de técnicas de iluminación (Castro J. M., 2009).15
Tabla 2 Cálculos de parámetros de lente 17
Tabla 3 Principales características de controlador de robot 26
Tabla 4 Requerimientos de hardware para SDK 26
Tabla 5 Características principales de los tipos descripts 37
Tabla 6 Características de pieza a inspeccionar 48
Tabla 7 Consideraciones para elección de lente, tipo y fuente de iluminación 48
Tabla 8 Principales características de los sistemas de visión 49
Tabla 9 Comparativa de fuentes de iluminación 51
Tabla 10 Resultados de inspección a pieza 55
Tabla 11 Opciones de velocidad 55
Tabla 12 Niveles de velocidad predeterminados 56
xii
Capitulo 1
Introducción
Los sistemas de visión están siendo cada vez más aplicados tanto en la industria como fuera
de ella, específicamente los sistemas de manufactura flexible han alcanzado una muy buena
aceptación por el gran desempeño y robustez con que cuentan los sensores y sistemas de
visión industrial o dispositivos que "ven". Esto ha logrado dar mayor autonomía a las celdas
robotizadas donde el brazo de robot pudiera seguir trayectorias específicas sobre el objeto.
La figura 1-1 muestra el incremento de ventas en robots en E.U. fuente Robotics industries
Association, Ann Arbor Mi. www.roboticsonline.com.
Figura 1-1 de ventas de robots industriales 2004-2005.
1.1 Antecedentes
En la historia de la automatización industrial encontramos etapas de constantes
innovaciones tecnológicas. Esto se debe a que las técnicas de automatización están muy
ligadas a los sucesos económicos mundiales y la cada vez más dura competencia del
posicionamiento en el mercado por parte de las compañías que manufacturan robots y
sistemas de visión industriales.
La mayoría de los robots industriales empleados en la industria son básicamente simples
máquinas posicionales. Ejecutan una tarea dada mediante la grabación de secuencias pre
registradas o pre programadas de movimientos que han sido previamente guiadas o
enseñadas por el usuario con un control de mando portátil llamados también robots Play-
back(Groover, 1998). Más aún, estos robots están equipados con pocos o ningún sensor
externo para obtener la información vital en su entorno de trabajo. Como resultado de esto,
los robots se utilizan principalmente en tareas repetitivas relativamente simples, la figura 1-
2 muestra un ejemplo de un sistema de manufactura flexible.
Figura 1-2 Vista de un sistema de manufactura flexible
Los sistemas de visión (cualquier otro nombre que incluya visión computacional y visión
artificial) son tecnologías de sensores con muchas aplicaciones potenciales en procesos
industriales. Al inicio de esta tecnología las aplicaciones iban dirigidas a la inspección; sin
embargo, el desarrollo de la tecnología en sistemas de visión ha logrado que esta obtenga un
importante desempeño en las aplicaciones actuales y futuras para los robots, tanto
industriales como para otras áreas (Borangiu, 2007).
Los sistemas de visión (SV), que están diseñados para aplicaciones en sistemas de
manufactura robotizada presentan dos importantes vertientes los cuales limitan la
influencia de los SV en la comunidad manufacturera: el primero de estos es la necesidad de
relacionar el SV con un bajo costo y la segunda es la de relacionar la rapidez del tiempo de
respuesta para un robot o un aplicación manufacturera.
Los sistemas son utilizados para desempeñar tareas como la selección de partes que son
transportadas de cierta forma, la identificación y una limitada inspección. Estas capacidades
son empleadas selectivamente en aplicaciones para reducir el costo de piezas y el montaje de
herramentales.
El campo de la visión computacional es una de las áreas comerciales con mayor crecimiento
desde el primer lector OCR industrial que creara la empresa conocida como Cognex; el
"DataMan" que para poder procesar un carácter le tomo 90 segundos.(Shillman, 2007).
Ahora hablar de "reducción en tiempo de procesamiento", es sinónimo de años de
investigación y perfeccionamiento de los sistemas de visión.
Uno de los desarrolladores de aplicaciones con robots guiados con visión, explica el
problema de transferir los datos de un sistema a otro, que lograron resolverlo utilizando la
interface de Ethernet y así disminuir el tiempo de respuesta del sistema (Maloney, 2007).
Existen desarrollos de seguimiento de trayectoria en 2D que se basan en la obtención de
mapas de coordenadas y después son procesadas mediante un modulo de seguimiento de
redes neuronales de Elman (Hsueh, 2000), entre otros y en cada caso se tienen algoritmos
únicos que integran estos sistemas.
1.2 Definición del problema
La necesidad de alcanzar cada vez mayor productividad y menor variabilidad en la calidad
de los productos, han obligado la atención de la industria a adoptar el uso de sistemas de
visión en aplicaciones de inspección y guiado de trayectoria para los robots tales como:
inspección y seguimiento de soldaduras, aplicación de adhesivos (KUKA, 2007), cortes con
láser, aplicación y unión de piezas(Reis Robotics, 2008), a continuación se muestran 2
ilustraciones de ejemplos reales en procesos de soldadura figura 1-3 y aplicación de
adhesivos figura 1-4.
Figura 1-3 Celda de soldadura con fijador de pieza. Celda campus hidalgo
Los procesos donde se requiere seguir una trayectoria sobre un objeto predeterminado se
limita a ejecutar programas preestablecidos, además la aplicación depende directamente de
la posición y orientación del objeto en el cual se trabaja.
Figura 1-4 Entrenamiento de trayectoria para la aplicación de adhesivo (Mortimer, 2004)
1.3 Objetivo y alcance de la investigación.
Justificación
La utilización de los robots manipuladores en la industria se ha incrementado en los últimos
años y están siendo usados en nuevas aplicaciones industriales. Los robot han tenido menos
impacto enaplicaciones donde el ambiente de trabajo y el posicionamiento de la pieza no
puede ser controlada con precisión, la limitación se debe principalmente a la falta de
capacidad en los sensores.
Sobre esta aplicación se tiene poca información debido a que estos desarrollos están
dirigidos por empresas cuyos fines son el de lograr integrar la visión al control del robot y
hacer suyo el conocimiento para su venta. Por tanto el costo por el sistema como un conjunto
eleva el precio del robot (Reis Robotics, 2008), (Meta Vision Systems, 2008),
Objetivo
El principal objetivo de la investigación es desarrollar un sistema con las bases de
FROVIS (Cuevas, 2005) y gestionar una metodología que integre un robot manipulador con
un método de visión por medio de una interfaz lo suficientemente robusta que pueda ser
fácilmente adaptada en celdas de manufactura, aplicable con sistemas de visión y
controladores de robot que cumplan con los requisitos. La figura 1-5 muestra la
funcionalidad básica de esta metodología.
Figura 1-5 Esquema general de la metodología de integración
Alcances y limitaciones
La integración de robot manipulador con un sistema de visión mediante la metodología
IMVR constara de lo siguiente:
• Modelo de integración física de cámara montada en robot.
• Arquitectura de integración a la comunicación de los equipos visión-robot.
• Procedimiento de calibración del sistema visión-robot.
• Técnica de reconocimiento de orillas.
• Descomposición de datos obtenidos de la inspección y envió hacía controlador de
robot.
Las limitaciones para este trabajo son: (1) La metodología está sujeta al paquete
computacional del sistema de visión. (2) No se consideran algoritmos de control para ejes de
robot. (3) Se considera solo el análisis de las trayectorias en 2 dimensiones. (4) El modelo de
integración de los sistemas queda sujeto a los protocolos de comunicación entre ellos. (5) La
obtención de la trayectoria quedara sujeta a las limitaciones de procesamiento del error del
programa.
Los algoritmos de visión estéreo, procesamiento de puntos por métodos numéricos no serán
discutidos en la presente investigación.
Por lo tanto el presente trabajo se estructura de la forma siguiente, el capitulo 2 muestra un
panorama de las aplicaciones de los sistemas de visión y aplicaciones dentro de la industria.
El capitulo 3 muestra una descripción del sistema. En el capítulo 4 se establece la
metodología IMVR, en el capítulo 5 se muestran los resultados de la implementación y
desarrollo de la metodología propuesta y por último las conclusiones y recomendaciones
para trabajos futuros en el capítulo 6.
CAPITULO 2
Sistemas de visión robótica.
2.1 Tecnología de los sistemas de visión.
Si bien las investigaciones con sistemas de visión empezaron en los setentas (Adigüzel,
2007), en los últimos 10 años, la tecnología para los sistemas de visión ha ganado un gran
terreno, haciendo de las maquinas con visión una herramienta con alto valor por ser
consideradas como maquinas con retroalimentación en tiempo real ya sea para localizar y
seguir la costura de la soldadura, buscar y definir el inicio de una aplicación, unir y
ensamblar o inspeccionar. Mientras que los sistemas de visión no son propiamente una
nueva tecnología, estos sistemas de visión no han sido ampliamente aceptados en los estados
unidos debido a su alto costo y su complejidad.
Hay dos grandes categorías en cuanto a sistemas de visión se refiere: 2 dimensiones (eje X,
eje Y) y de 3 dimensiones (eje X, eje Y y eje Z). Describir el sistema bidimensional es
considerar solo los ejes en un plano, mientras que el tridimensional es hablar del plano con
profundidad.
2.2 Ejemplos con sistemas de visión robot.
La soldadura industrial robotizada es la aplicación más popular en el mercado de los robots
industriales. En efecto, una cantidad enorme de productos requiere la aplicación de
soldadura en sus procesos de ensamblado. La industria automotriz es probablemente la que
requiere de este proceso, sin embargo la industria manufacturera como por ejemplo la
soldadura de tuberías y contenedores, están optando por esta tecnología.
En la actualidad los manufactureros se están adaptando a prácticas para emplear sistemas
de visión para inspección con el fin de asegurar la calidad basada en la objetividad del "buen
entrenamiento del robot" y un sofisticado programa computacional.
Figura 2-1 Sistemas de visión para el seguimiento de costuras (Servo-Robot Inc., 2008)
En cuanto a la aplicación de adhesivos o selladores, se encuentra un conjunto de robots
KUKA guiados por visión en la industria automotriz, donde una cámara reconoce la
estructura por medio de la captura de la imagen y posteriormente los robots realizan el
seguimiento de los puntos a cubrir.
Figura 2-2 Aplicación de sellador guiado por visión (KUKA Industrial Robots, 2007)
Otro ejemplo de la integración de los sistemas de visión-robot se muestra en la figura
siguiente, donde Fanuc utiliza este sistema para hacer un seguimiento de las piezas en un
transportador para posteriormente obtener la posición en los planos X, Y, capturándolos y
colocándolos en una sola posición.
Figura 2-3 Orientación de fin de brazo con sistema de visión (Fanuc Robot, 2008)
2.3 Clasificación de los sistemas de visión.
Dentro de todas las aplicaciones de paletizado, corte, unir, pegar, soldar y manipular con
robots, cuando el sistema robotizado así lo requiere se complementa con puestos de visión
artificial.
Los sistemas de visión artificial integrados en células robotizadas se utilizan con gran éxito
para las siguientes utilidades:
1. MEDICIÓN: Mide las dimensiones de una pieza, sus diámetros, la planitud de superficies,
niveles.
Figura 2-4 Referencia de medición (Castro J., 2009)
2. INSPECCIÓN: Detecta la presencia-ausencia de piezas en ensamblaje, realiza la
orientación de piezas, las inspecciones de defectos superficiales, la comprobación de la fecha
en un lote de productos o su caducidad, los defectos en la superficie en productos
producidos de forma continua. Aquí el robot manipulador se desempeña como un actuador.
La respuesta del sistema de visión es dada en dos estados o salidas "Pass" o "Fail" esta
nomenclatura se da por parte del programa computacional, de acuerdo a esto el robot o
actuador realiza una acción sobre el producto, comúnmente en la salida de fallo, es decir lo
desecha o lo separa.
Figura 2-5 Presencia de tapa en pieza
3. IDENTIFICACIÓN: Identifica piezas o productos por su perfil., realiza reconocimiento
óptico de caracteres OCR. Esta aplicación es utilizada para reconocer y clasificar un objeto o
determinar su pose (posición y orientación). Esta acción es seguida generalmente por una
decisión o acción realizada por el robot. Las aplicaciones de identificación incluyen, la
clasificación de la parte, paletizado, toma de la pieza orientada al azar de la banda
transportadora.
Figura 2-6 Identificación y reconocimiento de coordenadas x, y.
4. SEGUIMIENTO: El más complejo de estas aplicaciones es la de guiado o también llamada
"servoing" y control navegacional, donde el sistema de visión dirige la acción del robot o del
dispositivo basado en entradas visuales (robotica, 2008).
Dentro de las aplicaciones industriales están las de posicionado de partes, captura de partes
en movimiento, ensamblado, y seguimiento continuo de trayectoria de costura en soldadura
con arco.
2.4 Componentes del sistema de visión.
Los sistemas de visión se refieren al censado de los datos de visión y su interpretación por
una computadora (Sedas, 2008). Los sistemas de visión típicos consisten de una cámara, el
hardware de digitalización, computadora, hardware y software para comunicarlos entre
ellos. Para la operación de estos sistemas existen tres funciones básicas:
Detección y digitalización de datos de imagen: Estas funciones implican la entrada de datos
de visión por medio de una cámara enfocada en la escena de interés.
Análisis y procesamiento de la imagen: para realizar esta tarea, el sistema de visión debe
capacitarsecon frecuencia. En este proceso se obtiene información sobre los objetos de
prototipos y se almacenan como modelos de computadora.
Aplicación: Las aplicaciones actuales de la visón de maquina en la robótica incluyen la
inspección, identificación de piezas, localización y orientación.
2.5 Sensores ópticos.
2.5.1 Cámaras de visión.
Las cámaras de visión son sensores que se encargan de captar información luminosa
procedente de la escena y transformarla en una señal analógica o digital que conforma una
imagen digital. En entornos robotizados las cámaras más usadas son las que emplean
sensores basados en dispositivos de acoplamiento de carga (CCD) o de inyección de carga
(CID).
2.5.2 Cámaras CCD.
El CCD es un dispositivo de transferencia de carga en el que el acceso se realiza a través de
los vecinos, de forma secuencial, similar a un registro de desplazamiento. Debido a la
existencia de un canal físico de comunicación entre elementos vecinos para la lectura de
información, el principal inconveniente se produce cuando existe un punto luminoso muy
fuerte que satura los fotodiodos, efecto que se produce por el canal de comunicación entre
pixeles vecinos.
La resolución de la imagen está determinada por el estándar que se utilice para digitalizar
las imágenes. Los dos estándares más usados son el CCIR (usado en Europa) y el RS -170
(Usado en América).
En la actualidad los sistemas de visión tienen integrado los sensores también llamados
"softsensors", estos sensores virtuales ayudan a realizar las tareas de identificación,
inspección, reconocimiento, también se obtiene características de forma, figura, es decir
cualquier dato medible en una imagen.
2.6 Análisis y procesamiento de una imagen.
Para el uso de la imagen almacenada en aplicaciones industriales, se debe programar la
computadora para que opere sobre la imagen almacenada de forma digital. Esta es una tarea
importante considerando la gran cantidad de datos que se deben analizar.
Esta cantidad de datos va a depender directamente de la resolución del sistema de visión, en
vista de la inmensa cantidad de datos que se desean procesar en un tiempo muy corto se
emplean técnicas de reducción de la magnitud del problema del procesamiento de la
imagen(Delgado, Villaseñor, & Zúñiga, 2007). Las técnicas son:
Reducción de datos de la imagen.
• Segmentación.
• Extracción de características.
• Reconocimiento del objeto.
2.6.1 Reducción de los datos de la imagen.
El objetivo de esta técnica es reducir al máximo el volumen de datos. A modo de paso
preliminar en el análisis de datos, los dos métodos siguientes se emplean frecuentemente
para la reducción de datos: Conversión digital y uso de ventanas.
2.6.2 Segmentación
El objetivo es agrupar áreas de una imagen que tengan características similares dentro de
entidades distintas, que representan partes de la imagen. Existen muchos métodos para
segmentar una imagen. Para obtener el área de la imagen recurrimos a la siguiente fórmula:
Es la función del área, si tomamos D=0, asumiendo no negatividad en la escala de grises,
obtenemos
H(P)dP = área de imagen
2.6.3 Extracción de características.
En las aplicaciones de sistemas de visión, con frecuencia es necesario distinguir un objeto de
otro. Esto se realiza mediante las características que caracterizan unívocamente al objeto.
Entre algunas características que pueden utilizarse son el área, diámetro y perímetro.
Existen cuatro operaciones algebraicas(Castleman, 1996) para el procesamiento de
imágenes que son:
C(x,y) = A(x,y)+ B(x,y)
C(x,y) = A(x,y)- B(x,y)
C(x,y) = A(x,y)x B(x,y)
C(x,y) = A(x,y)/ B(x,y)
Donde A(x, y) y B(x, y) son las entradas de la imagen y C(x, y) es la salida de la imagen. La
realización de combinaciones de este tipo produce ecuaciones algebraicas complejas que son
de las cuales se extraen las particularidades de cada una de las piezas que se tengan para
ejecutar.
2.6.4 Reconocimiento del objeto.
El próximo paso en el procesamiento de los datos de la imagen es identificar el objeto que la
imagen representa. Este problema de identificación se resuelve utilizando la información
sobre las características extraídas mencionadas en los apartados anteriores.
2.6.5 Método para la obtención de contornos.
Para la obtención de ciertas características de la pieza una herramienta que puede ayudar a
discriminar los datos que se pueden obtener de una imagen.
Siguiendo el trabajo de(Motta & Arraes, 2008), existen varias técnicas disponibles para
extraer las orillas de una imagen este método propone el uso de "image spatial gradient"
[Ex, Ey]T para encontrar esquinas calculadas en dos direcciones ortogonales. Una esquina
es extraída por el eigenvalor más pequeño de una matriz de rigidez C, calculada de su vecina
Q (2N + 1 * 2N + 1), en coordenadas de imagen (pixeles), de un punto p definido
como(Truco & Verri, 1998)
Siguiendo las bases de este algoritmo se puede establecer la metodología de obtención de
trayectoria por medio de coordenadas X, Y.
2.7 Sistemas de iluminación.
La iluminación es un factor que hay que tener en cuenta en todo proceso de sensorizacion en
visión artificial. Debemos recordar que las cámaras son dispositivos que permiten captar
información luminosa procedente de una zona que se quiere analizar e interpretar. Así una
buena iluminación de la escena permite simplificar en gran medida los procesamientos que
hay que realizar sobre imágenes obtenidas mediante cámaras, por ejemplo aumentando
contrastes o eliminando sombras no deseadas.
 
 
 
 
 
 
 
 No se insertó la figura en este espacio
 
 
 
 
 
 
 
 Figura 2-7 Efecto de Iluminación frontal
En robótica industrial es importante mencionar los siguientes tipos de iluminación más
utilizados:
Direcciona: Es aquella en la que la luz incide directamente sobre un objeto, desde el foco de
iluminación. En este tipo de iluminación es frecuente que la cámara pueda captar
componentes especulares o difusas del haz luminoso reflejado. Se emplea principalmente, en
localización y reconocimiento de piezas e inspección de superficies.
Contraluz: Se conoce con este nombre porque el objeto se sitúa entre la cámara y el foco
luminoso. Se caracteriza porque la imagen resultante presenta alto nivel de contraste entre
objeto y fondo, facilitando la segmentación. Las principales aplicaciones son la localización y
análisis dimensional de piezas.
Difusa: La luz incide sobre el objeto desde diversas direcciones uniformemente distribuidas.
Se emplea en las mismas aplicaciones que la iluminación direccional, pero cuando los objetos
poseen superficies suaves o producen brillos no deseados.
Estructurada: Se basa en la proyección de patrones de luz en una escena. Los patrones de luz
son proyectados sobre un objeto que se encuentra en el campo de visión de una cámara. Este
tipo de iluminación permite calcular la distancia entre un objeto y una cámara, además de
ayudar a localizar un objeto en el espacio mediante el análisis de patrones de luz
proyectados sobre él y observados en las imágenes captadas de este.
A continuación se muestran ejemplos de técnicas.
Figura 2-8 Técnicas de iluminación (Castro ). M., 2009)
Tabla 1 Ventajas, desventajas y aplicaciones de técnicas de iluminación(Castro J.. M., 2009).
Técnicas de iluminación
Nombre
Dark field
Back light
Iluminación
estructurada
Direct front
lighting
Diffused light
Collimated
light
Diffuse front
lighting
Ventajas
muestra la superficie en
detalle sobre partes con
poco contraste
Provee un máximo
contraste entre la pieza y el
fondo. Simplifica la imagen
por mostrar la silueta de la
pieza
Método económico para
obtener mediciones tanto
de la altura como
profundidad de la pieza.
Muestra el perfil de la pieza
con muy poco contraste
Cubre fácilmente la pieza y
es muy practica de ajustar.
Iluminación directa provee
un máximo contrate en la
imagen
La iluminación difusa es
suave, tiene menos
probabilidades de causar
reflejos y sombras. Abarcamás área s i n necesidad
de crear puntos calientes.
Intensifica al ilumianción y
mantiene una alta salida de
la fuente
Provee una iluminación
suave desde todas
direcciones. Buena para
minimizar las sombras.
Desventajas
No es recomendable
para superficies que
absorben la luz o
enaplicaciones con
altos requerimientos
La superficie de la
pieza se pierde. El
objeto sobre
fijadores es
complicado resaltar
el efecto
Los láser son caros y
deben ser
manejados muy
cuidadosamente. No
son buenos para las
superficies que
absorben la luz o en
aplicaciones con
altos requerimientos
de precisión
Piezas
tridimencionales
prorvocan sombras
con luz puntual.
Iluminación directa
causa refleción
especular en piezas
brillosas.
Los difusores tienen
baja intensidad
luminosa, la cual es
crítica cuando se
utilizan fuentes de
baja intensidad,
como LED's.
Esta iluminaciones
más probable que
cause puntos negros
sobre superficies
brillantes
tiende a decrecer el
contraste
ligeramente
Aplicaciones
Piezas con poco contraste
(gris-gris, metal-metal),
piezas metálicas brillantes
Muy utilizado en la
mediciones de piezas y
dimensionamiento, también
en la definición de
perforaciones
Medición continua de
características específica,
rebordes, orillas.
Determinación de altura de
piezas por la penetración de
la luz mediante la
observación de la
de forrmación de la pieza.
Muy bajos contrsates.
Amximiza el contraste en
imágenes de bajo contrate.
Strobes pueden ser
empleados para congelar la
imagen de piezas en
movimiento.
lluminación en un eje, en
iluminación directa de
piezas brillosas.
Mejorar la forma de los
bordes, mediciones de alta
exactitud, proyecciones de
una imagen sobre la
superficie. Recomendable
también cuando al fuente
debe estar a una distancia
desde el objeto para evitar
collisiones con partes
móviles.
Piezas metálicas o brillosas.
Piezas tridimencionales
donde las sombras llegan a
ser un problema.
2.8 Lente para cámara.
El sistema de visión no estaría completo sin un elemento que le permita obtener de manera
clara y precisa la forma del objeto a inspeccionar, es decir, la calidad de la captura de la
imagen se verá reflejada en los resultados que arrojen los sensores internos del sistema de
visión. Como cualquier otro dispositivo de captura de imágenes es necesario utilizar un
"lente", el cual deberá ser apropiado a la aplicación y tamaño de la pieza.
El propósito de una lente de cámara es transmitir rayos de luz en la cámara y enfocarlos para
formar una imagen intensa sobre la película o en este caso el CCD(Castro J. M., 2009) Existen
diferentes tipos de lentes en el mercado, sin embargo en el ambiente industrial se solo se
manejan un cierto tipo de lentes como:
Wide angle: la distancia focal es menor a la estándar de 5mm., con amplia profundidad de
campo y longitud focal reducida.
Telephoto: Distancia focal mayor que el estándar, profundidad de campo mínima y amplía
los objetos distantes.
Zoom: Rango de la longitud focal de 35-70 mm.
Macro: Tamaño de imagen igual al tamaño del objeto (1:1)
Telecentric: no presenta distorsión perspectiva.
Figura 2-9 Elementos que describen el tipo de lente(Cognex visión system, 2009)
En la figura anterior se muestran los elementos que describen el tipo de lente, es decir, la
combinación entre ellos detalla la lente a utilizar. A continuación se hace una breve
descripción de cada uno de ellos.
FOV. (Field of view).-Es el campo o área de visión que se desea abarcar con la cámara. Para
calcular el campo de visión se emplea la siguiente ecuación:
Donde:
SS: Tamaño del sensor de la cámara
D: Mínima distancia focal
F: Distancia focal
WD (Working distance).- Es la distancia entre el FOV y la lente.
F.- Distancia focal. Dada en milímetros. Entre mayor sea esta distancia mayor será la
capacidad de la lente percibir objetos distantes.
Spacer (espaciador).- este elemento se coloca entre la lente y cámara.
La tabla siguiente sirve para calcular los factores anteriores según el formato del lente
Tabla 2 Cálculos de parámetros de lente
1/3" Formato
H = (4.3 * D) / F
V = (3.2 * D) / F
F = (4.3 * D) / H
F = (3.2 * D) / V
1/2" Formato
H = (6.4 * D) / F
V = (4.8 * D) / F
F = (6.4 * D) / H
F = (4.8 * D) / V
2/3" Formato
H = (8.8 * D) / F
V = (6,4 * D) / F
F = (8.8 * D) / H
F = (6.4 * D) / V
H = Distancia horizontal del campo de visión en mm
V = Altura vertical del campo de visión en milímetros
D = Distancia al objeto en milímetros
F = Longitud focal del lente en mm.
En este trabajo no se consideran los filtros ya que no forman parte del desarrollo de la
aplicación.
2.9 Procesamiento de imágenes en tiempo real.
Cuando leemos en algún artículo de investigación la frase "en tiempo real", entendemos que
un sistema realiza una operación conforme va recibiendo los datos. De cierta forma es
correcto, hasta llegar al punto de la cantidad de datos que se tiene que procesar en
determinado tiempo para que el sistema tenga una continuidad y en nuestro caso pueda
lograr el objetivo de seguir una trayectoria al mismo tiempo que va recibiendo los
parámetros de localización y orientación.
Existen diversas definiciones de lo que es un sistema de tiempo real, muchas de ellas
controversiales, sin embargo la definición canónica según Donald Gillies es la que tiene más
aceptación y dice:
"Un sistema de tiempo real es aquel en el que para que las operaciones computacionales
estén correctas no depende solo de que la lógica e implementación de los programas
computacionales sea correcto, sino también en el tiempo en el que dicha operación entregó
su resultado. Si las restricciones de tiempo no son respetadas el sistema se dice que ha
fallado."
Por lo tanto, es esencial que las restricciones de tiempo en los sistemas sean cumplidas. El
garantizar el comportamiento en el tiempo requerido necesita que el sistema sea predecible.
Es también deseable que el sistema obtenga un alto grado de utilización a la vez que cumple
con los requerimientos de tiempo
Esta definición nos lleva a tomar ciertas consideraciones sobre los elementos utilizados en
nuestro sistema de tiempo real. Este punto deja claro que parámetros considerar para la
adquisición de la cámara y el procesador de imágenes.
2.9.1 Características de los sistemas en tiempo real.
Determinismo: El determinismo es una cualidad clave en los sistemas de tiempo real. Es la
capacidad de determinar con una alta probabilidad, cuanto es el tiempo que se toma una
tarea en iniciarse. Esto es importante porque los sistemas de tiempo real necesitan que
ciertas tareas se ejecuten antes de que otras puedan iniciar. Esta característica se refiere al
tiempo que tarda el sistema antes de responder a una interrupción. Este dato es importante
saberlo porque casi todas las peticiones de interrupción se generan por eventos externos al
sistema, así que es importante determinar el tiempo que tardara el sistema en aceptar esta
petición de servicio.
Responsividad: Se enfoca en el tiempo que se tarda una tarea en ejecutarse una vez que la
interrupción ha sido atendida. Los aspectos a los que se enfoca son: (1). La cantidad de
tiempo que se lleva el iniciar la ejecución de una interrupción. (2). La cantidad de tiempo que
se necesita para realizar las tareas que pidió la interrupción.
Usuarios controladores: En estos sistemas, el usuario (los procesos que corren en el sistema)
tiene un control mucho más amplio del sistema. (1).E1 proceso es capaz de especificar su
prioridad. (2). El proceso es capaz de especificar el manejo de memoria que requiere (que
parte estará en caché y que parte en memoria swap y que algoritmos de memoria swap usar)
2.9.2 Los sistemas de tiempo real y sus requerimientos.
Debido que los sistemas de tiempo real tienen características especiales diferentes a los
demás tipos de sistemas y que los sistemas operativos de tiempo real relegan a sus usuarios
el cumplimiento de estos requerimientos es importante mencionar que este tipo de
requerimientos deben de tomarse en cuenta en el proceso de desarrollo.Como estos requerimientos no forman parte de una sola funcionalidad del sistema sino que
forman parte de todo el sistema a menudo se definen como "requerimientos no funcionales".
También se argumenta que como no son parte de la aplicación sino que es cómo se comporta
una aplicación al introducirse en un ambiente de tiempo real entonces estos son una
"Característica del sistema"(Guedea, Soto, F, & Song, 2003), más que un requerimiento.
CAPITULO 3
Descripción del sistema de robot guiado por visión
Cuando los robots son empleados en producción para realizar tareas con procesos de
soldadura, aplicación de adhesivos, unión y ensamble entre otros, los usuarios esperan
mejoras masivas en términos de flexibilidad, productividad y calidad.
Esto no llega a ser una tarea fácil, desde la cantidad considerable de parámetros de puesta a
punto y el trabajo de programación que es necesario para garantizar el desempeño de los
robots como se espera con la debida calidad. Este proceso es un consumo de tiempo y
requiere grandes habilidades del personal, lo cual requiere tomar al robot un largo periodo
para ajustar los parámetros que requiere el proceso para obtener buenos resultados, esto se
traduce en un elevado costo de tiempo muerto del robot y tiempo de programación el cual
debe ser considerado. Si tomamos en cuenta que los términos disponibilidad y agilidad en la
manufactura moderna (Pires N., 2006).
3.1 Componentes del sistema robot guiado por visión.
Los robots manipuladores son esencialmente controlados por dispositivos de posición que
reciben comandos que agrupados y ejecutados en secuencia generan una trayectoria para el
fin que se desea con el brazo del robot. En aplicaciones como las mencionadas anteriormente
es necesario empezar desde una trayectoria, es decir, desde un modelo de una pieza para
tener los medios de corregirlo en tiempo real, en función de los resultados observados del
proceso de las aplicaciones
En el modelo Propuesto por (Pires N. , 2006), seguimiento e inspección de soldadura, se
toma la arquitectura de control y la base del seguimiento ya que nuestro sistema será en dos
dimensiones.
Para lograr el objetivo propuesto, el sistema de guiado necesita obtener en tiempo real la
posición del efector final del robot y relacionarla a las nuevas lecturas del sistema de visón
mediante una plataforma computacional capaz de interactuar con los sistemas de visión y
celda robótica. Para tener una visualización del concepto se muestra un diagrama de bloques
en la figura 3-1.
Figura 3-1 Diagrama de componentes de sistema
3.2 Integración de sistemas de visión-robot.
3.2.1 Arquitectura de integración física.
Del diagrama de componentes del sistema se observa la influencia de FROVIS (Cuevas, 2005),
utilizando la parte referente a la integración física como se muestra en la figura siguiente.
Figura 3-2 Arquitectura de integración física
Administrador
no
No se insertó la figura en este espacio
3.2.2 Arquitectura de comunicación entre sistemas.
Las dos características más importantes a considerar para la arquitectura del sistema son la
robustez y la secuencia de comunicación (Cuevas, 2005)(Skilligent Inc., 2009). Teniendo en
cuenta que la interface de manipulación coordinara la configuración del sistema de visión y
al mismo tiempo el controlador del robot, se dice que funcionara como un cliente, y por ende
los dos sistemas funcionaran como sus servidores. La arquitectura básica de comunicación
de todo el sistema se muestra en la figura 3-3:
Figura 3-3 Arquitectura de comunicación entre sistemas
El sistema está estructurado de tal forma que el módulo de control sea instalado en una PC
actuando como cliente, teniendo como trabajo el manejo de las acciones a tomar con el
intercambio de información entre los sistemas visión (servidor) y robot (servidor). Para
realizar esto el módulo llama funciones a un robot genérico y una cámara genérica, la
requisición de información y el ordenamiento de tareas específicas requieren de un
protocolo de estándar de comunicación. La figura 3-4 muestra la estructura del modelo.
Para conjuntar los dos sistemas, se tiene como primera función para el modulo de control el
mandar a llamar al comando de comunicación tanto para el sistema de visión como al
controlador del robot. La ejecución de esta función depende de las características de
comunicación que cada tecnología posee, descritas anteriormente. Sin embargo, esto no
altera la configuración del protocolo de comunicación.
Una vez establecidos los protocolos de comunicación, el modulo de control ejecutara las
funciones de conexión al robot y la cámara, esperando la respuesta. Al recibir la respuesta, el
modulo de control envía al robot a la posición de "home" (posición cercana al punto de inicio
de la aplicación), y espera la confirmación, posteriormente envía el comando de toma de
imagen (inspección), que a su vez ordena a la cámara realizar la captura de la imagen y el
reconocimiento de los sensores programados para obtener una serie de valores de cada uno
de las coordenadas en pixeles y por medio de un sistema de transformación de coordenadas
a coordenadas base genera las nuevas posiciones que determinaran la trayectoria a seguir,
una vez almacenado cada uno de los registros se envía ducha información procesada al
modulo de control, para realizar la lectura de esos registros almacenados en la memoria de
la cámara, así el modulo de control generara la planeación del nuevo movimiento a realizar
por parte del controlador del robot.
Al llegar a esta parte se ha generado un ciclo, donde el modulo de control espera la
confirmación de que el robot a llegado al último punto indicado, y de nueva cuenta el modulo
de control pedirá otra captura de imagen y datos para continuar con el movimiento.
Figura 3-4 Modelo de integración visión-genéricos
Cabe mencionar que se ha dispuesto de una distancia entre la cámara y el efector final, con el
fin de no saturar al sistema y el controlador del robot pueda seguir con la secuencia de
posiciones que le será enviada en fracciones de segundo.
Para visualizar la integración se muestra un diagrama de secuencia que mantendrá la
comunicación de los sistemas, y dará soporte a las tareas de cada uno de los elementos
involucrados.
Figura 3-5 Diagrama de secuencia para configurar el sistema de visión-robot.
3.3 Elementos del sistema de visión
Uno de los factores que han propiciado el auge de los sistemas de control visual ha sido el
desarrollo de nuevos sistemas de visión. Estos nuevos sistemas han impulsado a que se
utilice cada vez más la información visual, debido a la disminución de retardos de captura y
procesamiento, lo que a su vez ha permitido el desarrollo de sistemas basados en distintas
arquitecturas.
3.3.1 Sensor de visión.
Muchas investigaciones han sido realizadas en el área de sensado por maquinas de visión,
esta tecnología está siendo cada vez más utilizada en robots industriales por el gran apoyo
que da al desempeño de sus tareas. Los tipos de sensor disponible para este uso son el CCD y
CMOS, no hay una regla o una considerable ventaja para utilizar uno u otro ya que las
comparativas hechas por investigaciones no dan un sensor como favorito(Litwiller, 2001) el
sensor estará sujeto de acuerdo a la selección que se haga de la cámara
Figura 3-6 Sensor CCD
3.3.2 Iluminación y lente de sistema de visión.
Los elementos complementarios como se describió en el capítulo 2, son el lente y el sistema
de iluminación. La elección de estos dependerá de una serie de pasos que involucran las
características del sistema de visión y la caracterización de los objetos de la imagen a
inspeccionar. En la figura 3-7 se muestra un diagrama de los componentes del sistema de
visión.
Figura 3-7 Diagrama de elementos que componen el sistema de visión
3.3.3 Ubicación de la cámara
Existen dos formas de colocación de la cámara, la primera montada en el fin de brazo
también llamada "eye in hand" (Torres, Pomares, Gil, Puente, & Aracil, 2002), y la segunda
externa fija en algúnpunto.
Figura 3-8 a) Configuración de cámara montada en el robot b) Configuración cámara externa
(Torres, 2002).
En la figura 3-8 a, se representa la ubicación del sistema de coordenadas utilizados en un
sistema de control visual con una cámara colocada en el extremo del robot, E, y el de la
cámara en figura 3-8 b C, ETc es conocida y fija durante el desarrollo de la tarea
3.4 Sistema de robot
3.4.1 Controlador del robot manipulador.
Se ha mencionado que el sistema de robot-controlador para este desarrollo está compuesto
por un robot manipulador con un controlador con las características descritas en al
siguiente tabla.
Tabla 3 Principales características de controlador de robot
Controlador Robot
Repetitibilidad
Controlador
Conectividad
Velocidad máxima
±0.06 mm (±0.002")
Alto desempeño con Windows
Ethernet estándar
EtherNet/IP
Eje S 170%
Eje L 170%
Eje U 175%
Eje R 355%
Eje B 345%
Eje T 525%
El controlador posee unas características importantes que permiten la integración, estas
características son:
El controlador está provisto de una tarjeta de comunicación con puerto Ethernet la cual es
utilizada para la transmisión de datos entre el controlador y el modulo de control.
La comunicación entre el controlador y el modulo de control se realiza por medio de un
software SDK, el cual contiene los protocolos de comunicación, obtención y envío de datos
necesarios para realizar el correcto funcionamiento. Los requerimientos para correr el
software se muestran en la siguiente tabla.
Tabla 4 Requerimientos de hardware para SDK.
Figura 3-9 Velocidad de transmisión
Se destaca el puerto de comunicación vía Ethernet por la alta velocidad de transmisión como
se puede apreciar en la figura 3-9.
3.4.2 Cinemática del robot
Tomando como referencia el centroide de un objeto con respecto a un sistema de
coordenadas, es expresado como un punto en tres dimensiones denotado por M =
[X, Y,Z, 1]T. Esta posición primero se obtiene por el sistema de visión en 2D como un punto
definido por m = [u,v]Ta través de una imagen vista perpendicular al plano y
posteriormente se complementa con el resultado de dos imágenes laterales. Una vez que la
posición ha sido convertida a coordenadas base de robot es enviada como M = [X, Y, Z]T al
controlador del robot, el cual transformara esta información en desplazamientos angulares y
lineales para las uniones y eslabones usando el modelo de cinemática del robot con
cinemática inversa.
Figura 3-10 Cuadro de coordenadas en sistema visión-robot
Los cuadros mostrados en la figura 3-10 se describen a continuación:
Marco de robot: es usualmente localizado en el centro de la base de robot y es referenciado a
las coordenadas mundo utilizadas por los controladores de robot. Los ejes x,y son paralelos
al piso.
Marco cámara: este cuadro es ligado a la cámara como una localización virtual de punta de
alfiler y los ejes u, v, son paralelos al plano de piso y no necesariamente corresponden a los
ejes x,y del robot.
Marco de plano de superficie: se define como el plano en el cual descansa la pieza. El origen
de este marco es expresado en referencia al marco de robot en archivos de configuración del
robot.
Marco de efector final: este marco es referenciado al punto central de herramienta (TCP).
Marco de pieza: Está ligado a la pieza y sus ejes x, y son paralelos a los ejes de marco del
robot x, y.
Figura 3-11 Transformación marco de cámara a marco de pieza
Uno de los objetivos del desarrollo es la conversión de puntos de coordenadas de cámara a
coordenadas de pieza. Los marcos de coordenadas en diferentes planos están relacionados
por matrices de rotación y traslación. La transformación Tcp (transformación de cámara
pieza) es derivada de examinar la figura 25. Tomando en cuenta que el plano de la imagen y
el plano de la pieza son paralelos, hay solo un ángulo de rotación, 9. Considerando la rotación
sin la traslación nos lleva a la matriz de rotación Rcp y se define como:
Ahora como se observa el vector Pcp relaciona la traslación en los ejes (x, y, z) requeridos
para colocar el marco de coordenadas de la cámara sobre el cuadro de coordenadas de la
pieza. Este vector une el origen del marco de la pieza con el origen del marco de la cámara.
La trasformación homogénea de 4x4 se forma combinando la matriz de rotación con la de
traslación como se muestra en la siguiente ecuación:
Las coordenadas de pixel de la posición de la pieza son convertidas de coordenadas a
unidades mundo utilizando una matriz de homografía, la cual es obtenida por el método de
calibración que se describe más adelante. La matriz de homografía utiliza punto de
mapeados del marco de coordenadas de robot al marco de coordenadas de la cámara. La
trasformación de coordenadas de robot a coordenadas del efector final es realizada por el
controlador del robot y es requerida para definir el movimiento del robot.
3.5 Entrenamiento
El entrenamiento o enseñanza de este proceso fuera de línea es la parte fundamental para
que el sistema de visión identifique la pieza y sus características.
La información de identificación de la pieza es utilizada por el modulo central para
determinar las geometrías que nos interesan de la pieza. El numero de muestras dependerá
de las características a analizar (áreas, formas, esquinas, etc.) y serán definidas por el
usuario.
Los principales componentes son involucrados en la caracterización y descripción, el modulo
central abre o crea la configuración del archivo con los parámetros de caracterización. La
caracterización de parámetros es: número de objetos, número de muestras, nombre de los
programas que el robot tomara para realizar la posición de inspección de comienzo y fin. El
modulo central inicializa los parámetros de acuerdo a los valores de la caracterización de los
parámetros del archivo. Posteriormente el modulo central (MC) pedirá la comunicación con
el control del robot (CR) y a su vez con la cámara usando los parámetros de comunicación
guardados en cada configuración de la interface. Una vez hecho esto el MC ordenara al CR
posicionar al robot a la zona de "Home" y al mismo tiempo el MC manda a realizar una toma
del objeto y se analizan y calcularan los datos encontrados. El proceso se repetirá hasta que
el numero de muestras y objetos a caracterizar, indicados por el usuario hayan sido
completadas.
Una vez que el sistema de visión ha obtenido las características del objeto, estas son
enviadas al MC siguiendo el protocolo de comunicación y el cual requiere la información
para ser enviada en forma de cadena de valores calculados y posteriormente convertidos a
datos de tipo flotante, es aquí donde se realiza el tratamiento de datos. Una manera de ver
gráficamente la realización del proceso de preparación de la obtención de caracterización
del objeto y modulo de control se muestra en la figura 3-12.
3.6 Procedimiento de calibración y transformación de coordenadas.
Se necesita estandarizar los valores numéricos de coordenadas obtenidas por el sensor de
visión a coordenadas de robot, para ello se referencia al manual de transformación de
coordenadas del paquete computacional de la cámara y se describe a continuación.
Se debe tener una plantilla rectangular de fondo blanco, en ella se puede cuadricular con
separación exactamente igual y en las intersecciones marcar puntos oscuros para una mejor
identificación del centro de cada punto. El centro de la plantilla debe coincidir con el centro
de la imagen. Como ejemplo se muestra la plantilla de la figura 3-13. Para mejores
resultados se debe imprimir la plantilla en alta resolución y fijarla a un superficie dura. La
imagen 3-14 muestra cómo debe colocarse el robot para la calibración.
Figura 3-13 Plantilla de calibración
Figura 3-14 Preparación de cámara para calibración
Una vez realizado lo anterior dentro del paquete computacional de la cámara, adquirimos
una imagen y seleccionamos al menos 5 puntos de intersección distribuidos en la plantilla y
obtener las coordenadas del centro de cada punto en el marco de coordenadasde la cámara
(pixeles), para cada punto se debe conocer su posición con respecto al marco del robot
(mrn).
El siguiente paso es crear un sistema de coordenadas con los datos anteriores asignando a
cada punto el valor en coordenadas de robot para hacer una referencia de transformación de
coordenadas del sistema robot visión. En el desarrollo del capítulo 4 se describe la
metodología con aportación propia de este procedimiento.
CAPITULO 4
Metodología de integración IMVR
En este capítulo se muestra el desarrollo e implementación de la metodología interface de
manipulación visión robot. La tarea desarrollada por el método es el seguimiento de un
segmento del borde de una pieza en tiempo real. Se asume que el contorno de la pieza no
sufre cambios de profundidad.
La interface de manipulación que integra el sistema de visión y el robot industrial está
programada en Visual Basic y corre en una computadora personal a 1.5 GHz y provista con
puertos de comunicación necesarios para la comunicación con la cámara y el controlador del
robot
Esta metodología tiene por objetivo conjuntar el sistema de visión y sistema de
manipulación de brazo de robot en una celda de manufactura a través de un interface de
control.
Para tal estrategia tomo como base el modelo FROVIS (A Flexible Robot Visión System)
desarrollada por (Cuevas, 2005) referente a la integración física de los componentes y parte
de la secuencia de la aplicación, este seguimiento mantiene la comunicación e intercambio
de datos por serial, el área de mejora es hacer la integración por vía Ethernet que es la que
se maneja en el desarrollo del trabajo
Para la interface de comunicación se toma parte del concepto de la API de (Skilligent Inc.,
2009) y se desarrolla sobre una plataforma de programación Visual Basic con evidentes
cambios y la implementación del algoritmo de programación propio para guiar al brazo de
robot en celda de manufactura en tiempo real.
Un panorama global de lo que involucra esta metodología se muestra en la figura 4-1.
Figura 4-1 Diagrama de Metodología IMVR
4.1 Integración de los sistemas de visión robot.
4.1.1 Integración física de sistemas de visión-robot
El prototipo de integración física del sistema fue configurado utilizando el controlador de
robot Motoman y robot industrial SSF2000 con un sensor CCD In-Sight 1100 Cognex. Las
conexiones físicas son presentadas en la figura 4-2.
Figura 4-2 Conexiones físicas requeridas para la prueba de interface de manipulación entre
robot motoman y sensor In-sight 1100
4.1.2 Estructura de comunicación controlador robot.
La estructura de comunicación del controlador de robot hacia la PC se debe realizar
siguiendo los protocolos de comunicación que poseen dichos equipos. El controlador de
robot Motoman usa el protocolo TCP/IP (Transmission Control Protocol) que provee al
usuario un conjunto de servicios para controlar y monitorear robots Motoman(147324-l,
2007) permitiendo el acceso a funciones, variables y programas. La interface consiste en SDK
(Software Development Kit) el cual permite el acceso por medio de un "Host" conectado a los
sistemas del robot por vía remota Ethernet. SDK maneja un protocolo que puede ser usado
para llamar funciones de un sistema desde otro dispositivo conectado. La figura 31 ofrece un
panorama de esta estructura. El controlador de robot debe ser configurado como servidor
mientras que la PC es configurada como cliente con las bases del modelo lógico de
integración FRO VIS (Cuevas, 2005). El servicio de petición sigue el protocolo de MotoCom
SDK y requiere parámetros los cuales son configurados siguiendo la estructura de datos
descrita en el manual de referencia(147324-l, 2007).
Cuando el módulo central hace una petición de comunicación con el controlador de
motoman el TCP es creado como cliente con la dirección IP del controlador. Los parámetros
de configuración requerida para controladores Motoman son:
• Dirección IP
• Puerto de comunicación
Figura 4-3 Estructura de protocolos requeridos para controladores Motoman
4.1.3 Estructura de comunicación del sistema de visión
La estructura de comunicación para el sistema de visión cumple la tarea de proveer
información a petición del modulo central descrita en el capítulo 3, las posiciones de los
puntos específicos de la pieza deben ser retro alimentadas desde el la hoja de funciones
sistema de visión hacia el modulo central y posteriormente al controlador de robot. Hay dos
posibilidades de establecer comunicación con el sensor de visión Cognex: buffer y socket, la
segunda opción es elegida por su efectividad.
Figura 4-4 Estructura de protocolos de comunicación para sistema de visión Cognex
Al igual que el robot, la comunicación del sensor de visión se configura desde el modulo
central por medio del socket y soporta diferentes protocolos estándar de comunicación, el
elegido es TCP/IP ya descrito anteriormente.
Con el sensor de visión Cognex a diferencia de FROVIS (Cuevas, 2005), la estructura es más
ligera y de fácil configuración ya que no maneja scripts para manipulación y envío de datos,
pues se basa en funciones configurables de acuerdo a la descripción del dispositivo como se
muestra en figura 4-5.
Figura 4-5 Configuración de protocolos de comunicación con sensor de visión cognex
Los Scripts mencionados son: "Background" y" Foreground", ambos scripts tienen acceso a
los registros de memoria del sistema (ver figura 34), los cuales son considerados como
36
variables locales y permiten el intercambio de información de cualquier tipo entre scripts
FROVIS(Cuevas, 2005).
Una forma detallada y específica para describir estos tipos de scripts se muestra en la tabla
de abajo.
Tabla 5 Características principales de los tipos de scripts
Script
Background
Foreground
Nivel de
sesempeño
Nivel de sistema
Nivel de Producto
Ejecución de
toma de Imagen
Al inicio de sistema,
manual o cuando reclve
una señal externa
Al llamar al
producto que lo contiene
Modo de
ejecución
Continuo o en
modo Individual
Continuo
Dependencia
de Inspecciones
Independiente
Dependiente
Figura 4-6 Mapa conceptual entre los scripts (Background y Foreground) y el modulo principal
de control
4.2 Modulo central
El módulo central, es un algoritmo de programación que almacenara y ejecutara las tareas de
interface de comunicación entre el sistema de visión y el controlador del robot, a su vez que
ejecutara los algoritmos de programación para obtener las nuevas trayectorias del efector
final de robot mediante los sistemas de control vistos en el capitulo anterior. Los lenguajes
de programación compatibles con los sistemas de visión-robot son: Visual C++ y Visual Basic,
y se elige el segundo por el conocimiento previo y su presentación gráfica. Este módulo está
instalado en la misma PC que el paquete computacional del sistema de visión. En el módulo
central se almacenan los algoritmos requeridos para realizar el objetivo de obtención de
características de imagen
4.2.1 Metodología para obtención de trayectoria de por puntos.
Paso 1. Conocer la región de inspección de la pieza. Esta área de trazado de líneas debe
abarcar el borde de la pieza con un margen mínimo de 5mm. En sentido perpendicular a la
dirección de inspección.
Paso 2. Está región debe estar iluminada con la fuente que se ha elegido anteriormente
Paso 3. Dividir la región de inspección en una base de 10 unidades utilizando líneas
perpendiculares al borde de pieza. Para conocer rápidamente la referencia y por ser más
práctico dividir esta distancia por 10 y conocer el avance de cada punto +/- un error 10
milímetros se establecen como base, por lo cual cada punto debe incrementarse en 1 mm.
Paso 4. Dentro del "software" elegir un filtro que produzca una escala de grises capaz de
resaltar la orilla en cuestión.
Paso 5. Utilizar las herramientas disponibles del paquete computacional del sistema de
visión para percibir el cambio de contraste a lo largo de cada línea ajustando y encadenarlo
a una función de obtención de coordenadas X, Y.
Región Vertical/10 = (Xl-X0), (Yl - Y0) nos da la ubicación en coordenadas en pixel
Paso 6. Contando con la calibración realizada al inicio de este capítulo, establecemos una
referencia de la relación existente entre pixel - mm obtenida de la tabla 7. Podemos
establecer las nuevas coordenadas en milímetros.
Esta serie de puntos nos da la trayectoria a seguir, si queremos tener un movimiento del
brazo de robot más suave podemos dar un tratamiento por medio de métodos numéricos
explicado en el capítulo 3 y así obtener la nueva trayectoria. Esta serie de pasos se visualiza
en la figura 35.
4.2.2 Algoritmo de comunicación
La secuencia de algoritmos necesarios para realizar las comunicaciones entre el módulo y los
sistemas de visión-robot son los siguientes:
Figura 4-7 Diagrama de la metodología obtención de trayectoria por puntos
Para conjuntar los dos sistemas en la interface se tiene como primera función aplicar el
siguiente algoritmo.
1. Habilitar la función para hacer la petición de abrir comunicación para las
direcciones de la red local establecidas una al robot y otra al sistema de visión.
2. Aceptar la apertura de comunicación por parte del sistema de visión y enviar
confirmación.
3. Aceptar la apertura de comunicación de la tarjeta de comunicación del robot y
enviar confirmación
4. Interface de Manipulación escuchar las confirmaciones de los envíos de petición de
apertura de comunicación en forma numérica o esperar tiempo límite para aceptar
comunicación.
5. Si es positiva la confirmación seguir con el siguiente paso, en caso contrario
desplegar un mensaje de "Error en la comunicación"
6. Activar la modalidad online del sistema de visión para el envío de datos sucesivos
7. Activar la función de actualización de datos de posición cada 0.5 segundos
8. Realizar la primera tarea del robot definida como ir a posición segura y esperar
siguiente tarea.
9. Descomposición de los datos recibidos por el sistema de visión y asignación en
direcciones de lectura
10. Envío de datos individuales al controlador del robot.
11. Confirmación de culminación de tarea por parte del robot
12. Repetición de paso 9 al 11 hasta terminar la secuencia de pasos o no obtener
resultados del dispositivo de visión.
13. Envió de tarea ir a posición inicial a robot.
14. Esperar nueva orden de interface.
El algoritmo desarrollado es mostrado gráficamente en la figura 4-8. La programación se
divide en 2 algoritmos. En ellos se muestran las funciones requeridas para realizar el
objetivo de comunicación.
4.3 Interfaces de manipulación
Las interfaces de manipulación son pantallas cargadas de funciones para usuario que
permiten configurar, realizar peticiones, conocer el estatus del sistema y realizar tareas
preestablecidas. La interface principal corre dentro del modulo central y es parte de la
programación. En la figura 4-9 se muestra la interface principal.
Figura 4-9 Plantilla de ejecución de programa robot
4.4 Elección de componentes de sistemas de visión.
La selección de los componentes utilizados fue de acuerdo a la disponibilidad de los equipos
que cumplieran con los requerimientos mínimos del sistema (capítulo 3) y la viabilidad del
uso industrial de dicho componente como se verá en el capítulo 5.
4.4.1 Metodología para la elección del tipo de lente.
Una vez definido el concepto de las características importantes que describen un lente para
un sistema de visión robot, podemos seguir una serie de pasos que nos determinan el tipo
más adecuado de lente para nuestra aplicación.
1.- El primer paso es establecer la exactitud de los resultados esperados de la imagen: rangos
de tolerancias (milímetros, decimas de milímetros, etc.)
2.- Establecer el área del campo de visión (largo y ancho de la imagen) mejor conocido como
FOV.
3.- Establecer la distancia de trabajo o WD.
4.- Con estos datos podemos establecer que características debe cumplir nuestro lente, con
ayuda de la tabla 2 y las formulas de la sección 2 podemos obtener el lente apropiado.
Figura 4-10 Secuencia para elección del lente apropiado
4.4.2 Metodología para la elección de fuente y técnica de iluminación para el
sistema visión.
Esta serie de pasos a seguir permite elegir un tipo específico de iluminación y una técnica de
aplicación para lograr una imagen óptima. Se debe considerar las principales características
de la pieza a inspeccionar. Los pasos son:
1.- Determinar el tipo de superficie (lisa, áspera, brillosa, opaca...)
2.- Determinar la forma de la superficie (plana o presenta una forma tridimensional
3,- Es susceptible a la luz (refleja la luz, la absorbe, la dispersa...)
4.- Es susceptible al paso del tiempo (se oscurece, sufre oxidación, contracción...)
5.- Que característica se desea resaltar (borde, una orilla, toda la superficie...)
6.- Una vez definidos loa puntos anteriores se consulta la tabla 1 para comprobar la técnica
de iluminación aplicable a nuestro tipo de pieza.
7. El siguiente paso es la elección de la fuente de iluminación, es decir qué tipo de "Luz" nos
brinda la mejor opción de resaltar la característica de la pieza que deseamos a analizar.
Los tipos más comunes utilizados según (Castro J., 2009) son:
• Halógeno.- Fuente de luz directa con gas inerte
• Incandescente.- Fuente de luz directa con vacio parcial
• Fluorescente.- Fuente de luz difusa con filamentos para iniciar a brillar
• Láser.- Fuente de luz estructurada con amplificación de luz por estimulación de
emisiones de radiación.
• LED.- (Light-Emitting Diode)
• Xenón flash.- Tubo de vidrio con gas Xenón
8.- Con el apoyo de Al podemos distinguir y elegir la fuente a utilizar para iluminar las
características de la pieza que nos interesa analizar.
9.- Por último es necesario realizar pruebas con adquisición de imágenes a fin de observar si
la técnica y fuente de iluminación es la idónea para nuestra aplicación.
Figura 4-11 Secuencia de elección fuente y tipo de iluminación
4.5 Sistemas de calibración
Apoyado en el manual de Spectation(A5E00268232-04, 2007) se realiza un procedimiento
de calibración aplicado al sistema de visión cognex. Estableciendo que en términos de
homogeneidad de imagen, no requiere varias poses de calibración ya que la distorción radial
se desprecia y con ayuda del siguiente algoritmo de calibración que ayuda a disminuir los
errores producidos por la distorción donde la calibración del plano y transformación de
coordenadas en pixeles a base para el robot esta implicito.
4.5.1 Algoritmo de calibración para IMVR
Apoyado en el manual de Spectation(A5E00268232-04, 2007) se realiza un procedimiento
de calibración aplicado al sistema de visión cognex. Estableciendo que en términos de
homogeneidad de imagen, no requiere varias poses de calibración ya que la distorción radial
se desprecia y con ayuda del siguiente algoritmo de calibración que ayuda a disminuir los
errores producidos por la distorción donde la calibración del plano y transformación de
coordenadas en pixeles a base para el robot esta implicito.
Figura 4-12 Plantilla de calibración cuadros 10 x 10 mm
La elección del plano de calibración estará a conformidad de obtener un menor rango de
error al coincidir las coordenadas de pixeles con coordenadas base. El tamaño de los puntos
es exactamente 10 mm.
Fijar la plantilla de calibración en el centro de la imagen y fijar un punto de referencia para
lograr una aproximación más exacta de los pixeles. Ahora definir el punto en coordenadas de
pixeles, posteriormente el robot se mueve posición de pose (entre más preciso sea el
alineamiento mejor será el desempeño y tendremos los resultados esperados), se requiere
crear ahora la transformación de coordenadas para un nuevo sistema de coordenadas en
coordenadas "base" para robot. El sensor de visión debe reconocer al menos 30 puntos para
poder establecer un plano de calibración. Al realizar la calibración verificar el resultado de
error producido esta referencia se da en la figura 42 del manual de sensor de visión(597-
0109-xx, 2008)
Este algoritmo requiere correr la interface deprogramación del sistema de visión para
encadenar cada uno de los puntos junto con los "softsensors" y tendremos los puntos de
intersección que se necesitan para realizar la trayectoria de la herramienta del robot. Un
resumen de este algoritmo se presenta en la figura 4-13.
Figura 4-13 Diagrama de secuencia de calibración
Figura 4-14 Rangos de calibración para resultado de calibración
CAPITULO 5
Experimentación y resultados
En este capítulo se describe el modelo propuesto para el guiado de robot mediante un
sistema de visión en una celda de manufactura, así como su implementación y la fase de
experimentación necesaria para comprobar que la aplicación es realizable.
En esta tesis se experimento con dos tipos de sistemas de visión por un lado Siemens VS725
e In-Sight 1100 micro de Cognex con el fin de mostrar la flexibilidad y eficiencia de la
metodología IMVR junto con el modulo central que actúa como cliente entre los sistemas
robot-visión para el seguimiento de la trayectoria de un segmento de pieza en tiempo real.
5.1 Descripción de la tarea
El objetivo de la metodología IMVR es identificar una orilla de pieza dentro de una región de
inspección definida por el usuario para obtener los puntos que determinan el borde
encontrado y hacer un seguimiento en tiempo real con la cámara montada en el efector final
de robot.
5.2 Resultados de la metodología IMVR
• Integración física de los sistemas visión-robot-PC
Con base a lo establecido en el capítulo 4 la conexión de física estructurada de los
componentes involucrados se produjo a través de la interface física RJ-45 anidado a un Hub
para red local. La confirmación de funcionamiento se hizo con un llamado remoto a cada
dirección IP de los elementos desde el sistema operativo de la PC. Dejando establecido que el
sistema de visión y controlador de robot como servidores y el modulo central (PC) como
cliente donde corre el programa en Visual Basic que contiene las interfaces de manipulación
de los sistemas.
• Aplicación de metodologías de elección de lente, tipo y fuente de iluminación
Los tipos de sistemas de visión utilizados para la experimentación son: Siemens modelo VS-
725 y Cognex 1100 micro. En la tabla 8 se muestran las características de los sistemas
empleados siguiendo las metodologías de 4.4.1 y 4.4.2 referentes a la elección del lente, tipo
y fuente de iluminación teniendo las consideraciones de la tabla 7 y con datos de las
características de la pieza en la tabla 6.
Tabla 6 Características de pieza a inspeccionar
Características de pieza metálica cuadrada
Superficie
Susceptible a luz
Característica a
resaltar
Lisa
Plana
refleja luz
no
borde
Considerando que el campo de visión de la cámara es de 480 x 640 pixeles con un total de
307,200 áreas en pixeles y una distancia de trabajo de 85 mm, podemos establecer la
siguiente ecuación:
Tabla 7 Consideraciones para elección de lente, tipo y fuente de iluminación
WD de 85 mm y tolerancia de
1 mm
Ancho
Largo
Área
Proporción
en mm2
Proporción
en mm
proporción
en pixel
Pixel
480
640
307200
90.9654113
9.5375789
1
mm
67.15
50.292
3377.1
1
1
0.011
A = L * a
Tabla 8 Principales características de los sistemas de visión
Componente
Cámara
CPU
Lente
Iluminación
Característica
Modelo
Sensor
Resolución de
imagen
Tiempo de
exposición
Memoria de
programa
Memoria de
imagen
Procesador de
Imagen
Interfaces
software
Longitu focal
espaciador
Técnica
Tipo
Fuente
Descripción
VS-725
Alta velocidad
1/4" CCD
Análisis de
imagen a color
640 x 480
pixeles
1ms - 1s.
4 MB Flash
16 MB RAM
Motorola 50 Mhz
Ethernet TCP/IP
(RJ 45, 10/100
Mbaud)
Spectation 2.7.1
1.2 x 6 mm.
5 mm
Bright Field
Halógeno
117 vac
Descripción
1100 micro
Alta velocidad
1/3" CCD
Escala de
grises
640 x 480
pixeles
1ms - 1s.
64 MB Flash no
volátil
128 MB
42
cuadros/seg.
Ethernet
10/1 00 base T
TCP/IP
In-Sighte
Explores 4.3
1.2 x 6 mm
3 mm
Bright Field
LED's
24 vdc
En el desarrollo de las primeras pruebas se utilizó la caseta de una celda de manufactura que
ya contaba con esta metodología de iluminación, así como el equipo del sistema de visión
como se muestra en las figuras 5-1, 5-2 y en la figura 5-3 y 5-4 la imagen de la pieza con
fuentes de iluminación en halógeno y LED's.
Figura 5-1 Caseta de inspección celda de manufactura CIDyT
Figura 5-2 Sistema de inspección, cámara Siemens VS-72S con iluminación de halógeno.
Figura 5-3 Sistema de inspección, cámara Siemens VS-725 con iluminación de halógeno.
Figura 5-4 Imagen de pieza cuadrada metálica resaltando borde derecho
El resultado de la experimentación de los tipos de iluminación dejan claro que el mejor tipo
de iluminación es por medio de LED's. Una tabla comparativa se muestra para validar estos
resultados, en la figura 5-5 se observa el comportamiento de los valores obtenidos en 50
mediciones aplicadas a la pieza metálica de dimensiones 50 x 50 mm.
La posibilidad del uso del láser no se justifica ya que requiere un gran cuidado por la
fragilidad del equipo, muestra imágenes con textura granosa y de alto costo cuya aplicación
se inclina hacia mediciones en 3D (Castro J., 2009), por otro lado las ventajas que muestra
la fuente LED's son:
• La facilidad de manejo y no requiere cuidados especiales
• Iluminación de intensidad constante
• No provoca variación en el contraste que se traduce como fluctuación en el valor de
los datos obtenidos
Con estos antecedentes se considera a la fuente LED's como la mejor opción para esta
aplicación y baja las consideraciones descritas en tabla 9.
Tabla 9 Comparativa de fuentes de iluminación
Comparativa de Iluminación
Tpo
Reflejo
Control de
parámetros de
medición
Intensidad
luminosa
Presenta
sombra
Retardo al
encendido
Halógeno
Si
Inestable
Excesiva
Si
Si
LED
No
Estable
Moderad
a
No
No
La gráfica de la figura 5-5 muestra la comparativa de las 2 fuentes de iluminación
comparadas, hológeno por una parte presenta inestabilidad en las lecturas de los sensores
con rangos mínimos y máximos disparados a comparación de la fuente de iluminación con
LED's.
Figura 5-5 Gráfica comparativa de medición de pieza
• Comunicación del sistema visión-robot-modulo central
En la aplicación de los algoritmos de conexión a dispositivos se tomaron los tiempos de 50
muestras con un contador de programa, el tiempo se mide en el instante que se presiona el
botón de conectar cámara y el cliente (módulo central) solicita la conexión al servidor
(cámara, robot) y en el momento que confirma la conexión se registra el tiempo con la
formula siguiente:
Tiempo conexión = Tiempo confirmación — Tiempo petición
Las gráficas de las figuras 5-6 y 5-7 muestran los resultados obtenidos.
Figura 5-6 Gráfica de tiempos de conexión módulo-robot
Figura 5-7 Gráfica de tiempos de conexión módulo-cámara
Se observa que en la figura 5-6 hay tiempos que caen a cero, esto se debe a que no se pudo
realizar la conexión por algún fallo y el mensaje de error de conexión aparece deteniendo el
programa, la muestra consta de 51 pruebas donde 36 de ellas según el histograma la
mayoría ocurre entre 0.55 y 0.99 segundos también se observa que no mantiene una
estabilidad de lecturas en la conexión, mientras que en la figura 5-7 el comportamiento de
los tiempos de conexión entre el módulo y la cámara es más estable con valores que van
desde 0.13 hasta 0.33 segundos, esto puede ser debido a que el sistema es de última
generación con grandes mejoras en su procesador.
5.2.1 Aplicación con cámara como actuador final del robot
La presente implementación consta de la experimentación utilizando el método llamado
"Eye in Hand (Motta & Arraes, 2008)(Torres, Pomares, Gil, Puente, & Aracil, 2002)",
básicamente la aplicación que se desea desarrollar requiere tener una inspección dinámica
así como la retroalimentación de los parámetros que definen la trayectoria.
Módulo central y aplicación metodología para obtención de trayectoria por puntos.
Figura 5-8 Ubicación de cámara como efector final de robot en celda

Continuar navegando