Logo Studenta

FACTOR DE CALIBRACION LENTES Y CAMARAS

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
Instituto Tecnológico de Chihuahua 
 
 
 
 
 
Práctica 2: 
Facto de calibración, tipos de lentes y cámaras 
 
 
Alumnos: Erick Elihú Delgado Carreón 13061146 
Alejandro Arana Chávez 13061068 
Oscar Alejandro Soto Orozco 13060815 
Miguel Ruiz Esparza Rivero 13060791 
Carrera: Electrónica. 
Especialidad: Sistemas embebidos aplicados. 
Asignatura: Sistemas de visión. 
Nombre del profesor: Dr. Mario Chacón. 
Fecha de entrega: 03/03/2017 
 
 
 
 
 
 
 
 
 
 
 
 
2 
 
Contenido 
Introducción. ........................................................................................................................................... 3 
Objetivo. .................................................................................................................................................. 3 
Marco teórico . ........................................................................................................................................ 3 
Material y equipo .................................................................................................................................... 5 
Metodología ............................................................................................................................................ 5 
Conclusiones. ........................................................................................................................................ 13 
Referencias. ........................................................................................................................................... 13 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3 
 
Introducción. 
En esta práctica se trabajó con problemas relacionados a parámetros del factor de calibración en un 
sistema de visión, así como el manejo de una cámara a color y una cámara cercana a IR. 
Objetivo. 
Generar nuestro propio conocimiento sobre el concepto de factor de calibración en un sistema de 
visión, parámetros de lentes, así como el conocimiento de manejo de cámara B&W, a color y 
cercano a IR. 
Marco teórico. 
Los tamaños estándar de CCD son 1in (12.8mm X 9.6mm), 2/3in (8.8mm X 6,6), 1/2 in (6.4mm X 
4.8mm), 1/3 in (4.8mm X 3.6mm) y 1/4 in (3.6 X 2.7). 
 
La detección de bordes de una imagen digital se pueden definir como transiciones entre dos 
regiones de niveles de gris significativamente distintos. Suministran una valiosa información sobre 
las fronteras de los objetos y puede ser utilizada para segmentar la imagen, reconocer objetos, etc. 
La mayoría de las técnicas para detectar bordes emplean operadores locales basados en distintas 
aproximaciones discretas de la primera y segunda derivada de los niveles de grises de la imagen. 
La derivada de una señal continua proporciona las variaciones locales con respecto a la variable, de 
forma que el valor de la derivada es mayor cuanto más rápidas son estas variaciones. 
En el caso de funciones bidimensionales f(x,y), la derivada es un vector que apunta en la dirección de 
la máxima variación de f(x,y) y cuyo módulo es proporcional a dicha variación. Este vector se 
denomina gradiente y se define: 
 [1] 
 
Detección de bordes Canny 
El método de detección de bordes Canny realiza varios pasos: 
1. Convolución con gaussiana 
2. Estimación del vector gradiente 
3. supresión no máxima 
4. Análisis de umbral y conectividad 
 
4 
 
La segmentación de una imagen se refiere al proceso de dividir una imagen digital dentro de 
múltiples regiones o conjunto de pixeles. El objetivo de segmentación de la imagen es dividir la 
imagen en diferentes objetos para que los diferentes objetos queden marcados. Los objetos 
segmentados son caracterizados por la misma textura o color. Otro posible resultado de la 
segmentación algorítmica es un conjunto de contornos. Si la tarea es encontrar contornos del objeto 
de la imagen, usualmente el primer paso es la detección de bordes. Algunos métodos diferentes 
para la detección de bordes fueron propuestos en décadas pasadas. Uno de los métodos más usado 
en el método de detector de bordes Canny. 
La detección de bordes es el proceso de encontrar la separación de un borde agudo en una imagen. 
Las separaciones son cambios importantes en la intensidad del pixel cuando las barreras son 
distinguidas en la imagen o en la escena. Las típicas técnicas de detección de bordes implican un 
filtro en 2D el cual está hecho para ser sensible a gradientes largos. Cada una de estas técnicas está 
destinada para ser sensible a un tipo de borde específico. La detección de bordes es muy 
problemática en imágenes ruidosas por que el ruido y los bordes se incluyen en ambos componentes 
de frecuencia. En los esfuerzos para reducir el ruido a menudo llega a resultar dañados los bordes en 
la imagen. 
El algoritmo Canny es uno de los detectores de borde más exitosos. El filtro de paso bajo gaussiano 
se utiliza como primer paso en el detector Canny para suavizar la imagen con el fin de eliminar o 
atenuar el ruido. El segundo paso es estimar los gradientes y basados en la magnitud del gradiente y 
los bordes de la dirección se afilan. El cálculo del gradiente se realiza mediante el núcleo Sobel que 
se aplica a cada píxel de la imagen en ambas direcciones. La resistencia del borde está determinada 
por la magnitud del gradiente mientras que la dirección del gradiente se usa para determinar para 
cada píxel la dirección con el cambio de intensidad más grande. 
Para la serie de pasos de detección de bordes, la dirección del gradiente necesita ser redondeada al 
paso más cercano de 45 grados. Sólo se conservará el píxel con la máxima resistencia del borde, de 
lo contrario se suprimirá mediante un proceso de supresión no máxima para el adelgazamiento del 
borde. Cuando la nitidez está terminada, la reducción de los números de los bordes se realiza 
utilizando doble umbral para separar los bordes fuertes, débiles y suprimidos. Los bordes débiles son 
finalmente preservados o suprimidos usando el seguimiento de los bordes por histéresis. 
El rendimiento del algoritmo de Canny depende en gran medida de los valores de umbral, así como 
e el pa á et o del filt o gaussia o σ. El pa á et o σ o t ola el ta año del filt o gaussia o, el 
valo ayo pa a σ orresponde al tamaño mayor del filtro gaussiano y viceversa. Además, un 
tamaño mayor del filtro significa que la imagen se verá más borrosa. La consecuencia es que la 
localización de los bordes será menos precisa porque no sólo se eliminará el ruido sino que también 
se suaviza á los o des. Los valo es ás pe ueños de σ o se va á los o des ejo , pe o el uido 
será menos eliminado. El detector Canny no es adecuado para eliminar el ruido moteado granular 
(sal y pimienta) multiplicativo. La razón es que el filtro gaussiano no elimina este tipo de ruido muy 
bien, así que muchos bordes detectados serán realmente un ruido. [2] 
 
 
 
 
5 
 
Después de llevar a cabo el procesamiento de gradación de imagen, en la imagen cada punto de 
elemento de imagen tiene un valor, la luz de elemento de fijación de juicio de resumen y nivel de 
grado de grado de sombra. La binarizacióni se divide imagen en cada elemento de imagen base de 
ciertos tipos de colores estandarizados. Por lo tanto, en la imagen de todos los puntos de nivel de 
gris sólo utiliza dos tipos de posibilidades, no es "0" es "255", también fue el sistema ha dividido en 
acuerdo con el nivel de gris toda la imagen en blanco y negro dos tipos de colores. Con el fin de 
obtener la imagen ideal de dos valores, utiliza la tecnología de división de valor de umbral con 
frecuencia, tiene la fuerte división de imagen de contraste al objeto y el fondo para ser 
especialmente eficaz. Por lo tanto, la clave de binarización debe encontrar el valor umbral adecuado 
para diferenciar el objeto y el fondo. 
El método de binarización son muchos,pero en realidad generalmente no ha utilizado para ningún 
objeto el método, debe actuar de acuerdo a la imagen concreta para decidir. Supone que la imagen 
de gradación original es f (x, y), después de que la imagen de binarización sea g (x, y), la expresión 
del proceso de binarización es la siguiente: 
g(x, y)=\cases{ 1\ &$f(x, y) > =t$\cr 0\ &$f(x, y)< t$ }\eqno{\hbox{(1)}}[3] 
Material y equipo 
 Computadora 
 Módulo de adquisición de video 
 Cámara B&W 
 Cámara de color 
 Cámara cercana a IR externa 
 Lentes, 8mm y 25mm. 
 Soporte de cámara 
 Monitor de video 
 Software de visualización 
 Cinta métrica o regla 
 Tarjeta IEEE 
Metodología 
1. Determinación de las dimensiones del CCD (lente de 8mm) 
Obtener las dimensiones del CCD de la cámara B&W, utilizando la ecuación de distancia focal, FL. 
a. Coloca la cámara con el lente de 8mm a una distancia de 25cm de la superficie de prueba y 
mide el FOV. Tomando en cuenta que el tamaño del CCD no es cuadrado. Así que se 
determinó la dimensión horizontal y vertical del FOV. 
b. Utilizando la fórmula siguiente para determinar las dimensiones del CCD 
 
Donde las dimensiones obtenidas fueron las siguientes: 
Lente= 6mm. 
6 
 
Distancia=25cm. 
FOV= Horizontal; 27.5cm, Vertical; 20.5cm 
Sensor de ½ Pulgada 
Lente= 25mm. 
Distancia=25cm. 
FOV= Horizontal; 4.8cm, Vertical; 6.7cm 
 
2. Determinando las dimensiones del CCD (lente de 25 mm) 
a. Durante el experimento se observó que no se logró un buen foco con ese lente y la distancia 
cámara superficie de prueba. 
b. Has un comentario sobre el FOV de los dos casos. 
Se pudo observar que debido a que de un caso a otro se cambió el tamaño del lente sucede 
el fenómeno visto en clases debido a que nuestro tamaño del CCD fue diferente en ambos 
casos, pero de todas maneras el sensor sigue siendo el mismo. 
 
El campo de visión se puede observar que en el lente de 8 mm tiene un capo de visión más 
amplio conocido como ojo de pez y con un ángulo de visión de 180° en contraste con el de 
25mm que tiene un campo de visión más centrado y dirigido con un ángulo de visión de entre 
110° y 60° 
 
3. Factor de calibración 
a. Al utilizar el lente de 25mm se colocó la tarjeta IEEE sobre la superficie de prueba de manera 
que sea visible completamente en le FOV. 
7 
 
. 
Imagen 1 tarjeta de la IEEE 
 
b. Se obtuvieron los factores de calibración horizontal y vertical del sistema tomando una 
imagen con la cinta métrica. 
 
Imagen 2: Eje vertical 
8 
 
 
Imagen 3: Eje horizontal 
 
Mediante el software de Matlab se determinó cuantos pixeles equivalen a un mm y determinó las 
dimensiones de la tarjeta IEEE con ellos. 
 
>> imtool('C:\Users\hp\Desktop\Vision\Práctica2\mediciondetarjeta.bmp') 
Medición horizontal 331.51 pixeles / 38 pixeles por centímetro = 8.71 cm 
Medición vertical 169 pixeles / 34 pixeles por centímetro = 4.97 cm 
 
4. Cámara de Color 
a. Se adquirió una imagen y se visualizó con Matlab el cual permitió ver los valores de pixeles. 
 
Imagen 4: Imagen a color. 
9 
 
b. Se realizó el procesamiento de bordes y binarización con Matlab. 
 
Imagen 5: Detección de bordes. 
>> q=imread('C:\Users\Elihu\Documents\Vision\practica2\pizcol.jpg'); 
>> g=rgb2gray(q); 
>> BW1 = edge(g,'prewitt'); 
>> BW2 = edge(g,'roberts'); 
>> BW2 = edge(g,'roberts'); 
>> imshowpair(BW1,BW2,'montage') 
>>title('Prewitt Roberts'); 
 
 
Imagen 6: Detección de bordes con diferentes métodos. 
>> q=imread('C:\Users\Elihu\Documents\Vision\practica2\pizcol.jpg'); 
>> g=rgb2gray(q); 
>> BW1 = edge(g,'log'); 
>> BW2 = edge(g,'canny'); 
>> imshowpair(BW1,BW2,'montage') 
>> title('Log Canny'); 
 
10 
 
De esta misma imagen se obtuvo la binarización de ella misma para lo que se tuvo que convertir a 
escala de grises 
 
Imagen 7: Imagen a color pasada a tonos de gris y binarizada. 
>> q=imread('C:\Users\Elihu\Documents\Vision\practica2\pizcol.jpg'); 
>> g=rgb2gray(q); %se convierte la imagen a tonos de grices 
>> T=graythresh(g); %Se calcula ul humbral T por metodo de Otus 
>> gbin=im2bw(g,T); %Binarizacion de la imagen 
>> imshowpair(g,gbin,'montage') 
>> title('Tonos de grices Binarizada'); 
 
c. De la misma manera se volvió se realizó el mismo procedimiento pero a otra imagen a color. 
 
Imagen 8: Imagen a color de objetos varios. 
 
11 
 
 
Imagen 9: Imagen a color de objetos varios con detector de bordes. 
>> color = imread('C:\Users\hp\Desktop\Vision\Práctica2\color2.bmp'); 
>>color1=rgb2gray(color); 
>> BW1 = edge(color1,'sobel'); 
>> BW2 = edge(color1,'canny'); 
>> imshowpair(BW1,BW2,'montage') 
>> title('Sobel Filter Canny Filter'); 
 
 
Imagen 10: Imagen a color de objetos varios pasada a tonos de gris y binarizada. 
>> color=imread('C:\Users\Elihu\Documents\Vision\practica2\color2.jpg'); 
>> color2g=rgb2gray(color); 
>> T=graythresh(color2g); 
>> color2bin=im2bw(color2g,T); 
>> imshowpair(color2g,color2bin,'montage') 
>> title('Tonos de grices Binarizada'); 
 
d. Comenta sobre las diferencias con la cámara de B&W. 
12 
 
Con la cámara de tonalidades de gris se puede observar que cuando nosotros nos acercamos a los 
pixeles solamente nos dan valores de 0 a 255 mientras que con la imagen de color cuando nos 
acercamos a un pixel nos da 3 valores diferentes correspondientes a cada color RGB. 
5. Cámara Cercana IR 
a. Arma el sistema de visión con la cámara cercana a IR. 
b. Genera un ambiente de muy baja iluminación y comprueba que la cámara cercana a IR es 
capaz de obtener imágenes bajo esas condiciones. Realiza una comparación con las cámaras 
B&W y a color 
Se pudo observar que en el ambiente controlado en donde no hay luz la cámara a color no podía 
ver nada debido a que no detecta ningún cambio por la falta de iluminación en cambio con la 
cámara cercana a ir se observó que gracias al sistema de iluminación que se tiene con los leds ir la 
cámara los percibe y puedo detectar el juguete que se encontraba en el ambiente controlado sin 
iluminación solamente con la de la cámara. La diferencia más notoria con la de B&W es que esta 
no contiene el sistema de iluminación que tiene la cercano a ir pero en esta cámara no se puede 
cambiar su rango de visión ya que tiene un lente fijo y la B&W nosotros podemos controlar el 
campo de visión que nosotros queramos solamente con cambiar el lente de esta. 
 
 
Imagen 11: Imagen tomada con c 
>> ir = imread('C:\Users\hp\Desktop\Vision\Práctica2\irpp.bmp'); 
>> BW1 = edge(ir,'sobel'); 
>> BW2 = edge(ir,'canny'); 
>> imshowpair(BW1,BW2,'montage') 
>> title('Sobel Filter Canny Filter'); 
 
 
 
 
13 
 
Conclusiones. 
En esta práctica se pudo observar y comprender mejor cómo funciona el FOV de los lentes de las 
cámaras, la aplicación de las diferentes cámaras que se utilizaron fueron de gran ayuda para poder 
diferenciar y ver qué cámara es la correcta para cada aplicación que nosotros tengamos, la cercana a 
ir es ideal en ambientes donde no hay luz, debido a los leds ir que tiene la cámara se puede 
observar y detectar los objetos que se encuentran en su FOV. 
Además aprendimos que con el imtool podemos realizar distintas operaciones, de una manera muy 
fácil y didáctica, por medio de la información que nos ofrece cada pixel de una imagen con respecto 
a cuantos pixeles son enumeración de cada uno de ellos e información correspondiente a el color 
que contiene cada uno de ellos, y por estemedio poder determinar qué tamaño físico ocupan cada 
uno de ellos en el objeto que se capturo con el sensor de imagen y de esta manera determinar las 
dimensiones casi exactas dela tarjeta de la IEEE. 
Una de las cosas que más nos gusto fue utilizar los distintos operadores pertinentes para obtener 
bordes dentro de una imagen, los cuales en lo personal respecto a nuestro equipo es de vital 
importancia dentro del proyecto que estamos desarrollando, ya que dicho método nos es útil para 
reconocer las esquinas del escenario y lograr un mejor desempeño de nuestro robot. 
Referencias. 
[1] Procesamiento Digital de Imágenes, Mario Chacón, Editorial Trillas 2007. 
[2] M. Nikoli , E. Tu a, M. Tu a, Edge dete tio i edi al ult asou d i ages usi g adjusted Canny 
edge dete tio algo ith , Joh Nais itt U ive sity, U ive sity of Belg ade, “e ia, Russia , Nov. 
2016. 
[3] Otsu N.A Threshold selection method from gray-l-evel histograms [J]. IEEE Trans Systems.

Continuar navegando