Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE INGENIERÍA INGENIERÍA CATASTRAL Y GEODESIA EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO KAREN TATIANA DUARTE JIMÉNEZ BOGOTÁ FEBRERO DE 2018 2 UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE INGENIERÍA INGENIERÍA CATASTRAL Y GEODESIA EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO KAREN TATIANA DUARTE JIMÉNEZ PROYECTO DE GRADO COMO REQUISITO PARCIAL PARA OPTAR AL TÍTULO DE INGENIERO CATASTRAL Y GEODESTA DIRECTOR Ph. D. ERIKA SOFÍA UPEGUI CARDONA BOGOTÁ, COLOMBIA FEBRERO DE 2018 3 NOTA DE ACEPTACIÓN _______________________ _______________________ _______________________ _______________________ __________________________________ FIRMA DEL DIRECTOR ERIKA SOFÍA UPEGUI CARDONA __________________________________ FIRMA DEL JURADO __________________________________ FIRMA DEL JURADO BOGOTÁ D.C. FEBRERO DE 2018 4 Tabla De Contenido 1. Introducción ..................................................................................................................... 8 2. Definición Del Problema .................................................................................................. 9 3. Justificación .................................................................................................................... 11 4. Objetivos ........................................................................................................................ 13 4.1. Objetivo General ........................................................................................................... 13 4.2. Objetivos Específicos .................................................................................................... 13 5. Marco Referencial .......................................................................................................... 13 5.1. Marco Teórico ............................................................................................................ 13 5.1.1. Plataformas UAV ................................................................................................ 13 5.1.2. Proceso fotogramétrico ....................................................................................... 16 5.1.3. Imágenes multiespectrales................................................................................... 26 5.1.4. Modelos Digitales De Elevación ......................................................................... 28 5.1.5. Ortofotomosaicos ................................................................................................ 28 5.2. Estado Del Arte .......................................................................................................... 29 5.3. Marco geográfico ........................................................................................................ 35 6. Materiales ....................................................................................................................... 38 6.1. Vehículo Aéreo No Tripulado .................................................................................... 38 6.2. Sensores ...................................................................................................................... 39 6.3. Antena De Recepción Topcon GR-5 .......................................................................... 40 6.4. Controlador Topcon FC 2600 ..................................................................................... 42 6.5. Navegador Garmin GPSMAP 64s .............................................................................. 42 6.6. Software De Procesamiento........................................................................................ 43 6.6.1. Mission Planner ................................................................................................... 43 6.6.2. Inpho.................................................................................................................... 44 6.6.3. Imagine Photogrammetry (LPS) ......................................................................... 45 6.6.4. Agisoft PhotoScan ............................................................................................... 46 6.6.5. Pix4D Mapper ..................................................................................................... 49 6.6.6. Drone2Map.......................................................................................................... 50 7. Metodología ................................................................................................................... 51 7.1. Fase 1: Documentación e Investigación ..................................................................... 53 7.2. Fase 2: Operativa ........................................................................................................ 54 7.3. Fase 3: Análisis ........................................................................................................... 54 8. Resultados ...................................................................................................................... 55 8.1. Proceso Fotogramétrico: Primera Etapa ..................................................................... 55 5 8.2. Selección de Softwares y Trámite de Licencias ......................................................... 59 8.3. Proceso Fotogramétrico: Segunda Etapa .................................................................... 60 8.3.1. Procesado de datos con softwares convencionales ............................................. 61 8.3.2. Segundo control terrestre .................................................................................... 71 8.3.3. Procesado de datos con softwares orientados a los UAV’s ................................ 73 9. Análisis de Resultados ................................................................................................... 87 9.1. Precisión Geométrica .................................................................................................. 88 9.2. Calidad Visual ............................................................................................................ 89 9.3. Tiempo De Procesamiento .......................................................................................... 99 9.4. Facilidad De Uso ...................................................................................................... 100 9.5. Costo ......................................................................................................................... 100 10. Conclusiones ................................................................................................................ 101 11. Bibliografía................................................................................................................... 103 Índice De Figuras Figura 1. Modelo de vuelo fotogramétrico .............................................................................. 19 Figura 2. Segmentos GNSS ...................................................................................................... 22 Figura 3. Calibración del UAV en posición horizontal y vertical ............................................ 24 Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas individuales ................................................................................................................................... 25 Figura 5. Espectroelectromagnético ........................................................................................ 27 Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal de una ortofoto (derecha) .............................................................................................................. 29 Figura 7. Mapa de la zona de estudio ....................................................................................... 37 Figura 8. UAV TAROT 680 PRO ............................................................................................ 38 Figura 9. Cámaras Canon PowerShot A2300 .......................................................................... 40 Figura 10. Energía electromagnética percibida por el sensor .................................................. 40 Figura 11. Receptor Topcon GR-5 ........................................................................................... 41 Figura 12. Controlador Topcon FC 2600 ................................................................................. 42 Figura 13. Navegador Garmin GPSMAP 64s .......................................................................... 43 Figura 14. Flujo metodológico ................................................................................................. 52 Figura 15. Plan de vuelo ........................................................................................................... 56 Figura 16. Control terrestre ...................................................................................................... 57 Figura 17. Toma de GCP (marcas físicas artificiales) en campo ............................................. 57 Figura 18. Fotografías aéreas en condiciones de neblina ......................................................... 58 Figura 19. UAV en ejecución del vuelo y en aterrizaje ........................................................... 58 Figura 20. Datos GPS/IMU registrados en un vuelo ................................................................ 59 Figura 21. Distribución de GCP ............................................................................................... 60 Figura 22. Definición de parámetros de la cámara en Inpho ................................................... 62 Figura 23. Importación de datos GPS/IMU y asignación de desviaciones en Inpho ............... 63 Figura 24. Importación de coordenadas de GCP y asignación de desviaciones en Inpho ....... 63 file:///C:/Users/USER/Documents/UAV/Tesis%20Versión%202.docx%23_Toc507445221 6 Figura 25. Asignación de fotografías correspondientes por línea de vuelo en Inpho .............. 64 Figura 26. Visualización de líneas de vuelo, fotografías y GCP en Inpho .............................. 64 Figura 27. Localización de los GCP en Inpho ......................................................................... 65 Figura 28. Inicialización de la orientación externa en Inpho ................................................... 66 Figura 29. Error en ajuste fotogramétrico en Inpho ................................................................. 66 Figura 30. Alteración en la visualización de líneas de vuelo, fotografías y GCP en Inpho ..... 67 Figura 31. Definición de parámetros de la cámara en LPS ...................................................... 68 Figura 32. Carga de datos GPS/IMU por fotografía en LPS .................................................... 68 Figura 33. Localización de los GCP en LPS ............................................................................ 69 Figura 34. Visualización de GCP y fotografías en LPS ........................................................... 69 Figura 35. Error en la generación automática de puntos tie en LPS ........................................ 70 Figura 36. Error en triangulación en LPS ................................................................................ 70 Figura 37. Toma de GCP (marcas físicas naturales) en campo ............................................... 72 Figura 38. Carga de datos GPS/IMU por fotografía en Agisoft PhotoScan ............................ 74 Figura 39. Parámetros de la cámara detectados por Agisoft PhotoScan .................................. 75 Figura 40. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados ..... 77 Figura 41. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados ........................................................................................................................... 78 Figura 42. Proceso en Agisoft PhotoScan para el Vuelo 2 NIR G B con GCP preseñalizados 78 Figura 43. Carga de datos GPS/IMU por fotografía en Pix4D Mapper ................................... 79 Figura 44. Definición de parámetros de la cámara en Pix4D Mapper ..................................... 80 Figura 45. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados ........... 82 Figura 46. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados ........................................................................................................................... 82 Figura 47. Proceso en Pix4D Mapper para el Vuelo 2 NIR G B con GCP preseñalizados ..... 83 Figura 48. Carga de datos GPS por fotografía en Drone2Map ................................................ 84 Figura 49. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados ................ 86 Figura 50. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados ........................................................................................................................... 86 Figura 51. Proceso en Drone2Map para el Vuelo 2 NIR G B con GCP preseñalizados ......... 87 Figura 52. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP preseñalizados ............................................................................................................................... 90 Figura 53. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP preseñalizados y fotoidentificados ................................................................................................ 91 Figura 54. Comparación de ortofotomosaicos obtenidos del Vuelo 2 NIR G B con GCP preseñalizados ............................................................................................................................... 92 Índice De Tablas Tabla 1. Características de UAV TAROT 680 PRO ............................................................... 38 Tabla 2. Especificaciones de la cámara Canon PowerShot A2300 ......................................... 39 Tabla 3. Especificaciones generales del receptor Topcon GR-5 ............................................. 41 Tabla 4. Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s .... 43 Tabla 5. Funcionalidades por módulo en Inpho ...................................................................... 45 Tabla 6. Funcionalidades de Agisoft PhotoScan en Versión Estándar y Versión Profesional 48 7 Tabla 7. Requisitos mínimos y recomendados del sistema para el uso de Drone2Map ......... 50 Tabla 8. Parámetros para la planeación del vuelo ................................................................... 55 Tabla 9. Coordenadas de los GCP preseñalizados .................................................................. 60 Tabla 10. Características de los equipos usados en la ejecución de los paquetes fotogramétricos ............................................................................................................................. 61 Tabla 11. Número de fotografías identificadas para cada GCP .............................................. 71 Tabla 12. Características y coordenadas de los GCP fotoidentificados .................................. 72 Tabla 13. Parámetros usados en el procesamientode Agisoft PhotoScan .............................. 78 Tabla 14. Parámetros usados en el procesamiento de Pix4D Mapper ..................................... 83 Tabla 15. Parámetros usados en el procesamiento de Drone2Map ......................................... 87 Tabla 16. RMSE de GCP y reproyección de acuerdo al software y proceso .......................... 89 Tabla 17. Comparación de errores visuales para los ortofotomosaicos en RGB .................... 93 Tabla 18. Comparación de errores visuales para los ortofotomosaicos en NIR G B .............. 94 Tabla 19. Información de los subprocesos y producto final ................................................... 96 Tabla 20. Imágenes calibradas por procesamiento.................................................................. 97 Tabla 21. Visualización de calibración de imágenes en los modelos de Pix4D Mapper y Drone2Map ................................................................................................................................... 98 Tabla 22. Tiempos de procesamiento ...................................................................................... 99 8 1. Introducción El creciente y constante avance tecnológico ha incursionado en las últimas décadas en la creación de nuevas técnicas fotogramétricas mediante el desarrollo de Vehículos Aéreos No Tripulados; sistemas con ventajas y resultados excepcionales en contraste con las técnicas tradicionales que parten del uso de plataformas aéreas tripuladas, tales como datos espaciales precisos, generación de datos de forma periódica, bajo costo, aplicaciones en inspección, reconocimiento y cartografía con alta resolución espacial y temporal (Uysal, Toprak, & Polat, 2015), captura de imágenes aéreas en zonas de difícil acceso o inaccesibles (Peternel, Kumelj, Oštir, & Komac, 2017), facilidad de despliegue en campo de los puntos de control terrestres y medición de los mismos al usarse típicamente esta clase de vehículos para escalas espaciales más pequeñas que en los levantamientos aéreos convencionales (James, Robson, d’Oleire-Oltmanns, & Niethammer, 2017), y finalmente su significancia como medio complementario entre las adquisiciones terrestres y aéreas clásicas (Popescu, Iordan, & Păunescu, 2016), entre otros. En conjunto y paralelo al desarrollo de tecnologías para la captura de fotografías aéreas, surge el progreso de paquetes de software fotogramétricos con compilación de los principios de la fotogrametría digital tradicional y un énfasis hacia el procesamiento de datos capturados con Vehículos Aéreos No Tripulados (Gonçalves & Henriques, 2015), fundamentados mediante un algoritmo conocido como “estructura del movimiento” para la identificación de patrones en las imágenes e impulsado por una lógica de producción automatizada (Turner, Harley, & Drummond, 2016), que permite una reducción de tiempo de hasta un 80% en comparación con métodos tradicionales (P. Zarco, Diaz, Angileri, & Loudjani, 2014). 9 En este trabajo de grado se aplicaron procesos fotogramétricos desde trabajos de campo en el Parque Nacional Natural Chingaza con la toma de fotografías aéreas multiespectrales capturadas por un Vehículo Aéreo No Tripulado TAROT 680 PRO equipado con cámaras digitales Canon PowerShot A2300 y la toma de datos de puntos de control terrestres, hasta trabajos de oficina con el procesamiento de imágenes para la reconstrucción de geometría tridimensional de la escena, georreferenciación, generación de Modelos Digitales de Superficie y finalmente ortofotomosaicos; esto mediante el uso de diferentes softwares tanto convencionales como orientados a Vehículos Aéreos No Tripulados a modo de comparación en resultados como la precisión geométrica y calidad visual, y factores intrínsecos de los mismos como el costo, la facilidad de uso y el tiempo de procesamiento. 2. Definición Del Problema “Actualmente, los sensores remotos aéreos y satelitales son formas comunes para adquirir datos de monitoreo de recursos naturales en la mayoría de países, pero ellos no son lo suficientemente efectivos, rápidos y exactos” (Xing, Wang, & Xu, 2010),esto debido a que el procesamiento de los datos no se da en tiempo real, esto es, las imágenes generalmente se procesan fuera de línea en su llegada a la estación terrestre (en el caso de los satélites) o después del aterrizaje (Wischounig & Rinner, 2015), sumado al hecho de que cada vez se requieren datos con mayor resolución espacial para múltiples aplicaciones. Adicional a ello, “la adquisición de imágenes por parte de satélites y vehículos aéreos tripulados muestra algunas limitaciones, como los altos costos de lanzamiento/vuelo, adquisición de datos lenta y dependiente del clima, maniobrabilidad restringida y disponibilidad limitada”(Cesetti et al., 2011). 10 Tal y como lo expresan Hunt et al., 2010 el costo elevado en la adquisición de imágenes por medio de vehículos aéreos tripulados se debe principalmente al uso de cámaras de formato amplio, que evidentemente poseen un costo mayor que las cámaras convencionales debido a su propósito. Además de “la dificultad técnica implicada en la captura de imágenes frecuentes de un área geográfica determinada”(Zarco et al., 2008). Es así, que para solventar los inconvenientes que poseen las técnicas de adquisición de imágenes tradicionales (costo, tiempo, detalle), este proyecto de grado pretende hacer uso de un Vehículo Aéreo No Tripulado (cuyas siglas en inglés son UAV) para llevar a cabo un levantamiento fotogramétrico. En general, y teniendo en cuenta las principales desventajas de la adquisición de imágenes por plataformas aéreas y satelitales, se optará por realizar este levantamiento en una zona cuyas condiciones medioambientales hacen difícil la obtención de imágenes por métodos convencionales, para así demostrar si los UAV son una alternativa para la toma de datos en esta clase de condiciones, tal y como lo describen distintos trabajos (Xing et al., 2010). De tal forma, y con base en la afirmación de Hunt et al., 2010 se usará una cámara convencional a bordo de un UAV para la captura de imágenes multiespectrales en el páramo de Chingaza, más específicamente con centro en las coordenadas 4º44’52.23’’ N, 73º51’19.38 W con un área de estudio aproximada de una hectárea. Se escoge esta zona, principalmente por las condiciones climáticas que impiden realizar un monitoreo constante de una zona endémica y de vital importancia para la preservación del recurso hídrico, sumado al hecho que se trata de una extensión con cobertura vegetal significativa y que acorde a la revisión bibliográfica, tal condición limita la obtención de productos cartográficos libres de error, dada la complejidad de llevar a cabo la correspondencia de imágenes en la cual se basa la actual fotogrametría digital, de esta manera se 11 espera evaluar la posibilidad de lograr productos con buena precisión a partir de imágenes tomadas con UAV en una zona que trae complicaciones como esta. Como resultado se busca obtener un mosaico de ortofotos generadas con las imágenes capturadas de este levantamiento, esto gracias al procesamiento en cinco softwares fotogramétricos con el fin de demostrar que este método de adquisición de imágenes permite generar diferentes productos cartográficos. Finalmente, y con el fin de realizar una aproximación a un usuario interesado por cualquier ortomosaico generado con imágenes tomadas por un UAV, se realizará una comparación en cuanto a las características obtenidas de cada producto en los softwares usados, a fin de establecer acorde a las necesidades y características particulares del usuario, cuál sería el software más adecuado para tal obtención. 3. Justificación Los UAV’s son vehículos motorizados de control remoto que pueden ser manejados de forma autónoma o semi-autónoma,por lo que la principal diferencia respecto a otros vehículos es la ausencia de un piloto dentro del vehículo, sin embargo se requiere de una tripulación responsable de este. Por ende, la fotogrametría de UAV puede ser entendida como una nueva herramienta de medición fotogramétrica que hace uso de una plataforma controlada de forma remota, bien sea de una forma automática o semi-automática (Eisenbeiß, 2009), o también, vista como un complemento a la fotogrametría de aviones tripulados con la capacidad de disponer de soluciones rápidas sin mayor infraestructura alguna (Gomez & Purdie, 2016). No obstante, Uysal et al., 2015 afirman que el uso de los UAV’s se establece como una alternativa a la captura tradicional de datos dirigida a aplicaciones cartográficas con alta resolución espacial y temporal, además de representar bajos costos con respecto a la fotogrametría clásica. En este sentido, ante a la creciente demanda 12 de adquisición de imágenes aéreas con alta resolución, y la dificultad de uso y consumo de tiempo explicados por la carencia de información auxiliar suficientemente precisa (Gross & Heumann, 2016), se ha revolucionado actualmente el sector aeroespacial con la aplicación de los UAV’s como solución a las falencias mencionadas en términos de adquisición y procesamiento de datos espaciales (Fernández & Gutiérrez, 2016), esto en conjunto con las demás ventajas características de tales vehículos como lo son: el acceso a entornos peligrosos para la vida humana, la inexistencia de permisos de control aéreos para vuelos de baja altitud en gran parte de los países, la obtención de productos y datos de posicionamiento con alta calidad y precisión (Xing et al., 2010), la habilidad para adquirir económica y sistemáticamente conjuntos de fotografías aéreas en altitudes entre los 10 y los 100 metros (Vollgger & Cruden, 2016), la minimización de los errores humanos reduciendo de esa manera posibles accidentes, la maniobrabilidad de alto rendimiento, amplio rango de uso (Vogeltanz, 2016) en inspección, vigilancia, reconocimiento y cartografía en tiempo real; hace que la fotogrametría con UAV sea no sólo importante en la geomática sino también en otras disciplinas (Uysal et al., 2015), ejemplo de ello es su aplicación en los ámbitos forestales, agrícolas, medioambientales, arqueológicos y arquitectónicos, en gestión de emergencias y vigilancia del tráfico (Nex & Remondino, 2014). Dada la amplia utilización de las imágenes adquiridas con UAV’s, y los diferentes softwares propuestos en el mercado, este trabajo de grado busca evaluar el rendimiento y desempeño para la generación de productos cartográficos en cinco softwares fotogramétricos, a saber, Inpho, Imagine Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map, a través de la evaluación de los ortofotomosaicos producidos, esto basado en el avance computacional de los últimos años que ha permitido la incursión de la fotogrametría con UAV (James et al., 2017). 13 4. Objetivos 4.1. Objetivo General Evaluar el desempeño de distintos softwares para la generación de ortofotomosaicos a partir de imágenes multiespectrales tomadas con un vehículo aéreo no tripulado. 4.2. Objetivos Específicos 1. Realizar las actividades relativas a la señalización y materialización de los puntos de control terrestres, que permitirán realizar posteriormente el ajuste de las imágenes capturadas de la zona de estudio. 2. Obtener un ortomosaico desarrollado en cinco softwares fotogramétricos (a saber Inpho, Imagine Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map) a partir del levantamiento realizado en la zona de estudio. 3. Realizar una comparación cuantitativa y cualitativa entre los productos cartográficos obtenidos por cada software acorde a las características propias de éstos con fines de la elección del usuario a adquirir los productos cartográficos obtenidos por este medio. 5. Marco Referencial 5.1. Marco Teórico 5.1.1. Plataformas UAV Las plataformas UAV en su habilidad para la adquisición de fotografías aéreas a resoluciones que no pueden lograrse por medio de las técnicas tradicionales (Vollgger & Cruden, 2016); dados los vuelos a altitudes significativamente más bajas en un orden de menos de 100 metros sobre el 14 nivel del suelo para unas resoluciones espaciales finas de hasta 1 centímetro (Gross & Heumann, 2016), hacen que su uso se haya intensificado específicamente en las geociencias (Vollgger & Cruden, 2016). Sumado al hecho de que los UAV son una alternativa efectiva en términos de costos para el proceso de adquisición de imágenes (Gross & Heumann, 2016); siendo menos costosas las plataformas y los costos operativos que los aviones tripulados por lo general (Eisenbeiß, 2009), que pueden acceder a zonas peligrosas o de difícil acceso para las aeronaves tripuladas (Gross & Heumann, 2016), que aún en condiciones de tiempo nublado es posible la adquisición de datos en caso que la distancia al objeto permita volar por debajo de las nubes; situación que bajo las mismas condiciones climáticas y el uso de aviones tripulados no permitiría la captura de datos al requerirse una mayor altura de vuelo sobre el suelo (Eisenbeiß, 2009). Adicionalmente, la facilidad para la medición en campo y despliegue de los puntos de control terrestres al usarse en áreas significativamente menores que en el caso de los levantamientos convencionales (James et al., 2017), y finalmente su capacidad para la consecución rápida de datos y en tiempo real a la estación de control terrestre (Eisenbeiß, 2009), hacen que los UAV sean ampliamente utilizados actualmente. En este sentido, “los UAV’s se presentan como tecnologías muy prometedoras que seguirán influyendo en el desarrollo de la geomática en los próximos años, cerrando la brecha entre adquisiciones terrestres y aéreas clásicas” (Popescu et al., 2016). De esta manera la combinación de métodos fotogramétricos con los UAV’s proporcionan los datos necesarios para la creación de productos cartográficos como Modelos Digitales de Superficie (DSM), Modelos Digitales de Elevación (DEM) (Gomez & Purdie, 2016), nubes de puntos en 3D (Yucel & Turan, 2016), mapas topográficos con alta precisión usados para levantamientos catastrales (Lee & Sung, 2016), así como para la rectificación de imágenes y sus derivados que bien pueden ser mosaicos de imágenes 15 o mapas utilizados en la interpretación de imágenes (Eisenbeiß, 2009). De acuerdo a Nikolakopoulos, Soura, Koukouvelas, & Argyropoulos, s. f. los estudios demuestran que los productos en mención pueden lograr una gran exactitud y ser usados para realizar mediciones precisas pese a las fuentes de error que pueden incluir los trabajos basados en UAV’s; y es así que en esencia, para la adquisición de datos espaciales de forma productiva y segura se debe hacer desde el diseño planificado y de la inclusión de capacidad flexible de gestión de misión en tiempo real, los instrumentos a emplear para su consecución (Colomina & Molina, 2014), Dichos elementos, representan un papel trascendental en la automatización del procesamiento de datos, que permiten la reducción de esfuerzo y tiempos invertidos en los procesos (Popescu et al., 2016). Por otro lado y acorde a las aplicaciones geomáticas, los UAV’s pueden clasificarse en consonancia a su motor o sistema de propulsión en plataformas sin potencia y plataformas accionadas, y alternativamente según sus características aerodinámicas y físicas en plataformas más ligeras que el aire, de ala rotativa (Nex & Remondino, 2014); vehículos de despegue y aterrizaje verticales (Gabrlik, 2015), y de ala fija (Nex & Remondino, 2014); siendo estos dos últimos tipos de plataformas distinguidos por sus capacidades de alcance, donde los UAV’s de ala rotativa poseen un corto alcance (hasta de 2 Km) y son utilizados para misiones de escalalocal, en contraste a los UAV’s de ala fija que son caracterizados por una precisión de largo alcance (Gomez & Purdie, 2016) con un rango de hasta decenas de kilómetros (Gabrlik, 2015); por lo que en una escala regional su uso es más apropiado al permitir la cobertura de grandes áreas en un corto periodo de tiempo (Gomez & Purdie, 2016). Cabe adicionar que autores como Bemis et al., 2014 afirman que “para estudios que requieren una alta resolución, los UAV’s de ala rotativa tienen ventajas significativas respecto a los UAV’s de ala fija, porque estos pueden volar a alturas excepcionalmente bajas con cámaras que son generalmente de mayor calidad (respecto al tamaño 16 del vehículo) montadas en una plataforma estable”. Sin embargo, se destaca de los UAV’s de ala fija su estabilidad inherente y su fácil maniobrabilidad; siendo controlados remotamente sin ninguna estabilización, esto en comparación con los de ala rotativa cuyas turbinas no son estables y hacen necesario el uso de algún tipo de sistema de estabilización ya sea mecánico o electrónico (Gabrlik, 2015). Adicional a lo anterior, los UAV se pueden clasificar de acuerdo al tamaño o peso, altura máxima de vuelo, duración del mismo y resistencia; donde el último aspecto se encuentra influenciado por la autonomía del vuelo, la disponibilidad del enlace del radio para controlar el avión y el enlace de telemetría; en clases de micro, mini, clases de corto, medio y largo alcance, así como de baja, media y alta altitud (Eisenbeiß, 2009). Teniendo en cuenta las características previas en mención no se puede obviar el hecho que el uso de los UAV’s como herramienta para la captura de imágenes se encuentra aún limitada, ya sea por la propias limitaciones técnicas de los mismos como es el caso del rango o capacidades de vuelo, por la necesidad de contar aún con puntos de control terrestres para la obtención de una alta precisión, por las más recientes leyes de aviación debido al auge de los vehículos aéreos citados, o por las condiciones de luz y climáticas (Gomez & Purdie, 2016); o en general influencias ambientales que inciden en la alteración de los ángulos de posición que ocasionan vistas en perspectivas arbitrarias (Wischounig & Rinner, 2015). 5.1.2. Proceso fotogramétrico La fotogrametría siendo por lo general, una rama de la ciencia orientada al procesamiento de información a partir de fotografías, se ocupa de la reconstrucción de formas, medición del tamaño y posición de los objetos visibles en las mismas. De ésta se desencadena no solamente la 17 fotogrametría aérea en sus clases sino que también se encuentra la fotogrametría que utiliza datos terrestres o fotográficos espaciales, haciendo así uso de diversas tecnologías y métodos de procesamiento que han marcado una progresión histórica partiendo desde técnicas analógicas y analíticas hasta técnicas digitales y automáticas (Gabrlik, 2015). En lo concerniente a la teledetección; definida como aquella técnica que “supone la observación exterior de la superficie terrestre” (Chuvieco, 1995) a distancia y posible gracias a algún tipo de interacción existente entre los objetos y el sensor a través de un flujo energético que constituye una forma de radiación electromagnética. En sus orígenes espaciales se tenían factores diferenciales frente a la fotogrametría aérea, siendo el caso que en teledetección los sensores CCD (Dispositivos de Acoplamientos de Cargas) permitían el trabajo en una amplia gama de radiaciones en el espectro electromagnético, mientras que en fotogrametría las cámaras analógicas usadas para entonces se limitaban al espectro visible únicamente. En cuanto a la resolución espacial para la fotogrametría la altura de vuelo y calidad fotográfica hacía que ésta alcanzara un valor inferior a 0,10 m; muy por debajo de la teledetección que contaba con valores superiores a 10 m por su dependencia del tipo de sensor y los parámetros orbitales de los satélites. Hoy en día la concepción entre estos términos es otra, pues se reconoce que la fotogrametría hace parte de la teledetección y la evolución sobre estos ha hecho que los factores diferenciales en mención desaparezcan, esto a causa de que la fotogrametría ha incorporado sensores CCD y que la teledetección ha alcanzado resoluciones espaciales inferiores al metro (Hernández, 2006). Haciendo énfasis en la fotogrametría aérea, Gabrlik, 2015 sostiene que hablar de su desarrollo requiere remontarse a más de cien años atrás con la toma de las primeras fotografías en globos de aire caliente y aviones tripulados que permitieron el progreso técnico constante, a tal punto que, en la actualidad difícilmente se encuentra un lugar en la Tierra que no haya sido mapeado, lo 18 anterior gracias a la implementación de satélites, aviones tripulados diseñados con fines cartográficos y más recientemente de manera innovadora el uso de los UAV’s como una alternativa para mapear rápidamente un área local con bajos costos (Gabrlik, 2015), sin embargo su desarrollo inicial estaba dirigido a aplicaciones militares con el objeto de realizar inspecciones no tripuladas, vigilancia y reconocimiento de la cartografía en áreas enemigas, y sólo hace tres décadas se realizaron las primeras aplicaciones civiles y geomáticas que impulsaron en gran medida la mejora de las plataformas, tecnologías de comunicación y software, la posibilidad de sus aplicaciones y la implementación de estas plataformas como un elemento común para la adquisición de datos (Nex & Remondino, 2014); adicional a ello “la evolución de los UAV’s a lo largo del siglo XX y principios del siglo XXI no ha sido el concepto de vehículos aéreos sin pilotos, sino la posibilidad de controlarlos con mayor precisión y tenerlos más autónomos” (Gomez & Purdie, 2016). Acorde al procedimiento general para la toma y procesamiento de imágenes aéreas Cepero, 2015 sostiene que el flujo de trabajo se basa en cuatro puntos fundamentales como sigue: 1. Plan de vuelo: Con el fin de garantizar una operación exitosa es indispensable la planificación del vuelo fotogramétrico que depende del tipo de aplicación, de los detalles a capturar en la zona de vuelo (Eisenbeiß, 2009) y con ello la resolución espacial o escala que se pretenda obtener dados por la altura de vuelo, la definición de la ruta, velocidad de ascenso o desplazamiento, inclinación de la cámara, punto de captura de la fotografía (Cepero, 2015), líneas de vuelo y su longitud media (Claros, Guevara, & Pacas, 2016), así como la definición de superposición o traslape de imágenes; siendo común en los planes de misión para la fotogrametría con UAV’s una superposición grande con un 80% para la longitudinal o frontal y en un rango de 60-80% para la transversal o lateral (Figura 1), esto como compensación a la inestabilidad de la aeronave (Colomina & Molina, 2014) y 19 garantía de una fácil detección de los puntos de unión a utilizar en la orientación de imágenes (Saleri et al., 2013). Además de ajustar el plan de vuelo a las condiciones de viento de la zona en el momento de llevarlo a cabo, pues su gestión en tiempo real cumple un papel clave en este primer proceso (Colomina & Molina, 2014). Figura 1. Modelo de vuelo fotogramétrico Fuente: (Claros et al., 2016) 2. Apoyo Topográfico: Se hace necesaria la obtención de posiciones precisas sobre el terreno para lograr una georreferenciación acertada del producto a obtener, principal fundamento para usar puntos sobre el terreno que puedan identificarse fácilmente en las fotografías aéreas asegurando una correcta correlación y una minimización de errores (Cepero, 2015) debido a la imprecisión del Sistema de Posicionamiento Global (GPS) de metros a centímetros (Claros et al., 2016). Las anteriores posiciones son conocidas como puntos de control terrestre (GCP, por sus siglas en inglés) que hacen referencia a marcas físicas yasean naturales o artificiales establecidas de forma uniforme en el área de estudio y sobre las cuales se realiza la toma de datos de su posición (Gabrlik, 2015) planimétrica y altimétrica. Estas posiciones permiten obtener las coordenadas a utilizar como 20 comprobación de la precisión y cubrimiento a los fallos en la técnica fotogramétrica (Claros et al., 2016). Sobre el número de los GCP Claros et al., 2016 afirman que la cantidad depende o se encuentra en función de la precisión relativa de las coordenadas de las fotografías, sin embargo sostienen que en términos generales para realizar el ajuste se necesitan como mínimo tres GCP y en caso de tratarse de proyectos grandes se hace la recomendación del uso de 5 a 10; aclarándose que el hecho de hacer uso de más puntos no implica una mejora representativa en los resultados a obtener así como tampoco los afecta de forma negativa (Claros et al., 2016). En este orden de ideas, lo que se busca además de georreferenciar las imágenes es contar con un número suficiente de GCP; dados también por la complejidad del área de estudio, que permitan derivar nubes de puntos de alta calidad útiles para la adquisición de características y análisis que tengan cabida en el proyecto desarrollado (Nex & Remondino, 2014). Haciendo alusión a la toma de datos, pero no sin antes enfatizar en las dos clases de georreferenciación aplicadas a la técnica fotogramétrica y denominadas como directa e indirecta, se acentúa entre ellas la distinción de la interacción con el área medida. La georreferenciación directa es una medición sin contacto con el área de estudio; útil en zonas inaccesibles o peligrosas, y posible gracias a los sensores a bordo que permiten la obtención de la orientación exterior, la precisión alcanzada para las coordenadas obedece a la precisión con la que cuentan los sensores a bordo. Generalmente los sensores en mención con los que cuentan los UAV’s son receptores de Sistema Global de Navegación Satelital por Cinemática en Tiempo Real (RTK GNSS) que permiten una precisión al orden del centímetro (Popescu et al., 2016); así como también se presentan para el caso de los micro 21 UAV’s receptores GNSS de bajo costo o comúnmente GPS con precisión en su posición en unidades de metros, sumado a una Unidad de Medición Inercial (IMU) (Gabrlik, 2015) equipada con acelerómetros y giroscopios para llegar a una precisión de orientación al orden de hasta pocas décimas de grado (Popescu et al., 2016). Por su parte la georreferenciación indirecta necesita de los GCP, del conocimiento de sus posiciones para determinar la orientación y por ende del contacto o interacción con el área (Gabrlik, 2015); datos que pueden ser adquiridos también mediante equipos de GNSS. Explícitamente y sobre el término GNSS, se trata de una serie de sistemas de posicionamiento por satélite que consta de tres componentes fundamentales (Figura 2): el segmento espacial, el segmento de control y el segmento de usuario. El primero consiste en satélites GNSS en órbita alrededor 20.000 kilómetros sobre la tierra y acondicionados para proporcionar una adecuada cobertura, emitiendo una señal que los identifica y brindando sus datos con respecto al tiempo, órbita y estado. El segmento de control comprende una red terrestre de estaciones maestras de control, estaciones de carga de datos y estaciones de monitoreo donde el flujo de trabajo entre ellas consiste en captar las señales y estado de los satélites; esto por parte de las estaciones de monitoreo, y transmitir la información a las estaciones maestras de control donde se realiza el ajuste y corrección de los parámetros de la órbita de los satélites y relojes de alta precisión a bordo para que en últimas sean enviados a los satélites por medio de las estaciones de carga de datos. Para terminar, el segmento de usuario se refiere a los equipos procesadores de las señales recibidas de los satélites GNSS para llegar a la información de ubicación o posición (NovAtel, s. f.). 22 Figura 2. Segmentos GNSS Fuente: (NovAtel, s. f.) En relación al método de posicionamiento RTK, éste consiste en un sistema de referencia relativo o diferencial donde al menos es necesario contar simultáneamente con dos equipos para llevar a cabo las mediciones y a partir de ellos se determina la distancia o diferencia posicional, generalmente se aplica este método en posicionamientos cinemáticos en el cual se da lugar a la determinación de las coordenadas en tiempo real acorde a la situación de uno de los equipos o antenas que estará en movimientos superiores a la precisión del sistema (1 o 2 cm + 1 ppm); el anterior es conocido como receptor móvil o también rover a diferencia de la otra antena que actúa como receptor fijo en modo estático sobre un punto con coordenadas conocidas (Farjas, s. f.). La técnica consiste en primer lugar de cerciorarse de la recepción de señal de como mínimo cuatro satélites, a mayor disponibilidad de satélites mejores resultados posicionales, sin embargo se trata de una condición limitada por cada receptor de acuerdo a sus capacidades de potencia computacional para utilizar satélites adicionales (NovAtel, s. f.), consecuentemente se ubica el receptor fijo cuyo radio módem cumple la funcionalidad de transmitir los datos de 23 observación por ondas de radio al receptor móvil y que guardará en su unidad de control registrando cada uno de los puntos tomados donde se ha posicionado el rover (Cardozo & Arenas, 2016). 3. Toma fotográfica: El paso a seguir es la implementación del plan de vuelo siguiendo la ruta creada para la captura de las imágenes (Cepero, 2015), para ello se debe realizar la preparación del equipo, despegue y aterrizaje. Hace parte de la preparación del equipo la revisión de la correcta instalación de sus componentes, revisión del estado de batería del control y del dispositivo móvil, ubicación de la hélices del UAV, configuración de la cámara, instalación de la tarjeta de memoria para el almacenamiento de las fotografías, disposición de control, conexión del software para la operación del vehículo y calibración del mismo mediante el giro de 360º de modo horizontal y vertical (Figura 3) con fines de un eficaz desempeño durante el vuelo, ante la observación de una deriva considerable durante el vuelo y la carencia de una trayectoria del UAV en línea recta se debe realizar una recalibración. Sumado a lo anterior y previo al despegue también se requiere corroborar la correcta disposición de señal del GPS del UAV, ya que si hay una lectura errónea de las coordenadas el vehículo podría volar en dirección aleatoria; condición dada en entornos con interferencia por su cercanía a estructuras metálicas o grandes construcciones, por lo que es recomendable realizar los vuelos en espacios abiertos así como el proceso de calibración mencionado anteriormente. Por último y estando en condiciones aptas para el vuelo la aplicación o software a usar hace envío de la misión de vuelo al UAV manteniendo la conexión entre sí para poder activar la cámara consecutivamente, se ha de realizar el despegue, elevación y aterrizaje en una zona libre de obstáculos, la aplicación sigue la misión realizando un vuelo automatizado (Claros et al., 2016) y siendo posible visualizar 24 de forma simultánea y en tiempo real la información transmitida a la computadora, que bien puede ser sobre mediciones, el estado del vehículo y su respectiva posición, para terminar se realiza la toma fotográfica y aterrizaje (Cepero, 2015). Figura 3. Calibración del UAV en posición horizontal y vertical Fuente: (Claros et al., 2016) 4. Procesado y cálculo: Contando ya con las fotografías aéreas, sus parámetros asociados y con las coordenadas correspondientes a los GCP, se lleva a cabo el proceso de aerotriangulación para el cálculo de los parámetros de orientaciónexterna de las fotografías; se trata de un modelo matemático con ecuaciones de colinealidad y la inclusión de un número significativo de redundancias que permitan dar validez y fiabilidad tanto al sistema como a los resultados del mismo (Cepero, 2015), su principal objetivo consiste en la obtención de los parámetros para posicionar de manera correcta el haz de los rayos de la imagen con respecto a un sistema de referencia vinculado al terreno (Hernández, 2006); o en otras palabras la consecución de coordenadas de numerosos puntos sobre los fotogramas con base a los GCP cuya posición ya es conocida en el terreno, lo cual supone una reducción en los trabajos de campo (J. Pérez, 2001). En la Figura 4 se observa el principio descrito de la orientación externa donde “las coordenadas imagen y el centro de 25 proyección asociado de una fotografía definen un haz espacial de rayos” (J. Pérez, 2001). Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas individuales Fuente:(J. Pérez, 2001) Sobre el modelo matemático para la realización del ajuste se presentan a continuación las ecuaciones de la colinealidad: 𝑥′ = −𝑓 𝑎11(𝑥𝑖 − 𝑥0) + 𝑎12(𝑦𝑖 − 𝑦0) + 𝑎13(𝑧𝑖 − 𝑧0) 𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0) 𝑦′ = −𝑓 𝑎21(𝑥𝑖 − 𝑥0) + 𝑎22(𝑦𝑖 − 𝑦0) + 𝑎23(𝑧𝑖 − 𝑧0) 𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0) Ecuación 1. Ecuaciones de colinealidad en el proceso de orientación externa Fuente: (J. Pérez, 2001) Donde (x’, y’, -f) son las coordenadas de un punto en la fotografía, (x0, y0, z0) las coordenadas del centro de proyección, (xi, yi, zi) las coordenadas de un punto sobre el terreno, (a11, aij,…, anm) los elementos de una matriz A en función de un sistema de referencia tridimensional con rotaciones angulares ω, ϕ, k sobre los ejes x, y, z respectivamente y dados por los giros de la cámara. Presentado el caso las incógnitas a resolver son: x0, y0, z0, ω, ϕ, k; y para ello resulta indispensable realizar 26 en primer lugar la orientación interna en la determinación de parámetros internos y reconstrucción del haz perspectivo de rayos dados por los puntos imagen y el centro de proyección, de este modo se parte de los datos de calibración de la cámara como lo son distancia focal, marcas fiduciales y distorsión (J. Pérez, 2001), por otro lado y con una mínima variación al proceso para el caso de las imágenes digitales se determina el centro de proyección o posición del punto principal de acuerdo al centro de la imagen digital (fila, columna) puesto que tales imágenes carecen de marcas fiduciales, además al tratarse de un proceso automático son suficientes únicamente los parámetros de calibración (A. Gómez & Sandoval, 2016). 5.1.3. Imágenes multiespectrales Partiendo del concepto de radiación electromagnética que como se había citado previamente corresponde al flujo energético constituido entre la cubierta terrestre y un sensor (Chuvieco, 1995), se tiene una colección sobre la escena medida del concepto en mención para cada intervalo de energía empleado y que forman para cada uno, una imagen digital conocida como banda, cuya representación es la distribución espacial de valores de radiación provenientes de la escena de la cubierta terrestre y donde el conjunto de bandas compone una imagen multiespectral. Cabe anotar que la imagen multiespectral no sólo representa la distribución espacial de las propiedades físicas observadas en la escena, sino también la respuesta del sensor y los mecanismos de interferencia presentes en la toma de la escena que pueden resultar como limitantes y degradantes de la información (Lira, 2010). Específicamente y sobre las bandas espectrales, éstas constituyen el espectro electromagnético en función de las longitudes de onda o frecuencia (Figura 5); comprendiendo desde las longitudes 27 de onda más cortas como los rayos gamma y los rayos x, hasta las kilométricas correspondientes a las de tele-comunicación (Chuvieco, 1995). Por otro lado, teniendo en cuenta el concepto de fotografía multiespectral dado por Claros et al., 2016 referido como una “fotografía tomada con cámara multiespectral o con un ensamblaje de varias cámaras con distintos filtros para cubrir distintas porciones del espectro visible y de la región infrarroja cercana” conviene hacer la descripción para estas bandas espectrales: Espectro visible: Se trata de la única radiación electromagnética que se percibe a la vista, esta región está comprendida entre las longitudes de onda de 0,4 a 0,7 μm y sobre la cual se distinguen tres bandas elementales en función a los colores primarios que los ojos perciben a dichas longitudes de onda; estos son el azul (0,4 - 0,5 μm), el verde (0,5 - 0,6 μm), y el rojo (0,6 – 0,7 μm) (Chuvieco, 1995). Infrarrojo cercano: Está comprendido entre las longitudes de onda de 0,7 a 1,3 μm (Chuvieco, 1995), sus aplicaciones se encuentran en la composición de química superficial, vegetación y propiedades bilógicas (Lira, 2010); trascendiendo notablemente por su capacidad de discriminación de masas vegetales y concentración de humedad (Chuvieco, 1995). Figura 5. Espectro electromagnético 28 Fuente: (Chuvieco, 1995) 5.1.4. Modelos Digitales De Elevación Los Modelos Digitales de Elevación se definen como una estructura numérica de datos que representan la distribución espacial con respecto a la altitud en la superficie terrestre. Se trata de una serie de puntos con coordenadas bidimensionales conocidas y a las cuales se les asocia un valor de elevación (INEGI, 1999), de modo que haciendo el uso de tales modelos se pueden cuantificar las características de la superficie del modelo y obtener productos como mapas de pendientes, curvas de nivel y ortofotomosaicos, entre otros (Pucha et al., 2017). Adicionalmente, se distinguen diferentes designaciones de los modelos, estos pueden ser Modelos Digitales de Superficie o Modelos Digitales de Terreno; ambos en la habilidad de representar la superficie del terreno pero con la distinción de que el primero incluye todos los objetos sobre la misma mientras que el otro no los toma en cuenta, este es el caso de plantaciones o edificaciones (S. Pérez, Pérez, & Reyes, 2017). 5.1.5. Ortofotomosaicos Los ortofotomosaicos resultan de la integración de imágenes georreferenciadas y corregidas de deformaciones por lo cual es posible realizar mediciones exactas en estas. Las anteriores son provenientes de las fotografías aéreas y son conocidas como ortoimágenes u ortofotos (Claros et al., 2016); su proceso de corrección llamado ortorrectificación consiste en lograr representar una proyección ortogonal sin efectos de perspectiva de la cámara (Figura 6) que se traduce en deformaciones en conjunto con otros factores como altura de toma, velocidad del movimiento de la cámara (Cepero, 2015), distorsiones propias de la lente además de distorsiones de los objetos causados por desplazamientos debidos al relieve, entre otros que son los que presentan las 29 fotografías aéreas crudas (Quiñones & Segura, 2012), es así que una ortofoto combina la propiedades de detalles de las fotografías aéreas con las propiedades geométricas de un plano (Cepero, 2015). Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal de una ortofoto (derecha) Fuente: (Quiñones & Segura, 2012) 5.2.Estado Del Arte Dentro de las explicaciones que permiten entender la razón acerca del aumento sustancial del uso de UAV’s para aplicaciones diversas (principalmente en la geomática y los productos cartográficos que se derivan de su uso), de las más aceptadas ha sido el avance exponencial en el área computacional, tal y como lo afirman Sona, Pinto, Pagliari, Passoni, & Gini, 2014, este aumento se debe al hecho del “desarrollo de nuevas plataformas equipadascon sistemas automáticos para la planeación y control de los vuelos, junto con la mejora de los sensores y dispositivos de adquisición de datos”, así como también a la difusión de softwares que hacen uso del sistemas de visión por computadora llevando en últimas, nuevos motivos para el uso de los UAV’s como una herramienta para la gestión de la tierra. Adicional a ello, Vollgger & Cruden, 2016 hacen hincapié en que los progresos en el área computacional han permitido generar “nubes tridimensionales densas de puntos georreferenciados a partir de una secuencia de imágenes 30 bidimensionales superpuestas”, que en últimas son el principal insumo para la generación de productos cartográficos como los DEM o las ortofotos, por lo que la obtención de estos productos con UAV también ha aumentado de manera considerable, mientras que James et al., 2017 muestran que estos avances en el hardware “han mejorado rápidamente las capacidades de recopilación de imágenes gracias a la mejora de la estabilidad y el tiempo de vuelo de las plataformas”, desarrollos que han llevado a su aplicación dentro de los levantamientos fotogramétricos gracias a la captura de imágenes óptimas. Por último, autores como Stöcker, Eltner, & Karrasch, 2015 mencionan que estos avances han llevado a la generación de estos productos cartográficos de forma sencilla y con gran exactitud, por lo que los UAV pueden verse como un método efectivo para llevar a cabo levantamientos fotogramétricos. Haciendo mención nuevamente de las limitaciones implicadas en el uso de los UAV’s, pero más específicamente en relación a los sistemas de bajo costo y de carga reducida en los que se emplean cámaras de formato pequeño o medio que hacen de la adquisición de datos un proceso más extenso; esto en el sentido de que han de necesitarse un mayor número de imágenes para conseguir la misma cobertura de imagen a una resolución comparable; razón por la cual y a modo de solución es indispensable contar con un software automatizado de orientación que permita la reducción del tiempo de procesamiento en sectores de código abierto y de bajo costo (Nex & Remondino, 2014). Pese a que Eisenbeiß, 2009 indique que para entonces los paquetes de software comerciales existentes y con aplicación de datos fotogramétricos rara vez soportaban imágenes de UAV por la carencia de implementación de flujos de trabajo estandarizados y de modelos de sensores, el actual crecimiento de los UAV’s en el mercado ha conllevado a los constantes adelantos del hardware y el software usados para el procesamiento de los datos provenientes de esta clase de captura (Lindner, Schraml, Mansberger, & Hübl, 2016), que vistos en conjunto 31 pueden ser entendidos también como estaciones de control terrestre (GCS’s) explicadas como dispositivos estacionarios o transportables en la capacidad de supervisar y ordenar las aeronaves no tripuladas en la ejecución de la misión, destacando de éstas, la interfaz que permiten crear con la inteligencia humana para su control y observación ante cualquier cambio de ruta, errores en la plataforma y resultados (Colomina & Molina, 2014). Particularmente, cabe resaltar que algunos paquetes de software fotogramétricos convencionales cuentan con la capacidad de procesar imágenes tomadas con los UAV’s, sin embargo se tiene el desarrollo de paquetes que además de compilar los fundamentos de la fotogrametría tradicional se encuentran orientados y especializados en el procesamiento de datos de imágenes a partir de UAV’s y cuyo enfoque es habitualmente conocido como estructura del movimiento (SfM) (Gonçalves & Henriques, 2015); se trata de un algoritmo basado en la identificación de patrones y características comunes visualizadas en varias imágenes donde el número de puntos identificados está dado acorde a la textura y resolución de la imagen (Fernández & Gutiérrez, 2016), el anterior es un proceso automatizado de coincidencia de características, su implementación en UAV’s consiste en poder derivar reconstrucciones tridimensionales a partir de una serie de fotografías superpuestas, donde resulta adecuado un alto grado de superposición de la región capturada en diferentes posiciones y orientaciones y sobre las cuales la plataforma móvil se relaciona con el objetivo o escena estática (Turner et al., 2016), además éste método se usa generalmente al realizar procesos fotogramétricos con cámaras no métricas; obteniendo resultados comparables con los métodos tradicionales, incluso con una reducción de tiempo en un 80% sobre la recopilación de los datos en la reconstrucción 3D de superficies y topografía (P. Zarco et al., 2014). 32 Dentro de los factores que afectan la toma de imágenes por medio de UAV, así como la obtención de los diferentes productos cartográficos que pueden derivarse a partir de ellos, se encuentra que dado que estos requieren el uso de cámaras convencionales, es decir sensores ópticos pasivos, se encuentran limitados para la toma de imágenes en sitios con demasiada vegetación, en general Peternel et al., 2017 afirman que dentro de los principales inconvenientes para llevar a cabo levantamientos fotogramétricos, es la presencia de vegetación densa, pues dificulta la reconstrucción métrica, elemento esencial para la generación de las redes de puntos tridimensionales a partir de imágenes bidimensionales, y que en últimas se traducen en más errores para la obtención de productos como lo son los modelos digitales de superficie, y por tanto las ortofotos también. Así mismo, al hacerse uso de cámaras convencionales, que poseen una mayor distorsión de la lente, darán lugar a mayores errores sistemáticos que de hacerse con las cámaras tradicionales para esta clase de trabajos (James et al., 2017), adicionalmente debido a la carencia de receptores GNSS de suficiente calidad a bordo (debido a la carga útil que pueden llevar consigo), hace que sea complicado hacer uso de las posiciones de las cámaras como una medida de control adicional para llevar a cabo los levantamientos (James et al., 2017). Sumado a lo anterior, la altura de vuelo que es un elemento esencial, ya que en primera medida puede causar cambios abruptos en la resolución espacial de las imágenes, dada la relación del GSD (Ground Sample Distance) definida por la altura del sensor respecto al suelo, además de añadir complejidad en la generación de las ortomosaicos si se hace uso de una altura muy pequeña para la captura de los datos (D. Gómez, De Castro, & López, 2014), junto a ello puede hacer que se aumenten los tiempos de procesamiento, ya que a una altura menor se requerirán más fotos para hacer el levantamiento de la misma área que a una mayor altura. Es por ello que autores como Gómez et al., 2014 mencionan que el rango de altura de vuelo óptimo para obtener buenos 33 resultados en la generación de ortofotos con imágenes tomadas con UAV oscila entre los 30 y 100 metros, cabe aclarar que como afirman los mismos autores si se desea “armonizar la resolución espacial altísima y minimizar el tiempo de operación y el número de imágenes tomadas”, la altura de vuelo debe ser lo más alta posible, claro está, sin que esto influya en la perdida de la resolución espacial necesaria para llevar a cabo el estudio planteado. Dadas estas variables, es importante añadir que para solventar todos estos inconvenientes basta con añadir más puntos de control terrestres que en un levantamiento convencional, es decir un mayor control de entrada (James et al., 2017). Autores como Yucel & Turan, 2016 adicionan que “la escala, resolución, y precisión de los puntos de control terrestres son el factor que más afecta la calidad de las imágenes de UAV”, es por ello que poseen un papel primordial en los levantamientos fotogramétricos de este tipo. En el caso de la generación de ortomosaicos, debido a la complejidad de la correspondencia de imágenesexpuesta anteriormente es necesario adquirir de forma precisa estos puntos, puesto que de ello depende la exactitud en el proceso de unión de las ortofotos para dar lugar a los mosaicos de imágenes (D. Gómez et al., 2014), por tanto estos puntos generalmente se señalizan con marcadores pintados en el área, y son levantados bien sea con GPS diferenciales de doble frecuencia o con estaciones totales (Bemis et al., 2014). Es de esa manera, que en últimas haciendo uso del método de georreferenciación directa, la exactitud de las imágenes ortorrectificadas (y por tanto de los mosaicos generados con estas) son dependientes de los errores de navegación de los GPS, así como “la estimación de la longitud focal de la cámara y los parámetros de orientación interior/exterior, y la sincronización imprecisa entre el receptor GPS y la cámara” (Bemis et al., 2014). Sobre los principales factores que contribuyen a los errores de precisión de posición de las ortofotografías obtenidas con UAV’s, Popescu et al., 2016 hacen uso del estándar de la Sociedad 34 Americana de Fotogrametría y Teledetección (ASPRS) conocido como “Precisión de Datos Geoespaciales y el Nuevo Estándar de Precisión Cartográfica”, y asocian la exactitud cartográfica no solamente a la geometría de la cámara y a la altura de vuelo sino también a la calidad de los parámetros de calibración de la cámara, calidad y tamaño del CCD usado en las cámaras digitales, cantidad de imágenes superpuestas, calidad de la determinación de la paralaje, de la señal GNSS y de los controles en tierra, número y distribución espacial de los puntos de verificación de acuerdo al área del proyecto, capacidad del software de procesamiento, el modelo digital de elevación empleado para la generación de las ortofotos, la precisión de la triangulación aérea, y estabilidad del vuelo. Se ha de tener en cuenta que estos factores son susceptibles al cambio de un proyecto a otro acorde al sensor y metodología utilizada, donde la suma de todos los factores determina la exactitud posicional del producto final (Popescu et al., 2016). Cabe adicionar que la evaluación de exactitud de los ortomosaicos con UAV se hace en términos del error medio cuadrático (RMSE); medida que “se expresa generalmente en unidades de tamaño pixeles”, siendo este un indicador basado en los residuos de las coordenadas de la imagen y las coordenadas terrestres (D. Gómez et al., 2014). Por su parte, Popescu et al., 2016 sostiene que aún si se asumieran prácticas en condiciones ideales como el uso de cámaras métricas, control terrestre de alta calidad y procedimientos consistentes, la mejor precisión posible en las ortofotografías equivale a un RMSE de 1 a 1,5 pixeles. Respecto a los residuales en las coordenadas de las imágenes, James et al., 2017 afirman que estos son dependientes de una variedad de factores, que incluyen: “la textura de la imagen, la estabilidad de la geometría de la cámara, y la exactitud del algoritmo de localización de características usado en la correspondencia de las imágenes”. En general, experiencias como las descritas por James et al., 2017 muestran que para tratar de obtener el mínimo RMSE (que indicaría la obtención de un producto con una alta 35 calidad posicional), una buena estrategia dentro del procesamiento es la elección de modelo de cámara adecuado, además de los parámetros pertenecientes a este, que pueden ser determinados mediante un ajuste final usando todos los puntos de control terrestre como puntos de verificación. En síntesis, autores como Uysal et al., 2015 muestran que se pueden obtener productos derivados de fotogrametría con UAV (sean ortomosaicos o DEM) con una exactitud similar a los datos obtenidos en GPS, haciendo que sea “posible usar los datos de fotogrametría con UAV para la producción de mapas, levantamientos y algunas otras aplicaciones ingenieriles con las ventajas de bajo costo, conservación de tiempo, y trabajo de campo mínimo” (Uysal et al., 2015). 5.3.Marco geográfico El Parque Nacional Natural Chingaza ubicado en la cordillera oriental de los Andes se encuentra bajo la jurisdicción de los departamentos de Cundinamarca y Meta, abarcando sectores de once municipios y estando comprendido el 99% del área del parque en la cuenca del Río Orinoco, en las cuencas altas de los ríos Blanco y Negro Guatiquía, Guacavía, Gazaunta, Gazamumo, Humea y Guavio, y el 1% en la cuenca del Río Magdalena representado por la cabecera de la quebrada San Lorenzo, el afluente del Río Teusacá y cabeceras del Río Siecha. Su extensión total es de 76.600 hectáreas, su temperatura se encuentra entre 4 y 21.5°C, con unas variaciones de altura que van desde 800 a 4020 msnm y presentando ecosistemas predominantes de bosques alto andinos, subandinos y páramos (Parques Nacionales Naturales de Colombia, s. f.-b). Se sabe que para el uso de metodologías con UAV´s es necesario que las áreas no sean tan extensas, en este caso es aún más pertinente, puesto que el UAV usado en el proyecto es de tipo multirotor (lo que hace que tenga menos alcance, respecto a uno de ala fija) y dado que el Parque Natural Chingaza tiene una vasta extensión se decidió sobrevolar aproximadamente una hectárea; 36 tomando como centro de la zona de estudio las coordenadas 4º44’52.23’’ N, 73º51’19.38 W (Figura 7). Figura 7. Mapa de la zona de estudio Fuente: Autor, elaborado con datos de (Parques Nacionales Naturales de Colombia, s. f.-a) y (Servicio Geológico Colombiano, 2015) 38 6. Materiales 6.1. Vehículo Aéreo No Tripulado El UAV utilizado para el desarrollo del proyecto fue el TAROT 680 PRO (Figura 8) de tipo multirotor compuesto por 6 rotores, el cual puede sobrevolar y cubrir un área de hasta 70.000 m2 (Sastoque & Gutiérrez, 2016) y cuyas características se presentan en la Tabla 1. Figura 8. UAV TAROT 680 PRO Fuente: Autor Tabla 1. Características de UAV TAROT 680 PRO TAROT 680 PRO Tipo Hexacoptero Dimensiones Diámetro: 680 mm, Altura: 30 cm Peso 3.5 Kg con baterías, máximo peso de despegue 8 Kg Motor 6 motores brushless (sin escobillas) Material Fibra de carbono y plástico Capacidad carga útil 3 Kg Modo de vuelo Automático con waypoints o manual con radiocontrol Tiempo de vuelo 20 minutos flotando en un punto, 12 minutos recorriendo ruta Estación de control en tierra Radiocontrol 14 canales, telemetría para control de misión en tiempo real Posibles sensores Cámara fotográfica, cámara de video, cámara termal, cámara multiespectral Proveedor Grupo de investigación UAV-MARIA Fuente: (Sastoque & Gutiérrez, 2016) 39 6.2. Sensores Las dos cámaras utilizadas son de referencia Canon PowerShot A2300 (Tabla 2), una de las cámaras cuenta con información de las bandas del espectro visible; rojo, verde y azul o en inglés por sus siglas RGB (Figura 9.a), y la otra con la combinación de bandas de infrarrojo cercano, verde y azul o en inglés NIR G B (Figura 9.b), de tal manera que para el uso de ambas cámaras se dispuso de la realización de un montaje y ensamblaje en el UAV que permitiera la ejecución del vuelo con las dos cámaras a bordo (Sastoque & Gutiérrez, 2016). Tabla 2. Especificaciones de la cámara Canon PowerShot A2300 Canon PowerShot A2300 Resolución 16 Megapixeles Máxima resolución de imagen 4608 X 3456 pixeles Formato de imagen JPEG Sensibilidad ISO o a la luz ISO 100, ISO 1600, ISO 200, ISO 400, ISO 800, ISO auto Velocidad máxima de obturación o disparo 1/2000 segundos Velocidad mínima de obturación o disparo 15 segundos Longitud focal mínima 5 mm Longitud focal máxima 25 mm Tipo de sensor CCD Tamaño de sensor 1/2.3” ( ̴ 6.16 X 4.62 mm) Resolución del sensor 4612 X 3468 pixeles Tamaño de pixel calculado 0,0013356 mm Pantalla LCD 6,8 cm (2,72”) Fuente: Elaborada condatos de (CNET, s. f.) y (Digital Camera Database, s. f.) (a) Cámara con bandas RGB (b) Cámara con bandas NIR G B 40 Figura 9. Cámaras Canon PowerShot A2300 Fuente: (Sastoque & Gutiérrez, 2016) Más específicamente, y sobre la preparación de los sensores en cuanto a sus respectiva información de las bandas espectrales Rodriguez, 2015 afirma que este tipo de cámaras digitales que no se han diseñado con fines de uso en la percepción remota constan de un filtro ubicado frente al sensor que restringe la energía electromagnética que éste percibe y se limita a las ondas del espectro visible (Figura 10.a), razón por la cual fue necesario modificar una de las cámaras removiendo el filtro RGB para permitir el ingreso de información en el rango infrarrojo (Figura 10.b). (a) Energía electromagnética con filtro RGB (b) Energía electromagnética sin filtro RGB Figura 10. Energía electromagnética percibida por el sensor Fuente: (Rodriguez, 2015) 6.3. Antena De Recepción Topcon GR-5 El receptor de GNSS GR-5 (Figura 11) fabricado por Topcon es un equipo ideal para el geoposicionamiento, levantamiento del terreno, topografía, diseño e ingeniería civil, levantamientos de construcción y gestión de nivelación. Se caracteriza por su alta fiabilidad en precisión, pues cuenta con un posicionamiento de la mayor precisión para tiempo real cinemático 41 (RTK), redes y demás y actualizaciones de posición de hasta 100 Hz, realiza el seguimiento de cada constelación (Topcon, 2015) teniendo en cuenta que se trata de la combinación de tres de estas o también conocidas como sistemas de posicionamiento originales que son GPS, GLONASS y GALILEO, su diseño es robusto y se integra con hasta 216 canales de seguimiento universales (Topcon, s. f.-a). Algunas especificaciones adicionales se presentan en la Tabla 3. Figura 11. Receptor Topcon GR-5 Fuente: (Topcon, 2015) Tabla 3. Especificaciones generales del receptor Topcon GR-5 Especificaciones generales Señales de seguimiento GPS, GLONASS, Galileo, BeiDou, SBAS, y QZSS Precisión Estático rápido H: 3.0 mm + 0.4 ppm V: 5.0 mm + 0.5 ppm Estático H: 3.0 mm + 0.1 ppm V: 3.5 mm + 0.4 ppm RTK (L1+L2) H: 5 mm + 0.5 ppm V: 10 mm + 0.8 ppm Memoria Tarjeta de memoria SD/SDHC extraíble Temperatura de funcionamiento De -40ºC a 70ºC Proveedor Universidad Distrital F.J.C. Fuente: Elaborada con datos de (Topcon, 2015) 42 6.4. Controlador Topcon FC 2600 El controlador o colector de datos Topcon FC 2600 (Figura 12); suministrado por la Universidad Distrital F.J.C. para el desarrollo del proyecto, ha sido diseñado para ser robusto, confiable y soportar el software de campo Magnet Field, ejecuta el sistema operativo Windows CE6 que permite un rápido funcionamiento (Topcon, s. f.-b). Algunas de sus características a destacar son: Conectividad inalámbrica Bluetooth y WiFi incorporadas. Cámara digital de 5.17 megapíxeles. Baterías accesibles y recargables, así como una larga duración de las mismas. Teclado alfanumérico de 55 teclas. 256MB SDRAM (Topcon, s. f.-b). Figura 12. Controlador Topcon FC 2600 Fuente: (Topcon, s. f.-b) 6.5. Navegador Garmin GPSMAP 64s Receptor GPS y GLONASS (Figura 13) con una alta capacidad de recepción que localiza de forma rápida y precisa las posiciones, cuenta con una amplia selección de mapas topográficos, 43 náuticos y de carreteras que hacen sencilla la incorporación de más mapas, además de funciones robustas de navegación (Garmin & subsidiaries, s. f.). Figura 13. Navegador Garmin GPSMAP 64s Fuente: (Garmin & subsidiaries, s. f.) La siguiente tabla enseña las características propias del navegador Garmin GPSMAP 64s: Tabla 4. Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s Especificaciones físicas y de rendimiento Dimensiones (Ancho/Alto/Profundidad) 6,1 x 16,0 x 3,6 cm Batería 2 pilas AA (no incluidas) Autonomía de la batería 16 horas Memoria 4 GB Señales de seguimiento GPS y GLONASS Altímetro barométrico Sí Brújula Sí (tres ejes con inclinación compensada) Proveedor Universidad Distrital F.J.C. Fuente: Elaborada con datos de (Garmin & subsidiaries, s. f.) 6.6. Software De Procesamiento 6.6.1. Mission Planner Mission Planner es un software utilizado como estación de control terrestre en la preparación inicial, configuración, ejecución de la misión y análisis posterior a esta. Sus principales características son (Cepero, 2015): 44 Configuración en piloto automático para control del UAV. Calibración del UAV para un rendimiento óptimo. Planificación, guardado y carga de misiones autónomas. Descarga y análisis de registros de misión generados por el piloto automático. Supervisión del estado del UAV durante su operación y registros de telemetría récord con mayor información a la de los registros del piloto automático, éstos en casos de usar hardware de telemetría apropiados. Observación, registros de imágenes y análisis. Operación del UAV en FPV (vista en primera persona). 6.6.2. Inpho Software diseñado para la transformación de imágenes aéreas en nubes de puntos, modelos de superficie y mosaicos de ortofotos preservando en cada uno de los anteriores consistencia y precisión mediante técnicas avanzadas de fotogrametría y percepción remota. Cuenta con una estructuración de módulos que pueden usarse ya sea como un sistema en conjunto o como componentes individuales de fácil integración en el proceso fotogramétrico (Trimble, s. f.-a). Los componentes de los módulos son asistidos con ApplicationsMaster que actúa como centro de control proporcionando herramientas básicas en la definición de proyectos y sensores, importación, exportación, conversión y transformación de datos, procesamiento y orientación de imágenes, y manipulación de DTM (Ecogis, s. f.). Los módulos ofrecidos por Inpho son MATCH-AT, MATCH-T DSM, Summit Evolution. DTMaster, SCOP++, OrthoMaster, OrthoVista, UASMaster y LPMaster, cuyas funcionalidades se observan en la Tabla 5. 45 Tabla 5. Funcionalidades por módulo en Inpho Fuente: (Trimble, s. f.-b) Con respecto a los requerimientos de hardware para su uso el sistema operativo debe ser Windows 7 o Vista, contar con una CPU QuadCore como mínimo y de preferencia 8 core o más, memoria RAM mínima de 4 GB o preferiblemente de 16 GB, y tarjeta gráfica nVidia Quadro. 6.6.3. Imagine Photogrammetry (LPS) Imagine Photogrammetry o anteriormente conocido como LPS es un paquete de fotogrametría de fácil entorno para usuarios principiantes o avanzados y que ofrece funcionalidades de alta precisión como triangulación, generación de DEM, ortofotos, mosaicos y extracción de características 3D. Su integración con el software Erdas Imagine hace a este paquete fotogramétrico ideal para proyectos de diferentes tipos de datos y con ello el procesamiento y análisis de imágenes aéreas o satelitales; de modo que incluye numerosos flujos de trabajo aceptando desde fotografías análogas hasta productos de cualquier sensor satelital y en los cuales Funcionalidades MATCH- AT MATCH- T DSM Summit Evolution DTMaster SCOP++ Ortho Master Ortho Vista UAS Master LP Master Fotogrametría digital X X X X X X X X Soporte de imágenes análogas escaneadas X X X X X X Datos de satélite X X X X X X Datos de laser X X X X X Aerotriangulación X X Calibración de cámara X X Extracción de superficie/terreno X X X Procesamiento y generación de DTM X X X 46 se realizan procesamientos de forma automática como orientación interior, medición de puntos de unión, y extracción de puntos del terreno (Hexagon Geospatial, 2017). Algunas otras características que se evidencian en la integración
Compartir