Logo Studenta

DuarteJiménezKarenTatiana2018

¡Este material tiene más páginas!

Vista previa del material en texto

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS 
FACULTAD DE INGENIERÍA 
INGENIERÍA CATASTRAL Y GEODESIA 
 
 
 
 
 
EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA 
GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES 
MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO 
 
 
 
 
 
KAREN TATIANA DUARTE JIMÉNEZ 
 
 
 
 
 
BOGOTÁ 
FEBRERO DE 2018 
2 
 
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS 
FACULTAD DE INGENIERÍA 
INGENIERÍA CATASTRAL Y GEODESIA 
 
 
 
 
EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA 
GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES 
MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO 
 
 
 
KAREN TATIANA DUARTE JIMÉNEZ 
 
 
 
PROYECTO DE GRADO COMO REQUISITO PARCIAL PARA OPTAR AL 
TÍTULO DE INGENIERO CATASTRAL Y GEODESTA 
 
 
 
 
DIRECTOR 
Ph. D. ERIKA SOFÍA UPEGUI CARDONA 
 
 
 
 
BOGOTÁ, COLOMBIA 
FEBRERO DE 2018 
3 
 
 
 
 
NOTA DE ACEPTACIÓN 
_______________________ 
_______________________ 
_______________________ 
_______________________ 
 
 
 
 
 
__________________________________ 
FIRMA DEL DIRECTOR 
ERIKA SOFÍA UPEGUI CARDONA 
 
 
 
__________________________________ 
FIRMA DEL JURADO 
 
 
 
__________________________________ 
FIRMA DEL JURADO 
 
 
 
 
BOGOTÁ D.C. FEBRERO DE 2018 
4 
 
Tabla De Contenido 
 
1. Introducción ..................................................................................................................... 8 
2. Definición Del Problema .................................................................................................. 9 
3. Justificación .................................................................................................................... 11 
4. Objetivos ........................................................................................................................ 13 
4.1. Objetivo General ........................................................................................................... 13 
4.2. Objetivos Específicos .................................................................................................... 13 
5. Marco Referencial .......................................................................................................... 13 
5.1. Marco Teórico ............................................................................................................ 13 
5.1.1. Plataformas UAV ................................................................................................ 13 
5.1.2. Proceso fotogramétrico ....................................................................................... 16 
5.1.3. Imágenes multiespectrales................................................................................... 26 
5.1.4. Modelos Digitales De Elevación ......................................................................... 28 
5.1.5. Ortofotomosaicos ................................................................................................ 28 
5.2. Estado Del Arte .......................................................................................................... 29 
5.3. Marco geográfico ........................................................................................................ 35 
6. Materiales ....................................................................................................................... 38 
6.1. Vehículo Aéreo No Tripulado .................................................................................... 38 
6.2. Sensores ...................................................................................................................... 39 
6.3. Antena De Recepción Topcon GR-5 .......................................................................... 40 
6.4. Controlador Topcon FC 2600 ..................................................................................... 42 
6.5. Navegador Garmin GPSMAP 64s .............................................................................. 42 
6.6. Software De Procesamiento........................................................................................ 43 
6.6.1. Mission Planner ................................................................................................... 43 
6.6.2. Inpho.................................................................................................................... 44 
6.6.3. Imagine Photogrammetry (LPS) ......................................................................... 45 
6.6.4. Agisoft PhotoScan ............................................................................................... 46 
6.6.5. Pix4D Mapper ..................................................................................................... 49 
6.6.6. Drone2Map.......................................................................................................... 50 
7. Metodología ................................................................................................................... 51 
7.1. Fase 1: Documentación e Investigación ..................................................................... 53 
7.2. Fase 2: Operativa ........................................................................................................ 54 
7.3. Fase 3: Análisis ........................................................................................................... 54 
8. Resultados ...................................................................................................................... 55 
8.1. Proceso Fotogramétrico: Primera Etapa ..................................................................... 55 
5 
 
8.2. Selección de Softwares y Trámite de Licencias ......................................................... 59 
8.3. Proceso Fotogramétrico: Segunda Etapa .................................................................... 60 
8.3.1. Procesado de datos con softwares convencionales ............................................. 61 
8.3.2. Segundo control terrestre .................................................................................... 71 
8.3.3. Procesado de datos con softwares orientados a los UAV’s ................................ 73 
9. Análisis de Resultados ................................................................................................... 87 
9.1. Precisión Geométrica .................................................................................................. 88 
9.2. Calidad Visual ............................................................................................................ 89 
9.3. Tiempo De Procesamiento .......................................................................................... 99 
9.4. Facilidad De Uso ...................................................................................................... 100 
9.5. Costo ......................................................................................................................... 100 
10. Conclusiones ................................................................................................................ 101 
11. Bibliografía................................................................................................................... 103 
 
Índice De Figuras 
 
Figura 1. Modelo de vuelo fotogramétrico .............................................................................. 19 
Figura 2. Segmentos GNSS ...................................................................................................... 22 
Figura 3. Calibración del UAV en posición horizontal y vertical ............................................ 24 
Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas 
individuales ................................................................................................................................... 25 
Figura 5. Espectroelectromagnético ........................................................................................ 27 
Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal 
de una ortofoto (derecha) .............................................................................................................. 29 
Figura 7. Mapa de la zona de estudio ....................................................................................... 37 
Figura 8. UAV TAROT 680 PRO ............................................................................................ 38 
Figura 9. Cámaras Canon PowerShot A2300 .......................................................................... 40 
Figura 10. Energía electromagnética percibida por el sensor .................................................. 40 
Figura 11. Receptor Topcon GR-5 ........................................................................................... 41 
Figura 12. Controlador Topcon FC 2600 ................................................................................. 42 
Figura 13. Navegador Garmin GPSMAP 64s .......................................................................... 43 
Figura 14. Flujo metodológico ................................................................................................. 52 
Figura 15. Plan de vuelo ........................................................................................................... 56 
Figura 16. Control terrestre ...................................................................................................... 57 
Figura 17. Toma de GCP (marcas físicas artificiales) en campo ............................................. 57 
Figura 18. Fotografías aéreas en condiciones de neblina ......................................................... 58 
Figura 19. UAV en ejecución del vuelo y en aterrizaje ........................................................... 58 
Figura 20. Datos GPS/IMU registrados en un vuelo ................................................................ 59 
Figura 21. Distribución de GCP ............................................................................................... 60 
Figura 22. Definición de parámetros de la cámara en Inpho ................................................... 62 
Figura 23. Importación de datos GPS/IMU y asignación de desviaciones en Inpho ............... 63 
Figura 24. Importación de coordenadas de GCP y asignación de desviaciones en Inpho ....... 63 
file:///C:/Users/USER/Documents/UAV/Tesis%20Versión%202.docx%23_Toc507445221
6 
 
Figura 25. Asignación de fotografías correspondientes por línea de vuelo en Inpho .............. 64 
Figura 26. Visualización de líneas de vuelo, fotografías y GCP en Inpho .............................. 64 
Figura 27. Localización de los GCP en Inpho ......................................................................... 65 
Figura 28. Inicialización de la orientación externa en Inpho ................................................... 66 
Figura 29. Error en ajuste fotogramétrico en Inpho ................................................................. 66 
Figura 30. Alteración en la visualización de líneas de vuelo, fotografías y GCP en Inpho ..... 67 
Figura 31. Definición de parámetros de la cámara en LPS ...................................................... 68 
Figura 32. Carga de datos GPS/IMU por fotografía en LPS .................................................... 68 
Figura 33. Localización de los GCP en LPS ............................................................................ 69 
Figura 34. Visualización de GCP y fotografías en LPS ........................................................... 69 
Figura 35. Error en la generación automática de puntos tie en LPS ........................................ 70 
Figura 36. Error en triangulación en LPS ................................................................................ 70 
Figura 37. Toma de GCP (marcas físicas naturales) en campo ............................................... 72 
Figura 38. Carga de datos GPS/IMU por fotografía en Agisoft PhotoScan ............................ 74 
Figura 39. Parámetros de la cámara detectados por Agisoft PhotoScan .................................. 75 
Figura 40. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados ..... 77 
Figura 41. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados y 
fotoidentificados ........................................................................................................................... 78 
Figura 42. Proceso en Agisoft PhotoScan para el Vuelo 2 NIR G B con GCP preseñalizados 78 
Figura 43. Carga de datos GPS/IMU por fotografía en Pix4D Mapper ................................... 79 
Figura 44. Definición de parámetros de la cámara en Pix4D Mapper ..................................... 80 
Figura 45. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados ........... 82 
Figura 46. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados y 
fotoidentificados ........................................................................................................................... 82 
Figura 47. Proceso en Pix4D Mapper para el Vuelo 2 NIR G B con GCP preseñalizados ..... 83 
Figura 48. Carga de datos GPS por fotografía en Drone2Map ................................................ 84 
Figura 49. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados ................ 86 
Figura 50. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados y 
fotoidentificados ........................................................................................................................... 86 
Figura 51. Proceso en Drone2Map para el Vuelo 2 NIR G B con GCP preseñalizados ......... 87 
Figura 52. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP 
preseñalizados ............................................................................................................................... 90 
Figura 53. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP 
preseñalizados y fotoidentificados ................................................................................................ 91 
Figura 54. Comparación de ortofotomosaicos obtenidos del Vuelo 2 NIR G B con GCP 
preseñalizados ............................................................................................................................... 92 
 
Índice De Tablas 
 
Tabla 1. Características de UAV TAROT 680 PRO ............................................................... 38 
Tabla 2. Especificaciones de la cámara Canon PowerShot A2300 ......................................... 39 
Tabla 3. Especificaciones generales del receptor Topcon GR-5 ............................................. 41 
Tabla 4. Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s .... 43 
Tabla 5. Funcionalidades por módulo en Inpho ...................................................................... 45 
Tabla 6. Funcionalidades de Agisoft PhotoScan en Versión Estándar y Versión Profesional 48 
7 
 
Tabla 7. Requisitos mínimos y recomendados del sistema para el uso de Drone2Map ......... 50 
Tabla 8. Parámetros para la planeación del vuelo ................................................................... 55 
Tabla 9. Coordenadas de los GCP preseñalizados .................................................................. 60 
Tabla 10. Características de los equipos usados en la ejecución de los paquetes 
fotogramétricos ............................................................................................................................. 61 
Tabla 11. Número de fotografías identificadas para cada GCP .............................................. 71 
Tabla 12. Características y coordenadas de los GCP fotoidentificados .................................. 72 
Tabla 13. Parámetros usados en el procesamientode Agisoft PhotoScan .............................. 78 
Tabla 14. Parámetros usados en el procesamiento de Pix4D Mapper ..................................... 83 
Tabla 15. Parámetros usados en el procesamiento de Drone2Map ......................................... 87 
Tabla 16. RMSE de GCP y reproyección de acuerdo al software y proceso .......................... 89 
Tabla 17. Comparación de errores visuales para los ortofotomosaicos en RGB .................... 93 
Tabla 18. Comparación de errores visuales para los ortofotomosaicos en NIR G B .............. 94 
Tabla 19. Información de los subprocesos y producto final ................................................... 96 
Tabla 20. Imágenes calibradas por procesamiento.................................................................. 97 
Tabla 21. Visualización de calibración de imágenes en los modelos de Pix4D Mapper y 
Drone2Map ................................................................................................................................... 98 
Tabla 22. Tiempos de procesamiento ...................................................................................... 99 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8 
 
1. Introducción 
El creciente y constante avance tecnológico ha incursionado en las últimas décadas en la 
creación de nuevas técnicas fotogramétricas mediante el desarrollo de Vehículos Aéreos No 
Tripulados; sistemas con ventajas y resultados excepcionales en contraste con las técnicas 
tradicionales que parten del uso de plataformas aéreas tripuladas, tales como datos espaciales 
precisos, generación de datos de forma periódica, bajo costo, aplicaciones en inspección, 
reconocimiento y cartografía con alta resolución espacial y temporal (Uysal, Toprak, & Polat, 
2015), captura de imágenes aéreas en zonas de difícil acceso o inaccesibles (Peternel, Kumelj, 
Oštir, & Komac, 2017), facilidad de despliegue en campo de los puntos de control terrestres y 
medición de los mismos al usarse típicamente esta clase de vehículos para escalas espaciales más 
pequeñas que en los levantamientos aéreos convencionales (James, Robson, d’Oleire-Oltmanns, 
& Niethammer, 2017), y finalmente su significancia como medio complementario entre las 
adquisiciones terrestres y aéreas clásicas (Popescu, Iordan, & Păunescu, 2016), entre otros. 
En conjunto y paralelo al desarrollo de tecnologías para la captura de fotografías aéreas, surge 
el progreso de paquetes de software fotogramétricos con compilación de los principios de la 
fotogrametría digital tradicional y un énfasis hacia el procesamiento de datos capturados con 
Vehículos Aéreos No Tripulados (Gonçalves & Henriques, 2015), fundamentados mediante un 
algoritmo conocido como “estructura del movimiento” para la identificación de patrones en las 
imágenes e impulsado por una lógica de producción automatizada (Turner, Harley, & Drummond, 
2016), que permite una reducción de tiempo de hasta un 80% en comparación con métodos 
tradicionales (P. Zarco, Diaz, Angileri, & Loudjani, 2014). 
9 
 
En este trabajo de grado se aplicaron procesos fotogramétricos desde trabajos de campo en el 
Parque Nacional Natural Chingaza con la toma de fotografías aéreas multiespectrales capturadas 
por un Vehículo Aéreo No Tripulado TAROT 680 PRO equipado con cámaras digitales Canon 
PowerShot A2300 y la toma de datos de puntos de control terrestres, hasta trabajos de oficina con 
el procesamiento de imágenes para la reconstrucción de geometría tridimensional de la escena, 
georreferenciación, generación de Modelos Digitales de Superficie y finalmente ortofotomosaicos; 
esto mediante el uso de diferentes softwares tanto convencionales como orientados a Vehículos 
Aéreos No Tripulados a modo de comparación en resultados como la precisión geométrica y 
calidad visual, y factores intrínsecos de los mismos como el costo, la facilidad de uso y el tiempo 
de procesamiento. 
2. Definición Del Problema 
“Actualmente, los sensores remotos aéreos y satelitales son formas comunes para adquirir datos 
de monitoreo de recursos naturales en la mayoría de países, pero ellos no son lo suficientemente 
efectivos, rápidos y exactos” (Xing, Wang, & Xu, 2010),esto debido a que el procesamiento de los 
datos no se da en tiempo real, esto es, las imágenes generalmente se procesan fuera de línea en su 
llegada a la estación terrestre (en el caso de los satélites) o después del aterrizaje (Wischounig & 
Rinner, 2015), sumado al hecho de que cada vez se requieren datos con mayor resolución espacial 
para múltiples aplicaciones. Adicional a ello, “la adquisición de imágenes por parte de satélites y 
vehículos aéreos tripulados muestra algunas limitaciones, como los altos costos de 
lanzamiento/vuelo, adquisición de datos lenta y dependiente del clima, maniobrabilidad restringida 
y disponibilidad limitada”(Cesetti et al., 2011). 
10 
 
Tal y como lo expresan Hunt et al., 2010 el costo elevado en la adquisición de imágenes por 
medio de vehículos aéreos tripulados se debe principalmente al uso de cámaras de formato amplio, 
que evidentemente poseen un costo mayor que las cámaras convencionales debido a su propósito. 
Además de “la dificultad técnica implicada en la captura de imágenes frecuentes de un área 
geográfica determinada”(Zarco et al., 2008). Es así, que para solventar los inconvenientes que 
poseen las técnicas de adquisición de imágenes tradicionales (costo, tiempo, detalle), este proyecto 
de grado pretende hacer uso de un Vehículo Aéreo No Tripulado (cuyas siglas en inglés son UAV) 
para llevar a cabo un levantamiento fotogramétrico. 
En general, y teniendo en cuenta las principales desventajas de la adquisición de imágenes por 
plataformas aéreas y satelitales, se optará por realizar este levantamiento en una zona cuyas 
condiciones medioambientales hacen difícil la obtención de imágenes por métodos 
convencionales, para así demostrar si los UAV son una alternativa para la toma de datos en esta 
clase de condiciones, tal y como lo describen distintos trabajos (Xing et al., 2010). 
De tal forma, y con base en la afirmación de Hunt et al., 2010 se usará una cámara convencional 
a bordo de un UAV para la captura de imágenes multiespectrales en el páramo de Chingaza, más 
específicamente con centro en las coordenadas 4º44’52.23’’ N, 73º51’19.38 W con un área de 
estudio aproximada de una hectárea. Se escoge esta zona, principalmente por las condiciones 
climáticas que impiden realizar un monitoreo constante de una zona endémica y de vital 
importancia para la preservación del recurso hídrico, sumado al hecho que se trata de una extensión 
con cobertura vegetal significativa y que acorde a la revisión bibliográfica, tal condición limita la 
obtención de productos cartográficos libres de error, dada la complejidad de llevar a cabo la 
correspondencia de imágenes en la cual se basa la actual fotogrametría digital, de esta manera se 
11 
 
espera evaluar la posibilidad de lograr productos con buena precisión a partir de imágenes tomadas 
con UAV en una zona que trae complicaciones como esta. 
Como resultado se busca obtener un mosaico de ortofotos generadas con las imágenes 
capturadas de este levantamiento, esto gracias al procesamiento en cinco softwares 
fotogramétricos con el fin de demostrar que este método de adquisición de imágenes permite 
generar diferentes productos cartográficos. Finalmente, y con el fin de realizar una aproximación 
a un usuario interesado por cualquier ortomosaico generado con imágenes tomadas por un UAV, 
se realizará una comparación en cuanto a las características obtenidas de cada producto en los 
softwares usados, a fin de establecer acorde a las necesidades y características particulares del 
usuario, cuál sería el software más adecuado para tal obtención. 
3. Justificación 
Los UAV’s son vehículos motorizados de control remoto que pueden ser manejados de forma 
autónoma o semi-autónoma,por lo que la principal diferencia respecto a otros vehículos es la 
ausencia de un piloto dentro del vehículo, sin embargo se requiere de una tripulación responsable 
de este. Por ende, la fotogrametría de UAV puede ser entendida como una nueva herramienta de 
medición fotogramétrica que hace uso de una plataforma controlada de forma remota, bien sea de 
una forma automática o semi-automática (Eisenbeiß, 2009), o también, vista como un 
complemento a la fotogrametría de aviones tripulados con la capacidad de disponer de soluciones 
rápidas sin mayor infraestructura alguna (Gomez & Purdie, 2016). No obstante, Uysal et al., 2015 
afirman que el uso de los UAV’s se establece como una alternativa a la captura tradicional de datos 
dirigida a aplicaciones cartográficas con alta resolución espacial y temporal, además de representar 
bajos costos con respecto a la fotogrametría clásica. En este sentido, ante a la creciente demanda 
12 
 
de adquisición de imágenes aéreas con alta resolución, y la dificultad de uso y consumo de tiempo 
explicados por la carencia de información auxiliar suficientemente precisa (Gross & Heumann, 
2016), se ha revolucionado actualmente el sector aeroespacial con la aplicación de los UAV’s 
como solución a las falencias mencionadas en términos de adquisición y procesamiento de datos 
espaciales (Fernández & Gutiérrez, 2016), esto en conjunto con las demás ventajas características 
de tales vehículos como lo son: el acceso a entornos peligrosos para la vida humana, la inexistencia 
de permisos de control aéreos para vuelos de baja altitud en gran parte de los países, la obtención 
de productos y datos de posicionamiento con alta calidad y precisión (Xing et al., 2010), la 
habilidad para adquirir económica y sistemáticamente conjuntos de fotografías aéreas en altitudes 
entre los 10 y los 100 metros (Vollgger & Cruden, 2016), la minimización de los errores humanos 
reduciendo de esa manera posibles accidentes, la maniobrabilidad de alto rendimiento, amplio 
rango de uso (Vogeltanz, 2016) en inspección, vigilancia, reconocimiento y cartografía en tiempo 
real; hace que la fotogrametría con UAV sea no sólo importante en la geomática sino también en 
otras disciplinas (Uysal et al., 2015), ejemplo de ello es su aplicación en los ámbitos forestales, 
agrícolas, medioambientales, arqueológicos y arquitectónicos, en gestión de emergencias y 
vigilancia del tráfico (Nex & Remondino, 2014). 
Dada la amplia utilización de las imágenes adquiridas con UAV’s, y los diferentes softwares 
propuestos en el mercado, este trabajo de grado busca evaluar el rendimiento y desempeño para la 
generación de productos cartográficos en cinco softwares fotogramétricos, a saber, Inpho, Imagine 
Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map, a través de la 
evaluación de los ortofotomosaicos producidos, esto basado en el avance computacional de los 
últimos años que ha permitido la incursión de la fotogrametría con UAV (James et al., 2017). 
13 
 
4. Objetivos 
4.1. Objetivo General 
Evaluar el desempeño de distintos softwares para la generación de ortofotomosaicos a partir 
de imágenes multiespectrales tomadas con un vehículo aéreo no tripulado. 
4.2. Objetivos Específicos 
1. Realizar las actividades relativas a la señalización y materialización de los puntos de control 
terrestres, que permitirán realizar posteriormente el ajuste de las imágenes capturadas de la 
zona de estudio. 
2. Obtener un ortomosaico desarrollado en cinco softwares fotogramétricos (a saber Inpho, 
Imagine Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map) a partir 
del levantamiento realizado en la zona de estudio. 
3. Realizar una comparación cuantitativa y cualitativa entre los productos cartográficos 
obtenidos por cada software acorde a las características propias de éstos con fines de la 
elección del usuario a adquirir los productos cartográficos obtenidos por este medio. 
5. Marco Referencial 
5.1. Marco Teórico 
5.1.1. Plataformas UAV 
Las plataformas UAV en su habilidad para la adquisición de fotografías aéreas a resoluciones 
que no pueden lograrse por medio de las técnicas tradicionales (Vollgger & Cruden, 2016); dados 
los vuelos a altitudes significativamente más bajas en un orden de menos de 100 metros sobre el 
14 
 
nivel del suelo para unas resoluciones espaciales finas de hasta 1 centímetro (Gross & Heumann, 
2016), hacen que su uso se haya intensificado específicamente en las geociencias (Vollgger & 
Cruden, 2016). Sumado al hecho de que los UAV son una alternativa efectiva en términos de 
costos para el proceso de adquisición de imágenes (Gross & Heumann, 2016); siendo menos 
costosas las plataformas y los costos operativos que los aviones tripulados por lo general 
(Eisenbeiß, 2009), que pueden acceder a zonas peligrosas o de difícil acceso para las aeronaves 
tripuladas (Gross & Heumann, 2016), que aún en condiciones de tiempo nublado es posible la 
adquisición de datos en caso que la distancia al objeto permita volar por debajo de las nubes; 
situación que bajo las mismas condiciones climáticas y el uso de aviones tripulados no permitiría 
la captura de datos al requerirse una mayor altura de vuelo sobre el suelo (Eisenbeiß, 2009). 
Adicionalmente, la facilidad para la medición en campo y despliegue de los puntos de control 
terrestres al usarse en áreas significativamente menores que en el caso de los levantamientos 
convencionales (James et al., 2017), y finalmente su capacidad para la consecución rápida de datos 
y en tiempo real a la estación de control terrestre (Eisenbeiß, 2009), hacen que los UAV sean 
ampliamente utilizados actualmente. 
En este sentido, “los UAV’s se presentan como tecnologías muy prometedoras que seguirán 
influyendo en el desarrollo de la geomática en los próximos años, cerrando la brecha entre 
adquisiciones terrestres y aéreas clásicas” (Popescu et al., 2016). De esta manera la combinación 
de métodos fotogramétricos con los UAV’s proporcionan los datos necesarios para la creación de 
productos cartográficos como Modelos Digitales de Superficie (DSM), Modelos Digitales de 
Elevación (DEM) (Gomez & Purdie, 2016), nubes de puntos en 3D (Yucel & Turan, 2016), mapas 
topográficos con alta precisión usados para levantamientos catastrales (Lee & Sung, 2016), así 
como para la rectificación de imágenes y sus derivados que bien pueden ser mosaicos de imágenes 
15 
 
o mapas utilizados en la interpretación de imágenes (Eisenbeiß, 2009). De acuerdo a 
Nikolakopoulos, Soura, Koukouvelas, & Argyropoulos, s. f. los estudios demuestran que los 
productos en mención pueden lograr una gran exactitud y ser usados para realizar mediciones 
precisas pese a las fuentes de error que pueden incluir los trabajos basados en UAV’s; y es así que 
en esencia, para la adquisición de datos espaciales de forma productiva y segura se debe hacer 
desde el diseño planificado y de la inclusión de capacidad flexible de gestión de misión en tiempo 
real, los instrumentos a emplear para su consecución (Colomina & Molina, 2014), Dichos 
elementos, representan un papel trascendental en la automatización del procesamiento de datos, 
que permiten la reducción de esfuerzo y tiempos invertidos en los procesos (Popescu et al., 2016). 
Por otro lado y acorde a las aplicaciones geomáticas, los UAV’s pueden clasificarse en 
consonancia a su motor o sistema de propulsión en plataformas sin potencia y plataformas 
accionadas, y alternativamente según sus características aerodinámicas y físicas en plataformas 
más ligeras que el aire, de ala rotativa (Nex & Remondino, 2014); vehículos de despegue y 
aterrizaje verticales (Gabrlik, 2015), y de ala fija (Nex & Remondino, 2014); siendo estos dos 
últimos tipos de plataformas distinguidos por sus capacidades de alcance, donde los UAV’s de ala 
rotativa poseen un corto alcance (hasta de 2 Km) y son utilizados para misiones de escalalocal, en 
contraste a los UAV’s de ala fija que son caracterizados por una precisión de largo alcance (Gomez 
& Purdie, 2016) con un rango de hasta decenas de kilómetros (Gabrlik, 2015); por lo que en una 
escala regional su uso es más apropiado al permitir la cobertura de grandes áreas en un corto 
periodo de tiempo (Gomez & Purdie, 2016). Cabe adicionar que autores como Bemis et al., 2014 
afirman que “para estudios que requieren una alta resolución, los UAV’s de ala rotativa tienen 
ventajas significativas respecto a los UAV’s de ala fija, porque estos pueden volar a alturas 
excepcionalmente bajas con cámaras que son generalmente de mayor calidad (respecto al tamaño 
16 
 
del vehículo) montadas en una plataforma estable”. Sin embargo, se destaca de los UAV’s de ala 
fija su estabilidad inherente y su fácil maniobrabilidad; siendo controlados remotamente sin 
ninguna estabilización, esto en comparación con los de ala rotativa cuyas turbinas no son estables 
y hacen necesario el uso de algún tipo de sistema de estabilización ya sea mecánico o electrónico 
(Gabrlik, 2015). 
Adicional a lo anterior, los UAV se pueden clasificar de acuerdo al tamaño o peso, altura 
máxima de vuelo, duración del mismo y resistencia; donde el último aspecto se encuentra 
influenciado por la autonomía del vuelo, la disponibilidad del enlace del radio para controlar el 
avión y el enlace de telemetría; en clases de micro, mini, clases de corto, medio y largo alcance, 
así como de baja, media y alta altitud (Eisenbeiß, 2009). 
Teniendo en cuenta las características previas en mención no se puede obviar el hecho que el 
uso de los UAV’s como herramienta para la captura de imágenes se encuentra aún limitada, ya 
sea por la propias limitaciones técnicas de los mismos como es el caso del rango o capacidades de 
vuelo, por la necesidad de contar aún con puntos de control terrestres para la obtención de una alta 
precisión, por las más recientes leyes de aviación debido al auge de los vehículos aéreos citados, 
o por las condiciones de luz y climáticas (Gomez & Purdie, 2016); o en general influencias 
ambientales que inciden en la alteración de los ángulos de posición que ocasionan vistas en 
perspectivas arbitrarias (Wischounig & Rinner, 2015). 
5.1.2. Proceso fotogramétrico 
La fotogrametría siendo por lo general, una rama de la ciencia orientada al procesamiento de 
información a partir de fotografías, se ocupa de la reconstrucción de formas, medición del tamaño 
y posición de los objetos visibles en las mismas. De ésta se desencadena no solamente la 
17 
 
fotogrametría aérea en sus clases sino que también se encuentra la fotogrametría que utiliza datos 
terrestres o fotográficos espaciales, haciendo así uso de diversas tecnologías y métodos de 
procesamiento que han marcado una progresión histórica partiendo desde técnicas analógicas y 
analíticas hasta técnicas digitales y automáticas (Gabrlik, 2015). 
En lo concerniente a la teledetección; definida como aquella técnica que “supone la observación 
exterior de la superficie terrestre” (Chuvieco, 1995) a distancia y posible gracias a algún tipo de 
interacción existente entre los objetos y el sensor a través de un flujo energético que constituye 
una forma de radiación electromagnética. En sus orígenes espaciales se tenían factores 
diferenciales frente a la fotogrametría aérea, siendo el caso que en teledetección los sensores CCD 
(Dispositivos de Acoplamientos de Cargas) permitían el trabajo en una amplia gama de radiaciones 
en el espectro electromagnético, mientras que en fotogrametría las cámaras analógicas usadas para 
entonces se limitaban al espectro visible únicamente. En cuanto a la resolución espacial para la 
fotogrametría la altura de vuelo y calidad fotográfica hacía que ésta alcanzara un valor inferior a 
0,10 m; muy por debajo de la teledetección que contaba con valores superiores a 10 m por su 
dependencia del tipo de sensor y los parámetros orbitales de los satélites. Hoy en día la concepción 
entre estos términos es otra, pues se reconoce que la fotogrametría hace parte de la teledetección 
y la evolución sobre estos ha hecho que los factores diferenciales en mención desaparezcan, esto 
a causa de que la fotogrametría ha incorporado sensores CCD y que la teledetección ha alcanzado 
resoluciones espaciales inferiores al metro (Hernández, 2006). 
Haciendo énfasis en la fotogrametría aérea, Gabrlik, 2015 sostiene que hablar de su desarrollo 
requiere remontarse a más de cien años atrás con la toma de las primeras fotografías en globos de 
aire caliente y aviones tripulados que permitieron el progreso técnico constante, a tal punto que, 
en la actualidad difícilmente se encuentra un lugar en la Tierra que no haya sido mapeado, lo 
18 
 
anterior gracias a la implementación de satélites, aviones tripulados diseñados con fines 
cartográficos y más recientemente de manera innovadora el uso de los UAV’s como una alternativa 
para mapear rápidamente un área local con bajos costos (Gabrlik, 2015), sin embargo su desarrollo 
inicial estaba dirigido a aplicaciones militares con el objeto de realizar inspecciones no tripuladas, 
vigilancia y reconocimiento de la cartografía en áreas enemigas, y sólo hace tres décadas se 
realizaron las primeras aplicaciones civiles y geomáticas que impulsaron en gran medida la mejora 
de las plataformas, tecnologías de comunicación y software, la posibilidad de sus aplicaciones y 
la implementación de estas plataformas como un elemento común para la adquisición de datos 
(Nex & Remondino, 2014); adicional a ello “la evolución de los UAV’s a lo largo del siglo XX y 
principios del siglo XXI no ha sido el concepto de vehículos aéreos sin pilotos, sino la posibilidad 
de controlarlos con mayor precisión y tenerlos más autónomos” (Gomez & Purdie, 2016). 
Acorde al procedimiento general para la toma y procesamiento de imágenes aéreas Cepero, 
2015 sostiene que el flujo de trabajo se basa en cuatro puntos fundamentales como sigue: 
1. Plan de vuelo: Con el fin de garantizar una operación exitosa es indispensable la 
planificación del vuelo fotogramétrico que depende del tipo de aplicación, de los detalles 
a capturar en la zona de vuelo (Eisenbeiß, 2009) y con ello la resolución espacial o escala 
que se pretenda obtener dados por la altura de vuelo, la definición de la ruta, velocidad de 
ascenso o desplazamiento, inclinación de la cámara, punto de captura de la fotografía 
(Cepero, 2015), líneas de vuelo y su longitud media (Claros, Guevara, & Pacas, 2016), así 
como la definición de superposición o traslape de imágenes; siendo común en los planes 
de misión para la fotogrametría con UAV’s una superposición grande con un 80% para la 
longitudinal o frontal y en un rango de 60-80% para la transversal o lateral (Figura 1), esto 
como compensación a la inestabilidad de la aeronave (Colomina & Molina, 2014) y 
19 
 
garantía de una fácil detección de los puntos de unión a utilizar en la orientación de 
imágenes (Saleri et al., 2013). Además de ajustar el plan de vuelo a las condiciones de 
viento de la zona en el momento de llevarlo a cabo, pues su gestión en tiempo real cumple 
un papel clave en este primer proceso (Colomina & Molina, 2014). 
 
Figura 1. Modelo de vuelo fotogramétrico 
Fuente: (Claros et al., 2016) 
2. Apoyo Topográfico: Se hace necesaria la obtención de posiciones precisas sobre el terreno 
para lograr una georreferenciación acertada del producto a obtener, principal fundamento 
para usar puntos sobre el terreno que puedan identificarse fácilmente en las fotografías 
aéreas asegurando una correcta correlación y una minimización de errores (Cepero, 2015) 
debido a la imprecisión del Sistema de Posicionamiento Global (GPS) de metros a 
centímetros (Claros et al., 2016). Las anteriores posiciones son conocidas como puntos de 
control terrestre (GCP, por sus siglas en inglés) que hacen referencia a marcas físicas yasean naturales o artificiales establecidas de forma uniforme en el área de estudio y sobre 
las cuales se realiza la toma de datos de su posición (Gabrlik, 2015) planimétrica y 
altimétrica. Estas posiciones permiten obtener las coordenadas a utilizar como 
20 
 
comprobación de la precisión y cubrimiento a los fallos en la técnica fotogramétrica (Claros 
et al., 2016). 
Sobre el número de los GCP Claros et al., 2016 afirman que la cantidad depende o se 
encuentra en función de la precisión relativa de las coordenadas de las fotografías, sin 
embargo sostienen que en términos generales para realizar el ajuste se necesitan como 
mínimo tres GCP y en caso de tratarse de proyectos grandes se hace la recomendación del 
uso de 5 a 10; aclarándose que el hecho de hacer uso de más puntos no implica una mejora 
representativa en los resultados a obtener así como tampoco los afecta de forma negativa 
(Claros et al., 2016). En este orden de ideas, lo que se busca además de georreferenciar las 
imágenes es contar con un número suficiente de GCP; dados también por la complejidad 
del área de estudio, que permitan derivar nubes de puntos de alta calidad útiles para la 
adquisición de características y análisis que tengan cabida en el proyecto desarrollado (Nex 
& Remondino, 2014). 
Haciendo alusión a la toma de datos, pero no sin antes enfatizar en las dos clases de 
georreferenciación aplicadas a la técnica fotogramétrica y denominadas como directa e 
indirecta, se acentúa entre ellas la distinción de la interacción con el área medida. La 
georreferenciación directa es una medición sin contacto con el área de estudio; útil en zonas 
inaccesibles o peligrosas, y posible gracias a los sensores a bordo que permiten la obtención 
de la orientación exterior, la precisión alcanzada para las coordenadas obedece a la 
precisión con la que cuentan los sensores a bordo. Generalmente los sensores en mención 
con los que cuentan los UAV’s son receptores de Sistema Global de Navegación Satelital 
por Cinemática en Tiempo Real (RTK GNSS) que permiten una precisión al orden del 
centímetro (Popescu et al., 2016); así como también se presentan para el caso de los micro 
21 
 
UAV’s receptores GNSS de bajo costo o comúnmente GPS con precisión en su posición 
en unidades de metros, sumado a una Unidad de Medición Inercial (IMU) (Gabrlik, 2015) 
equipada con acelerómetros y giroscopios para llegar a una precisión de orientación al 
orden de hasta pocas décimas de grado (Popescu et al., 2016). Por su parte la 
georreferenciación indirecta necesita de los GCP, del conocimiento de sus posiciones para 
determinar la orientación y por ende del contacto o interacción con el área (Gabrlik, 2015); 
datos que pueden ser adquiridos también mediante equipos de GNSS. 
Explícitamente y sobre el término GNSS, se trata de una serie de sistemas de 
posicionamiento por satélite que consta de tres componentes fundamentales (Figura 2): el 
segmento espacial, el segmento de control y el segmento de usuario. El primero consiste 
en satélites GNSS en órbita alrededor 20.000 kilómetros sobre la tierra y acondicionados 
para proporcionar una adecuada cobertura, emitiendo una señal que los identifica y 
brindando sus datos con respecto al tiempo, órbita y estado. El segmento de control 
comprende una red terrestre de estaciones maestras de control, estaciones de carga de datos 
y estaciones de monitoreo donde el flujo de trabajo entre ellas consiste en captar las señales 
y estado de los satélites; esto por parte de las estaciones de monitoreo, y transmitir la 
información a las estaciones maestras de control donde se realiza el ajuste y corrección de 
los parámetros de la órbita de los satélites y relojes de alta precisión a bordo para que en 
últimas sean enviados a los satélites por medio de las estaciones de carga de datos. Para 
terminar, el segmento de usuario se refiere a los equipos procesadores de las señales 
recibidas de los satélites GNSS para llegar a la información de ubicación o posición 
(NovAtel, s. f.). 
22 
 
 
Figura 2. Segmentos GNSS 
Fuente: (NovAtel, s. f.) 
En relación al método de posicionamiento RTK, éste consiste en un sistema de 
referencia relativo o diferencial donde al menos es necesario contar simultáneamente con 
dos equipos para llevar a cabo las mediciones y a partir de ellos se determina la distancia 
o diferencia posicional, generalmente se aplica este método en posicionamientos 
cinemáticos en el cual se da lugar a la determinación de las coordenadas en tiempo real 
acorde a la situación de uno de los equipos o antenas que estará en movimientos superiores 
a la precisión del sistema (1 o 2 cm + 1 ppm); el anterior es conocido como receptor móvil 
o también rover a diferencia de la otra antena que actúa como receptor fijo en modo estático 
sobre un punto con coordenadas conocidas (Farjas, s. f.). La técnica consiste en primer 
lugar de cerciorarse de la recepción de señal de como mínimo cuatro satélites, a mayor 
disponibilidad de satélites mejores resultados posicionales, sin embargo se trata de una 
condición limitada por cada receptor de acuerdo a sus capacidades de potencia 
computacional para utilizar satélites adicionales (NovAtel, s. f.), consecuentemente se 
ubica el receptor fijo cuyo radio módem cumple la funcionalidad de transmitir los datos de 
23 
 
observación por ondas de radio al receptor móvil y que guardará en su unidad de control 
registrando cada uno de los puntos tomados donde se ha posicionado el rover (Cardozo & 
Arenas, 2016). 
3. Toma fotográfica: El paso a seguir es la implementación del plan de vuelo siguiendo la 
ruta creada para la captura de las imágenes (Cepero, 2015), para ello se debe realizar la 
preparación del equipo, despegue y aterrizaje. Hace parte de la preparación del equipo la 
revisión de la correcta instalación de sus componentes, revisión del estado de batería del 
control y del dispositivo móvil, ubicación de la hélices del UAV, configuración de la 
cámara, instalación de la tarjeta de memoria para el almacenamiento de las fotografías, 
disposición de control, conexión del software para la operación del vehículo y calibración 
del mismo mediante el giro de 360º de modo horizontal y vertical (Figura 3) con fines de 
un eficaz desempeño durante el vuelo, ante la observación de una deriva considerable 
durante el vuelo y la carencia de una trayectoria del UAV en línea recta se debe realizar 
una recalibración. Sumado a lo anterior y previo al despegue también se requiere corroborar 
la correcta disposición de señal del GPS del UAV, ya que si hay una lectura errónea de las 
coordenadas el vehículo podría volar en dirección aleatoria; condición dada en entornos 
con interferencia por su cercanía a estructuras metálicas o grandes construcciones, por lo 
que es recomendable realizar los vuelos en espacios abiertos así como el proceso de 
calibración mencionado anteriormente. Por último y estando en condiciones aptas para el 
vuelo la aplicación o software a usar hace envío de la misión de vuelo al UAV manteniendo 
la conexión entre sí para poder activar la cámara consecutivamente, se ha de realizar el 
despegue, elevación y aterrizaje en una zona libre de obstáculos, la aplicación sigue la 
misión realizando un vuelo automatizado (Claros et al., 2016) y siendo posible visualizar 
24 
 
de forma simultánea y en tiempo real la información transmitida a la computadora, que 
bien puede ser sobre mediciones, el estado del vehículo y su respectiva posición, para 
terminar se realiza la toma fotográfica y aterrizaje (Cepero, 2015). 
 
Figura 3. Calibración del UAV en posición horizontal y vertical 
Fuente: (Claros et al., 2016) 
 
4. Procesado y cálculo: Contando ya con las fotografías aéreas, sus parámetros 
asociados y con las coordenadas correspondientes a los GCP, se lleva a cabo el 
proceso de aerotriangulación para el cálculo de los parámetros de orientaciónexterna de las fotografías; se trata de un modelo matemático con ecuaciones de 
colinealidad y la inclusión de un número significativo de redundancias que permitan 
dar validez y fiabilidad tanto al sistema como a los resultados del mismo (Cepero, 
2015), su principal objetivo consiste en la obtención de los parámetros para 
posicionar de manera correcta el haz de los rayos de la imagen con respecto a un 
sistema de referencia vinculado al terreno (Hernández, 2006); o en otras palabras la 
consecución de coordenadas de numerosos puntos sobre los fotogramas con base a 
los GCP cuya posición ya es conocida en el terreno, lo cual supone una reducción 
en los trabajos de campo (J. Pérez, 2001). En la Figura 4 se observa el principio 
descrito de la orientación externa donde “las coordenadas imagen y el centro de 
25 
 
proyección asociado de una fotografía definen un haz espacial de rayos” (J. Pérez, 
2001). 
 
 
Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas individuales 
Fuente:(J. Pérez, 2001) 
Sobre el modelo matemático para la realización del ajuste se presentan a 
continuación las ecuaciones de la colinealidad: 
𝑥′ = −𝑓
𝑎11(𝑥𝑖 − 𝑥0) + 𝑎12(𝑦𝑖 − 𝑦0) + 𝑎13(𝑧𝑖 − 𝑧0)
𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0)
 
𝑦′ = −𝑓
𝑎21(𝑥𝑖 − 𝑥0) + 𝑎22(𝑦𝑖 − 𝑦0) + 𝑎23(𝑧𝑖 − 𝑧0)
𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0)
 
Ecuación 1. Ecuaciones de colinealidad en el proceso de orientación externa 
Fuente: (J. Pérez, 2001) 
 
Donde (x’, y’, -f) son las coordenadas de un punto en la fotografía, (x0, y0, z0) las 
coordenadas del centro de proyección, (xi, yi, zi) las coordenadas de un punto sobre 
el terreno, (a11, aij,…, anm) los elementos de una matriz A en función de un sistema 
de referencia tridimensional con rotaciones angulares ω, ϕ, k sobre los ejes x, y, z 
respectivamente y dados por los giros de la cámara. Presentado el caso las 
incógnitas a resolver son: x0, y0, z0, ω, ϕ, k; y para ello resulta indispensable realizar 
26 
 
en primer lugar la orientación interna en la determinación de parámetros internos y 
reconstrucción del haz perspectivo de rayos dados por los puntos imagen y el centro 
de proyección, de este modo se parte de los datos de calibración de la cámara como 
lo son distancia focal, marcas fiduciales y distorsión (J. Pérez, 2001), por otro lado 
y con una mínima variación al proceso para el caso de las imágenes digitales se 
determina el centro de proyección o posición del punto principal de acuerdo al 
centro de la imagen digital (fila, columna) puesto que tales imágenes carecen de 
marcas fiduciales, además al tratarse de un proceso automático son suficientes 
únicamente los parámetros de calibración (A. Gómez & Sandoval, 2016). 
5.1.3. Imágenes multiespectrales 
Partiendo del concepto de radiación electromagnética que como se había citado previamente 
corresponde al flujo energético constituido entre la cubierta terrestre y un sensor (Chuvieco, 1995), 
se tiene una colección sobre la escena medida del concepto en mención para cada intervalo de 
energía empleado y que forman para cada uno, una imagen digital conocida como banda, cuya 
representación es la distribución espacial de valores de radiación provenientes de la escena de la 
cubierta terrestre y donde el conjunto de bandas compone una imagen multiespectral. Cabe anotar 
que la imagen multiespectral no sólo representa la distribución espacial de las propiedades físicas 
observadas en la escena, sino también la respuesta del sensor y los mecanismos de interferencia 
presentes en la toma de la escena que pueden resultar como limitantes y degradantes de la 
información (Lira, 2010). 
Específicamente y sobre las bandas espectrales, éstas constituyen el espectro electromagnético 
en función de las longitudes de onda o frecuencia (Figura 5); comprendiendo desde las longitudes 
27 
 
de onda más cortas como los rayos gamma y los rayos x, hasta las kilométricas correspondientes 
a las de tele-comunicación (Chuvieco, 1995). Por otro lado, teniendo en cuenta el concepto de 
fotografía multiespectral dado por Claros et al., 2016 referido como una “fotografía tomada con 
cámara multiespectral o con un ensamblaje de varias cámaras con distintos filtros para cubrir 
distintas porciones del espectro visible y de la región infrarroja cercana” conviene hacer la 
descripción para estas bandas espectrales: 
 Espectro visible: Se trata de la única radiación electromagnética que se percibe a la vista, 
esta región está comprendida entre las longitudes de onda de 0,4 a 0,7 μm y sobre la 
cual se distinguen tres bandas elementales en función a los colores primarios que los 
ojos perciben a dichas longitudes de onda; estos son el azul (0,4 - 0,5 μm), el verde (0,5 
- 0,6 μm), y el rojo (0,6 – 0,7 μm) (Chuvieco, 1995). 
 Infrarrojo cercano: Está comprendido entre las longitudes de onda de 0,7 a 1,3 μm 
(Chuvieco, 1995), sus aplicaciones se encuentran en la composición de química 
superficial, vegetación y propiedades bilógicas (Lira, 2010); trascendiendo 
notablemente por su capacidad de discriminación de masas vegetales y concentración 
de humedad (Chuvieco, 1995). 
 
Figura 5. Espectro electromagnético 
28 
 
Fuente: (Chuvieco, 1995) 
5.1.4. Modelos Digitales De Elevación 
Los Modelos Digitales de Elevación se definen como una estructura numérica de datos que 
representan la distribución espacial con respecto a la altitud en la superficie terrestre. Se trata de 
una serie de puntos con coordenadas bidimensionales conocidas y a las cuales se les asocia un 
valor de elevación (INEGI, 1999), de modo que haciendo el uso de tales modelos se pueden 
cuantificar las características de la superficie del modelo y obtener productos como mapas de 
pendientes, curvas de nivel y ortofotomosaicos, entre otros (Pucha et al., 2017). 
Adicionalmente, se distinguen diferentes designaciones de los modelos, estos pueden ser 
Modelos Digitales de Superficie o Modelos Digitales de Terreno; ambos en la habilidad de 
representar la superficie del terreno pero con la distinción de que el primero incluye todos los 
objetos sobre la misma mientras que el otro no los toma en cuenta, este es el caso de plantaciones 
o edificaciones (S. Pérez, Pérez, & Reyes, 2017). 
5.1.5. Ortofotomosaicos 
Los ortofotomosaicos resultan de la integración de imágenes georreferenciadas y corregidas de 
deformaciones por lo cual es posible realizar mediciones exactas en estas. Las anteriores son 
provenientes de las fotografías aéreas y son conocidas como ortoimágenes u ortofotos (Claros 
et al., 2016); su proceso de corrección llamado ortorrectificación consiste en lograr representar una 
proyección ortogonal sin efectos de perspectiva de la cámara (Figura 6) que se traduce en 
deformaciones en conjunto con otros factores como altura de toma, velocidad del movimiento de 
la cámara (Cepero, 2015), distorsiones propias de la lente además de distorsiones de los objetos 
causados por desplazamientos debidos al relieve, entre otros que son los que presentan las 
29 
 
fotografías aéreas crudas (Quiñones & Segura, 2012), es así que una ortofoto combina la 
propiedades de detalles de las fotografías aéreas con las propiedades geométricas de un plano 
(Cepero, 2015). 
 
Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal de una 
ortofoto (derecha) 
Fuente: (Quiñones & Segura, 2012) 
 
5.2.Estado Del Arte 
Dentro de las explicaciones que permiten entender la razón acerca del aumento sustancial del 
uso de UAV’s para aplicaciones diversas (principalmente en la geomática y los productos 
cartográficos que se derivan de su uso), de las más aceptadas ha sido el avance exponencial en el 
área computacional, tal y como lo afirman Sona, Pinto, Pagliari, Passoni, & Gini, 2014, este 
aumento se debe al hecho del “desarrollo de nuevas plataformas equipadascon sistemas 
automáticos para la planeación y control de los vuelos, junto con la mejora de los sensores y 
dispositivos de adquisición de datos”, así como también a la difusión de softwares que hacen uso 
del sistemas de visión por computadora llevando en últimas, nuevos motivos para el uso de los 
UAV’s como una herramienta para la gestión de la tierra. Adicional a ello, Vollgger & Cruden, 
2016 hacen hincapié en que los progresos en el área computacional han permitido generar “nubes 
tridimensionales densas de puntos georreferenciados a partir de una secuencia de imágenes 
30 
 
bidimensionales superpuestas”, que en últimas son el principal insumo para la generación de 
productos cartográficos como los DEM o las ortofotos, por lo que la obtención de estos productos 
con UAV también ha aumentado de manera considerable, mientras que James et al., 2017 muestran 
que estos avances en el hardware “han mejorado rápidamente las capacidades de recopilación de 
imágenes gracias a la mejora de la estabilidad y el tiempo de vuelo de las plataformas”, desarrollos 
que han llevado a su aplicación dentro de los levantamientos fotogramétricos gracias a la captura 
de imágenes óptimas. Por último, autores como Stöcker, Eltner, & Karrasch, 2015 mencionan que 
estos avances han llevado a la generación de estos productos cartográficos de forma sencilla y con 
gran exactitud, por lo que los UAV pueden verse como un método efectivo para llevar a cabo 
levantamientos fotogramétricos. 
Haciendo mención nuevamente de las limitaciones implicadas en el uso de los UAV’s, pero 
más específicamente en relación a los sistemas de bajo costo y de carga reducida en los que se 
emplean cámaras de formato pequeño o medio que hacen de la adquisición de datos un proceso 
más extenso; esto en el sentido de que han de necesitarse un mayor número de imágenes para 
conseguir la misma cobertura de imagen a una resolución comparable; razón por la cual y a modo 
de solución es indispensable contar con un software automatizado de orientación que permita la 
reducción del tiempo de procesamiento en sectores de código abierto y de bajo costo (Nex & 
Remondino, 2014). Pese a que Eisenbeiß, 2009 indique que para entonces los paquetes de software 
comerciales existentes y con aplicación de datos fotogramétricos rara vez soportaban imágenes de 
UAV por la carencia de implementación de flujos de trabajo estandarizados y de modelos de 
sensores, el actual crecimiento de los UAV’s en el mercado ha conllevado a los constantes 
adelantos del hardware y el software usados para el procesamiento de los datos provenientes de 
esta clase de captura (Lindner, Schraml, Mansberger, & Hübl, 2016), que vistos en conjunto 
31 
 
pueden ser entendidos también como estaciones de control terrestre (GCS’s) explicadas como 
dispositivos estacionarios o transportables en la capacidad de supervisar y ordenar las aeronaves 
no tripuladas en la ejecución de la misión, destacando de éstas, la interfaz que permiten crear con 
la inteligencia humana para su control y observación ante cualquier cambio de ruta, errores en la 
plataforma y resultados (Colomina & Molina, 2014). 
Particularmente, cabe resaltar que algunos paquetes de software fotogramétricos 
convencionales cuentan con la capacidad de procesar imágenes tomadas con los UAV’s, sin 
embargo se tiene el desarrollo de paquetes que además de compilar los fundamentos de la 
fotogrametría tradicional se encuentran orientados y especializados en el procesamiento de datos 
de imágenes a partir de UAV’s y cuyo enfoque es habitualmente conocido como estructura del 
movimiento (SfM) (Gonçalves & Henriques, 2015); se trata de un algoritmo basado en la 
identificación de patrones y características comunes visualizadas en varias imágenes donde el 
número de puntos identificados está dado acorde a la textura y resolución de la imagen (Fernández 
& Gutiérrez, 2016), el anterior es un proceso automatizado de coincidencia de características, su 
implementación en UAV’s consiste en poder derivar reconstrucciones tridimensionales a partir de 
una serie de fotografías superpuestas, donde resulta adecuado un alto grado de superposición de la 
región capturada en diferentes posiciones y orientaciones y sobre las cuales la plataforma móvil se 
relaciona con el objetivo o escena estática (Turner et al., 2016), además éste método se usa 
generalmente al realizar procesos fotogramétricos con cámaras no métricas; obteniendo resultados 
comparables con los métodos tradicionales, incluso con una reducción de tiempo en un 80% sobre 
la recopilación de los datos en la reconstrucción 3D de superficies y topografía (P. Zarco et al., 
2014). 
32 
 
Dentro de los factores que afectan la toma de imágenes por medio de UAV, así como la 
obtención de los diferentes productos cartográficos que pueden derivarse a partir de ellos, se 
encuentra que dado que estos requieren el uso de cámaras convencionales, es decir sensores ópticos 
pasivos, se encuentran limitados para la toma de imágenes en sitios con demasiada vegetación, en 
general Peternel et al., 2017 afirman que dentro de los principales inconvenientes para llevar a 
cabo levantamientos fotogramétricos, es la presencia de vegetación densa, pues dificulta la 
reconstrucción métrica, elemento esencial para la generación de las redes de puntos 
tridimensionales a partir de imágenes bidimensionales, y que en últimas se traducen en más errores 
para la obtención de productos como lo son los modelos digitales de superficie, y por tanto las 
ortofotos también. Así mismo, al hacerse uso de cámaras convencionales, que poseen una mayor 
distorsión de la lente, darán lugar a mayores errores sistemáticos que de hacerse con las cámaras 
tradicionales para esta clase de trabajos (James et al., 2017), adicionalmente debido a la carencia 
de receptores GNSS de suficiente calidad a bordo (debido a la carga útil que pueden llevar 
consigo), hace que sea complicado hacer uso de las posiciones de las cámaras como una medida 
de control adicional para llevar a cabo los levantamientos (James et al., 2017). 
Sumado a lo anterior, la altura de vuelo que es un elemento esencial, ya que en primera medida 
puede causar cambios abruptos en la resolución espacial de las imágenes, dada la relación del GSD 
(Ground Sample Distance) definida por la altura del sensor respecto al suelo, además de añadir 
complejidad en la generación de las ortomosaicos si se hace uso de una altura muy pequeña para 
la captura de los datos (D. Gómez, De Castro, & López, 2014), junto a ello puede hacer que se 
aumenten los tiempos de procesamiento, ya que a una altura menor se requerirán más fotos para 
hacer el levantamiento de la misma área que a una mayor altura. Es por ello que autores como 
Gómez et al., 2014 mencionan que el rango de altura de vuelo óptimo para obtener buenos 
33 
 
resultados en la generación de ortofotos con imágenes tomadas con UAV oscila entre los 30 y 100 
metros, cabe aclarar que como afirman los mismos autores si se desea “armonizar la resolución 
espacial altísima y minimizar el tiempo de operación y el número de imágenes tomadas”, la altura 
de vuelo debe ser lo más alta posible, claro está, sin que esto influya en la perdida de la resolución 
espacial necesaria para llevar a cabo el estudio planteado. 
Dadas estas variables, es importante añadir que para solventar todos estos inconvenientes basta 
con añadir más puntos de control terrestres que en un levantamiento convencional, es decir un 
mayor control de entrada (James et al., 2017). Autores como Yucel & Turan, 2016 adicionan que 
“la escala, resolución, y precisión de los puntos de control terrestres son el factor que más afecta 
la calidad de las imágenes de UAV”, es por ello que poseen un papel primordial en los 
levantamientos fotogramétricos de este tipo. En el caso de la generación de ortomosaicos, debido 
a la complejidad de la correspondencia de imágenesexpuesta anteriormente es necesario adquirir 
de forma precisa estos puntos, puesto que de ello depende la exactitud en el proceso de unión de 
las ortofotos para dar lugar a los mosaicos de imágenes (D. Gómez et al., 2014), por tanto estos 
puntos generalmente se señalizan con marcadores pintados en el área, y son levantados bien sea 
con GPS diferenciales de doble frecuencia o con estaciones totales (Bemis et al., 2014). Es de esa 
manera, que en últimas haciendo uso del método de georreferenciación directa, la exactitud de las 
imágenes ortorrectificadas (y por tanto de los mosaicos generados con estas) son dependientes de 
los errores de navegación de los GPS, así como “la estimación de la longitud focal de la cámara y 
los parámetros de orientación interior/exterior, y la sincronización imprecisa entre el receptor GPS 
y la cámara” (Bemis et al., 2014). 
Sobre los principales factores que contribuyen a los errores de precisión de posición de las 
ortofotografías obtenidas con UAV’s, Popescu et al., 2016 hacen uso del estándar de la Sociedad 
34 
 
Americana de Fotogrametría y Teledetección (ASPRS) conocido como “Precisión de Datos 
Geoespaciales y el Nuevo Estándar de Precisión Cartográfica”, y asocian la exactitud cartográfica 
no solamente a la geometría de la cámara y a la altura de vuelo sino también a la calidad de los 
parámetros de calibración de la cámara, calidad y tamaño del CCD usado en las cámaras digitales, 
cantidad de imágenes superpuestas, calidad de la determinación de la paralaje, de la señal GNSS 
y de los controles en tierra, número y distribución espacial de los puntos de verificación de acuerdo 
al área del proyecto, capacidad del software de procesamiento, el modelo digital de elevación 
empleado para la generación de las ortofotos, la precisión de la triangulación aérea, y estabilidad 
del vuelo. Se ha de tener en cuenta que estos factores son susceptibles al cambio de un proyecto a 
otro acorde al sensor y metodología utilizada, donde la suma de todos los factores determina la 
exactitud posicional del producto final (Popescu et al., 2016). 
Cabe adicionar que la evaluación de exactitud de los ortomosaicos con UAV se hace en 
términos del error medio cuadrático (RMSE); medida que “se expresa generalmente en unidades 
de tamaño pixeles”, siendo este un indicador basado en los residuos de las coordenadas de la 
imagen y las coordenadas terrestres (D. Gómez et al., 2014). Por su parte, Popescu et al., 2016 
sostiene que aún si se asumieran prácticas en condiciones ideales como el uso de cámaras métricas, 
control terrestre de alta calidad y procedimientos consistentes, la mejor precisión posible en las 
ortofotografías equivale a un RMSE de 1 a 1,5 pixeles. Respecto a los residuales en las 
coordenadas de las imágenes, James et al., 2017 afirman que estos son dependientes de una 
variedad de factores, que incluyen: “la textura de la imagen, la estabilidad de la geometría de la 
cámara, y la exactitud del algoritmo de localización de características usado en la correspondencia 
de las imágenes”. En general, experiencias como las descritas por James et al., 2017 muestran que 
para tratar de obtener el mínimo RMSE (que indicaría la obtención de un producto con una alta 
35 
 
calidad posicional), una buena estrategia dentro del procesamiento es la elección de modelo de 
cámara adecuado, además de los parámetros pertenecientes a este, que pueden ser determinados 
mediante un ajuste final usando todos los puntos de control terrestre como puntos de verificación. 
En síntesis, autores como Uysal et al., 2015 muestran que se pueden obtener productos derivados 
de fotogrametría con UAV (sean ortomosaicos o DEM) con una exactitud similar a los datos 
obtenidos en GPS, haciendo que sea “posible usar los datos de fotogrametría con UAV para la 
producción de mapas, levantamientos y algunas otras aplicaciones ingenieriles con las ventajas de 
bajo costo, conservación de tiempo, y trabajo de campo mínimo” (Uysal et al., 2015). 
5.3.Marco geográfico 
El Parque Nacional Natural Chingaza ubicado en la cordillera oriental de los Andes se encuentra 
bajo la jurisdicción de los departamentos de Cundinamarca y Meta, abarcando sectores de once 
municipios y estando comprendido el 99% del área del parque en la cuenca del Río Orinoco, en 
las cuencas altas de los ríos Blanco y Negro Guatiquía, Guacavía, Gazaunta, Gazamumo, Humea 
y Guavio, y el 1% en la cuenca del Río Magdalena representado por la cabecera de la quebrada 
San Lorenzo, el afluente del Río Teusacá y cabeceras del Río Siecha. Su extensión total es de 
76.600 hectáreas, su temperatura se encuentra entre 4 y 21.5°C, con unas variaciones de altura 
que van desde 800 a 4020 msnm y presentando ecosistemas predominantes de bosques alto 
andinos, subandinos y páramos (Parques Nacionales Naturales de Colombia, s. f.-b). 
Se sabe que para el uso de metodologías con UAV´s es necesario que las áreas no sean tan 
extensas, en este caso es aún más pertinente, puesto que el UAV usado en el proyecto es de tipo 
multirotor (lo que hace que tenga menos alcance, respecto a uno de ala fija) y dado que el Parque 
Natural Chingaza tiene una vasta extensión se decidió sobrevolar aproximadamente una hectárea; 
36 
 
tomando como centro de la zona de estudio las coordenadas 4º44’52.23’’ N, 73º51’19.38 W 
(Figura 7).
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Figura 7. Mapa de la zona de estudio 
Fuente: Autor, elaborado con datos de (Parques Nacionales Naturales de Colombia, s. f.-a) y (Servicio Geológico Colombiano, 2015)
38 
 
 
 
6. Materiales 
6.1. Vehículo Aéreo No Tripulado 
El UAV utilizado para el desarrollo del proyecto fue el TAROT 680 PRO (Figura 8) de tipo 
multirotor compuesto por 6 rotores, el cual puede sobrevolar y cubrir un área de hasta 70.000 m2 
(Sastoque & Gutiérrez, 2016) y cuyas características se presentan en la Tabla 1. 
 
Figura 8. UAV TAROT 680 PRO 
Fuente: Autor 
Tabla 1. 
Características de UAV TAROT 680 PRO 
TAROT 680 PRO 
Tipo Hexacoptero 
Dimensiones Diámetro: 680 mm, Altura: 30 cm 
Peso 3.5 Kg con baterías, máximo peso de despegue 8 Kg 
Motor 6 motores brushless (sin escobillas) 
Material Fibra de carbono y plástico 
Capacidad carga útil 3 Kg 
Modo de vuelo Automático con waypoints o manual con radiocontrol 
Tiempo de vuelo 20 minutos flotando en un punto, 12 minutos recorriendo ruta 
Estación de control en tierra 
Radiocontrol 14 canales, telemetría para control de misión en 
tiempo real 
Posibles sensores 
Cámara fotográfica, cámara de video, cámara termal, cámara 
multiespectral 
Proveedor Grupo de investigación UAV-MARIA 
 
Fuente: (Sastoque & Gutiérrez, 2016) 
39 
 
 
 
6.2. Sensores 
Las dos cámaras utilizadas son de referencia Canon PowerShot A2300 (Tabla 2), una de las 
cámaras cuenta con información de las bandas del espectro visible; rojo, verde y azul o en inglés 
por sus siglas RGB (Figura 9.a), y la otra con la combinación de bandas de infrarrojo cercano, 
verde y azul o en inglés NIR G B (Figura 9.b), de tal manera que para el uso de ambas cámaras se 
dispuso de la realización de un montaje y ensamblaje en el UAV que permitiera la ejecución del 
vuelo con las dos cámaras a bordo (Sastoque & Gutiérrez, 2016). 
Tabla 2. 
Especificaciones de la cámara Canon PowerShot A2300 
Canon PowerShot A2300 
Resolución 16 Megapixeles 
Máxima resolución de imagen 4608 X 3456 pixeles 
Formato de imagen JPEG 
Sensibilidad ISO o a la luz 
ISO 100, ISO 1600, ISO 200, ISO 400, ISO 
800, ISO auto 
Velocidad máxima de obturación o disparo 1/2000 segundos 
Velocidad mínima de obturación o disparo 15 segundos 
Longitud focal mínima 5 mm 
Longitud focal máxima 25 mm 
Tipo de sensor CCD 
Tamaño de sensor 1/2.3” ( ̴ 6.16 X 4.62 mm) 
Resolución del sensor 4612 X 3468 pixeles 
Tamaño de pixel calculado 0,0013356 mm 
Pantalla LCD 6,8 cm (2,72”) 
 
Fuente: Elaborada condatos de (CNET, s. f.) y (Digital Camera Database, s. f.) 
 
 
(a) Cámara con bandas RGB (b) Cámara con bandas NIR G B 
40 
 
 
 
Figura 9. Cámaras Canon PowerShot A2300 
Fuente: (Sastoque & Gutiérrez, 2016) 
Más específicamente, y sobre la preparación de los sensores en cuanto a sus respectiva 
información de las bandas espectrales Rodriguez, 2015 afirma que este tipo de cámaras digitales 
que no se han diseñado con fines de uso en la percepción remota constan de un filtro ubicado frente 
al sensor que restringe la energía electromagnética que éste percibe y se limita a las ondas del 
espectro visible (Figura 10.a), razón por la cual fue necesario modificar una de las cámaras 
removiendo el filtro RGB para permitir el ingreso de información en el rango infrarrojo (Figura 
10.b). 
 
(a) Energía electromagnética con filtro RGB (b) Energía electromagnética sin filtro RGB 
Figura 10. Energía electromagnética percibida por el sensor 
Fuente: (Rodriguez, 2015) 
6.3. Antena De Recepción Topcon GR-5 
El receptor de GNSS GR-5 (Figura 11) fabricado por Topcon es un equipo ideal para el 
geoposicionamiento, levantamiento del terreno, topografía, diseño e ingeniería civil, 
levantamientos de construcción y gestión de nivelación. Se caracteriza por su alta fiabilidad en 
precisión, pues cuenta con un posicionamiento de la mayor precisión para tiempo real cinemático 
41 
 
 
 
(RTK), redes y demás y actualizaciones de posición de hasta 100 Hz, realiza el seguimiento de 
cada constelación (Topcon, 2015) teniendo en cuenta que se trata de la combinación de tres de 
estas o también conocidas como sistemas de posicionamiento originales que son GPS, GLONASS 
y GALILEO, su diseño es robusto y se integra con hasta 216 canales de seguimiento universales 
(Topcon, s. f.-a). Algunas especificaciones adicionales se presentan en la Tabla 3. 
 
Figura 11. Receptor Topcon GR-5 
Fuente: (Topcon, 2015) 
Tabla 3. 
Especificaciones generales del receptor Topcon GR-5 
Especificaciones generales 
Señales de seguimiento GPS, GLONASS, Galileo, BeiDou, SBAS, y QZSS 
Precisión 
Estático rápido 
H: 3.0 mm + 0.4 ppm 
V: 5.0 mm + 0.5 ppm 
Estático 
H: 3.0 mm + 0.1 ppm 
V: 3.5 mm + 0.4 ppm 
RTK (L1+L2) 
H: 5 mm + 0.5 ppm 
V: 10 mm + 0.8 ppm 
Memoria Tarjeta de memoria SD/SDHC extraíble 
Temperatura de funcionamiento De -40ºC a 70ºC 
Proveedor Universidad Distrital F.J.C. 
 
Fuente: Elaborada con datos de (Topcon, 2015) 
 
42 
 
 
 
6.4. Controlador Topcon FC 2600 
El controlador o colector de datos Topcon FC 2600 (Figura 12); suministrado por la 
Universidad Distrital F.J.C. para el desarrollo del proyecto, ha sido diseñado para ser robusto, 
confiable y soportar el software de campo Magnet Field, ejecuta el sistema operativo Windows 
CE6 que permite un rápido funcionamiento (Topcon, s. f.-b). Algunas de sus características a 
destacar son: 
 Conectividad inalámbrica Bluetooth y WiFi incorporadas. 
 Cámara digital de 5.17 megapíxeles. 
 Baterías accesibles y recargables, así como una larga duración de las mismas. 
 Teclado alfanumérico de 55 teclas. 
 256MB SDRAM (Topcon, s. f.-b). 
 
Figura 12. Controlador Topcon FC 2600 
Fuente: (Topcon, s. f.-b) 
6.5. Navegador Garmin GPSMAP 64s 
Receptor GPS y GLONASS (Figura 13) con una alta capacidad de recepción que localiza de 
forma rápida y precisa las posiciones, cuenta con una amplia selección de mapas topográficos, 
43 
 
 
 
náuticos y de carreteras que hacen sencilla la incorporación de más mapas, además de funciones 
robustas de navegación (Garmin & subsidiaries, s. f.). 
 
Figura 13. Navegador Garmin GPSMAP 64s 
Fuente: (Garmin & subsidiaries, s. f.) 
La siguiente tabla enseña las características propias del navegador Garmin GPSMAP 64s: 
Tabla 4. 
 Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s 
Especificaciones físicas y de rendimiento 
Dimensiones (Ancho/Alto/Profundidad) 6,1 x 16,0 x 3,6 cm 
Batería 2 pilas AA (no incluidas) 
Autonomía de la batería 16 horas 
Memoria 4 GB 
Señales de seguimiento GPS y GLONASS 
Altímetro barométrico Sí 
Brújula Sí (tres ejes con inclinación compensada) 
Proveedor Universidad Distrital F.J.C. 
 
Fuente: Elaborada con datos de (Garmin & subsidiaries, s. f.) 
6.6. Software De Procesamiento 
6.6.1. Mission Planner 
Mission Planner es un software utilizado como estación de control terrestre en la preparación 
inicial, configuración, ejecución de la misión y análisis posterior a esta. Sus principales 
características son (Cepero, 2015): 
44 
 
 
 
 Configuración en piloto automático para control del UAV. 
 Calibración del UAV para un rendimiento óptimo. 
 Planificación, guardado y carga de misiones autónomas. 
 Descarga y análisis de registros de misión generados por el piloto automático. 
 Supervisión del estado del UAV durante su operación y registros de telemetría récord 
con mayor información a la de los registros del piloto automático, éstos en casos de 
usar hardware de telemetría apropiados. 
 Observación, registros de imágenes y análisis. 
 Operación del UAV en FPV (vista en primera persona). 
6.6.2. Inpho 
Software diseñado para la transformación de imágenes aéreas en nubes de puntos, modelos de 
superficie y mosaicos de ortofotos preservando en cada uno de los anteriores consistencia y 
precisión mediante técnicas avanzadas de fotogrametría y percepción remota. Cuenta con una 
estructuración de módulos que pueden usarse ya sea como un sistema en conjunto o como 
componentes individuales de fácil integración en el proceso fotogramétrico (Trimble, s. f.-a). Los 
componentes de los módulos son asistidos con ApplicationsMaster que actúa como centro de 
control proporcionando herramientas básicas en la definición de proyectos y sensores, 
importación, exportación, conversión y transformación de datos, procesamiento y orientación de 
imágenes, y manipulación de DTM (Ecogis, s. f.). 
Los módulos ofrecidos por Inpho son MATCH-AT, MATCH-T DSM, Summit Evolution. 
DTMaster, SCOP++, OrthoMaster, OrthoVista, UASMaster y LPMaster, cuyas funcionalidades 
se observan en la Tabla 5. 
45 
 
 
 
Tabla 5. 
Funcionalidades por módulo en Inpho 
 
Fuente: (Trimble, s. f.-b) 
 
Con respecto a los requerimientos de hardware para su uso el sistema operativo debe ser 
Windows 7 o Vista, contar con una CPU QuadCore como mínimo y de preferencia 8 core o más, 
memoria RAM mínima de 4 GB o preferiblemente de 16 GB, y tarjeta gráfica nVidia Quadro. 
6.6.3. Imagine Photogrammetry (LPS) 
Imagine Photogrammetry o anteriormente conocido como LPS es un paquete de fotogrametría 
de fácil entorno para usuarios principiantes o avanzados y que ofrece funcionalidades de alta 
precisión como triangulación, generación de DEM, ortofotos, mosaicos y extracción de 
características 3D. Su integración con el software Erdas Imagine hace a este paquete 
fotogramétrico ideal para proyectos de diferentes tipos de datos y con ello el procesamiento y 
análisis de imágenes aéreas o satelitales; de modo que incluye numerosos flujos de trabajo 
aceptando desde fotografías análogas hasta productos de cualquier sensor satelital y en los cuales 
Funcionalidades 
MATCH- 
AT 
MATCH-
T DSM 
Summit 
Evolution 
DTMaster SCOP++ 
Ortho 
Master 
Ortho 
Vista 
UAS 
Master 
LP 
Master 
Fotogrametría 
digital 
X X X X X X X X 
Soporte de 
imágenes 
análogas 
escaneadas 
X X X X X X 
Datos de satélite X X X X X X 
Datos de laser X X X X X 
Aerotriangulación X X 
Calibración de 
cámara 
X X 
Extracción de 
superficie/terreno 
 X X X 
Procesamiento y 
generación de 
DTM 
 X X X 
46 
 
 
 
se realizan procesamientos de forma automática como orientación interior, medición de puntos de 
unión, y extracción de puntos del terreno (Hexagon Geospatial, 2017). 
Algunas otras características que se evidencian en la integración

Continuar navegando

Materiales relacionados

215 pag.
ldgp_pfc007_DiegoV

SIN SIGLA

User badge image

Aprendiendo juntos

669 pag.
INF-0000000000000010000337049-000-00_001

SIN SIGLA

User badge image

Aprendiendo Facil

178 pag.
Manual-agricultura

User badge image

guilherme costa