Logo Studenta
¡Este material tiene más páginas!

Vista previa del material en texto

¿Cuál es el objeto de estudio de la teledetección?
El objeto de estudio de la teledetección es la observación de las características terrestres y sus
recursos a través de cualquier medio de observación remota como aviones, satélites, etc. El
desarrollo de la teledetección puede separarse en dos grandes períodos, antes y después de la
década de 1960. Hasta finales de esta década la fotografía aérea fue el único sistema utilizado en
teledetección. Estados Unidos tenía planes de poner en órbita en 1957. La Unión Soviética sorprende
con el Sputnik 1.
¿En qué consiste el mecanismo de observación terrestre a través de los sensores satelitales?
En teledetección se capturan datos de la superficie terrestre a distancia y que son originados por la
energía que emite el sol (en el caso de los pasivos) y la energía que refleja cada componente de la
cobertura. Parte de esa energía se eleva y es captada por instrumentos que se llaman
espectrorradiómetros que son capaces de leer esa energía reflejada. Entonces, los sistemas de
teledetección funcionan al captar la energía proveniente del sol en forma de ondas
electromagnéticas que la superficie refleja. La energía que incide sobre un cuerpo se absorbe (se
transforma), se refleja o se transmite (pasa de largo).
¿Cómo fueron denominadas las dos eras en que se divide la teledetección y en qué consistieron?
Desde 1830 hasta finales de 1960 la fotografía aérea fue el único sistema utilizado en teledetección.
A partir de este momento y con la aparición de los primeros programas espaciales comienza la Era
Espacial, un acelerado desarrollo de los sensores remotos basados en la utilización de plataformas
espaciales. En 1957 se produce el lanzamiento del primer satélite artificial, el Sputnik I.
¿Qué es la energía? ¿Cuál es el recorrido de la energía en teledetección?
La onda electromagnética, que tiene un campo eléctrico y otro magnético y se caracteriza por la
longitud de onda (la distancia entre las crestas), la amplitud (la altura a la que llega la cresta) y la
frecuencia (el número de ciclos por unidad de tiempo). Si la energía electromagnética la clasificamos
en el parámetro de la longitud de onda logramos describir el espectro electromagnético. Dentro del
espectro se encuentra el espectro visible, que son tres franjas que representan las longitudes de
onda que nuestros ojos pueden detectar y que corresponden a los colores azul (0,4 a 0,5 micrones) ,
verde (0,5 a 0,6 micrones) y rojo (0,6 a 0,7 micrones). Nuestros ojos detectan la intensidad de la
energía que percibe el ojo a través de los conos y el cerebro las entiende como colores. Dentro del
espectro electromagnético está también el infrarrojo cercano, infrarrojo medio e infrarrojo térmico
(este es emitido por la superficie, no reflejado).
Describí el espectro electromagnético. ¿cuales son las regiones utilizadas en teledetección?
Dentro del espectro electromagnético se distinguen una serie de regiones, las más utilizadas por las
diferentes técnicas de teledetección son la luz visible, el infrarrojo reflejado, el infrarrojo térmico y
las microondas (radar). De menor a mayor valor hablando en términos de longitud de onda, las
regiones electromagnéticas se ordenan en: Rayos Gamma, Rayos X, Ultravioleta, espectro visible,
Infrarroja, Microondas y Radiofrecuencias.
Describí la teoría del color. ¿Como se forman el cian, el amarillo y el magenta?
La teoría del color es un modelo que explica la obtención de un color a partir de la suma de los
componentes de color. El proceso de producción de colores utiliza luz roja, verde y azul como
componentes para producir el resto de colores. Combinando uno de estos colores primarios con otro
en proporciones iguales se obtienen los colores aditivos secundarios: cian (verde y azul), magenta
(azul y rojo) y amarillo (rojo y verde). Combinando los tres colores primarios de luz con las mismas
intensidades, se produce el blanco. Variando la intensidad de cada luz de color finalmente deja ver el
espectro completo de estas tres luces.
https://es.wikipedia.org/wiki/Rojo
https://es.wikipedia.org/wiki/Verde
https://es.wikipedia.org/wiki/Azul
https://es.wikipedia.org/wiki/Colores_primarios
https://es.wikipedia.org/wiki/Cian_(color)
https://es.wikipedia.org/wiki/Magenta
https://es.wikipedia.org/wiki/Amarillo
https://es.wikipedia.org/wiki/Blanco_(color)
Los objetos absorben determinadas longitudes de onda y reflejan el resto, nos llega a nosotros el
conjunto de longitudes de onda que han sido reflejadas y son éstas las que producen la sensación de
color, que se denomina color pigmento. La vegetación tiene una alta respuesta en la banda del
infrarrojo cercano y eso tiene que ver con su estructura interna. La mitad de la reflectancia que llega
a una hoja es reflejada, la otra mitad es transmitida.
¿Qué pasa con la energía en la atmósfera? ¿cuales son los efectos que pueden incidir sobre ella?
Las imágenes de los satélites son tomadas por aparatos, por sensores que se encuentran en las
plataformas que se encuentran a kilómetros de altura atravesando la atmósfera de la Tierra. La
energía sufre una interacción con las distintas componentes de la atmósfera. Cuanta más
interferencia en la en la señal de la energía puede haber errores en la interpretación de la misma.
El primer efecto de la atmósfera es la absorción que actúa como un filtro. Los elementos de la
atmósfera, como los gases, absorben parte de la energía, y eso reduce la capacidad de visualización
de datos. La absorción tiene que ver con la transferencia de energía a componentes de la atmósfera
como gases (Vapor de agua, Ozono, Oxígeno atómico, Dióxido de carbono), lo que actúa como filtro.
El segundo efecto es la dispersión, que tiene que ver con cómo se refleja la energía con distintos
factores como las partículas, vapor de agua o gases de la atmósfera. No reduce la energía, la
redirecciona. Según el tamaño de la partícula hay tres tipos de dispersión:
Rayleigh: partículas pequeñas a la longitud de onda, la longitud de onda corta choca y se dispersa
hacia otras direcciones.
Mie: partículas más grandes (aerosoles y polvos atmosféricos)
No selectiva: partículas mucho más grandes que la longitud de onda.
El tercer efecto es la emisión, las mismas partículas pueden generar su propia energía por el
calentamiento y pueden incrementar la energía detectada por el sensor del satélite.
¿Qué son las ventanas atmosféricas?
Las ventanas atmosféricas no son pedazos de atmósferas, son sectores del espectro
electromagnético cuyas longitudes de onda no se encuentran afectadas por los componentes de la
atmósfera donde la radiación va y viene sin ser alterada prácticamente. La primera ventana
corresponde al espectro visible, y la segunda al infrarrojo cercano, donde casi no hay interrupción y
la transmisividad llega casi al 100%. La tercera ventana corresponde al infrarrojo medio y la cuarta al
infrarrojo térmico.
¿Qué son las firmas espectrales? describí cada una de ellas.
Las firmas espectrales hacen referencia al los niveles específicos de radiancia emitida por los objetos
situados en la superficie de la tierra. En el gráfico de curvas para las firmas espectrales el eje vertical
encontramos los valores asociados con la Refectancia (de 0% a 100%); en el eje horizontal,
encontramos los valores de la longitud de onda en µm (micrómetro). Vemos el color que refleja (los
valores más altos en la curva) y los colores que no vemos los absorbe.
Podemos observar las firmas espectrales de:
Vegetación sana: Azul: baja Verde: media Rojo: baja Infrarrojo cercano: alta Infrarrojo medio: alta
Vegetación enferma: Azul: baja Verde: baja Rojo: baja Infrarrojo cercano: media Infrarrojo medio:
media (perdió los pigmentos)
Suelo desnudo seco: Azul: media Verde: media Rojo: media Infrarrojo cercano: media Infrarrojo
medio: alta
Suelo desnudo húmedo: Azul: baja Verde: baja Rojo: media Infrarrojo cercano: media Infrarrojo
medio: media
Agua cristalina: Azul: media Verde: media Rojo: baja Infrarrojo cercano: baja Infrarrojo medio: baja
Agua con clorofila: Azul: mediaVerde: media Rojo: media Infrarrojo cercano: media Infrarrojo
medio: baja
¿Cuáles son los factores permanentes y no permanentes de contenido del agua en el suelo?
Hay cuatro factores PERMANENTES que influyen en el contenido de agua del suelo:
Textura: tamaño de las partículas que conforman el suelo (arena, limo y arcilla. Establece la retención
hídrica del suelo. Estructura: bloques o masiva. Materia orgánica: la parte productiva del suelo, la
parte viva. Minerales del suelo: cuarzo, minerales, le dan color al suelo.
Hay tres factores NO PERMANENTES que son: Contenido de humedad: cuando el suelo está húmedo
el agua absorbe energía. Los suelos húmedos son más oscuros y el agua absorbe parte de la
radiación por eso son más oscuros. Rugosidad de la superficie: el suelo puede estar liso, la condición
de reflectancia va a ser mayor que en un suelo con rugosidad alta. Ángulos de observación: tiene que
ver con el ángulo del sol en verano o en invierno.
Hay tres factores implicados en la reflectividad del agua, ellos son: Materiales en suspensión: en ese
caso, el agua comienza a absorber energía y responde más en el rojo y el infrarrojo cercano.
Contenido de clorofila.
¿Qué es la resolución? explica los distintos tipos de resolución dentro de un sensor.
La resolución es la capacidad de un sistema sensor para discriminar información dentro de la imagen.
La resolución espacial es el tamaño de la mínima porción de información en el terreno (corresponde
con la mínima unidad de información de una imagen o elemento básico de la misma, denominada
“píxel”). Existe una interdependencia entre el ancho de franja barrida, y las dimensiones del píxel;
cuanto menor es el tamaño del píxel, menor será el ancho de la franja monitoreada; un sistema con
alta resolución espacial trabajará sobre una franja de menor ancho que uno de baja resolución; La
resolución temporal tiene que ver con la frecuencia de paso o al tiempo de revisita del sensor, la
periodicidad con que un sensor toma datos de una misma parte de la tierra. Es el intervalo de tiempo
en el cual son adquiridos los datos, a partir de sensores remotos. La resolución espectral de un
sistema está dada por el número de las bandas que posee. Los sensores disponibles en la actualidad
ofrecen un amplio abanico desde el punto de vista espectral. La resolución radiométrica se refiere a
la capacidad del sensor para detectar variaciones en la radiancia que recibe; está determinada por el
número de niveles discretos en los cuales una señal puede ser dividida. Como se trata de una
codificación digital, generalmente se expresa en el número de bits en que se almacena el nivel digital
correspondiente a cada píxel.
¿Cómo puede ser la fuente emisora de los sensores?
Sensores pasivos u ópticos: dependen de la energía emitida por una fuente externa, el sol. Este
incide sobre los objetos de la superficie terrestre y que es captada por el sistema al recibir la energía
reflejada. Miden en la región del espectro electromagnético en micrómetros (μm). No puede trabajar
en cualquier condición atmosférica.
Sensores activos o radares: Son independientes de fuentes externas de energía, generan su propio
flujo de radiación emitiendo su propio haz de energía, recibiendo la energía de la señal reflejada.
Miden en la región del espectro electromagnético las longitudes de onda denominadas
“microondas”. Trabaja en la banda comprendida entre 0,1 cm y 1 m. Pueden trabajar en cualquier
condición atmosférica, ya que las ondas de radiofrecuencia y las microondas son especialmente
útiles por que en esta pequeña región del espectro las señales producidas pueden penetrar las
nubes, la niebla y las paredes.
¿Cómo puede ser almacenada la información captada por los sensores?
Sensores fotográficos: la información es registrada en emulsión fotográfica al ser recibida,
obteniéndose fotografías a partir de cámaras multiespectrales.
Sensores no fotográficos: La información es almacenada en formato digital: Compatible Computer
Tapes, discos digitales, (CD o DVD), etc.
¿Cómo se clasifican los satélites según la trayectoria que describen?
Geoestacionarios: se sitúan sobre el Ecuador en una órbita a 36.000 km de la Tierra. Permanecen
siempre en la vertical de un punto determinado acompañando a la Tierra en su movimiento de
rotación; tienen una muy alta repetitividad con una muy baja resolución espacial, (GOES, METEOSAT
y todos los de aplicación meteorológica).
Heliosíncronos: se desplazan en órbitas generalmente circulares y polares (el plano de la órbita es
paralelo al eje de rotación de la Tierra) de modo que, aprovechando el movimiento de rotación
terrestre, puede captar imágenes de diferentes puntos cada vez que pase por el mismo punto de la
órbita. Estos satélites orbitan a una altura de la superficie terrestre de 500/800 km. y son
ampliamente utilizados en teledetección, (SPOT, Landsat, SAC-C, etc.)
¿Cuáles son las características de los satélites?
Los sistemas satelitales se identifican por parámetros relacionados con características espaciales,
espectrales, temporales y radiométricas. Los satélites pueden clasificarse según su principal función y
así podemos contar con satélites para comunicaciones, meteorológicos, para aplicaciones terrestres
u oceanográficas y satélites para espionaje, entre otros.
Describir los sensores: Landsat, Spot, NOAA (uso regional, índice de vegetación), IKONOS,
QUICKBIRDS (catastro), CBERS, IRS, TERRA MODIS, GEOS.
Landsat VII Cuenta con un instrumento “ETM+”su órbita es heliosincrónica a una altura de 705 Km con una
revisita de 16 días. Emplea banda S para telemetría y control y banda X para la transmisión de las imágenes.
El tamaño de la escena es de 185 km x 185 km.
Enhanced Thematic Mapper Plus incorpora una banda pancromática, una banda térmica que presenta dos
rangos de ganancia (alta y baja) y una mejor resolución espacial. Posee ocho bandas que pueden obtener
imágenes de alta resolución, ancho de barrido es de 185 km, la resolución espacial es de 30 metros en modo
multiespectral y 15 metros en modo pancromático. Debido a una falla ha quedado fuera de servicio y las
imágenes del ETM+, obtenidas a partir de julio del año 2003, presentan anomalías en los datos.
Landsat 7: (1999) presenta el instrumento ETM+ con una órbita heliosincrónica. Revisita 16 días. Ancho
barrido 185 km. La resolución espacial es de 30 metros en modo multiespectral y 15 metros en modo
pancromático. 8 bandas, del 1 a la 8. La banda 6 comprende la región del IR lejano (10 a 12 um) y cuenta con
una resolución espacial de 60 metros. Una imagen LANDSAT 7 ETM+ está compuesta por 8 bandas
espectrales (denominándose ETM 1, ETM 2, ETM 3[…] respectivamente) que pueden ser combinadas de
distintas formas para obtener variadas composiciones de color u opciones de procesamiento. Entre las
principales mejoras respecto de su antecesor, Landsat 5, se destaca una banda espectral Pancromática con
resolución de 15 metros. También, cuenta con mejoras en las características geométricas y radiométricas y
una mayor resolución espacial de la banda térmica para 60 m. Estos avances tecnológicos permiten calificar
al LANDSAT 7 como el satélite más interesante para la generación de imágenes con aplicaciones directas
hasta una escala de 1:25.000, principalmente, en áreas rurales o territorios de grandes extensiones.
Landsat 7 aplicaciones:
* Banda 1 (azul) para estudios de profundidades marinas por la gran penetración en cuerpos de agua
transparentes. Los pigmentos fotosintéticos absorben energía, apareciendo la vegetación en tonos grises
oscuros. Sensible a plumas de humo originadas en incendios. Banda muy afectada por el proceso de
dispersión atmosférica.
* Banda 2 (verde) muy buena penetración en cuerpos de agua, sensible a la presencia de partículas en
suspensión.
* Banda 3 (rojo) La vegetación verde, sana y vigorosa presenta gran absorción. Permite el mapeo de redes
de drenaje. Banda muy utilizada para la identificación de vías de comunicación.
* Banda 4 (IrC) agua presenta gran absorción, aparecen en tonos oscuros,permitiendo una
muy buena separación entre tierra y agua. Presenta sensibilidad a la rugosidad y morfología del terreno;
permitiendo la obtención de información sobre geomorfología, suelos, y geología. Útil para separar áreas
quemadas. Permite la identificación de áreas agrícolas.
* Banda 5 (IrM) identifica la humedad en vegetación y suelos; estudios de estrés hídrico de la vegetación.
Banda relacionada con la composición mineralógica de suelos y rocas.
* Banda 6 (irL) sensibilidad a contrastes térmicos, útil para detectar propiedades térmicas de rocas, suelos,
vegetación y agua.
* Banda 7 Presenta sensibilidad a la morfología del terreno; permite obtener información sobre
geomorfología, suelos y geología. Esta banda es muy útil para la identificación de minerales.
Landsat VIII (2013) permite recoger imágenes del planeta Tierra en forma constante. Equipada con dos
instrumentos principales: Operational Land Imager (OLI), Thermal InfraRed Sensor (TIRS), operará desde
unos 705 Km de altitud durante al menos 5 años.
Operational Land Imager (OLI) presente en el Landsat VIII, es una cámara que provee cobertura estacional
de la superficie terrestre con una resolución espacial de 30 metros, en las bandas del visible, infrarrojo
cercano (NIR) e infrarrojo medio de onda corta (SWIR), incorpora dos nuevas bandas espectrales, una
especialmente destinada para detectar nubes tipo cirrus y otra para observaciones de zonas costeras.
Thermal InfraRed Sensor (TIRS) permitirá obtener datos en dos bandas espectrales en la región del
Infrarrojo térmico, con una resolución espacial de 100 metros, además de ayudar en aplicaciones
emergentes tales como mediciones de la tasa de evapotranspiración para la gestión del agua. Posee también
un modo pancromático con una resolución espacial de 15 metros.
Landsat 8: cuenta con dos instrumentos, el OLI que es una cámara con una resolución espacial de 30 metros,
en las bandas del visible, infrarrojo cercano (NIR) e infrarrojo medio de onda corta (SWIR), incorpora dos
nuevas bandas espectrales, una especialmente destinada para detectar nubes tipo cirrus y otra para
observaciones de zonas costeras.
El TIRS, tiene una resolución espacial de 100m. Su objetivo principal es obtener las características de
temperatura de la superficie y estudiar el proceso de transferencia de calor y humedad en el ámbito de la
agricultura, la gestión del agua, etc.
Landsat 8 aplicaciones:
*Banda Costera (0,43 a 0,45 um) Estudios costeros y de aerosoles.
*Banda azul (0,45 a 0,5) Cartografía batimétrica, que distingue el suelo de la vegetación y la vegetación
caducifolia de la vegetación de coníferas
*Banda verde (0,5 a 0,6) Destaca los picos de máxima vegetación, que son útiles para evaluar el vigor de las
plantas.
*Banda Infrarrojo de Onda Corta 1 (SWIR 1) (1,5 a 1,6) distingue la humedad del suelo y de la vegetación;
penetra a través de nubes finas
*Banda Infrarrojo de Onda Corta 2 (SWIR 2) (2,1 a 2,3) mejora de la lectura de la humedad del suelo y la
vegetación y la penetración a través de nubes finas
*Banda Cirrus (1,3 a 1,4) Mejor detección de la contaminación en nubes cirros.
* Banda Tirs Sensor Térmico Infrarrojo 1 y 2 (10 a 11) mapeo térmico y humedad estimada del suelo.
Uso para observación de cambio de la cobertura terrestre y uso de la tierra, agricultura, silvicultura,
geología, hidrología, recursos costeros, monitoreo medioambiental.
Para el análisis de superficies agrícolas se pueden utilizar sensores satelitales de resolución moderada, como
por ejemplo el Landsat.
SPOT
Fue establecido en Francia. El satélite está compuesto de dos partes: una plataforma multimisión estándar y
una carga útil. La plataforma incluye los instrumentos HRV (High Resolution Visible) que permite obtener
imágenes en dos modos: Pancromático (P) y Multiespectral (XS), recogiendo información en las bandas del
verde, rojo e infrarrojo cercano, con una resolución espacial de 10 y 20 metros respectivamente.
Spot (1986) Spot 2 (1990) y Spot 3 (1993) presentan una configuración similar, en relación al diseño de la
plataforma y a su carga útil. Órbita heliosincrónica, revisita es de 26 días. Ancho de barrido 60 km.
Resolución espacial 20 m en xs i, ii y iii (multiespectral) y 10 m en pancromático.
Spot 4 (1998) incorpora modificaciones con respecto a los sensores que porta y a la resolución espacial al
igual que el Spot 5 (2002) que aún continúa prestando servicio.
Órbita heliosincrónica, revisita es de 26 días. Ancho de barrido 60 km. Resolución espacial: (xs i,ii y ii) 10 m,
(xs iv) 20 metros y (pancromático) 5 m.
Spot 4 incorpora un instrumento diseñado para el estudio y monitoreo de las condiciones de la vegetación
a nivel regional/global, llamado Instrumento VEGETATION 1; revisión de 24 horas, con una resolución
espacial de 1 km. y una resolución espectral de cuatro bandas (azul, rojo, infrarrojo cercano e infrarrojo
medio de onda corta).
Spot 6 (2012) y Spot 7 (2014) forman una constelación de satélites de observación de la Tierra diseñada
para garantizar la continuidad de la disponibilidad de los datos de alta resolución y campo amplio hasta
2024.Resolución espacial Pancromático 1,5 m, Multiespectral 6 m. Bandas espectrales Pancromático (455 -
745 nm), banda azul, verde, roja e Infrarrojo cercano.
Para la actividad frutihortícola se necesitan sensores de alta resolución espacial, ya que las parcelas son
pequeñas. Para ello podemos utilizar sensores como el Spot 6/HRVIR por ejemplo, o el Worldview-2.
Una de las ventajas de Spot es su banco de imágenes, que cubre el planeta desde hace más de 20 años con
sensores similares. Este banco permite estudiar fácilmente fenómenos que evolucionan a través del tiempo
y el espacio (deforestación, etc.).
Agricultura: el sensor infrarrojo permite la identificación de las plantas y del estado de maduración.
Evaluación de los daños provocados por fenómenos meteorológicos adversos (viento, granizo, etc.).
Cartografía: Spot 5 y su sensor pancromático (resolución de 5m y 2,5 m en súper-modo) permite la
elaboración de mapas a escala 1:50.000.
Otros ámbitos de aplicación: Gestión del medio ambiente, Marítimo, Ordenación del territorio e ingeniería
civil, Urbanismo y demografía.
Los datos aportados por el instrumento VEGETATION pueden ser utilizados para la generación de Índices de
Vegetación, tal como el NDVI (Índice de Vegetación de Diferencia Normalizada), de amplia difusión para el
estudio de variaciones estacionales en determinadas cubiertas vegetales. Spot 5 puede también ofrecer un
modo de muy alta resolución espacial, obtenido a partir de la combinación de dos imágenes pancromáticas
adquiridas simultáneamente, 22 muestreando cada 2.5 metros. Cuenta con el “Instrumento VEGETATION 2”,
el cual tiene las mismas especificaciones técnicas que el VEGETATION 1. El ancho de faja monitoreada es de
60 km. El Spot Vegetation puede utilizarse para realizar estudios a nivel regional, pero no a nivel de parcelas
porque su resolución es muy baja.
PROGRAMA TERRA El satélite Terra (2000) buscaba generar conocimientos sobre la dinámica atmosférica
global y sobre la interacción tierra, océano y atmósfera. Terra describe una órbita polar, heliosincrónica.
Posee una carga útil que incluye cinco sensores: ASTER, CERES, MISR, MODIS y MOPITT
El CERES sensor que mide el balance de radiación global terrestre; provee información sobre las propiedades
de las nubes, tales como altura, espesor, tipo, cantidad y tamaño de partículas; los parámetros que estima
este sensor pueden integrarse en modelos de predicción climática y ayudan a comprender el fenómeno de
calentamiento global del planeta.
El MISR toma imágenes de la tierra en nueve ángulos distintos, en forma simultánea. Las nueve cámaras
operan en cuatro bandas espectrales centradas en el azul, verde, rojo e infrarrojo cercano; las bandas del
rojo e infrarrojo cercano proveen información sobre la cobertura vegetal y de los aerosoles marinos; la
banda del azul provee información sobre la distribucióndel tamaño de los aerosoles. Estas características
permiten realizar estudios sobre la cantidad y tipo de aerosoles atmosféricos; cantidad, tipo y altura de las
nubes y la distribución de las cubiertas terrestres. Presenta una resolución espacial de 275 metros; barre
una franja de 360 km, con revisita de 9 días.
MOPITT instrumento para observar las condiciones de la atmósfera baja, su interacción con la superficie
terrestre y oceánica. Su propósito es estudiar la distribución, transporte, fuentes y sumideros de monóxido
de carbono y metano en la troposfera. Ancho de barrido de 640 km. y una resolución en el nadir de 22 km.
El instrumento adquiere datos en forma continua, tanto de día como de noche. Permite medir y modelar las
concentraciones de metano y monóxido de carbono en la troposfera; obtener perfiles de monóxido de
carbono.
El ASTER obtiene imágenes de mayor resolución espacial; opera en las regiones espectrales del visible,
infrarrojo cercano, infrarrojo medio de onda corta (SWIR) e infrarrojo térmico. Las zonas visibles y NIR están
diseñadas para estudiar las características de la capa de nieve, el agua, la vegetación y el grado de oxidación
de la superficie de los objetos. El rango de IR medio de la zona es óptimo para el reconocimiento de
minerales, especialmente de minerales hidratados en los suelos arcillosos. Las zonas de rango térmico están
diseñadas para registrar la temperatura de la superficie terrestre y descifrar los principales tipos de rocas.
Además de la multizona, la característica distintiva del radiómetro ASTER es la capacidad de realizar
fotografías en estéreo. Las principales áreas de uso de imágenes ASTER son: estudios de cambios en los
ecosistemas globales; monitoreo de desastres naturales; estudios geológicos, edafológicos, climatológicos,
hidrológicos; estudio de cambios en la cobertura vegetal. Beneficios de las imágenes ASTER: seguimiento de
cultivos agrícolas. Inventario de terrenos agrícolas, elaboración de planes de ordenamiento territorial,
agricultura de precisión. Seguimiento de situaciones de emergencia. Evaluación del estado de los bosques.
Amplia gama de tareas en el campo de la protección del medio ambiente.
MODIS es el instrumento dominante a bordo del satélite Terra; fue el primer sensor con capacidad
hiperespectral puesto en órbita; adquiere imágenes en 36 bandas espectrales, localizadas entre 0.4 y 14 µm,
con diferentes resoluciones espaciales, con una frecuencia temporal de 1-2 días. Las 2 primeras bandas: rojo
e infrarrojo cercano, presentan una resolución espacial de 250 metros, las 5 siguientes: azul, verde,
infrarrojo cercano e infrarrojo medio de onda corta tienen una resolución de 500 metros, siendo ésta de
1000 metros para las 29 bandas restantes. Tiene un ancho de barrido de 2330 km y provee imágenes, de
alta resolución radiométrica (11 bits), de la radiación reflejada diurna y de la emisión térmica diurna y
nocturna. Opera continuamente durante el día y la noche; durante el día toma datos en todas las bandas y
en la noche sólo las correspondientes al térmico. Las aplicaciones del MODIS son muy diversas incluyen
entre otras: evaluación de temperatura superficial de la tierra y los océanos, monitoreo de incendios,
estudios del color del océano, cartografía de vegetación global y detección de cambios, características de las
nubes, concentración de aerosoles, etc. A pesar de la creencia popular de que MODIS es un satélite, en
realidad es un instrumento a bordo de un satélite. Tiene 36 bandas espectrales, resolución de 250-1000
metros y promedios de 2 días. Debido a su enorme cobertura, nos permite monitorear actividades como
incendios activos, cambio de uso de la tierra y actividad volcánica. Desde su lanzamiento, MODIS ha sido
referido como el instrumento por excelencia de la observación de la Tierra. Esto se debe a que cubre más
terreno, captura más bandas espectrales con mayor frecuencia temporal. Por ejemplo, recopila datos
esenciales sobre la tierra, el océano y la atmósfera aproximadamente cada 2 días. En estos 3 ejemplos a
continuación, apenas rascamos la superficie de las aplicaciones y usos de las imágenes MODIS.El algoritmo
de detección de incendios utiliza MODIS para detectar incendios activos. Al comparar la temperatura con los
píxeles vecinos, determina la gravedad y el alcance del incendio. Pero si el fuego es demasiado pequeño
para detectarlo debido a la resolución espacial del sensor, el satélite no puede detectarlo. Las nubes son
fundamentalmente importantes en el clima. MODIS tiene en cuenta la temperatura y la altura de las nubes,
así como la composición del hielo o el agua. Para las primeras 20 bandas, captura la radiación solar reflejada.
A partir de estas bandas, podemos comprender mejor las propiedades físicas del medio ambiente. Por
ejemplo, usamos sus 16 bandas térmicas para medir la temperatura de la superficie y del océano. MODIS
tiene una resolución de píxeles de 250 m, 500 ma 1 km. Comenzando con su mejor resolución espacial,
puede distinguir características del tamaño de 3 campos de fútbol. Pero su activo más importante es su
enorme franja que cubre un ancho de 2.330 km a una sensibilidad radiométrica de 12 bits.
Para realizar monitoreos sobre áreas regionales, en incendios por ejemplo) podemos utilizar sensores
satelitales que nos permitan abordar estudios de tipo regional, que abarquen grandes áreas, tal es el caso de
los satélites Spot 4/5 Vegetation (1000 m), MODIS/Terra (250 m a 1000 m), NOAA/AVHRR.
SATÉLITES COMERCIALES DE ALTA RESOLUCIÓN
IKONOS 1999, pero una falla hace fracasar la misión. Ese mismo año se pone en órbita el IKONOS II, el cual
continúa operando. Característica sobresaliente una alta resolución espacial, 1 metro en modo
pancromático (1 banda) y 4 metros en modo multiespectral (4 bandas), obteniendo datos en el rango de
0.45 a 0.90 µm, con una resolución radiométrica de 11 bits. Esta tecnología está primeramente restringida
para aplicaciones militares, tal como el caso de catastro de áreas urbanas. Revisita: 3 días
(aproximadamente)
QUICK-BIRD 2001. Es un satélite único en su tipo permitiendo obtener imágenes con una resolución espacial
en el modo pancromático de 0.70 metros, y en el modo multiespectral 2.8 metros. Opera en cuatro bandas
del espectro (azul, verde, rojo e infrarrojo cercano). La cuantificación de los datos de cada píxel se realiza,
igual que en el IKONOS en 11 bits. La revisita es de 1-3 días.
EROS 2000 EROS A1 en una órbita heliosincrónica. El EROS es un satélite liviano, equipado con un sistema de
cámara simple, con detectores CCD (Charge Coupled Device), que adquiere imágenes en una franja de 14 km
de ancho, solamente en modo pancromático con una resolución espacial de 1.80 metros, en una franja de
13.5 km.
ORBVIEW-3 1995 OrbView-1, actualmente fuera de operación, orientado a aplicaciones meteorológicas; en
el año 1997 lanza el OrbView-2, el cual porta un sensor especialmente diseñado para aplicaciones
oceanográficas, con una resolución espacial de 1.1 km, que le permite evaluar condiciones, tanto de la
superficie terrestre como de los océanos a una escala global. 2003 OrbView- 3 éste posee características
totalmente distintas a las de sus predecesores, obtiene imágenes con una alta resolución espacial, 1 metro
en modo pancromático y 4 metros en modo multiespectral, características éstas que posibilitan llevar a cabo
estudios que requieran alta precisión, tales como catastros urbanos y rurales. Este satélite permite obtener
imágenes con mira lateral de hasta 45°, pudiendo, así, generar productos para estereoscopía.
PROGRAMA DEIMOS 2009 es un satélite de órbita polar, que porta un sensor óptico multiespectral que
registra información en tres bandas espectrales: roja, verde e infrarroja cercana, que coinciden exactamente
con las bandas 2, 3 y 4 del satélite Landsat, posee una resolución espacial de 20 m que proporciona
imágenes adaptadas al estudio de la cubierta vegetal terrestre, al seguimiento de desastres naturales, el
cambio climático y el medio ambiente.
SATÉLITESMETEOROLÓGICOS
Los primeros satélites específicamente meteorológicos fueron los TIROS puestos en órbita a principios de los
años 60 y permitieron una visión global de los sistemas nubosos. En 1978 fue puesto en órbita el TIROS N,
precursor de los satélites NOAA 6 y 7. Las imágenes de los satélites meteorológicos se utilizan
principalmente para la visualización de nubes, clasificación, observación del vapor de agua existente en la
alta y media atmósfera, temperaturas de la superficie de tierra y temperatura superficial del mar.
Actualmente existen dos grandes grupos de satélites meteorológicos: los de órbita polar (TIROS-NOAA;
METEOR y NiMBUS) y los de órbita ecuatorial (GOES y METEOSAT), también llamados geoestacionarios,
debido a que su movimiento se encuentra sincronizado con el movimiento de rotación de la Tierra.
PROGRAMA NOAA
Aunque la finalidad primitiva era la observación meteorológica, los datos aportados por estos satélites han
encontrado numerosas aplicaciones en el campo de la observación de la Tierra, siendo el sensor AVHRR una
de las fuentes más utilizadas para la generación, a partir de los datos aportados por las bandas del visible e
infrarrojo cercano, Índices de Vegetación, tal como el NDVI, útiles para el seguimiento de las condiciones de
la vegetación a nivel regional. El NOAA-L y el NOAA-M que se caracterizan por la presencia de instrumentos
de microondas que permiten el trabajo en zonas nubosas, en las cuales los instrumentos que operan en las
zonas visible e infrarroja tienen problemas de operación. El principal sensor del NOAA es el radiómetro
AVHRR, trabaja en 5 bandas espectrales, una en el visible, una en el infrarrojo cercano, una en el infrarrojo
medio, cuyo rango cambia según opere de día o de noche, y dos en el Infrarrojo lejano (térmico). Los datos
AVHRR se presentan en dos formatos diferentes: Formato LAC datos de máxima resolución espacial (1.1 km),
y formato GAC datos de menor resolución con un píxel de 4.4 km. Ambos con revisita de 12 hs.
PROGRAMA GOES La serie de Satélites GOES son operados por la NOAA; están ubicados en Orbita
ecuatorial; en este tipo de órbita el satélite gira con la misma velocidad angular de la tierra, observando
siempre la misma región. Son capaces de visualizar aproximadamente una tercera parte de la superficie
terrestre. Registra, cada 15 minutos imágenes meteorológicas. El principal instrumento del Satélite GOES es
un radiómetro visible e infrarrojo VISSR. Estos sensores poseen una resolución espacial que varía de 1 km a 4
km.
PROGRAMA METEOSAT 1977 Debido a su posición, este satélite describe una órbita con una velocidad de
traslación coincidente con la de rotación de la tierra observando en todo momento la misma zona del globo.
Obtiene imágenes cada media hora lo cual es una buena resolución temporal para el seguimiento de los
fenómenos de tipo meteorológico como pueden ser por ejemplo la distribución y variación de la nubosidad.
Es posible disponer de tres imágenes cada media hora, denominadas Visible (VIS), Infrarroja Térmica (IR) e
Infrarroja de Vapor de Agua (VA). El Meteosat 9, puesto en órbita en 2005, lleva a bordo el sensor SEVIRI.
Este Instrumento es un radiómetro que obtiene imágenes cada 15 minutos, con una resolución espacial de 3
km. en 12 bandas espectrales.
El SAC-C es el primer satélite argentino de observación de la Tierra para estudiar ecosistemas terrestres y
marinos, la temperatura, la atmósfera, el campo magnético terrestre y componentes de onda larga del
campo gravitatorio terrestre.
El SAC-D Aquarius se desarrolló en cooperación entre el CONAE, el Goddard Space Flight Center y el Jet
Propulsion Laboratory. Permite estudiar las interacciones entre la circulación oceánica, el ciclo global del
agua y el clima de la Tierra, la relación entre la humedad del suelo, las variables climáticas y el monitoreo y
alerta temprano de desastres naturales.
¿Qué funciones cumplen los sensores hiperespectrales?
Los sensores hiperespectrales tienen la capacidad de captar energía en una gama muy amplia de
longitudes de onda, se logra la identificación de recursos terrestres con mayor precisión; en
particular este tipo de sensores son muy utilizados para la identificación de recursos minerales
porque al proveer información en un espectro prácticamente continuo permiten discriminar
parámetros que no serían perceptibles con sensores convencionales. Las bandas en un sensor
multiespectral están separadas por intervalos de longitud de onda, mientras que en un sensor
hiperespectral el resultado es casi un continuo en el espectro para cada píxel de la imagen.
¿Qué son las estaciones receptoras?
Pueden agruparse en dos categorías: 1) Estaciones que tienen como única función recibir
información del satélite y 2) Estaciones que, además de recibir información del satélite, pueden
enviar comandos de funcionamiento y mantenimiento del satélite y transmiten instrucciones o
comandos. Las primeras son las que se encuentran fuera del territorio del país de origen del sistema
satelital, por ejemplo para el caso del satélite Landsat fuera de Estados Unidos y en el segundo grupo
se encuentran las estaciones localizadas en ese territorio. En América del Sur existen tres estaciones
receptoras, localizadas en Brasil, Ecuador y Argentina. Nuestro país cuenta con una estación
receptora, la Estación Terrena Teófilo Tabanera dependiente de la Comisión Nacional de Actividades
Espaciales (CONAE), localizada en Falda del Carmen, Córdoba. Esta estación realiza la recepción de
datos satelitales de Argentina, Chile, Bolivia, Paraguay, Uruguay y un área importante de Perú y
Brasil.
¿Cuál es el tipo de satélite que opera en la región de las microondas?
Radar
¿Cuáles son los elementos de la interpretación visual?
Color Natural 123
filtro Blue / banda del Blue 1
filtro Green / banda del Green 2
filtro Red / banda del Red 3
Falso Color Compuesto Stándar 234
filtro Blue / banda del Green 2
filtro Green / banda del Red 3
filtro Red / banda del infrarrojo cercano 4
Falso Color Compuesto 354
filtro Blue / banda del Red 3
filtro Green / banda del infrarrojo medio 5
filtro Red / banda del infrarrojo cercano 4
Los elementos de interpretación visual son:
- Tono: el tono se relaciona con la intensidad de energía reflejada por una superficie en una
determinada banda del espectro electromagnético.
- Color: está relacionado con la energía reflejada por los objetos en las diferentes longitudes de onda
del espectro visible. Nos ayuda a identificar el tipo de cubierta, si es cemento, si es vegetación, si es
zona rural, si es monte, etc.
- Textura: cambios de tono en una imagen se manifiesta a través de una aparente rugosidad
observada en la superficie. Puede significar zonas irregulares o zonas de monte.
- Diseño: o patrón se refiere al ordenamiento espacial de los objetos con características tales que
permiten su fácil identificación. Puede ser diseño natural (relieve y drenaje) o antrópico (en grilla,
cuadrel o cuadrícula o geométrico en áreas rurales). Sirve para identificar el diseño en la zona
urbana, si es un diseño geométrico como en el caso de la zona rural donde se pueden observar los
lotes de cultivo.
- Forma: la forma permite reconocer en las imágenes objetos de carácter individual como
aeropuertos, hipódromos, parques industriales, cuerpos de agua, rasgos geológicos.
- Tamaño: el tamaño es un elemento importante para lograr mayor precisión de la identificación de
objetos. Nos ayuda a clasificar los lotes de cultivo en pequeños para producciones frutihortícolas,
medianos para la producción agrícola o grandes para la ganadería.
- Asociación: se entiende por la relación que existe entre una determinada cubierta con elementos
vecinos en la imagen. Nos ayuda a identificar las vías de comunicación entre las ciudades, como
caminos y rutas.
- Sombra: la sombra favorece la interpretación de rasgos y dependen de la resolución espacial del
ángulo solar, es decir, la fecha de adquisición de la imagen y de la dimensión de los objetos.
- Contraste: el contraste es unelemento importante que permite identificar objetos y se puede
definir como la relación entre el tono y el color entre las distintas superficies.
- Escala: la escala es la relación de distancia entre dos puntos en un mapa fotografía o imagen y su
correspondiente en el terreno.
Datos para cálculo de escala
Escala de la Carta = 1:100.000
a) Distancia en la carta= 15,5 cm
Distancia en la imagen = 10 cm
b) Distancia en la carta 8,5 cm
Distancia en la imagen = 5,5 cm
c) Distancia en la carta = 11,7 cm
Distancia en la imagen = 7,5cm
Cálculo de la escala de la imagen
Ei = (Ec * Dc) / Di
a) Ei = (100000*15,5 cm) / 10cm
Ei = 1550000 cm / 10 cm
Ei = 155000
b) Ei = (100000*8,5 cm) / 5,5 cm
Ei = 850000 cm / 5,5 cm
Ei = 154545
c) Ei = (100000*11,7 cm) / 7,5 cm
Ei = 1170000 cm / 7,5 cm
Ei = 156000
Escala promedio (Ep) = (155000+154545+156000) / 3
Ep = 465545 / 3
Ep = 155182
Cálculo de superficies
Con los datos de la escala se calculan dos superficies rectangulares, una correspondiente a un
establecimiento y otra a una parcela con las siguientes medidas:
Superficie del establecimiento
1 cm ______ 155182 cm = 1,5 km
2,5 cm ____ (2,5 cm * 1,5 km) / 1 cm = 3,75 km
3,75 km * 3,75 km = 14 km2
14 km² ______ 1400 has
Superficie de la parcela
1 cm _____ 1,5 km
1,5 cm ___ (1,5 cm * 1,5 km) / 1 cm = 2,25 km
1,4 cm ___ (1,4 cm * 1,5 km) / 1 cm = 2,1 km
2,25 km * 2,1 km = 4,7 km
4,7 km² ______ 470 has
Cálculo de longitud
1 cm ______ 1,5 km
5 cm ______(5 cm * 1,5 km) / 1 cm = 7,5 km
¿Cuál es el país Sudamericano que construyó junto a China la serie de satélites C-bers?
Brasil.
¿Cual es la Principal Institución Argentina Que Implementa El Plan Espacial Nacional?
CONAE. Comisión Nacional de Actividades Espaciales.
¿Cómo es el proceso de formación de imágenes a través de la cámara?
En cámaras analógicas: la energía luminosa que pasa a través de la lente de la cámara choca sobre
pequeñas partículas en la emulsión de la película expuesta y crea una imagen que se fija en la
película por soluciones químicas. Las soluciones fijadoras que se usan cambian la imagen latente de
la película por una masa de cristales.
En cámaras digitales: En las cámaras digitales el sensor no es una película (como en las cámaras
analógicas) sino un detector de estado sólido compuesto por numerosas celdas fotovoltaicas o
fotoeléctricas (píxeles); a mayor cantidad de celdas mayor es la resolución de la cámara. La energía
lumínica captada por cada una de las celdas fotovoltaicas es transformada en voltaje el que luego es
transformado a un valor de nivel digital. Los niveles digitales altos corresponden a niveles de grises
claros y los bajos a niveles de grises oscuros. Luego se le asigna el color a través de una serie de
filtros RGB (red-green-blue) incluidos en el sensor.
¿Cómo se clasifican las fotografías aéreas? según el eje óptico, según el tamaño de escala, etc.
Las fotografías aéreas se usan para la evaluación de recursos terrestres, y son tomadas con cámaras
métricas que son construidas con componentes de excelente calidad y sometidas a procesos de
calibración. La cámara métrica de toma de vistas posee tres parámetros de orientación interna: la
distancia focal, el centro de la fotografía, y la ley de distorsión del objetivo. Una fotografía obtenida
por medio de una cámara de toma de vistas recibe el nombre de fotograma o aerograma. El formato
de las cámaras métricas generalmente es de 23 cm x 23 cm.
Según la inclinación del eje óptico de la cámara.
Fotografías verticales: el eje óptico de la cámara perpendicular al plano horizontal de la tierra, y con
el plano de la película tan horizontal como sea posible. Debido a las inevitables inclinaciones o giros
del avión es casi imposible que el eje esté perfectamente vertical.
Este tipo de fotografía es una representación fiel del terreno, lo que permite la lectura de detalles
planimétricos, mediciones de distancias, superficies, volúmenes y alturas, confección de mosaicos y
fotos índices, tener una buena apreciación del terreno con visión estereoscópica y actualizar cartas
ya existentes.
Casi la totalidad de los trabajos de fotogrametría y de fotointerpretación que usan fotografías aéreas
se realizan con fotografías verticales, debido a que éstas presentan la perspectiva más cercana a la
visión en planta y son más fácilmente convertidas a la proyección ortogonal, que se verá más
adelante.
Fotografías oblicuas: son fotografías tomadas con el eje óptico de la cámara intencionalmente
https://www.argentina.gob.ar/ciencia/conae
inclinado. Cuando el eje óptico de la cámara es tan inclinado que en la fotografía aparece el
horizonte, la fotografía se llama oblicua alta, en comparación con aquella fotografía inclinada en la
que no aparece el horizonte y que se denomina oblicua baja. Se obtiene con una inclinación del eje
de la cámara de aproximadamente de 60º, mientras que la oblicua baja con un ángulo de
aproximadamente 30º. Proporcionan una gran cantidad de información y son preferidas para ciertas
aplicaciones. Las fotografías oblicuas suelen considerarse como una foto auxiliar, o sea, un
complemento de la fotografía vertical que ayuda en la interpretación del terreno.
Según la escala
Pequeñas 1:50.000 a 1:25.000 (Reconocimiento de rasgos geográficos y geológicos generales: tipo de
drenaje, afloramientos rocosos. Zonas de vegetación arbórea, áreas agrícolas y urbanas. Cartografía
de recursos forestales y agrícolas. Planos altimétricos.Evaluación de recursos forestales y agrícolas.
Elaboración de cartas altimétricas con curvas cada 10 a 15 m.)
Medianas: 1:25.000 a 1:12.000 (para trabajos detallados de fotointerpretación en geología, suelos,
aspectos geográficos, forestales y urbanos. Escala utilizada en la localización de caminos,
levantamientos de suelos, levantamientos de catastro rural, clasificación de bosques y vegetación
arbustiva. Elaboración de cartas altimétricas con curvas de nivel cada 5 m. Trabajos detallados de
fotointerpretación en aspectos forestales, en estudios agrológicos con definición de series,
planificación urbana y parcelamiento rural.)
Grandes: 1:12.000 a 1:5.000 (Estudios muy detallados de planificación y catastro de ciudades,
ordenamiento territorial. Diagnostico y control de plagas y enfermedades. Trabajos de ingeniería
como excavaciones y perfiles.).
Según la relación película - filtro
• Fotografía nocturna: obtenida durante la noche utilizando medios de iluminación (bengalas) que
deben estallar a cierta altura de la tierra.
• Fotografía color: de especial valor para la identificación de la vegetación, afloramientos rocosos,
suelos, profundidades de agua.
• Fotografía infrarroja: film en blanco y negro con una emulsión sensible a las radiaciones del cercano
infrarrojo y azules. Este tipo de film es usado en días de niebla por el poder de penetración de la luz
infrarroja. La variación que produce el efecto infrarrojo en los diferentes objetos es de gran valor en
la fotointerpretación y de ahí su uso en la demarcación de diferentes tipos de vegetación,
delimitación de líneas costeras, extensión de áreas inundadas, ríos, etc.
• Fotografía infrarrojo color: film de color reversible usado para detectar áreas de color verde,
vegetación seca, etc.; diferenciándolos de la vegetación viva. Se asemeja al film color porque tiene
tres emulsiones separadas fijadas sobre el mismo sostén . Este tipo de fotografías nos servirá para
determinar el límite alcanzado por las aguas en una inundación, delimitar áreas enfermas dentro de
un cultivo, et
• Fotografías térmicas: son fotografías provistas de emulsiones especiales, sensibles a las radiaciones
térmicas, basados en la consideración existente de que todo objeto irradia algo de calor.
Según el registro directo o indirecto de la imagen de un objeto
• directas: cuando la imagen de un objeto es registrada directamente por la cámara de una manera
convencional.
• indirectas: cuando la cámara recoge una imagen sobre una pantalla o sobre la superficie de un
dispositivo similarpor medios electrónicos (televisión, radar, etc.).
Según el tipo de cámara empleada
• simples
• compuestas: obtenidas mediante cámaras múltiples. Esta cámara posee una lente principal, dos o
más secundarias a su alrededor y lentes oblicuas dispuestas simétricamente. Las fotografías así
obtenidas pueden ser enderezadas o rectificadas para permitir su ensamble con las verticales de la
misma escala y formar una sola fotografía.
• continuas: se obtienen mediante la cámara SONNE, que fotografía una franja continua del terreno.
La velocidad del film (tiempo de exposición) está en relación con la velocidad y altura del avión.
¿Cuáles son los métodos para la determinación de la escala?
Métodos para la determinación de la escala (en orden decreciente de exactitud):
a) Fotografía – terreno
b) Fotografía – carta
c) Fotografía – objeto de dimensiones conocidas
d) Longitud focal – altura de vuelo
Los datos marginales de las fotografías aéreas suministran los valores de distancia focal y altura de
vuelo, por lo tanto, se deduce, de acuerdo a la fórmula, que la escala de la fotografía es directamente
proporcional a la distancia focal e inversamente proporcional a la altura de vuelo. Para obtener una
escala de mayor precisión será necesario introducir en la fórmula anterior no la altura absoluta del
terreno (desde el centro del objetivo al nivel del mar) sino la relativa, o sea, la altura del avión con
respecto a un plano de referencia (plano horizontal del objetivo a considerar).
De acuerdo a lo anteriormente expresado, o sea, considerando el relieve del terreno, la fórmula para
su cálculo será:
H: altura de vuelo absoluta
h: altura del objeto sobre (-) o bajo (+) el nivel del mar.
Es conveniente establecer en terrenos elevados una cota promedio de elevación del mismo por
medio de la carta para el cálculo de la escala.
Los métodos anteriormente descriptos tienen numerosos factores de error entre los que se pueden
enumerar:
• El límite de resolución de la fotografía.
• El grado de ampliación o reducción de la fotografía.
• La distorsión.
• La variación de relieve.
1°) El método fotografía – terreno requiere tener en cuenta que el porcentaje de error aumenta,
cuando la medida de las distancias decrece. De esta forma, cuando la longitud conocida es muy
pequeña el porcentaje de error será muy alto.
2°) El método fotografía – carta requiere medidas muy acertadas o el uso de cartas de escala grande
que proporciona la probabilidad de medidas correctas.
E = F / H ± h
3°) el método fotografía – objeto conocido requiere tener en cuenta que el porcentaje de error
aumenta en la medida en que se reduce la longitud de un objeto. De esta forma cuando los objetos
de longitud conocida son muy pequeños el porcentaje de error será muy alto.
4°) el método longitud focal – altura de vuelo requiere la determinación de la altura efectiva a la que
fue tomada la fotografía, teniendo en cuenta los errores de altímetro y la altitud a nivel del mar del
punto cuya escala se desea conocer.
¿De qué manera se pueden ver afectadas las fotografías aéreas? (deformaciones geométricas)
La imagen fotográfica está afectada por deformaciones geométricas como:
▪ El desplazamiento por relieve.
▪ El desplazamiento es por la inclinación de la cámara.
▪ La distorsión del objetivo: es muy importante debido a que afecta la posición de los detalles y no a
la calidad visual de la imagen, y por lo tanto altera la precisión de las mediciones fotogramétricas.
También la fotografía aérea se ve afectada por una serie de deformaciones menores como los
cambios dimensionales por la tensión o la variación de la temperatura y la humedad, las
irregularidades de la superficie y la estructura de la emulsión.
¿Qué son la nitidez, el contraste y la escala?
La fotografía aérea debe ser estudiada bajo los conceptos de nitidez, contraste y escala:
NITIDEZ depende de las características del objetivo, del enfoque del sistema, del movimiento de la
imagen (producido por vibraciones o por un tiempo de exposición prolongado) y de las
características del material fotográfico
CONTRASTE función de la iluminación solar y las condiciones atmosféricas en el momento de tomar
la foto, de la reflectividad del objeto y sus alrededores, de la refracción por niebla atmosférica, de la
sensibilidad espectral de la emulsión, de la transmisión espectral del filtro, del proceso de revelado
del negativo y del proceso de copiado y revelado del positivo.
ESCALA función del valor de distancia principal de la cámara (distancia focal) y la altura de vuelo
sobre el terreno.
¿De qué consta la información marginal de las fotografías?
La imagen fotográfica tomada con una cámara métrica convencional está acompañada de
información marginal que es necesaria para el manejo y la extracción de información a partir de ella.
La mayor parte de esa información está contenida en el marco del plano focal de la cámara. A
continuación, se muestra la información marginal de una fotografía convencional
Marcas Fiduciales son puntos o cruces ubicadas en las cuatro esquinas y/o en el punto medio de los
cuatro lados de la fotografía. La intersección de los pares de marcas fiduciales diametralmente
opuestas define el punto central de la fotografía donde la escala de la fotografía es exacta.
Niveles de burbuja cumplen la función de dar una idea de la horizontalidad de la cámara al
momento de realizar el vuelo. Generalmente están incorporados a las cámaras métricas y tienen un
prolongado tiempo de reacción. Recientemente se han desarrollado sistemas que permiten conocer
la inclinación del eje de la cámara durante la exposición, con muy buena precisión.
Reloj indica la hora para el momento de la exposición. Este dato es útil para la determinación de la
posición del sol y para algunos cálculos, por ejemplo, la velocidad del avión que tomó las fotografías
o la velocidad de un vehículo de la escena fotografiada.
Altímetro o Estatóscopo registra la altura absoluta sobre el nivel del mar. Permite determinar
variaciones altimétricas en la trayectoria del avión, durante el vuelo fotogramétrico.
Identificación de la cámara Indica el número de la cámara y su distancia focal. En algunas cámaras
estos datos aparecen alrededor del nivel esférico; en otras, junto al contador de la cámara.
Contador de la cámara Contador interno que indica la secuencia numérica de las vistas tomadas en
una misión fotográfica. Puede estar ubicado en el área lateral junto con los instrumentos antes
mencionados o en una de las esquinas.
¿Qué es el desplazamiento y por qué se puede producir?
Los objetos del terreno pueden aparecer en la imagen fotográfica desplazados de su verdadera
posición por influencia de las dos siguientes causas:
Desplazamientos debido a la inclinación del eje de la cámara Este desplazamiento se produce por la
imposibilidad de mantener el eje de la cámara perfectamente vertical durante la exposición, debido a
los giros del avión durante el vuelo: ladeo, cabeceo y ángulo de deriva. El ladeo del avión en el
momento del disparo de la cámara afecta el recubrimiento lateral entre las fajas fotográficas; el
cabeceo del avión afecta el recubrimiento longitudinal entre fotografías; la deriva, producida por el
desplazamiento lateral del avión, afecta tanto el recubrimiento longitudinal como el lateral.
Desplazamiento debido al relieve El desplazamiento debido al relieve es generalmente el tipo de
desplazamiento más serio en las fotografías aéreas verticales, especialmente en terreno montañoso.
El desplazamiento debido al relieve tiene características positivas y características negativas para el
estudio de las fotografías. El efecto negativo más importante es el ya analizado, es decir, los puntos
ubicados en un plano de referencia se encuentran desplazados en una fotografía aérea vertical, con
respecto a otro plano ubicado a otro nivel. Las propiedades positivas principales son: estos
desplazamientos hacen posible la visión tridimensional de un par de fotografías ypermiten medir
alturas y confeccionar mapas topográficos.
¿Qué tipos de fotografías aéreas son utilizadas en Teledetección?
Las más utilizadas en fotointerpretación con fines de evaluación de recursos naturales son los
siguientes:
1) Fotografías pancromáticas
2) Fotografías infrarrojo (IR) blanco y negro (B y N), en sus dos versiones: fotografías IR normal o
propiamente dichas y fotografías IR modificadas.
3) Fotografías color normal.
4) Fotografías infrarrojo a color o fotografías falso color.
¿Por qué se realiza la “exageración vertical”?
La exageración estereoscópica se produce por la imposibilidad de mantener la proporcionalidad
entre la relación Base Aérea de Toma - Altura de Vuelo (B/Hv) y la relación base de los ojos –
distancia a la que el observador percibe el modelo. Por esta razón la exageración vertical está
presente en casi todos los modelos estereoscópicos, obtenidos con fotografías aéreas verticales
tomadas en vuelos fotogramétricos normales. La exageración vertical varía tanto con los parámetros
geométricos del vuelo (altura de vuelo, base aérea de toma, distancia focal de la cámara), como con
los parámetros geométricos de la observación del modelo bajo el estereoscopio (distancia de
observación de las fotografías, separación dada a las fotografías y base interpupilar). Es necesario
aclarar que, si bien las mediciones de altura y pendiente se realizan
sobre el modelo verticalmente exagerado, los resultados obtenidos son expresión del valor real
(y no del modelo exagerado).
¿Qué diferencias existen entre los mapas y las fotografías aéreas? ¿Cuál es la ventaja de la
fotograía aérea?
En general, se puede decir que el mapa es una representación abstracta del terreno, reproducida
según ciertas convenciones, para que el dibujo realizado pueda contener la mayor cantidad de
información sobre el terreno que representa, de forma comprensible para el usuario. En el caso de la
fotografía, el terreno aparece como una imagen con todos los inconvenientes geométricos
inherentes a la proyección central. La Tabla resume las comparaciones más relevantes entre mapa y
fotografía aérea.
La ventaja de la fotografía aérea proporciona una vista a vuelo de pájaro de extensas áreas,
permitiendo de esta manera observar las diferentes características de la superficie de la zona de
estudio dentro de su contexto espacial; Permite también registrar la evolución de un proceso
dinámico en el tiempo y en el espacio, desde eventos tan rápidos como una inundación hasta el
estudio del desarrollo urbano. Los diferentes tipos de películas fotográficas permiten captar el
espectro de longitud de onda desde el ultravioleta (0,3 μm) hasta el infrarrojo cercano (0,9 μm),
extendiendo de esta forma el rango de visión del ser humano (0,4 μm a 0,7 μm), permitiendo la
observación de fenómenos que de otra manera no podrían ser detectados
Otra gran ventaja de las fotografías aéreas sobre las imágenes satelitales es que el tamaño de pixel es
inferior al tamaño de los objetos que se quieren identificar, cuando se estudia vegetación. Esta
afirmación, es, sin embargo, cada vez menos cierta en la medida en que se disponga de imágenes
satelitales con mayor resolución espacial. Es importante tener en cuenta, por otro lado, la escala del
fotograma para estimar las dimensiones reales de los objetos que estamos observando a partir de su
dimensión sobre el papel. Individuos de diferentes especies vegetales pueden tener formas similares,
pero variar en tamaño.
¿Qué productos fotográficos existen?
Fotografías por contacto (fotogramas): De cada negativo se obtienen copias directas en material
sensible. Son las más usadas para estereoscopía. El formato es cuadrado de 23cm x 23 cm (foco
152mm). También existen fotogramas de 9x9cm y 7 x7cm
Ampliaciones: Si bien las más comunes son al doble o triple (2x y 3x), un buen negativo se puede
ampliar hasta 8 veces sin perder definición (nitidez). No son adecuadas para la visión tridimensional
por el gran tamaño de las copias.
Mosaicos Fotográficos o fotomosaicos: Consisten en la composición de los fotogramas de una
misión aérea después de haber eliminado las áreas de superposición entre fotos sucesivas y
recorridos adyacentes. En función del objetivo buscado, y teniendo en cuenta la precisión deseada,
los mosaicos se clasifican en mosaicos no apoyados, mosaicos semi-apoyados y mosaicos apoyados.
Mosaicos no apoyados: Se denominan no apoyados porque la aproximación se ajusta únicamente
por aproximación visual; son confeccionados sin apoyo planimétrico, sin restituir las fotografías y su
escala media es aproximada e igual a la del vuelo original. Tienen carácter informativo y descriptivo y
no pueden usarse para mediciones por las distorsiones que afectan la escala.
Mosaico semi-apoyado: Es un mosaico confeccionado de igual forma que el anterior, con fotografías
sin rectificar, pero se ajustan parcialmente los puntos del borde del área en estudio sobre una carta
topográfica. Sobre ellos se pueden medir longitudes y superficies en terrenos llanos y, con menor
precisión, en terrenos poco ondulados.
Mosaico apoyado: Consiste en una composición de fotogramas previamente rectificados y luego
ensamblados mediante el apoyo de numerosos puntos trigonométricos obtenidos de cartas
topográficas o por datos GPS. Sobre este material se pueden hacer mediciones de longitudes y
superficies en terrenos ondulados o quebrados. Este tipo de mosaico, completado con cuadrículas,
nomenclaturas y datos marginales, es considerado una fotocarta.
Foto-ortomosaicos: Consiste en una composición de fotogramas rectificados ortogonalmente, a 90
grados.
¿Cuáles son los productos finales de la fotointerpretación?
El producto final de la fotointerpretación es el mapa preliminar de fotointerpretación, donde se identifican
todos los objetos y patrones observados. Este deberá ser utilizado como base para realizar los muestreos de
campo necesarios para arribar a un mapa de suelos, mapa de vegetación u otro tipo de cartografía.
MAPAS DE SUELOS Con la información obtenida en las etapas anteriores se realiza una correlación entre
calicatas, recomponiendose límites y agrupándolos definitivamente las unidades. Se describen los perfiles
típicos o conceptos centrales de cada una de las unidades taxonómicas, con sus datos analíticos y fijando los
rangos de variación que los diferencian de los suelos contiguos. Sobre la cartografía resultante de la
fotointerpretación y con toda la información generada en las etapas descriptas, se elabora finalmente el Mapa
Básico de Suelos que consta de:
- La carta o mapa.
- La leyenda cartográfica o de identificación.
- La leyenda descriptiva o memoria.
¿Qué es el fotoíndice?
Es un producto fotográfico, una copia fotográfica efectuada sobre un mosaico no apoyado; está
compuesto por todas las fotografías que cubren una zona, armadas por simple superposición a lo
largo de cada recorrido, sobre una mesa . Generalmente los fotoíndices están impresos en una escala
menor que la original y se utilizan para localizar los fotogramas correspondientes a un área
determinada, ya que tanto las fotografías como los recorridos están numerados.
¿Qué son el solape y el traslape?
Si el avión va de Luján a Campana el solape es longitudinal. Cuando da la vuelta el solape se sigue
produciendo Traslape.
¿En qué consiste la FOTOINTERPRETACIÓN?
Es el proceso por el que se extrae la información contenida en una fotografía aérea. En una primera
fase se trata de reconocer y ubicar los diferentes elementos que aparecen representados. Se
requieren ciertos conocimientos acerca de los procesos geomorfológicos, formaciones vegetales y
usos del suelo del área de trabajo; hace falta además tener en cuenta la escala del fotograma y el
tamaño de los objetos representados. Resulta por tanto una técnica instrumental útil en estudios
territoriales. La percepción o interpretación visual de fotografías aéreas consta de determinar las
unidades fisiográficas del paisaje. Talesunidades entonces pueden ser consideradas uniformes, por
lo que se refiere sobre todo a la configuración morfológica de los suelos y clima. El proceso consta de
una serie de etapas sucesivas y complementarias entre sí:
Foto-lectura: Sirve además para ubicarse en el contexto geográfico de la zona de estudio(área
serrana, llanura, zona costera, etc.). El primer paso será el reconocimiento de los rasgos y objetos
individuales que conforman las fotos aéreas, tales como ríos, sierras, llanuras, caminos, edificios,
parcelas, etc.
Foto-análisis: consiste en la identificación, selección, descripción, medición y clasificación de objetos
o grupos de objetos. En el análisis de las fotografías se puede llegar a conclusiones cuantitativas por
el estudio del tamaño y otras características métricas directamente visibles en la fotografía. Por
ejemplo, además de identificar un camino, este puede ser medido en longitud y en anchura para
determinar qué capacidad tiene.
Fotointerpretación: existen diversas definiciones de lo que significa la fotointerpretación, pero en
todas ellas se incorpora, además de los procesos anteriores, el proceso de razonamiento lógico
(deductivo o inductivo). Se procede a identificar áreas que presenten características similares en
cuanto a tonos, texturas, patrones, y una vez identificadas estas áreas homogéneas se las delimita
trazando sus límites con líneas de contacto. Instrumentos de medición y de visión.
¿Qué es el NDVI?
un índice de vegetación que se utiliza para estimar la cantidad, calidad y desarrollo de la vegetación con base a
la medición de la intensidad de la radiación de ciertas bandas del espectro electromagnético que la vegetación
emite o refleja.
Para el cálculo de los índices de vegetación es necesaria la información que se encuentra en las bandas roja e
infrarroja de ese espectro electromagnético.
El cálculo del NDVI se hace mediante la siguiente fórmula:
Es decir, mediante la diferencia entre la reflectancia de las bandas 4 (infrarrojo cercano) y 3 (visible – rojo)
dividido por la suma de estas dos bandas de reflectancia .Con estos datos se obtiene la estimación de cantidad,
calidad y desarrollo de la vegetación. Los valores que comprenden entre -1.0 y 0.0 corresponden a nubes, agua
y nieve. Los números negativos cercanos a cero, corresponden a rocas y suelo descubierto. Los valores
positivos muy bajos (hasta 0.1), corresponden a áreas sin roca o arena. Los valores por encima de estos (0.2 a
0.3), representan arbustos o praderas; mientras que los valores superiores (0.6 a 0.8), representan bosques. En
este caso, el agua refleja un valor negativo, el suelo urbano un valor positivo pero muy bajo al igual que el
suelo desnudo. Con respecto a la vegetación, los valores son más elevados, acercándose a 1.
¿Cómo se forma una matriz?
La imagen digital está formada por píxeles codificados por un valor numérico. El nivel de gris con el
que aparece cada píxel en el monitor se define por un valor numérico que corresponde a la
codificación de la radiancia que realiza el sensor cuando adquiere la imagen. Cuando se visualiza un
píxel, la intensidad de gris o de color con la que aparece en el monitor depende de su ND
La organización de los datos en una imagen digital puede esquematizarse como una matriz numérica
de tres dimensiones. Las dos primeras corresponden a las coordenadas geográficas de la imagen,
mientras la tercera indica su dimensión espectral. Hay tantos planos en la imagen como bandas
originalmente detectadas
¿Por qué pueden producirse distorsiones en las imágenes?
En el caso concreto de imágenes espaciales, las deformaciones más frecuentes pueden agruparse en
cuatro categorías.
a. Distorsiones originadas por la plataforma: pueden producirse pequeñas variaciones en la altitud
de su órbita, en la velocidad, o en la orientación de cualquiera de sus tres ejes: alabeo, cabeceo, giro
lateral. En el primer caso se producen cambios en la escala de la imagen, mientras, en el segundo,
distorsiones de distinto tipo en su geometría de adquisición. Estos no son errores
sistemáticos,aparecen de forma esporádica y son difícilmente predecibles y complejos de modelar
b. Distorsiones provocadas por la rotación terrestre: el efecto de rotación de la tierra puede
aparecer claramente en la imagen. En el caso del MSS del Landsat, cada imagen se adquiría en unos
28 segundos. En este lapso de tiempo la Tierra se desplaza sensiblemente (unos 8 km), lo que causa
una orientación de la imagen noreste al suroeste.
c. Distorsiones provocadas por el sensor: los sensores de barrido electrónico realizan una
exploración perpendicular a la trayectoria del satélite, gracias a un espejo oscilante que envía la
radiancia registrada a una cadena de detectores sólidos. Este movimiento puede alterarse por
anomalías del sensor, provocando un efecto de barrido no lineal o cambios en el intervalo de
recogida de información, lo que implica transformar la resolución efectiva de la imagen. Otro
problema frecuente que plantea el sensor es la falta de calibración entre detectores. En los sensores
de barrido la exploración se realiza en varias líneas simultáneamente, por lo que requieren varios
detectores por banda. Resulta muy importante que todos ellos traduzcan uniformemente la señal
detectada, con objeto de que la misma radiancia recibida no se codifique en ND distintos.
d. Distorsiones provocadas por las condiciones ambientales: principalmente el efecto de la
atmósfera y el relieve. Los distintos elementos que componen la atmósfera causan una modificación
de la radiancia original proveniente de la superficie terrestre. El efecto más importante es el de
dispersión del flujo reflejado desde la superficie, a consecuencia de la presencia de aerosoles, gases y
vapor de agua. Este efecto implica un aumento de la señal recibida por el sensor y es más sensible en
las longitudes de onda cortas, que tienden a presentar un menor contraste entre coberturas de
similar comportamiento radiométrico.
¿Qué y cuáles son las correcciones de la Imagen adquirida?
Son aquellos procesos que tienden a eliminar cualquier anomalía detectada en la imagen, ya sea en
su localización, ya en la radiometría de los píxeles que la componen. Estas operaciones tienden a
disponer los datos en la forma más cercana posible a una adquisición idónea, por ejemplo,
situándose sobre su posición geográfica correcta, o reconstruyendo la radiancia detectada por el
sensor a partir de los ND de la imagen
CORRECCIONES RADIOMÉTRICAS:
Son técnicas que modifican los ND originales, con objeto de acercarlos a los que habría presentes en
la imágen caso de una recepción ideal.
Restauración de líneas o píxeles perdidos Un mal funcionamiento del sensor o de la antena
receptora de la imagen puede llevar a que ésta aparezca con algunas líneas o píxeles perdidos. La
forma más lógica de estimar los ND de estos píxeles erróneos se basa en los ND de los píxeles
vecinos. También se puede sustituir el ND de cada línea/píxel por el de los precedentes; un segundo
método de sustitución promedia los valores de las líneas anterior y posterior a la defectuosa; un
tercer método de recuperar la información perdida utiliza una banda auxiliar.
Corrección del bandeado de la imagen Se observa un bandeado de la imagen, perceptible en las
zonas de baja radiancia. Este bandeado, se debe a un mal calibrado entre los detectores que forman
el sensor. Se asume que todos ellos, en caso de estar bien calibrados, tendrían a presentar similares
histogramas. Basta recomponer el histograma de cada detector. El paso siguiente intenta ajustar
estos histogramas a otro que se elija como referencia.
Cálculo de reflectividades La conversión de los ND almacenados en una imagen original a variables
físicas es un paso previo que permite trabajar con variables físicas de significado estándar,
comparables en un mismo sensor a lo largo del tiempo.
CORRECCIONES ATMOSFÉRICAS:
La influencia atmosférica no afecta por igual alos dos componentes del cálculo de la reflectividad. La
radiancia que recibe el satélite no es la misma que sale del suelo (ésta es la que interesa,
pretendemos medir la reflectividad de la cubierta, no la influida por la atmósfera). Además, el efecto
de la atmósfera no es constante en la imagen, sino que determinadas zonas pueden haber sido más
afectadas que otras, en función de la diversa presencia de aerosoles o vapor de agua.
a. A partir de medidas in situ: mediante radiosondeos, a estimaciones del espesor óptico (midiendo,
por ejemplo, la visibilidad), o mediante mediciones en terreno de la radiancia solar incidente o de la
reflectividad en el terreno. Estos métodos son los más precisos, facilitan una medición de las
condiciones atmosféricas durante la toma de la imagen.
b. A partir de imágenes de otros sensores que permitan estimar el estado de la atmósfera en el
momento de adquisición de las imágenes. La integración entre estos datos resulta muy beneficiosa
para obtener productos calibrados de adecuada fiabilidad.
c. A partir de modelos físicos de transferencia radiativa que suelen basarse en una serie de
atmósferas estándar. La exactitud de los modelos dependerá, como es lógico, de la solidez de las
asunciones que se realicen y de la similitud entre los perfiles teóricos y las condiciones concretas de
la atmósfera cuando se toma la imagen. Existen algunos programas que realizan la estimación del
efecto atmosférico.
d. A partir de datos de la propia imagen de las cuatro posibles soluciones al problema de la
corrección atmosférica nos vamos a centrar en este epígrafe en las dos últimas, pues resultan las más
accesibles.
CORRECCIONES DE SOMBREADO TOPOGRÁFICO:
Otro elemento que conviene considerar en el cálculo de reflectividades es el efecto del relieve. La
reflectividad es muy dependiente de los ángulos de incidencia y observación. Los efectos derivados
del gradiente y dirección de la pendiente son bastante notorios, especialmente en las zonas en
sombra.
CORRECCIONES GEOMÉTRICAS:
Incluyen cualquier cambio en la posición que ocupan los píxeles que la forman. Por contraposición
con las correcciones radiométricas, aquí no se pretende modificar los ND de los píxeles de la imagen,
sino sólo su posición, sus coordenadas. Gracias a tratarse de un formato digital, esta transformación
puede basarse en funciones numéricas, que permiten modificar muy flexiblemente la geometría de
la imagen. Las coordenadas columna y línea de la imagen corregida son función de las coordenadas
columna y línea de la imagen de entrada o de las coordenadas del mapa al que se pretende
superponer la imagen (x, y). Por tanto, esta transformación puede emplearse tanto para corregir
cartográficamente una imagen, como para superponer dos o más imágenes entre sí. La corrección
geométrica de imágenes puede abordarse de acuerdo a dos procedimientos. En el primero,
denominado corrección orbital, el segundo enfoque trata de evaluar el error geométrico de la
imagen a partir de una serie de puntos con coordenadas conocidas, que se denominan puntos de
control.
Corrección a partir de puntos de control la corrección se realiza en tres fases: 1) localización de
puntos comunes a la imagen y el mapa, 2) cálculo de las funciones de transformación entre las
coordenadas de la imagen objetivo y las de referencia y 3) transferencia de los ND originales a la
nueva posición, definida por la transformación previa.
Establecimiento de puntos de control la calidad del ajuste dependerá del rigor con que se localicen
esos puntos, y de cómo definan realmente los errores geométricos de la imagen. El establecimiento
de puntos de control resulta la fase más crucial del proceso de corrección y la que demanda mayor
dedicación humana.
Conveniencia de las correcciones geométricas Conviene tener presente que, en determinadas
aplicaciones, las correcciones resultan un paso obligado y previo a otros tratamientos. Este es el caso
de las aplicaciones cartográficas en general y, específicamente en estudios multi-temporales, la
exactitud en el ajuste resulta un elemento fundamental. Las correcciones geométricas son necesarias
en la mayor parte de las aplicaciones de la teledetección espacial, aunque no en todas ellas como
fase previa de trabajo. Si lo que se pretende es conectar los resultados de la clasificación con otras
variables geográficas, o superponer dos clasificaciones realizadas en distinta fecha, las correcciones
geométricas pueden abordarse al finalizar el proceso de análisis. Ahora bien, si pretende trabajar con
valores físicos (reflectividades, temperaturas) o introducir variables o imágenes auxiliares en la
clasificación, es evidente que el registro geométrico es requisito previo a otros tratamientos.
¿Cuáles son los métodos de extracción de información?
A partir de una imagen satelital pueden agruparse en Analógicos y Digitales. Dentro de los primeros
se encuentra fundamentalmente la Interpretación Visual, donde se toman en cuenta criterios como
Tono/Color, Textura, Forma, Diseño, etc. En cuanto a los métodos digitales existen una gran cantidad
de procesos tendientes a la extracción de información, entre ellos se pueden mencionar los Índices
de Vegetación, Componentes Principales, Transformaciones y Clasificación Digital, entre otros.
Mejoramiento de una Imagen para Interpretación Visual El proceso de corrección y mejoramiento
de una imagen consiste en modificar el histograma. El histograma muestra una serie de 256 líneas
verticales alineadas en su extremo inferior, representativas de la cantidad de píxeles que hay en una
imagen por cada valor digital. En el extremo izquierdo está el valor 0 (negro) y en el derecho el 255
(blanco). En general, su anchura suele adaptarse a 256 ND. Su altura máxima varía con los
programas, pero es fija y se hace corresponder al grupo de píxeles más numeroso. A cada banda o
canal le corresponde un histograma. De esta forma se tendrá un histograma para la banda del Azul,
otro para la del Verde, otro para la del Rojo, otro para el Infrarrojo cercano y así sucesivamente con
cada banda.
El estiramiento del Histograma es la primera corrección que debe hacerse para obtener un buen
producto para interpretación. Este proceso permitirá aumentar el contraste. El estiramiento de
Histograma consiste en aumentar las diferencias entre cada una de las barras verticales del mismo.
Esto puede llevarse a cabo tomando los valores mínimo y máximo del histograma haciendo que el
mínimo pase a valor cero y el máximo a 255, y distribuyendo el resto proporcionalmente. De esta
manera se aplicará una función lineal de aumento de contraste aprovechando los 256 ND.
Ensanche lineal del histograma es correcto en el caso de tener un histograma que se encuentra
concentrado en su extremo izquierdo y al aplicar el ensanche lineal la imagen gana en contraste pero
resulta oscura. Para solucionar este problema se han diseñado otros tipos de ensanches. A
continuación se presentan algunos tipos de ensanches y el efecto sobre la imagen.
El proceso de estiramiento del histograma deberá ser aplicado a cada una de las bandas que serán
incluidas en la combinación color. Por ejemplo si se combinan las bandas del satélite Landsat TM2
Azul/TM3 Verde/TM4 Rojo y se aplica un estiramiento apropiado a cada banda se obtendrá el
siguiente producto.
Ensanche lineal del histograma es correcto en el caso de tener un histograma que se encuentra
concentrado en su extremo izquierdo y al aplicar el ensanche lineal la imagen gana en contraste pero
resulta oscura. Para solucionar este problema se han diseñado otros tipos de ensanches
El Filtrado consiste en una matriz de ancho y alto conocido (generalmente de 3x3, 5x5 o 7x7 píxeles o
celdas) que, mediante álgebra de matrices con la imagen a tratar, aumenta o disminuye la diferencia
de valor de un píxel respecto a sus vecinos. La máscara de filtrado (3x3) se colocará en la esquina
superior izquierda y aplicará el álgebra sobre los 9 respectivos píxeles de la matriz. Obtenido el
resultado, este será colocado en una nueva

Más contenidos de este tema