TELEDETECCION, en sentido amplio, es la obtención de información acerca de una entidad física mediante
un instrumento remoto.
Según Chuvieco (Fundamentos de teledetección espacial), "Teledetección es aquella técnica que permite
adquirir imágenes de la superficie terrestre desde sensores instalados en plataformas aéreas o espaciales".
Es en este sentido restringido en el que estudiaremos la teledetección en estas sesiones; aunque en rigor
no deberíamos limitarnos a la formación de imágenes o a estudiar la superificie terrestre (ver en este sentido
la definición en el Diccionari terminològic de teledetecció), la gran mayoría de la actividad en teledetección
coincide con esta particular restricción. Para completar la acotación del término, habría que reseñar que la
formación de imágenes se ha realizado registrando radiación electromagnética, excluyendo otras maneras
de interaccionar a distancia (por ejemplo un SONAR, que registra la localización de objetos mediante ondas
acústicas).
1.- PLATAFORMAS
Las plataformas más utilizadas en teledetección son aeronaves (plataformas aéreas) y satélites artificiales
(plataformas espaciales); en los primeros podemos distinguir entre aeronaves tripuladas y no tripuladas. El
uso de otras plataformas como torres de observación, helicópteros, globos aerostáticos o tipo sonda etc, es
marginal (aunque no descartable) y no se va a considerar en estos apuntes.
1.1.- Aeronaves
1.1.1.- Generalidades
Una aeronave es una máquina capaz de moverse por la atmósfera merced a las reacciones del aire. En las
aeronaves se distingue entre aerodinos y aerostatos. Los aerodinos vuelan siendo más pesados que el aire,
gracias a fuerzas dinámicas que aparecen por su movimiento dentro del aire. Se opone por tanto a
aerostato, un vehículo que vuela "estáticamente" al tener menos densidad específica que el aire. Es habitual
por su parte clasificar los aerodinos en aeronaves de ala rígida (o aeroplanos) y de ala rotatoria (o
helicópteros). El término avión, que es utilizado habitualmente, es un sinónimo "coloquial" de aeroplano.
La consecuencia de esto es que un avión vuela por su velocidad frente al aire, lo que confirma una intuición
en apariencia irrelevante pero clave para entender las limitaciones de la teledetección aeroportada: no es
posible volar despacio. Igualmente, no podemos girar arbitrariamente sin modificar el patrón de velocidad-
presión y arriesgar la sustentación.
Los aviones operan a cotas entre 300 m y 20000 m sobre el nivel del mar. A partir de 4000 m los aviones
deben estar presurizados. En los aviones presurizados la instalación de un sensor debe ser hermética bien
respecto al interior de la aeronave bien respecto al exterior, y en ambos casos esto requiere soluciones
técnicas diferentes a las necesarias para aviones de cota baja y marca una divisoria entre dos modelos muy
diferentes de vuelos.
Los principales alicientes de las plataformas aéreas (frente a las espaciales) son:
Alta resolución espacial: A = 2 H tan(/2) donde A es la longitud de la proyección del ángulo
instantáneo de visión (IFOV) sobre el terreno, H es la altura del instrumento respecto al suelo y el
IFOV. Para un IFOV circular, A es el diámetro, y un lado para un IFOV cuadrado.
Mayor señal disponible, ya que aunque la radiancia (energía medida en w m-2 sr-1 ) es
independiente de la distancia respecto al emisor, cuando H es menor el ángulo sólido que
colectamos es mayor para obtener la misma A (ya que el ángulo sólido se define como Ω=S/R2 =
A2/R2 para un IFOV cuadrado).
Flexibilidad de operación: fechas, horas, repeticiones, rumbo, área cubierta... pueden elegirse de
acuerdo a los requisitos del usuario: aunque existan limitaciones (no todo es posible, desde luego)
siempre son menores frente a la rigidez de operación de un satélite.
Posibilidad de calibrar y modificar casi continuamente el instrumento utilizado. Esto es muy útil para
pruebas de sistemas en desarrollo, o cuando producir un instrumento para satélite es posible pero
se quiere experimentar algún aspecto.
Dos plataformas aéreas de teledetección. Izquierda, Dornier 228 del NERC (Reino Unido). Derecha, CASA
212 del INTA (España). Ambas representan la categoría clásica de aeronaves de teledetección, con tamaño
y autonomía "medios" y no presurizadas. Fotos: EUFAR (European Facility for Airborne Research),
www.eufar.net
Las APR pueden ser de cualquier tipo, y de hecho existe una amplia oferta tanto en sistemas para I+D como
comerciales. Son populares las miniplataformas de poco peso (< 2 kg) y poca autonomía pero bajo coste y
operación sencilla. Y son "prometedoras", aunque de momento haya pocos resultados, las plataformas para
vuelos altos (idealmente por encima del espacio aéreo regulado) y de larga duración (HALE, High Altitude
Long Endurance). El peso de la aeronave determina muchos aspectos, desde su precio a la reglamentación
aplicable pasando por los instrumentos que puede llevar, y es por tanto la primera variable de interés al
pensar en APRs.
Antes de diseñar un experimento con una APR, hay que considerar al menos:
-la reglamentación aplicable para su operación,
-el peso de la carga útil, que determina la aeronave a utilizar,
-la autonomía, que determina la cobertura geográfica accesible.
- El operador debe pertenecer a una entidad acreditada, disponer de manuales de la aeronave, certificado
de capacitación del piloto para esa aeronave, y seguro a terceros.
- Debe disponerse de un estudio aeronáutico y de seguridad del vuelo.
- Si el peso es mayor de 25 kg se necesita licencia de piloto de aeronaves y autorización para el vuelo de la
Agencia Estatal de Seguridad Aérea.
Respecto al peso de la instrumentación, es evidente que un gran atractivo de las APR es su ligereza y esto
lleva a una exigencia en miniaturizar los sensores que transportan. En el caso de estudios de teledetección
mínimamente cuantitativos (es decir, más allá de un simple reconocimiento visual) esto puede limitar las
prestaciones de las imágenes obtenidas. Por otro lado, el poco peso de la aeronave la hace sufrir
problemas de estabilidad y vibraciones, por ejemplo en condiciones de viento moderado. Este problema es
mayor, al igual que en aeronaves tripuladas, en aeronaves de ala rotatoria (helicópteros / multicópteros)
Aparte de estas cuestiones, la problemática de la carga útil y las características del proceso de datos
podrían ser el mismo que para aeronaves pilotadas.
Izquierda: Atlante, aeronave de peso medio, desarrollada por Cassidian y Airbus con colaboración del CDTI.
Derecha: quadcopter DJI Phantom (http://www.dji.com), ejemplo de sistema de poco coste potencialmente
apto para pequeños trabajos de reconocimiento aéreo.
1.2.- Satélites
1.2.1.- Generalidades
Los satélites artificiales operan en cotas superiores a unos 400-500 km. Por debajo de esta cota el
rozamiento atmosférico dificulta en exceso la permanencia del satélite en órbita. Los satélites en órbitas un
poco más altas (hasta unos 900 km) se ven afectados también por este rozamiento, pero bastan pequeñas
maniobras correctoras para mantener la órbita deseada. En un mundo sin atmósfera (la Luna por ejemplo)
uno puede imaginar un satélite en órbitas tan bajas como lo permita el relieve (y la energía disponible para
darle la velocidad requerida, como veremos más adelante).
Las ventajas e inconvenientes en relación con los aviones se deducen de lo expuesto en la sección anterior.
Pero por encima de todo, hay que resaltar la enorme utilidad de disponer de una cobertura de datos de
teledetección sobre toda la superficie de la Tierra que es sistemática, regular y fácilmente accesible a la
comunidad investigadora.
En la jerga de la industria aeroespacial, un satélite es el segmento de vuelo (flight segment) de una misión,
que tiene además un segmento tierra (ground segment). El segmento tierra se ocupa del control del satélite
y de la recepción, proceso y archivo de sus datos. El segmento vuelo consta de una "nave" (spacecraft) y de
los instrumentos que forman la carga útil o de pago de la misión (payload). Si pensamos en jerga científica,
una misión de teledetección es un experimento, con su instrumentación, su diseño experimental (frecuencia
de toma de datos, puntos de muestreo etc), su ejecución y, finalmente, el proceso de los datos.
Para entender el diseño de satélites e instrumentos a bordo es necesario considerar las siguientes
características del entorno espacial:
i. vacío, y su influencia térmica;
ii. radiación electromagnética;
iii. radiación por partículas;
iv. micrometeoritos.
El vacío es responsable del llamado outgassing, (desgasificación quizás en castellano), es decir la liberación
de moléculas gaseosas desde un material, que frecuentemente acaba (y ese es el problema) en su
probable depósito en otro. El outgassing es un reto para el diseño de un instrumento espacial y puede ser
causa de contaminación en la óptica y por tanto de degradación de la calidad del instrumento.
El vacío es también relevante por su influencia térmica. Ante la baja densidad de partículas por encima de
100 km el término temperatura no tiene mucho sentido. Pero hay dos consideraciones térmicas clave:
los objetos iluminados por el sol (o en menor medida por su reflejo en la Tierra o la Luna) se
calientan rápidamente ya que no hay refrigeración por convección,
la emisión natural de un cuerpo (ley de Planck) no tiene amortiguación alguna, y el enfriamiento de
un cuerpo no iluminado por el sol (o en menor medida por la Tierra o la Luna) es por tanto casi
ilimitado.
La radiación electromagnética proveniente del sol cubre el rango desde el muy energético UV lejano al
infrarrojo medio. Ante la ausencia de atmósfera protectora, la radiación UV agrede a los materiales del
satélite y hace necesario el uso de materiales adecuados.
La radiación por partículas es un problema serio en el espacio. El espacio está recorrido por partículas
atómicas (fundamentalmente protones y electrones, pero también núcleos de helio y otras partículas)
desplazándose a gran velocidad. La energía de tales partículas es muy alta, y su colisión con materia tiene
un efecto considerable. Hay una alta concentración de estas partículas en los llamados cinturones de
radiación de la Tierra (o cinturones de Van Allen). Han sido capturadas por el campo magnético de la Tierra
y girán dentro de estos cinturones, que ocupan una franja aproximádamente entre 1000 y 20000 km de
altura (con un límite bastante neto por debajo de 1000 km, mientras que hacia el espacio exterior la
densidad decae suavemente). Estos cinturones de radiación son una región muy agresiva para los satélites.
A cambio, el flujo de partículas por debajo de los cinturones es mínimo.
ESTRUCTURA
El sub-sistema más básico es la estructura que soporta al instrumento (y a los demás sub-sistemas). La
estructura debe estar diseñada para evitar daños por vibración durante el lanzamiento, y debe estar
supeditada al control térmico para prevenir deformaciones termoelásticas y calentamientos/enfriamientos.
También debe proteger el detector de luz no deseada. Y, en la medida de lo posible, de la radiación por
partículas. Sin embargo, los daños por radiación son casi inevitables: la protección contra radiación por
partículas solo se puede conseguir con "muros" de material, con un impacto elevado en la masa del satélite.
Así que lo mejor es evitar en lo posible transitar por los cinturones de radiación.
El diseño más habitual es un cilindro o hexágono hueco que resiste las tensiones axiales (es decir a lo largo
de su eje mayor) del lanzamiento, al que se adosan paneles que soportan los subsistemas y las cargas
útiles.
Los materiales utilizados en la estructura vienen determinados por la necesidad de reducir al máximo la
masa del satélite. Son habituales aleaciones metálicas muy ligeras y resinas reforzadas con fibrocarbono.
CONTROL TÉRMICO
La parte de un satélite que es iluminada por el sol se calienta mucho, la que mira al espacio se enfría
espectacularmente por radiación. Y el calor generado por equipos electrónicos tiene que ser gestionado
(disipado o conservado, según se quiera): de todos estos problemas se ocupa el control térmico.
El control térmico puede requerir un importante esfuerzo tanto en el diseño como en la operación del
satélite, limitando las capacidades de la carga útil. Un ejemplo claro es la imposibilidad en misiones sencillas
de enfriar activamente los detectores en la región del infrarojo medio y térmico (estos pueden requerir
trabajar a 77 K), lo que restringe la temperatura a la que se puede bajar y por tanto la viabilidad de
instrumentos térmicos en minisatélites.
CONTROL DE ACTITUD
El sub-sistema de control de actitud (Attitute and Orbit Control System, AOCS) es clave para garantizar el
apuntamiento y la estabilidad del satélite y estos son aspectos que afectan a la geometría de las imágenes.
En los satélites "de gama alta" se esperan errores muy bajos (por ejemplo <0.07º en Metop, es decir
aproximadamente el tamaño del IFOV del AVHRR) de manera que en principio el control de actitud es
crítico solo en misiones de alta resolución espacial. Por ejemplo en Pleiades, donde el AOCS se ha
trabajado con el máximo cuidado, la exactitud de apuntamiento es de 10 m ("90% probability ground circular
error without GCPs"), lo que implica que no podmeos geolocaliar sus imágenes directamente. En
minisatélites y misiones "de gama baja" las limitaciones del AOCS puede tener un impacto notable en la
localización y calidad de la imagen o, al menos, en el esfuerzo requerido para su georreferenciación.
Para conocer la orientación del satélite se usan giróscopos, "star trackers" y sistemas más bastos (earth-
limb viewers, sun sensors) cuando no operan los sistemas finos. Para modificarla se utilizan, entre otras
soluciones, pequeños propulsores con hidracina como combustible (thrusters) y ruedas de inercia (reaction
wheels).
Un capacidad específca dentro del control de actitud es la de maniobrar el satélite a velocidades altas, es
decir del orden de 3º/s (muy superiores a las requeridas para maniobras orbitales convencionales). Esta
capacidad se denomina agilidad del satélite (agility), y es la requerida para adquirir imágenes fuera del nadir
(a costa por supuesto de la adquisición nadiral) cuando es necesario mejorar la revisita de ciertas zonas.
POTENCIA
La potencia disponible está limitada a la que se puede generar mediante los paneles solares. Como todo
recurso de un satélite, el consumo se ajusta al mínimo requerido por los instrumentos de a bordo, y la
demanda de mayor potencia es siempre a costa de complejidad. En teledetección esto afecta
especialmente a los sensores activos, como SAR y LIDAR, y a las transmisiones a tierra de datos. También
a los sistemas de refrigeración activos frecuentemente requeridos para enfriar detectores térmicos.
La generación de energía eléctrica se produce en los paneles solares, partiendo de los 1358 w/m2 que se
reciben del sol en las cercanías de la Tierra. Es necesario mantener la mayor parte del tiempo posible los
paneles solares orientados hacia el sol, lo que no es fáicl. Se usan baterías para acumulación de energía,
para su uso en eclipses o periodos con mala iluminación de los paneles, pero es impensable operar
nominalmente un satélite solo a base de baterías. Como consecuencia, por ejemplo, sería muy costosa la
operación de un satélite en la parte de sombra de una órbita heliosíncrona.
PROCESADOR/MEMORIAS
La informática de a bordo suele dar pobres prestaciones para lo que estamos acostumbrados. Existen
limitaciones de almacenamiento, y de proceso. Los largos tiempos de desarrollo de una misión espacial (>5
años resulta imprescindible hoy día) más la necesidad de usar electrónicas cualificadas para espacio
(tolerantes a radiación, fundamentalmente) sitúan normalmente a los procesadores y buses de satélites
bastante por detrás de la vanguardia en tecnologías informáticas. Lo mismo ocurre con los dispositivos de
almacenamiento (por ejemplo, MetOp puede almacenar 24 GB de datos, apenas algo más que los
registrados durante una órbita. Y en el satélite Ingenio se ha previsto una memoria a bordo de 64 GB).
COMUNICACIONES
El funcionamiento del satélite requiere enviar instrucciones (“telecomando", TC) y recibir datos
(“telemedida”, TM). Esto se consigue mediante un contacto con ondas tipo radio. Para comandos y control
se usa la banda S (2 a 4 GHz), y para el envío de datos la banda X (normalmente a 7.5 GHz); esta es más
energética y por tanto tiene más capacidad de transmisión a costa de mayor complejidad y consumo. Por
ejemplo, en el diseño de SEOSAT/Ingenio se ha considerado una transmisión a tierra de datos imagen en
banda X de 280 Mbps y de datos de estado del satélite en banda S de 2 Mbps.
Por necesidades de mantenimiento, calibración, disponibilidad de las estaciones de tierra etc un satélite no
genera imágenes el 100% del tiempo posible. El porcentaje es menor, y puede afectar de una manera
sensible al usuario al no adquirir imágenes sobre zonas de menor interés.
Valores típicos de transmisión de datos a tierra en misiones actuales son 100 a 500 Mbps. Por ejemplo,
Sentinel-2 utiliza 512 Mbps. Como es lógico, los satélites de teledetección (al transmitir imágenes) son los
más exigentes del sector espacial en este campo.
LANZADOR
Actualmente, solo es posible vencer la gravedad de la Tierra usando propulsantes químicos, en un "festival
de la dinámica" muy espectacular pero agresivo con el satélite y el medio ambiente; el lanzamiento es una
parte complicada y cara de toda misión espacial.
G·M/r2 + d2r/dt2 = 0
donde r es el vector posición del satélite, G la constante de gravitación universal y M la masa de la Tierra
(G· M = 3.986005 1014 m3 s-2 ).
La ecuación diferencial anterior tiene diferentes soluciones, pero todas ellas son cónicas. Para el caso de
elipses (y circunferencias, como caso particular de la elipse), un cuerpo lanzado horizontalmente a una
altura h desde la Tierra se convertirá en un satélite artificial si su velocidad en cada punto es:
Cuando la velocidad es constante a lo largo de la órbita esta es circular; en otros casos tendremos órbitas
elípticas, parabólica o hiperbólicas.
Hay que destacar que aun siendo circulares, las órbitas quedan afectadas por el diferente radio de la Tierra
entre el ecuador y los polos (20 km aprox.), lo que implica p.e. un 2.5% de diferencia en la distancia Tierra-
superficie para h=800 km.
El periodo de una órbita circular viene dado por 2(RT + h) / V , y en una fórmula más compacta:
La velocidad típica en misiones de observación de la Tierra en órbitas heliosíncronas es 7.5 km/s, con un
periodo de 100 minutos; más abajo se verá por qué.
Las órbitas cerradas (elípticas y circulares) quedan caracterizadas por los llamados elementos orbitales: tres
ángulos para situarla en el espacio, dos dimensiones para definir el tamaño de la elipse, y un tiempo. La
siguiente tabla lista estos elementos junto con valores típicos en el caso de órbitas heliosíncronas polares:
(1) Toda órbita cruza el ecuador dos veces, una de sur a norte y otra de norte a sur. Estos cruces se llaman
nodos, y se habla de nodo ascendente o descendente respectivamente.
(2) La precesión es el cambio de la dirección del eje alrededor del cual gira un objeto. El ejemplo tipo, el
movimiento que realiza una peonza, o trompo, al girar, cuando su eje de rotación no es vertical. La
precesión (~cambio) de la longitud del nodo ascendente (ΔLNA) de una órbita ardedor de la Tierra es:
ΔLNA (grados/día) = -2,06474·1014 ·a-7/2 ·cos(i)·(1-e2)-2
Donde:
e = excentricidad de la órbita (0 en órbitas circulares)
i = inclinación de la órbita
a = semieje mayor de la órbita, en km
Las órbitas LEO heliosíncronas aprovechan la existencia de una precesión del plano orbital debida al
llamado 2º potencial terrestre (es decir, el coeficiente J2 del desarrollo de Legendre del campo potencial
gravitatorio terrestre). Esta precesión es cercana a 1º/día a 750 km de altitud para órbitas polares. Debido a
ella, el plano orbital va girando a lo largo del año, de manera que el "canto" de la órbita siempre mira al sol:
a esta propiedad se refiere el nombre de heliosíncronas. Como la inclinación es cercana a 90º, la órbita
recubre casi todas las latitudes terrestres, y es por tanto la órbita preferida en teledetección. Como el valor
de la precesión es único para una inclinación a cada altura, la altura y la inclinación están ligadas en las
órbitas heliosíncronas.
La relación unívoca altura-velocidad orbital hace que en el entorno de 750 km, como queda dicho, la
velocidad sea del orden de 7.5 km/s y el periodo sea cercano a 100 minutos. Por tanto, debido a la rotación
de la Tierra bajo el satélite, la traza sobre la superficie varía de órbita a órbita. De acuerdo a los valores
específicos de altura e inclinación estas trazas cubrirán toda la superficie terrestre (proporcionando
cobertura global, o casi, tanto en latitud como en longitud) o franjas discontinuas en longitud.
En las órbitas geosíncronas, el periodo orbital se iguala al de rotación de la Tierra. Si además la órbita es
circular y su inclinación es 0º (es decir el plano orbital es ecuatorial), el satélite en órbita parece fijo desde la
Tierra. Entonces la órbita se llama geoestacionaria, y es la utilizada por ejemplo en Meteosat (y en gran
cantidad de satélites de comunicaciones). En este caso, la traza es un punto, pero la gran distancia entre el
satélite y la superficie terrestre permite que aquel observe fácilmente un hemisferio terrestre completo.
En las órbitas MEO destacan las ocupadas por los satélites de los sistemas de navegación por satélite
(como el estadounidense GPS y el europeo Galileo). Estos orbitan a alrededor de 20.000 km sobre la
superficie (en zonas donde la radiación por partículas es considerable aunque no tan grave como en otras
alturas MEO), en órbitas circulares de inclinación alrededor de 55º, distribuidas en una serie de planos (6 en
el sistema GPS) para optimizar el número de satélites visibles desde casi cualquier punto de la superficie.
La traza es la proyección del satélite sobre la superficie de la Tierra a lo largo del tiempo. La
traza de las órbitas LEO heliosíncronas es ligeramente westward pese a que su inclinación
(≈100º) es retrógrada (es decir contraria a la rotación de la Tierra). La traza de un satélite
geoestacionario ideal es un punto correspondiente a su "posición" en latitud o longitud. En
realidad, hay pequeñas desviaciones sobre esa posición que deben controlarse durante el
mantenimiento de la órbita (station-keeping).
El ciclo de repetición es el número de días que tarda la órbita en dibujar la misma traza sobre
la superficie de la Tierra. El ciclo de repetición solo depende de la altura. Es frecuente
expresar este ciclo en la expresión:
Tn + D/CR
Por ejemplo, 14+32/49 para el futuro satélite español Ingenio. En esa expresión, Tn es T/Ts,
es decir el periodo sidéreo de rotación terrestre (86164 segundos) divivido por el del satélite, y
nos indica el número de órbitas completas en un día. D es la deriva, o número de trazas que
"avanza" el satélite en un ciclo respecto a un día completo, y CR el ciclo de repetición en días
(hay que señalar que para obtener D y CR a partir de la altura hace falta un algoritmo
específico).
Las órbitas de los satélites de observación de la Tierra sufren perturbaciones por diferentes razones: presión
solar, atracción lunar, rozamiento por moléculas atmosféricas, no-homogeneidad de la distribución de la
masa terrestre... Mediante maniobras correctoras, se mantienen con una precisión elevada: p.e. para
ENVISAT la órbita se mantenía en 1 km respecto a la traza sobre el terreno deseada y 1 minuto de paso
por el nodo ascendente. El mantenimiento de la órbita requiere la realización regular de maniobras, que
restan tiempo de observación, y el consumo de combustible, que es un recurso finito (y minimizado
buscando la menor masa posible para el satélite) y habitualmente limita la vida útil de un satélite.
La siguiente tabla resume las principales perturbaciones que afectan a las órbitas utilizadas por satélites de
teledetección.
Finalmente, destacamos algunos aspectos prácticos relacionados con las órbitas espaciales.
A alturas menores de 700 km el efecto atmosférico (freno, calentamiento) es significativo. Por debajo de
400/500 km (como ya se dijo más arriba) es limitante. Por otra parte, por encima de 1000 km sube
rápidamente la densidad de partículas energéticas (radiación). Esto nos deja una capa disponible para las
órbitas bajas de unos 400 km de altura.
Las órbitas LEO polares tienen necesariamente una fase en eclipse (es decir, la Tierra tapa al sol visto
desde el satélite). En esta fase las celulas solares no producen energía y el satélite se enfría
significativamente. En las órbitas GEO solo aparecen eclipses en breves periodos del año.
La velocidad de avance del satélite está determinada por la altura; por tanto, el tiempo de integración para
un instrumento de observación tiene que adaptarse a lo que haya, o bien hay que aplicar diseños
compensatorios con sus correspondientes efectos secundarios.
El contacto con tierra se produce simplemente en aquellos puntos donde es geométricamente posible: la
antena terrestre debe ver por encima del horizonte al satélite (a ser posible unos graditos por encima, para
que la transmisión sea buena). La geometría detallada es compleja al influir la curvatura terrestre y la
refracción atmosférica. La red de estaciones de tierra es extensa (nacionales, de ESA, de NASA...), pero
ponerlas a trabajar para un satélite particular es costoso (hay que implementar software y quizás hardware
específico, y entrenar a personal en su uso), por lo que suele restringirse el número de estaciones
responsables de cada misión. Esto puede ocasionar que la cobertura de la órbita no sea completa, y que se
den pequeños (o medianos) tramos sin contacto. La técnica en estos casos es el almacenaje a bordo, sea
de los datos registrados (en algún dispositivo almacenador a la espera de ser enviados a tierra con
telemedida en cuanto haya contacto) o de las órdenes (llegadas en forma de telecomando, y que se
almacenan con una etiqueta de tiempo y se ejecutan automáticamente al llegar su hora). El coste principal
está desde luego en la parte de los datos, ya que hay que incluir en el satélite la necesaria memoria masiva
y posteriormente un canal de comunicación con un apreciable ancho de banda (según la jerga de las
telecomunicaciones). Por supuesto los avances tecnológicos hacen que cada misión incremente sus
capacidades en ambos sentidos, pero mientras tanto los usuarios van incrementando igualmente sus
requisitos de datos (mayor número de pixels, más canales, más bits por pixel...).
La vida útil de un satélite está limitada habitualmente por el agotamiento de su combustible, y por tanto
depende de la cantidad de maniobras que debe hacer para mantener su órbita (sea por razones rutinarias o
excepcionales). Pero muchos sub-sistemas, incluyendo la propia carga útil, pueden degradarse con el
tiempo de manera que hagan inservible la misión, debido a la agresividad del entorno espacial
(principalmente por la alta radiación y el stress térmico). La vida útil típica de una misión de observación de
la Tierra es de unos 5-10 años, y no es fácil prolongarla.
Idealmente, cuando se detecta que el fin del satélite está cerca, debe sacarse de las órbitas operacionales
de manera controlada. Esto se hace en órbitas LEO frenando el satélite, de manera que baje su órbita y el
rozamiento atmosférico acabe por destruirlo, auqnue siempre hay partes más resistentes que caen a Tierra
(coon una probabilidad despreciable de que lo hagan sobre zonas habitadas). En órbitas GEO, los satélites
son impulsados a una órbita cementerio, donde orbitan indefinidamente sin molestar a las misiones activas.
Dos satélites de observación de la Tierra. Izquierda ENVISAT, derecha MetOp-B. Fotos: ESA multimedia
gallery (www.esa.int).
2.- SENSORES
2.1.- Generalidades
Un instrumento de teledetección es un radiómetro que, habitualmente, forma imágenes. La muy genérica y
poco descriptiva palabra sensor está bastante extendida en el campo de la teledetección para referirse a
esta clase de instrumentos.
En la región óptica del espectro electromagnético, los "sensores" son telescopios ópticos con un sistema
electrónico en el plano detector. En la región espectral de las microondas, los sensores son antenas. Otras
regiones del espectro, como rayos X o gamma, tienen un interés muy marginal en la teledetección de
recursos naturales, y no veremos aquí las complicadas técnicas que permiten formar imágenes con tales
radiaciones.
Un sensor se puede hacer de cualquier manera, siempre que cumpla con los tres requisitos habituales en
teledetección:
-"cosechar" la mayor cantidad de energía posible para cada medición
-hacerlo en un rango definido de longitudes de onda, y a ser posible en diferentes bandas
-formar imágenes (habitualmente en combinación con el movimiento de la plataforma)
Vamos a presentar en las siguientes secciones las soluciones más habituales (pero no exclusivas) que se
encuentran actualmente.
2.2.- Telescopios
La realidad está desenfocada. Aunque no nos parezca así a nosotros, que la percibimos a través de unos
instrumentos focalizadores (llamados ojos), la radiación electromagnética que emite o refleja una superficie
se propaga típicamente en todas las direcciones, por lo que en cualquier punto del espacio tenemos fotones
(rayos en la interpretación de la óptica geométrica clásica) que provienen de multitud de superficies.
Afortunadamente, cada fotón/rayo tiene una dirección de propagación particular, unívoca en primera
aproximación. Esa dirección cambia al cambiar el medio en que se propaga la radiación, cambio que queda
determinado por la ley de Snell (y el principio de Fermat...):
n1 sen1 = n2 sen2
Donde ni es el índice de refracción del medio "i" (aire y vidrio serán habitualmente los dos medios en un
sensor) y i el ángulo de la radiación (es decir de la normal al frente de ondas) con la normal a la superficie
límite entre ambos medios. Esta relación nos permite anticipar que eligiendo la superficie y el material
apropiados podríamos dirigir todos los rayos que provienen de un punto en el "mundo objeto" a otro punto
en el "mundo imagen"; puede incluso conseguirse que casi todos los puntos se formen en un plano del
mundo imagen, al que llamaremos plano focal. Así tendríamos una imagen enfocada de la realidad. Esto
puede conseguirse, aunque solo para una parte de los rayos que provienen del punto (con todos es
inviable), mediante espejos, lentes o una combinación de ambos,
En resumen, la parte principal de un sensor óptico es un sistema de enfoque. Pero, además, normalmente
queremos recoger la máxima cantidad de radiación de cada punto/objeto enfocado: si no, nos veríamos en
la necesidad de largas exposiciones, como las requeridas en las cámaras estenopeicas. Por tanto, el
sistema de enfoque es también un sistema de agrupación de rayos del mayor ángulo sólido posible desde el
punto observado.
Intercalado en el sistema de enfoque (o tras él) el telescopio puede incluir un sistema para dispersar la
radiación, de manera que diferentes longitudes de onda sean dirigidas a diferentes planos focales o
diferentes posiciones en el mismo plano focal. Frecuentemente se denomina óptica secundaria a estos
elementos ópticos destinados a la separación espectral de la radiación (y a veces su posterior enfoque, si
vuelve a ser necesario).
Finalmente, el telescopio requiere un dispositivo situado en el plano focal que registre la radiación. Este
dispositivo es el ojo en un telescopio tradicional, y fue una película fotográfica durante muchos años. En la
teledetección actual, se trata de un detector fotoelectrónico, donde los fotones incidentes causan una
corriente cuantificable.
Lo anterior sirve para explicar cómo generar una imagen puntual con un telescopio. Pero en teledetección
debemos recorrer la superficie para conseguir un muestreo continuo de su radiancia; la manera de hacerlo
condiciona totalmente el diseño del telescopio. Los diseños más habituales en observación de la Tierra son
los sensores de barrido (linescanners o whiskbroom) y los sensores de empuje (pushbroom), aunque los
primeros van quedando relegados por su menor potencial en resolución espacial y radiométrica. Un ejemplo
es la transición en Landsat, desde un diseño whiskbroom en TM y ETM+ a un pushbroom en Landsat 8.
Linescanners Pushbrooms
un solo detector por banda un detector por pixel
manejable extensión al TIR VNIR ++, SWIR +, TIR --
poco tiempo de integración disponible más tiempo de integración disponible
calibración manejable calibración problemática
fácil obtener un FOV extenso difícil alcanzar un FOV extenso por la
caros, complejos óptica y por el conjunto detector.
menos caros, más sencillos
La siguiente tabla resume algunas de las soluciones tecnológicas típicas para construir un telescopio.
El diseño final de un telescopio refleja un buen número de soluciones de compromiso que lógicamente nos
alejan del sensor ideal, el imposible milagro de alta resolución espacial + alta cobertura + alta resolución
radiométrica + multiespectralidad + amplio rango espectral +...
Una segunda solución de compromiso se debe al problema de las aberraciones ópticas: estas son
desviaciones respecto al comportamiento geométrico ideal de un sistema óptico por limitaciones de las
superficies ópticas utilizadas (lentes y espejos). Un buen número de superficies puede compensar (y por
tanto disminuir) las aberraciones, pero a costa de complejidad, coste y peor transmisividad.
Por otra parte, la difracción impone un límite a la menor resolución espacial que se puede obtener con un
telescopio. La difracción se entiende con la visión ondulatoria de la radiación electromagnética, y es una
interrupción de la propagación "normal" de la radiación al encontrar un obstáculo el frente de onda. Efecto
de la difracción es que la imagen de un punto es una mancha; de manera que dos puntos próximos van a
superponer su imagen en el plano focal aunque en teoría su distancia permitiera separarlos. Para una
abertura circular (habitual en sistemas ópticos), el menor diámetro posible de la apertura a la longitud de
onda es:
D = 1.22 / , (criterio de Rayleigh)
donde es la distancia angular deseada entre los objetos a separar (convertible a longitud sin más que
multiplicar por la distancia al objeto).
Podemos probar cuál sería la resolución angular (y lineal) límite de AVHRR dada su apertura
real, 20.3 cm, para una longitud de onda de 0.6 µm:
= 1.22 / D = 3.6 10-3 mrad => 3 m
Claramente los sistemas habituales de teledetección no están limitados por difracción. En
realidad, el límite en estos sistemas suele ser el tiempo de integración, de manera que los
detectores deben integrar más superficie de terreno para conseguir una buena relación
señal/ruido.
2.2.2.- Detectores
En cuanto a los detectores, la eficiencia, la resolución espacial y las fuentes de ruido son las principales
características a manejar durante el diseño. Más adelante volveremos sobre este tema.
Otro aspecto relevante en los detectores, ajeno a su "calidad", es su acceso por parte de la electrónica que
va a gestionar a los datos. Cada detector necesita en principio su circuito para lectura y control. Esto
limitaría (a unos pocos) el nº de detectores manejables en un plano focal; la alternativa es el CCD (Charge
Coupled Device). Los CCDs solventan ese problema mediante un sistema de transferencia de carga de
detector a detector funcionando a frecuencias muy altas, y finalmente a un registro serie. Por supuesto el
sistema tiene sus limitaciones (el llamado smearing, por ejemplo) pero se ha convertido en la solución por
defecto para misiones de observación de la Tierra.
Un CCD es por tanto un conjunto de (muchos) detectores contiguos controlados por una electrónica común.
Los detectores pueden disponerse en una fila (CCD lineal) o en una matriz bidimensional. El primer caso es
el utilizado por ejemplo en los instrumento pancromáticos de misiones tipo SPOT. El segundo caso suele
utilizarse en combinación con un elemento dispersor de la radiación electromagnética (prisma o rejilla, a
veces un sistema de filtros) para obtener imágenes multi o hiperespectrales, de manera que una de las
dimensiones del CCD se corresponde con la dirección transversal al avance de la plataforma para formar
una línea de imagen, mientras la otra dimensión se corresponde con las diferentes longitudes de onda
generadas por el elemento dispersor para generar diferentes bandas espectrales del mismo área de terreno.
Una variante para disponer de muchos detectores es la arquitectura CMOS, donde además existe un cierto
control sobre cada detector; no es fácil ni necesario, para estas sesiones, entrar en más detalles.
2.3.- LIDAR
Cuando el telescopio utiliza como fuente de luz un LASER sincronizado en su emisión con aquel, el
instrumento resultante es un LIDAR (LIght Detection And Ranging).
Normalmente, la luz del LASER se propaga hasta que encuentra elementos (partículas atmosféricas, una
superficie...) donde es reflejada. Si se ha acoplado un telescopio al mismo instrumento que lo emitió
podemos detectar una parte de la reflexión, midiendo su intensidad, polaridad o incluso su posible
comportamiento espectral. La coherencia de la luz LASER, el exacto conocimiento de su posición espectral
y la precisa sincronización de su emisión (habitualmente pulsada a frecuencias temporales elevadas, 50-100
Hz) permite analizar con alta resolución la posición donde se produjo esta reflexión; y también podemos
recibir información sobre características físicas o químicas del objeto que causó la reflexión.
Los LIDAR son útiles por tanto por su gran potencial para conseguir alta resolución radiométrica, espectral,
temporal y espacial, y porque podemos tener un control cuidadoso de la iluminación de la escena. Sus
desventajas son la relativamente poca potencia que podemos emitir (por limitaciones técnicas y por razones
de seguridad), y la dificultad técnica de instalar LASER en plataformas espaciales (alto peso, alto consumo
eléctrico, dispersión del haz con la gran distancia...). Debido a este problema, existen pocas misiones
LIDAR operativas en plataformas espaciales (las misiones NASA CALIPSO y ICEsat con su instrumento
GLAS son dos casos), aunque son habituales en plataformas aéreas (sobre todo aeronaves clásicas, y
marginalmente en APRs).
2.5.- RADAR
Cuando el radiómetro de microondas utiliza como fuente de radiación una antena sincronizada en su
emisión con aquel, el instrumento resultante es un RADAR (RAdio Detection And Ranging).
No entraremos en ellos por ser innecesarios para la mayor parte de aplicaciones medioambientales de la
teledetección.
Podemos caracterizar completamente un sistema de teledetección, desde el punto de vista del usuario de
sus datos, atendiendo a la siguiente tabla. En ella hemos definido las "categorías" a caracterizar y, en cada
categoría (cada celda de la tabla), los parámetros más habituales, aunque no son los únicos.
Bajo estas definiciones, es claro que una medida solo puede ser muy exacta si es muy precisa, pero puede
ser muy precisa e inexacta.
La exactitud requiere una calibración adecuada del instrumento; la precisión es inherente a su diseño.
Es importante conocer en profundidad los rasgos principales de cada celda de la tabla para poder analizar
con el máximo rigor y eficacia los datos de teledetección. Y muy conveniente conocer la letra pequeña que
se encuentra también en cada celda. Hay que destacar que las especificaciones habituales de un
instrumento/misión de teledetección no suelen ser completas, y tampoco homogéneas: aunque casi todas
coinciden en bastantes parámetros, siempre hay alguno que no se detalla o que se detalla de manera no
"estándar".
Nos centraremos en instrumentos ópticos, aunque mucho de lo que se expone puede ser aplicable también
en microondas.
RESOLUCION ESPACIAL
El IFOV determina el área de terreno cuya energía recoge en un instante dado el sensor. A este área
podríamos llamarle "elemento de resolución". Funcionalmente, el IFOV queda determinado por el diafrgama
óptico (field stop) en sistemas whiskbroom y por el tamaño del detector en sistemas pushbroom o frame.
Por ejemplo, la altura de vuelo es 705 km, y en un extremo de la imagen, aproximadamente = (15º)/2 y
entonces:
Lx = 1.02 Lnadir
Ly = 1.01 Lnadir
Vemos pues que en el caso de instrumentos de pequeño FOV el ángulo es suficientemente pequeño
como para despreciar su efecto sobre el tamaño de pixel al alejarnos del nadir. No así en los de gran FOV
como AVHRR (IFOV 0.0745º, FOV 55.37º):
Ahora bien, el valor calculado a partir del IFOV geométrico no es exactamente el espaciamiento sobre el
terreno entre el centro de dos pixels consecutivos. Existen diversas razones, dependiendo del diseño
detallado de cada instrumento y del margen de seguridad que se quiere obtener al adquirir sucesivas líneas.
En general, se produce un pequeño solape entre el área de terreno que ven dos pixels consecutivos. El
efecto neto es que la imagen tiene una resolución espacial real algo menor que la correspondiente al
espaciamiento entre pixels, o visto de otra manera que la imagen tiene una ligera borrosidad (cada píxel
contiene terreno previamente observado).
Para una primera especificación de las características de un sistema óptico, la visión de la proyección del
IFOV (es decir la visión de la óptica geométrica) es adecuada. Pero esta información no nos basta para
garantizar que podamos distinguir todos los objetos con un tamaño superior al indicado por la resolución
espacial del instrumento. El éxito depende del contraste de dicho objeto respecto al fondo. La Función de
Transferencia de Modulación (MTF) nos da esta información. Para entender la MTF, hay que considerar que
toda escena bservada puede ser representada completamente por un conjunto infinito de ondas en el
llamado "espacio de frecuencias". Cada onda con diferentes amplitudes, fases y frecuencias (espaciales, es
decir medidas en m-1 y leídas como "ciclos por metro") entre 0 y 1. La propagación de cada una de estas
ondas a través de la óptica no es perfecta, de manera que las amplitudes se atenúan (las fases se
modifican en cualquier sentido) y el contraste sobre la imagen es siempre menor que en la escena real. Las
frecuencias de cada onda se mantienen, por su parte, intactas. Podemos medir el contraste mediante el
concepto llamado modulación:
Una medida de la reducción del contraste causada por un sistema óptico es el cociente entre la modulación
en la escena real y la registrada en la imagen. Si calculamos este cociente para cada frecuencia espacial
presente en la imagen tenemos la MTF del sistema óptico. La transformada de Fourier de la MTF es la
llamada Point Spread Function (PSF), una medida de cuánto se "esparrama" un punto al ser observado por
el sistema óptico. El valor que nos interesa es el de la frecuencia de Nyquist. Esta es el doble de la
frecuencia de muestreo = un pixel; por tanto, el doble es 1 ciclo cada 2 pixels (f = 0.5), el típico "uno sí / uno
no". En esta frecuencia un sistema real produce una MTF del orden de 0.2 a 0.3.
Es importante saber que hasta un sistema óptico perfecto está limitado en su capacidad de leer frecuencias
espaciales por los efectos de difracción en los bordes de la apertura. Los sistemas reales añaden pérdidas
de contraste por aberraciones ópticas (corregibles con un buen diseño), por las vibraciones del instrumento
(jitter), por atmósfera, por el carácter discreto y finito del detector/detectores...
Por último, recordar que la resolución espacial (y por supuesto la cobertura y la exactitud) pueden aplicarse
a 3 dimensiones en sistemas que miden alcance (altimétricos o batimétricos).
EXACTITUD ESPACIAL
La exactitud espacial, al igual que algunos otros parámetros, es variable dependiendo de los procesos que
haya sufrido la imagen. En realidad, siempre debe haber un cierto nivel de proceso: no hay una posición
original en un dato de teledetección más que su ordenación en el conjunto de datos que forman la imagen.
Una primera asociación de posición puede hacerse conociendo la posición de la plataforma en el momento
de la adquisición de datos y proyectando sobre la superficie terrestre la geometría de visión del instrumento.
Para una buena geolocalización sin puntos de control es por tanto necesaria alta resolución y exactitud en el
conocimiento del apuntamiento del instrumento.
Un punto que puede ser relevante para la georreferenciación es la exactitud en la traza de la órbita. Es casi
imposible repetir dos trazas (o pases) nominalmente idénticas, lo que determina que la superposición de
imágenes va a requerir siempre un trabajo en tierra sobre la imagen.
COBERTURA ESPACIAL
Se trata de definir el área de terreno que incluye una imagen. Para instrumentos que forman la imagen
aprovechando el avance de la plataforma, solo está definida la dimensión transversal a la dirección de
avance (across-track), que despreciando el efecto de la curvatura de la Tierra es:
A = 2 H tan(FOV/2)
donde:
A es el ancho de la escena
H es la altura de vuelo (respecto al terreno)
La otra dimensión no está en principio limitada, salvo por requisitos operativos (por ejemplo de consumo del
instrumento o de capacidad de almacenamiento de datos).
Para instrumentos con adquisición simultánea de toda la imagen (fotografía aérea, "frame sensors"), las dos
dimensiones están definidas a través de la fórmula anterior, sin más que considerar la posibilidad de un
distinto FOV en las dos direcciones.
RESOLUCION ESPECTRAL
Se refiere al tamaño de las regiones espectrales que se pueden medir separadamente. Este tamaño se
detalla muchas veces como "límites de banda" (band edges). Pero hay que considerar que los límites
citados para las bandas de un instrumento no son límites netos. De hecho, el valor indicado puede
corresponder al intervalo que contiene el 95% de la potencia recibida, o quizás el 99%, o las longitudes de
onda donde encontramos una respuesta igual a la mitad de la respuesta máxima (FWHM, "Full Width Half
Maximum"). Esta última es la especificación más habitual. Asumiendo que la responsividad espectral es
gaussiana (hipótesis razonable en bandas estrechas, no tan fiable en bandas anchas), los parámetros
anteriores sirven para reconstruir totalmente la respuesta espectral.
El rango de resoluciones encontrado varía desde 1.5 nm (espectrómetros), pasando por 10 nm (banda
estrecha) y 100 nm (banda ancha) hasta varias micras en sensores térmicos. A mayor ancho de banda para
una longitud de onda dada, mayor sensibilidad del instrumento (ya que recibe más señal por canal), a costa
de menor capacidad de discriminación de información.
Una magnitud útil para visualizar la resolución espectral es , es decir el cociente entre la longitud de
onda central de un canal y el ancho del canal. Esto es debido a que la energía de la radiación no es
constante con la longitud de onda, sino que aumenta con la frecuencia de la radiaición: la energía de un
fotón es:
E=h
donde h es la constante de Planck (6.62 10-34 j s) y la frecuencia del fotón (s-1). Al ser mayor la energía a
longitudes de onda menores, un canal estrecho en el azul recibe más energía y por tanto tiene una
sensibilidad mayor que un canal del mismo ancho en el térmico.
EXACTITUD ESPECTRAL
COBERTURA ESPECTRAL
La cobertura espectral se refiere al conjunto de longitudes de onda a los que el instrumento es sensible.
No es fácil hacer un instrumento que cubra todos los rangos espectrales posibles. Sin embargo, es una
cualidad muy deseable.
Los sistemas whiskbroom (TM, MODIS, AVHRR, METEOSAT, AHS...) pueden cubrir fácilmente desde el
visible al térmico. Esto es así por que incluyen:
-óptica pequeña (la óptica solo cubre el IFOV, el FOV se sintetiza con el movimiento de la óptica), que es
más fácil de diseñar mediante un sistema de espejos (no hay lentes eficientes en longitudes de onda > 2
µm),
-detector único en cada longitud de onda (usualmente en planos focales independientes), que es
relativamente fácil de enfriar.
Los sistemas de empuje (Worldview, MERIS, CASI...), de óptica y planos focales mayores, se han utilizado
normalmente para cubrir hasta 1.1 micras (que es el límite de utilidad de los detectores CCD de silicio) y
más recientemente hasta 2 micras (OLI/Landsat-8, MSI/Sentinel 2). Como ya se ha dicho, los detectores
térmicos son más difíciles de ensamblar y operar en un diseño matricial, aunque no hay limitaciones
tecnológicas insalvables. De momento son poco eficientes; por ejemplo, el instrumento pushbroom TIR en
Landsat-8 tiene una resolución espacial de solo 120 m.
Un ejemplo de sistema mixto pushbroom/whiskbroom podría ser el instrumento ASTER; pero, en realidad,
se trata de dos insrumentos unidos en una misma plataforma (tres con el SWIR).
En el área de las microondas, la cobertura espectral nos remite al manejo de diversas bandas, lo cual se
utiliza en radiómetro pasivos (p.e. AMSR en las misiones EOS) y en algunos SAR aeroportados.
Un uso riguroso de los datos de teledetección puede requerir una resolución Δρ=0.005 a 0.01 (0.5% a 1%)
en la reflectancia del objeto observado, y una exactitud mejor que el 5% de esta (esto por su puesto,
dependiendo de la aplicación).
Al expresarse las reflectancias en porcentaje, hay que tener cuidado con las especificaciones
absoluta y relativa
resolución absoluta de 1% siginifica distinguir Ref1 = 20.0% de Ref2 = 21.0%
resolución relativa de 1% siginifica distinguir Ref1 = 20.0% de Ref2 = 20.2% (mucho más exigente)
Las fuentes de ruido instrumental aparecen en el detector y en la cadena electrónica hasta que la
información se fija de algún modo. Las más típicas son:
Ruido de corriente oscura: la corriente oscura es la salida del detector que se debe a electrones
generados térmicamente. Debido al caracter cuántico de este proceso presenta una variabilidad
igual a la raíz cuadrada de su valor medio: esta variablidad es la que consideramos ruido, ya que el
valor medio de corriente oscura se puede conocer. Este valor medio depende del tiempo de
integración (es decir, cuanta más señal acumulamos en el detector más corriente oscura
generamos, y por tanto más ruido por su variabilidad) y de la temperatura de operación del detector.
Ruido de lectura, que se produce por variaciones en el valor leído por el registro de lectura para
cada dato; este valor suele ser especificado por el fabricante del detector.
Ruido en la cadena de amplificación y proceso (normalmente en la etapa analógica), que depende
del diseño de la electrónica y no del detector en sí (y por tanto instrumentos con el mismo detector
pueden tener niveles de ruido diferente).
Ruido de digitalización, debido a la incertidumbre en la cuantización de la señal analógica.
Cada una de estas fuentes de ruido se caracteriza por la desviación típica que producen en la medida del
instrumento, de manera que si asumimos que son normales e independientes (hipótesis muy realista) las
combinamos con una media cuadrática para obtener el ruido total.
El ruido instrumental está típicamente expresado en unidades de radiancia y por tanto podemos interpretarlo
como el cambio en la radiancia recibida por el instrumento que equivale a su ruido: este es el concepto de
NEdL (Noise Equivalent delta radiance). Realizando un supuesto de observación (es decir, considerando la
iluminación, la topografía de la superficie observada y las condiciones de observación) podemos traducir
ese valor a reflectancia, e interpretar la magnitud correspondiente como el cambio en la reflectancia (ρ) del
objeto que origina una señal equivalente a su ruido: NEd. En radiómetros térmicos es frecuente convertir
el ruido en una variación en temperatura (T), y especificar así su resolución radiométrica como NEdT.
Ahora bien, el valor de NEdL solo nos indica cuándo el ruido es típicamente (1 desviación típica, es decir el
68% de las veces si es un ruido aleatorio) igual a la mínima señal que queremos distinguir. Si queremos
estar seguros de que podemos detectar esa señal, puede que necesitemos que sea muy superior al NEdL.
Por ejemplo podemos querer que sea superior el 99% de las veces, y entonces nuestro ruido debe ser 3
veces menor que la señal a detectar => este es el concepto de relación señal/ruido (SNR, cociente entre el
valor de una señal y el ruido de la medida). Frecuentemente, esta relación se especifica para la señal típica
o de referencia (la que el usuario señala como prioritaria), como figura de mérito del sistema. Se suele
considerar que un sistema debe trabajar con una SNR del orden de 100 para la radiancia de referencia.
Por supuesto, estas es la especificación de resolución para una muestra (píxel). Si disponemos, por
repetición temporal o espacial, de más muestras de la superficie bajo estudio (imaginemos un lago del que
queremos cuantificar la eutrofización a partir de su reflectancia), podemos mejorar la relación SNR (de
hecho la mejoramos tanto como sqrt(n) si sumamos n muestras).
La calibración del instrumento solo puede garantizar la exactitud en la medida de Ls, la radiancia en el
sensor (también llamada TOA, Top Of Atmosphere, en satélites). Para una exactitud a nivel del terreno (bien
radiancia reflejada por el terreno o BOA, Bottom Of Atmosphere, bien reflectancia) es necesario considerar
la interferencia atmosférica, lo cual ya depende de medidas auxiliares, normalmente externas al
instrumento; no entramos en este aspecto.
COBERTURA RADIOMETRICA
El rango de energía que se encuentra un instrumento de teledetección es muy variable, desde la bajísima
señal que puede provenir de una masa de agua con un ángulo de elevación solar bajo a la muy elevada de
una nube observada en verano. El rango dinámico del instrumento informa de cuáles son los valores
mínimos y máximos que puede interpretar correctamente. Típicamente, por debajo del mínimo el
instrumento no responde o el ruido domina sobre la señal, y por encima se satura o deja de responder
linealmente.
Existe por supuesto un trade-off entre cobertura y resolución: a mayor cobertura radiométrica es más difícil
mantener una resolución fina. Algunos instrumentos incorporan ganancias variables para solucionar el
problema, mientras otros optan por incrementar el número de bits disponibles para la digitalización del dato
(lo que a su vez pasa el problema al ruido).
La exactitud en el registro del instante de adquisición está garantizada, al nivel requerido por el usuario de
un dato de teledetección, por los requisitos de exactitud y precisión impuestos por la operación de satélites y
aviones. Se puede conocer con precisión y exactitud de microsegundos el momento de adquisición de una
imagen, y el usuario probablemente se conforma con algo así como hectosegundos. La precisión temporal
puede ser importante sin embargo para la restitución de la imagen usando modelos orbitales. En un
segundo, un satélite en órbita heliosíncrona avanza 7.5 km en la dirección de vuelo, y la Tierra se ha
desplazado 400 m hacia el este. Y un avión con sensor aeroportado realiza en un segundo movimientos que
pueden implicar desplazamientos del ángulo de observación del orden de un pixel.
Un aspecto relacionado con la resolución temporal es el del plazo de entrega (timeliness). Este depende del
diseño del segmento terreno (tanto del procedimiento de envío y recepción de datos como de su proceso y
distribución) más que del sensor o la plataforma, pero algunos aspectos de la transmisión a tierra por
supuesto dependen del subsistema de comunicaciones de aquella.
COBERTURA TEMPORAL
El muestreo temporal de una misión puede considerarse en un sentido geométrico-orbital, o desde el punto
de vista de la superficie observada:
i. Orbitalmente, se suele citar el periodo que la órbita necesita para repetir exactamente la misma
traza sobre el suelo (ground-track). Este valor oscila (dependiendo de la altura de la órbita)
alrededor de unos 20 días en misiones de observación de la Tierra en órbitas bajas, y alrededor de
una hora o menos en sistemas geosíncronos.
ii. Debido a la cobertura espacial de la imagen un punto de la superficie terrestre aparece en varias
imágenes, aunque no hayan sido adquiridas desde la misma traza. En este sentido el FOV del
sensor y la posibilidad de desplazar su ángulo de visión (lateralmente) son determinantes. Por otra
parte, y debido al creciente perímetro de la Tierra desde los polos hacia el ecuador, las latitudes
altas son observadas con mayor continuidad que las bajas en órbitas heliosíncronas. En órbitas
geosíncronas no es relevante este aspecto (aunque existe una traza no-puntual sobre la superficie
de la Tierra, que dibuja algo parecido a un ocho inclinado, normalmente es despreciable), sino solo
el tiempo transcurrido entre dos imágenes que ya sabemos van a corresponder siempre al mismo
área de la Tierra.
A partir de estas guías, las páginas web de cada misión o instrumento amplian la información hasta niveles
donde, habitualmente, el usuario puede quedar stisfecho.
BIBLIOGRAFIA
Unos pocos libros clásicos y venerables, interesantes para Plataformas y Sensores:
Space Mission Analysis and Design (3rd edition). W.J. Larson, J.R. Wertz (editors). Space
Technology Library, 1999.
Observation of the Earth and its environment. H.J. Kramer. 1996. 3rd edition. Springer
Data reduction and error analysis for the physical sciences. Philip R. Bevington, D. K. Robinson. 2nd
edition. MacGraw-Hill. 1992.
Sentinel technical guides (incuyen la descripción de cada instrumento a bordo de los satélites
Sentinel): https://sentinel.esa.int/web/sentinel/sentinel-technical-guides
Y unos pocos artículos revisando alguno de los aspectos tratados en estos apuntes:
Joseph, G., “How well do we understand Earth observation electro-optical sensor parameters?” ISPRS
Journal of Photogrammetry and Remote Sensing 55 (2000), 9-12.
Xiong X, Wenny B, Barnes W, Salomonson V. "Overview Of MODIS Calibration And Characterization And
Lessons Learned". In: 2009 IEEE International Geoscience and Remote Sensing Symposium; JUL 12-17,
2009; Cape Town, SOUTH AFRICA. 2009. p. 2397-2400.
Adam C. Watts, Vincent G. Ambrosia and Everett A. Hinkley. "Unmanned Aircraft Systems in Remote
Sensing and Scientific Research: Classification and Considerations of Use". Remote Sensing, 2012, 4,
1671-1692; doi:10.3390/rs4061671