Anda di halaman 1dari 65

FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES____________________

FUNDAMENTOS DE PROCESAMIENTO

DIGITAL DE IMÁGENES DE SATELITE

Ing. Esp. H. CRISTINA SALVATIERRA

Mendoza, Agosto de 2004

i Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES____________________

TABLA DE CONTENIDO

Página

1. FUNDAMENTOS .............................................................................................................1
1.1 CONCEPTO DE IMAGEN MULTIESPECTRAL .................................................1
1.2 ANÁLISIS DE IMÁGENES MULTIESPECTRALES ...........................................2
1.3 PROCESAMIENTO DIGITAL.................................................................................3
1.3.1 Formatos de almacenamiento para imágenes multiespectrales ...............4
1.3.1.1 Formato BIP (Band interleaved by Pixel)...............................................4
1.3.1.2 Formato BIL (Band interleaved by line) .................................................5
1.3.1.3 Formato BSQ (Band Secuencial)............................................................5
1.4 Características de los Sistemas Digitales .............................................................5
1.4.1 Equipos (Hardware)...........................................................................................6
1.4.2 Programas (Software) .......................................................................................6
1.5 Características de los sistemas de PDI.................................................................7
1.5.1 Número de analistas y modo de operación ...................................................8
1.5.2 Unidad Central de Proceso, coprocesador matemático ..............................8
y memoria RAM............................................................................................................8
1.5.3 El Sistema Operativo y el Compilador............................................................9
1.5.4 Almacenamiento en Masa ................................................................................9
1.5.5 Resolución del monitor......................................................................................9
1.5.6 Resolución del color ........................................................................................10
2. CARACTERIZACIÓN ESTADÍSTICA DE LAS IMÁGENES ...................................10
2.1 HISTOGRAMA DE UNA IMAGEN........................................................................11
2.1.1 ENTROPIA ........................................................................................................11
2.1.2 VALOR MÍNIMO...............................................................................................13
2.1.3 VALOR MÁXIMO .............................................................................................13
2.1.4 MEDIA ARITMÉTICA. (Esperanza matemática o valor esperado) ........13
2.1.5 VARIANZA ........................................................................................................14
2.1.6 DESVIACIÓN TÍPICA......................................................................................14
2.1.7 COVARIANZA ..................................................................................................15
2.1.8 COEFICIENTE DE CORRELACIÓN ............................................................15
2.1.9 HISTOGRAMA BIDIMENSIONAL .................................................................16
2.1.10 MATRIZ VARIANZA COVARIANZA ...........................................................18
3. PROCESAMIENTO DE IMÁGENES..........................................................................19
3.1 DISTORSIONES Y CORRECCIONES RADIOMÉTRICAS .............................19
ii Ing. Esp. H.Cristiina Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES____________________

3.1.1 Falta de una línea............................................................................................19


3.1.2 Efectos atmosféricos. ......................................................................................19
3.1.3 Ruidos................................................................................................................20
3.1.4 Error de medición de la irradiancia. ..............................................................21
3.1.5 Saturación del detector. ..................................................................................21
3.2 DISTORSIONES Y CORRECCIONES GEOMÉTRICAS .................................21
3.2.1 Distorsión por rotación de la tierra................................................................21
3.2.2 Distorsión panorámica. ...................................................................................22
3.2.3 Efecto de la curvatura terrestre. ....................................................................22
3.2.4 Distorsiones geométricas no sistemáticas...................................................22
3.3 SISTEMA DE PROYECCION ...............................................................................24
3.4 RECTIFICACION .....................................................................................................24
3.5 REMUESTREO .......................................................................................................24
3.5.1 Método del vecino más cercano....................................................................25
3.5.2 Método de interpolación bilinear....................................................................26
3.5.3 Método de convolución cúbica.......................................................................26
3.6 PASOS DE LA RECTIFICACION.........................................................................27
3.7 TRANSFORMACIONES ........................................................................................28
3.7.1. LINEARES .......................................................................................................28
3.7.2. NO LINEARES ................................................................................................29
3.8 NUMERO MINIMO DE GCP .................................................................................29
3.9 ERROR MEDIO CUADRATICO (RMS)...............................................................29
4. MEJORAMIENTO DE IMÁGENES .............................................................................30
4.1 REDUCCIÓN Y AMPLIACIÓN DE LA IMAGEN...............................................30
4.1.1 Reducción .........................................................................................................30
4.1.2 Ampliación de la Imagen.................................................................................31
4.2 MEJORAMIENTO DEL CONTRASTE .................................................................32
4.2.1 Expansión li neal total.......................................................................................32
4.2.2 Expansión lineal parcial ..................................................................................34
4.2.3 Ecualización: (Expansión no lineal del histograma)..................................35
4.3 SEGMENTACIÓN ...................................................................................................36
4.4 FILTRAJE O CONVOLUCIÓN..............................................................................36
4.4.1 De suavización. ................................................................................................37
4.4.2 De mejoramiento. .............................................................................................38
4.4.3 Filtros de Detección de Bordes ......................................................................39
4.4.4 Filtro de detección de bordes lineales ..........................................................40
4.4.5 Filtro de detección de bordes no lineales.....................................................41
5 TRATAMIENTO CONJUNTO DE BANDAS ..........................................................42
5.1 OPERACIONES ENTRE BANDAS......................................................................42
iii Ing. Esp. H.Cristiina Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES____________________

5.1.1 Adición...............................................................................................................43
5.1.2 Sus tracción.......................................................................................................44
5.1.3 Producto ............................................................................................................45
5.1.4 División o proporción.......................................................................................46
5.1.5 Índice de Vegetación......................................................................................46
5.2 COMPOSICIÓN EN COLOR................................................................................47
5.3 ANÁLISIS EN COMPONENTES PRINCIPALES..............................................48
6. CLASIFICACIÓN DE IMÁGENES MULTIESPECTRALES..................................49
6.1 CLASIFICACIÓN SUPERVISADA .....................................................................49
6.1.1 Selección de algoritmos apropiados para la clasificación supervisada. .50
6.1.1.1 Paralelepípedo ..........................................................................................50
6.1.1.2 Distancia Mínima a la Media...................................................................53
6.1.1.3 Máxima probabilidad................................................................................54
6.2 CLASIFICACIÓN NO SUPERVISADA................................................................56
6.2.1 Presentación pictórica de los datos sin analizar.........................................56
6.2.2 Definición de las clases espectrales (entrenamiento)................................57
6.2.3 Representación pictórica y tabular de la clasificación..............................58
6.2.4 Evaluación de los resultados de la clasificación.........................................58
BIBLIOGRAFÍA ...................................................................................................................59

iv Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES____________________

TABL A DE F IGU RAS

P ági na
Figura N° 1. Espectro electromagnético. .........................................................................1
Figura N° 2. Esquema metodológico de estudio de un sistema físico por medio del
análisis de datos multiespectrales. ...........................................................................3
Figura N° 3. Estructura básica de un computador. ........................................................6
Figura N° 5 Histograma estrecho ....................................................................................12
Figura N° 6 Histograma amplio........................................................................................13
Figura N° 7. Ruido (noise) y bandeamiento (stripping)} ..............................................21
Figura N° 8. Rotación terrestre........................................................................................23
Figura N° 9A. Panorámica b. Alargamiento ....................................23
Figura N° 10a. Velocidad b. Movimiento de la plataforma c. Distorsiones
geométricas.................................................................................................................23
Figura N° 11. Imagen rectificada.....................................................................................24
Figura N°12. Método del vecino más cercano. .............................................................25
Figura N° 13. Método de interpolación bilinear. ............................................................26
Figura N° 14. Método de convolución cúbica................................................................27
Figura N° 15. Matriz polinomial. .......................................................................................28
Figura N° 16.a Histograma estrecho .b Histograma ancho ............................33
Figura N° 17. Transformación mediante una función lineal........................................33
Figura N° 18. Saturación de pixeles cercanos al mínimo y al máximo ....................33
Figura N° 19. Ampliación del histograma sin variación de Entropía ......................34
Figura N° 20. Enmascaramiento de una clase ...........................................................34
Figura N° 21. Histograma Ecualizado por una función no lineal................................35
Figura N° 22. Histograma segmentgado y curva isodensidad. .................................36
Figura N° 23. Filtro de suavización................................................................................37
Figura N° 24. Filtros de mejoramiento con diferentes valores centrales. .................39
Figura N° 25. Filtro de detección de bordes lineales ..................................................41
Figura N° 26. Filtro de detección de líneas ..................................................................41
Figura N° 27. Ra ngo de dispersión de los valores radiométricos ..............................51
Figura N° 28. Distribución de clases espectrales por banda. .....................................52
Figura N° 29. Método de la mínima distancia ...............................................................53
Figura N° 30. Método de máxima probabilidad.............................................................54
Figura N° 31. Agrupamiento de formas espectrales del agua, suelos, y vegetación
......................................................................................................................................57

v Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1. FUNDAMENTOS

1.1 CONCEPTO DE IMAGEN MULTIESPECTRAL

Una imagen Multiespectral es un modelo de la realidad construido con base en


una respuesta espectral de los elementos que componen una escena y las cuales
son captadas por detectores sensibles a un rango de longitudes de onda del
espectro electromagnético.

Para ello se aprovecha el solo como fuente de radiación y las propiedades que
tienen la mayor parte de los cuerpos en la superficie terrestre de reflejar una parte
de esa radiación emitida que a su vez captada por un sensor calibrado para
trabajar en una franja o banda del espectro.

Los intervalos del espectro electromagnético no están exactamente determinados


por cuanto no se puede establecer exactamente donde termina una franja y
comienza otra, sin embargo, a nivel experimental, se han asociado algunas
regiones para producir y detectar ondas de cierto tipo (figura 1).

Con los programas espaciales dedicados al estudio de los recursos naturales de la


tierra ha sido posible colocar un conjunto de sensores en un satélite para tener
una visión sinóptica de la misma, éstos sensores trabajan en bandas
generalmente del visible y del infrarrojo, lo que permite medir la respuesta
espectral de cuerpos en la superficie terrestre en diferentes rangos de longitud de
onda, creándose así la imagen de una escena de la tierra en múltiples bandas del
espectro, que es lo que se conoce como IMAGEN MULTIESPECTRAL.

Figura N° 1. Espectro electromagnético.


Fuente: CCRS, 1999

1 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.2 ANÁLISIS DE IMÁGENES MULTIESPECTRALES

El análisis de una imagen se ha dividido en dos grandes ramas: el procesamiento


de imágenes y el reconocimiento de patrones de las mismas. La primera de estas
se entiende como un conjunto bien definido y clasificado de realces, que dejan
lista la imagen para una descripción matemática de las regiones que la componen.
Las regiones están formadas a su vez por patrones espaciales y espectrales, de
tal forma que el reconocer estos patrones por medio de modelos matemáticos,
implica la descripción de las regiones que forman una imagen. En otras palabras,
reconocer un patrón requiere primero de su manifestación evidente por medio de
un procesamiento bien definido a la imagen y seguido de una descripción
cualitativa de sus propiedades morfológicas y estadísticas.

En la práctica existen dos formas de hacer análisis de imágenes, la primera


denominada análisis manual, basada en la inspección visual usando impresione s
fotográficas de una imagen digital y la segunda llamada análisis asistido por
computador, la cual se fundamenta en el análisis cuantitativo de los datos
almacenados en formato digital. Existen similitudes en los objetivos y métodos de
ambos procedimientos.

Tanto el análisis manual como el asistido por computador intentan detectar e


identificar fenómenos importantes en una escena. Una vez identificados los
fenómenos, son visualmente cuantificados y la información utilizada en la solución
de un problema. Tanto el análisis manual como el digital tienen el mismo objetivo
general. Sin embargo, el logro de estos objetivos puede seguir diferentes rutas.
Por ejemplo, los elementos fundamentales de la interpretación de imágenes son
usados en el análisis manual, estos incluyen tono/color, tamaño, forma, textura,
patrón, peso, sombra, sitio y asociación.

La cuantificación de la información multiespectral establece las bases para la


modelación del sistema físico bajo estudio y deja el camino abierto a nuevas
técnicas de análisis de imágenes digitales por medio de algoritmos
computacionales.

El análisis de las imágenes requiere del conocimiento de las características de los


datos que contiene. Para ello consideramos el esquema metodológico para el
estudio e interpretación de un sistema físico por medio del análisis de datos
bidimensionales multiespectrales.

2 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

SISTEMA ESCENA DISPÓSITIVO IMAGEN ANALISIS DE LA


FISICO SENSOR MULTIESPECTRAL IMAGEN

COMPARACION FENOMENO DE
DEGRADACION

MODELO DEL INTEGRACION DE LA


SISTEMA FISICO INFORMACION RESULTANTE

Figura N° 2. Esquema metodológico de estudio de un sistema físico por medio del


análisis de datos multiespectrales.
Fuente: López, J. 1990

Podemos apreciar en la figura 2 que existe un proceso de retroalimentación, el


comportamiento del sistema físico es estudiado a través del análisis de la imagen
multiespectral resultante y que este análisis interpretado correctamente, sienta las
bases para generar un modelo de funcionamiento de dicho sistema físico. Es
importante anotar que la imagen multiespectral de una escena dada representa
además de la distribución espacial de las propiedades físicas promedio, la
respuesta finita del sensor y de los mecanismos de interferencia que afectan la
medida de las variables de la escena.

1.3 PROCESAMIENTO DIGITAL

El ser humano puede interpretar visualmente las imágenes producidas por ciertos
dispositivos de sensoramiento, especialmente cámaras. Uno podría preguntarse:
¿Por qué tratar de imitar o mejorar esta capacidad? Primero hay ciertos limitantes
que hacen que el intérprete no pueda detectar diferencias poco notables en una
imagen. Por ejemplo, es comúnmente conocido que un análisis puede discriminar
sólo alrededor de 8 a 16 escalas de gris cuando se hace interpretación continua
en tonos de blanco y negro de una fotografía aérea. Si los datos estuvieran
originalmente grabados con 256 escalas de gris, podría estar presente mayor
información en la imagen de la que el intérprete puede visualizar.

El término procesamiento digital se ha venido involucrando cada día más debido a


la utilización de computadores digitales, es decir dispositivos de cálculo con
capacidad de procesar grandes volúmenes de datos a altas velocidades y con
buena exactitud, en razón de su estructura interna que permite ejecutar
operaciones con base en un sistema numérico (o de dígitos) en el cual se puede
representar cifras, símbolos y letras.

3 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Así es posible almacenar en una computadora una imagen numérica resultado de


una transformación hecha por el detector de la respuesta espectral de cada
elemento de escena para producir una imagen digital escalizada.

Como ya es conocido, la respuesta espectral de cada elemento de escena es


captada por el sensor de acuerdo a la banda del espectro electromagnético para el
cual esté calibrado. En realidad, lo que se hace es almacenar la respuesta
espectral en varias bandas de una misma escena.

1.3.1 Formatos de almacenamiento para imágenes multiespectrales

Los procesos de tratamiento de imágenes digitales deben tener en cuenta como


está almacenada la información, para así poder ser accesada. Por ello es
necesario recordar que las imágenes digitales se graban en dispositivos de
almacenamiento en masa, generalmente cintas magnéticas compatibles con
computador (CCT), sin embargo, existen varios formatos en que son almacenadas
las imágenes, algunos se estudian a continuación:

1.3.1.1 Formato BIP (Band interleaved by Pixel)

Cada elemento en la matriz tiene cuatro valores de pixel (uno de cada banda
espectral) localizados unos después del otro. Este formato es práctico si todas las
bandas son usadas.

Los datos numéricos de la imagen son grabados intercalando sucesivamente un


pixel por cada banda.

B1 B2 B3 B1 B2 B3 B1 B2 B3 B1 B2 B3 B1

..................
pixel 1 pixel2 pixel 3 pixel 4
...................

4 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.3.1.2 Formato BIL (Band interleaved by line)

En este formato los datos para las bandas son escritos fila por fila sobre la misma
cinta, ejemplo fila 1 banda 1, fila 1 banda 2, fila 1 banda 3, fila 1 banda 4. Es un
formato práctico si todas las bandas van a ser usadas en el análisis. Si algunas
bandas no son de interés el formato es ineficiente por cuanto es inevitable leer
serialmente datos innecesarios.

Los datos numéricos de la imagen son grabados intercalando sucesivamente una


fila de pixeles por cada banda.

B1 B2 B3

................
Fila 1 Fila 1 Fila 1

1.3.1.3 Formato BSQ (Band Secuencial)

El formato de banda secuencial requiere que todos los datos de una banda cubran
la escena completa y sean escritos sobre un archivo. Así, cuando se busca un
área en el centro de la escena en cuatro bandas, se requiere leer esta localización
en cuatro archivos para extraer la información deseada. Los datos numéricos de
la imagen son grabados almacenando primero todas las filas de pixeles de la
banda 1, luego de todas las filas de pixeles de la banda 2 y así sucesivamente.

Banda 1..... Banda 2... Banda 3.....

1.4 Características de los Sistemas Digitales

En general los sistemas digitales se pueden estudiar desde el aspecto de equipos


que lo componen (comúnmente conocido como hardware) y desde el aspecto de
los programas que permiten operar el equipo (software).

5 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.4.1 Equipos (Hardware)

El conjunto de componentes físicos aparatos y dispositivos que constituyen un


sistema de computación se denomina hardware. Un esquema típico se muestra
en la figura 3. Este esquema puede variar con cada instalación particular, sin
embargo, se conservan algunos módulos básicos como el módulo de entrada, de
procesamiento y el de salida.

Figura N° 3. Estructura básica de un computador.


Fuente: Chuvieco, E. 1996

El módulo de entrada incluye el equipo necesario para poder suministrar datos a la


unidad encargada del procesamiento de los mismos. Estos dispositivos de
entrada pueden ser diferentes según espacio que implica almacenar una escena,
los datos ingresan por medio una cinta o disco magnético.

Las operaciones con los datos se desarrollan en una unidad central de


procesamiento, generalmente denominada CPU (Central Process Unit), la cual
incluye una memoria principal de alta velocidad llamada memora RAM, en donde
se guardan temporalmente todos los datos que va a procesar el computador, a
través de la unidad aritmética y lógica con bases en un programa previamente
diseñado para tal efecto.

El módulo de salida permite enviar los resultados del procesamiento a un medio


físico de salida, ya sea para operación visual (ej: monitor, impresora) o para
almacenamiento en un medio magnético (cinta, disco).

1.4.2 Programas (Software)

En esta parte se contempla el conjunto de paquetes y programas que conforman


un sistema de Procesamiento Digital de Imágenes y que permiten la manipulación

6 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

del equipo para solucionar, mediante algoritmos, problemas inherentes al


procesamiento de datos.

1.5 Características de los sistemas de PDI

Los sistemas de procesamiento digital de imágenes, poseen algunas


características particulares por el tipo de equipos y el software especializado que
requieren.

Los datos captados por el sensor, son la entrada a un sistema de PDI, estos se
encuentran almacenados en un formato digital desde donde es posible analizarlos,
esto requiere que el analista comprenda las características fundamentales de los
sistemas de PDI.

Tres de las aproximaciones más utilizadas en la ejecución de procesamiento


digital de imágenes, son:

La aproximación "Mainframe": donde varios analistas utilizan un computador de


tipo "Mainframe" (mayor o igual 32 bit), el modo batch o interactivo. Ellos
generalmente trabajan en modo batch (por bloques) con salida en ploter y solo
ocasionalmente tienen la oportunidad de visualizar y analizar interactivamente los
datos captados por el sensor sobre un monitor de alta resolución blanco y negro o
a color.

La segunda aproximación involucra el uso de un minicomputador (16 a 32 bit), un


procesador de imágenes y un monitor a color de alta resolución que provee un
ambiente de procesamiento de imágenes ideal.

Una tercera aproximación está basada en un microcomputador (16 a 21 bit). Los


sistemas de PDI basados en microcomputador son relativamente económicos y en
la actualidad pueden ser adquiridos para usar como estaciones de trabajo
múltiples en un ambiente que no requiera producción a gran escala.

Cuando se trabaja o se quiere seleccionar un sistema de PDI los siguientes


factores deben ser considerados: el número de analistas que tienen acceso al
sistema al mismo tiempo, el modo de operación, la unidad central de
procesamiento CPU, el sistema operacional, el tipo de compilador, la cantidad y
tipo de almacenamiento en masa requerido, la resolución y color y por supuesto
las aplicaciones del software de PDI.

7 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.5.1 Número de analistas y modo de operación

Un número de analistas relativamente grande debe a menudo tener que accesar


facilidades de procesamiento de imagen, consecuentemente el número de
analistas asignado a cada estación de trabajo puede variar desde uno hasta cinco
que es inadecuado. Por lo demás es ideal que el sistema de PDI tenga un
ambiente interactivo donde el analista pueda ver rápidamente los resultados del
procesamiento de imagen.

Cuando las estaciones de trabajo están comunicadas en red a un sistema de PDI


basados en minicomputador, este tipo de configuración permite a las estaciones
compartir tiempo de la CPU del minicomputador, además cada estación de trabajo
tiene su propia memoria con el propósito de procesar imágenes que almacena los
datos desplegados sobre la pantalla. Esto permite un rápido procesamiento de
imagen.

1.5.2 Unidad Central de Proceso, coprocesador matemático


y memoria RAM.

El procesamiento de datos digitales requiere una gran cantidad de operaciones en


la Unidad Central de Proceso, CPU. Especialmente, la CPU está encargada de
dos tareas principales, los cálculos aritméticos y la entrada/salida a dispositivos
periféricos. En el pasado, la mayoría de las CPU de microcomputadores eran
diseñadas con registradores de 8 bit, lo cual era adecuado para ejecutar funciones
entrada/salida, pero eran bastante lentos cuando los cálculos numéricos eran
ejecutados. En la actualidad la gran mayoría de CPU tienen registradores de 16
bits las cuales pueden ejecutar tareas de entrada y salida tan rápido como las de
velocidad que las de 8 bits. Aún cuando las más poderosas son de la nueva
generación de 32 bits que pueden direccionar sustancialmente más memoria y
operar con una nueva forma denominada procesamiento en paralelo.

Para mejorar la velocidad en los cálculos numéricos, un coprocesador matemático


(o de punto flotante) es utilizado. El coprocesador trabaja en conjunto con la CPU
para ejecutar operaciones con datos de tipo real a gran velocidad. Idealmente un
procesador de arreglos puede ejecutar operaciones aritméticas de números
enteros organizados en forma nutricional, esto es especialmente usado para
operaciones de mejoramiento y análisis de imágenes.

La CPU puede contener suficiente memoria de acceso aleatorio (RAM) para el


sistema operativo software de PDI y datos de la imagen que deben permanecer en
memoria mientras los cálculos son ejecutados. Generalmente 640 K de memoria

8 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

RAM es suficiente para el procesamiento de imágenes cuando sólo unas pocas


filas de datos se cargan simultáneamente a la memoria.

1.5.3 El Sistema Operativo y el Compilador

El sistema operativo y el compilador deben ser lo suficientemente versátiles para


trabajar con los programas de análisis y con los algoritmos propios del
procesamiento digital de imágenes. Configurar ambientes de PDI con sistemas
operativos o puntuales ocasiona dificultades para compartir datos con otras
aplicaciones. Los sistemas operativos más utilizados son el DOS y UNIX. Los
compiladores más usuales en el desarrollo de software de PDI son BASIC,
ASSEMBLER, FORTRAN, PASCAL y C.

1.5.4 Almacenamiento en Masa

Los datos captados por el sensor son almacenados en un formato matricial con
varias bandas multiespectrales, de acuerdo a los formatos analizados en la
sección 1.3.1. El fenómeno más común de almacenamiento es el de banda
secuencial (BSQ). Cada pixel (elemento de imagen) de cada banda es
representado en un computador por un solo byte (el cual puede almacenar valores
entre 0 y 255). Alrededor de 262.000 bytes (262 kbytes) son necesarios para
almacenar 512 x 512 pixeles de una sola banda. Sin embargo, es a menudo
necesario analizar simultáneamente varias bandas, por ejemplo, para almacenar
las siete bandas del mapeador temático LANDSAT se requiere más de 1.000.000
de bytes de capacidad de almacenamiento. Los sistemas de disco duro
típicamente almacenan más de veinte millones de bytes por lo cual constituyen un
medio ideal.

La tecnología de almacenamiento en discos ópticos continúa mejorando


permitiendo almacenar grandes cantidades de datos del orden de mil millones de
bytes (GybaBytes).

1.5.5 Resolución del monitor

Los monitores a color existentes en el mercado, tienen diferentes capacidades de


despliegue, existen monitores de baja resolución, capaces de desplegar hasta 256
x 256 pixeles, de media resolución hasta 512 x 512 pixeles y de alta resolución
con posibilidad de desplegar 1024 x 1024 o más pixeles. Para un sistema de PDI
lo más aconsejable es el monitor de alta resolución el cual permite analizar
porciones más amplias de imagen.

9 Ing. Esp. H.Cristiina Salvatierra


FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.5.6 Resolución del color

Esto hace referencia al número de escalas de gris y/o colores (ejemplo 256) que
puede presentar un monitor simultáneamente tomados de una paleta de colores
disponible (ej. 16.7 millones). Para muchas aplicaciones geográficas un solo bit
de color es requerido, pero para operaciones cartográficas más sofisticadas donde
las escalas de gris o la combinación de diferentes colo res es requerida como
mínimo se necesitan ocho bits (256 colores). Para aplicaciones del mapeador
temático se requiere que el usuario pueda seleccionar sesenta y cuatro colores de
una paleta de 256 como mínimo.

El análisis y despliegue de imágenes de sensores remotos requiere de mayor


resolución que las aplicaciones cartográficas de tal manera que existen sistemas
de PDI que poseen la capacidad de desplegar alrededor de 4096 colores de una
paleta de 16.7 millones.

El software de PDI requiere de una alta velocidad en el proceso de los datos, para
ello existen algoritmos que optimizan al máximo el computador, haciendo que
cada día los tiempos de proceso sean más cortos. A su vez, la tendencia de este
tipo de software es a estandarizar ciertos algoritmos muy empleados y crear otros
nuevos que le permiten al usuario desarrollar pruebas de eficiencia.

Los programas son usualmente interactivos, de tal forma que el usuario, luego de
hacer una solicitud, recibe una respuesta en un tiempo que depende del tipo de
operaciones que tenga que ejecutar el computador. Sin embargo, en algunos
casos, la respuesta es casi inmediata debido a las altas velocidades de proceso
existentes actualmente. Se espera alcanzar con el tiempo una velocidad que
permita obtener respuestas en forma inmediata, lo cual no depende del software
solamente sino de los avances de la electrónica para construir máquinas más
veloces.

2. CARACTERIZACIÓN ESTADÍSTICA DE LAS IMÁGENES

Los datos contenidos en una imagen multiespectral proporcionan abundante


información al analista de imágenes, sin embargo, para ello es necesario recurrir a
la estadística para poder cuantificar mejorar las características de la imagen.
Comúnmente se calculan histogramas, valores mínimo, medio y máximo, entropía,
varianza, desviación típica, covarianza y coeficiente de correlación como
parámetros fundamentales para caracterizar estadísticamente una imagen
multiespectral.

10 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

2.1 HISTOGRAMA DE UNA IMAGEN

Es la función que representa la frecuencia de ocurrencia de cada uno de los


diferentes niveles de gris (valores radiométricos) en una imagen digital. Puede
representarse en forma numérica o gráfica.

El rango de los valores discretos que puede tomar un pixel generalmente es


ubicado en el eje de las abscisas (eje X), mientras que la frecuencia de ocurrencia
de cada uno de estos valores es desplegada sobre las ordenadas (eje Y).
Generalmente una imagen digital con un pobre contraste visual presenta un
histograma muy estrecho (figura 5), y una imagen muy contrastada y un
histograma ancho (figura 6). Los diversos picos y valles en un histograma
multimodal corresponden a diferentes tipos de cobertura dominantes en la imagen.

Otra representación común del histograma es desplegar la frecuencia de aparición


de cada uno de los valores radiométricos expresando su porcentaje con respecto
al total y el porcentaje acumulado.

Antes de aplicar cualquier tipo de proceso a una imagen multiespectral, se


acostumbra a calcular el histograma para cada una de las bandas lo que permite
al analista tener una idea de la calidad de los datos originales. Después de aplicar
una técnica de mejoramiento se calcula de nuevo el histograma para documentar
los efectos del proceso sobre la imagen original.

2.1.1 ENTROPIA

Es un parámetro que permite medir cuantitativamente la cantidad de información


presente en una imagen. (grado de desorden de los pixeles o nivel de utilización
de los diferentes niveles de gris).

n
E = - Σ f (i) log f (i)
i=1

f(i): Frecuencia de ocurrencia del valor radiométrico i.

La entropía no tiene en cuenta la información que proviene de la distribución


espacial de los pixeles. De acuerdo a lo anterior, la Entropía mínima se presenta
cuando todos los pixeles una imagen tienen el mismo valor. Si la imagen contiene
m pixeles entonces:

11 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

m
E = - m log m

0 N 255

La máxima entropía se presenta cuando la imagen presenta el mismo número de


pixeles para cada uno de los 256 niveles.

m/256

0 1 2 3 4 5 6 7 ...............................................................255

E = 256* [(m/256)* log (m/256)] = m* log (m/256)

Figura N° 5 Histograma estrecho


Fuente: Chuvieco, E. 1996

12 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Figura N° 6 Histograma amplio.


Fuente: Chuvieco, E. 1996

2.1.2 VALOR MÍNIMO

Es el valor radiométrico (nivel de gris) más bajo encontrado en una imagen digital.

2.1.3 VALOR MÁXIMO

Es el valor radiométrico más alto encontrado en una imagen digital

2.1.4 MEDIA ARITMÉTICA. (Esperanza matemática o valor esperado)

La media expresa el promedio de los valores radiométricos de la imagen.

m
Σ Xi X1 + X2 + X3 + .................+Xm
i=1
µ = -------------- = ------------------------------------------------
m m
13 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

donde:

Xi: Valor radiométrico del pixel i


m: Número total de pixeles en la imagen
µ: Media aritmética de la imagen

2.1.5 VARIANZA

Es una medida de dispersión o variación de los valores radiométricos de los


pixeles de una imagen alrededor de su media. Si los valores tienden a
concentrarse alrededor de la media (Histograma estrecho) las varianza es
pequeña, si los valores tienden a distribuirse lejos de la media, la varianza es
grande.

La varianza puede calcularse por medio de la ecuación:

m
Σ (Xi - µ)2
i= 1
Var = -----------------------------------
m-1

donde: Xi: Valor radiométrico del pixel i


m: Número total de pixeles en la imagen
µ: Media aritmética de la imagen

2.1.6 DESVIACIÓN TÍPICA

Se le denomina así a la raíz cuadrada de la Varianza

S= Var

Los parámetros anteriores se pueden calcular para cada una ade las bandas de
una imagen digital multiespectral.

Existen otros parámetros que involucran dos bandas, permitiendo establecer la


relación existente entre éstas; ellos son la covarianza y el coeficiente de
Correlación.
14 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

2.1.7 COVARIANZA

Es una medida de la variación conjunta de los valores de los pixeles en ambas


bandas alrededor de su media común.

La covarianza se calcula aplicando la siguiente ecuación:

m m
Σ Σ (Xj-Ux (Yi-Uy)
J= 1 i = 1
COV xy = -------------------------------------------------------
m-1

donde:

Xj: Valor radiométrico del pixel j en la banda X


Yi: Valor radiométrico del pixel i en la banda Y
µx: Media aritmética de la banda X
µy: Media aritmética de la banda Y
m: Número total de pixeles en cada banda

2.1.8 COEFICIENTE DE CORRELACIÓN

Es una medida de la relación existente entre los valores de los pixeles de dos
bandas.

Cov xy
rxy = -------------
Sx Sy

donde;

Cov xy: Covarianza de las bandas X e Y


Sx: Desviación estándar de la banda X
Sy: Desviación estándar de la banda Y

15 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

El coeficiente de correlación toma valores que van entre - 1 y 1.

Un rxy = 1 indica una relación perfecta entre los valores radiométricos de los
pixeles en las dos bandas (un incremento en el valor de un pixel en una banda,
implica también un incremento igualmente proporcional en la otra banda. Sería el
caso en el cual las dos bandas son iguales).

Un rxy = 1 indica que una banda está inversamente relacionada a la otra.

Un rxy = 0 sugiere que no existe alguna relación entre las dos bandas X e Y.

El que dos bandas estén relacionadas implica que existe redundancia en los datos
de las bandas.

Si las dos bandas tienen un rxy = 0 significa que no existe ningún tipo redundancia
en los datos de las bandas.

Los coeficientes rxy son usualmente almacenados en una matriz de correlación,


que resume la relación entre bandas, esta matriz es simétrica con respecto a la
diagonal, es decir que por ejemplo el coeficiente de correlación entre la banda 1
con la banda 2 es igual al coeficiente de correlación entre banda 2 con banda 1.
Los coeficientes que están en la diagonal son iguales a la unidad por cuanto existe
una relación perfecta entre una banda con si misma. El formato de la matriz de
correlación es como sigue:

Banda 1 Banda 2 Banda 3 Banda 4


Banda 1 1.0 r 1,2 r 1,3 r 1,4
Banda 2 r 2,1 1.0 r 2,3 r 2,4
Banda 3 r 3,1 r 3,2 1.0 r 3,4
Banda 4 r 4,1 r 4,2 r 4,3 1.0

2.1.9 HISTOGRAMA BIDIMENSIONAL

Es una forma de presentar gráficamente los valores radiométricos de los pixeles


de dos bandas. En el eje X se ubican los valores radiométricos de una banda y
en el eje Y se ubican los valores radiométricos de la otra. Cada pixel es ploteado
en el espacio bidimensional de acuerdo a sus valores en cada banda, formándose
una nube de puntos.

16 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

B1 10 50 30 ....... B2 10 20 30 .......

B2

30

20

10

10 20 30 40 50 B1

Se presentan algunos histogramas bidimensionales que están representando los


principales casos de relación entre bandas:

By By By

rxy=1 rxy=-1 rxy=0

Bx Bx Bx

By By By

ry=0

rxy →

Bx Bx Bx

17 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

2.1.10 MATRIZ VARIANZA COVARIANZA

La matriz de covarianza es uno de los más importantes conceptos matemáticos en


el análisis de datos de sensores remotos, donde se observa si existe una
correlación entre las respuestas en un par de bandas espectrales, los elementos
fuera de la diagonal serán grandes con respecto a los de la diagonal. Pero si
existe poca correlación, los elementos fuera de la diagonal serán cercanos a cero.
Esta característica puede también ser observada en términos de matriz de
correlación.

La varianza y covarianza se acostumbra a representar en una matriz, donde la


diagonal contiene los valores de la varianza y los elementos fuera de la diagonal
serán grandes con respecto a los de la diagonal. Pero si existe poca correlación,
los elementos fuera de la diagonal serán cercanos a cero. Esta característica
puede también ser observada en términos de la matriz de correlación.

La varianza y covarianza se acostumbra a representar en una matriz, donde la


diagonal contiene los valores de la varianza y los elementos fuera de la diagonal
corresponden a las covarianzas. Nótese que la matriz es simétrica con respecto a
la diagonal, es decir que todos los elementos, que no están en la diagonal están
duplicados (Ej Cov. 1,2 = Cov. 2,1). A continuación se presenta el formato de la
matriz Varianza covarianza, para cuatro bandas:

Banda 1 Banda 2 Banda 3 Banda 4


Banda 1 VAR 1 COV 1,2 COV 1,3 COV 1,4
Banda 2 COV 2,1 VAR 2 COV 2,3 COV 2,4
Banda 3 COV 3,1 COV 3,2 VAR 3 COV 3,4
Banda 4 COV 4,1 COV 4,3 COV 4,3 VAR 4

18 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

3. PROCESAMIENTO DE IMÁGENES

Los sistemas de sensoramiento remoto introducen algunos errores en el proceso


de captación de datos. Estos errores afectan el análisis de las imágenes. Por
esta razón es necesario preprocesar los datos captados por el sensor, antes de
analizarlos.

La restauración de imágenes permite hacer correcciones de la distorsión,


degradación y ruido introducido durante el proceso de captación de las imágenes.

Para corregir los datos de la imagen deben ser determinados los errores internos y
externos. Los errores internos son originados por el sensor mismo, son
generalmente sistemáticos (predecibles) y estacionarios (constantes) y puede ser
corregidos por una calibración de los detectores antes del lanzamiento o en vuelo.
Los errores externos son debidos a perturbaciones de la plataforma y a la
variación de las características de la superficie. Los errores no sistemáticos
pueden ser resueltos por mediciones hechas en tierra, mediante puntos de control.

3.1 DISTORSIONES Y CORRECCIONES RADIOMÉTRICAS

Las distorsiones radiométricas son las que afectan la radiometría de los objetos en
la imagen.

Algunos de los problemas más frecuentes y el procedimiento par minimizarlos son:

3.1.1 Falta de una línea.

El mal funcionamiento de un detector puede ocasionar que una línea de barrido


aparezca con valores muy bajos o nulos, es decir que el sensor no capte
información apareciendo en la imagen visual como una línea negra. La corrección
a este error se logra sustituyendo la línea problema por el valor promedio de los
pixeles correspondientes a la línea anterior y posterior.

3.1.2 Efectos atmosféricos.

Los efectos atmosféricos en imágenes de sensores remotos son debidos


especialmente a la atenuación que sufre la radiación en la atmósfera y la
dispersión en dicha radiación. La dispersión es un fenómeno físico que se
presenta al penetrar la radiación visible a la atmósfera, debido a que al chocar con
las moléculas de aire y de aerosol, se dispersa en varias direcciones, de tal
manera que una parte de esta puede ser desviada y nuevamente dirigida al
espacio. Es claro que la dispersión guarda una relación con la longitud de onda,
19 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

entre más pequeña la longitud de onda mayor será la dispersión. Por esta razón
las imágenes multiespectrales presentan menos contraste en las bandas
correspondientes al azul y al verde mientras aumenta en las bandas del infrarrojo.
Para corregir el efecto de este fenómeno, el método más sencillo consiste en
comparar pixeles idénticos en todas las bandas. Por ejemplo, pixeles
correspondientes a sombra o agua clara donde la respuesta espectral es muy baja
en todas las longituides de onda (visible e infrarrojo).

Cuando en las bandas de longitudes de onda más corta tienen valores


relativamente altos, esto se debe la dispersión la cual causa cierta iluminación. En
este caso se restan estos valores de todos los pixeles de la imagen. Los errores
de distorsión también pueden ser corregidos usando métodos un poco más
sofisticados basándose en estadísticas y en modelos de absorción y dispersión
tomando parámetros como la temperatura, humedad relativa, visibilidad.

La absorción por vapor de agua y otros gases en la atmósfera afecta


especialmente a las longitudes de onda mayores que 0.8 µm, disminuyendo los
valores radiométricos.

Los efectos atmosféricos ocasionan distorsiones radiométricas cuando se intenta


comparar las mediciones espectrales hechas en campo con las mediciones de un
barredor multiespectral, lo cual también puede tener incidencia en el momento de
hacer la clasificación.

3.1.3 Ruidos.

Se entiende por ruido cualquier señal no deseada dentro de una imagen. En


imágenes de sensores remotos hay varios tipos de ruido, entre otros: ruido al azar,
ruido aislado, ruido periódico y estacionario, ruido periódico pero no estacionario.
El ruido al azar se caracteriza por variaciones estadísticas de los niveles de gris
pixel por pixel. Este ruido puede ser originado en la atmósfera o en los
componentes electrónicos del sistema. Este tipo de ruido es independiente de la
señal. La forma más aconsejable de eliminarlo es aplicar un filtro de paso bajo. El
ruido periódico es relativamente fácil de corregir, pero el ruido al azar es
considerablemente más complejo, aunque a veces teniendo las características del
sensor, es posible tener una aproximación del ruido esperado (figura 7)

Es necesario hacer un análisis de la estructura del ruido antes de aplicarle el


algoritmo de "eliminación del ruido".

20 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.1.4 Error de medición de la irradiancia.

Es un error inherente al sensor, ya que éste tiene una determinada precisión para
medir la energía incidente, más allá de la cual el sensor no detecta señales
diferentes. Este tipo de error resulta difícil de corregir por cuanto tendría que
cambiarse la escala de valores radiométricos.

3.1.5 Saturación del detector.

Un detector es sensible a un rango específico de radiación, fuera de este rango en


sensor se satura. Es un error que sólo se presenta cuando se tienen objetos en
tierra que presentan una alta reflectancia.

Figura N° 7. Ruido (noise) y bandeamiento (stripping)}


Fuente: CCRS, 1999

3.2 DISTORSIONES Y CORRECCIONES GEOMÉTRICAS

Las distorsiones geométricas se pueden clasificar en sistemáticas o inherentes al


sistema y en no sistemáticas, es decir causadas por problemas de funcionamiento
del sistema.

3.2.1 Distorsión por rotación de la tierra.

Esta distorsión se presenta porque la mayoría de las imágenes de sensores


remotos (excepto la fotografía) son registradas en forma continua y en el lapso de
tiempo durante el cual se forma la imagen, la tierra se ha desplazado debido a su
21 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

rotación. Esta es una distorsión geométrica sistemática pero no es constante, ya


que el desplazamiento depende de la latitud (a menor latitud mayor
desplazamiento). Por ejemplo, las imágenes Landsat deben ser corregidas y por
esta razón tienen forma de paralelogramo. Esta corrección se hace aplicando
algoritmos que logren desplazar grupos de pixeles hacia una nueva dirección.
Dado que es una distorsión determinística se corrige calculando la velocidad
relativa entre la tierra y el satélite (Figura 8).

3.2.2 Distorsión panorámica.

A medida que se aleja la línea del nadir el tamaño del pixel aumenta. Este tipo de
distorsión se corrige sólo cuando se tiene control terrestre adecuado y se hace a
través del llamado Algoritmo de expansión (figura 9a).

3.2.3 Efecto de la curvatura terrestre.

Afecta el tamaño del pixel por cuanto a medida que se aleja del nadir el campo de
vista instantáneo el mayor (figura 9.b).

3.2.4 Distorsiones geométricas no sistemáticas.

Son debidas a variaciones imprevistas en velocidad, altitud y orientación de la


plataforma.

Al aumentar la velocidad de la plataforma se cubre mayor área en el sentido de la


línea de vuelo de la plataforma (figura 10a).

Al aumentar la altitud aumenta el tamaño de la superficie captada por los sensores


(figua 10b).

Las diferencias de posición de los diversos puntos de la plataforma en relación al


eje Y o al eje X (figura 10c).

22 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Tierra

Satélite

Figura N° 8. Rotación terrestre.


Fuente: López; J. 1990

Tamaño Tamaño
Pixel pixel

Figura N° 9A. Panorámica b. Alargamiento


Fuente: López; J. 1990

Figura N° 10a. Velocidad b. Movimiento de la plataforma c. Distorsiones


geométricas
Fuente: López; J. 1990

23 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.3 SISTEMA DE PROYECCION

Es un sistema diseñado para representar la superficie de una esfera o esferoide


(como la tierra) sobre un plano.

3.4 RECTIFICACION

Es el proceso de transformación de los datos a partir de un sistema de grilla a otro


usando una ecuación polinomial de orden “n”.

3.5 REMUESTREO

Es el proceso de extrapolación de los valores de los datos


calculados para los pixeles a localizar en la nueva grilla a partir de los valores de
los pixeles “fuentes ” (figura 11).

Figura N° 11. Imagen rectificada.


Fuente: Chuvieco, E. 1996

Para corregir las distorsiones producidas por el movimiento de la plataforma se


utilizan técnicas de remuestreo en concordancia con el registro continuo del
movimiento del satélite.

Las técnicas de remuestreo se pueden efectuar por cualquiera de los siguientes


métodos:

24 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

a) Vecino más cercano


b) Interpolación bilineal
c) Convolución cúbica

3.5.1 Método del vecino más cercano.

Utiliza el valor del pixel más cercano para asignar el valor del pixel de salida
(figura 12). Para determinar el vecino más cercano, el algoritmo usa la inversa de
la matriz de transformación para calcular las coordenadas de la imagen a partir de
las coordenadas geográficas deseadas. El valor del pixel que ocupa la coordenada
más cercana de la imagen respecto a la estimada será usada por el valor del pixel
de salida en la imagen georreferenciada.

VENTAJAS.

• Valores de salida son los valores originales de entrada. Otros métodos de


remuestreo tienden a promediar los valores de los pixeles vecinos.
• Ya que se retienen los valores de los datos originales, este método se
recomienda antes de la clasificación.
• Es fácil de calcular y muy rápido de ejecutar.

DESVENTAJAS.

• Produce un efecto de “escalonammiento”. La imagen tiene una apariencia de


rugosidad relacionada con los datos originales sin rectificar.
• Los valores de los datos podrían perderse mientras otros valores podrían
duplicarse.

Figura N°12. Método del vecino más cercano.


Fuente: Chuvieco, E. 1996

25 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.5.2 Método de interpolación bilinear.

Utiliza el promedio ponderado de los 4 pixeles más cercanos para signar el valor
del pixel de salida (figura 13).

VENTAJAS

• Se reduce el efecto de escalonamiento causado por el vecino más cercano. La


imagen luce mas suavizada.

DESVENTAJAS

• Altera los datos originales y reduce el contraste por promediar conjuntamente


los valores de los pixeles vecinos.
• Es mas costosa desde el punto de vista computacional que el método del
vecino más cercano.

Figura N° 13. Método de interpolación bilinear.


Fuente: Chuvieco, E. 1996

3.5.3 Método de convolución cúbica

utiliza el promedio ponderado de los 16 pixeles más cercanos para asignar un


nuevo valor al pixel de salida (figura 14).

26 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

VENTAJAS

• Se reduce el efecto de escalonamiento. La imagen luce suavizada.

DESVENTAJAS

• Altera los datos originales y reduce el contraste por usar los valores promedios
conjuntos de los pixeles vecinos.
• Es mas costoso computacionalmente que los métodos de vecino más cercano
y de interpolación bilinear.

Figura N° 14. Método de convolución cúbica.


Fuente: Chuvieco, E. 1996

3.6 PASOS DE LA RECTIFICACION

1. Localización de puntos de control (GCP)

2. Comprobación y prueba de una matriz de transformación

3. Creación de una imagen de salida con la información de las nuevas


coordenadas en el encabezador. Los pixeles deben ser remuestrados
conforme a la nueva grilla.

11.
1. 1.

27 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.1.
1. Localización de puntos de control (GCP)

Los puntos de control deben estar uniformemente distribuidos sobre toda la


imagen satelital asegurando que, al final del remuestreo, la imagen quede
correctamente georeferenciada.

2. Comprobación y prueba de una matriz de transformación

La rectificación se utiliza para calcular la posición de los pixeles de salida a partir


de los GCPs. Para ello utiliza, dentro de las ecuaciones polinomiales, coeficientes
que convierten las coordenadas x,y de la imagen original, en coordenadas planas
(figura 15).

RMS
GCP
COORDENADA
X DE
REFERENCIA
CURVA POLINOMIAL

Figura N° 15. Matriz polinomial.


Fuente: Chuvieco, 1996.

3.7 TRANSFORMACIONES

3.7.1. LINEARES

Las transformaciones de primer orden se llaman lineares. Se usan para


proyectar una imagen original a una proyección plana de un mapa.
Se recomiendan para áreas relativamente pequeñas.

28 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.7.2. NO LINEARES

Están referidas a las transformaciones de segundo orden. Pueden utilizarse para


convertir coordenadas referidas a latitud y longitud a un sistema de proyección
planar. Se recomienda para áreas grandes, con información distorsionada.

3.8 NUMERO MINIMO DE GCP

A mayor orden de transformación, mayor número de GCPs.

Ecuación para determinar el número mínimo de GCPs:

((t + 1) (t + 2))
2

siendo t el orden de la transformación.

Es decir, que en una transformación de primer orden, el número mínimo de GCP


es de 3. Sin embargo, expertos internacionales (Jensen, 1996) recomiendan un
número mínimo de 15 puntos de control para asegurar una correcta rectificación.

3.9 ERROR MEDIO CUADRATICO (RMS)

Es la distancia entre la localización de entrada (fuente) de un GCP y la localización


retransformada para el mismo GCP, el cual es transformado a partir de una matriz
de transformación.

RMS = √ (Xr - Xi)2 + (Yr - Yi)2

donde:
Xi y Yi son las coordenadas de entrada (fuente) y
Xr y Yr son las coordenadas re-transformadas.

Se recomienda un error medio cuadrático de 1.5 para zonas escarpadas (con el


objeto de compensar las distorsiones debidas al terreno) y de 3 para zonas
planas.

29 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

4. MEJORAMIENTO DE IMÁGENES

Mejorar una imagen consiste en ejecutar un procesamiento numérico para realzar,


enfatizar o suprimir características de la imagen. En este procesamiento se
incluye el mejoramiento del contraste entre objetos, énfa sis en límites entre los
diferentes tipos de cobertura terrestre y también sirve para suprimir características
no deseadas en la imagen.

Se han desarrollado diversas técnicas que de acuerdo al tipo de operación que


ejecuta sobre el pixel se pueden clasificar en puntuales y locales. El valor del pixel
en la primera es modificado en forma independiente de los demás y en la segunda
depende del valor que tengan los pixeles vecinos.

Las técnicas para el realce de detalles en imágenes digitales, se pueden clasificar


como:

4.1 REDUCCIÓN Y AMPLIACIÓN DE LA IMAGEN

4.1.1 Reducción

En varias ocasiones se requiere analizar una imagen en un sistema de


procesamiento que solo puede desplegar 512 x 512 pixeles simultáneamente.
Para reducir una imagen justo 1/m2 de los datos originales, cada m-éxima fila y m-
éxima columna de la imagen es sistemáticamente seleccionada y desplegada.

Ejemplo: Si una escena LANDSAT MSS contiene 3240 columnas y 2340 filas y se
reduce con un factor m = 2, la nueva imagen será un 25% más pequeña que la
original.

2340 filas

3240 columnas

Si m = 2, la imagen original se reducirá 1 m/2 = ¼ = 25%

30 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Entonces: 3240 ÷ 2 = 1620


2340 ÷ 2 = 1170

1170 filas

1630 columnas

Ejercicio: Sabiendo que una escena de Landsat TM tiene 6940 columnas por
5940 filas, ¿cada cuántos pixeles se deben seleccionar, para poder desplegarse
en monitor de 512 x 512 pixeles?

4.1.2 Ampliación de la Imagen

La ampliación de Imágenes digitales (a menudo denominada ZOOM), es


usualmente ejecutada para mejorar la escala de despliegue con propósitos de
interpretación visual. Amplificar una imagen digital implica hacer una réplica de
valores de pixel. Para ampliar una imagen digital por un factor m2, cada pixel de la
imagen origina l es usualmente reemplazado por un bloque de m x m pixeles, todos
con el mismo valor radiométrico como pixel de entrada original.

31 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Porción de Imagen original

14 15 13 21 22 19

13 16 15 18 17 21

30 28 27 29 19 29

25 28 24 27 26 25

82 77 76 95 85 85

Porción de Imagen Ampliada con m = 2

14 14 15 15 13 13

14 14 15 15 13 13

13 13 16 16 15 15

13 13 16 16 15 15

54 59 52 52 56 56

4.2 MEJORAMIENTO DEL CONTRASTE

Consiste en la aplicación de procedimientos que realzan el contraste visual en la


imagen. Se utiliza una función definida por el usuario.

4.2.1 Expansión lineal total

El Histograma (figura 16 a y b)ocupa un rango [N min, N max], mediante una


función lineal F (figura 17 )se transforma el histograma para que ocupe todo
el rango disponible [0, 255].
32 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

0 255 0 255

Figura N° 16.a Histograma estrecho .b Histograma ancho


Fuente: López, J. 1990

Nmin Nmax 0 Nmax 255 0 255

Figura N° 17. Transformación mediante una función lineal


Fuente: López, J. 1990

En la práctica se obtienen mejores resultados saturando algunos pixeles cercanos


a los valores N-min y N-max (figura 18).

Pixeles saturados

0 255 0 255

Figura N° 18. Saturación de pixeles cercanos al mínimo y al máximo


Fuente: López, J. 1990

33 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Esta técnica no aumenta la cantidad de información en la imagen. Sin embargo la


expansión del histograma no permite discriminar 2 pixeles que tienen el mismo
valor radiométrico.

El parámetro ENTROPIA no varía al realizar la ampliación del histograma de una


imagen digital (figura 19).

f f

0.........................255 0 ..........................................255

Figura N° 19. Ampliación del histograma sin variación de Entropía


Fuente: López, J. 1990

El parámetro VARIANZA si varía al realizar la ampliación del histograma de una


imagen digital, pues este aumenta.

4.2.2 Expansión lineal parcial

Se puede expandir solamente una porción del histograma y enmascarar las otras.
Ejemplo: Enmascarar el mar y mejorar el contraste en el suelo (figura 20).

MAR

MAR

Figura N° 20. Enmascaramiento de una clase


Fuente: López, J. 1990

34 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.2.3 Ecualización: (Expansión no lineal del histograma).

Se busca reducir el contraste en áreas muy claras o muy oscuras y expandir los
niveles de gris intermedios hacia los extremos alto y bajo de la escala de
reflectancia, en razón de que la mayoría de los histogramas tienen una forma
Gaussiana (figura 21).

By By By

Nmin Nmax Nmin Nmax 0 255

Figura N° 21. Histograma Ecualizado por una función no lineal


Fuente: López, J. 1990

Es decir que a partir del histograma original de entrada, seguramente asimétrico,


se busca obtener un histograma con una distribución más uniforme en el cual la
"participación" (frecuencia) de cada uno de los tonos de gris sea más uniforme.

La frecuencia "ideal" para cada uno de los niveles de gris de salida será:

Fs = 100% /ng

En donde:

fs: Frecuencia relativa de salida


ng: Número de niveles de gris

Por ejemplo si una pantalla permite visualizar 16 tonos de gris simultáneamente


entonces la frecuencia relativa de salida para cada uno de ellos será:

Fs = 100 / 16 = 6.25%

35 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.3 SEGMENTACIÓN

Esta técnica permite una primera interpretación de la imagen y obtener un mapa


temático.

Se aprovecha el carácter multimodal del histograma para definir ciertos rangos


que son identificados como clases de información. A todos los pixeles ubicados
en el mismo rango se les asigna el mismo color (Figura 22).

0 n 255

Figura N° 22. Histograma segmentgado y curva isodensidad.


Fuente: López, J. 1990

4.4 FILTRAJE O CONVOLUCIÓN

Dentro de las técnicas para el mejoramiento de imágenes están las que ejecutan
operaciones sobre el pixel, dependiendo de un espacio de frecuencia, a ese
número de cambios en el valor del pixel por unidad de distancia es lo que se
denomina frecuencia espacial. Esto significa que si existen muy pocos cambios
en el valor radiométrico sobre un área dada, corresponderá a un área de baja
frecuencia, al contrario si los valores radiométricos cambian a cortas distancias se
dirá que es un área de alta frecuencia.

Para extraer información de la frecuencia espacial es necesario definir un área


donde se observe la variación de los valores radiométricos. Generalmente se
utilizan máscaras de convolución, llamadas también matriz de coeficientes o
"kernel", que pueden ser de tamaño 3 x 3, 5 x 7, 7 x 7, 9x 9 y así sucesivamente.

El proceso de filtrado consiste en calcular para cada pixel una combinación lineal
de los valores radiométricos sobre un espacio de frecuencia cercano de este, y
ponderarlo de acuerdo a una máscara de convulución cuyos coeficientes son
constantes. Es dexcir un filtro espacial transforma el valor de un pixel teniendo en
36 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

cuenta los valores de los pixeles vecinos. La combinación lineal se calcula por
medio de la ecuación:

n
Pi = [G* Σ Ki Po ] + H
i =1

Donde:

Pi: Valor del pixel nuevo


G: Constante que escaliza el valor nuevo del pixel entre 0 y 255
n: Número de elementos de la matriz de coeficientes
Ki: Elemento i de la matriz de coeficientes
Po: Valor del pixel original
H: Constante que garantiza que los nuevos valores de Pi sean positivos

Dependiendo del efecto que tienen sobre la imagen original, los filtros espaciales
se pueden clasificar como:

4.4.1 De suavización.

El efecto de este tipo de filtro es suavizar o reducir niveles de gris y en


consecuencia hacer más armónico el contraste, aunque se pierden detalles
geométricos, es posible resaltar zonas homogéneas. Además permite atenuar
altas frecuencias y eliminar ruidos instrumentales (figura 23).

1 1 1

1 1 1

1 1 1

Figura N° 23. Filtro de suavización


Fuente: López, J. 1990

37 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.4.2 De mejoramiento.

Se utiliza para realzar las altas frecuencias y detalles geométricos, mejorando así
la definición de contornos, lineamientos etc. Al realzar las características
geométricas es normal que se pierdan algunos detalles radiométricos. (figura 4.9).

Cuando el valor absoluto de la sumatoria de los coeficientes alrededor del pixel


central es igual al valor del pixel central se obtiene el filtro pasa-alto máximo o
también conocido como filtro Laplaciano. (figura 24).

-1 -1 -1

a. -1 10 -1

-1 -1 -1

-1 -1 -1

b.
-1 16 -1

-1 -1 -1

38 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

-1 -1 -1 -1 0 -1

c. -1 8 -1 -1 4 0

-1 -1 -1 -1 0 -1

-1 -2 -1

d. -2 4 -2

1 -2 1

Figura N° 24. Filtros de mejoramiento con diferentes valores centrales.


Fuente: López, J. 1990

4.4.3 Filtros de Detección de Bordes

En el estudio de los recursos naturales, la información más valiosa puede ser


derivada de una imagen detectando los bordes de varios objetos o características
de interés. Las operaciones de mejoramiento de bordes permiten delinear los
cambios en valor de brillo de dos pixeles adyacentes. Con ello hacen posible la
detección de formas y detalles.

Los bordes pueden ser mejorados usando tanto técnicos de mejoramiento lineal o
no lineal.

39 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.4.4 Filtro de detección de bordes lineales

Se encarga de resaltar detalles geométricos en una dirección, ejemplo norte sur,


este oeste. (figura 25).

1 1 1 1 1 1

NORTE 1 -2 1 -1 -2 1NORDESTE

-1 -1 -1 -1 -1 1

-1 -1 -1 1 1 1

SUR 1 -2 1 1 -2 -1 NOROESTE

1 1 1 -1 -1 -1

-1 1 1 -1 -1 1

ESTE -1 -2 1 1 -2 1 SURESTE

-1 1 1 1 1 1

1 1 -1 1 -1 -1

OESTE 1 -2 -1 1 -2 -1 SUROESTE

1 1 -1 1 1 1

40 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

-1 -2 -1 -1 0 1
H/TAL VERTICAL
0 0 0 -2 0 2

1 2 1 -1 0 1

Figura N° 25. Filtro de detección de bordes lineales


Fuente: López, J. 1990

4.4.5 Filtro de detección de bordes no lineales

Su principal función es resaltar los cambios fuertes en los valores de los pixeles,
por ello se utiliza para enfatizar los bordes (figura 26).

-1 -1 -1 -1 2 -1

HORIZONTAL 2 2 2 -1 2 -1 VERTICAL

-1 -1 -1 -1 2 -1

2 -1 -1 -1 -1 2
DIAGONAL DIAGONAL
-1 2 -1 -1 2 -1

-1 -1 2 2 -1 -1

Figura N° 26. Filtro de detección de líneas


Fuente: López, J. 1990

41 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

5 T R AT AMIE N TO CONJU NT O DE BAN DAS

Trabajar con bandas individuales proporciona resultados útiles en la interpretación,


sin embargo, es posible mejorar estos resultados cuando se incorpora información
proveniente de varias bandas en forma simultánea por cuanto existe un mayor
aporte de datos. Es aquí donde las imágenes multiespectrales demuestran su
potencialidad para generar nuevas imágenes que recogen el resultado de un
análisis conjunto de datos que aunque aparentemente se encuentra desmembrado
en diferentes bandas del espectro, tiene una relación estrecha, que como tal debe
ser aprovechada.

El tratamiento conjunto de las bandas como tal, no implica que se tenga que
trabajar con todas las bandas disponibles, sino con aquellas que están menos
correlacionadas con el fin de que el aporte de información sea más significativo.
Existen múltiples operaciones que se pueden aplicar a las bandas entre ellas
operaciones matemáticas, como adición, sustracción, producto, división y algunas
combinaciones de las anteriores como el caso de índice de vegetación. Otras
operaciones son las de tipo lógico, entre las cuales se encuentra la composición a
color. También se pueden aplicar a las imágenes cierto tipo de transformaciones
que facilitan el análisis de los datos, entre ellas están las transformada de
Karhunen-Loeve y la transformada de Fourier, muy utilizadas en imágenes de
sensores remotos.

5.1 OPERACIONES ENTRE BANDAS

El aplicar operaciones matemáticas entre bandas es muy útil, sin embargo los
resultados están limitados por la escala de grises en la que se trabaje. Así cuando
la escala tiene 256 niveles (escala que estamos utilizando en este curso), debe ser
normalizado para evitar interpretaciones equívocas.

Para las operaciones que se van a presentar a continuación, se definen las


siguientes variables:

Sea A una banda de m filas por n columnas


Sea B una banda de m filas por n columnas
Sea C una matriz resultante de la operación

42 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

a a ....a b b ..... b
a a ....a b b ..... b
A= : : : B= : : :
: : : : : :
a a ....a b b ..... b

c c .... c
C= c c .... c
: : :
: : :
c c c

5.1.1 Adición

La adición entre banda A y Banda B está definida como la suma entre valores
radiométricos respectivos de banda A con banda B.

Cij = aij + bij

Como es posible que Cij sea mayor que el máximo nivel de gris, es decir 255, se
debe aplicar una función de normalización que para el caso bien puede ser
obtener un promedio entre los valores radiométricos de las bandas.

aij + bij
Cij = 2

Ejemplo: Hallar la matriz resultante de A + B y el resultado de la adición


normalizada para:

43 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

10 20 30 20
A= B=
30 20 70 10

10 + 30 20 + 20 40 40
C=
C=A+B 30 + 70 20 + 10 100 30

El resultado de la adición normalizada es:

10+ 30 20+ 20
2 2

20 20
C=A+B=
50 15
30+ 70 20+10
2 2

La adición normalizada es utilizada generalmente cuando se quiere obtener una


nueva imagen (resultante) con menor influencia de ruido, debido a que al
promediarse se logra una atenuación de valores altos ocasionados por este
fenómeno, se requiere claro está, ejecutar las operaciones entre bandas cercanas
dentro del espectro, así por ejemplo dos bandas del rango visible o dos del
infrarrojo.

La adición sin normalizar puede ser útil cuando se desea incrementar un valor
constante a una banda el cual fue reducido por algún tipo de fenómeno
atmosférico por ejemplo la absorción. En este caso, se utiliza una imagen con
valores constantes para sumar a la original y así obtener una nueva imagen con
valores más altos.

5.1.2 Sustracción

La operación de sustracción de A y B está definida como la resta entre valores


radiométricos respectivos de la banda A con respecto a la banda B.

Cij = aij − bij


44 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Si aij es menor que bij, el valor de cij será negativo lo cual es imposible de
representar cuando se trabaja en una escala como la que tenemos (0, 255). Para
solucionar este inconveniente se puede convertir el resultado negativo siempre en
cero o aplicar una función de normalización, así:

Cij = aij - bij

Sean A y B dos bandas diferentes de la misma área, la operación de sustracción A


- B está definida como la diferencia normalizada entre cada uno de los valores de
pixel de A respecto de B.

5.1.3 Producto

Sean A y B dos bandas diferentes de la misma área, la operación de multiplicación


o producto entre A y B queda almacenada en C y está definida como:

aijxbij
Cij =
255

Debido a que el resultado está acotado por:

1/255 ‹ Cij ‹ 255

Se debe aplicar una función de normalización para estar seguro de que el valor
resultante de la operación esté entre 0 y 255.

Para ello se divide el intervalo de valores en dos así:

El primero, entre 1/255 y 1


El segundo, entre 1 y 255

Si un valor Cij está en el primer intervalo, se transforma a un valor entre 1 y 128,


mientras si se encuentra en el segundo intervalo se transforma a una escala entre
128 y 255.

Así para 1/255 ≤ 1 ⇒ Cij = Ent [(Cij x 127) + 1]


Para 1 ≤ Cij ≤ 1/255 ⇒ Cij = Ent [(Cij/2) + 128]

45 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

5.1.4 División o proporción

Es un proceso que consiste en obtener una imagen resultante de la división de los


valores de los pixeles en una banda por los correspondientes valores de los
pixeles en una banda por los correspondientes valores en otra banda.

Sean A y B dos bandas diferentes de la misma zona, la división o proporción de


banda A con banda B es almacenada en C, y está definida como sigue:

Cij = aij
bij

Cuando el valor bij = 0, se aproxima a 0.1, para solucionar el problema de la


división por cero.

Se presenta un caso similar al que ocurre con el producto, es decir que 1/255 < Cij
< 255, por lo tanto, se debe aplicar al resultado una función de normalización
idéntica al caso visto en el producto.

Este tipo de proceso mejora las características radiométricas de la imagen, al no


tener en cuenta las variaciones en las condiciones de iluminación (Topografía,
sombras).

5.1.5 Índice de Vegetación

El índice de vegetación es un ejemplo de operación entre bandas donde se


establece la probabilidad de encontrar diferentes tipos de cobertura vegetal,
dependiendo de factores tales como: la biomasa, el contenido de clorofila, la
productividad, el área de la hoja y porcentaje de cobertura del suelo.

Para el cálculo del índice de vegetación se aprovecha la diferencia significativa de


la respuesta espectral de la vegetación en una banda del infrarrojo y en una zona
de la imagen existe vegetación, esto se va a ver reflejado en un índice alto, debido
a la ecuación que define el índice de vegetación:

Sea A una banda del infrarrojo de m filas por n columnas


Sea B una banda del visible de m filas por n columnas
Sea C la matriz resultante del cálculo del índice de vegetación

C ij = aij – bij
aij + bij

46 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

El resultado de esta operación está entre -1 y 1, para poder observar la matriz de


los Cij es necesario escalizarlos entre 0 y 255, para ello es necesario recurrir a
una operación de normalización, que para el caso sería:

C ij = aij – bij * 127 + 127


aij + bij

Así una vez aplicado este índice de vegetación normalizado, los valores de los Cij
altos estarán indicando mayor probabilidad de existencia de cobertura vegetal.

5.2 COMPOSICIÓN EN COLOR

Los monitores de los computadores despliegan los colores basados solamente en


tres colores primarios el rojo, verde y azul, con los cuales construye otra serie de
colores, que dependen del porcentaje que aporte cada uno de ellos. Dependiendo
de la profundidad del monitor (número de bits que maneja) es posible desplegar
cierto número de colores, así para un monitor con una profundidad de 8 bits es
posible obtener 256 combinaciones diferentes (2 ^8 = 256).

La composición en color es un proceso mediante el cual se crea una nueva


imagen basado en la combinación de 3 bandas, aportando cada una de ellas un
porcentaje de color primario que depende del valor del pixel, así por ejemplo:

El valor del pixel ij en banda 1 es: 57 (57/255=0.22)


El valor del pixel ij en banda 2 es: 54 (54/255=0.21)
El valor del pixel ij en banda 3 es: 146 (146/255=0.57)

Si el aporte de la banda 1 va estar representado por el color Rojo, el de banda 2


por el verde y el de banda 3 por el azul, esto significa que en la composición a
color, habrá una contribución aproximada de un 22% de rojo, un 21% de verde y
un 57% de azul. Con base en una tabla de color preestablecida se asigna un
nuevo valor de pixel a la imagen resultante.

Las posibles combinaciones que se pueden obtener con tres bandas, si en cada
una existen 256 estados son 16'700.000, cuando se utiliza un monitor que no
alcanza a desplegar tal cantidad se debe recurrir a agrupar ciertas combinaciones.

En general este proceso se conoce como composición en falso color debido a que
el resultado difiere de los colores naturales, ya sea porque el monitor no alcanza el
número de colores, o porque no hay una correspondencia entre el rango de
frecuencias de la banda asignada y el color que está representando su aporte.
47 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Así por ejemplo una aproximación a una composición en verdadero color estaría
dada cuando el aporte de cada banda se represente en el mismo color, en el caso
de una imagen Landsat TM a la banda 1 que se encuentra en el rango del azul, su
aporte se represente en color azul, a la banda 2 se le asigne el color verde y a la
banda 3 el color rojo.

5.3 ANÁLISIS EN COMPONENTES PRINCIPALES

También denominado factor KL o Transformador Karhunen-;Locue. Tiene un


significado especial en el análisis de datos de Sensores Remotos. La
transformación de los datos usando CP puede resaltar imágenes en una nueva
componente principal que a menudo son más fáciles de interpretar que los datos
originales. También el análisis en CP puede ser usado para comprimir el
contenido de la información en dos bandas de la imagen. Así por ejemplo, de
siete bandas del mapeador temático, es posible comprimirlas a 2 o 3 imágenes de
componente principal.

Para ejecutar la descomposición en CP, se aplica una transformación al conjunto


de datos correlacionados, es decir eliminando la redundancia de información y
correlación entre bandas, se consigue la reducción en la dimensionalidad de la
imagen multiespectral.

La posición de un pixel en un espacio multiespectral puede ser descrito por


vectores cuyos componentes son respuestas espectrales en cada banda.
Estrictamente, estos son vectores dibujados desde el origen hasta el punto del
pixel, pero su concepto no es usado explícitamente. Cada pixel está descrito por
un vector X donde X es el valor del pixel en la banda i. La posición media de los
pixeles en el espacio está definida por la media aritmética.

El objetivo de usar el análisis en CP es trasladar o rotar el origen de los ejes, así


que los valores de brillo sobre los ejes X y X son redistribuidos en un nuevo
conjunto de ejes o dimensiones X y X.

48 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

6. CLASIFICACIÓN DE IMÁGENES MULTIESPECTRALES

Es posible analizar datos captados por sensores remotos de la tierra y extraer


información temática útil. Uno de los métodos más utilizados para la extracción de
información es la Clasificación Multiespectral. Este procedimiento asume que la
imagen de un área geográfica específica es agrupada en múltiples regiones del
espectro electromagnético y que están registradas en las imágenes.

La clasificación multiespectral es un concepto del procesamiento digital de


imágenes que contempla los procedimientos mediante los cuales un computador
puede agrupar los pixeles de una imagen de acuerdo a categorías o clases dentro
de un espacio multiespectral. Este proceso incluye la determinación de un criterio
de decisión que pueda usar un computador para asignar a un objeto determinado
una clase específica con base en reglas de clasificación.

Existen dos enfoques principales para la determinación de las características


espectrales de todos los tipos de cobertura del terreno en los cuales se clasifican
los datos y estos son el método supervisado y el no supervisado.

6.1 CLASIFICACIÓN SUPERVISADA

Dentro de la clasificación supervisada la identidad y localización de algunos de los


tipos de cobertura tanto urbana, agrícola y forestal son conocidos a priori a través
de una combinación de trabajos de campo, análisis de fotografías aéreas, mapas y
experiencias personales. Los análisis previos para localizar sitios específicos en
los datos de sensores remotos, que representan ejemplos homogéneos de éstas,
son comúnmente conocidos como áreas de entrenamiento en razón de que las
características espectrales de estas áreas conocidas son utilizadas para "entrenar"
un algoritmo de clasificación. Los parámetros estadísticos multivariados (media,
desviación estándar, matriz de covarianza, matriz de correlación) son calculados
para cada sitio de entrenamiento, para luego evaluar cada pixel de la imagen,
compararlo y asignarlo a una respectiva clase.

Los principales aspectos que deben considerarse para orientar una clasificación
supervisada son:

1. Adoptar un esquema de clasificación ordenado

2. Seleccionar áreas de entrenamiento representativa

3. Extraer las estadísticas de los datos espectrales del área de entrenamiento.


49 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

4. Analizar las estadísticas para seleccionar los datos que ofrezcan mayores
ventajas (bandas) en el proceso de clasificación.

5. Seleccionar el algoritmo de clasificación adecuado

6. Clasificar la imagen en n clases

7. Evaluar estadísticamente la exactitud de la clasificación

En este análisis se pueden utilizar mapas temáticos, fotografías aéreas, trabajos


de campo, experiencia previa, etc.

La clasificación de la escena depende del analista, los objetivos que se tengan,


incluso de los sistemas políticos o burocráticos del medio. También influyen la
resolución del sensor, escala de la imagen y datos recolectados en campo.

6.1.1 Selección de algoritmos apropiados para la clasificación supervisada.

Muchos algoritmos fueron propuestos para responder a la pregunta de cómo


asociar un punto desconocido con cada información de clase.

Para escoger un algoritmo particular o regla de decisión, se debe tener en cuenta


la naturaleza de los datos de entrada y lo que se desea obtener como resultado.
Los algoritmos de clasificación paramétricos asumen que las medidas de los
vectores observados Xc obtenidos para cada clase, en cada banda espectral en
la zona de entrenamiento de la clasificación supervisada son de naturaleza
Gaussiana (es decir, están normalmente distribuidos). Los algoritmos de
clasificación no paramétricos no asumen esta situación. Esta es una regla para
revisar la lógica de algunos de los clasificadores.

Entre los clasificadores más frecuentemente usados están los de: Paralelepípedo,
distancia mínima y máxima verosimilitud.

6.1.1.1 Paralelepípedo

Este algoritmo requiere previamente establecer las zonas de entrenamiento y se


basa en la inspección de los histograma de las zonas elegidas para ello.

De los histogramas en cada zona de entrenamiento se define un rango mediante


el valor máximo y mínimo de pixel en cada banda. Esto se representará como un
50 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

área rectangular en un diagrama de dos canales (si estamos trabajando con dos
bandas) (figura 27).

B2

Vmin Vmax B 1 B1

B1

Vmin Vmax B 2 B2

Figura N° 27. Rango de dispersión de los valores radiométricos


Fuente: López, J. 1990

La figura 27 indica el método para una clase determinada (ej. Bosques). Al repetir
el método para otras clases (ej. Agua, arenas, etc.) se obtendrá una figura con las
características siguientes (figura 28):

51 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

S
U u u s s
B
U u u •2 S s
C
U u u u Cc
A CC
Cc c
1• cc
h
N hh
hhh
D hhhh
W w F F hhhhh
A •3 •4 FFFF
W w FFF
FF F
W w
3

BANDA 4

Figura N° 28. Distribución de clases espectrales por banda.


Fuente: López, J. 1990

De este modo, un pixel desconocido, es clasificado de acuerdo a la categoría de


los rangos espectrales o región de decisión en la cual se encuentra.

Si se trabaja con más de dos bandas, los rangos en todos los componentes
describen una caja multidimensional o paralelepípedo. Si en la clasificación se
encuentra que un pixel cae dentro de ese paralelepípedo cualquiera, se lo designa
como perteneciente a esa clase.

El clasificador de paralelepípedo es muy rápido y eficiente y es empleado en


muchos sistemas de análisis de imágenes por la simplicidad para entrenar y
ejecutar. A pesar de ello, presenta los siguientes inconvenientes.

a. Pueden existir vacíos considerables entre los paralelepípedos y por ende los
pixeles no pueden ser clasificados en una región (ej. Punto 3, figura 28) del
paralelepídedo

52 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

b. Puede existir sobreposición de paralelepípedos que tienen como consecuencia


el no poder discriminar a qué clase pertenece el pixel analizado (ej. Punto 4,
Figura 28). En este caso se clasifica al pixel como "no seguro" o se lo asigna
arbitrariamente a una de las clases superpuestas.

6.1.1.2 Distancia Mínima a la Media

Figura N° 29. Método de la mínima distancia


Fuente: Chuvieco, E. 1996

La figura 29 ilustra una de las más simples clasificaciones. En esta es necesario


que el usuario provea el valor del vector medio para cada clase y para cada banda
en función del área de entrenamiento.

El medio de la cartografía está señalado con el símbolo "+" en la figura 29. Un


pixel de identidad desconocida puede ser clasificado computando la distancia
entre el valor del pixel y el valor medio de cada una de las zonas. Luego se
asigna el pixel a la zona cuya distancia sea menor al valor medio.

Si son evaluadas más de una banda, en la clasificación (n bandas), la ecuación


euclidiana que se utiliza es:

53 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Si el pixel se encuentra a una distancia mayor que una determinada "a priori" por
el analista de la imagen, se interpretará como clase "desconocida".

Este método es matemáticamente simple y computacionalmente eficaz pero posee


graves limitaciones. La principal de ellas se ilustra en el punto 2 de la figura 29,
donde por distancia, el punto pertenece a la clase U.

6.1.1.3 Máxima probabilidad

El clasificador de máxima verosimilitud evalúa cuantitativamente la varianza y


correlación de la respuesta espectral del patrón de la muestra de entrenamiento
cuando clasifica un pixel desconocido. Para realizar esto se asume que la
distribución de los puntos de una categoría de una zona de entrenamiento es
Gaussiana (es decir, que su distribución es normal). Esto es razonable
generalmente para distribuciones espectrales de clases de entrenamiento
comunes. En consecuencia, la misma puede ser descrita por medio del vector
promedio y la materia de parámetros de covarianza. Lo siguiente describe la
varianza y la correlación, también llamada aproximación paramétrica. Dado estos
parámetros, se computa la probabilidad estadística de que un valor de pixel dado
pertenezca a una clase particular de cobertura. La figura 30 muestra los valores
probables ploteados en un gráfico de tres dimensiones.

Figura N° 30. Método de máxima probabilidad


Fuente: Chuvieco, E. 1996

54 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

El eje vertical es asociado con la probabilidad de un pixel de ser un miembro de


una de las clases. Las superficies resultantes, con formas de campanas, son
llamadas funciones de probabilidad de densidad. Luego de evaluar la probabilidad
en cada una de las categorías, el pixel debe ser asignado a la clase que más se
asemeja o designado como desconocido cuando los valores de probabilidad sean
todos menores a un límite que designe el analista.

En esencia, el clasificador de máxima verosimilitud delinea contornos elipsoidales


de equiprobabilidad en el diagrama.

Estas regiones de decisión se muestran en la figura 30. La forma de los contornos


de equiprobabilidad expresan la sensibilidad del clasificador de verosimilitud a la
correlación. Por ejemplo, dada una sensitividad podría verse que el pixel 1 sea
asignado apropiadamente a la categoría C.

El principal inconveniente del clasificador de máxima verosimilitud es el gran


número de cómputos que se requieren para clasificar cada pixel. Esta
complejidad hace que el proceso de clasificación sea lento y más costoso que las
técnicas más sencillas. Mientras más costosa sea la técnica de clasificación de
máxima verosimilitud, es generalmente de mayor exactitud.

Intuitivamente pareciera que cuando se utiliza un mayor número de bandas en un


clasificador de máxima verosimilitud, el resultado de la clasificación es mejor.
Pero generalmente, hay un número óptimo relativamente pequeño que se utiliza.
Pues al aumentarse el número de bandas, el tiempo computacional requerido
dada la gran cantidad de cálculos involucrados, aumenta y también porque el
contenido de la información puede estar contaminada por información
insignificante en otras bandas. Este problema es particularmente crítico, cuando
se utilizan un número grande de bandas espectrales correlacionadas. Se ha
encontrado en algunos casos que la exactitud del clasificador de máxima
verosimilitud comienza a decaer cuando se utilizan más de cuatro o cinco bandas
espectrales, es beneficioso el considerar un subconjunto de las bandas más
representativas. La decisión sobre cual de las bandas se debe utilizar se basa en
un proceso llamado selección de rasgos o características. En este proceso se
evalúan muchos subconjuntos de bandas para así determinar cual combinación es
más útil para discriminar las categorías de intereses y el análisis de la clasificación
se limita a ese conjunto de bandas.

55 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

6.2 CLASIFICACIÓN NO SUPERVISADA

En este método los tipos de cobertura no se conocen bien porque falta trabajo de
campo o porque las características espectrales de la superficie no están
claramente definidas en la imagen. El computador es orientado para que agrupe
(cluster) los pixeles en diferentes clases de acuerdo con un cierto criterio
estadístico.

En este enfoque los parámetros estadísticos que determinan las clases de


entrenamiento se determina mediante la selección de campos heterogéneos que
contienen tantas relaciones espectrales diferentes como sean posibles y entonces
se usa un algoritmo aglutinante para agrupar automáticamente los pixeles de
características espectrales similares en un número de clases de grupos
separables espectralmente. No se requiere conocer a priori la identidad del
agrupamiento (entrenamiento) y quizás una de las características más importantes
de este método es que no solo determina los tipos de cobertura pura del terreno,
en una zona, sino también las clases mezcladas que se presentan usualmente en
un grupos de datos Landsat. Por consiguiente, se obtiene una representación
más cercana de los agrupamientos espectrales naturales de una zona mediante el
enfoque no supervisado.

Aún cuando la clasificación multiespectral real de datos de sensores remotos


involucran un gran número de operaciones, los conceptos fundamentales y los
pasos esenciales se pueden considerar en:

6.2.1 Presentación pictórica de los datos sin analizar

Como los datos se graban usualmente en una cinta magnética el primer paso de
una clasificación multiespectral involucra la representación de estos datos en una
forma pictórica para su inspección visual. Esto se puede lograr mediante el uso de
un monitor a color o de una impresora.

Los datos en forma pictórica se usan entre otros objetivos para:

- Valorar la calidad de los datos


- Determinar la cantidad y distribución de nubes
- Dlinear las áreas de interés para estudio detallado (seleccionar ventanas)
- Seleccionar muestras representativas dentro de un área de interés para
determinar las clases espectrales (áreas de entrenamiento) que se usarán en
el entrenamiento del clasificador).

56 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

La parte más importante y crítica en este paso es la de asegurarse que todos los
objetos posibles que se encuentran en la zona están debidamente representados
en la muestra para entrenamiento.

6.2.2 Definición de las clases espectrales (entrenamiento)

El proceso de instruir al computador cómo y en qué circunstancias tomar ciertas


decisiones se conoce como "entrenamiento".

En el caso particular de la clasificación de datos multiespectrales percibidos


remotamente, al computador debe proporcionársele las características de un
número de clases espectrales que le permita decidir si un pixel se debe clasificar
en una de las clases de adiestramiento.

En el caso particular de la clasificación de datos multiespectrales percibidos


remotamente, al computador debe proporcionársele las características de un
número de clases espectrales que le permita decidir si un pixel se debe clasificar
en una de las clases de adiestramiento.

En la práctica las características espectrales de los tipos de cobertura terrestre, se


determinan usualmente mediante simples parámetros estadísticos, como las
medianas y covarianzas de distribuciones normales de la firma espectral de cada
una de las clases de adiestramiento.

La figura 31 muestra un histograma bidimensional (bandas 2 y 3 del Landsat TM)


de un gran número de pixeles que corresponden a 3 tipos básicos de cobertura y
los cuales se agrupan entre ellos. El algoritmo de agrupamiento ubica estos
grupos y computa sus parámetros estadísticos característicos que luego se usan
para entrenar el computador.

Figura N° 31. Agrupamiento de formas espectrales del agua, suelos, y vegetación


Fuente: Chuvieco, E. 1996
57 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

Clasificación en toda el área de estudio

En este caso el clasificador implementado por el computador hace prácticamente


el trabajo. En esta etapa los parámetros estadísticos determinan las
características espectrales de las clases que se usaron en el entrenamiento y
entonces efectúa la clasificación de toda el área de estudio.

El clasificador es un algoritmo que toma decisiones y que puede ser entrenado


para asignarlo a cada pixel una clase determinada. Existen varias clases de
clasificadores u difieren unos de otros en cuanto al tipo de decisión o regla de
clasificación usada (Bartolucci, 1979). Se pueden mencionar el clasificador de
probabilidad máxima por punto, clasificador de la distancia mínima, clasificador de
cascada, paralelepípedo, clasificador de extracción y clasificación de objetos
homogéneos, clasificador de niveles, el del vecino más cercano, etc.

6.2.3 Representación pictórica y tabular de la clasificación

Al terminar la clasificación multiespectral los resultados se pueden presentar en


distintos formatos de acuerdo con las necesidades y especificaciones del usuario.
Existen tres tipos principales de formatos:

- Productos gráficos
- Tablas estadísticas
- Archivos de datos digitales

6.2.4 Evaluación de los resultados de la clasificación

Para que una clasificación multiespectral sea de utilidad práctica es necesario


determinar su exactitud y confiabilidad. Usando el análisis numérico es posible
evaluar cuantitativamente el grado de exactitud de una clasificación multiespectral.

58 Ing. Esp. H.Cristiina


Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

BIBLIOGRAFÍA

DAVIS , SHIRLEY / SWAIN, PHILIP. Remote Sensing, the cuantitative


Approach. 1984

CHUVIECO, E. Fundamentos De teledetección. Ediciones RIAL, S.A. Madrid,


España. 3ª. Edición. 1996

FRIEDRICH M., WAHL. Digital Image Signal Processing. Artech House,


Inc., Norwood, MA 1987.

JENSEN, J. R., Introductory Digital Image Processing. Prentice Hall,


Engewood Cliffs, New Jersey, 1986.

JENSEN, J. R., Introductory Digital Image Processing: A remote sensing


perspective, 2nd Edition. NJ: Prentice-Hall, pp. 17-24. 1996.

LILLESAND, T. M., R. W. KIEFER, Remote Sensing and Image Interpretation, 3rd


Edition. John Wiley & Sons, Inc., 23 p. 1994.

LIRA, JORGE. Introducción al Procesamiento Digital de Imágenes

RICHARDS, JOHN A. Remote Sensing Digital Image Analysis. Springer –


Verlag. Berlín Herdelberg, 1986.

ROBINSON, A. H., J. MORRISON, P. MUEHRCKE, A. KIMERLING, S. Guptill,


Elements of Cartography, 6th Edition, John Wiley & Sons, Inc., pp. 190-192. 1995.

SABINS, FLOYD F. Jr. Remote Sensing, Principles and Interpretation Second


Edition. W.H. Freeman and Co., New York, 1987.

SCHOWENGERDT, ROBERT. Techniques for Image Processing and


Classification in Remote Sensing.

PAGINAS WEB:

http://www.airbornelasermapping.com/ALMSkinny.html
http://www.webdirectory.com/Science/Space_Science/Remote_Sensing/
59 Ing. Esp. H.Cristiina
Salvatierra
FUNDAMENTOS DE PROCESAMIENTO DIGITAL DE IMÁGENES

http://www.webdirectory.com/Science/Geography/Aerial_Surveying_and_Mapping/
http://www.conservationimaging.org/
http://www.dfa.com.au/
http://www.asdi.com/asd/apps/index.html
http://stormy.geology.yale.edu/ceo/Projects/Faculty/faculty.html
http://edcwww.cr.usgs.gov/earthshots/slow/tableofcontents
http://www.ldeo.columbia.edu/remote/remote.html
http://keystone.geog.ucsb.edu/rsru/research.html
http://www.research.umbc.edu/~tbenja1/
http://www.unc.edu/~aaronm/RSCC/#spectral
http://grouchy.geog.ucsb.edu/rscc/vol2/rsccvol2.html
http://www.cla.sc.edu/geog/rslab/
http://www.cla.sc.edu/GEOG/rslab/rsccnew/fmod1.html
http://www.cla.sc.edu/GEOG/rslab/rsccnew/rscc-no-frames.html
http://www.cla.sc.edu/GEOG/rslab/rsccnew/mod3/3-2/dipsoftware.html
http://www.cla.sc.edu/GEOG/rslab/rsccnew/mod5/5-2/exercises/MERGE.HTM

60 Ing. Esp. H.Cristiina


Salvatierra

Anda mungkin juga menyukai