Anda di halaman 1dari 61

PROCESAMIENTO DIGITAL DE IMÁGENES

INDICE

CAPITULO 1 — FUNDAMENTOS
1.1 Concepto de Imagen Multiespectral
1.2 Programas Espaciales dedicados al
Estudio de Recursos Naturales
1.3 Análisis de Imágenes Multiespectrales
1.4 Procesamiento Digital
1.4.1 Formatos de almacenamiento de Imágenes
Multiespectrales
1 4.1.1 ‘formato BIP
1.4.1.2 Formato SIL
1.4.1.3 Formato SSQ ..
1.4.2 Características de los Sistemas Digitales
1.4.2.1 Equipos (Hardware)
1.4.2.2 Programas (Software)
1.4.3 Características de los Sistemas de P01
1.4.3.1 Número de Analistas y Modo de Operación
1.4 . 3 . 2 Unidad Central de Proceso, Coprocesador
Matemático y Memoria RAM
1.4.3.3 Sistema Operativo y Compilador
1.4.3.4 A1maccrrmiento en Masa
1.4.3.5 Resolución del Monitor
1.4.3.6 Resolución del Color
- CAPITULO II — CARACTERIZACION Estadística DE LAS IMAGENES
2.1 Histograma de una Imagen
2.2 Entropía
2.3 Valor Mínimo
2.4 Valor Máximo
2.5 Media Aritmética
2.. 6 Varianza
2 . 7 Desviación Típica
2.8 Covarianza
2.9 Coeficiente de Correlación
2.10 Histograma Bidimensional
2.11 Matriz Varianza Covarianza
CAPITULO III — PREPROCESAMIENTO DE IMAGENES
\3 .1 Distorsiones y Correcciones Radiométricas
“3.1.1 Falta de una línea
3.1.2 Atmosféricos
‘3.1.3 Ruidos
3.1.4 Error de Medición de la Irradiancia
3.1.5 Saturación del Detector
3.2 Distorsiones y Correcciones Geométricas
-. 3.2.1 Distorsión por Rotación de la Tierra
3.22 Distorsión Panorámica

.3.2.3 Efecto de Curvatura Terrestre 23


3.2.2 Distorsiones Geométricas no Sistemáticas 23
CAPITULO IV - MEJORAMIENTO DE IMÁGENES
4.1 Reducción y Ampliación de la Imagen 25
4.1.1 Reducción 25
4.1.2 Ampliación de la Imagen 26
\4.2 Mejoramiento del Contraste 26
4.2.1 Expansión Lineal Total 26
4.2.2 Expansión Lineal Parcial 28
4.2.3 Ecualización 28
.4.3 Segmentación 29
«4.4 Filtraje o convolución 29
4.4.1 De Suavización 30
4.4.2 De Mejoramiento 30,
4.4.3 Filtros de Detección de Bordes 31’
4.4.3.1 Filtro de Detección de Bordes Lineales 31
4.4.3.2 i1tro de Detección de Bordes no Lineales 33
CAPITULO V - TRATAMIENTO CONJUNTO DE BANDAS
5.1 Operaciones entre Bandas 34
5.1.1 Adición .35
5.1.2 Sustracción 36
5.1.3 Producto 37
5.1.4 División o Proporción 37
5.1.5 Índice de Vegetación 38
5.2 composición en Color 39
‘5.3 Análisis en Componentes Principales 39
CAPITULO VI - CLASIFICACION DE IMAGENES MULTIESPECTRALE5
‘6.1 Clasificación Supervisada 41
6.1.1 Selección de Algoritmos Apropiados para
la Clasificación Supervisada 42
6.1.1.1 Paralelepípedo 42
6.1.1.2 Distancia Mínima a la media 45
6.1.1.3 Máxima Verosimilitud 46
6.2 Clasificación no Supervisada 50
1. FUNDAMENTOS

1.1. CONCEPTO DE IMAGEN MULTIESPECTRAL

Una imagen multiespectral es un modelo de la realidad construido con base en


una respuesta espectral de los elementos que componen una escena y las
cuales son captadas por detectores sensibles a un rango de longitudes de
onda del espectro electromagnético.

Para ello se aprovecha el sol como fuente de radiación y las propiedades que
tienen la mayor parte de los cuerpos en la superficie terrestre de reflejar una
parte de esa radiación emitida que a su vez es captada por un sensor calibrado
para trabajar en una franja o banda del espectro.

Los intervalos del espectro electromagnético no están exactamente


determinados por cuanto no se puede establecer exactamente donde termina
una franja y comienza otra, sin embargo, a nivel experimental se han asociado
algunas regiones para producir y detectar ondas de cierto tipo. Ver figura 1.1
(Espectro electromagnético).
Con los programas espaciales dedicados al estudio de los recursos naturales
de la tierra ha sido posible colocar un conjunto de sensores en un satélite para
tener una visión sinóptica e la misma, éstos sensores trabajan en bandas
generalmente del Visible y del infrarrojo, lo que permite medir la respuesta
espectral de cuerpos en la superficie terrestre en diferentes rangos de longitud
de onda, creándose así la imagen de una escena de la tierra en múltiples
bandas del espectro, que es lo que se conoce como IMAGEN
MUlTIESPECTRAL.

1.2. PROGRAMAS ESPACIALES DEDICADOS AL ESTUDIO DE LOS


RECURSOS NATURALES

La necesidad de estudiar el planeta tierra y sus recursos naturales, ha llevado


al hombre a una exploración que ha evolucionado desde una primera
observación con sus sentidos hasta la observación sistemática del globo
terráqueo desde el espacio.’

Los programas espaciales dedicados al estudio de los recursos naturales


están basados en el uso de sistemas ópticos, similares a un telescopio que
observa la tierra a distancias del orden-.de 800 Km. A cambio del uso de
películas, la imagen es creada por- detectores sensibles a la luz que producen
señales eléctricas proporcionales al brillo de la energía luminosa.

En le práctica 20 a 40 detectores son utilizados pare hacer un barrido del


terreno y simultáneamente detectar- energía en varias bandas de longitud de
onda. El brillo de la radiación detectada es traducido como un nivel de voltaje.
Los cambios en los niveles de voltaje durante el barrido permiten encontrar las
diferentes respuestas de los elementos del terreno. Sin embargo, para hacer el
proceso de capture de los datos eficiente, los niveles de serial son
almacenados en intervalos regulares -durante cada barrido. Cada valor
almacenado es una muestra del-jve1de voltaje en un instante de tiempo. El
área de la tierra que es detectada en ese instante es denominada: “campo de
vista instantáneo” o IFOV El IFOV es el área de la tierra mas pequeña que
puede ser observada por el sensor. El tamaño del IFOV determina el límite
teórico de resolución del sensor. El tamaño del IFOV es determinado por el
diseño del sensor- -y la altitud - a la cual el sensor se encuentra ubicado.

Para visualizar les imágenes digíteles creadas por barredores, se requiere de


un sistema de análisis de imágenes, -el-- -cual reconstruye y presenta los
datos a similitud de - una - imagen fotográfica. La imagen reconstruida está
compuesta por un gran numero de elementos de imagen, denominados píxeles
cada uno ¡de los cuales tiene asignado un color- o escala de gris. Usualmente
le imagen es desplegada así que un píxel representa un área del tamaño de el
IFOV.

Los barredores multiespectrales comúnmente detectan 3 a 11 bandas de


longitudes do onda simultáneamente. Existen barredores en experimentación
que podrán detectar círculos de bandas adyacentes Los barredores de este
tipo son - denominados espectrómetros de imágenes.

Los barredores son utilizados para sensar longitudes de onda en las bandas
del ultravioleta, visible e infrarrojo. La estrategia usada en selección de bandas
es escoger un conjunto que permita hacer una distinción de las características
de interés. A medida que son usadas más bandas, mayor es la cantidad de
datos que hay que almacenar y procesar- y por ende, más costoso
manipularlos y procesarlos. En los barredores multiespectrales portados en
satélite, los datos deben ser transmitidos a una estación terrestre El tiempo y la
potencia eléctrica necesaria-para - transmitir los datos viene a ser un factor
limitante, además , a mayor velocidad de transmisión, los equipos son más
complejos Y costosos

Los principales pictogramas espaciales para estudio de los recursos naturales


están dotados de barredores multiespectrales que captan información de la
superficie terrestre en diferentes rangos - de - longitudes de onda. Los más
difundidos han sido el programa - Francés SPOT y los programas de Estados
Unidos, LANDSAT, NOAA-y GOES. A continuaci6n una breve descripción de
los barredores multiespectrales que utilizan:
Se origina con un programa denominado ERTS-1 (Earth Resource Technology
Satellite) que más tarde tomó el nombre de LANDSAT al dividirse el programa
en: LANDSAT y SEASAT.

El primer lanzamiento se realizó el 23 de julio de 1972 contando a bordo con


un barredor multiespectral (MSS) diseñado para captar información en 4
bandas del espectro electromagnético- con-una orbita circular y sincrónica con
el sol para lograr- una iluminación constante a una altura de 913 kilómetros y
repetitiva cada 18 días. Su resolucj6n espacial fue de 56 x79m.

Dos misiones posteriores fueron enviadas con el mismo tipo de barredor


multiespectral (MSS) denominadas LANDSAT-2 y LANDSAT—3, donde cada
escena cubre un área de 185 x 185”Km. aproximadamente, representados en
2340 líneas de barrido con 3240 píxeles por línea para un total de 7.5 millones
de píxeles (por cada banda).

Una nueva generación aparecería en 1982 con el Satélite LANDSAT—4 que


fue lanzado para orbitar a una altura de 700 Km. y pasar cada 16 días por el
mismo lugar. En marzo de 1984, es lanzado el satélite LANDSAT—5. Estas
misiones llevaban a bordo dos barredores multiespectrales el MSS antiguo y el
TN (Thematic Mapper) el cual provee 7 rangos de bandas, es decir que
aumenta la resolución espectral. Para este sensor cada píxel representa un
área de 30 x 30 mt., excepto en la banda 6 en cuyo caso la resolución espacial
es 120 x 120 mt.

El sensor TM provee un mejoramiento en la resolución espacial -y. en la


resolución espectral con 7 bandas en cambio de 4 utilizadas por el MSS. Esta
resolución adicional incrementa 1acanticladde datos así mientras una escena
de LANDSAT MSS contiene cerca de7.5 millones de píxeles, una de LANDSAT
TM alcanza los 36 millones de píxeles. En total las cuatro bandas del MSS
contienen alrededor de 30 millones de valores de datos mientras que las 7
bandas del TM contienen cerca de 250 ini1lones de valores.

SPOT
El programa SPOT (System Pour L’Observation de la Terre)comenzó en
Francia en 1978. SPOT—l fue lanzado en 1986 con dos barredores HRV (High
Resolution Visible) los cuales pueden operar en uno de dos modos: en el modo
pancromático una so1a banda del visible es detectada y una imagen con
píxe1esde 1º x 10 mt. es producida. En el modo multiespectral 3 imágenes son
producidas con tamaños de píxel de 20 x 20 mt. Una por cada una de sus tres
bandas.

SPOT tiene una órbita sincrónica al sol a una altura de832 y una resolución
temporal de 26 días. Cada uno do los sensores cubre una franja de 60 Km.
sobre el terreno, hay una ligera superposición del orden de unos 4 Km. entre la
franja observada por el HRV1 y el HRV2 con lo cual la cobertura total es una
franja con una amplitud del orden de 116 Km. o de 60 Km. según los
requerimientos, ya que es posible operar simultáneamente ambos sistemas o
bien uno solo. El espejo captador de radiación puede orientarse bien sea para
observación vertical de la tierra o para visión oblicua. Esta propiedad permite
obtener imágenes con visión estereoscópica, las cuales se obtienen por
observación de la misma franja desde 2 órbitas diferentes con el limitante de
que las imágenes sean de fechas distintas.

1.3. ANALISIS DE IMACENES MULTIESPECTRALES

El análisis de una imagen se ha dividida en das grandes ramas:

1 procesamiento de imágenes y el reconocimiento de patrones -de las mismas.


La primera de estas se entiende como un conjunto bien definido y clasificado
de realces, que dejan lista la-imagen para una descripción matemática de las
regiones que le componen Las regiones están formadas a su vez por patrones
espaciales -y espectrales, de tal forma que el reconocer estos patrones- por
medio de modelos matemáticos, implica la descripción de las - regiones que
forman una imagen. En Otras palabras, reconocer un patrón requiere primero
de su manifestación evidente por medio de un procesamiento bien definido a la
imagen y seguido de una descripción cualitativa de sus propiedades
morfológicas y estadísticas.
En la práctica existen dos formas de hacer análisis de imágenes, la primera
denominada análisis manual, basada en la inspección visual usando
impresiones fotográficas de una imagen digital y la segunda llamada análisis
asistido por computador, la - -cual se fundamenta en el análisis cuantitativo de
los datos almacenados en formato digital. Existen similitudes en los objetivos y
métodos de ambos procedimientos

Tanto el análisis manual como el asistido por computador intentan detectar e


identificar fen6merios importantes en une escena. Una vez identificados los
fenómenos, son visualmente cuantificados y la información utilizada en la
solución de un problema. Tanto-el’ análisis manual como el digital tienen el
mismo objetivo general.’ Sin embargo, el logro de estos objetivos puede seguir
diferentes rutas. Por ejemplo, los elementos fundamentales de la
interpretación de imágenes son usados en el análisis manual, estos incluyen
tono/color, tamaño , forma, textura, patrón, peso, sombra, sitio y asociación.

La cuantificación de la información multiespectral establece las bases para la


modelación del sistema físico bajo estudio Y; deja el camino abierto a nuevas
técnicas de análisis de imágenes digitales por medio de algoritmos
computacionales.

SISTEMA ANALISIS
DISPOSITIVO IMAGEN
ESCENA DE LA
FÍSICO (3D) SENSOR MULTIESPECTRAL
IMAGEN

COMPARASIÓN
FENOMENO DE
DEGRADACION

MODELO DEL INTERACCIÓN DE LA


SISTEMA FISICO INFORMACIÓN RESULTANTE

El análisis de las imágenes requiere del conocimiento de las Características de


los datos que contiene. Para ello consideremos el esquema metodológico para
el estudio interpretaci6n de un sistema físico por medio del análisis de datos
bidimensionales multiespectrales.
Podemos apreciar en la figura 1.2 que existe un proceso de retroalimentación,
el comportamiento del sistema físico es estudiado a través del ná1isis de la
imagen multiespectral resultante y que este análisis interpretado
correctamente, sienta las bases para generar un modelo de funcionamiento de
dicho sistema físico. Es importante anotar que la imagen multiespectral de una
escena dada representa además de1a distribución espacial do las propiedades
físicas promedio, la respuesta finita del sensor y de los mecanismos de
interferencia que afectan la medida de las variables de la escena.

1.4 PROCESAMIENTO DIGITAL

El ser humano puede interpretar visualmente las imágenes producidas por


ciertos dispositivos de sensoramiento, especialmente cámaras. Uno podría
preguntarse: Por qué tratar de imitar o mejorar esta capacidad? Primero hay
ciertos limitantes que hacen que el intérprete no pueda detectar diferencias
poco notables en una imagen. Por ejemplo, es comúnmente conocido que un
análisis puede discriminar sólo alrededor de 8 a 16 escalas de gris cuando se
hace interpretación continua en tonos de blanco y negro de una fotografía
aérea. Si los datos estuvieran originalmente grabados con 256 escalas de gris,
podría estar presente mayor información en la imagen de la que el intérprete
puede visualizar.

El término procesamiento digital se ha venido involucrando cada día más


debido a la utilización de computadoras digitales, es decir dispositivos de
cálculo con capacidad de procesar grandes volúmenes de datos a altas
velocidades y con buena exactitud, en razón a su estructura interna que
permite ejecutar operaciones con base en un sistema numérico (o de dígitos)
en el cual se puede representar cifras, símbolos y letras.

CD posible almacenar en una computadora una imagen numérica resultado de


una transformación hecha por el detector de la respuesta espectral de cada
elemento de escena para producir una imagen digital.

Como ya es conocido, la respuesta espectral de cada elemento de escena es


captada por el sensor de acuerdo a la banda del espectro electromagnético
para el cual este calibrado. En realidad, lo que se hace es almacenar la
respuesta espectral en varias bandas de una misma escena.

1.4.1 FORMATOS DE ALMACENAMIENTO PARA IMAGENES


MIJLTIESPECTRALES.

Los procesos de tratamiento de imágenes digitales deben tener en cuenta


como está almacenada la información, para así poder ser accesada. Por ello
es necesario recordar que las imágenes digitales se graban en dispositivos de
almacenamiento en masa, generalmente cintas magnéticas compatibles con
computador (CCT), sin embargo, existen varios formatos en que son
almacenadas las imágenes; algunos se estudian a continuación:

1.4.1.1 Formato BIP (Band interleaved by pixel)

Cada elemento en la matriz tiene cuatro valores de píxel (uno de cada banda
espectral) localizados uno después de) otro..: Este formato s práctico si todas
las bandas son usadas.

Los datos numéricos de la imagen son grabados intercalando sucesivamente


un píxel por cada banda.

BI B2 V3 B1 B2 B3 B1 B2 B3 B1 B2 B3 B1

Píxel 1 Píxel 2 Píxel 3 Píxel 4

1.4.1.2 Formato BIL (Band interleaved by line).

En este formato los datos para las bandas son escritos fila sobre la misma
cinta, ejemplo fila 1 banda 1, banda 2, fila 1 banda 3, fila 1 banda 4. Es un
formato práctico si todas las bandas van a ser usadas en el análisis. Si algunas
bandas no son de interés el formato es ineficiente por cuanto es inevitable leer
serialmente datos innecesarios.

Los datos numéricos de la imagen son grabados intercalando sucesivamente


una fila de píxeles por cada banda.
B1 B2 B3 …

Fila 1 Fila 2 Fila 3 …
1.4.1.3. Formato BSQ ( band Sequencial).

El formato de banda secuencial requiere que todos los datos de una banda
cubran la escena completa y sean escritos sobre un archivo. Así, cuando se
busca un área en el centro de la escena en cuatro bandas, se requiere leer
esta localización en cuatro archivos para extraer la información deseada. Los
datos numéricos de la imagen son grabados almacenando primero todas las
filas de píxeles, de la banda 1, luego todas las filas de píxeles de la banda 2 y
así sucesivamente.

Banda 1 … … Banda 2 … … Banda 3 … …


… … …

1.4.2 CARACTERISTICAS DE LOS SISTEMAS DIGITALES

En general 1o sistemas digitales se pueden estudiar desde el aspecto de


equipos que lo componen (comúnmente conocido - como hardware) y desde el
aspecto de los programas que permiten operar el equipo (software).

1.4.2.1 Equipos (Hardware)

El conjunto de componentes físicos aparatos y dispositivos que constituyen un


sistema de computación se denomina hardware.- Un esquema típico se
muestra en la Figura 1.3. Este esquema puede - variar con cada instalación
particular, sin embargo, se conservan algunos módulos básicos como el
módulo de entrada, de procesamiento y el de salida.

ESTRUCTURA BASICA DE UN COMPUTADOR DIGITAL

UNIDAD CENTRAL DE PROCESO CPU


UNIDAD CENTRAL DE
PROCESO CPU

ALU

ENTRADA UNIDAD SALIDA


DE
CONTRO
L

MEMORIA

ROM
RAM

Figura No. 1.3: Estructura Física de un Computador Digital

El módulo de entrada incluye el equipo necesario para poder suministrar datos


a la unidad encargada del procesamiento de los mismos. Estos dispositivos de
entrada pueden ser diferentes según la necesidad del usuario, generalmente
debido al volumen de espacio que implica almacenar una escena, los datos
ingresan por medio de un a cinta o disco magnético.

Las Operaciones con los datos se desarrollan en una unidad central de


procesamiento, generalmente denominada CPU (Central Process Unit), la cual
incluye una memoria principal de alta velocidad llamada memoria RAM, en
donde se guardan temporalmente todos los datos que va a procesar el
computador, a través de la unidad aritmética y lógica con bases en un
programa previamente diseñado para tal efecto.

El módulo de salida permite enviar los resultados del procesamiento a un


medio físico de salida, ya sea para operación visual (ej. monitor, impresora) o
para almacenamiento en un medio magnético (cinta, disco).

1.4.2.2 Programas (Software)

En esta parte se contempla el conjunto de paquetes y programas que


conforman un sistema de Procesamiento Digital de Imágenes- y que permiten
la manipulación del equipo para solucionar, mediante algoritmos, problemas
inherentes al procesamiento de datos.

1.4.3 CARACTERISTICAS DE LOS SISTEMAS DE PDI

Los sistemas de procesamiento digital de imágenes, poseen algunas


características particulares por el tipo de equipos y el-software especializado
que requieren.

Los datos captados por el sensor, son la entrada a un sistema de PDI, estos se
encuentran almacenados en un formato digital desde donde es posible
analizarlos, esto requiere que el -analista comprenda las características
fundamentales de los sistemas -de PDI.

Tres de las aproximaciones mas utilizadas en le ejecución de procesamiento


digital de imágenes, Son:

La aproximación “Mainframe”: donde varios analistas utilizan Un computador


de tipo “Mainframe” (mayor o igual 32 bit), el - modo batch o interactivo. Ellos
generalmente trabajan en modo batch (por bloques) con salida en plotter y solo
ocasionalmente tienen- la oportunidad de visualizar y analizar interactivamente
los datos captados por el sensor sobre un monitor de alta resolución blanco y
negro o a color.

La segunda aproximación involucra el uso de un mini computador (16, a 32


bit) , un procesador de imágenes y un monitor a color de alta resolución que
provee un ambiente de procesamiento de imágenes ideal.
Una tercera aproximación está basada en un microcomputador. (16 a 32 bit).
Los sistemas de PDI basados en microcomputador son relativamente
económicos y en la actualidad pueden- ser adquiridos para usar como
estaciones de trabajo múltiples en un arnbiente: que no requiera producción a
gran escala.
Cuando se trabaja o se quiere seleccionar un sistema de PDI los siguientes
factores deben ser considerados: el número de analistas que tienen acceso al
sistema al mismo tiempo, el.’ modo de operación, a unidad central de
procesamiento CPU, el sistema operacional., el tipo de compilador, la cantidad
y tipo de almacenamiento en masa requerido, la resolución y color y por
supuesto las aplicaciones del software de PDI. ,
1.4.3.1. NUMERO DE ANALISTAS Y MODO DE OPERACION
Un número de analistas relativamente grande debe a menudo tener que
accesar facilidades de procesamiento de imagen, consecuentemente el
número de analistas, asignado a cada estación de trabajo puede variar desde
uno hasta cinco que es inadecuado. Por demás es ideal que el sistema de PDI
tenga un ambiente interactivo donde el analista pueda ver rápidamente. Los
resultados del procesamiento de imagen.
Cuando las estaciones de trabajo están comunicadas en red a un sistema de
PDI basados en mini computador, este tipo de configuración permite a las
estaciones compartir tiempo de-la CPU del mini computador, además cada
estación de trabajo tiene su propia memoria ‘o el propósito de procesar
imágenes que almacena los datos desplegados sobre la pantalla. Esto permite
un rápido procnzir1tc e imagen.

1.4.3.2. UNIDAD CENTRAL DE PROCESO, COPROCESALOR MATEMATICO Y


MEMORIA RAM

El procesamiento de datos digitales requiere una gran cantidad de operaciones


en la Unidad Central de Proceso, CPU. Especialmente, la CPU está encargada
de dos tareas principales, los cálculos aritméticos y la entrada/salida a
dispositivos periféricos.: En e pasado, la mayoría de las CPU de
microcomputadores eran diseñadas con registradores de 8 bit, lo cual era
adecuado para ejecutar funciones de entrada/salida, pero eran bastante lentos
cuando los cálculos numéricos eran ejecutados. En la-actualidad - la gran
mayoría de CPU tienen registradores de 16 bits las cuales pueden ejecutar
tareas de entrada y salida tan rápido como las de 8 bits, también calcular
expresiones aritméticas a mayor velocidad que las de 8 bits. Aún cuando las
más poderosas son de la nueva generación de 32 bits que pueden direccionar
sustancialmente más memoria y operar con una nueva forma, denominada
procesamiento en paralelo.

Para mejorar la velocidad en los cálculos numéricos, coprocesador matemático


(o de punto flotante) es utilizado. El coprocesador trabaja en conjunto con la
CPU para ejecutar operaciones con datos de tipo real a gran velocidad. .
Idealmente un procesador de arreglos puede ejecutar operaciones aritméticas-
de números enteros organizados en forma matricial, esto es especialmente
usado para operaciones de mejoramiento y análisis de imágenes.

La CPU puede contener suficiente memoria de acceso aleatorio (RAM) para el


sistema operativo software de PDI y datos de la imagen que deben
permanecer en memoria mientras los cálculos son ejecutados. Generalmente
640 K de memoria RAM es suficiente-para el procesamiento de imágenes
cuando sólo unas pocas filas de datos se cargan simultáneamente a la
memoria.

1.4.3.3. EL SISTEMA OPERATIVO Y EL COMPILADOR

El sistema operativo y el compilador deben lo suficientemente versátiles para


trabajar con los programas de análisis y con los algoritmos propios del
procesamiento digital de imágenes.

Configurar ambientes de PDI con sistemas operativos o puntuales ocasiona


dificultades para compartir datos con otras aplicaciones. Los sistemas
operativos más utilizados son el DOS y UNIX. Los compiladores más usuales
en el desarrollo de software de PDI son BASIC, ASSEMBLER, FORTRAN,
PASCAL Y C.

1.4.3.4. ALMACENAMIENTO EN MASA


Los datos captados por el censor- son almacenados en un formato matricial
con varias bandas multiespectrales, de acuerdo a los formatos analizados en la
sección 1.3.1. El formato más común de almacenamiento es el de banda
secuencial (DSQ). Cada píxel (elemento de imagen) de cada banda es
representado en un computador por un solo byte (el cual puede almacenar
valores entre O y 255). Alrededor de 262.000 bytes (262 Kbytes) son
necesarios para almacenar 512 x 512 píxeles de una sola -banda. Sin
embargo, es a menudo necesario analizar simultáneamente varias bandas, por
ejemplo, para almacenar las siete bandas del mapeador temático LANDSAT se
requiere más de 1.000.000 de bytes de capacidad de almacenamiento. Los
sistemas de disco duro típicamente almacenan más de veinte millones de
bytes por lo cual constituyen un medio ideal.

La tecnología de almacenamiento en discos ópticos continúa mejorando


permitiendo almacenar grandes cantidades de datos del orden de mil millones
de bytes (Gygabytes).

1.4.3.5. NESOLUCION DEL MONITOR

Los monitores a color existentes en el mercado, tienen diferentes capacidades


de despliegue, existen monitores de baja resolución, capaces de desplegar
hasta 256 x 256 píxeles, de media resolución hasta 52 x 512 píxeles y de alta
resolución con posibilidad de desplegar 1024 x 1024 o más píxeles. Para un
sistema de PDI lo más aconsejable es el monitor de alta resolución al cual
permite ana1izar porciones más amplias de imagen.

1.4.3.6. RESOLUJCION DEL COLOR

Esto hace referencia al número de escalas de gris y/o colores (ejemplo 256)
que puede presentar un monitor simultáneamente tomados de una paleta de
colores disponible (ej. 16.7 millones) Para muchas aplicaciones geográficas un
solo bit de color es requerido, pero para operaciones cartográficas más
sofisticadas donde las escalas de gris o la combinación de diferentes colores
es requerida como mínimo se necesitan ocho bits (256 colores).Para
aplicaciones del mapeador temático se requiere que el usuario pueda
seleccionar sesenta y cuatro colores de una paleta de 256 como mínimo.

El análisis y despliegue de imágenes de sensores remotos requiere de mayor


resolución que las aplicaciones cartográficas de tal manera que existen
sistemas de P01 que poseen la capacidad de desplegar alrededor de 4096
colores de una paleta de l67 millones.

El software de PDI requiere de una alta velocidad en el proceso de los datos,


para ello existen algoritmos que optimizan al máximo el computador, haciendo
que cada día los tiempos de - proceso sean más cortos. A su vez, la tendencia
de este tipo de software es a estandarizar ciertos algoritmos muy empleados y
crear otros nuevos que le permiten al usuario desarrollar pruebas de eficiencia.

Los programas s-n- usualmente interactivos, de tal forma que el usuario, luego
de hacer una solicitud, recibe una, respuesta en un tiempo que depende del
tipo de operaciones que tenga que Ejecutar el computador. Sin embargo, en
algunos casos, la respuesta es casi inmediata debido a las altas velocidades
de proceso existentes actualmente. Se espera alcanzar con el tiempo una
velocidad que permita obtener respuestas en forma inmediata, lo cual no
depende del software solamente sino de los avances de la electrónica para
construir máquinas más veloces.

2. CARACTERIZACIOÑ ESTADISTICA DE LAS IMAGENES

Los datos contenidos en una imagen multiespectral proporcionan abundante


información al analista de imágenes, sin embargo, para ello es necesario
recurrir a la estadística para poder cuantificar mejorar las características de la
imagen. Comúnmente se calculan histogramas, valores mínimos, medio y
máximo, entropía, varianza, desviación típica, covarianza y coeficiente de
correlación como parámetros fundamentales para caracterizar
estadísticamente una imagen multiespectral.

2.1. HISTOGPAMA DE UNA IMAGEN.


Es la función que representa la frecuencia de ocurrencia de cada uno de los
diferentes niveles de gris (valores radiométricos) en una imagen digital. Puede
representarse en forma numérica o gráfica.

El rango de los valores discretos que puede tomar un píxel generalmente es


ubicado en el eje de las abscisas ( eje X), mientras que la frecuencia de
ocurrencia de cada uno de estos valores desplegada sobre las ordenadas (eje
Y) (Fig. 2).

Generalmente una imagen digital con un pobre contraste visual presenta un


histograma muy estrecho (Fig. 2.1.b), y una imagen muy contrastada un
histograma ancho (Fig. 2.1.e). Los diversos picos y valles en un histograma
multimodal corresponden a diferentes tipos de cobertura dominantes en la
imagen.

Otra representación común del histograma es desplegar la frecuencia de


aparición de cada uno de los valores radiométricos expresando su porcentaje
con respecto al total y el porcentaje acumulado.

Antes de aplicar cualquier tipo de proceso a una imagen multiespectral, se


acostumbra a calcular el histograma para cada una de las bandas lo que
permite al analista tener una idea de la calidad de los datos originales.
Después de aplicar una técnica de mejoramiento se calcula de nuevo el
histograma para documentar los efectos del proceso sobre la imagen original.

2.2. ENTROPIA.

Es un parámetro que permite medir cuantitativamente la cantidad Ge


información presente en una imagen. (Grado de desorden de -los píxeles o
nivel de utilización de los diferentes niveles de gris).

n
E= ∑ f(i) log f(i)
i=1

f(i): Frecuencia de ocurrencia del valor radiométrico i


La Entropía no tiene en cuenta la información que proviene de la distribución
espacial de los píxeles. De acuerdo a lo anterior, la Entropía mínima se
presenta cuando todos los píxeles de una imagen tienen el mismo valor. Si la
imagen contiene m píxeles entonces:

E = - m log m

0 N 255

La máxima Entropía se presenta cuando la imagen presenta el mismo número


de píxeles para cada uno de los 256 niveles.

m / 256

0 1 2 3 4 5 6 7 . . . . . . . . . . . . . . . . . . 255

E = -256*[(m/256)*log(m/256)] = - m*log(m/255)

2.3. VALOR MINIMO.

Es el valor radiométrico (nivel de gris) más bajo encontrado en una imagen


digital.

2.4. VALOR MAXIMO.

Es el valor radiométrico más alto encontrado en una imagen digital.


2.5. MEDIA AITMETICA. (Esperanza matemática o valor esperado).
La media expresa el promedio de los valores radiométricos de la imagen.

m
∑ Xi X1 + X2 + X3 + … + Xm
i=1

μ = ------------- = -------------------------------------------------
m m

donde:

Xi : Valor radiométrico del píxel i.

m: Número total de píxeles en la imagen.

μ: Media aritmética de la imagen.

2.6. VARIANZA

Es una medida de dispersión o variación de los valores radiométricos de los


píxeles de una imagen alrededor de su media. Si los valores tienden a
concentrarse alrededor de la media (Histograma estrecho) la varianza es
pequeña, si los valores tienden a distribuirse lejos de la media, la varianza es
grande.

La varianza puede calcularse por medio de la ecuación:

m
∑ (Xi – μ)2
i=1

Var = ---------------------
n - 1

donde:

Xi: Valor radiométrico del píxel i

m: Número total de píxeles en la imagen

μ: Media aritmética de la imagen

2.7. DESVIACION TIPICA.

Se le denomina así a la raíz cuadrada de la Varianza.

S = var

Los parámetros anteriores se pueden calcular para cada una de las bandas de
una imagen digital multiespectral.
Existen otros parámetros que involucran dos bandas, permitiendo establecer la
relación existente entre éstas; ellos son la Covarianza y el coeficiente de
Correlación.

2.8. COVARIANZA.

Es una medida de la variación conjunta de los valores de los píxeles en ambas


bandas alrededor de su media común.
La covarianza se calcula aplicando la siguiente ecuación:

m m
∑ ∑ (Xi – Ux) (Yj – Uy)
i=1 j=1

COV xy =
m–1
Xi: Valor radiométrico del píxel j en la banda X

Yj: Valor radiométrico del píxel i en la banda Y

Ux: media aritmética de la banda X

Uy: media aritmética de la banda Y

m: Número total de píxeles en cada banda

2.9. COEFICIENTE DE CORRELACION.

Es una medida de la relación existente entre los valores de los píxeles de dos
bandas.

Cov xy
I’ xy =
Sx Sy

Donde:

Coy xy : Covarianza de las bandas X é Y

Sx: Desviación estándar de la banda X

Sy: Desviación estándar de la banda Y

El coeficiente de correlación toma valores que van entre -1 y 1.


Un I’xy 1 indica una relación perfecta entre los valores radiométricos de los píxeles
en las dos bandas (un incremento en el valor de un píxel en una banda, implica
también un incremento igualmente proporcional en la otra banda. Sería el caso en
el cual las dos bandas son iguales).

Un I’xv = -l indica que una banda está inversamente relacionada a la otra.

Un I’xy = O sugiere que no existe relación entre las dos bandas. Un O < r < 1
indica que existe alguna relación entre las dos bandas X é Y.

El que dos bandas estén relacionadas implica que existe redundancia en los datos
de las bandas.

Sí las dos bandas tienen un I’xy = O significa que no existe ningún tipo de
redundancia en los datos de las bandas.

Los coeficientes I’xy son usualmente almacenados en una matriz de correlación,


que resume la relación entre bandas, Esta matriz es simétrica con respecto a la
diagonal, es decir que por ejemplo el coeficiente de correlación entre la banda 1
con la banda 2 es igual al coeficiente de correlación entre banda 2 con banda l.
Los coeficientes que están en la diagonal son iguales a la unidad por cuanto existe
una relación perfecta entre una banda con si misma. El formato de la matriz de
correlación es como sigue:

Banda 1 Banda 2 Banda 3 Banda 4


Banda 1 1,0 r 1,2 r 1 ,3 r 1,4
Banda 2 r 2,1 1,0 r 2,3 r 2,4
Banda 3 r 3,1 r 3,2 1,0 r 3,4
Banda 4 r 4,1 r 4,2 r 4,3 1,0

2.10. HISTOGRAIIA BIDIMENSIONAL.

Es una forma de presentar gráficamente los valores radiométricos de los píxeles


de dos bandas. En el eje X se ubican los valores radiométricos de una banda y en
el eje Y se ubican los valores radiométricos de la otra. Cada píxel es ploteado en
el espacio bidimensional de acuerdo a sus valores en cada banda, formándose
una nube de puntos.

B1 10 50 30 B2 10 20 30

B2

30

20

10

B1
10 20 30 40 50

Se presentan algunos histogramas bidimensionales que están representando los


principales casos de relación entre bandas:

By By By

Bx Bx Bx

Fxy =1 Fxy = -1 Fxy =0


By By By

Bx Bx Bx

Fxy =0 Fxy →0 Fxy →1

2.11. MATRIZ VARIANZA COVARIANZA

La matriz de covarianza es uno de los más importantes conceptos matemáticos en


el análisis de datos de sensores remotos, donde se observa si existe una
correlación entre las respuestas en un par de bandas espectrales, los elementos
fuera de la diagonal serán grandes con respecto a los de la diagonal. Pero si
existe poca correlación, los elementos fuera de la diagonal serán cercanos a cero.
Esta característica puede también ser observada en términos de la matriz de
correlación.

La varianza y covarianza se acostumbra a representar en una matriz, donde la


diagonal contiene los valores de la varianza y los elementos fuera de la diagonal
corresponden a las covarianzas. Nótese que la matriz es simétrica con respecto
ala diagonal, es decir que todos los elementos, que no están en la diagonal están
duplicados (EJ Cov. 1,2 = Cov. 2,1). A continuación se presenta el formato de la matriz
Varianza covarianza, para cuatro bandas:

Banda 1 Banda 2 Banda 3 Banda 4


Banda 1 VAR 1 COV 1 , 2 COV 1 , 3 COV 1 , 4
Banda 2 COV 2 , 1 VAR 2 COV 2 , 3 COV 2 , 4
Banda 3 COV 3 , 1 COV 3 , 2 VAR 3 COV 3 , 4
Banda 4 COV 4 , 1 COV 4 , 2 COV 4 , 3 VAR 1

3. PREPROCESANIENTO DE IMAGENES
Los sistemas de sensoramiento remoto introducen algunos errores en, el proceso
de captación de datos. Estos errores afectan el análisis de las imágenes. Por esta
razón es necesario preprocesar los datos captados por el sensor, antes de
analizarlos.

La restauración de imágenes permite hacer correcciones de la distorsión,


degradación y ruido introducido durante el proceso de captación de las imágenes.

Para corregir los datos de la imagen deben ser determinados los errores internos y
externos. Los errores internos son originados por el sensor mismo, son
generalmente sistemáticos (predecibles) y estacionarios (constantes) y pueden ser
corregidos por una calibración de los detectores antes del lanzamiento o en vuelo.
Los errores externos son debidos a perturbaciones -de: la plataforma y a la
variación de las características de la superficie. Los errores no sistemáticos
pueden ser resueltos por mediciones hechas en tierra, mediante puntos de control.

3.1. DISTORSIONES Y CORRECCIONES RADIOMETRICAS.

Las distorsiones radiométricas son las que afectan la radiometría: de los objetos
en la imagen.

Algunos de los problemas más frecuentes y el procedimiento para minimizarlos


son:

3.1.1. -Falta de una línea. El mal funcionamiento de un detector puede ocasionar


que una línea de barrido aparezca con valores muy bajos o nulos, es decir que el
sensor no capte información apareciendo en la imagen visual como una línea
negra. La corrección a este error se logra sustituyendo la línea problema por el
valor promedio de los píxeles correspondientes a la línea anterior y posterior.

3.1.2. Factores atmosféricos. Los efectos atmosféricos en imágenes de sensores


remotos son debidos especialmente a la atenuación (700 sufre la radiación en la
atmósfera y la dispersión en dicha radiación. La dispersión es un fenómeno físico
que se presenta al penetrar la radiación visible a la atmósfera, debido a que al
chocar con las moléculas de aire y de aerosol,’ se dispersa en varias direcciones,
de tal manera que una parte de esta puede ser desviada y nuevamente dirigida al
espacio.- claro que la dispersión guarda una relación con la, longitud de onda,
entre más pequeña la longitud de onda mayor será la- dispersión. Por esta razón
las imágenes multiespectrales representan menos contraste en las bandas
correspondientes al azul y el verde mientras aumenta en las bandas del infrarrojo.
Para corregir el efecto de este fenómeno, el método más sencillo consiste en
comparar píxeles idénticos en todas las bandas. Por ejemplo, píxeles
correspondientes a sombra o agua clara donde la respuesta espectral es muy
baja en todas las longitudes de onda (visible e infrarrojo).

Cuando en las bandas de longitudes de onda más corta tienen valores


relativamente altos, esto se debe a la dispersión, la cual causa cierta iluminación.
En ese caso se restan estos valores de todos los píxeles de la imagen. Los errores
de distorsión también pueden ser corregidos usando métodos un poco más
sofisticados basándose en estadísticas y en modelos de absorción, y dispersión
tomando parámetros como la temperatura, humedad relativa, Visibilidad.

La absorción por vapor de agua y otros gases en la atmósfera afecta


especialmente a las longitudes de onda mayores que 0.8 micrones, disminuyendo
los valores radiométricos.

Los efectos atmosféricos ocasionan distorsiones radiométricas cuando se intenta


comparar las mediciones espectrales hechas en campo con las mediciones de un
barredor multiespectral, lo cual también puede tener una incidencia en el momento
de hacer la clasificación.
3.1.3. Ruidos. Se entiende por ruido cualquier señal no deseada dentro de una
imagen. En imágenes de sensores remotos hay varios tipos de ruido, entre otros
ruido al azar, ruido aislado, ruido periódico y estacionario, ruido periódico pero no
estacionario. El ruido al azar se caracteriza por variaciones estadísticas de los
niveles de gris píxel por píxel. Este ruido puede ser originado en I atmósfera o en
los componentes electrónicos del sistema. Este tipo de ruido es independiente de
la señal. La forma más aconsejable de eliminarlo es aplicar un filtro de paso bajo.
El ruido periódico es relativamente fácil de corregir,.pero el ruido al azar es
considerablemente más complejo, aunque a veces teniendo las características del
sensor, es posible.:tener una aproximación de) ruido esperado.

Es necesario hacer un análisis de la estructura del ruido: antes de aplicarle el


algoritmo de “eliminación del ruido”.

3.1.4. Error de medición de la irradiancia. Es un error inherente al sensor, ya que


éste tiene una determinada precisión para medir la energía incidente, más allá de
la cual el sensor no detecta señales diferentes. Este tipo de error resulta difícil de
corregir por cuanto tendría que cambiarse la escala de valores. radiométricos.

3.1.5. Saturación del detector. Un detector es sensible a un rango específico de


radiación, fuera de este rango el sensor se satura. Es un error que sólo se
presenta cuando se tienen objetos en tierra que presentan una alta reflectancia.

3.2. DISTORSIONES Y CORRECCIONES GEOMETRICAS.

Las distorsiones geométricas se pueden clasificar n sistemáticas o inherentes al


sistema y en no sistemáticas, es decir causadas por problemas de funcionamiento
del sistema.

3.2.1. Distorsión por rotación de la tierra. Esta distorsión se presenta porque la


mayoría de las imágenes de sensores remotos (excepto la fotografía) son
registradas en forma continua y en el lapso de tiempo durante el cual se forma la
imagen, la tierra se ha desplazado debido a su rotación. Esta es una distorsión
geométrica sistemática pero no es constante, ya que el desplazamiento depende
de la latitud (a menor latitud mayor desplazamiento). Por ejemplo, las imágenes
Landsat deben ser corregidas y por esta razón tienen forma de paralelogramo.
Esta corrección se hace aplicando algoritmos que logren desplazar grupos de
píxeles hacia una nueva dirección. Dado que es una distorsión determinística se
corrige calculando la velocidad relativa entre la tierra y el satélite. Fig.3.1.a.

3.2.2. Distorsión panorámica. A medida que se aleja la línea del nadir el tamaño
del píxel aumenta. Ente tipo de distorsión se corrige sólo cuando se tiene control
terrestre adecuado y se hace a través del llamado Algoritmo de expansión
(Fig3.1.b.).
3.2.3. Efecto de la curvatura terrestre. Afecta el tamaño del píxel por cuanto a
medida que se aleja del nadir el campo de vista instantáneo es mayor.

3.2.4. Distorsiones geométricas no sistemáticas. Son debidas a., variaciones


imprevistas en velocidad, altitud y orientación de la plataforma.

Al aumentar la velocidad de la plataforma se cubre mayor área en el sentido de la


línea de vuelo de la plataforma. Fig. 3.1.c.

Al aumentar la altitud aumenta el tamaño de la superficie captada por los


sensores. 3.l.d.

Las diferencias de posición de los diversos puntos de la plataforma en relación al


eje y ó al eje X. Fig. 3.1.e.

Para corregir las distorsiones producidas por el movimiento de la plataforma se


utilizan técnicas de remuestreo en concordancia con el registro continuo del
movimiento del satélite.

Las técnicas de remuestreo se pueden efectuar por cualquiera de los siguientes


métodos:

a) Vecino más cercano

b) Interpolación bilineal

c) Convólución cúbica

Tierra

Satélite

a. Rotación Terrestre
b. Panorámica

Alargamiento

c. Velolocidad

d. Variación de altura
e. Movimiento de plataformas

Fig. 3.1. Distorsiones Geométricas

4. MEJORAMIENTO DE IMAGENES.

Mejorar una imagen consiste en ejecutar un procesamiento numérico para realzar,


enfatizar o suprimir ciertas características de la imagen. En este procesamiento se
incluye el mejoramiento del. contraste entre objetos, énfasis en límites entre los
diferentes tipos de cobertura terrestre y también sirve para suprimir características
no deseadas en la imagen.

Se han desarrollado diversas técnicas que de acuerdo al tipo de operación que


ejecuta sobre el píxel se pueden clasificar en puntuales y locales. El valor del píxel
en la primera es modificado en forma independiente de los demás y en la segunda
depende del valor que tengan los píxeles vecinos.
Las técnicas para el realce de detalles en imágenes digitales, se pueden clasificar
como:

4.1 REDUCCION Y AMPLIACION DE LA IMAGEN

4.1.1 Reducción

En varias ocasiones se requiere analizar una imagen en un sistema de


procesamiento que solo puede desplegar 512 x 512 píxeles simultáneamente.
Para reducir una imagen justo hm2 de los datos originales, cada m-ésima fila y m-
ésima columna de la imagen es sistemáticamente seleccionada y desplegada.
Ejemplo: Si una escena de LANDSAT MSS contiene 3240 columnas y reduce con
un factor m=2, la nueva imagen será un 25% mas pequeña que la original.

2340 filas

3240 columnas

Si m=2, la imagen original se reducirá 1/m2= ¼ = 25%

Entonces:

3240 + 2 = 1620

2340 + 2 = 1170

1170 filas

1620 columnas

Ejercicio: Sabiendo que una escena de Landsat TM tiene 6940 columnas por 5940
filas, cada cuantos píxeles se deben seleccionar, para poder desplegarse en
monitor de 512 x 512 píxeles?

4.1.2 Ampliación de la Imagen

La ampliación-de Imágenes digitales (a menudo denominada ZOOM), es


usualmente ejecutada para mejorar la escala de despliegue con propósitos de
interpretación visual. Amplificar una imagen digital implica hacer una réplica de
valores de píxel. Para ampliar una imagen digital por un factor de m2, cada píxel
de la imagen original es usualmente reemplazado por un bloque de m x m píxeles,
todos con el mismo valor radiométrico como píxel de entrada original.

Porción de Imagen original

14 15 13 21 22 19
13 16 15 18 17 21
30 28 27 29 19 20
25 28 24 27 26 25

Porción de Imagen Ampliada con m=2

14 14 15 15 13 13
14 14 15 15 13 13
30 13 16 16 15 15
13 13 16 16 15 15

4.2 MEJORAMIENTO DEL CONTRASTE.

Consiste en la aplicación de procedimientos que realzan el contraste visual en la


imagen. Se utiliza una función definida por el usuario.

4.2.1 Expansión lineal total.

El Histograma ocupa un rango [N min, N max), mediante una función lineal F se


transforma el histograma para que ocupe todo el rango disponible (0 – 255)

0 255

Fig. 4.1.a. Histograma estrecho


0 255

Fig. 4.1.b. Histograma ancho

255

0 255 0 N max 255


0 255

Fig. 4.2. Transformación mediante una función lineal

En la práctica se obtienen mejores resultados saturando algunos píxeles cercanos


a los valores N-min y N-max.

Pixeles saturados
0 255 0 255

Fig. 4.3. Saturación de píxeles cercanos al mínimo y al máximo.

Esta técnica no aumenta la cantidad de información en la imagen. Sin embargo la


expansión del histograma no permite discriminar 2 píxeles que tienen el mismo
valor radiométrico.
El parámetro ENTROPIA no varía al realizar la ampliación del histograma de una
imagen digital. Fig. 4.4.

f f

0 . . . . . . . . . . 255 0 . . . . . . . . . . 255

Fig. 4.4. Ampliación del histograma sin variación de Entropía.

El parámetro VARIANZA si varía al realizar la ampliación histograma de una imagen


digital, pues este aumenta.

4.2.2. Expansión lineal parcial.

Se puede expandir solamente una porción del histograma y enmascarar las otras.
Ejemplo: enmascarar el mar y mejorar el contraste en el suelo. Fig.-4.5.

mar mar suelo

Fig. 4.5. Enmascaramiento de una clase.

4.2.3. Ecualización: (Expansión no lineal del histograma). Se busca reducir el


contraste en áreas muy claras o muy oscuras y. expandir los niveles de gris
intermedios hacia los extremos alto y bajo de la escala de reflectancia, en razón
de que la-mayoría de los histogramas tienen una forma Gaussiana.
By By By

N min . . .N max N min . . .N max 0 . . . . . . . 255

Fig. 4.6. Histograma Ecualizado por una función no lineal.

Es decir que a partir del histograma original de entrada, seguramente asimétrico,


se busca obtener un histograma con una distribución mas uniforme en el cual la
“participación” (frecuencia) de cada uno de los tonos de gris sea mas uniforme.

La frecuencia “ideal” para cada uno de los niveles de gris de salida será:

fs= 100%/ng

en donde

fs: Frecuencia relativa de salida.

ng: Número de niveles de gris.

8y

Por ejemplo si una pantalla permite visualizar 16 tonos de gris simultáneamente


entonces la frecuencia relativa de’ salida para cada uno de ellos será:

Fs=100 / 16 = 6.25 %

4. 3 SEGMENTACION.

Esta técnica permite una primera interpretación de la imagen y obtener un mapa


temático.

Se aprovecha el carácter multimodal del histograma para definir ciertos rangos


que son identificados como clases de información. A todos los píxeles ubicados en
el mismo rango se les asigna el mismo color. Fig. 4.7.
0 0 255

Fig. 4 . 7. 1 Histograma segmentado y curva isodensidad

4.4 FILTRAJE O CONVOLUCION.

Dentro de las técnicas para el mejoramiento de imágenes están las que ejecutan
operaciones sobre el píxel, dependiendo de un espacio de frecuencia, a ese
número de cambios en el valor del píxel por unidad de distancia es lo que se
denomina frecuencia espacial. Esto significa que si existen muy pocos cambios en
el valor radiométrico sobre un área dada, corresponderá a un área de baja
frecuencia, al contrario si los valores radiométricos cambian a cortas distancias se
dirá que es un área de alta frecuencia.
Para extraer información de la frecuencia espacial es necesario definir un área
donde se observe la variación de los valores radiométricos. Generalmente se
utilizan máscaras de convolución, llamadas también.: matriz de coeficientes o
“kernel”, que pueden ser de tamaño 3x3, 5x5, 7x7, 9x9 y así sucesivamente.

EI proceso de filtrado consiste en calcular para cada píxel una combinación Lineal
de los valores radiométricos sobre un espacio de frecuencia cercano de este, y
ponderarla de acuerdo a una máscara de convolución cuyos coeficientes son
constantes. E decir un filtro espacial transforma el valor de un píxel teniendo en
cuenta los valores de los píxeles vecinos. La combinación lineal se calcula por
medio de la ecuación:

m
Pi = G * ∑ Ki Po + H
i=1

Donde:
Pi : Valor del píxel nuevo.

G : constante que escaliza el valor nuevo del píxel entre O y 255.

n Número de elementos de la matriz de coeficientes.

ki : Elemento i de la matriz de coeficientes.

Po : Valor del píxel original.

H : Constante que garantiza que los nuevos valores de Pi sean positivos.

Dependiendo del efecto que tienen sobre la imagen original, los filtros espaciales
se pueden clasificar como:

4.4.1. De suavización. El efecto de este tipo de filtro es suavizar o reducir niveles


de gris y en consecuencia hacer más armónico el contraste, aunque se pierden
detalles geométricos,-es posible resaltar zonas homogéneas. Además permite
atenuar -altas frecuencias y eliminar ruidos instrumentales. Fig. 4.8.

1 1 1

1 1 1

1 1 1

Fig. 4.8 Filtro de suavización.

4.4.2. De mejoramiento. Se utiliza para realzar las altas frecuencias y detalles


geométricos, mejorando así la definición de contornos, lineamientos etc. Al realzar
las características geométricas, es normal que se pierdan algunos detalles
radiométricos. Fig. 4.9.

Cuando el valor absoluto de la .sumatoria de los coeficientes al rededor del píxel


central es igual al valor del píxel central se obtiene el filtro pasa-alto máximo o
también conocido cómo filtro Laplaciario. Fig. 4.9.c

a,

-1 -1 -1
-1 10 -1

-1 -1 -1

b,

-1 -1 -1

-1 16 -1

-1 -1 -1

c,

-1 -1 -1

-1 8 -1

-1 -1 -1

-1 0 -1

0 4 0

-1 0 -1

d,

1 -2 1

-2 -4 -2

1 -2 1
Fig. 4.9. Filtros de mejoramiento con diferentes valores centrales.

4.4.3 Filtros de Detección de Bordes

En el estudio de los recursos naturales, la información más valiosa puede ser


derivada de una imagen detectando los bordes de varios objetos o características
de interés. Las operaciones de mejoramiento de bordes permiten delinear los
cambios en valor de brillo de dos píxeles adyacentes. Con ello hacen posible la
detección de formas y detalles.

Los bordes pueden ser mejorados usando tanto técnicos de


mejoramiento lineal o no lineal.

4.4.3.1 Filtro de detección de bordes lineales.

Se encarga de resaltar detalles geométricos en una dirección , ejemplo norte sur,


oste oeste. Fig. 4.10.

1 1 1 1 1 1

NORESTE
NORTE

1 -2 1 -1 -2 1

-1 -1 -1 -1 -1 1

-1 -1 -1 1 1 1
NOROESTE

1 -2 1 1 -2 -1
SUR

1 1 1 1 -1 -1
-1 1 1 -1 -1 1

SURESTE
-1 -2 1 1 -2 1
ESTE

-1 1 1 1 1 1

1 1 -1 1 -1 -1

SUROESTE
OESTE

1 -2 -1 -1 -2 -1

1 1 -1 1 1 1

-1 -1 -1 -1 0 1
HORIZONTAL

VERTICAL
0 0 0 -2 0 2

1 2 1 -1 0 1

Fig. 4.10 Filtro de detección de bordes lineales.

4.4.3.2 Filtro de detección de bordes no lineales.

Su principal función es resaltar los cambios fuertes en los valores de los píxeles,
por ello se utiliza para enfatizar los bordes. Fig. 4.11.

-1 -1 -1 -1 2 -1
HORIZONTAL

VERTICAL

2 2 2 -1 2 -1

-1 -1 -1 -1 2 -1
2 -1 -1 -1 -1 2
DIAGONAL

DIAGONAL
-1 2 -1 -1 2 -1

-1 -1 2 2 -1 -1

Fig. 4.11. Filtro de detección de líneas.

5. TRATAMIENTO CONJUNTO DE BANDAS

1 NTRODUCC IÖN

Trabajar con bandas individuales proporciona resultados útiles en la interpretación,


sin embargo, es posible mejorar estos resultados cuando se incorpora información
proveniente de varias bandas en forma simultánea por cuanto existe un mayor
aporte de datos. Es aquí donde las imágenes multiespectrales demuestran su
potencialidad para generar nuevas imágenes que recogen el resultado de un
análisis conjunto de datos que aunque aparentemente se encuentra desmembrado
en diferentes bandas del espectro, tiene una relación estrecha, que como tal debe
ser aprovechada.

El tratamiento conjunto de las bandas como tal, no implica que se tenga que
trabajar con todas las bandas disponibles, sino con aquellas que están menos
correlacionadas con el fin de que el aporte de información sea más significativo.
Existen múltiples operaciones que se pueden aplicar a las bandas entre ellas
operaciones matemáticas, como adición, sustracción, producto, división y algunas
combinaciones de las anteriores como el caso del índice de vegetación. Otras
operaciones son las de tipo lógico, entre las cuales se encuentra la composición a
color. También pueden aplicar a las imágenes cierto tipo de transformaciones que
facilitan el análisis de los datos, entre ellas están la transformada de Karhunen-
Loeve y la transformada de Fourier, muy utilizadas en imágenes de sensores
remotos.
5.1 OPERACIONES ENTRE BANDAS
El aplicar operaciones matemáticas entre bandas es muy útil, sin embargo los
resultados están limitados por la escala de grises en la que se trabaje. Así cuando
la escala tiene 256 niveles (ec1a que estamos Utilizando en este curso), debe ser
normalizado para evitar interpretaciones equivocas.
Para las operaciones que se van a presentar a continuación, se definen las
siguientes variables:

Sea A una banda de m filas por n columnas


Sea B una banda de m filas por n columnas
Sea C la matriz resultante de la operación.

a a …a b b … b
a a …a b b … b
A = : : … : B = : : … :
: : … : : : … :
a a …a b b … b

c c … c
c c … c
C = : : … :
: : … :
c c … c

5.1.1 Adición.

La adición entre banda A y Banda B está definida como la suma entre valores
radiométricos respectivos de banda A con banda B.

Cij = aij + bij

Como es posible que Cij sea mayor que el máximo nivel de gris, es decir 255, se
debe aplicar una función de normalización que para el caso bien puede ser
obtener un promedio entre los valores radiométricos de las bandas.
aij + bij
Cij =--------------
2

Ejemplo: Hallar la matriz resultante de A + B y el resultado de la adición


normalizada para:

10 20 30 20
A = B =
30 20 70 10

10 + 30 20 + 20 40 40
C =A + B = C =
30 + 70 20 + 10 100 30

El resultado de la adición normalizada es:

10 + 30 20 + 20

2 2 20 20
C =A + B = C =
30 + 70 20 + 10 50 15

2 2

La adición normalizada es utilizada generalmente cuando se quiere obtener una


nueva imagen (resultante) con menor influencia de ruido, debido a que al
promediarse se logra una atenuación de valores altos ocasionados por este
fenómeno, se requiere claro está, ejecutar las operación entre bandas cercanas
dentro del espectro, así por ejemplo dos bandas del rango visible o dos del
infrarrojo.

La adición sin normalizar puede ser útil cuando se desea incrementar un valor
constante a una banda el cual fue reducido por algún tipo de fenómeno
atmosférico por ejemplo la absorción. En este caso, se Utiliza una imagen con
valores constantes para sumar a la original y así obtener una nueva imagen con
valores mas altos.

5.1.2 Sustracción

La operación de sustracción de A y B está definida como la recta entre valores


radiométricos respectivos de la banda A con respecto a la banda B.

Cij = aij — bij

Si aij es menor que bij, el valor de Cij será negativo, lo cual es imposible de
representar cuando se trabaja en una escala como la que tenemos (0, 255 ) . Para
solucionar este inconveniente se puede convertir el resultado negativo siempre en
cero o aplicar una función de normalización, así:

255 + aij — bij


Cij = _________________
2

Sean A y B dos bandas diferentes de la misma área, la operación de sustracción A


— B está definida como la diferencia normalizada entre cada uno de los valores de
píxel de A respecto de B.

5.1.3 Producto

Sean A y B dos bandas diferentes de la misma área, la operación de multiplicación


o producto entre A y B queda almacenada en C, y está definida como:

aij x bij
Cij = ------------
255

Debido a que el resultado esta acotado por

1/255 < Cij < 255

Se debe aplicar una función de normalización para estar seguro de que el valor
resultante de la operación esté entre 0 y 255.

Para ello se divide el intervalo de valores en dos así:


El primero, entra 1/255 y 1

El segundo, entre 1 y 255

Si un valor Cij está en el primer intervalo, se transforma a un valor entre 1 y 128,


mientras si se encuentra en el segundo intervalo transforma a una escala entre
128 y 255.

Así para 1/255 <= Cij <= 1 ==> Cij = Ent[(Cij x 127)+ 1]

para 1 <= Cij <= 1/255 => Cij = Ent[(Cij/2)+l28]

5.1.4 División o proporción

Es un proceso que consiste en obtener una imagen resultante de la división de los


valores de los píxeles en una banda por los correspondientes valores en otra
banda.

Sean A y B dos bandas diferentes de la misma zona, la división o proporción de


banda A con banda B es almacenada en C, y esta definida como sigue:

aij
Cii = ---------
bij

Cuando el valor bij = 0, se aproxima a 0.1, para solucionar el problema de la


división por cero.

Se presenta un caso similar al que ocurre con el producto, es decir que •1/255 <
Cij < 255, por lo tanto, se debe aplicar al resultado una función de normalización
idéntica al caso visto en el producto.

Este tipo de proceso mejora las características radiométricas de la imagen, al no


tener en cuenta las variaciones en las condiciones de iluminación (Topografía,
sombras).

5.1.5 Índice de Vegetación

El índice de vegetiacj6n es un ejemplo de operación entre bandas donde se


establece la probabilidad de encontrar diferentes tipos de cobertura vegetal,
dependiendo de factores tales como: la biomasa, el contenido de clorofila, la
productividad, el área de la hoja y porcentaje de cobertura del suelo.

Para el cálculo del índice de vegetación se aprovecha la diferencia significativa de


la respuesta espectral de la vegetación en una banda del infrarrojo y en una del
visible, debido a que es mucho mayor en las bandas del infrarrojo y menor en las
del visible, lo que permite ver que si en una zona de la imagen existe vegetación,
esto se va a ver reflejado en un índice alto, debido a la ecuación que define el
índice de vegetación:

Sea A una banda del infrarrojo de m filas por n columnas

Sea B una banda del visible de m filas por n columnas

Sea C la matriz resultante del cálculo del índice de vegetación

aij — bij
c ij = ----------------
aij + bij

El resultado de esta operación está entre -1 y 1, para poder observar la matriz de


los Cij es necesario escalizarlos entre O y 255, para ello es necesario recurrir a
una operación de normalización, que para el caso sería:

aij — bij
C ij = -------------- * 127 + 127
aij + bij

Así una vez aplicado este índice de vegetación normalizado, los valores de los Cij
altos estarán indicando mayor probabilidad de existencia de cobertura vegetal.

5.2 COMPOSICION EN COLOR

Los monitores de los computadores despliegan los colores basados solamente en


tres colores primarios el rojo, verde y azul, con los cuales construye otra serie de
colores, que dependen del porcentaje que aporte cada uno de ellos. Dependiendo
de la profundidad del monitor (número de bits que maneja) es posible desplegar
cierto número de colores, así para un monitor con una profundidad de 8 bits es
posible obtener 256 combinaciones diferentes (2^8=256).

La composición en color es un proceso mediante el cual se crea una nueva


imagen basado en la combinación de 3 bandas, aportando cada una de ellas un
porcentaje de color primario que depende del valor del píxel, así por ejemplo:

El valor del píxel ij en banda 1 es: 57 (57/2550.22)

El valor del píxel ij en banda 2 es: 54 (54/255=0.21)

El valor del píxel ij en banda 3 es: 146 (146/255=0.57)

Si el aporte de la banda 1 va estar representado por el color Rojo, el de banda 2


por el verde y el de banda 3 por el azul, esto significa que en la composición a
color, habrá una contribución aproximada de un 22% de rojo, un 21% de verde y
un 57% de azul. Con base en una tabla de color preestablecida se asigna un
nuevo valor de píxel a la imagen resultante.

Las posibles combinaciones que se pueden obtener con tres bandas, si en cada
una existen 256 estados son l6’700.000, cuando se utiliza un monitor que no
alcanza a desplegar tal cantidad se debe recurrir a agrupar ciertas combinaciones.

En general este proceso se conoce como composición en falso color debido a que
el resultado difiere de los colores naturales, ya sea porque el monitor no alcanza el
número de colores, o porque no hay una correspondencia entre el rango de
frecuencias de la banda asignada y el color que está representando su aporte.

Así por ejemplo una aproximación a una composición en verdadero color estaría
dada cuando el aporte de cada banda se represente en el mismo color, en el caso
de una imagen Landsat TM a la banda 1 que se encuentra en el rango del azul, su
aporte se represente en color azul, a la banda 2 se le asigne el color verde y a la
banda 3 el color rojo.

5.3 ANALISIS EN COMPONENTES PRINCIPALES

También denominado factor KL o Transformador Karhunen-Locue. Tiene un


significado especial en el análisis de datos de Sensores Remotos. La
transformación de los datos usando CP puede resaltar imágenes en una nueva
componente principal que a menudo son fáciles de interpretar que los datos
originales. También el análisis en CP puede ser usado para comprimir el contenido
de la información en dos bandas de la imagen. Así por ejemplo, de siete bandas
del mapeador temático, es posible comprimirlas a 2 o 3 imágenes de componente
principal.

Para ejecutar la descomposición en CP, se aplica una transformación al conjunto


de datos correlacionados, es decir eliminando la redundancia de información y
correlación entre bandas, se consigue la reducción en la dimensionalidad de la
imagen multiespectral.

La posición de un píxel en un espacio multiespectral puede ser descrita por


vectores cuyos componentes son respuestas espectrales en cada banda.
Estrictamente, estos son vectores dibujados desde el origen hasta el punto del
píxel, pero su concepto no es usado explícitamente. Cada píxel está descrito por
un vector X donde X es el valor del píxel en la banda i. La posición media de los
píxeles en el espacio está definida por la media aritmética.

El objetivo de usar el análisis en CP es trasladar o rotar el origen de los ejes, así


que los valores de brillo sobre los ejes X y X son redistribuidos en un nuevo
conjunto de ejes o dimensiones X y X

6. CLASIFICACION DE IMÁGENES MULTIESPECTRALES

Es posible analizar datos captados por sensores remotos de la tierra y extraer


información temática útil. Uno de los métodos más utilizados para la extracción de
información es la Clasificación Multiespectral. Este procedimiento asume que la
imagen de un área geográfica específica es agrupada en múltiples regiones del
espectro electromagnético y que están registradas en las imágenes.

La clasificación multiespectral es un concepto del procesamiento digital de


imágenes que contempla los procedimientos mediante-los cuales un computador
puede agrupar los píxeles de una imagen de acuerdo a categorías o clases dentro
de un espacio multiespectral. Este proceso incluye la determinación de un criterio
de decisión que pueda usar un computador para asignar a un objeto determinado
una clase específica con base en-reglas de clasificación.

Existen dos enfoques principales para la determinación de las características


espectrales de todos los tipos de cobertura del terreno en los cuales se clasifican
los datos y estos son el método supervisado y el no supervisado.

6.1. CLASIFICACION SUPERVISADA.

Dentro de la clasificación supervisada la identidad y localización de algunos de los


tipos de cobertura tanto urbana, agrícola y forestal son conocidos a priori a través
de una combinación de trabajos de campo, análisis de fotografías aéreas, mapas y
experiencias personales. Los análisis previos para localizar sitios específicos en
los datos de sensores remotos, que representan ejemplos homogéneos de éstas,
son comúnmente conocidos como áreas de entrenamiento en razón de que las
características espectrales de estas áreas conocidas son utilizadas para “entrenar”
un algoritmo de clasificación. Los parámetros estadísticos multivariados (media,
desviación estándar, matriz de covarianza, matriz de correlación) son calculados
para cada sitio de entrenamiento, para luego evaluar cada píxel de la imagen,
compararlo y asignarlo a una respectiva clase.

Los principales aspectos que deben considerarse’ para orientar una clasificación
supervisada son:

1. Adoptar un esquema de clasificación ordenado.

2. Seleccionar áreas de entrenamiento representativas.

3. Extraer las estadísticas de los datos espectrales del área de entrenamiento.

4. Analizar las estadísticas para seleccionar los datos que ofrezcan mayores
ventajas (bandas) en el proceso de clasificación.

5. Seleccionar el algoritmo de clasificación adecuado.

6. Clasificar la imagen en n clases.

7. Evaluar estadísticamente la exactitud de la clasificación.


En este análisis se pueden utilizar mapas temáticos, fotografías aéreas, trabajos
de campo, experiencia previa, etc.

La clasificación de la escena depende del analista, los objetivos que se tengan,


Incluso de los sistemas políticos o burocráticos del medio. También influyen la
resolución del sensor, escala de la imagen y datos recolectados en campo.

6.1.1. SELECCION DE ALGORITMOS APROPIADOS PARA LA CLASIFICACION


SUPEPVISADA

Muchos algoritmos fueron propuestos para responder a la pregunta de cómo


asociar un punto desconocido con cada información de clase

Para escoger un algoritmo Particular o regla de decisión, se debe tener en cuenta


la naturaleza de los datos de entrada y lo que se desea obtener como resultado.
Los algoritmos de clasificación paramétricos asumen que las medidas de los
vectores observados Xc obtenidos para cada clase, en cada banda espectral en la
zona de entrenamiento de la clasificación supervisada son de naturaleza
Gaussiana (es decir, están normalmente distribuidos) Los algoritmos de
Clasificación no paramétricos no asumen esta situación. Esta es una regla para
revisar la lógica de algunos de los clasificadores.

Entre los clasificadores más frecuentemente usados están los de:


Paralelepípedo, distancia mínima y máxima verosimilitud.

6.1.1.1. Paralelepípedo

Este algoritmo requiere previamente establecer las zonas de entrenamiento y se


basa en la inspección de los histogramas de las zonas elegidas para ello.

De los histogramas en cada zona de entrenamiento se define un rango mediante


el valor máximo y mínimo de píxel en cada banda. Esto se representará como un
área rectangular en un diagrama de dos canales (si estamos trabajando con dos
bandas). Figura 6.1.
Bz

V min . . .V B Bi
max i

Bi

V min . . .V max Bz B
z
Figura 6.1

La figura 6.1 indica el método para una clase determinada (ej. bosques). Al repetir
el método para otras clases (ej. agua, arenas, etc.) se obtendrá una figura con las
características siguientes: Figura 6.2

De este modo, un píxel desconocido es Clasificado de acuerdo a la categoría de


los rangos espectrales o región de decisión en la cual se encuentra.

Si se trabaja con más de dos bandas, los rangos en todos los componentes
describen una caja multidimensional o paralelepípedo. Si en la clasificación se
encuentra que un píxel cae dentro de ese paralelepípedo cualquiera, se lo designa
como perteneciente a esa clase.

El clasificador de paralelepípedo es muy rápido y eficiente y es empleado en


muchos sistemas de análisis de imágenes por la simplicidad para entrenar y
ejecutar. A pesar de ello, presenta los siguientes inconvenientes:

a. Pueden existir vacíos considerables entre los paralelepípedos y por ende los
píxeles no pueden ser clasificados en una región (ej. punto 3, Figura 6.2).
Figura 6.2

b. Puede existir sobreposición de paralelepípedos que tiene como consecuencia el


no poder discriminar a que clase pertenece el píxel analizado (ej. punto 4, Figura
6.2). En este caso se clasifica al píxel como “no seguro” o se lo asigna
arbitrariamente una de las clases superpuestas.

6.1.1.2. Distancia Mínima a la Media


La figura 6.3 ilustra una de las más simples clasificaciones. En esta es necesario
que el usuario provea el valor del vector medio para cada clase y par cada banda
e función del área de entrenamiento

El medio de la categoría se señala "+" en la Figura 6.3. Un píxel de identidad


desconocida puede ser clasificado computando la distancia entre e]. valor del píxel
y el valor medio de cada un de las zonas. Luego se asigna el píxel a la zona cuya
distancia sea menor al valor medio. En la Figura 6.4 se observa el método
aplicado a dos bandas para obtención de la distancia D entre el valor medio de
una zona de entrenamiento y un punto desconocido. En ese caso, la fórmula a
utilizar es euclidiana.

Si Son evaluadas más de una banda, en la clasificación (n bandas), la ecuación


euclidiana que se utiliza es:
Si el píxel se encuentra a una distancia mayor que una determinada “a priori” por
el analista de la imagen, se interpretará como clase “desconocida”.

Este método es matemáticamente simple y computacionalmente eficaz pero posee


graves limitaciones. La principal de ellas se ilustra en el punto 2 de la Figura 6.3,
donde por distancia, el punto pertenece a la clase U.

Figura 6.4

6.1.1.3. Máxima Verosimilitud

El clasificador de máxima verosimilitud evalúa cuantitativamente la varianza y


correlación de la respuesta espectral del patrón de la muestra de entrenamiento
cuando clasifica un píxel desconocido Para realizar esto se asume que la
distribución de los puntos de una categoría de una zona de entrenamiento es
Gaussiana (es decir, que su distribución es normal). Esto es razonable
generalmente para distribuciones espectrales de clases de entrenamiento
comunes. En consecuencia, la misma puede ser descrita por medio del vector
promedio y la materia de parámetros de covarianza. Lo siguiente describe la
varianza y la correlación, también llamada aproximación paramétrica. Dado estos
parámetros se computa la probabilidad estadística de que un valor de píxel dado
pertenezca a una clase particular: de cobertura. La Figura 6.5 muestra los valores
probables ploteados en un gráfico, de tres dimensiones

El eje vertical es asociado con la probabilidad de un píxel de ser un miembro de


una de las clases. Las superficies resultantes, con formas de campanas, son
llamadas funciones de probabilidad de densidad. Luego de evaluar la probabilidad
en cada una de las categorías, el píxel debe ser asignado a la clase que más se
asemeja o designado como desconocido cuando los valores de probabilidad sean
todos menores a un límite que designe el analista.

En esencia, el clasificador de máxima verosimilitud delinea contornos elipsoidales


de equiprobabilidad en el diagrama.

Estas regiones de decisión se muestran en la Figura 6.6. La forma de los


contornos de equiprobabilidad expresan la sensibilidad del clasificador de
verosimilitud a la correlación. Por ejemplo, dada sensitividad podría verse que el
píxel 1 sea asignado apropiadamente a la categoría C.
Figura 6.6

El principal inconveniente del clasificador: de máxima verosimilitud es el gran


número de cómputos que se requieren para clasificar cada píxel. Esta complejidad
hace que el proceso de clasificación sea lento y más costoso que las técnicas más
sencillas. Mientras más costosa sea la técnica de clasificación de máxima
verosimilitud, es generalmente de mayor exactitud.

Intuitivamente pareciera que cuando se utiliza un mayor número de bandas en un


clasificador de máxima verosimilitud, el resultado de la clasificación es mejor. Pero
generalmente, hay un número óptimo relativamente pequeño que se utiliza. Pues
al aumentarse el número de bandas, el tiempo computacional requerido dada la
gran cantidad de cálculos involucrados, aumenta y también porque el contenido de
la información puede estar contaminada por información insignificante en otras
bandas. Este problema es particularmente crítico, cuando se utilizan un número
grande de bandas espectrales correlacionadas. Se ha encontrado en algunos
casos que la exactitud del clasificador de máxima verosimilitud comienza a decaer
cuando se utilizan más de cuatro o cinco bandas espectrales. Cuando se analizan
imágenes que consisten de muchas bandas espectrales, es beneficioso el
considerar un subconjunto de las bandas más representativas. La decisión sobre
cual de las bandas se debe utilizar se basa en un proceso llamado selección de
rasgos o características. En este proceso se evalúan muchos subconjuntos de
bandas para así determinar cual combinación es más útil para discriminar las
categorías de intereses y el análisis de in clasificación se limita a ese conjunto de
bandas.

6.2. CLASIFICACION NO SUPERVISADA.

En este método los tipos de cobertura no se conocen bien porque falta trabajo de
campo o porque las características espectrales de la superficie no están
claramente definidas en la imagen. El computador es orientado para que agrupe
(cluster) los píxeles en diferentes clases de acuerdo con un cierto criterio
estadístico.

En este enfoque los parámetros estadísticos que determinan las clases de


entrenamiento se determina mediante la selección de campos heterogéneos que
contienen tantas relaciones espectrales diferentes como sean posibles y entonces
se usa un algoritmo aglutinante para agrupar automáticamente los píxeles de
características espectrales similares en un número de clases de grupos
separables espectralmente. No se requiere conocer a priori la identidad del
agrupamiento (entrenamiento) y quizás una de las características más importantes
de este método es que no solo determina los tipos de cobertura pura del terreno,
en una zona, sino también las clases mezcladas que se presentan usualmente en
un grupo de datos Landsat. Por consiguiente, se obtiene una representación más
cercana de los agrupamientos espectrales naturales de una zona mediante el
enfoque no supervisado.

Aún cuando la clasificación multiespectral real de datos de sensores remotos


involucra un gran número de operaciones, los conceptos fundamentales y los
pasos esenciales se pueden considerar en:

a. Presentación pictórica de los datos sin analizar.

Como los datos se graban usualmente en una cinta magnética el primer paso de
una clasificación multiespectral involucra la representación de estos datos en una
forma pictórica para su inspección visual. Esto se puede lograr mediante el uso de
un monitor a color o de una impresora.

Los datos en forma pictórica se usan entre otros objetivos para:

- Valorar la calidad de los datos

- Determinar la cantidad y distribución de nubes

- Delinear las áreas de interés para estudio detallado (seleccionar ventanas)

- Seleccionar muestras representativas dentro de un área de interés para


determinar las clases espectrales (áreas de entrenamiento) que se usarán en el
entrenamiento del clasificador.

La parte más importante y crítica en este paso es la de asegurarse que todos los
objetos posibles que se encuentran en la zona están debidamente representados
en la muestra, para entrenamiento.

b. Definición de las clases espectrales (entrenamiento)

El proceso de instruir al computador cómo y en qué circunstancias tomar ciertas


decisiones se conoce como “entrenamiento”.

En el caso particular de la clasificación de datos multiespectrales percibidos


remotamente, al computador debe proporcionársele las características de un
número de clases espectrales que le permita decidir si un píxel se debe clasificar
en una de las clases de adiestramiento.
En la práctica las características espectrales de los tipos de cobertura terrestre, se
determinan usualmente mediante simples parámetros estadísticos, como las
medianas y covarianzas de distribuciones normales de la firma espectral de cada
una de las clases de adiestramiento.

La figura 6.7 muestra un histograma bidimensional (bandas 2 y 3 del Landsat


MSS) de un gran número de píxeles que corresponden a 3 tipos básicos de
cobertura y los cuales se agrupan entre ellos. El algoritmo de agrupamiento ubica
estos grupos y computa sus parámetros estadísticos característicos que luego se
usan, para entrenar el computador.

Figura 6.7. Agrupamiento de formas espectrales del agua, suelos y vegetación

c. Clasificación en toda el área de estudio.


En este caso el clasificador implementado por el computador hace prácticamente
el trabajo. En esta etapa los parámetros estadísticos determinan las
características espectrales de las clases que se usaron en el entrenamiento y
entonces efectúa la clasificación de toda el área de estudio.

El clasificador es un algoritmo que toma decisiones y que puede ser entrenado


para asignarle a cada píxel una clase determinada. Existen varias clases de
clasificadores que difieren unos de otros en cuanto al tipo de decisión o regla de
clasificación usada (Bartolucci, 1979). Se pueden mencionar el clasificador de
probabilidad máxima por punto, clasificador de la distancia mínima, clasificador de
cascada, paralelepípedo, clasificador de extracción y clasificación de objetos
homogéneos, clasificador de niveles, el del vecino más cercano, etc.

d. Representación pictórica y tabular de la clasificación.

Al terminar la clasificación multiespectral los resultados se pueden presentar e


distintos formatos de acuerdo con las necesidades y especificaciones del usuario.
Existen tres tipos principales de formatos:

- Productos gráficos.

- Tablas estadísticas.

- Archivos de datos digitales.

e. Evaluación de los resultados de la clasificación.

Para que una clasificación multiespectral sea de utilidad práctica es necesario


determinar su exactitud y confiabilidad Usando el análisis numérico es posible
evaluar cuantitativamente el grado de exactitud de una clasificación multiespectral.

Anda mungkin juga menyukai