Anda di halaman 1dari 4

1. Distinguir entre datos primarios y secundarios y dar ejemplos de cada uno.

¿En qué circunstancias es difícil mantener esta


distinción?

Las fuentes primarias se capturan específicamente para su uso en SIG mediante medición directa, son aquellas recopiladas en formato
digital. Los ejemplos típicos de fuentes GIS primarias incluyen imágenes satelitales raster SPOT e IKONOS Earth, y mediciones vectoriales
de levantamiento topográfico captadas utilizando una estación topográfica total.

Las fuentes secundarias son aquellas reutilizadas de estudios anteriores u obtenidos de otros sistemas, son conjuntos de datos digitales
y analógicos que fueron originalmente capturados para otro propósito y necesitan ser convertidos a un formato digital adecuado para su
uso en un proyecto GIS. Las fuentes secundarias típicas incluyen fotografías aéreas a color escaneadas por trama de áreas urbanas y
mapas en papel del USGS o IGN que pueden escanearse y vectorizarse.

Cuando se realiza cualquier tarea encaminada a utilizar y combinar una gran cantidad de datos dispares con el fin de producir una serie de
mapas que servirán para un objetivo bastante específico, se tropieza invariablemente con muchas limitaciones que hay que tener en cuenta
a la hora de interpretar los resultados. Por ejemplo:

 Los factores relacionados con la escala: las fuentes de datos estarán en distintas escalas y la escala óptima para el trabajo varía
de caso en caso.
 El grado de detalle: todas las fuentes de información presentarán diferentes grados de detalle, de precisión y de generalización y
estarán basadas en ciertas simplificaciones.
 Las diferencias de fecha: rara vez sucede que las combinaciones de datos tengan una misma fecha, por lo que los aspectos en
estudio “caducarán” a ritmos diferentes.
 El grado de aplicabilidad: muchos datos habrán sido reunidos específicamente para los mapas en cuestión; otros serán datos
sustitutivos, es decir, representarán la mejor información disponible.
 La disponibilidad: los datos varían mucho en cuanto al costo, el nivel de difusión (la medida en que se conocen) y la facilidad
para adquirirlos.

2. ¿Por qué el mantenimiento de los datos suele ser una actividad mucho más difícil y costosa que la recogida inicial de datos?

A lo largo del desarrollo de un proyecto GIS, se empieza inicialmente por la recopilación de datos, mediante una captura ya sea de carácter
primaria o secundaria, o trasferencia de datos. La disponibilidad y accesibilidad a diversas fuentes de datos geográficos al igual que
métodos necesarios en su incorporación en un SIG, facilita su ejecución a pesar del tiempo que puede tomar la organización de datos, una
vez concluida dicha actividad, el enfoque se centra en el mantenimiento de los datos cuya dificultad radica en la elevada densidad de
actualizaciones periódicas que deben ser efectuadas en los elementos constituyentes del sistema (Cambios demográficos o de propiedad,
extensión en la cobertura vial y de servicios básicos o actividades operativas militares), y también en la necesidad de gestionar el acceso
multiusuario a las bases de datos operacionales, demandando así más tiempo y dinero debido a la naturaleza dinámica de los datos.

3. ¿Qué entiende usted por los términos sistemas de sensores de satélite "activos" y "pasivos" y cuáles son las ventajas relativas
de cada uno, cómo influyen las ventanas atmosféricas?

Un sensor activo es un instrumento que emite energía y detecta la radiación reflejada desde la superficie de la Tierra o desde otro objetivo.
Los sensores activos funcionan enviando una señal y esperando que esa señal regrese; basándose en la respuesta que recibe, puede
determinar las características de un área de enfoque particular. Se usa en diversas aplicaciones relacionadas con la meteorología y la
atmósfera, como el radar para medir los ecos de ciertos objetos (por ejemplo, las nubes de lluvia), el LIDAR para capturar valores de
elevación detallados de la superficie y el sonar para medir la profundidad del fondo marino.

Un sensor pasivo captura la energía reflejada o emitida desde la escena que visualiza. La luz solar reflejada es la fuente más común de
energía electromagnética medida por los sensores pasivos. Estos sensores permiten obtener observaciones globales de la Tierra y de la
atmósfera. Los sensores pasivos detectan la energía electromagnética que ya está presente en la zona de enfoque (no emitida por el propio
sensor) y mide la energía emitida por el objeto supervisado, por ejemplo, una cámara estándar.
Hay componentes atmosféricos como el vapor de agua, el dióxido de carbono, etc. Esto bloqueará el paso de la radiación a ciertas
longitudes de onda, que provienen de los objetos de la superficie de la tierra. Después de la reflexión, la energía radiante debe alcanzar el
sensor, pero en lo que respecta a la atmósfera, ciertas regiones son opacas donde la radiación no pasa. En lo que respecta a la atmósfera,
esta región es transparente. Aparte de eso, sabemos que cuando la radiación va a la atmósfera se dispersa. Se producen múltiples reflejos
debido a las partículas de polvo o aerosoles en la atmósfera. Por lo tanto, la radiación de retorno en lugar de alcanzar el sensor se reflejará
en alguna otra dirección y tenemos que corregirla.

4. Describa los pasos necesarios en un flujo de trabajo para la digitalización manual utilizando un digitalizador semiautomático.
¿Cómo y por qué este proceso introduce “error” en la base de datos?

La utilización de un digitalizador semiautomático consiste en la grabación automática de trazos mientras se hace un seguimiento manual
de las líneas, a pesar de ser más rápida y precisa que la digitalización convencional (mano a mano), su carácter manual la convierte en
una práctica tediosa y comúnmente propensa a errores humanos de medición, como cuando el operador no posiciona correctamente el
cursor o no logra registrar segmentos de línea. Muchos de estos errores en la digitalización pueden tratarse mediante un adecuado diseño
del software, y las formas sencillas de hacerlo incluyen la identificación de errores geométricos (como polígonos que no se cierran o líneas
que no se cruzan).

5. Está obligado a fusionar en su base de datos SIG datos cartográficos digitales con algunas imágenes de satélite. ¿Cuáles son
los pasos necesarios en este proceso y las fuentes probables de dificultad?

Las imágenes son uno de los elementos base de los Sistemas de Información Geográfica, y su análisis y tratamiento es una pieza clave
dentro de los procesos que pueden llevarse a cabo en estos. Estos procesos incluyen ideas propias del análisis de imágenes digitales, en
las que no se considera la naturaleza particular de las imágenes que se usan en un SIG, así como otras en las que sí se considera de forma
directa la componente espacial y el significado físico de los valores que se recogen en cada píxel.

El tratamiento de las imágenes debe comenzar con la preparación y corrección de estas, eliminando los efectos no deseados que los
aparatos de registro o la propia atmósfera, entre otros factores, hayan podido introducir en dichas imágenes.

La imagen corregida puede ser mejorada mediante algoritmos que hagan más patente la información en ella contenida, realzando esta tanto
de cara a su mero análisis visual como para su posterior análisis mediante otras formulaciones específicas para el análisis de imágenes
aéreas y de satélite. Estas otras formulaciones permiten obtener, entre otros resultados, caracterizaciones de elementos del medio como
el suelo, la vegetación o el agua.

Los datos de la imagen almacenados en un archivo secuencial tienen información del encabezado, que define toda la imagen al proporcionar
información como la fecha y hora, el número de órbita, etc., y cualquier proceso que se haya aplicado a los datos seguido del primer
escaneo línea de la imagen. Esto se intercala con la calibración del sensor y otros datos de limpieza.

Requisitos del procesamiento de imágenes

1. Hardware: un sistema informático estándar que tiene una gran capacidad de almacenamiento de datos con medios de lectura de
datos, como unidades para CD, DVD, cintas compatibles con computadora (CCT), una unidad de visualización (monitor estándar)
y unidad de salida.
2. Software: el software de procesamiento de imágenes puede ser cualquiera entre ERDAS IMAGINE, ENVI, IDRISI, etc.
3. Preprocesamiento de datos: este es un grupo de procedimientos para rectificar los datos de entrada sin procesar, como la
corrección de distorsiones geométricas y radiométricas. Las operaciones de preprocesamiento, a veces denominadas
restauración y rectificación de imágenes, están destinadas a corregir las distorsiones de datos geométricas y radiométricas
específicas de la plataforma y del sensor.
4. Procesamiento geométrico: las distorsiones geométricas ocurren debido al movimiento de la nave espacial (balanceo y cabeceo),
rotación de la tierra, curvatura, etc. La forma más simple de procesamiento geométrico se logra mediante un muestreo selectivo
para cambiar la forma o el tamaño de una imagen.
6. ¿Cuáles son las dificultades para traducir entre diferentes formatos de datos, y qué soluciones de software se han sugerido?

Las dificultades surgen porque los datos obtenidos de fuentes externas pueden estar codificados en varios formatos de datos geográficos
diferentes, ya que ningún formato único es apropiado para todas las tareas y aplicaciones requeridas. La solución sugerida ha sido
desarrollar un software que sea capaz de traducir datos, ya sea por lectura directa en la memoria, o por medio de un formato de archivo
intermedio. En este último caso, los desarrolladores de software han creado interfaces abiertas para permitir el acceso a los datos. Y vale
mencionar que más de 25 organizaciones están involucradas en la estandarización de varios aspectos de los datos geográficos y el
geoprocesamiento; varios de ellos específicos del por país y dominio.

7. A menudo se sugiere que en las imágenes de satélite hay un trade off entre la resolución espacial, espectral y temporal.
Esbozar e ilustrar lo que se entiende por estas propiedades. ¿En qué medida los datos de la Tabla 9.2 apoyan esta idea?

Desde la perspectiva de GIS, la resolución es una característica física clave de los sistemas de teledetección. La resolución tiene tres
aspectos: espacial, espectral y temporal. Todos los sensores necesitan intercambiar propiedades espaciales, espectrales y temporales
debido a consideraciones de almacenamiento, procesamiento y ancho de banda.

La resolución espacial se refiere al tamaño del objeto que se puede resolver y la medida más habitual es el tamaño del píxel.

La resolución espectral se refiere a las partes del espectro electromagnético que se miden. Dado que diferentes objetos emiten y reflejan
diferentes tipos y cantidades de radiación, la selección de qué parte del espectro electromagnético medir es crítica para cada área de
aplicación.

La resolución temporal o ciclo de repetición describe la frecuencia con la que se recogen las imágenes para la misma área. En esencia,
hay dos tipos de satélites de teledetección comerciales: la órbita terrestre y la geoestacionaria.

La Tabla 9.2 muestra un desglose de costos (en $ 1000) para dos implementaciones GIS cliente-servidor típicas: una con 10 seats
(sistemas) y la otra con 100.

 Los costos de hardware incluyen solo clientes y servidores de escritorio (es decir, no infraestructura de red).
 Los costos de los datos suponen la compra de una base terrestre (por ejemplo, calles, parcelas y marcas) y la digitalización de
activos tales como tuberías y accesorios (agua), conductores y dispositivos (electricidad), o parcelas de tierra y propiedad
(gobierno local).
 Los costos de personal suponen que todo el personal central de SIG será de tiempo completo, pero que los usuarios serán a
tiempo parcial.

En los primeros días del SIG, cuando los datos geográficos eran muy escasos, la recolección de datos era la tarea principal del proyecto
y, por lo general, consumía la mayoría de los recursos disponibles. Incluso hoy en día, la recopilación de datos sigue siendo un proceso
lento, tedioso y costoso. Por lo general, representa el 15-50% del costo total de un proyecto GIS (Tabla 9.2).

De hecho, los costos de captura de datos pueden ser mucho más significativos porque en muchas organizaciones (especialmente aquellas
financiadas por el gobierno) a menudo se supone que los costos de personal son fijos y no se utilizan en la contabilidad del presupuesto.
Si los costos de personal se excluyen de un presupuesto de GIS, entonces, en términos de gastos en efectivo, la recopilación de datos
puede representar hasta 60-85% de los costos. Los costos de captura de datos pueden representar hasta el 85% del costo de un SIG.

8. Describir las diversas formas en que se puede introducir el “error”', definido como la diferencia entre la realidad y nuestra
representación, en el proceso de recopilación de datos e integración en un SIG.

En la Figura 9.9 se presentan algunos ejemplos de errores humanos que comúnmente se introducen en el procedimiento de digitalización.
Ellos son: “undershoots” y “overshoots” en los que las intersecciones de líneas son inexactas (Figura 9.9A); polígonos inválidos que son
topológicamente inconsistentes debido a la omisión de uno o más líneas u omisión de datos de etiquetas (Figura 9.9B); y polígonos
rasgados, en los que la digitalización múltiple del límite común entre polígonos adyacentes conduce a la creación de polígonos adicionales
o vacíos (Figura 9.9C).
9. Discuta sobre los cuatro tipos de resolución e indique como se accede a esa información en un SIG.

Se denomina resolución de un sistema sensor a la capacidad de registrar, discriminando información en detalle. La resolución de un sensor
depende del efecto combinado de todas sus partes. El concepto de resolución implica al menos cuatro manifestaciones:

1. Resolución espacial: Este concepto designa al objeto más pequeño que se puede distinguir en la imagen. Está determinada por
el tamaño del píxel, medido en metros sobre el terreno, esto depende de la altura del sensor con respecto a la Tierra, el ángulo de
visión, la velocidad de escaneado y las características ópticas del sensor. Por ejemplo, las imágenes Landsat TM, tienen una
resolución espacial de 30x30 m en las bandas 1,2,3,4, 5 y 7 y de 120x120m en la 6 (térmica). El sensor SPOT - HRV tiene una
resolución de 10x10m, mientras que los satélites meteorológicos como NOAA, el píxel representa un tamaño desde 500 a 1100m
de lado.
2. Resolución espectral: Consiste en el número de canales espectrales (y su ancho de banda) que es capaz de captar un sensor.
Por ejemplo, SPOT tiene una resolución espectral de 3, Landsat de 7. Los nuevos sensores, llamados también espectrómetros o
hiperespectrales llegan a tener hasta 256 canales con un ancho de banda muy estrecho (unos pocos nm) para poder separar de
forma precisa distintos objetos por su comportamiento espectral.
3. Resolución radiométrica: Se la llama a veces también resolución dinámica, y se refiere a la cantidad de niveles de gris en que
se divide la radiación recibida para ser almacenada y procesada posteriormente. Esto depende del conversor analógico digital
usado. Así por ejemplo Landsat MSS tiene una resolución espectral de 2 6= 64 niveles de gris en el canal 6, y Landsat MSS en
las bandas 4 a 7 de 27= 128 niveles de gris, mientras que en Landsat TM es de 28 = 256. Esto significa que tenemos una mejor
resolución dinámica en el TM y podemos distinguir mejor las pequeñas diferencias de radiación.
4. Resolución temporal: Es la frecuencia de paso del satélite por un mismo punto de la superficie terrestre. Es decir, cada cuanto
tiempo pasa el satélite por la misma zona de la Tierra. Este tipo de resolución depende básicamente de las características de la
órbita. El ciclo de repetición de los Landsat-1 al Landsat -3 era de 17 días. A partir del Landsat 4 en 1984 el ciclo de repetición
se redujo a 15 días. SPOT permite un ciclo de repetición de entre 3 y 26 días.

10. ¿Qué importancia tiene la identificación de imágenes en Geología, de un ejemplo?

Como se conoce la identificación de objetos se basa en la lectura de las signaturas espectrales, técnica que nos permite identificar las
características y propiedades de los elementos. En el campo de la geología es importante ya que la identificación de imágenes en base al
espectro electromagnético nos permite generar imágenes en blanco y negro, en color en la identificación de aureolas de alteración de
cuerpos mineralizado, fotografías en infrarrojo cercano en el estudio de zona de falla, milonitizacion y corrientes de agua o imágenes radar
en la discriminación de estructuras tectónicas en zonas de bruma o de alta cobertura.

11. ¿Qué es la clasificación de imágenes y cómo la usaría en Geología, de un ejemplo?

La clasificación de imagen hace referencia a la tarea de extraer clases de información de una imagen ráster multibanda. El ráster resultante
de la clasificación de imagen se puede utilizar para crear mapas temáticos. Dependiendo de la interacción entre el analista y el equipo
durante la clasificación, existen dos tipos de clasificación: supervisada y no supervisada. Por ejemplo, cuando estamos realizando un mapa
y tomamos imágenes con una resolución baja, podemos aplicar una operación de filtrado para suavizar la imagen y contrastarla con el
entorno.

Anda mungkin juga menyukai