Anda di halaman 1dari 23

I UNIDAD

1.- Definición de Quimiometría:

“La podemos definir como una rama de la Ciencias Químicas que aplica los métodos matemáticos y estadísticos
a la solución de problemas químicos de todos los tipos” J . C. Miller y otros. Texto “Estadística para la química
analítica” 2º edición Addison Wesley Iberoaméricana.

Los intentos para definir la quimiometría han sido numerosos. Siebert [10] ha proporcionado recientemente una
definición sugerente: "La quimiometría es la aplicación de métodos matemáticos y estadísticos así como de los
principios de la buena ciencia de la medida para extraer de forma eficiente información útil de datos químicos”.

Los autores Guillermo Ramis Ramos y Mª Cecilia García en su libro “Quimiometría” de Edit. Síntesis dicen que:
“En 1975, The Cheometrics Society definió la Quimiometría como la disciplina química que utiliza los métodos
matemáticos y estadísticos para diseñar o seleccionar procedimientos de medida y experimentos óptimos, y
para proporcionar la máxima información química mediante el análisis de datos químicos”.

D. L. Massart define A LA QUIMIOMETRÍA como la disciplina química que utiliza la Matemática, la Estadística y
la Lógica Formal para diseñar o seleccionar procedimientos experimentales óptimos, proporcionar la máxima
información química relevante a partir del análisis de datos químicos,, y obtener conocimiento a partir de
sistemas químicos. (1997).

Esta última definición, respecto de la primera , añade el uso de la lógica formal , base de la inteligencia artificial,
y matiza dos hechos: que la información buscada sea relevante, y que la información sobre el sistema químico
debe transformarse en conocimiento global sobre el problema en estudio.

La Quimiometría mejora el rendimiento del proceso analítico en todas sus etapas, y asegura la calidad de los
resultados. Siguiendo el esquema o diagrama de flujo que se presenta a continuación, en las etapas de toma de
muestra y diseño de los experimentos se pretende conseguir datos de una determinada calidad con un mínimo
de esfuerzo experimental. Una vez obtenidos los datos, el tratamiento de los mismos permite:

1. Aumentar la calidad de los resultados,


2. Facilitar su interpretación,
3. Dar a las conclusiones obtenidas, mayor rigor y mejor fundamentación,
4. Mejorar u optimizar la toma de decisiones

La Quimiometría genera valor agregado en dos sentidos:

• Permite diseñar y realizar experimentos más eficaces, y extraer más información a partir de los
datos (concepto de eficiencia).
• Potencia la incorporación del químico, y en general, del profesional del laboratorio, a la cadena de
control de proceso productivo. Es de esta forma en que dicho profesional deja de ser un mero productor
de datos, y se convierte en alguien que genera, interpreta y comunica información de calidad para la
toma de decisiones.

1
La Quimiometría se puede considerar como una rama aplicada y especializada de laQuímica Analítica y de la
Estadística, con una función análoga a la que desempeñan disciplinas tales como: Biometría, Sociometría,
Econometría o Psicometría en relación a la Biología, Sociología, Economía o Psicología, entre otras. Las
diferencias entre estas disciplinas metrológicas y la Quimiometría son debidas a las particulares características
de los datos de origen químico:

 El ilimitado número de factores o gran cantidad de factores (concentraciones, pH, fuerza iónica,
presencia o ausencia de luz, etc.) que pueden influir sobre los resultados.

 La posibilidad de control de la mayoría de dichos factores por parte del experimentador. Puesto que los
factores son escasos, y en su mayoría controlables, hace que sea relativamente más fácil repetir los
experimentos en las condiciones de trabajo deseadas.

 La incertidumbre relativamente pequeña (entre un 0,3% y un 3%) que afecta a la mayoría de las medidas
analíticas.

En las otras disciplinas nombradas anteriormente, en general se tienen muchos más factores, de los cuales una
importante cantidad no son controlables, lo cual hace que los experimentos sean imposible o más difíciles de
repetir bajo las mismas condiciones.

Desde una perspectiva histórica la Quimiometría es una disciplina que como rama de la Estadística Aplicada
comienza a desarrollarse de forma independiente más o menos partir del año 1969, con los trabajos Jurs,
Kowalski e Isenhour. Años después aparecen las primera revistas especializadas de Investigación en
Quimiometría: Chemometrics and Inteligent Laboratory Systems (1969) y Journal of Chemometrics (1987).

El desarrollo de la Quimiometría fue tardío debido a la lenta evolución de la instrumentación científica. En la


primera mitad del siglo XX ( 1900 – 1950) esa difícil y caro (costoso) obtener, tratar y almacenar datos químicos
– analíticos. Se disponía de pocos datos, y su examen directo permitía al analista extraer toda la información
significativa.

Esta situación comenzó a cambiar hacia el año 1960, debido al fuerte impulso que experimentó el desarrollo de
nueva instrumentación.

Sin embargo, en la década del 1960 – 1970, la recopilación de los datos y su tratamiento manual con algoritmos
matemáticos eran procesos lentos y tediosos. Por ejemplo ajuste de modelos matemáticos que reprodujeran el
comportamiento y tendencias de los datos. Debido a esto es que los algoritmos con cierta complejidad de
cálculo no tuvieron interés práctico hasta el desarrollo y popularización de las calculadoras electrónicas hacia el
año 1975.

Por otra parte, es posible que la idea de que los datos químicos generados por los nuevos instrumentos podrían
transformarse en información significativa mediante la aplicación de metodologías y técnicas estadísticas en
información significativa estaba poco extendida o divulgada. Como observó C. F. Bender, “durante años, los
científicos experimentalistas han llenado de datos sus cuadernos de laboratorio, y a menudo los han desechado
o utilizado muy poco, por no saber usar técnicas de análisis de datos o por falta de técnicas de interpretación
adecuadas” (1973).

El impulso definitivo de la Quimiometría, así como también de otras ciencias o disciplinas


científicas, fue debido a la popularización del uso y acceso a microcomputadores cada vez más
eficientes y poderosos, y su incorporación a los instrumentos de medición científica, a fines de la
década 1980 – 1990. También ayuda a este impulso, que los comités editores de revistas científicas
de corriente principal e indexadas, exigen a los autores de la publicación el uso riguroso de
métodos estadísticos.

También ayuda a este impulso, que los comités editores de revistas científicas de corriente principal e
indexadas, exigen a los autores de la publicación el uso riguroso de métodos estadísticos para dar validez
a sus conclusiones.

1.2.1. Máquinas y programas utilizados en Quimiometría

En Quimiometría, los computadores mas utilizados, y en la gran mayoría de los casos es suficiente,
son los computadores personales (PC) o los Notebooks, pues ellos tienen memoria y velocidad más que
suficiente para manejar los datos (normalmente por debajo de unos cientos de miles) y realizar los cálculos
necesarios para aplicar las técnicas estadísticas más complejas. Las calculadoras científicas por lo general
traen incorporadas herramientas simples las cuales se pueden aplicar a unos pocos datos, ya sea de uno o
dos variables.

2
Los paquetes estadísticos de aplicación general más utilizados son:

• SAS (Estatistical Analysis System)


• STATISTICA
• S – PLUS
• STATGRAPHICS
• MINITAB

También hay paquetes en Quimiometría especialmente diseñados para el tratamiento de datos


químico-analíticos. Algunos de ellos son:

• The Unscrambler
• Pirouette
• Parvus

Estos programas no contemplan todo tipo de herramientas estadísticas, sino que concentran su
atención en las opciones o métodos más utilizada por los quimiometristas. Si bien es cierto se pierde el
enfoque general, las herramientas de mayor aplicación en Quimiometría se utilizan con mayor rapidez y
comodidad y los resultados se obtienen directamente en la forma esperada por el profesional del
laboratorio. También en algunos casos se incorporan herramientas estadísticas específicas, fruto de la
investigación en Quimiometría, y poco extendida entre otras especialidades de la estadística Aplicada.

Una excelente ayuda para la Quimiometría ha resultado la Planilla de Cálculo Excel, pues trae
algunas herramientas estadísticas básicas tales como el cálculo de medidas de resumen en una variable,
gráficos estadísticos para variables cualitativas y cuantitativas, análisis de regresión simple, análisis de
varianza, algunas distribuciones de probabilidad, etc.- Y sobre todo, es una excelente herramienta para
almacenar datos

2.- Definición de Estadística:


Podemos definirla como una ciencia que sustentada en el Método Científico y la Matemática se preocupa
de:

 Diseño y Planificación de la colecta de los datos


 Recolección de los datos
 Procesamiento de los datos
 Análisis e interpretación de los resultados o información
Con el objetivo de ayudar a tomar decisiones lo más acertadas posibles , teniendo como respaldo
el conocimiento obtenido de la "situación estudiada" a través de los datos.

La definición anterior es la que llevada a un ciclo permanente permite "la mejora continua" de toda
actividad humana.

Formar
Dato
Dato Base de Procesamiento Información Análisis
Datos

Implementar acciones:
Seguimiento Correctivas, Preventivas, Decisión
De mitigación, Monitoreo,
Mejora, etc.

De este contexto podemos desprender entonces que toda la Estructura y Beneficios que se esperan de la
Estadística descansa en los DATOS.

Esto nos sugiere que el mayor esfuerzo posible lo debemos focalizar en la preocupación de obtener
DATOS DE BUENA CALIDAD.

La fuente de obtención de los datos presenta una gama muy grande de posibilidades en este "
mundo cada vez más informatizado". Algunas de estas fuentes son:

3
 Las Estadísticas Vitales de los Países , registradas en lo que en Chile se llama "Registro Civil"
 Boletines de los distintos Ministerios de los Países , Instituciones.
 Institutos Nacionales de Estadísticas.
 Encuestas - Entrevistas.
 Investigaciones diseñadas con un propósito específico.
 Todas las posibilidades de búsqueda OFRECIDA HOY POR INTERNET., etc. , etc....

Los Principios y Fundamentos Estadísticos son independientes de la materia, actividad humana, sector del
conocimiento, etc. en el cual se aplican los métodos estadísticos. Por esta razón es que tienen una enorme
potencialidad en Ciencias de la Salud, Agricultura, Meteorología, Ingeniería, Industria, Comercio., etc. ,
etc., ............

Según el propósito que se tenga resolver, con la información obtenida, la Estadística se divide en:

 Estadística Descriptiva o Diagnóstica


 Estadística Inferencial o Inductiva

La Estadística Descriptiva: Recibe este nombre cuando con la información obtenida sólo se pretende
describir o caracterizar una variable o un grupo particular. Las conclusiones son válidas sólo para ese
grupo en particular.

La Estadística Inferencial: Recibe este nombre ,cuando existe un proceso riguroso de definición de una
muestra aleatoria a ser extraída del conjunto mayor, denominado Población o Universo, la cual tiene
asignado un grado de confiabilidad y un error preestablecido. La muestra es obtenida de la población
utilizando metodologías que aseguran la representatividad de la muestra respecto de la población.

La información obtenida de la muestra permite elaborar conclusiones válidas para todo el Universo, con un
cierto grado de confiabilidad, similar al que tiene la muestra.

Es muy importante de tener en consideración, de que en la actualidad cualquier trabajo de investigación


para que tenga validez y pueda ser publicada en revistas serias indexadas, debe tener un respaldo de
métodos estadísticos adecuados para que los resultados puedan ser divulgados y tengan un grado de
confiabilidad.

3.- Definición de Metrología

La metrología (del griego μετρoν, medida y λoγoς, tratado) es la ciencia de la medida. Tiene por objetivo
el estudio de los sistemas de medida en cualquier campo de la ciencia.

La Metrología tiene dos características muy importantes: el resultado de la medición y la incertidumbre


de medida.

Los físicos, químicos y la industria utilizan una gran variedad de instrumentos para llevar a cabo sus
mediciones. Desde objetos sencillos como reglas y cronómetros, hasta potentes microscopios, medidores
de láser e incluso aceleradores de partículas.

Por otra parte, la Metrología es parte fundamental de lo que en los países industrializados se conoce como
"Infraestructura Nacional de la Calidad" [1], compuesta además por las actividades de: normalización,
ensayos, certificación y acreditación, que a su vez son dependientes de las actividades metrológicas que
aseguran la exactitud de las mediciones que se efectúan en los ensayos, cuyos resultados son la evidencia
para las certificaciones.

La metrología permite asegurar la comparabilidad internacional de las mediciones y por tanto la inter
cambiabilidad de los productos a nivel internacional.

En el ámbito metrológico los términos tienen significados bien específicos y estos están contenidos en el
Vocabulario Internacional de Metrología o VIM [2].

4.- El papel de la estadística en ciencia ambiental

4.1.- Introducción
En este capítulo analizaremos el rol de la estadística en las ciencias medio ambientales, a través
del examen de algunos ejemplos específicos. Sin embargo, en primer lugar resulta importante destacar,
aunque parezca obvio, lo mucho que se aprende del medio ambiente cuando se cuenta con datos
colectados desde el ecosistema, Proceso, Lote ,etc. Resulta entonces de vital importancia contar con datos
de calidad, para que con una adecuada aplicación de métodos estadísticos, la información obtenida
refleje de manera inequívoca el estado del ecosistema,....y con ello tomar las decisiones lo más acertadas
posibles. Por lo tanto el dato y su tratamiento estadístico resultan cruciales.

4
De hecho, el no uso o inadecuada utilización de métodos estadísticos, pueden llevar a conclusiones y
decisiones erróneas que posteriormente puede derivar a que individuos u organizaciones sean vulnerables,
o queden expuestos, a ser demandados por importantes sumas de dinero. En USA hay un significativo
aumento del uso de los métodos estadísticos, que dan un mayor grado de objetividad y respaldo a las
decisiones que se toman , y con ello minimizar el riesgo de pleitos y litigios.

Es importante de destacar en este contexto de que no existe una “única manera” correcta de recopilar y de
analizar datos. Pueden haber varias aproximaciones alternativas, siendo todos igualmente correctos y
adecuados. Lo que si puede resultar peligroso, es que las alternativas tengan supuestos diferentes o
diversos, lo que por supuesto pude conducir a conclusiones diferentes. Esta situación se tratará de poner
de manifiesto en el desarrollo de los temas.

Algunos Ejemplos
Los ejemplos siguientes muestran el uso de estadística no trivial en problemas que pueden
presentarse en la práctica , y que además muestran muy claramente la importancia del uso apropiado de la
teoría estadística. Algunos de estos ejemplos se vuelvan a revisar en la última parte del curso.

Para los científicos y los encargados de recursos ambientales existen tres grandes campos o
situaciones que a menudo resultan de interés:

(a).- Los estudios de Línea Base , que se proponen documentar el estado actual del ambiente o
proceso, para establecer los cambios que a futuro se producirían en caso de que ocurran eventos
imprevistos tales como : derrames de aceites, petróleo crudo, etc.

(b).-Los estudios que apuntan a determinar o evaluar el impacto de


acontecimientos previstos: La construcción de un tranque o represa de relaves, de agua; la
chimenea de una fundición, etc.

(c) .- El monitoreo regular , previsto para detectar tendencia y cambios en variables importantes , y
asegurarse que se está satisfaciendo el cumplimiento de una normativa.

Ejemplo 1.1 El Derrame de Aceite Del Exxon Valdez

Los derrames de aceite, del petróleo bruto y de los aceites refinados resultantes del transporte en
grandes barcos, ocurren de tiempo en tiempo, particularmente en regiones costeras. Algunos
derramamientos muy grandes (sobre 100.000 toneladas), han atraído interés considerable alrededor del
mundo. Los ejemplos más notables son el derramamiento del transporte petrolero Torrey Cannyon , en el
canal inglés en 1967; el transporte petrolero Amoco Cadiz , en la costa de Bretaña, Francia en 1978; y el
encallamiento del Braer , en las Islas Shetland en 1993.Todos estos derramamientos traen preocupación
intensa del público para control de daños físicos en el ambiente y la fauna , dando por resultado presiones
políticas encendidos discursos de los encargados del recurso. Hay la necesidad de determinar a corto
plazo y largo plazo las consecuencias para el medio ambiente. A menudo hay casos legales (juicios,
demandas) muy largos para establecer los términos de la responsabilidad y de los montos de dinero para
indemnizar

Uno de los derramame de aceite más espectaculares fue el del Exxon Valdez que encalló en el filón de
Bligh en Príncipe Guillermo Sound, Alaska, el 24 de Marzo de 1989, derramando más de 41 millones de
litros petróleo crudo en la cuenca del norte de Alaska . Este fue el derramamiento más grande, hasta ese
tiempo en aguas costeras delos Estados Unidos, aunque lejos del tamaño del derramamiento del Amoco
Cádiz
La publicidad que lo rodeaba era enorme y los costes para la limpieza general, la multa y la indemnización
de daños alcanzó casi U$ 12,000 por barril perdido , comparado con los U$ 5,000 que habitualmente se
multaba. Se debe destacar que en ese momento el precio de venta por barril promediaba los U$ 15,000
La figura 1.1 muestra la trayectoria del aceite a través de Príncipe Guillermo Sound y el golfo occidental de
Alaska.

Existen muchos estudios realizados a partir del derrame del Exxon Valdez relacionados a la persistencia
del aceite y el daño ocasionado a la fauna y la industria pesquera. Los investigadores utilizaron diferentes
diseños metodológicos de investigación que consideraban complejas técnicas de muestreo, tendientes a
dar respuestas a complicaciones futuras no previstas

Los tres estudios de litoral originados por el Exxon fueron:

1.- Programa de Ecología de Borde Costero (página et al. 1995; Gilfillan et al , 1995),

2.- Lesión del Habitat Costero por derramamiento del aceite (Highsmith et al. 1993; McDonald et al.
1995),

5
3.- La Encuesta acerca del Monitoreo de Sobrevivencia Biológica (Houghton et al , 1993).

El resumen aquí desarrollado, debe a un trabajo presentado por Harner et el al (1995) en la Conferencia
Internacional de Medio Ambiente, realizada en Kuala Lumpur,

Figura 1.1 la trayectoria del aceite derramado por el Exxon Valdez


que ocurrió el 24 de Marzo hasta el 18 de Mayo de 1989 , a través
Principe Guillermo Sound , en Golfo Occidental de Alaska

El Programa Ecología del Borde Costero

El programa de la ecología del litoral, comenzó en 1989 con selección de un número de sitios fuertemente
engrasados a lo largo del litoral que debían ser medidos en un cierto plazo para determinarse tasas de la
recuperación. Debido a que estos sitios no son representativos de litoral potencialmente
afectado por el aceite, no fueron considerados para determinar o asegurar el daño total.

En 1990, usando un diseño de muestreo al estratificado al azar , el estudio fue agrandado para incluir
muchos más sitios. Básicamente, toda el área de interés fue dividida en un número de segmentos cortos
del litoral. Cada segmento entonces estaba asignado a uno de 16 estratos basados en el tipo del substrato
(roca de fondo expuesto, roca de fondo abrigada, boulder/cobble, y pebble/gravel) y el grado de
engrazamiento (ninguno, leve, moderado, y graves). Por ejemplo, el primer estrato era roca de fondo
expuesta sin engrasar. Finalmente, cuatro sitios fueron elegidos por muestreo de cada uno de los 16
estratos, para determinar la abundancia de más de mil especies de animales y plantas. También fueron
medidas un número de variables físicas en cada sitio.

El análisis de los datos colectados por el Programa de Ecología del Litoral fue basado en el uso de los
llamados modelos lineales generalizados para cantidad de especies. Sucintamente se refiere a que los
efectos del “engrazamiento” fue estimado bajo el supuesto que el modelo utilizado para cada una de las
especies es el correcto, teniendo en cuenta las diferencias que se producen entre las variables físicas
entre los sitios

Un problema con el diseño de muestreo era que la asignación inicial de los 16 segmentos de litoral a los
estratos fueron basados en la información proporcionada por un Sistema de Información Geográfico (GIS).
Sin embargo, resultó que algunos sitios fueron clasificados equivocadamente, particularmente en términos
de los niveles de “engrazamiento”. Además, los sitios no fueron muestreados si estaban cerca de un nido
de águila activa o había actividad humana. El resultado neto fue que las probabilidades utilizadas en el
diseño del estudio no estaban absolutamente de acuerdo con los supuestos. Los investigadores
consideraron esto como algo de menor importancia. era de menor importancia. Sin embargo, los autores
de las Normas para la Administración del Océano Nacional y la Atmósfera, para el aseguramiento del daño
por derramamientos del aceite, dijeron de que el estudio tuvo un error metodológico que lo invalidaba
completamente. (Bergman et el al , 1995, sección F). Es por lo tanto un ejemplo de cómo una desviación,
que se piensa es de “menor importancia”, de los requisitos de estudio en un diseño de investigación
estándar, puede conducir potencialmente a muy serias consecuencias.

6
La Valoración del Impacto del Hábitat Costero por de Derrames de Aceite

El Consejo de Administración de la Exxon tuvo la misión de vigilar la asignación de fondos por parte de la
empresa, para la restauración las aguas de Príncipe Guillermo y de Alaska. Los estudios costeros
realizados en 1989 para cuantificar la lesión del habitat costero, fue basado en un muestreo al azar
estratificado .Se utilizaron 15 estratos, definidos por 5 tipos de habitat ,cada uno con tres niveles de
severidad de contaminación de aceite (engrazamiento) . Las unidades de muestreo fueron segmentos del
litoral de diferentes longitudes. Estas fueron seleccionadas usando un sistema de GIS, con probabilidades
proporcionales a sus longitudes.

Desafortunadamente, muchos sitios fueron clasificados equivocadamente por el sistema de GIS, por lo
tanto el diseño de estudio diseñado en 1989 tuvo que ser abandonado en 1990. A cambio de ello , cada
uno de los sitios muestreados en 1989 y que tenia niveles moderados y graves , fueron pareados con otros
sitios de características físicas comparables , no dañados o no contaminados , para realizar un diseño de
“comparación apareado”. Los investigadores entonces consideraban si eran los sitios apareados
significativamente diferentes con respecto a abundancia de la especie.

Hay dos aspectos del análisis de los datos de este estudio que es inusual:

Primero, los resultados de comparar el sitio apareados (aceitado y no aceitado) fueron resumidos al
calcular valores denominados como “p-values” (probabilidades de la observar diferencias estadísticamente
significativas, al comparar las hipótesis que el aceite no produce un efecto, versus de que si produce
cambios).Estos p-values entonces fueron combinados usando un meta-análisis, que un métodos de análisis
para combinaciones de datos. Este método para evaluar la evidencia, fue utilizado porque cada sitio
pareado fue pensado para ser un estudio independiente de los efectos del engrazamiento.

El segundo aspecto inusual del análisis fue el ponderar los resultados que fueron utilizados para uno de
los dos métodos de meta-análisis empleado. Ponderando los resultados para cada sitio pareado, por
recíproco de la probabilidad del par que es incluido en el estudio, fue posible hacer inferencias con respecto
al sistema entero de pares posibles en la región del estudio. Éste no era un procedimiento particularmente
simple de realizar porque las probabilidades de la inclusión tuvieron que ser estimado por la simulación.

El Estudio sobre Monitoreo Biológico

El estudio sobre Monitoreo Biológico fue patrocinado por la Administración Nacional Oceánica y
Atmosférica para estudiar diferencias entre solamente aceite y aceite combinado con agua caliente a alta
presión, para lavar sitios rocosos abrigados. Así había tres categorías de los sitios usados. Los sitios de la
categoría 1 eran no contaminados por aceite. Categoría 2 , los sitios fueron aceitados pero no lavados.
Los sitios de la categoría 3 fueron aceitados y lavado. Los sitios fueron subjetivamente seleccionados. Los
sitios no aceitados s e utilizaron para formar parejas con las otras dos categorías. Los niveles de
engrazamiento también clasificado eran como leve o moderado/grave , dependiendo de su estado cuando
fueron presentados en 1989. Cantidad de la especie y porcentaje de cobertura , fueron medidos en los
sitios muestreados

Pruebas de aleatorización fueron utilizadas para determinar la significancia de las diferencias entre los
sitios en diversas categorías, debido a la naturaleza de las distribuciones encontradas para los datos
registrados. Aquí apenas se observa que la hipótesis probada es que una observación era igualmente
probable de haber ocurrido para un sitio, en cualquiera de las tres categorías. Estas pruebas pueden
proporcionar ciertamente la evidencia válida de diferencias entre las categorías. Sin embargo, los métodos
subjetivos usados para seleccionar sitios permiten pensar que cualquier diferencia significativa es debido
al procedimiento de selección más bien que al aceitamiento o el tratamiento del agua caliente.
Otro problema potencial con el análisis del estudio es que puede haber implicación o consecuencias de la
seudo replicación (que trata datos correlacionados como datos independientes), Esto es porque el
muestreo de estaciones a lo largo de un transecto en una playa eran tratado como si proporcionaran datos
totalmente independientes, aunque de hecho algunas de estaciones estaban muy próximas una de otra. .
En realidad, las observaciones tomadas muy próxima una de otra en el espacio , se puede esperar que
sean más similares que las observaciones más distantes entre sí. Ignorar este hecho puede conducir a la
tendencia general de concluir que los sitios en diferentes categorías tienden a ser significativamente
diferentes, cuando en realidad no lo son.

7
Comentarios generales sobre los tres estudios

Los tres estudios en el derramamiento del aceite de Exxon Valdez tomaron diferente
aproximaciones y las respuestas conducen a diversas preguntas. . El Programa Exxon de la ecología del
litoral ( o borde costero ) fue pensado para determinar el impacto del derramamiento de aceite en toda la
zona, utilizando un diseño de muestreo al azar estratificado. Un problema de menor importancia es que los
requisitos estándares del diseño de muestreo no fue seguido absolutamente debido a sitios mal
clasificados y algunas restricciones en los sitios que debía ser muestreados. El estudio del habitat costero ,
para cuantificar el impacto del derrame de aceites ,fue gravemente perjudicado por la mala clasificaciones
de los sitios de muestreo en el año 1989 , y por lo tanto fue reorientado a un diseño de comparaciones
apareadas en 1990 , para comparar el efecto del grado moderado o severo de engarzamiento , con sitios
no afectados por el aceite , los cuales fueron elegidos subjetivamente. Esto permitió evaluar la evidencia
del derramamiento de aceite ,pero sólo asumiendo el costo de un complicado análisis que involucró el uso
de la simulación para estimar la probabilidad de un sitio que es utilizado en el estudio , y un método
especial que combine los diferentes resultados de sitios pareados. El estudio de monitoreo biológico
centrado en la determinación de los efectos del agua caliente utilizado para el lavado de los sitios
impactados, no permitió hacer inferencias respecto de toda el área afectada, por derramamiento del aceite.

Los tres estudios puede están abiertos a la crítica en los términos del grado en el cuál pueden ser
utilizados para obtener conclusiones sobre el impacto total del derramamiento del aceite en todo el área
de interés . Para el Programa de la ecología e impacto del borde costero, este fue el resultado de usar un
diseño de muestreo aleatorio estratificado, que finalmente tuvo un cierto grado de perturbación en la
aleatorización. Como un caso o motivo de estudio se debe tomar el derramamiento del aceite de Exxon
Valdez, y por lo tanto, ser una advertencia para aquellos que implican indemnizaciones por impacto de
futuros derramamientos de aceites a la hora de tener en cuenta los problemas que pueden ocurrir con el
diseño metodológicos de la investigación a desarrollar. Otros aspectos de estos dos estudios es que
deban dar la pauta para pensar los análisis que tuvieron que ser conducidos, eran algo complicados y
pudo haber sido difícil de defender en una Corte. No estaban adentro consonancia con la filosofía
KISS(Keep It Simple Statistician ).

Ejemplo 1.2 Lluvia ácida en Noruega

Un programa de investigación noruego fue comenzado en 1972 en respuesta a una gran preocupación en
los países escandinavos por los efectos de precipitación de lluvia ácida (Overrein et al. el an o 80). Como
parte de este estudio, regional los exámenes de los lagos pequeños fueron realizados en 1974 a 1978, con
alguno muestreo adicional, hecho en 1981.Los datos fueron registrados para pH, concentración de
sulfato(SO4),concentración de nitrato (NO3), y concentración de calcio (CA) , en cada lago muestreado.
Esto se puede considerar un estudio apuntado en términos de los tres
tipos de estudio que fueron definidos en la sección 1,1, pero puede también ser visto como un estudio de
supervisión o monitoreo que fue realizado solamente por un período relativamente corto de tiempo

De cualquier forma, el propósito del estudio era detectar y describir cambios en las variables químicas del
agua, que se pudieron relacionar con la lluvia ácida.

La tabla 1.1 muestra los datos del estudio, en la manera prevista por Mohn y Volden (1985). La
figura 1.2 muestra los valores de pH, trazados contra localizaciones de los lagos en cada uno de los años
1976, 1977, 1978 y 1981.

Diagramas similares se pueden, por supuesto, producir para el sulfato, nitrato y calcio. Los lagos que
fueron medidos varias veces año a año. Hay problemas con algunos datos que faltan(perdidos) para
algunos análisis que pudieron ser considerados

En términos prácticos, las principales preguntas que sonde interés contestar con este estudio son:

(a) Existe alguna evidencia de tendencias o de cambios abruptos en los valores para una o más de las
cuatro variables químicas medidas?
(b) Si existen las tendencias o los cambios, ¿están ellos relacionados para las cuatro variables, y son del
tipo que se puede esperar como resultado de la lluvia ácida?

8
Figura 1.2 valores para pH para los lagos en Noruega meridional en 1976, 1977, 1978 y 1981, trazado contra la
longitud y la latitud de los lagos.

Otras preguntas que pueden tener interés intrínseco, pero que también son relevantes para contestar las
dos primeras preguntas son:

(c) Existe evidencia de correlación espacial, tales que las mediciones de los lagos que están muy
próximos tienden a ser similares?

(d) Existe evidencia de correlación temporal, tales que las mediciones en los lagos tienden a ser
similares si ellas están próximas en el tiempo?

9
Una de las consideraciones importantes en muchos estudios ambientales es la necesidad de tener en
cuenta la correlación en tiempo y espacio.

Métodos para hacer esto se discutirán más adelante Aquí puede obsérvese simplemente que un estudio
de los valores de pH en la figura 1.2 indica una tendencia para que los valores más altos estén en el norte,
sin cambios llamativos o apreciables de año a año para los lagos individuales (que son, por supuesto,
graficados en la misma ubicación para cada uno de los años donde fueron muestreados).

Ejemplo 1.3 Supervivencia de los salmones del en el “río de la serpiente (Snack)”

El río Snack y el río Columbia en el noroeste del pacífico de los Estados Unidos contienen ocho
represa o tranques usadas para la generación de electricidad, según lo demostrado en la figura 1.3 Estos
ríos son también la ruta de migración para la reproducción de salmones en ambiente natural, y esto es un
claro potencial de conflicto entre las diversas aplicaciones o utilizaciones de los ríos. Los tranques
fueron construidos con sistemas de baypass” (sistemas de desviación) para los salmones, no obstante
hay preocupación por las tasas de mortalidad que los están afectando (estudios al respecto que la
mortalidad llega a ser de un 85 % superior a lo que ocurre en los criaderos.

Figura 1.3 Mapa de la cuenca del río Columbia que demuestra la localización de las represas.

Para conseguir una mejor comprensión de las causas de la mortalidad de los salmones, se comenzó un
importante estudio en 1993 realizado por el Servicio Nacional de Pesca de la Marina, las Industrias
salmoneras y la Universidad de Washington para investigar por medio del uso del método de muestreo
“marca – recaptura “, la estimación de las tasas de sobrevivencia a través de todo el río y las represas que
están en su ecosistema. La metodología está basada en la teoría desarrollada por Burnham et el al , para
marca recaptura , para estimar la sobrevivencia de peces en la represas, pero con modificaciones hechas
para la aplicación específica (Dauble et al., 1993). Lotes de peces son marcados o se les coloca un “chips”
(Passive Integrated Transporder :PIT ) ,que los identifica de manera única y se los suelta , para luego
monitorearlos en los “baypass” de los tranques y saber cuanto de ellos lograron pasar por estos sistemas y
vencer la barrera artificial , que es la “cortina de los diques. Utilizando modelos especiales de probabilidad,
es posible utilizar la información obtenida de la metodología aplicada para estimar la probabilidad de que un
pez (salmón, trucha, etc.) sobreviva a través de toda la extensión o largo del río y la probabilidad de que el
sea descubierto o registrado al pasar el tranque o dique

En 1993 se inicio un Programa Experimental (piloto) de lanzamientos que fue diseñado para:

(a) Probar en el terreno el método del marca-recaptura para estimar sobrevivencia,


incluyendo la prueba de que se cumplen los supuestos del modelo de probabilidad utilizado

(b) Identificar las dificultades operacionales y logística que limitan la colecta de los datos

(c) Determinar si las estimaciones de la supervivencia se podrían obtener con la precisión


adecuada.

10
Se formaron siete “lotes” o grupos, 830 a 1442 individuos, obtenidos de planteles de cultivo, del salmón
chinook (tshawytscha de Oncorhynchus). Se lanzaron los lotes de salmones en represas diferentes. Se
concluyo que los métodos usados proporcionaban estimaciones exactas de las probabilidades de la
supervivencia, a través de las varias secciones de los ríos Columbia y de la Serpiente (Iwamoto et al.
1994).

El estudio continuó en 1994 con diferentes variantes, tales como : utilizar salmones en edad juvenil, otras
especies ,cantidades diferentes, individuos jóvenes de criadero y otros nacidos en ambiente natural , etc.-

Se liberó en el lugar una mayor proporción de individuos en estado juvenil ,en período de migración,
respecto de 1993 , y se estimaron probabilidades de sobrevivencia en una extensión mayor del río.
Además se hicieron 58 liberaciones de peces, en lotes de 700 a 4643 para estimar la mortalidad asociada
con los aspectos particulares del sistema de diques. En total los archivos del estudio registran casi 100.000
individuos que se utilizaron para el estudio, utilizando la metodología “marca – recaptura”, siendo tal vez
éste uno de los mayores estudios de esta naturaleza que se haya realizado.

De los resultados, los investigadores concluyeron que los supuestos de los modelos utilizados estaban
generalmente satisfechos y se reiteró su creencia de que estos modelos permiten la estimación exacta de
probabilidades de supervivencia a través de las secciones individuales de los ríos Columbia , Serpiente
(Snake),sus depósitos y diques (Muir et al., 1995).

En términos de los tres tipos de estudio que fueron definidos en la sección 1.1, el experimento “marca-
recaptura” en el río Serpiente en 1993 y 1994 se puede pensar en como parte de un estudio de “línea
base”, puesto el objetivo principal fue evaluar esta aproximación para estimar tasas de sobrevivencia de
los salmones, con las estructuras del dique presentes, con vista a evaluar el valor de posibles
modificaciones en el futuro.

La estimación de tasas de supervivencia para poblaciones que viven fuera de cautiverio normalmente son
una tarea difícil, y éste es ciertamente el caso para salmón en los ríos Serpiente y Columbia. Sin embargo,
las estimaciones obtenidas por "marca-recaptura" parecen bastante exactas, como se indica por los
resultados mostrados en la tabla 1.2.

Tabla 1.2 Estimaciones de probabilidades de sobrevivencia para diez lotes de salmones de criadero, de la
especie Chinook ,de un año aproximado de edad, liberados en el dique “Lower Granite” en 1994(Muir et al.,1995).
La sobrevivencia es a través de los diques “Lower Granite” , Little Goose Lower Monumental. Los errores estándares
mostrados con las estimaciones individuales son calculados del modelo marca-recaptura. El error estándar del
promedio es la desviación de estándar de las diez estimaciones dividida por la raíz cuadrada de 10.

Los objetivos futuros del programa de investigación incluyen conseguir una buena estimación del índice de
la supervivencia de los salmones para una migración estacional completa ,para diversas partes del sistema
del río, teniendo en cuenta posibilidad de cambios y de tendencias en el tiempo. Estos objetivos proponen
interesantes diseños de investigación, combinando modelos de muestro “marca-recaptura , con modelos
más tradicionales de la teoría de poblaciones finita.
Este ejemplo es inusual debido al uso del método especial de “marca-recaptura”. Solo se incluye aquí para
ilustrar la amplia variedad de métodos estadísticos que son aplicables para solucionar problemas
medioambientales

Ejemplo 1.4 Un Experimento de perturbación en grande escala

Predecir las respuestas de ecosistemas completos a las perturbaciones , es uno de los más grandes
desafíos a los ecologistas porque esto requiere a menudo de manipulaciones experimentales que se deben
hacer en gran escala. En los experimentos en escala reducida del laboratorio o de campo, en muchos
casos , simplemente no necesariamente mostrarán las respuestas obtenidas en el mundo real. Por esta
razón un número de experimentos se ha conducido en los lagos, desembocaduras, corrientes, y ambientes
terrestres y marinos abiertos. Aunque estos experimentos implican poco o nada de réplica, ellos indica la

11
potencial respuesta del ecosistema a poderosas manipulaciones las cuales pueden esperarse cuando se
producen cambios masivos equivocados (Carpenter et al., 1995).

Carpenter et al. (1989) discute algunos ejemplos de experimentos en gran escala, en que están
involucrados los lagos de la región montañosa del norte de Wisconsin en los Estados Unidos. Uno de tales
experimentos era parte del proyecto “Cascading Trophic Interaction”, que consistió en remover alrededor
del 90% de la biomasa de la cual se alimentan los peces del lago “Peter Lake”, y agregar un 90 % del
fitoplancton de otro lago. Los cambios producidos en el lago “Peter Lake” en los dos año siguientes, se
compararon con los cambios producidos el lago “Paul Lake” , que está en la misma área pero que no
recibió ninguna manipulación o intervención. Este tipo de estudio a menudo están referidos a un “antes y
un después” (before-after-control-impact (BACI) design)

3
Una de las variables medidas en el lago Peter y el lago Paul era la concentración de la clorofila, en mg/m .
Esto fue medida para diez muestras tomadas desde Junio a Agosto de 1984; para 17 muestras tomadas
desde Junio a Agosto de 1985 ; y para 15 muestras tomadas desde Junio a Agosto de 1986. La
intervención o manipulación del lago Peter fue realizada en Mayo de 1985. La Figura 1.4 muestra los
resultados obtenidos. En esta circunstancias , se espera que otros efectos producidos por el tiempo debido
a la manipulación o intervención sean eliminados, tomando la diferencia entre las mediciones entre los
dos lagos.

Antes de la intervención, el tamaño de la muestra es 10 y la diferencia promedio (Tratados –


Control) es de –2,020. Después de la intervención se toma una muestra de tamaño 32 , y la diferencia
promedio es –0.953. Para evaluar si el cambio en la diferencia es estadísticamente significativa ,Carpenter
etal. (1989) utilizó una prueba de aleatorización. Esto implica comparar el cambio observado con la
distribución obtenida del estadístico por el reordenamiento de forma aleatorio de la serie de tiempo de las
diferencias. El resultado de esta prueba tenía un nivel de significancia del 5%, con lo que se concluyó que
había un cambio evidentemente significativo

Figura 1.4 El resultado de un experimento de intervención en términos de concentraciones de la clorofila (mg/m 3).
Las muestras 1 a 10 fueron tomadas en junio a Agosto de 1984, muestras 11 a 27 fue tomado a partir de junio a
agosto de 1985, y las muestras 28 a 42 fueron tomadas en junio a agosto de 1986. El lago tratado recibió una
manipulación en el contenido del alimento en mayo de 1985, entre las muestras numeran 10 y 11 (según lo indicado
por una línea vertical quebrada).

Se pueden utilizar varias otras pruebas estadísticas para comparar las diferencias significativas antes y
después del cambio, como también la prueba de aleatorización. Sin embargo, la mayoría de estas pruebas
pueden perturbarse en alguna magnitud por un cierto grado correlación entre las observaciones sucesivas
en la serie de tiempo de las diferencias entre el lago intervenido o manipulado y el lago control. Puesto que
esta correlación generalmente es positiva, se tiene la tendencia a dar resultados más significativos, que
puede que realmente no lo sean.

De los resultados de un estudio de la simulación, Carpenter et al. (1989) sugirió que esto puede permitir
considerar efectos que son significativos en niveles entre el 1% y 5% ,como equivocados , si la correlación
parece estar presente. De este punto de vista el efecto de la manipulación del lago “Peter” en la
concentración de clorofila, no está claramente establecida por la prueba de aleatorización.

12
Este ejemplo muestra los problemas usuales con los estudios BACI. (Before-After-Control-Impact)
En detalle:

(a) El supuesto que la distribución de la diferencia entre los lagos “Peter” y “Paul” no habrían
cambiado con tiempo en ausencia de manipulación ,no se puede probar ; hacer este supuesto
es más bien un acto de fe

(b) Es probable que la correlación entre observaciones tomadas con poco tiempo entre ellas sólo
sea quitada parcialmente tomando la diferencia entre los resultados para el lago manipulado
(experimental) y el lago control, con el resultado que las pruebas de aleatorización (o cualquier
otra prueba alternativa simple) para un efecto de manipulación, no es totalmente válido.
.
No hay nada que pueda hacerse sobre el problema

(a) Debido a la naturaleza de la situación. Modelos de serie de tiempo más complejos pueden
ayudar a superar el problema.

(b) Pero existe una seria dificultad al usar estas técnicas con las cantidades relativamente
pequeñas de datos que a menudo están disponibles.

Ejemplo 1.5 Anchuras del anillo de alisos andinos

Las dimensiones de la anchura de los anillos de los árboles son indicadores de los efectos de
contaminación, clima , y otras variables medioambientales (Fritts, 1976;Norton and Ogden, 1987). Por lo
tanto existe interés en monitorear los anchos de los anillos de los árboles, en sitios específicos para ver si
están ocurriendo cambios en la distribución de las “anchuras”. En particular, las tendencias en la
distribución pueden se un sensible indicador de cambios medioambiental

Con esta perspectiva, el Dr Alfredo Grau colectó datos de anchuras del anillo en 27 alisos andinos (Alnus
acuminanta) , en el “Espinazo de Taficillo” a una altitud de aproximadamente 1700 mt sobre el nivel del
mar , en Tucumán, Argentina, desde el año 1970 a 1989. Las mediciones que él obtuvo se muestran en
figura 1,5 Es evidente aquí que en el período del estudio la anchura promedio disminuyó, al igual que la
cantidad de variación entre los árboles. Las posibles razones de un cambio del tipo observado aquí son
cambios climáticos y contaminación (polución). El punto es que monitoreando regularmente los indicadores
medioambientales ,tales como el ancho de los anillos de los árboles, pueden ser usados como señal de
cambios en las condiciones. Las causas de estos cambios pueden ser investigados por medio de estudios
específicos.

Figura 1.5 Anchuras de anillo de Árbol aliso andinos en “Espinazo de Taficillo, cerca de Tucumán, Argentina, 1970-
1989. La línea horizontal es la media global para todas las anchuras del anillo para todos los años.

Ejemplo 1.6 Monitoreo de la Vida Marina Antártica


Un ejemplo de monitoreo en una escala o dimensión muy grande, es el trabajo realizado por la Comisión
para la Conservación de l0s Recursos Marinos Vivos en la Antártica [Commission for the Conservation of
Antarctic Marine Living Resources (CCAMLR)] . Es una Comisión Intergubernamental para desarrollar las
medidas para la conservación de vida marina en la Antártica .. Actualmente 21 países son miembros de la
Comisión, mientras que otros siete Estados han accedido a participar la convención instalada como parte
de directiva de CCAMLR en el uso de los recursos en cuestión (CCAMLR, 1992).

Uno de los grupos de funcionamiento de CCAMLR es responsable de dirigir y supervisar el


Ecosistema. Supervisión en este contexto implica la recogida de datos sobre indicadores de la salud
biológica de Antártica. Estos indicadores son informes anuales que están en gran parte determinados por
caracterizaciones de los recursos disponibles como resultado de la investigación científica realizado por los
Estados miembros. Actualmente incluyen cosas tales como: el peso medio de pingüinos cuando llegan a la
13
colonia, el tiempo promedio que los pingüinos pasan incubando sus huevos , la captura del krill por los
buques de pesca dentro del 100km de borde costero donde existen sitios de cría de pingüinos, duraciones
promedio de la piel de leones y focas, y el porcentaje de mar que está congelado. Existen planes para
aumentar de manera considerable el número de indicadores ,incorporar más especies y de monitorear
más variables físicas. Los mayores desafíos incluyen a que los grupos de investigación de diversas
nacionalidades recojan datos usando los mismos métodos estándares; y, en más a largo plazo, ser
capaces de entender las relaciones existente entre diversos indicadores y combinándolos mejor forma para
medir el “estado” de la antártica y detectar las tendencias y los cambios abruptos

Ejemplo 1.7 Evaluación de Normas de Limpieza

Muchos estudios ambientales se refieren al problema específico de evaluar la eficacia de la recuperación


de un sitio que ha un cierto daño ambiental. Por ejemplo, un organismo gubernamental podría exigir a una
compañía minera trabajar en restaurar un sitio hasta que la biomasa de vegetación por área de la unidad
afectada sea equivalente a lo que se encuentra en las áreas de referencia que están ilesas. Esto requiere
un estudio específico según lo definido en la sección 1.1.

Existen dos complicaciones con uso de métodos estadísticos estándares en esta situación.

1.- El primero es que generalmente no se seleccionan de manera aleatoria los sitios dañados y los
sitios de referencia, de la población de potenciales (posibles) sitios y no es razonable suponer que
habrían tenido exactamente el mismo promedio para la variable en estudio, incluso en ausencia de
cualquier impacto en el sitio dañado. Por lo tanto, si las muestras tomadas en cada sitio son
grandes, habrá una alta probabilidad de detectar una diferencia, independiente de la extensión que
tenga el sitio dañado.

2.- La segunda complicación es que cuando una test (prueba) para a la diferencia entre los dos
sitios no da a un resultado significativo esto no significa necesariamente que no existe una
diferencia. La explicación alternativa es que los tamaños de muestra no eran bastante grandes para
detectar una diferencia que realmente si existe.

Estas complicaciones con las pruebas estadísticas han llevado a una recomendación por parte de
la Agencia para la Protección del Medioambiente de Estados Unidos (1989a) , que la hipótesis nula para
las pruebas estadísticas debe depender del estado de un sitio, de la manera siguiente,:

(a) Si un sitio no ha sido declarado como contaminado, entonces la hipótesis debe ser que está
limpio, es decir, no hay diferencia significativa con el sitio control. La hipótesis alternativa es
que el sitio contaminado (Es decir, existen diferencias estadísticamente significativas entre el
sitio investigado y el sitio control ) Un resultado no significativo de la prueba estadística
aplicada conduce a la conclusión no existen ninguna evidencia verdadera que el sitio está
contaminado.

(b) Si un sitio se ha declarado como contaminado, entonces la hipótesis nula es que esto es
verdad, es decir, hay una diferencia (en dirección equivocada) entre el sitio investigado y el
sitio control. La hipótesis alternativa es que el sitio está limpio. Un resultado no significativo
de la prueba estadística aplicada conduce a la conclusión que no hay evidencia verdadera que
el sitio esté limpio ( o se haya limpiado)

Si el punto de vista expresado por (a) y (b) no se adopta, de modo que la hipótesis nula es siempre
que el sitio dañado no es diferente del control, entonces la agencia opta con asegurarse de que el sitio se
limpia y se hace frente a un conjunto de regulaciones para asegurarse que los diseños del estudio tengan
tamaños muestrales bastante grandes, para a detectar diferencias de importancia práctica entre el sitio
dañado y el control

Como ejemplo del tipo de datos que se pueden implicar en comparación de un sitio del control y otro
posiblemente contaminado, considere algunas medidas de 1,2,3,4-tetrachlorobenzene (TcCB) en partes
por mil millones dados por Gilbert y Simpson (1992, p. 6,22). Hay 47 medidas hechas en diversas partes
del sitio control y 77 medidas hechos en diversas partes de sitio posiblemente contaminado, según lo
demostrado en la tabla 1,3 y Figura 1.6 .Los niveles de TcCB son claramente mucho más variables en el
sitio posiblemente contaminado. Esto pudo haber ocurrido probablemente de Niveles de TcCB son más
bajos en las partes donde el sitio se limpió, mientras que seguía habiendo los altos niveles en otras partes
del sitio.

14
Figura 1.6 comparación de las medidas de TcCB en partes por mil millón en un sitio contaminado (2) y un
sitio de referencia o control (1).

Para los datos en este ejemplo, la distribución es extremadamente sesgada en el sitio contaminado, con
varios valores muy extremos. Esto debe conducir a una cierta precaución al hacer las comparaciones
basadas en el supuesto de que las distribuciones dentro de sitios se comportan según el modelo de
probabilidad normal.

La importancia de la estadística en los ejemplos revisados

Los ejemplos que se presentaron, demuestran claramente importancia de los métodos estadísticos
en estudios medioambientales. Con el derramamiento del aceite de Exxon Valdez, los problemas con el
diseño metodológico y uso del métodos estadísticos significaron requerir que los análisis pudiesen conducir
a la realización de pruebas inferenciales

Con el estudio noruego de lluvia ácida hay a necesidad de considerar el impacto de la correlación en
tiempo y espacio en variables de la calidad del agua que fueron medidas.

La valoración del los índices anuales de la supervivencia de salmones en el río de la serpiente ( Snasck
River) requieren el uso de los modelos especiales para analizar “marca-recaptura” y de los experimentos
combinados con el uso de la teoría del muestreo para las poblaciones finitas.

El estudio de las dimensiones de la anchura de los anillos de los árboles en Argentina , como métodos para
la detección de tendencias y cambios precipitados en distribuciones.

Monitoreo de Ecosistemas completos, según lo realizado por la Comisión para la conservación de los
recursos marinos vivos en la antártica, requieren de la colección y el análisis de cantidades extensas de
datos, con muchos cálculos estadísticos de gran complejidad.

La comparación de muestras de sitios contaminados y sitios controles o de referencia, pueden requerir el


uso de las pruebas con las cuales sea válido distribuciones extremadamente no-normales. Todas estas
materias tratarán de ser abordadas en el curso. Será de mucho interés que los participantes aporten sus
propios datos para someterlos a “una clínica de análisis de datos.

15
Resumen
 La estadística es importante en ciencia ambiental porque mucho de qué se sabe sobre el
ambiente viene de datos numéricos. Tres amplios tipos de estudio del interés para los
encargados de recurso son estudios de línea base (documentar el estado actual del
ambiente), estudios orientados a determinar el impacto del detalle acontecimientos, y
monitoreo regular (detectar tendencias y otra cambios importantes en variables).

 Todos los tipos de estudio implican el muestreo en un cierto plazo y el espacio y es


importante que los diseños de muestreo sean eficientes y puedan ser justificado en una
Tribunal Judicial en caso de necesidad.

 Siete ejemplos se discuten para demostrar la importancia de Métodos estadísticos a la


ciencia ambiental.

5.- Estructura y Tipos de Datos Estadísticos:

El dato podemos decir que es la materia prima con que trabaja la Estadística. En términos muy
generales los datos se pueden referir a características observables, las cuales se denominan variables, las
que pueden ser:

Cualitativas o atributos
Cuantitativas, las cuales a su vez se subdividen en: Discretas y Continuas

Ejemplos de características o variables cualitativas:

a) El sexo de un individuo
b) El estado civil de una persona
c) Profesión o actividad de la persona

Ejemplos de Variables Discretas, que se originan cuando la variable expresa un conteo (Nº entero)

d) Cantidad de personas ausentes al trabajo diariamente en una empresa


- Número de pacientes atendidos por médico en un hospital
e) Cantidad de artículos defectuosos en un lote
f) Cantidad de Cátodos defectuosos en una cosecha
g) Cantidad de gramos por litro en una solución

Ejemplos de Variables Continuas, que se originan cuando la variable expresa una medición

h) Temperatura axilar de un paciente


i) Tiempo utilizado para reparar una falla
j) Peso , Estatura de una persona
k) Temperatura , Ph ,etc. de una solución que pasa por un ducto

Sin embargo existen variables cualitativas que el valor observado expresa un cierto orden o
jerarquía y se le denomina Variable Ordinal. Tiene la característica de que el valor colectado indica un
orden o jerarquía, permitiendo indicar una posición relativa de los distintos elementos clasificados

l) Rendimiento de un alumno dentro de un curso : Bueno , Regular , Malo


m) Grado de dificultad de una prueba
n) Grado de una lesión o enfermedad
o) Grado de desarrollo de un País.
p) Nivel de contaminación de un sector o área

5.1- Matriz de los Datos, Matriz objeto- variables

Cuando se realiza un estudio cualesquiera sobre un conjunto finito de "n" sujetos, objetos ,cosas
,Individuos ,entidades, etc. , normalmente existe una variada gama de características que se colectan y
que se expresan en los términos vistos anteriormente , digamos entonces de manera genérica, que se
determinan o especifican "p" variables.

Lo anterior permite construir lo que se llama "Base de Datos" , que de manera muy general
podemos decir que es un arreglo tipo matricial que tiene "n" filas y "p" columnas

16
El propósito de la matriz de datos es presentar los datos de la manera "más depurada posible" ,para
proceder al procesamiento de los datos y obtener información.

La primera preocupación es entonces aprender a estructurar una base de datos , utilizando un software
para su posterior procesamiento.

Utilizaremos una software estadístico llamado "STATGRAPHICS". Es una versión para ambiente Windows
:5.1 Plus

Los datos se ingresan en una planilla, muy similar a la denominada planilla EXCEL.

5.1.-Construcción de la Matriz de Datos

 "Pique" con el sector izquierdo del "ratón" el ícono que identifica a "statgraphics 4.0"Verás aparecer
una pantalla como la siguiente , que en su extremo inferior izquierdo tiene una barra donde aparece
un archivo denominado untiteled.

Fig. 1

 Picar el "cuadrado" que tiene el archivo “< Sin Nom...” para maximizar esta planilla. Verá la
siguiente figura.
Fig. 2

 Sobre la palabra "Col_1" coloca la " + " que aparece cuando se trabaja con el ratón y esa columna
se pondrá de color negro cuando piques con el sector izquierdo del ratón. Seguidamente picas con
el sector derecho y aparecerá una "ventana" con varias opciones.

17
Fig. 3

Al seleccionar " Modificar Columna " tendrá la posibilidad de definir :


a) El nombre de la variable
b) Realizar un pequeño comentario descriptivo de su contenido o significado, como por ejemplo las
unidades de medición de la variable
c) Definir si la variable es un Atributo o cualidad , una fecha, una variable numérica decimal , una
variable numérica entera, fijar la cantidad de decimales

Numérica : Debe ser activada cuando la variable es variable continua

Carácter : Debe ser activada cuando la variable es un atributo o cualidad

Entera : Debe ser activada cuando la variable es variable discreta o cuando se trata de una
Variable ordinal donde el número entero que se ingresa representa una jerarquía, ya sea
ascendente o descendente.

Fecha : Si la variable a ingresar fuese una fecha , indicando día , mes , año.

Mes : Si la variable fuese un mes dentro de un año.

Decimal Fijo: Fija el número de decimales a utilizar .Pone 2 por defecto.

La pantalla que se activará es la siguiente:


Fig. 4

Supongamos que tenemos unas " fichas " con antecedentes de muchas personas que trabajan en una
empresa, con los siguientes datos. Debemos definir en base a lo dicho anteriormente , las columnas de la
base de datos:

Nombre : Carácter
Sexo : Carácter ( M = masculino ; F = femenino)
Fecha de nacimiento : Fecha
Nivel de Escolaridad : Entera (1="básica incomp." ; 2= "básica compl." ; .............)
Oficio o Actividad Carácter
Pertenencia de la vivienda : Carácter (Propia ; Arriendo. ; Allegado ; Cedida ; Leasing ; .......)
Estatura : Numérica
Peso : Numérica
Edad : Entera
18
La Base de Datos tendrá la siguiente presentación

Fig. 5

Una vez que se han ingresado todas las fichas o encuestas o cada cierto instante, es necesario guardar la
información ya sea en el "Disco Duro " de su computador o en un "pendrive”. Para ello debe picar la
palabra Archivo con el sector izquierdo del ratón y luego en la ventana que se despliega picar la opción "
Guardar como.."

Tendrá las siguiente pantallas:


Fig. 6

Fig. 7

Entonces en la pantalla de la figura Nº 7 , deberás decidir donde guardar el archivo.

Entonces en la pantalla de la figura Nº 7 , deberás decidir donde guardar el archivo.

 Si la decisión fuese guardar en un Pendrive o Disco de 31/ 2 (A) , entonces tendrás que picar esta
opción en el recuadro en primer plano . Seguidamente en este mismo recuadro, en el campo
Nombre del archivo, escribirás el nombre con que identificaras al archivo de datos.

 Si la decisión fuese guardar el archivo de datos en el Disco C ,entonces tendrás que picar esta
opción en el recuadro en primer plano . El computador te hará seguir la ruta que tiene trazada de
manera jerárquica, es decir, secuencialmente irá apareciendo en el campo "Guardar en" las
palabras: Archivos de Programa ----Sgwin -----Data. Seguidamente en este mismo recuadro, en el
campo Nombre del archivo escribirás el nombre con que identificaras al archivo de datos.
 También puede guardarse el archivo con los datos, el directorio "mis documentos" El
procedimiento es el mismo. O también en el escritorio

19
A modo de ejemplo, la pantalla siguiente refleja la estructura de una Base de Datos de personas, la que
deberá ser guardada según lo señalado en párrafos anteriores.

Fig. 8

5.2.- Recuperación de variables de la Bases de Datos para su Procesamiento

Como se vio anteriormente, los datos están almacenados en una estructura que se llama
"Archivo", el cual está constituido por variables.

Entonces debemos recuperar los datos desde el lugar en donde se encuentran

1. Si los datos están en un disco externo o en un pendrive entonces siga el siguiente procedimiento:
 Ingrese en el ambiente de "Statgraphics"
 Conecte el disco externo o el pendrive en el puerto USB.
 Seleccione del dispositivo utilizado, el archivo a abrir.
 Pique la palabra Archivo en la barra superior de herramientas de Statgraphics y tendrá la
siguiente `pantalla , Fig. 9 . En la ventana de opciones seleccione para activar la barra que
dice Abrir Datos
Fig. 9

Lo más posible es que aparezca una pantalla como lo indica la Fig. 10, de donde deberá seleccionar la
barra que dice "Disco de 31/2 (A)" y hacer doble click en dicha opción; o bien seleccionar Data , que es la
carpeta don de Statgraphics guarda sus archivos de datos

Fig. 10

20
Se desplegarán todos los archivos que contiene su disket , que fueron creados para ambiente statgraphics .
Pero es posible también que en ese disket hayan otros archivos , y en este caso si desea ver todos los
archivos que contiene el pendrive,CD, etc. Deberá ubicarse en el campo de la ventana en primer plano
que dice "Tipos de Archivo : " y seleccionar aquí una opción que dice "ALL FILES (*.*).Ubica el archivo
con el cual desea trabajar y para seleccionarlo haga doble click en ese nombre ,y tendrá una pantalla
como la Fig. 11 siguiente, la cual en su extremo inferior izquierdo aparece el nombre del archivo
seleccionado. Haga un click en el cuadradito de esa barra y desplegará el contenido completo del archivo
seleccionado.
Fig. 11

2.- Si los datos se encuentran en el disco C , entonces en la pantalla que muestra la Fig.11,en el
recuadro en primer plano seleccione la opción "disco C" . Seguidamente tendrá frente a usted una
pantalla que muestra la Fig. 12 , donde deberá seleccionar la opción archivos de programa
haciendo un doble clic. Enseguida ubicar Statgraphics ; luego Statgraphics Plus 5.1; seleccionar la
carpeta Data.

Fig. 12

Seguidamente deberá buscar el archivo llamado Statgraphics Plus 5.1, y pulsar dos veces sobre esta
palabra con el sector izquierdo del "Mouse", en la siguiente pantalla.

Fig. 13

Al picar dos veces seguidas sobre Statagraphics, tendrá la siguiente pantalla

21
Fig. 14

Después deberá hacer doble click sobre”Stagraphics Plus 5.1”y aparecerá la palabra Data, que es
una carpeta que contiene archivos de datos, sobre la cual deberá hacer doble Click . Luego tendrá la
pantalla que despliega todos los archivos de este directorio

Fig. 15

Estos son archivos que trae el software en este directorio y cuyo propósito es utilizarlos para la enseñanza
de la metodología estadística y el manejo del mismo.

En todo caso, lo mismo se hace para recuperar los datos desde el directorio mis documentos.

A modo de ejemplo para desarrollar los contenidos , seleccionemos desde este directorio el archivo
Cardata.

Haga doble click sobre este archivo que aparece en la pantalla de la Fig. 15 y verá desplegarse la
siguiente pantalla.
Fig. 16

22
Haga un doble click sobre el cuadrado ubicado en el rótulo Cardata y se desplegarán todas las variables
de este archivo de datos , que contienen datos sobre una variedad de variables colectadas desde un
conjunto de automóviles vendidos en Estados Unidos de Norteamérica.

Fig. 17

Trabajo Practico a desarrollar

1.- Confeccione una lista de 10 situaciones que impactan o impactaron el medio ambiente o entorno, que
son producto de actividades industriales ( A nivel nacional o internacional). Indique el lugar geográfico y
haga una reseña de la situación.

2.- Usando INTERNET, haga una búsqueda de dos situaciones o estudios donde se aplique:

1. Estudio de Línea Base

2. Estudios de monitores ambiental

3. Estudios de impacto ambiental

4.- Estudios de mitigación

23

Anda mungkin juga menyukai