Anda di halaman 1dari 14

Evolución de la quimiometría

La quimiometría es la aplicación de métodos estadísticos y matemáticos a problemas químicos


para permitir la recolección máxima y extracción de información útil. El desarrollo de
instrumentos y procesos químicos avanzados ha llevado a una necesidad para métodos
avanzados para diseñar experimentos, calibrar instrumentos y analizar los datos resultantes. Por
muchos años, hay era la opinión predominante de que si uno necesitaba análisis de datos
sofisticados, entonces el experimento no se planificó correctamente, pero ahora es reconoció
que la mayoría de los sistemas son de naturaleza multivariante y es poco probable que los
enfoques univariables den como resultado soluciones óptimas.

Al mismo tiempo, los instrumentos han evolucionado en complejidad, la capacidad


computacional ha avanzado de manera similar por lo que ha sido posible desarrollar y emplear
métodos cada vez más complejos y computacionalmente intensivos. En este documento, el
desarrollo de la quimiometría como un subcampo de la química y particularmente la química
analítica se presentará con una visión de la corriente se presentará el estado del arte y las
perspectivas para el futuro.

© 2003 Publicado por Elsevier B.V.

Introducción

La quimiometría ha evolucionado como una subdisciplina en química durante más de 30 años


como la necesidad de avanzada métodos estadísticos y matemáticos han aumentado con la
creciente sofisticación de la química instrumentación y procesos. Según lo definido por Massart
et al. [1], "quimiometría es una disciplina química que usa matemáticas, estadísticas y lógica
formal (a) para diseñar o seleccionar procedimientos experimentales óptimos; (b) para
proporcionar la máxima información química relevante mediante analizar datos químicos; y (c)
para obtener conocimiento sobre los sistemas químicos ".

En la revisión de 1972 de Estadística y Matemática Métodos en Química Analítica [2], solo hay
dos áreas de estudio activo; "Ajuste de curva" y "Control estadístico "donde el ajuste de la curva
se atribuye a ser el área de interés de los químicos analíticos mientras que se informó que los
ingenieros químicos estaban principalmente preocupados con control de calidad En 1971,
Svante Wold de la Universidad de Umeå en Suecia acuñó el término "Quimiometría" en una
propuesta de subvención [3] y poco después, su colaboración con Bruce Kowalski de la
Universidad of Washington, trajo el nombre a los Estados

Estados. Como parte del desarrollo de la quimiometría como una subdisciplina separada, la
Quimiometría Internacional. La sociedad se formó en 1974.

El primer papel con quimiometría en el título apareció en 1975 [4]. En lo que Kowalski sugirió
que quimiometría había desarrollado hasta el punto de que era ahora un área de investigación
en funcionamiento en las ciencias químicas.

Señala el valor del reconocimiento de patrones e indica que había vehículos para publicación de
resultados de investigación en revistas como el Journal of Información Química y Ciencias de la
Computación, pero que sería apropiado para la Química Analítica para publicar tal trabajo.
Aunque hubo un límite número de artículos publicados en estas revistas,hubo impedimentos
significativos para la publicación artículos quimiométricos, ya que sigue siendo considerable
escepticismo en la comunidad analítica en cuanto a la necesidad para herramientas complejas
de análisis de datos. En opinión de muchos químicos establecidos, la necesidad de datos
complicados herramientas de análisis fue una señal de que los experimentos adecuados no se
realizaron, en lugar de entender que el análisis de datos avanzado fue integral para el máximo
uso de nuevas tecnologías en evolución. La introducción de la sección "Técnicas y optimización
de computadoras" en Analytica Chimica Acta en 1977 [5] fue la primera publicación de revista
que estaba claramente dedicada a esta área en desarrollo En 1980, Química Analítica cambió el
nombre de la sección de revisión en Estadísticas y métodos matemáticos en química analítica a
la Quimiometría, y entró en la corriente principal del campo. Posteriormente, en 1982, la sección
separada en Analytica Chimica Acta se terminó porque quimiometría se había convertido
suficientemente bien aceptado para eliminar la necesidad de esta atención especial [6].
Posteriormente, dos revistas dedicadas a la quimiometría se lanzaron: quimiometría e
inteligencia Sistemas de laboratorio y Journal of Chemometrics,pero ahora para proporcionar
un vehículo para la discusión de más de los detalles de los métodos, mientras que las
aplicaciones generalmente se publicará en las revistas analíticas más amplias.

Por lo tanto, el aspecto crítico de los métodos quimiométricos es que habían sido comúnmente
aceptados en la práctica de la química Ha seguido siendo el desarrollo simultáneo de nuevos
instrumentos analíticos que han producido datos que exigían datos nuevos y más efectivos
métodos de análisis, mientras que la creciente capacidad de la computadora personal ha
permitido más computacionalmente cálculos intensivos que se realizarán sin la necesidad de
acceso a computadoras "súper". Esta combinación de desarrollos ha abierto muchas nuevas
opciones para la mejora del método analítico de datos. Por lo tanto, sobre En los años
intermedios, la quimiometría ha surgido tener un papel significativo dentro de la química
analítica incluyendo la incorporación a los sistemas operativos de una serie de instrumentos
analíticos comerciales.

Este documento revisará las principales áreas de la quimiometría relacionado con la química
analítica incluyendo calibración multivariada, reconocimiento de patrones y matemática
resolución de mezcla y luego resaltar algunos de las nuevas direcciones que los métodos
quimiométricos son tomando.

2.1. Introducción

En muchos estudios químicos, la concentración de uno o más especies se estiman en base a


medidas propiedades del sistema. Por ejemplo, la absorción de radiación electromagnética a
una longitud de onda específica puede estar relacionado con la concentración a través del Ley
Beer-Lambert.

donde I (λ) es la intensidad de la luz en la longitud de onda λ pasando a través de una muestra
de longitud l, I0 (λ) la luz intensidad incidente en la muestra, ε λ la extinción molar coeficiente
para la especie, y c es la concentración.

Típicamente, los coeficientes de extinción molar son no está bien caracterizado y las
correcciones deben hacerse para otras especies absorbentes de luz en la muestra. Así, una
calibración del sistema se realiza midiendo la absorbancia de luz de una serie de muestras para
las cuales se conocen concentraciones de las especies de interés.

El problema es entonces identificar la relación entre la propiedad medida y la concentración.


donde α es la absortividad de la muestra en el específico longitud de onda.

Para muestras que contienen múltiples especies, el problema se vuelve más complicado porque
puede haber varios componentes en el sistema que absorben en una determinada longitud de
onda. Las propiedades del sistema pueden ser consideradas ser una suma lineal del término que
representa los efectos fundamentales en ese sistema según los tiempos apropiados factores de
peso. Por ejemplo, la absorbancia en una longitud de onda particular de una mezcla de
compuestos para absorbencias de los componentes individuales

donde ε k (λ) es el coeficiente de extinción molar para el kth compuesto en longitud de onda λ y
c k es la correspondiente concentración. Por lo tanto, si las absorbencias de se mide una mezcla
de varias especies absorbentes

En m varias longitudes de onda, una serie de ecuaciones puede ser adquirido.

donde i es el índice para longitudes de onda de 1-m, j el índice para las muestras 1-j, y la cantidad
de componentes que se determinado es p. Para las muestras de calibración, las concentraciones
son conocidos y las absorbancias en una serie de longitudes de onda se mide. Un conjunto
similar de ecuaciones puede escribirse para emisión de radiación electromagnética como
ocurriría en la fluorescencia de rayos X o atómica espectroscopia de emisión como pueden las
ecuaciones equivalentes para otros medios de detección de una señal que es linealmente
relacionado con las concentraciones presentes en las muestras.

Expandiendo esta ecuación a una forma de matriz general rendimientos

La regresión ordinaria de mínimos cuadrados ha sido ampliamente aplicada para resolver este
problema estimando el εk (λi) l productos en Eq. (5) Es muy exitoso cuando solo componente
presente en la muestra. Sin embargo, para múltiples especies de analitos, hay una variedad de
problemas que incluyen colinealidad, correlación de adyacentes longitudes de onda, y errores
de medición tales que otros enfoques, como los métodos de regresión sesgados puede
proporcionar una mejor predicción de los componentes en la mezcla. Estos métodos son
comúnmente llamados métodos de calibración multivariante.

Los métodos de calibración multivariante han sido ampliamente aplicado porque muchos
métodos analíticos comunes proporcionar análisis de múltiples especies. En estos métodos, se
supone que hay una serie de mezclas para que las cantidades de cada componente son
conocidas y para el cual se ha medido una serie de propiedades.

Los métodos incluyen regresión de componentes principales (PCR), mínimos cuadrados


parciales (PLS), recocido simulado (SA), el algoritmo genético (GA) y artificial red neuronal (ANN).

The methods include principal components regression (PCR), partial least-squares (PLS),
simulated annealing (SA), the genetic algorithm (GA), and artificial neural networks (ANN).

2.2. Regresión de componentes principales

La medición de las características espectrales de una serie de muestras de calibración para las
cuales las concentraciones son conocidos proporciona un conjunto de datos en el que hay son
correlaciones y colinealidades significativas. Para reducir estos problemas, un análisis de
componentes principales (PCA) se realiza en la matriz de características espectrales,

B. La PCA produce un conjunto de ortogonales vectores que están completamente sin


correlación y al elegir un subconjunto de los vectores puede ayudar a mejorar la señal a la
relación de ruido. Este enfoque se llama componentes principales regresión. Un análisis de
componentes principales maximiza la varianza incluida en el análisis, pero no necesariamente
maximiza la calidad del resultado predicciones de concentraciones a partir de mediciones en
una muestra desconocida Para mejorar la calidad de predicción, el enfoque para extraer
componentes forma la matriz B se puede modificar como se describe en la siguiente sección.

2.3. Mínimos cuadrados parciales

Los mínimos cuadrados parciales han sido los más aplicados métodos de calibración
multivariable (por ejemplo, Martens y NFs [7]). En este caso, los componentes de la B matriz se
extraen para maximizar la covarianza con las absorbancias medidas en el conjunto de calibración
muestras. Las relaciones se desarrollan a partir del conjunto de entrenamiento y luego aplicado
al conjunto de incógnitas. Para los datos de muestra desconocidos, las concentraciones de los
diversos constituyentes en las muestras a menudo pueden ser predicho con una mayor precisión

2.4. Calibración paralela

Calibración de la matriz K [8] o calibración paralela [9] usar los datos espectrales como
predictores en mínimos cuadrados ajuste de los espectros de calibración a los espectros
medidos en la muestra de concentración desconocida. El estimado los coeficientes de mínimos
cuadrados luego se aplican a la calibración concentraciones para estimar la concentración
desconocida.

Este método de estimación se puede mostrar ser equivalente a un procedimiento conocido por
los estadísticos como predicción inversa generalizada o inversa generalizada regresión. Es un
método relativamente simple y compite favorablemente con PLS en situaciones donde los datos
no son muy ruidosos Tiene problemas cuando los espectros son muy co-lineales y promedian
los espectros replicados frecuentemente es una buena idea antes de implementar esto método

2.5. Recocido simulado

Recocido simulado [10,11] es una categoría de algoritmos de optimización estocástica utilizados


por primera vez por Kirkpatrick et al. [12] para la solución de combinatoria mejoramiento. Ha
sido generalizado por Bohachevsky et al. [13] para buscar el óptimo global en una superficie de
respuesta m-dimensional continua. Así, la búsqueda se basa en una función objetivo definida
para el problema El espacio de búsqueda para el algoritmo SA puede ser restringido El espacio
de búsqueda para el problema define una superficie de gran dimensión. Para un realista número
de fuentes y muestras, la superficie tiene numerosos mínimos locales además del mínimo global.
SA es muy atractivo debido a su mecanismo para salir de optima local.

El proceso de generar un punto de prueba y hacer es el punto actual si es aceptado se repite


hasta no hay cambio en el mejor valor de función objetivo obtenido para un número dado de
pasos sucesivos, Ns. En este momento, el proceso se considera constante estado. Cuando se
alcanza este estado estable, la temperatura T se reduce por un factor Tf, 0 <Tf <1. Nuevamente
el paso SA se aplica a la nueva temperatura. El algoritmo se detiene cuando la temperatura se
reduce al tamaño necesario para obtener la precisión suficiente de las estimaciones de la
contribución de la fuente en términos de mezcla de fracciones El criterio de parada
correspondiente puede expresarse mediante un número máximo predefinido de pasos para
bajar la temperatura, Nm. La descripción detallada del algoritmo viene dada por Song y Hopke
[14]. El rendimiento de SA está influenciado por los parámetros T, Tf, Ns y Nm. Para diferentes
datos conjuntos, pueden tener diferentes valores para dar rendimiento satisfactorio.

SA se ha aplicado a la estimación de parámetros en lineal y modelos no lineales [15] y para la


selección de características [dieciséis].

2.6. Algoritmo genético

Los algoritmos genéticos [17] fueron desarrollados por Holanda [18] como parte del estudio de
procesos adaptativos. Es diferente de los enfoques deterministas en ese el algoritmo genético
intenta imitar el probabilístico proceso evolutivo en la naturaleza. El procedimiento construye
una población aleatoria de cadenas, cada una de las cuales representa una posible solución al
problema que se investiga. En general, tal cadena puede ser simple secuencia de bits, un vector
de números de secuencia o cualquier otra representación lineal adecuada de los parámetros del
problema a ser optimizado Para cada miembro de la población, un valor de aptitud se calcula
transfiriendo a la función para ser optimizado. Esta aptitud valor determina la posición relativa
de la cadena dentro todos los miembros de la población con respecto a su cercanía a su valor
óptimo

A continuación, se genera una nueva generación de valores a partir de copias de las cuerdas de
la población anterior, considerando su aptitud relativa. Cuerdas con una buena forma física que
el promedio se copian más veces que las cadenas con valores más bajos Como una aplicación
iterativa de esto regla de reproducción, solo seleccionaría la mejor cadena de la población inicial.
Dos características innovadoras, por lo tanto, se introducen cambios en los valores de cadenas
elegidas arbitrariamente. Un evento de mutación puede aleatoriamente cambiar una o más
unidades de información de una cadena con una probabilidad específica. Se realiza un segundo
cambio a algunos miembros elegidos al azar de la población en el que dos cuerdas se mezclan
cortándolas y recombinándolos transversalmente, siempre que una considerable la cantidad de
información de cada cuerda permanece intacta.

Esta nueva población luego ingresa al siguiente ciclo y está expuesto a la presión selectiva y
dentro cada ciclo, la cadena que muestra la aptitud más alta el valor es memorizado El proceso
se repite hasta se cumple una condición final predefinida. Por lo tanto, representa un método
versátil para la búsqueda inteligente de la superficie compleja de soluciones que pueden existir
en el problema de calibración [19-21]. También ha sido ampliamente utilizado para la selección
de características o variables en una variedad de problemas [22,23]. Ha habido varias
comparaciones de los algoritmos genéticos con otros métodos de selección de características
[24-26]. Ellos también pueden ser utilizado en estudios de reconocimiento de patrones [27,28].
Ellos tienden a ser computacionalmente intensivos, pero con el aumentar la potencia de cálculo
que está disponible hacer que el Algoritmo Genético sea más práctico para muchas aplicaciones.

2.7. Relación señal / ruido

Las relaciones de señal a ruido se usaron para construir modelos para Datos NIR para detergente
en Brown et al. [29] y glucosa mediciones en McShane et al. [30]. La señal a los métodos de ruido
construir modelos basados en R2 y cantidades relacionadas con R2 parcial utilizando una
selección directa método. El procedimiento en McShane et al. Estaba demostrado ser
competitivo para el algoritmo genético y funciona mucho más rápido. Los algoritmos genéticos
pueden tomar varias horas a varios días para funcionar dependiendo de los datos tamaño y
complejidad del modelo. El algoritmo de señal a ruido entrega resultados en una fracción de ese
tiempo.

2.8. Redes neuronales artificiales

El problema de calibración normalmente se piensa que es uno lineal. Sin embargo, Long et al.
[31] encontró que la calibración se vuelve no lineal cuando altos niveles del ruido está presente.
En este caso, una red neuronal artificial enfoque puede proporcionar mejores resultados de
predicción. Un diagrama esquemático de una red neuronal artificial se muestra en la Fig. 1,
donde los círculos grandes son artificiales las neuronas y los cuadrados representan pesos que
describir la importancia de la señal que se transmite a lo largo de un camino determinado.

Fig. 1. Diagrama esquemático de una red neuronal con una capa oculta.

La base conceptual para redes neuronales artificiales ha estado en la literatura por un largo
tiempo [32-34]. Sin embargo, no fue hasta que Hopfield [35] introdujo el concepto novedoso de
no linealidad entre la entrada total recibido por una neurona de las otras neuronas y la
producción producida y transferida a otras neuronas. La salida no lineal y el acoplamiento de
retroalimentación de salidas con entradas dio una nueva flexibilidad a este viejo arquitectura y
provocó un nuevo campo de interés importante a través de una serie de disciplinas. Una
descripción detallada de redes neuronales artificiales en química ha sido proporcionada por
Zupan y Gasteiger [36]. Un numero de se han hecho aplicaciones a una variedad de problemas
incluida la calibración multivariante [37].

2.9. Resumen

Estos métodos ahora son bastante maduros y porque de las capacidades computacionales
disponibles en la corriente generación de computadoras personales, es posible para usar
efectivamente estos métodos. Por ejemplo, el algoritmo genético y redes neuronales artificiales
son obtener mucho más uso y ahora es posible desarrollar sofisticadas aplicaciones en tiempo
real para el proceso controlar.

3. Reconocimiento de patrones

Uno de los problemas importantes en quimiometría es la identificación de las relaciones entre


los productos químicos objetos caracterizados Clasificación y patrón el reconocimiento es
ampliamente utilizado en la resolución de problemas químicos. Para el químico, los objetos a
clasificar pueden ser muestras para qué análisis químico de sus constituyentes se obtienen o los
datos espectrales medidos para

Un compuesto. En reconocimiento de patrones, conjunto de objetos para qué datos químicos


están disponibles y los objetos son para ser ordenado en grupos de muestras "similares". Es
asumido que debería haber grupos de objetos que tienen características similares. Por ejemplo,
un fabricante es produciendo un producto y el laboratorio de control de calidad analiza muestras
aleatorias de la línea de producción. Esas muestras también se prueban para determinar su
aceptabilidad para realizar la función para la cual fueron creados. Por lo tanto, habrá dos grupos;
aceptable e inaceptable. Supongamos que es más fácil hacer medidas químicas, como la
recopilación de un espectro que las pruebas de aceptación directa. Entonces, es necesario usar
los datos químicos para determinar si lotes de producto son aceptables o no. Básicamente, hay
dos enfoques para los problemas de ordenar los objetos dependiendo de lo que se conoce a
priori. Si hay una serie de objetos para los cuales las asignaciones de grupo son conocidas,
entonces es necesario establecer cuantitativamente la base sobre la cual esos objetos se
clasificaron para que otros objetos de desconocidos la clase puede ser clasificada con precisión.

Este proceso se denomina reconocimiento de patrones supervisados y es lo que sería necesario


para el problema de fabricación anterior. Alternativamente, si no hay información a priori de la
clasificación de cualquiera de los objetos, entonces el problema es utilizar un método de
reconocimiento de patrones no supervisado para encontrar la estructura del grupo en los datos
que se necesitarían para encontrar los grupos de material de cerámica similar.

3.1. Reconocimiento de patrones sin supervisión

3.1.1. Análisis de conglomerados

El patrón no supervisado más comúnmente utilizado los métodos de reconocimiento son varias
formas de análisis de grupos. Estos métodos dependen de factores cuantitativos definición de
la desemejanza entre pares de objetos y definiciones matemáticas de lo que significa grupos. El
análisis de conglomerados se ha aplicado a un número de problemas químicos utilizando una
variedad de agrupamiento métodos [38].

3.1.2. Métodos de vectores propios

El objetivo de estos métodos es comprimir el contenido de información m-dimensional de los


datos en dos o tres dimensiones para que cada muestra pueda ser trazado y evaluado
visualmente. Estos métodos toman ventaja de la estructura de correlación dentro de los datos
a ayudar a separar la señal del ruido y comprimir la varianza del sistema en el menor número de
componentes posible. El análisis comienza con el cálculo de una dispersión matriz que
caracteriza las relaciones entre las variables medidas para cada objeto En la mayoría de los
casos, la matriz consiste en la correlación de momento del producto coeficientes. El análisis de
vectores propios puede tomar una de varias formas, incluidos los componentes principales
análisis, análisis de correspondencia o seguimiento de proyección [39].

3.1.3. Redes neuronales

Las redes neuronales artificiales son métodos diseñados para organizar el conocimiento de
maneras que imiten el razonamiento humano. Se pueden usar para resolver problemas no
supervisados y problemas supervisados de reconocimiento de patrones. Para no supervisados
problemas, varios tipos de redes pueden ser usado [40].

3.1.3.1. Redes de Kohonen

En el neural de Kohonen red [41], se ha desarrollado un enfoque que intenta encontrar grupos
de objetos similares. La esencia del algoritmo de Kohonen es una comparación repetida de los
vectores que representan los datos de muestra con peso vectores usando una métrica de
distancia como el euclidiano distancia o el coeficiente de correlación. Durante cada comparación
única, un ganador entre los vectores de peso se encuentra que tiene el mayor grado de similitud
(distancia más pequeña) la muestra. El peso ganador vector se adapta para estar más cerca de
la entrada real vector de muestra. Junto con el ganador, más vectores de peso se modifican
alrededor del ganador dentro de un límite topológico barrio. Para comenzar, la región es grande,
pero disminuye lentamente con el tiempo de entrenamiento. Después la adaptación, el
subconjunto de vectores de peso dentro el dominio se volvió un poco más similar a la entrada
vectores en términos de la métrica de distancia empleada. Una comparación de todos los
vectores de muestra con todos los vectores de peso y sus modificaciones se llama uno época.
Este proceso se repite en muchas épocas produciendo un comportamiento auto organizado de
las muestras en la matriz neuronal de baja dimensión. Las muestras forman una estructura visual
relacionada con el original m-dimensional variables espacio.

El resultado final de este proceso de capacitación es la colección de subconjuntos de vectores


de muestra agregados a algunos de los vectores de peso. El número de estos "cargados"
neuronas es v con v menor o igual a u. El entrenado vector de peso para dicho grupo agregado
de entrada vectores viene numéricamente muy cerca de su media vector. Los vectores de
ponderación u-v restantes no tienen cualquier vector de entrada asociado. Sus neuronas
correspondientes se definen como neuronas "descargadas". En este punto, solo un
reconocimiento de patrón no supervisado resultado similar a los obtenibles de jerárquicos
análisis de clúster, mapeo no lineal o principal

Se han obtenido gráficos de puntuaciones de componentes. A pesar de que la topología del


multi-espacio será preservada por este tipo especial de proyección, lo cuantitativo la
interpretación de tal mapa de Kohonen sigue siendo difícil especialmente cuando la información
acerca del correcto barrio desaparece durante tal proyección en un plano bidimensional. La
interpretabilidad de los resultados se mejoran al agregar una visualización de las relaciones
globales entre las neuronas cargadas en el mapa Se agrega un árbol de expansión mínimo [42]
para proporcionar esta visualización. Wienke y Hopke [43] proporciona una descripción
completa de la combinación algoritmo.

3.1.3.2. Redes de teoría de resonancia adaptativa.

Adaptado la teoría de la resonancia (ART) fue introducida por Grossberg [44,45] como modelo
matemático para la descripción de las funciones de comportamiento fundamentales del cerebro
biológico, como aprender, descuidar, paralelo y almacenamiento de información distribuida,
corto y memoria a largo plazo y reconocimiento de patrones. El objetivo de los modelos basados
en ART es entender la aparentemente situación paradójica que un cerebro biológico es capaz de
identificar un evento inesperado como lo que es: como perteneciente pertenecer o no a la base
de conocimiento existente.

Además, los modelos basados en ART intentan describir la capacidad del cerebro para expandir
su conocimiento mediante el aprendizaje desviando incógnitas sin perturbar o destruir
conocimiento almacenado. El ART-2a [46] ha sido elegido para este estudio porque su algoritmo
es matemáticamente simple y computacionalmente económico en comparación con otros tipos
de redes neuronales basadas en ART. los

La esencia del algoritmo ART-2a es la formación dinámica de una matriz de peso. Por lo tanto,
cada columna de esta matriz de peso describe la naturaleza del futuro centroide de una clase.
El tamaño de la clase es controlado por un parámetro de vigilancia que se encuentra entre 0 y
1. El algoritmo se describe en otro lugar [47] y tiene sido utilizado con una serie de problemas
relacionados con la caracterización de partículas únicas en el aire [48,49].

3.1.3.3. Máquinas de vectores de soporte.

Vector de soporte las máquinas son una clase relativamente nueva de clasificadores que puede
incorporar una variedad de métodos kernel como conjuntos de bases radiales y núcleos
gaussianos o redes neuronales [50,51]. Son un método para crear funciones de un conjunto de
datos de entrenamiento etiquetados. La función puede ser una función de clasificación (la salida
es binaria: es la entrada en una categoría) o la función puede ser una función de regresión
general. Todavía no ha habido aplicaciones directas a problemas químicos, pero son es probable
que sea más común en el futuro.

3.2. Reconocimiento supervisado de patrones

El otro enfoque para el reconocimiento de patrones es supervisado reconocimiento de patrones


en el que una serie de objetos de clases conocidas (conjunto de entrenamiento) se utilizan para
desarrollar matemática reglas o procedimientos para clasificar nuevos objetos en sus clases
apropiadas. A menudo muestras adicionales de clase conocida (conjunto de prueba) se ordenan
para probar la capacidad del sistema para realizar la tarea de clasificación con precisión. Hay una
variedad de métodos disponibles para realizar tal tarea. Métodos de vecino más cercano y lineal
el análisis discriminante son enfoques comúnmente utilizados. Sin embargo, hay varios otros
métodos disponibles.

3.2.1. Máquina de aprendizaje lineal

La máquina de aprendizaje lineal [52] también encuentra lineales límites entre las clases. Tales
límites pueden ser encontrado por prueba y error en el que el error de la la prueba previa
permite que la próxima prueba se desarrolle más inteligentemente. Para un espacio m-
dimensional, la decisión la superficie debe ser de menor dimensión que m. La lineal máquina de
aprendizaje se puede extender a múltiples clases separación a través de una secuencia de
superficies que producen separaciones binarias

3.2.2. Métodos de potencial o densidad

En los métodos potenciales [53], se supone un campo potencial existir alrededor de cada objeto
Tal lata archivada ser triangular o gaussiano y se caracteriza por su ancho La función de potencial
acumulativo para los objetos se determina sumando las alturas de funciones de objetos
individuales. Esta función acumulativa se divide por el número de objetos para obtener la
función media y asume un carácter probabilístico. Las clasificaciones de objetos en uno de las
clases establecidas pueden determinarse determinando la asignación de clase que produce el
máximo potencial.

3.2.3. Métodos de modelado de clase

En estos métodos, se desarrolla un modelo matemático para cada clase en el conjunto de


entrenamiento. Tal modelo define un dominio en el espacio y se desarrollan procedimientos
para probar si los nuevos objetos caen dentro ese dominio Si es así, estos objetos se asignan a
clase apropiada.

3.2.3.1. SIMCA. Modelado suave e independiente de

analogía de clase (SIMCA) [54] utiliza un componente principal análisis para desarrollar un
modelo de cada grupo dentro del conjunto de entrenamiento. Por lo tanto, las clases están
modeladas por una de una serie de estructuras lineales (un punto, una línea, un avión, etc.)
según la cantidad de componentes requerido para reproducir los datos de clase. Es posible para
definir las superficies límite alrededor de estas lineales estructuras basadas en los residuos de
los datos después montaje de los componentes. Los nuevos objetos pueden ser cuantitativos
probado para su membresía en el definido clases

3.2.3.2. UNEQ. En este método, cada grupo se modela

con una distribución normal multivariada [55]. Los Distancia Mahalanobis para cada objeto en
una clase dada. Las distancias de Mahalanobis siguen una distribución chi-cuadrado y un
intervalo de confianza (IC) del 95% puede, por lo tanto, definirse. Este intervalo de confianza
representa el límite de clase para la clase y nuevos objetos pueden ser probado para determinar
si se encuentran dentro de la clase definida límite.

3.2.4. Sistemas expertos en la construcción de reglas

Estos métodos se han desarrollado como uno de las técnicas de inteligencia de máquina. La idea
es que conjunto de entrenamiento se presenta a un motor de inducción basado en algún
procedimiento de clasificación y un conjunto de reglas son derivado de estos ejemplos que se
pueden utilizar para nuevos objetos [56]. Uno de los métodos más utilizados, el ID3 algoritmo
[57], utiliza la teoría de la información como base para la separación de clases y se ha
incorporado en varios programas comerciales. Si hay una colección de objetos que representan
diferentes clases, la información la entropía será alta. Separación de los objetos en grupos
homogéneos producirán una baja información entropía. Este método separa secuencialmente
los objetos usando un clasificador univariado para producir el Disminución máxima de la
entropía. El proceso continúa hasta que cada objeto esté en un grupo homogéneo. Como
resultado de esta clasificación, se proporciona una serie de reglas que se puede usar para
clasificar objetos del mismo dominio. Por lo tanto, en lugar de construir reglas al consultar una
experta, el sistema desarrolla las reglas de la clasificación el entrenamiento establece objetos.
3.3. Resumen

De nuevo, esta área de estudio es relativamente madura y no ha habido muchos informes de


nuevos desarrollos de métodos y los resultados se presentan típicamente en revistas de
aplicaciones.

4. Resolución de la mezcla

4.1. Introducción

En muchos estudios químicos, las propiedades medidas del sistema se puede considerar como
la suma lineal del término que representa los efectos fundamentales en ese sistema mide los
factores de peso apropiados. Por ejemplo, reorganizando Eq. (1) y expandirlo para referirse
muestra j en una serie de rendimientos de mezclas

donde α (λi) j es la absorbancia de la mezcla jth en longitud de onda λ i, ε (λi) k el coeficiente de


extinción molar para el kthcompuesto en la longitud de onda λi y Ckj es la concentración
correspondiente del componente k en la jth muestra. Por lo tanto, si las absorbencias de una
mezcla de varias especies absorbentes se miden a m diversas longitudes de onda, se puede
obtener una serie de ecuaciones.

Si sabemos qué componentes están presentes y qué los coeficientes de extinción molar son para
cada compuesto en cada longitud de onda, las concentraciones de cada compuesto pueden ser
determinado usando una variedad de técnicas para ajustarse a estos datos, incluida la
calibración multivariable métodos descritos anteriormente en este informe. Del mismo modo,
la suposición de la conservación en masa y el uso de un análisis de balance de masa se puede
usar para identificar una distribución de las fuentes de partículas suspendidas en el aire en la
atmósfera. Esta metodología tiene generalmente sido referido dentro de la comunidad de
investigación de contaminación del aire como modelado de receptores [58,59]. El enfoque
normal para obtener un conjunto de datos para el modelado de receptores es para determinar
una gran cantidad de componentes químicos como las concentraciones elementales en varias
muestras. Problemas similares se encuentran a lo largo de analítica y química ambiental. Sin
embargo, en muchos casos ni el número de compuestos ni sus espectros de absorbancia pueden
ser conocidos. Por ejemplo, varios compuestos pueden eluir de un Columna HPLC a
aproximadamente el mismo tiempo de retención para que un pico de elución amplio o varios
picos mal resueltos que contienen estos compuestos se pueden observar. Así, en cualquier
punto de la curva de elución, habría una mezcla de los mismos componentes, pero en diferentes
proporciones.

4.2. Análisis factorial

El análisis de componentes principales conduce al modelo resumido en Eq. (6) pero aplicado a
matrices después de las variables han sido estandarizadas Una mezcla cuantitativa la resolución
se puede obtener al descentrar los puntajes de los componentes resultantes [60]. Este enfoque
tiene se ha denominado análisis absoluto de componentes principales y se ha utilizado
ampliamente en el modelado de receptores. Se han realizado otras formas de análisis de
vectores propios en el que los datos no están centrados haciendo que la resolución cuantitativa
de los componentes de la mezcla más simple [61]. Hay un problema de libertad de rotación que
hacer que el problema de resolución de la mezcla esté mal planteado [62]. Sin embargo, existen
restricciones naturales en los resultados del análisis factorial que puede usarse para limitar el
espacio en que la solución. Los elementos del componente perfiles y las contribuciones de cada
componente a la muestra debe ser estrictamente no negativa. El modelo debe reproducir los
datos originales para cada una de las mezclas y la suma de las contribuciones debe ser menor
que o igual a la masa total medida de la muestra. Estas las restricciones se pueden incluir en el
análisis [49].

4.2.1. Resolución de curva de auto-modelado

Uno de los primeros métodos para resolver la indeterminacióndel análisis de los factores de las
mezclas es utilizar puntos en los espectros para los cuales el valor de uno o se sabe que más
componentes son cero [63]. Allí tienen extensiones de una variedad de espectroscopía química
sistemas de medición [64].

4.2.2. Transformación objetivo

Otro enfoque para la rotación de los ejes del factor a valores más realistas físicamente es la
transformación objetivo análisis factorial (TTFA) desarrollado originalmente por Malinou. El
concepto es que alguna idea sobre la naturaleza de las propiedades de los componentes de la
mezcla (vectores de prueba) se conocerá a priori. Este componente factor los ejes se pueden
rotar hacia estos vectores de prueba. La calidad del ajuste a los vectores de prueba se puede
examinar para ver si son una representación razonable de la mezcla propiedades del
componente y las cantidades de los componentes presente en la mezcla puede entonces ser
estimado.

4.2.3. TTFA iterativo

A falta de información sobre los componentes, Roscoe y Hopke [65] encontraron que el vector
unitario podría servir como vectores de destino inicial con el subsecuente perfil desarrollado
forzado a ser no negativos de acuerdo con las restricciones físicas naturales. Posteriormente, el
TTFA iterativo se aplicó a la sustancia química sistemas de Vandeginste et al. [66] y ha llegado a
ser utilizado en mucha resolución de mezcla y modelado de receptores estudios.

4.2.4. Análisis de factor evolutivo

En muchos sistemas de análisis químico, hay un cambiando el número de componentes en la


medida mezcla. Por ejemplo, el efluente de un cromatógrafo líquido contiene resuelto y
parcialmente resuelto componentes, lo que produce un cambio continuo mezcla que contiene
diferentes cantidades de componentes cuyos espectros de longitud de onda múltiple son
secuencialmente determinado. El análisis de factor de evolución hace repetidas

Análisis eigenvector de una serie de matrices de datos comenzando con un conjunto base de
espectros y al cual espectros adicionales son espectros se agregan [61,67]. Cuando aparece una
nueva especie absorbente, un valor propio significativo debe evolucionar. De esta manera, la
presencia de componentes puede identificarse más fácilmente y distribuido cuantitativamente.
Este enfoque es aplicable a cualquier proceso químico evolutivo en que una serie de puntos de
datos químicos son secuencialmente generado y que puede contener un número variable de
componentes medibles.
4.2.5. Factor de ventana

Un enfoque similar para analizar una serie de mediciones de cambiar componentes es factor de
ventana análisis. En lugar de agregar espectros adicionales continuamente hacer que la matriz
analizada sea más grande, una ventana de tamaño fijo se analiza secuencialmente [68] como los
dispositivos de ventana a lo largo de la longitud de onda o eje de tiempo. En este caso, la
cantidad de autovalores significativos puede disminuir y aumentar ya que unos subconjuntos de
datos son siendo examinado que puede tener números más grandes o más pequeños de
componentes que contribuyen a lo observado datos espectrales.

4.2.6. SAFER / UNMIX y matriz positiva factorización (PMF)

Otros enfoques para proporcionar una fuente cuantitativa resoluciones se han desarrollado y
utilizado en receptor modelado. Estos métodos incluyen distribución de fuentes por factores
con restricciones explícitas (SAFER) y factorización matricial positiva (PMF). En estos enfoques,
el espacio en el que se encuentra la solución del factor se trunca al imponer uno o más de las
restricciones físicas discutidas arriba. MÁS SEGURO [69-71] puede incorporar otras restricciones
basadas en conocimiento del sistema. Si el rango en el que la concentración de un elemento
debe mentir puede ser estimada, entonces estos límites pueden agregarse al análisis. SAFER se
ha aplicado a la interpretación de aerotransportado dato de compuestos orgánicos de Atlanta,
GA [72] y material particulado transportado por el aire en Los Angeles, CA [73] y Phoenix, AZ
[74].

Otro enfoque para el análisis de factores es la matriz positiva factorización. Reconoce que un
vector propio el análisis es en realidad un proceso que minimiza la suma de residuos cuadrados
para que sea un mínimo cuadrados implícitos procesos. En PMF, un enfoque explícito de
mínimos cuadrados es tomado en qué puntos de referencia individuales pueden ser
individualmente ponderado por su incertidumbre estimada. Paatero y Tapper [75] han
demostrado que un vector propio significativo el análisis no puede realizarse si la matriz de datos
se escala elemento por elemento. Paatero ha desarrollado un esquema de optimización global
en el que la solución conjunta está directamente determinado [76]. Este enfoque ha sido
ampliamente aplicado al problema de modelado del receptor (p. [77-84]). También se ha
aplicado a espectroscópicos y problemas de calibración [82-84].

4.3. Análisis de factores mulimodales

Con el desarrollo de métodos analíticos combinados o el muestreo repetido de complejos


ambientales sistema, los conjuntos de datos pueden volverse multidimensionales. Por ejemplo,
espectroscopía de fluorescencia de una serie de mezclas también produce datos tridireccionales
porque hay excitación espectro y espectros de emisión para cada uno de las mezclas. Métodos
con guiones (por ejemplo, ICP-AES) también producir datos tridimensionales. El multi-elemental
análisis de una serie de muestras de partículas en el aire en una red de sitios de muestreo
produce un triple conjunto de datos de tiempo, ubicación y composición. Por lo tanto, factor el
análisis se ha ampliado para tratar con múltiples vías datos [85-88].

La disponibilidad de la dimensionalidad adicional para los datos permiten la resolución de


componentes que son alto similar en dos modos, pero tienen un comportamiento diferente en
los modos superiores. Tales componentes serían irresolubles por métodos convencionales de
dos vías porque de su colinealidad, pero se resuelven en estos datos establece [89,90]. Algunos
esfuerzos han analizado tales datos por desplegarlos en una matriz de dos vías por lo que el
convencional método descrito anteriormente pueden ser utilizados, pero tales métodos pierden
la ventaja única de las tres vías estructura. Muchos detalles de estos métodos todavía necesitan
se resuelva, pero el análisis de datos multidireccionales es un área de estudio de rápido
crecimiento en la solución de la mezcla problema de resolución Ha habido una serie de métodos
alternativos menores para resolver tales problemas. Faber et al. [91] revisa una cantidad de
estos métodos.

4.4. Análisis de imagen

Una de las principales áreas para las cuales la resolución de mezcla métodos que se están
aplicando es en el área de la química análisis de imagen. Mediante el uso de espectrometría
microscópica, es posible obtener grandes conjuntos de datos que representan el espectro de la
mezcla que está presente en cada ubicación a través de la muestra. Esta imagen puede ser
analizada por métodos de resolución de mezcla. El campo era revisado por Geladi y Grahn [92]
y se destaca en la reciente revisión de quimiometría por Lavine y Trabajador [93]. El mayor
desafío ha sido el tamaño de la matriz de datos que puede dificultar la obtención resultados
rápidos Nuevos métodos como modificaciones a alternancia de mínimos cuadrados [94] y factor
más eficiente algoritmos de análisis [95] se han propuesto específicamente para la aplicación a
imágenes multivariantes. Esto es un área de exploración en curso.

5. Conclusiones

La quimiometría ha avanzado en paralelo con el avance instrumentación analítica y


computacional capacidad. Se ha expandido ampliamente desde sus comienzos en el ajuste de
curva y garantía de calidad en una variedad de otras áreas, incluida la calibración multivariante,
patrón reconocimiento y resolución de mezcla. Sin embargo, puede ser visto que el campo
continúa desarrollándose y adaptándose a nuevos desafíos. La revisión más reciente del campo
[93] destaca la aplicación de la quimiometría a la imagen análisis, matrices de sensores y
quimioinformática. Como discutido en la Sección 4.4, el análisis de imagen representa un
problema de resolución de mezcla que es un área activa investigación.

Para hacer un uso completo de las matrices de sensores, calibración multivariable métodos se
están aplicando En muchos casos, el marco conceptual de la matriz de sensores es para duplicar
capacidades humanas como una nariz electrónica o una lengua electrónica. La idea es que,
aunque los sensores generalmente no son altamente selectivos, la combinación de una serie de
sensores que se acoplan con el procesamiento apropiado de las señales resultantes puede
proporcionar la necesaria selectividad al tiempo que conserva los bajos costos y los requisitos
de potencia que son típicos de los dispositivos de generación actual [93]. Se puede ver que el
campo continúa evolucionando y nuevas herramientas serán desarrolladas y desplegadas como
nuevos desafíos de análisis de datos se plantean a la quimiometría comunidad.

Anda mungkin juga menyukai