Introducción
En la revisión de 1972 de Estadística y Matemática Métodos en Química Analítica [2], solo hay
dos áreas de estudio activo; "Ajuste de curva" y "Control estadístico "donde el ajuste de la curva
se atribuye a ser el área de interés de los químicos analíticos mientras que se informó que los
ingenieros químicos estaban principalmente preocupados con control de calidad En 1971,
Svante Wold de la Universidad de Umeå en Suecia acuñó el término "Quimiometría" en una
propuesta de subvención [3] y poco después, su colaboración con Bruce Kowalski de la
Universidad of Washington, trajo el nombre a los Estados
Estados. Como parte del desarrollo de la quimiometría como una subdisciplina separada, la
Quimiometría Internacional. La sociedad se formó en 1974.
El primer papel con quimiometría en el título apareció en 1975 [4]. En lo que Kowalski sugirió
que quimiometría había desarrollado hasta el punto de que era ahora un área de investigación
en funcionamiento en las ciencias químicas.
Señala el valor del reconocimiento de patrones e indica que había vehículos para publicación de
resultados de investigación en revistas como el Journal of Información Química y Ciencias de la
Computación, pero que sería apropiado para la Química Analítica para publicar tal trabajo.
Aunque hubo un límite número de artículos publicados en estas revistas,hubo impedimentos
significativos para la publicación artículos quimiométricos, ya que sigue siendo considerable
escepticismo en la comunidad analítica en cuanto a la necesidad para herramientas complejas
de análisis de datos. En opinión de muchos químicos establecidos, la necesidad de datos
complicados herramientas de análisis fue una señal de que los experimentos adecuados no se
realizaron, en lugar de entender que el análisis de datos avanzado fue integral para el máximo
uso de nuevas tecnologías en evolución. La introducción de la sección "Técnicas y optimización
de computadoras" en Analytica Chimica Acta en 1977 [5] fue la primera publicación de revista
que estaba claramente dedicada a esta área en desarrollo En 1980, Química Analítica cambió el
nombre de la sección de revisión en Estadísticas y métodos matemáticos en química analítica a
la Quimiometría, y entró en la corriente principal del campo. Posteriormente, en 1982, la sección
separada en Analytica Chimica Acta se terminó porque quimiometría se había convertido
suficientemente bien aceptado para eliminar la necesidad de esta atención especial [6].
Posteriormente, dos revistas dedicadas a la quimiometría se lanzaron: quimiometría e
inteligencia Sistemas de laboratorio y Journal of Chemometrics,pero ahora para proporcionar
un vehículo para la discusión de más de los detalles de los métodos, mientras que las
aplicaciones generalmente se publicará en las revistas analíticas más amplias.
Por lo tanto, el aspecto crítico de los métodos quimiométricos es que habían sido comúnmente
aceptados en la práctica de la química Ha seguido siendo el desarrollo simultáneo de nuevos
instrumentos analíticos que han producido datos que exigían datos nuevos y más efectivos
métodos de análisis, mientras que la creciente capacidad de la computadora personal ha
permitido más computacionalmente cálculos intensivos que se realizarán sin la necesidad de
acceso a computadoras "súper". Esta combinación de desarrollos ha abierto muchas nuevas
opciones para la mejora del método analítico de datos. Por lo tanto, sobre En los años
intermedios, la quimiometría ha surgido tener un papel significativo dentro de la química
analítica incluyendo la incorporación a los sistemas operativos de una serie de instrumentos
analíticos comerciales.
Este documento revisará las principales áreas de la quimiometría relacionado con la química
analítica incluyendo calibración multivariada, reconocimiento de patrones y matemática
resolución de mezcla y luego resaltar algunos de las nuevas direcciones que los métodos
quimiométricos son tomando.
2.1. Introducción
donde I (λ) es la intensidad de la luz en la longitud de onda λ pasando a través de una muestra
de longitud l, I0 (λ) la luz intensidad incidente en la muestra, ε λ la extinción molar coeficiente
para la especie, y c es la concentración.
Típicamente, los coeficientes de extinción molar son no está bien caracterizado y las
correcciones deben hacerse para otras especies absorbentes de luz en la muestra. Así, una
calibración del sistema se realiza midiendo la absorbancia de luz de una serie de muestras para
las cuales se conocen concentraciones de las especies de interés.
Para muestras que contienen múltiples especies, el problema se vuelve más complicado porque
puede haber varios componentes en el sistema que absorben en una determinada longitud de
onda. Las propiedades del sistema pueden ser consideradas ser una suma lineal del término que
representa los efectos fundamentales en ese sistema según los tiempos apropiados factores de
peso. Por ejemplo, la absorbancia en una longitud de onda particular de una mezcla de
compuestos para absorbencias de los componentes individuales
donde ε k (λ) es el coeficiente de extinción molar para el kth compuesto en longitud de onda λ y
c k es la correspondiente concentración. Por lo tanto, si las absorbencias de se mide una mezcla
de varias especies absorbentes
donde i es el índice para longitudes de onda de 1-m, j el índice para las muestras 1-j, y la cantidad
de componentes que se determinado es p. Para las muestras de calibración, las concentraciones
son conocidos y las absorbancias en una serie de longitudes de onda se mide. Un conjunto
similar de ecuaciones puede escribirse para emisión de radiación electromagnética como
ocurriría en la fluorescencia de rayos X o atómica espectroscopia de emisión como pueden las
ecuaciones equivalentes para otros medios de detección de una señal que es linealmente
relacionado con las concentraciones presentes en las muestras.
La regresión ordinaria de mínimos cuadrados ha sido ampliamente aplicada para resolver este
problema estimando el εk (λi) l productos en Eq. (5) Es muy exitoso cuando solo componente
presente en la muestra. Sin embargo, para múltiples especies de analitos, hay una variedad de
problemas que incluyen colinealidad, correlación de adyacentes longitudes de onda, y errores
de medición tales que otros enfoques, como los métodos de regresión sesgados puede
proporcionar una mejor predicción de los componentes en la mezcla. Estos métodos son
comúnmente llamados métodos de calibración multivariante.
Los métodos de calibración multivariante han sido ampliamente aplicado porque muchos
métodos analíticos comunes proporcionar análisis de múltiples especies. En estos métodos, se
supone que hay una serie de mezclas para que las cantidades de cada componente son
conocidas y para el cual se ha medido una serie de propiedades.
The methods include principal components regression (PCR), partial least-squares (PLS),
simulated annealing (SA), the genetic algorithm (GA), and artificial neural networks (ANN).
La medición de las características espectrales de una serie de muestras de calibración para las
cuales las concentraciones son conocidos proporciona un conjunto de datos en el que hay son
correlaciones y colinealidades significativas. Para reducir estos problemas, un análisis de
componentes principales (PCA) se realiza en la matriz de características espectrales,
Los mínimos cuadrados parciales han sido los más aplicados métodos de calibración
multivariable (por ejemplo, Martens y NFs [7]). En este caso, los componentes de la B matriz se
extraen para maximizar la covarianza con las absorbancias medidas en el conjunto de calibración
muestras. Las relaciones se desarrollan a partir del conjunto de entrenamiento y luego aplicado
al conjunto de incógnitas. Para los datos de muestra desconocidos, las concentraciones de los
diversos constituyentes en las muestras a menudo pueden ser predicho con una mayor precisión
Calibración de la matriz K [8] o calibración paralela [9] usar los datos espectrales como
predictores en mínimos cuadrados ajuste de los espectros de calibración a los espectros
medidos en la muestra de concentración desconocida. El estimado los coeficientes de mínimos
cuadrados luego se aplican a la calibración concentraciones para estimar la concentración
desconocida.
Este método de estimación se puede mostrar ser equivalente a un procedimiento conocido por
los estadísticos como predicción inversa generalizada o inversa generalizada regresión. Es un
método relativamente simple y compite favorablemente con PLS en situaciones donde los datos
no son muy ruidosos Tiene problemas cuando los espectros son muy co-lineales y promedian
los espectros replicados frecuentemente es una buena idea antes de implementar esto método
Los algoritmos genéticos [17] fueron desarrollados por Holanda [18] como parte del estudio de
procesos adaptativos. Es diferente de los enfoques deterministas en ese el algoritmo genético
intenta imitar el probabilístico proceso evolutivo en la naturaleza. El procedimiento construye
una población aleatoria de cadenas, cada una de las cuales representa una posible solución al
problema que se investiga. En general, tal cadena puede ser simple secuencia de bits, un vector
de números de secuencia o cualquier otra representación lineal adecuada de los parámetros del
problema a ser optimizado Para cada miembro de la población, un valor de aptitud se calcula
transfiriendo a la función para ser optimizado. Esta aptitud valor determina la posición relativa
de la cadena dentro todos los miembros de la población con respecto a su cercanía a su valor
óptimo
A continuación, se genera una nueva generación de valores a partir de copias de las cuerdas de
la población anterior, considerando su aptitud relativa. Cuerdas con una buena forma física que
el promedio se copian más veces que las cadenas con valores más bajos Como una aplicación
iterativa de esto regla de reproducción, solo seleccionaría la mejor cadena de la población inicial.
Dos características innovadoras, por lo tanto, se introducen cambios en los valores de cadenas
elegidas arbitrariamente. Un evento de mutación puede aleatoriamente cambiar una o más
unidades de información de una cadena con una probabilidad específica. Se realiza un segundo
cambio a algunos miembros elegidos al azar de la población en el que dos cuerdas se mezclan
cortándolas y recombinándolos transversalmente, siempre que una considerable la cantidad de
información de cada cuerda permanece intacta.
Esta nueva población luego ingresa al siguiente ciclo y está expuesto a la presión selectiva y
dentro cada ciclo, la cadena que muestra la aptitud más alta el valor es memorizado El proceso
se repite hasta se cumple una condición final predefinida. Por lo tanto, representa un método
versátil para la búsqueda inteligente de la superficie compleja de soluciones que pueden existir
en el problema de calibración [19-21]. También ha sido ampliamente utilizado para la selección
de características o variables en una variedad de problemas [22,23]. Ha habido varias
comparaciones de los algoritmos genéticos con otros métodos de selección de características
[24-26]. Ellos también pueden ser utilizado en estudios de reconocimiento de patrones [27,28].
Ellos tienden a ser computacionalmente intensivos, pero con el aumentar la potencia de cálculo
que está disponible hacer que el Algoritmo Genético sea más práctico para muchas aplicaciones.
Las relaciones de señal a ruido se usaron para construir modelos para Datos NIR para detergente
en Brown et al. [29] y glucosa mediciones en McShane et al. [30]. La señal a los métodos de ruido
construir modelos basados en R2 y cantidades relacionadas con R2 parcial utilizando una
selección directa método. El procedimiento en McShane et al. Estaba demostrado ser
competitivo para el algoritmo genético y funciona mucho más rápido. Los algoritmos genéticos
pueden tomar varias horas a varios días para funcionar dependiendo de los datos tamaño y
complejidad del modelo. El algoritmo de señal a ruido entrega resultados en una fracción de ese
tiempo.
El problema de calibración normalmente se piensa que es uno lineal. Sin embargo, Long et al.
[31] encontró que la calibración se vuelve no lineal cuando altos niveles del ruido está presente.
En este caso, una red neuronal artificial enfoque puede proporcionar mejores resultados de
predicción. Un diagrama esquemático de una red neuronal artificial se muestra en la Fig. 1,
donde los círculos grandes son artificiales las neuronas y los cuadrados representan pesos que
describir la importancia de la señal que se transmite a lo largo de un camino determinado.
Fig. 1. Diagrama esquemático de una red neuronal con una capa oculta.
La base conceptual para redes neuronales artificiales ha estado en la literatura por un largo
tiempo [32-34]. Sin embargo, no fue hasta que Hopfield [35] introdujo el concepto novedoso de
no linealidad entre la entrada total recibido por una neurona de las otras neuronas y la
producción producida y transferida a otras neuronas. La salida no lineal y el acoplamiento de
retroalimentación de salidas con entradas dio una nueva flexibilidad a este viejo arquitectura y
provocó un nuevo campo de interés importante a través de una serie de disciplinas. Una
descripción detallada de redes neuronales artificiales en química ha sido proporcionada por
Zupan y Gasteiger [36]. Un numero de se han hecho aplicaciones a una variedad de problemas
incluida la calibración multivariante [37].
2.9. Resumen
Estos métodos ahora son bastante maduros y porque de las capacidades computacionales
disponibles en la corriente generación de computadoras personales, es posible para usar
efectivamente estos métodos. Por ejemplo, el algoritmo genético y redes neuronales artificiales
son obtener mucho más uso y ahora es posible desarrollar sofisticadas aplicaciones en tiempo
real para el proceso controlar.
3. Reconocimiento de patrones
El patrón no supervisado más comúnmente utilizado los métodos de reconocimiento son varias
formas de análisis de grupos. Estos métodos dependen de factores cuantitativos definición de
la desemejanza entre pares de objetos y definiciones matemáticas de lo que significa grupos. El
análisis de conglomerados se ha aplicado a un número de problemas químicos utilizando una
variedad de agrupamiento métodos [38].
Las redes neuronales artificiales son métodos diseñados para organizar el conocimiento de
maneras que imiten el razonamiento humano. Se pueden usar para resolver problemas no
supervisados y problemas supervisados de reconocimiento de patrones. Para no supervisados
problemas, varios tipos de redes pueden ser usado [40].
En el neural de Kohonen red [41], se ha desarrollado un enfoque que intenta encontrar grupos
de objetos similares. La esencia del algoritmo de Kohonen es una comparación repetida de los
vectores que representan los datos de muestra con peso vectores usando una métrica de
distancia como el euclidiano distancia o el coeficiente de correlación. Durante cada comparación
única, un ganador entre los vectores de peso se encuentra que tiene el mayor grado de similitud
(distancia más pequeña) la muestra. El peso ganador vector se adapta para estar más cerca de
la entrada real vector de muestra. Junto con el ganador, más vectores de peso se modifican
alrededor del ganador dentro de un límite topológico barrio. Para comenzar, la región es grande,
pero disminuye lentamente con el tiempo de entrenamiento. Después la adaptación, el
subconjunto de vectores de peso dentro el dominio se volvió un poco más similar a la entrada
vectores en términos de la métrica de distancia empleada. Una comparación de todos los
vectores de muestra con todos los vectores de peso y sus modificaciones se llama uno época.
Este proceso se repite en muchas épocas produciendo un comportamiento auto organizado de
las muestras en la matriz neuronal de baja dimensión. Las muestras forman una estructura visual
relacionada con el original m-dimensional variables espacio.
Adaptado la teoría de la resonancia (ART) fue introducida por Grossberg [44,45] como modelo
matemático para la descripción de las funciones de comportamiento fundamentales del cerebro
biológico, como aprender, descuidar, paralelo y almacenamiento de información distribuida,
corto y memoria a largo plazo y reconocimiento de patrones. El objetivo de los modelos basados
en ART es entender la aparentemente situación paradójica que un cerebro biológico es capaz de
identificar un evento inesperado como lo que es: como perteneciente pertenecer o no a la base
de conocimiento existente.
Además, los modelos basados en ART intentan describir la capacidad del cerebro para expandir
su conocimiento mediante el aprendizaje desviando incógnitas sin perturbar o destruir
conocimiento almacenado. El ART-2a [46] ha sido elegido para este estudio porque su algoritmo
es matemáticamente simple y computacionalmente económico en comparación con otros tipos
de redes neuronales basadas en ART. los
La esencia del algoritmo ART-2a es la formación dinámica de una matriz de peso. Por lo tanto,
cada columna de esta matriz de peso describe la naturaleza del futuro centroide de una clase.
El tamaño de la clase es controlado por un parámetro de vigilancia que se encuentra entre 0 y
1. El algoritmo se describe en otro lugar [47] y tiene sido utilizado con una serie de problemas
relacionados con la caracterización de partículas únicas en el aire [48,49].
Vector de soporte las máquinas son una clase relativamente nueva de clasificadores que puede
incorporar una variedad de métodos kernel como conjuntos de bases radiales y núcleos
gaussianos o redes neuronales [50,51]. Son un método para crear funciones de un conjunto de
datos de entrenamiento etiquetados. La función puede ser una función de clasificación (la salida
es binaria: es la entrada en una categoría) o la función puede ser una función de regresión
general. Todavía no ha habido aplicaciones directas a problemas químicos, pero son es probable
que sea más común en el futuro.
La máquina de aprendizaje lineal [52] también encuentra lineales límites entre las clases. Tales
límites pueden ser encontrado por prueba y error en el que el error de la la prueba previa
permite que la próxima prueba se desarrolle más inteligentemente. Para un espacio m-
dimensional, la decisión la superficie debe ser de menor dimensión que m. La lineal máquina de
aprendizaje se puede extender a múltiples clases separación a través de una secuencia de
superficies que producen separaciones binarias
En los métodos potenciales [53], se supone un campo potencial existir alrededor de cada objeto
Tal lata archivada ser triangular o gaussiano y se caracteriza por su ancho La función de potencial
acumulativo para los objetos se determina sumando las alturas de funciones de objetos
individuales. Esta función acumulativa se divide por el número de objetos para obtener la
función media y asume un carácter probabilístico. Las clasificaciones de objetos en uno de las
clases establecidas pueden determinarse determinando la asignación de clase que produce el
máximo potencial.
analogía de clase (SIMCA) [54] utiliza un componente principal análisis para desarrollar un
modelo de cada grupo dentro del conjunto de entrenamiento. Por lo tanto, las clases están
modeladas por una de una serie de estructuras lineales (un punto, una línea, un avión, etc.)
según la cantidad de componentes requerido para reproducir los datos de clase. Es posible para
definir las superficies límite alrededor de estas lineales estructuras basadas en los residuos de
los datos después montaje de los componentes. Los nuevos objetos pueden ser cuantitativos
probado para su membresía en el definido clases
con una distribución normal multivariada [55]. Los Distancia Mahalanobis para cada objeto en
una clase dada. Las distancias de Mahalanobis siguen una distribución chi-cuadrado y un
intervalo de confianza (IC) del 95% puede, por lo tanto, definirse. Este intervalo de confianza
representa el límite de clase para la clase y nuevos objetos pueden ser probado para determinar
si se encuentran dentro de la clase definida límite.
Estos métodos se han desarrollado como uno de las técnicas de inteligencia de máquina. La idea
es que conjunto de entrenamiento se presenta a un motor de inducción basado en algún
procedimiento de clasificación y un conjunto de reglas son derivado de estos ejemplos que se
pueden utilizar para nuevos objetos [56]. Uno de los métodos más utilizados, el ID3 algoritmo
[57], utiliza la teoría de la información como base para la separación de clases y se ha
incorporado en varios programas comerciales. Si hay una colección de objetos que representan
diferentes clases, la información la entropía será alta. Separación de los objetos en grupos
homogéneos producirán una baja información entropía. Este método separa secuencialmente
los objetos usando un clasificador univariado para producir el Disminución máxima de la
entropía. El proceso continúa hasta que cada objeto esté en un grupo homogéneo. Como
resultado de esta clasificación, se proporciona una serie de reglas que se puede usar para
clasificar objetos del mismo dominio. Por lo tanto, en lugar de construir reglas al consultar una
experta, el sistema desarrolla las reglas de la clasificación el entrenamiento establece objetos.
3.3. Resumen
4. Resolución de la mezcla
4.1. Introducción
En muchos estudios químicos, las propiedades medidas del sistema se puede considerar como
la suma lineal del término que representa los efectos fundamentales en ese sistema mide los
factores de peso apropiados. Por ejemplo, reorganizando Eq. (1) y expandirlo para referirse
muestra j en una serie de rendimientos de mezclas
Si sabemos qué componentes están presentes y qué los coeficientes de extinción molar son para
cada compuesto en cada longitud de onda, las concentraciones de cada compuesto pueden ser
determinado usando una variedad de técnicas para ajustarse a estos datos, incluida la
calibración multivariable métodos descritos anteriormente en este informe. Del mismo modo,
la suposición de la conservación en masa y el uso de un análisis de balance de masa se puede
usar para identificar una distribución de las fuentes de partículas suspendidas en el aire en la
atmósfera. Esta metodología tiene generalmente sido referido dentro de la comunidad de
investigación de contaminación del aire como modelado de receptores [58,59]. El enfoque
normal para obtener un conjunto de datos para el modelado de receptores es para determinar
una gran cantidad de componentes químicos como las concentraciones elementales en varias
muestras. Problemas similares se encuentran a lo largo de analítica y química ambiental. Sin
embargo, en muchos casos ni el número de compuestos ni sus espectros de absorbancia pueden
ser conocidos. Por ejemplo, varios compuestos pueden eluir de un Columna HPLC a
aproximadamente el mismo tiempo de retención para que un pico de elución amplio o varios
picos mal resueltos que contienen estos compuestos se pueden observar. Así, en cualquier
punto de la curva de elución, habría una mezcla de los mismos componentes, pero en diferentes
proporciones.
El análisis de componentes principales conduce al modelo resumido en Eq. (6) pero aplicado a
matrices después de las variables han sido estandarizadas Una mezcla cuantitativa la resolución
se puede obtener al descentrar los puntajes de los componentes resultantes [60]. Este enfoque
tiene se ha denominado análisis absoluto de componentes principales y se ha utilizado
ampliamente en el modelado de receptores. Se han realizado otras formas de análisis de
vectores propios en el que los datos no están centrados haciendo que la resolución cuantitativa
de los componentes de la mezcla más simple [61]. Hay un problema de libertad de rotación que
hacer que el problema de resolución de la mezcla esté mal planteado [62]. Sin embargo, existen
restricciones naturales en los resultados del análisis factorial que puede usarse para limitar el
espacio en que la solución. Los elementos del componente perfiles y las contribuciones de cada
componente a la muestra debe ser estrictamente no negativa. El modelo debe reproducir los
datos originales para cada una de las mezclas y la suma de las contribuciones debe ser menor
que o igual a la masa total medida de la muestra. Estas las restricciones se pueden incluir en el
análisis [49].
Uno de los primeros métodos para resolver la indeterminacióndel análisis de los factores de las
mezclas es utilizar puntos en los espectros para los cuales el valor de uno o se sabe que más
componentes son cero [63]. Allí tienen extensiones de una variedad de espectroscopía química
sistemas de medición [64].
Otro enfoque para la rotación de los ejes del factor a valores más realistas físicamente es la
transformación objetivo análisis factorial (TTFA) desarrollado originalmente por Malinou. El
concepto es que alguna idea sobre la naturaleza de las propiedades de los componentes de la
mezcla (vectores de prueba) se conocerá a priori. Este componente factor los ejes se pueden
rotar hacia estos vectores de prueba. La calidad del ajuste a los vectores de prueba se puede
examinar para ver si son una representación razonable de la mezcla propiedades del
componente y las cantidades de los componentes presente en la mezcla puede entonces ser
estimado.
A falta de información sobre los componentes, Roscoe y Hopke [65] encontraron que el vector
unitario podría servir como vectores de destino inicial con el subsecuente perfil desarrollado
forzado a ser no negativos de acuerdo con las restricciones físicas naturales. Posteriormente, el
TTFA iterativo se aplicó a la sustancia química sistemas de Vandeginste et al. [66] y ha llegado a
ser utilizado en mucha resolución de mezcla y modelado de receptores estudios.
Análisis eigenvector de una serie de matrices de datos comenzando con un conjunto base de
espectros y al cual espectros adicionales son espectros se agregan [61,67]. Cuando aparece una
nueva especie absorbente, un valor propio significativo debe evolucionar. De esta manera, la
presencia de componentes puede identificarse más fácilmente y distribuido cuantitativamente.
Este enfoque es aplicable a cualquier proceso químico evolutivo en que una serie de puntos de
datos químicos son secuencialmente generado y que puede contener un número variable de
componentes medibles.
4.2.5. Factor de ventana
Un enfoque similar para analizar una serie de mediciones de cambiar componentes es factor de
ventana análisis. En lugar de agregar espectros adicionales continuamente hacer que la matriz
analizada sea más grande, una ventana de tamaño fijo se analiza secuencialmente [68] como los
dispositivos de ventana a lo largo de la longitud de onda o eje de tiempo. En este caso, la
cantidad de autovalores significativos puede disminuir y aumentar ya que unos subconjuntos de
datos son siendo examinado que puede tener números más grandes o más pequeños de
componentes que contribuyen a lo observado datos espectrales.
Otros enfoques para proporcionar una fuente cuantitativa resoluciones se han desarrollado y
utilizado en receptor modelado. Estos métodos incluyen distribución de fuentes por factores
con restricciones explícitas (SAFER) y factorización matricial positiva (PMF). En estos enfoques,
el espacio en el que se encuentra la solución del factor se trunca al imponer uno o más de las
restricciones físicas discutidas arriba. MÁS SEGURO [69-71] puede incorporar otras restricciones
basadas en conocimiento del sistema. Si el rango en el que la concentración de un elemento
debe mentir puede ser estimada, entonces estos límites pueden agregarse al análisis. SAFER se
ha aplicado a la interpretación de aerotransportado dato de compuestos orgánicos de Atlanta,
GA [72] y material particulado transportado por el aire en Los Angeles, CA [73] y Phoenix, AZ
[74].
Otro enfoque para el análisis de factores es la matriz positiva factorización. Reconoce que un
vector propio el análisis es en realidad un proceso que minimiza la suma de residuos cuadrados
para que sea un mínimo cuadrados implícitos procesos. En PMF, un enfoque explícito de
mínimos cuadrados es tomado en qué puntos de referencia individuales pueden ser
individualmente ponderado por su incertidumbre estimada. Paatero y Tapper [75] han
demostrado que un vector propio significativo el análisis no puede realizarse si la matriz de datos
se escala elemento por elemento. Paatero ha desarrollado un esquema de optimización global
en el que la solución conjunta está directamente determinado [76]. Este enfoque ha sido
ampliamente aplicado al problema de modelado del receptor (p. [77-84]). También se ha
aplicado a espectroscópicos y problemas de calibración [82-84].
Una de las principales áreas para las cuales la resolución de mezcla métodos que se están
aplicando es en el área de la química análisis de imagen. Mediante el uso de espectrometría
microscópica, es posible obtener grandes conjuntos de datos que representan el espectro de la
mezcla que está presente en cada ubicación a través de la muestra. Esta imagen puede ser
analizada por métodos de resolución de mezcla. El campo era revisado por Geladi y Grahn [92]
y se destaca en la reciente revisión de quimiometría por Lavine y Trabajador [93]. El mayor
desafío ha sido el tamaño de la matriz de datos que puede dificultar la obtención resultados
rápidos Nuevos métodos como modificaciones a alternancia de mínimos cuadrados [94] y factor
más eficiente algoritmos de análisis [95] se han propuesto específicamente para la aplicación a
imágenes multivariantes. Esto es un área de exploración en curso.
5. Conclusiones
Para hacer un uso completo de las matrices de sensores, calibración multivariable métodos se
están aplicando En muchos casos, el marco conceptual de la matriz de sensores es para duplicar
capacidades humanas como una nariz electrónica o una lengua electrónica. La idea es que,
aunque los sensores generalmente no son altamente selectivos, la combinación de una serie de
sensores que se acoplan con el procesamiento apropiado de las señales resultantes puede
proporcionar la necesaria selectividad al tiempo que conserva los bajos costos y los requisitos
de potencia que son típicos de los dispositivos de generación actual [93]. Se puede ver que el
campo continúa evolucionando y nuevas herramientas serán desarrolladas y desplegadas como
nuevos desafíos de análisis de datos se plantean a la quimiometría comunidad.