Anda di halaman 1dari 17

Mtodos Neuronales en Sistemas Difusos

Al usar las tcnicas de entrenamiento de redes neuronales se permite la habilidad de incrustar la informacin emprica dentro de los sistemas difusos. Esto expande el rango de aplicaciones en los cuales los sistemas difusos pueden ser usados. El usar ambas informaciones (experta y emprica) realza la utilidad de los sistemas difusos. Una de las limitaciones de los sistemas difusos viene de la dimensionalidad. Una limitacin que se tiene al solo utilizar el conocimiento experto es la inhabilidad de afinar eficazmente un sistema difuso el cual de varias salidas precisas y posiblemente contradictorias. El uso del error basado en las tcnicas de entrenamiento permite a los sistemas difusos aprender la complejidad inherente en los datos empricos. Introduccin a la sinergia Este capitulo se enfoca hacia el camino de cmo proveer sistemas difusos con capacidades de aprendizaje neuronal con el propsito de hacer estos mas adaptativos. Aunque ambas aproximaciones difusas y neuronales poseen notables propiedades cuando se emplean individualmente, hay grandes ventajas usndolos juntos. En el dominio de la inteligencia humana, hay absolutamente una sinergia(Concurso activo y concertado de varios rganos para realizar una funcin) entre la transduccin neuronal y el proceso de seales sensoriales, por una parte, el cognitivo, perceptual y altas funciones lingsticas del cerebro, en la otra. A continuacin se tiene un ejemplo del proceso involucrado en nuestra conciencia en cuanto a la temperatura ambiente(ver fig. 1). La sensacin de la temperatura esta basada en dos clases de receptores de temperatura en la piel: un sealamiento de calor y otro de fro.

Fig. 1
Las fibras neuronales de miles de receptores de temperatura entran a la mdula espinal, y ascienden dentro del ventral y lateral spinothalamic y terminan en la regin del Ventrobasal thalamus(en la parte mas baja del cerebro) como se muestra en la figura 1. Las clulas llevan esta informacin a la corteza cerebral (la parte mas alta del cerebro). Finalmente en la corteza cerebral estas sensaciones de temperatura se logran fusionar y expresar lingsticamente. De esta forma una persona puede conocer que la temperatura en el cuarto esta fra o clida o caliente, todas las

categorizaciones que se tiene al sentir la temperatura. Esto llega hacer la base de las decisiones y acciones humanas, como por ejemplo apagar o accionar el aire acondicionado de acuerdo a la temperatura. Por analoga nosotros podemos entrenar una red neuronal y mapear un grupo de medidas de temperatura para el ambiente a un grupo de valores difusos.

Sistemas Hbridos (neuronal-difuso) Los mtodos neuronales pueden ser usados en la construccin de sistemas difusos como otra forma de entrenamiento. Estas pueden tambin ser usados para la seleccin de reglas y determinacin de funciones de membresa. Los sistemas Hbridos son sistemas que emplean redes neuronales y sistemas difusos. De manera abstracta, un sistema puede ser observado como se muestra en la figura 2(a), la cual es una relacin entre las entradas y salidas (donde la relacin no es necesariamente una funcin, pero es una relacin mas general como un mapeo de muchos a muchos).

Fig. 2(a) En la figura 2(b) y 2(c) tenemos dos extremos idealizados en donde en la fig.(b) conocemos exactamente como el sistema debe estar trabajando pero no contamos con ejemplos del comportamiento de la entrada-salida, en la fig. (c) nosotros conocemos el comportamiento de la entrada y salida, pero no tenemos conocimiento de los sistemas internos.

Fig. 2(b)
En el primer caso, es conveniente escribir las reglas difusas (if/then) en el nivel apropiado de precisin para describir el comportamiento del sistema. En el segundo caso, es conveniente usar los datos disponibles de entrada-salida para entrenar redes artificiales a sistemas internos. Por lo tanto podemos utilizar varias herramientas hbridas de redes neuronales y difusas para obtener exitosamente modelos de sistemas. El arreglo ms grande de condiciones en un sistema puede ser el que cuenta con una gran variedad de series y combinaciones en paralelo de sistemas neuronales y difusos.

Para un entender lo anterior considere el siguiente(ver fig. 3) ejemplo: La red neuronal es entrenada para recibir tres medidas como entradas(datos elctricos y visuales para una automatizacin de prueba de una estacin que aproxima los componentes electrnicos con el propsito de eliminar los defectos fsicos).

Funcionamiento La entrada es mapeada a 2 valores numricos que sirven como entrada al Fig. 3 algoritmo difuso. La salida del modulo de la neurona indica el grado de dao fsico que tiene el componente (un numero entre 0 y 1) y la seal de porcentaje de ruido (un numero entre 0 y 30). Estas 2 caractersticas son subsecuentemente entradas en un sistema difuso donde las variables difusas a mapear sern la seal de porcentaje de ruido y la informacin de la calidad y dao fsico del componente. La salida del sistema difuso es una accin (decisin) la cual ya sea que acepte o rechace el componente. Por lo tanto, el filtrado neuronal y de las caractersticas de espacio del mapeo de las mediciones numricas pueden facilitar la rpida accin para un controlador difuso. Redes Neuronales para determinar Funciones de Membresa La determinacin de una funcin de membresa puede ser observada como una agrupacin de datos y clasificacin del problema. Primero el dato es clasificado dentro de clusters y los valores de membresa son dados a patrones individuales en los clusters. Las arquitecturas de redes neuronales como los mapas organizativos de Kohonen Self, estn bien situados para encontrar clusters en los datos de entrada. Despus los centros de los clusters son identificados, el ancho de los parmetros de las funciones SOM, las cuales son usualmente Gaussianas, pueden ser grupos, as que las salidas de la funcin SOM son los valores de membresa. Una metodologa de implementacin del tipo 2 etapas de proceso es el algoritmo de Adeli-Hung. La primera etapa es llamada clasificacin, la cual una red neuronal es usada para agrupar o clasificar dominios de datos dentro de un cierto nmero de clusters. La segunda etapa es llamada fusificacin., la cual consiste en un proceso de fusificacin donde los valores de membresa difusos son asignados en conjuntos de cluster de clasificacin. Supongamos que tenemos N patrones de entrada con M componentes. El algoritmo Adeli-Hung construye dos capas neuronales con M entradas y C clusters. Los clusters son aadidos como nuevas entradas, las cuales no tienen gran parecido con los clusters viejos, y estos son presentados a la red neuronal. Los pasos del algoritmo son los siguientes: 1. Calcular el grado de diferencia entre la entrada del vector X i y cada centro del cluster Ci.

dist ( X , Ci ) =
donde:

( x
j =1

cij ) 2

xj es la jth entrada. cij es el jth componente del ith cluster. M es el numero de clusters.

2. Encontrar el cluster ms cercano al patrn de entrada y llamar este C p. 3. Comparar la distancia del cluster ms cercano: dist(X,Cp) con alguna distancia predeterminada. Si este es ms cercano que la distancia predeterminada, aade este al cluster, si este es ms lejano que el cluster predefinido, entonces aade un nuevo cluster y su centro en la entrada del vector. Cuando una entrada es aadida a un cluster, el centro del cluster(vector prototipo) es recalculado como el significativo de todos los patrones del cluster.

C p = c p1 c p 2 ... c pM

1 = np

X
i =1

np

p i

4. La membresa de un vector Xi a un cluster Cp es definida como:

0 if D w ( X ip , C p ) > p = D w ( X ip , C p ) 1 if D w ( X ip , C p ) <
Donde: es el ancho de una funcin de membresa triangular.

D w X ip , C p =

( x
j =1

p ij

c pj

, el peso de la norma, es la distancia Euclidiana:

Un ejemplo en Matlab de la implementacin del algoritmo de Adeli-Hung es el siguiente: X=[1 0 .9;0 1 0;1 1 1;0 0 0;0 1 1;.9 1 0;1 .9 1;0 0 .1];% Entradas C=[1 0 1]; % Matriz de clusters. data=[1 0 1 1]; % Matriz de datos; 4a. columna especifica las clases. tolerance=1; % Valores de tolerancia usados para crear nuevos clusters. for k=1:length(X); % Paso1: Encontrar la distancia Euclidiana para cada centro del cluster. [p,inputs]=size(C); for i=1:p distance(i)=dist(X(k,:),C(i,:)).^.5;

end Paso 2: Encontrar el cluster mas cercano. ind=find(min(distance)==distance); % Paso 3: Comparar con una tolerancia predefinida. if min(distance)>tolerance C=[C;X(k,:)]; % Hacer X un Nuevo centro del cluster. data=[data;[X(k,:) p+1]]; else % Calcular el centro del cluster viejo. data=[data;[X(k,:) ind]]; % Aandir un Nuevo patrn de datos. cluster_inds=find(data(:,4)==ind);% Otros clusters en las clases. for j=1:inputs C(ind,j)=sum(data(cluster_inds,j))/length(cluster_inds); end end % Paso 4: Calcular las membresas de todas las p clases. mu=zeros(p,1); for i=1:p D=dist(X(k,:),C(i,:)).^.5; if D<=tolerance; mu(i)=1-D/tolerance; end end end C % Despliega los prototipos del cluster. data % Despliega todas los vectores de entrada y sus clasificaciones. mu % Despliega las membresas de las ultimas entradas de cada prototipo. save AHAdata data C% Guarda los resultados para la siguiente seccin. Salidas % C= 1.0000 0 0.6667 0.9000 data = 1.0000 1.0000 0 1.0000 0 0 0.9000 1.0000 0 mu= 0 0.6601 0 0 0 0.3333 0.9667 1.0000 0 0 1.0000 1.0000 0 1.0000 1.0000 0.9000 0 0.9500 0.0333 1.0000 0 1.0000 0.9000 0 1.0000 0 1.0000 0 1.0000 0.1000 1.0000 1.0000 2.0000 3.0000 2.0000 3.0000 4.0000 3.0000 2.0000

Hay cuatro clusters creados para la matriz de datos X y sus vectores prototipos fueron almacenados en la matriz C. Los primeros tres elementos en cada fila de la matriz de datos es el dato original y la ultima columna contiene el

identificador para el cluster mas cercano a este. El vector mu contiene la membresa del ultimo vector de datos de cada cluster. Puede observarse que este es el mas cercano al vector prototipo numero 2. Los mtodos usados en la categorizacin de un universo de discurso son tpicamente basados en algunos tipos de Kohonen o redes de aprendizaje no supervisado. Un mtodo de agrupamiento de patrones basado en el algoritmo de rasgo mapeo de Kohonen ha sido usado por la determinacin de funciones de membresa por Pham y Bayro-Corrochano (1994). El mtodo es primero aplicado al conjunto de datos entrenado para dividir lo entre el conjunto de etiquetas usando el algoritmo de Kohonen y un procedimiento de conjunto etiquetado. El conjunto de datos es entonces empleado para entrenar el perceptrn de tres niveles. El acercamiento es autoorganizado por virtud del algoritmo de Kohonen y produce salidas difusas como consecuencia de la red de retropropagacin. Kuo, Cohen y Kumara de Penn Satet han tomado uno similar no obstante diferentes acercamientos en desarrollo de un nuevo modelo difuso autoorganizativo y autoajustable acercndose con capacidades aprendidas. Bsicamente su acercamiento consiste en dos etapas: un estado auotorganizativo y un estado autoajustable. En la primera etapa, los datos de entrada son divididos entre algunos grupos por aplicacin aspectos de mapas de Kohonen. Las funciones de distribucin Gaussiana son empleadas como la forma estndar de las funciones de membresa. Las herramientas de estadstica son usadas para determinar el centro y la altura de las funciones de membresa de cada grupo. El error de la retropropagacin atena los parmetros involucrados. La estimacin neuronal hacia delante para la determinacin de funciones de membresia y la clasificacin difusa tambin han sido investigadas por Purushotaman y Karayiannis de la Universidad de Houston, mientras Higgins y Goodman del MIT construyen diferentes mtodos para el aprendizaje de funciones de membresa y reglas de un conjunto de ejemplos. Sus mtodos es una funcin general de aproximacin de sistemas usando tres pasos: Primero, aprende las funciones de membresa y crea una celda basada en reglas de representacin, segundo, simplifica la celda basada de reglas usando una informacin terica aproximndose de la induccin de reglas de datos de valores discretos, y finalmente construyendo una red neuronal para computar el valor de la funcin dada de variables independientes. Un uso tpico de las redes neuronales que producen funciones de membresia involucran un proceso de dos etapas. El primer paso es esencialmente una clasificacin donde una red neuronal es usada para clasificar o dominar un conjunto de datos dentro de una cierto nmero de conjuntos. Es segundo paso es un proceso de fusificacin donde los valores de las funciones difusas para cada instancia entrenada en un conjunto de soporte, conjuntos clasificados, son evaluados. Determinacin de las funciones de membresa a travs del Algorimto de Adeli-Hung Supongamos que nuestros datos consisten de N instancias entrenadas X1, X2,..., XN y nosotros tenemos M patrones de cada instancia Xi = [Xi1, Xi2,... XiM]. El vector medio de estas instancias puede ser definido como:

XN =

1 N

Xi
I =1

Para N + 1 instancias el vector medio puede ser expresado con XN como sigue:

N 1 XN + XN N +1 N +1

+1

La clasificacin por AHA es ejecutada usando una topologa y cambio de peso en una red de dos niveles (flat) donde el nmero de entradas equivale al numero de patrones (M) en cada instancia entrenada y el nmero de nodos de salida equivale al nmero de grupos. El algoritmo usa una red NN(M,1) con M entradas y sin un determinado nmero de salidas. La primera instancia entrenada adquiere asignacin del primer grupo. Si la segunda instancia es clasificada como el primer grupo, el nodo de salida representa el primer grupo activo convertido. Si l segunda instancia entrenada es clasificada como un nuevo grupo, un nodo de salida adicional es sumado a la red, y as sucesivamente, hasta que todas las instancias son clasificadas. Para ejecutar la clasificacin en AHA, una funcin de diff(X,C) es definida, llamada el grado de diferencia, representando la diferencia entre una instancia entrenada X y un grupo C en un red NN(M, P) (P indica el nmero de nodos de salida o equivalentemente el nmero de clases). Esta funcin mapea dos vectores dados (X y C) a un nmero real (diff). Los patrones de cada grupo (el ms pequeo de la instancia en el grupo) son almacenados en los pesos de la red durante el proceso de clasificacin. El siguiente procedimiento para clasificar una instancia entrenada dentro de un activo o nuevo grupo es usado en AHA: Paso 1. Calcula el grado de diferencia, diff(X, Ci), entre la instancia entrenada, X, y cada grupo Ci, Una distancia Euclidean es usada (en aplicaciones de reconocimiento de imagen) y la funcin de diff(X, Ci) se convierte:

diff ( X , Ci ) =

( Xj Cij )
J =1

Paso 2: Encontrar el grado ms pequeo de diferencia diff min(X,Ci) y hacer el grupo con el ms pequeo grado de diferencia de un grupo activo:

Cactive = { C | min{ diff ( X , Ci )} , i = 1,2,..., P}


Paso 3: Comparar el valor de diff min con un valor predefinido de umbral. Si el valor de la diffmin es ms grande que el valor de umbral predefinido, la instancia entrenada es clasificada en un nuevo grupo.

Cnew = X

if k < min{diff(X, Ci), i = 1,2,..., P}

Suponer que las N instancias entrenadas dadas han sido clasificadas dentro de un grupo P. Dejando de usar Cj para denotar los grupos jth y usando U para denotar el conjunto de todos los grupos. Si los grupos son completamente desarticulados cada instancia en el conjunto de entrenamiento constituye solo para uno de los grupos clasificados y una matriz Z binaria que puede ser usada para guardar los grupos de

cada instancia. Si la instancia i convierte al grupo j nuestros tenemos Zij = 1, mientras si no constituye nosotros tenemos Zij =0. Si los grupos clasificados estn en parte traslapado, una instancia dada en el conjunto de entrenamiento puede relacionarse con ms grupos. Por lo tanto los limites de los grupos clasificados son ms bien difusos que rpidos. La matriz binaria Z puede ser usada para recordar los grupos de cada instancia, el prototipo de cada grupo es definido como el significado de todas las instancias en ese grupo y el grado de membresa de cada instancia en cada grupo es basado sobre como simular esta instancia es el prototipo de una. La similitud puede ser definida como una funcin de distancia entre la instancia y el prototipo de los grupos. Si hay n instancias en un grupo p, el vector patrn de las ith instancias en el grupo p es Xipn =.[Xip, xi2p,...,xiMp] Entonces el vector del prototipo de instancias en el grupo es definido como

Cp = [Cp1, Cp 2,..., CPM ] =

1 np Xip np i =1

Donde, usando funciones de membresa de forma triangular los valores difusos de las funciones de membresa de los ith instancias en el p grupo es definido como

p ( Xip ) = f [ Dw( X ip , Cp )]
Donde un predefinido umbral valor k es usado como un valor pasadero. La funcin similiar es definida como los pesos normales Dw(Xip Cp. Entonces las normas en el AHA es definida como una distancia Euclidean

D w ( X iP , Cp ) = Wp ( X iP , Cp

( X
J =1

P ij

Cpj ) 2

En reconocimiento de imagen, un valor de 1 es usado para los pesos de los parmetros w y wp. Si la distancia Eculcidean para una instancia dada es menos que el valor de X, la instancia pertenece al grupo p para un grado dado por el valor de membresa. Redes neuronales manejando razonamiento difuso. En los sistemas difusos que emplean ms de tres o cuatro variables, puede dificultar en formular las reglas if/then, y podra ser atractivo si ellos podran extraer automticamente fuera de los datos del sistema fsico siendo modelado. El problema de induccin (extraccin) de reglas difusas ha sido manejado por algunos investigadores y ha habido una investigacin intensa. En un importante publicacin en 1991, Atsushita Electric ingenieros Tagaki y Hayashi presenta un acercamiento comprensivo para la induccin y ajuste de las reglas difusas, sabemos como las redes neuronales manejan razonamiento difuso o el mtodo Tahagi.-Hayashi (T-H). Considerando esta situacin mostraremos la figura donde nosotros tenemos un espacio de datos de dos entradas X1 y X2, se conoce el objetivo o la salida deseada, y una particin no lineal de este espacio en tres regiones. Estas regiones corresponden a tres reglas if/then difusas. Las reglas R1, R2 y R3 son una variedad el tipo Sugeno, que es, sus consecuencia es una mapeo funcional de las variables antecedentes, con el mapeo actualmente siendo ejecutado por entrenamiento especificado ce redes neuronales. El Metofdo Takagi-Hayashi consiste en tres partes: Parte 1: Particin del control o decisin sobre la superficie dentro de un nmero de reglas

Parte 2: Identifica un reglas das LHS (antecedente) valores (por ejemplo determinar la funcin de membresa) Parte 3 Identifica un nmero de reglas dadas RHS (consecuentes) valores . Parte 1 determina el nmero de reglas de inferencia difusa a travs de agrupaciones ejecutado sobre los datos Parte 2 emplea una red neuronal para derivar las funciones de membresia para cada regla. El mtodo T-H combina todas las variables en el LHS y esta basado en resultados tericos de una funcin continua arbitraria, y es equivalente a una red neuronal que contiene al menos una capa culta. Buckley y Hayashi han mostrado la equivalencia computacional entre funciones continuas, redes neuronales regulares, controles difusos y sistemas expertos difusos discretos y han mostrado como construir redes neuronales numricamente idnticas para un control difusos o un sistema experto difuso discreto. Parte 3 del mtodo T-H determina la parte RHS usando redes neuronales con aprendizaje supervisado Las reglas de tipo Sugeno son usadas donde las salidas es una funcin de las entradas. Las reglas de Sugeno son de la forma: If x1 es A1 AND x es A2 ,..., entonces y = F(x,...,xn) Donde f es la funcin de las entradas X1,...Xn. En el mtodo T-H esta funcin ha sido reemplazada por una red neuronal, por ejemplo la reglas podra se la forma: If (X1, X2) es As entonces ys = NNs(X1, X2) Donde x = (X1, X2) es el vector de entradas y ys = NN(X1, x2) es la red neuronal que determina la salida ys de la sth regla As . Es la funcin de membresia del antecendente de la sth regla. Algoritmo T-H Un diagrama a bloques del mtodo Takagi-Hayashi utiliza varias redes neuronales. La red neuronal NNmem es responsable de generar las funciones de membresa de los antecedentes (funcin LHS)de las reglas mientras que las redes NN 1, NN2, ..., NNr, determinan las partes consecuentes (funcin RHS) de las reglas de Sugeno. En aplicaciones actuales estas son redes tri-capa entrenadas por back-propagation. Los siguientes ocho pasos constituyen el proceso utilizado en el mtodo TakagiHayashi. Paso 1. Definimos yi como la salida y xj, j=1,2,...,k, como las variables de entrada. Las entradas xj j=1,2,...k que estn vinculadas con el valor observado a la salida son seleccionadas por una red neuronal a travs de un mtodo de eliminacin hacia atrs (backward) usando la suma del cuadrado de error como una funcin con el propsito de eliminar variables de entrada atribuidas al ruido. Paso 2. La poblacin entrada-salida n es dividido dentro de los datos de entrenamiento (TRD de nt) y los datos de chequeo (CHD de nc) donde:

n = nt + nc
Paso 3. La TRD es particionada en r grupos usando un mtodo de categorizacin. Cada particin es etiquetada como Rs, s=1,2,...,r.

Paso 4. La parte de antecedentes de cada regla es identificada a travs de NN mem. Si xi son los valores de la capa de entrada de NNmem, los pesos Wi s son asignados como los datos supervisados para la capa de salida, donde: wis = { 1, xi Rs y 0, xi Rs La red Nnmem es entrenada para inferir pesos Wi s dado un vector de entrada x. NNmem por lo tanto debe de ser capaz de calcular el grado de membresa w i s ^ de cada dato de entrenamiento xi o particin Rs. La funcin de membresa del antecedente As de la sentesima regla es definida como el valor wi s ^ que es, la salida de NNmem. Paso 5. Identificaremos ahora el consecuente de la fusificacin Sugeno, es decir, las reglas if/then. Los datos de entrenamiento son usados como pares entrda-salida para el entrenamiento de la red neuronal NNs que modela el consecuente de la sentesima regla. Los datos de chequeo x i1, xi2,...xim i=1,2..nc son usadas como entradas y la suma del cuadrado de errores forma:
s m = [ yi us ( xi ) As ( xi ) ]2

Donde: us(xi) es la salida calculada de NNs Yi es el objetivo de salida para la red Qms es la suma del cuadrado de los errores Paso 6. En este paso de modo arbitrario, un nmero de variables pueden ser eliminadas desde el consecuente atravs de un mtodo de eliminacin hacia atrs, con el proposito de eliminar variables de entrada atribuidas al ruido. Paso 7. Las operaciones en el paso 6 pueden ser transportadas para permanecer m-1 variables de entrada hasta que la condicin Qms > Qm-1sp sea cierta para alguno de los valores restantes. Paso 8. La siguiente ecuacin da el valor final de control yi*

yi =
.

A ( x ) [ u ( x ) ]
s s =1 i s i

inf

A ( x )
s s =1 i

Como se puede notar el mtodo T-H pertenece a una particin no lineal de las funciones de membresa. Cada categora de los datos de entrada corresponden a un tipo de reglas Sugeno if/then.

Aunque estas reglas individualmente hacen un buen acoplamiento para los datos similares que deben ser entrenados, debe llevarse a cabo un acoplamiento gradual de mltiples reglas para acercar los datos a la regin de frontera.

Ejemplos Desarrollo de sensores virtuales basados en redes neuronales y lgica difusa orientado a la simulacin y control de procesos Resumen: La motivacin para esta propuesta de desarrollo nace hacia fines del ao 1996 cuando se introduce una interesante actividad colateral en el rea de control automtico dentro del proyecto de Uso Racional de la Energa que el INTI a travs del CIPURE llevaba a cabo con la agencia de cooperacin internacional del Japn JICA desde el ao 1995. En tal sentido se comienza por recibir la visita de expertos Ing. K. Furuya e Ing M. Watanabe del rea de control de procesos de la empresa Yokogawa Electric Co. de Japn que a travs de diversos cursos efectan una puesta al da en el estado del arte en la vasta y esencial rea del control automtico de procesos, desde el uso de controladores convencionales hasta las aplicacin de sistemas de control multivariable predictivo y los sistemas de control inteligente basados en sistemas expertos ,fuzzy logic y redes neuronales. En septiembre de 1997 se visita el centro de capacitacin tcnica de la empresa Yokogawa dirigido por el Ing. M. Watanabe, comenzando con l, un trabajo de identificacin y modelado de datos provenientes de una planta de destilacin de petrleo con el objeto del diseo de un controlador multivariable predictivo. En septiembre de 1998 la visita de los expertos de control de procesos de refineras de petrleo , Ing K. Nakai y Ing Aizawa nos traen entre otras valiosas experiencias de intercambio tecnolgico la evidencia de la importancia que se le est dando en los pases avanzados a las tecnologas de control inteligente.Y la explicacin es que esas tecnologas avanzadas permiten alcanzar objetivos tales como: Ahorro energtico Control de calidad Mayor productividad

Proyectos concernientes a la utilizacin de redes neuronales en la forma de soft sensors para modelizar algunas variables de proceso en funcin de otras mediciones cuando no se tiene un modelo o cuando tal modelo es casi imposible de formular, lo cual permite que tal enfoque pueda ser de inters interdisciplinario a ser utilizado por

una vasta cantidad de aplicaciones. Por ejemplo, en la empresa Idemitsu de Japn una de las aplicaciones de alto valor econmico que usa tal tecnologa es en el blending de naftas. Otros ejemplos incluyen el control de proceso de fermentacin desarrollado en el MIT. Sin duda otras posibles, tal vez nuevas aplicaciones podran ser el control de plantas de secado, la prediccin de roturas de elementos de la construccin, o ms generalmente en el mantenimiento predictivo de maquinarias, etc. Las redes neuronales se diferencian de los sistemas expertos en que "aprenden" a partir de ejemplos usando algoritmos especiales, en lugar de a partir de reglas basadas en el conocimiento que un experto tendra que utilizar para resolver un problema. El usuario entrena a una red neuronal presentndole series de datos de entrada con sus correspondientes salidas. La red "aprende" la correlacin entre las entradas y las salidas esperadas y es capaz no slo de repetir estos ejemplos sino de establecer relaciones generales entre entradas y salidas que no se haban usado durante la fase del entrenamiento. Por eso se puede pensar a la red neuronal como un interpolador "inteligente". Las redes han dejado de ser un tema de inters acadmico, sino que estn fundamentando una slida tecnologa de aplicaciones a diversas reas gracias a su buen comportamiento respecto al ruido; hay artculos que afirman que son superiores a los mtodos estadsticos de regresin mltiple. La lista de aplicaciones actuales de esta tecnologa incluye: Simulacin y control de procesos qumicos Prediccin del clima Control de calidad Identificacin de polmeros y compuestos qumicos Anlisis de mercado (stocks,costos,precios) Modelizacin para programas de entrenamiento de operadores Mantenimiento preventivo: localizacin incipiente de fallos. En general las tcnicas llamadas de "Control Avanzado de Procesos" requieren del uso de modelos dinmicos del proceso. Esta es la parte esencial de la aplicacin porque el controlador avanzado se especifica para que optimice una trayectoria deseada dentro de un "horizonte" de prediccin. En cierto sentido el controlador es como un inverso del proceso. En el campo de los procesos qumicos, en especial en petroqumica el gran nmero de variables involucradas, y tambin las reacciones qumicas muy complejas hacen que habitualmente se utilicen mtodos estadsticos para modelizar sus relaciones. El problema es que en regresin se tienen que postular la forma de las funciones que se usan para su ajuste. El enfoque de redes neuronales, por el contrario rescata relaciones no lineales sin basarse en otra cosa que los datos medidos de variables del proceso.

Otro ejemplo: SISTEMA INTELIGENTE PARA EL CONTROL EN EL BOMBEO DE SANGRE DE UN MODELO DE CORAZON ARTIFICIAL BASADO EN SISTEMAS NEURODIFUSOS. AdolfoCatral Sanabria, Arturo Coral Folleco Universidad Distrital "FJC", Santaf de Bogot; Universit de Paris XII Val-de-Marne, France ABSTRACT: Una de las causas ms frecuentes de mortalidad, en la mayora de pases, es la muerte por causas cardiacas, ya que esta se encuentra entre las cinco primeras causa de muerte de la poblacin mundial, una de las soluciones es el reemplazo del corazn, por un mecanismo robtico autmata conocido como corazn artificial, aunque las estadsticas de eficiencia sobre los resultados de esta solucin, demuestra que tiene muchos inconvenientes, uno de estos es la variabilidad del bombeo sanguneo, traducido al ritmo cardiaco, es decir l numero de pulsaciones por minuto, la variabilidad es en esencia un problema, ya que el riego sanguneo no es algo constante

sino que varia ampliamente por condiciones del medio ambiente tales como actividad fsica, niveles emocionales, estados alimenticios y otros, por que segundo a segundo la exigencia de oxigeno es diferente en el cuerpo humano. Tomando en cuenta esto, tenemos que el control convencional no ofrece la flexibilidad requerida debido a la no-linealidad de este comportamiento se propone la utilizacin de nuevos mtodos para el modelamiento y desarrollo de un control que permita, una mejor adaptacin a los requerimientos de oxigeno fluctuantes segundo a segundo, y as variar de forma eficiente el ritmo cardiaco de los que estn provistos de un corazn artificial y hacerlo totalmente eficiente al cambio de las exigencias de oxigeno que se presentan. Para lo cual el proyecto propone un sistema inteligente que sea capaz de adaptarse al cambio fluctuante, y que sea tambin capaz de inferir reglas de comportamiento, con esto realizar mejor su trabajo, entre mas tiempo lleve de ejecucin el control. Nos basaremos el sistema Modelo de Inferencia Difusa TSK (Takagi Sugeno Kang) Quien incorpora a la lgica difusa con las redes neuronales, teniendo as un conjunto de entradas, las cules son sometidos a un conjunto de reglas iteradas las cuales terminan dando, una nica salida la cual resulta la mas optima para ese momento. El modelo en simulaciones por computador ha tenido resultados, ptimos, dando deltas de error mucho menores que los sistemas, lineales o los sistemas basados en programas de fluctuacin o simples sistemas multi-nivel. En esto se encuentran, cuatro categorizaciones, la lineal, que pierde as deltas por curvatura con la de requerimientos, la basada en programas no todos los organismos tiene el mismo comportamiento y pierden eficiencia por desviacin estndar, y los multinivel pierden por falta de amplitud de rangos y variacin entre ellos. Pero cuando el control se basa en el sistema adaptativo neurodifuso, los deltas por error tienden a cero y son muy cercanos a cero con el transcurrir de la ejecucin de dicho control. La importancia de este nuevo modelo salta a la vista por que adems de su mayor eficiencia y eficacia con el control la implementacin fsica dentro del mismo corazn artificial es muchsimo ms fcil, por que necesita menos hardware que los dems. La demanda comercial de este tipo de dispositivos es inmensa pensando que la poblacin que requiere de los usos de un corazn artificial es tambin inmensamente grande, solo es revisar las estadsticas y darse cuenta la mortalidad por causas cardiacas

Desarrollo de Enseres Domsticos Mayores

DESARROLLO DE BANCOS DE PRUEBAS PARA LA INTRODUCCIN DE CONTROLES INTELIGENTES EN ELECTRODOMSTICOS.


En este proyecto se desarrolla un banco de pruebas que permita establecer relaciones entre las variables de operacin en el ciclo de lavado. El banco opera con lgica difusa y redes neuronales. Esta misma tecnologa se est realizando para un desarrollo similar en el proceso de refrigeracin domstica. El objetivo es que la empresa patrocinadora pueda manejar diferentes opciones de proceso para mejorar la tecnologa de lavado (corros de burbujas, agitacin mltiple, ultrasonido, etc.) combinndola con la capacidad de adaptacin de los controles a los hbitos particulares del usuario y a las condiciones de operacin propias del lugar donde se instala el aparato. De tal forma, que pueda el aparato interactuar de manera inteligente con el usuario y optimizar los insumos de agua y energa.

Desarrollo de Enseres Domsticos Mayores

Desarrollo de enceres domsticos mayores:

Mquina de inferencia difusa:

Anda mungkin juga menyukai