Anda di halaman 1dari 10

ALGORITMOS DE AGRUPAMIENTO

EN LA IDENTIFICACIN DE MODELOS BORROSOS

Jos L. Dez, Jos L. Navarro y A. Sala

Departamento de Ingeniera de Sistemas y Automtica


Universidad Politcnica de Valencia

Resumen: La aplicacin de las tcnicas de agrupamiento borroso para la identificacin de


modelos borrosos se est extendiendo cada vez ms. Sin embargo, y dado que su origen
es bien distinto a la ingeniera de control, aparecen numerosos problemas en su aplicacin
en la identificacin de modelos locales de sistemas no lineales para control. En este
trabajo se revisan las principales tcnicas de agrupamiento para la identificacin de
modelos borrosos, incluyendo propuestas propias que permiten desarrollar modelos que
mejoran (respecto a algoritmos previamente existentes) la interpretabilidad y el
descubrimiento de estructuras afines locales en los modelos borrosos obtenidos.
Copyright 2004 CEA-IFAC

Palabras Clave: identificacin, agrupamiento borroso, sistemas borrosos, sistemas no


lineales, tcnicas de control inteligente.

1. INTRODUCCIN1 y extraer a partir de stos la estructura del sistema de


reglas borrosas (extraccin de reglas) y los
Para modelar sistemas no lineales (Johansson, 1993) parmetros de los modelos locales (identificacin
se puede recurrir a su descomposicin en un conjunto paramtrica). Existen diversos mtodos (Nelles,
ms o menos grande de submodelos con un rango de 1999) para resolver este problema basados en
validez limitado, que denominamos modelos locales. algoritmos genticos, redes neuronales, plantillas o
El modelo global del sistema se puede obtener a tcnicas de agrupamiento (Duda et al., 2000). Los
travs de la integracin de los modelos locales algoritmos de agrupamiento borroso son los ms
utilizando, por ejemplo, una base de reglas borrosa adecuados para la identificacin borrosa (Sugeno y
que permite la seleccin de los modelos adecuados a Yukusawa, 1993), (Emami et al., 1998), (Babuska,
la situacin en que se encuentra el sistema (Johansen 1996). Los ms utilizados en este tipo de
y Murray-Smith, 1997). Con este enfoque se dispone aplicaciones son el mtodo de Fuzzy C-Means
de una tcnica simple e intuitiva para el modelado de (FCM) (Bezdek, 1987) y el mtodo de Gustafson-
procesos complejos, adems de una herramienta muy Kessel (GK) (Gustafson and Kessel, 1979).
til para el diseo de sistemas de control aplicando,
por ejemplo, planificacin de ganancia (Dez et al., En este artculo, tras revisar en los apartados 2 y 3 las
2004). tcnicas ms clsicas (FCM y GK), presenta otras
ms adecuadas para identificacin de sistemas no
Los problemas que surgen a la hora de utilizar esta lineales en las secciones 4 (algoritmos lineales) y 5
tcnica son la seleccin del nmero de modelos (algoritmos mixtos). El apartado 6 muestra las
locales que se deben emplear y la identificacin de ventajas de tcnicas originales de los autores: los
los distintos modelos locales utilizados. Una de las algoritmos de agrupamiento que favorecen la
alternativas es la utilizacin de datos experimentales convexidad e interpretabilidad de los modelos
identificados. Adicionalmente, a lo largo de todo el
1
Parcialmente financiado por el proyecto CICYT trabajo se muestran diferentes ejemplos de aplicacin
DPI2002-0525 (Ministerio Ciencia y Tecnologa). de todas las tcnicas comentadas.
pp. 32-41 Revista Iberoamericana de Automtica e Informtica Industrial, Vol. 1, Nm.2, Julio 2004
J. L. Dez, J. L. Navarro, A. Sala 33
Igualando a cero las derivadas parciales de J con
2. ALGORITMO DE AGRUPAMIENTO FUZZY
respecto a U, C y , las condiciones necesarias para
C-MEANS (FCM)
que (1) alcance su mnimo son:
La mayora de las tcnicas analticas de 1 i c
1
agrupamiento (clustering en la literatura en lengua ik = ,
c
1 k N (8)
inglesa) borroso se basan en la optimizacin de la (D ik B / Djk B )2 /(m1)
funcin objetivo c-means (Bezdek, 1987) o alguna j =1

modificacin de sta. N

( ik ) m zk
2.1 Funcin objetivo c-means ci = k =1
, 1 i c
N
(9)
La funcin objetivo base de una gran familia de
(
k =1
ik ) m

algoritmos de agrupamiento borroso es la siguiente:


La ecuacin (9) da un valor para ci como la media
c N
ponderada de los datos que pertenecen a una clase,
J ( Z ; U , C ) = ( ik ) m z k ci
2
B (1) donde los pesos son las funciones de pertenencia.
i =1 k =1

El problema ms importante que se da al emplear el


donde
algoritmo FCM para la identificacin de modelos
Z = {z1, z2, ..., zN} (2) borrosos, es que las clases identificadas tienen forma
hiper-elipsoidal, cuando lo deseable para una
son los datos que deben ser clasificados, posterior aplicacin a control es que dichas clases
tengan una estructura afn o lineal.
U = [ik] Mfc (3)
Existen muchas extensiones y modificaciones al
es una matriz particin borrosa de Z, algoritmo bsico FCM descrito. Estos mtodos
pueden ser clasificados en tres grandes grupos:
C = [c1, c2, ..., cc], ci Rn (4)
Algoritmos que utilizan una medida de la
es el vector de centroides (prototipos) a determinar, distancia adaptativa (una norma diferente para
cada clase). Esto posibilita la deteccin de clases
2
Dik2 B = z k ci = ( z k ci )T B ( z k ci ) (5) de datos con estructuras (tamaos y formas)
B
diferentes.
es una norma que viene determinada por la eleccin Algoritmos basados en prototipos lineales (norma
de la matriz B (por ejemplo, la identidad hace que la constante y prototipos variables). Es una
norma sea la distancia eucldea), y alternativa a la solucin anterior de las
restricciones de FCM.
m (1,) (6) Algoritmos basados en prototipos no lineales
(Klawonn et al., 1997). Este tipo de algoritmos no
es un exponente que determina la "borrosidad" de las tienen aplicacin al caso de identificacin de
clases resultantes (cuanto mayor es m, ms borrosos modelos locales lineales a los que
son los conjuntos identificados). El valor de la fundamentalmente se restringe este trabajo.
funcin de coste (1) es una medida ponderada del
error cuadrtico que se comete al representar las c 3. ALGORITMO DE GUSTAFSON-KESSEL (GK)
clases por los prototipos ci.
De entre los algoritmos con distancia adaptativa cabe
2.2 Algoritmo fuzzy c-means (FCM) destacar el de Gustafson-Kessel (GK), algoritmo que
extiende el algoritmo bsico fuzzy c-means eligiendo
La minimizacin de la funcin objetivo (1) es un una norma diferente Bi para cada clase en lugar de la
problema de optimizacin no lineal que puede ser B constante en (5). Este algoritmo, aunque no tanto
resuelto de muchas formas, pero la ms habitual es la como el FCM, se suele usar en la bibliografa para la
conocida como algoritmo FCM. obtencin de modelos borrosos, dado que las clases
Los puntos estacionarios de la funcin objetivo (1) se hiperelipsoidales que busca detectan de forma
encuentran aadiendo (al ndice J) la condicin de bastante correcta los comportamientos cuasi-lineales
que la suma de las pertenencias de un punto a todas de los diversos regmenes de funcionamiento que
las clases debe ser igual a uno mediante los pueden existir en un conjunto de datos.
multiplicadores de Lagrange:
Extiende el algoritmo bsico FCM eligiendo una
norma diferente Bi para cada clase, convirtiendo (5)
J ( Z ;U , C , ) =
en (Gustafson y Kessel, 1979):
c N N
c (7)
(
i =1 k =1
ik ) m Dik2 B + k ik 1
k =1 i =1 Dik2 Bi = z k ci
2
= ( z k ci )T Bi ( z k ci ) (10)
Bi

Estas matrices son ahora tomadas como posibles


variables para la optimizacin de la funcin (1), con
34 Algoritmos de Agrupamiento en la Identificacin de Modelos Borrosos
lo que se adaptar la norma a cada clase segn sus Cuando el nmero de datos disponibles es
caractersticas. Sea B = {B1, B2, ..., Bc} el vector que pequeo, o cuando los datos son linealmente
contiene las c normas. La nueva funcin a minimizar dependientes, pueden aparecer problemas
ser: numricos ya que la matriz de covarianzas se
hace casi singular. El algoritmo GK no podr ser
c N
J ( Z ;U , C , B) = ( ik ) Dik Bi m 2 aplicado a problemas puramente lineales en el
(11)
i =1 k =1 caso ideal de no existir ruido.
Si no hay informacin al respecto, los volmenes
cumpliendo (3), (4) y (6). Para obtener una solucin de las clases se inicializan a valores todos iguales.
viable, Bi debe ser limitada de alguna forma. La De esta forma, no se podrn detectar clases con
forma ms habitual es fijar el determinante de Bi, lo grandes diferencias en tamao.
que es equivalente a optimizar la forma de la clase
manteniendo su volumen constante: Por otra parte, es una caracterstica relativamente
comn de la identificacin de modelos borrosos por
Bi = i , > 0 (12) agrupamiento olvidar el objetivo (el modelo borroso)
en la etapa de agrupacin de los datos. Suele ser un
con i constante para cada clase. La expresin que se paso posterior derivar reglas en alguno de los tipos
obtiene mediante los multiplicadores de Lagrange es: de modelo borroso existentes (Takagi-Sugeno en
nuestro caso). Para ello, la solucin ms sencilla es
Bi = [ i det( Fi )] Fi proyectar la pertenencia a las clases obtenidas en el
1/ n 1
(13)
espacio deseado, obteniendo as funciones de
siendo Fi la matriz de covarianzas de la clase i pertenencia que definirn conjuntos borrosos en los
definida por: espacios que se proyecten. Otra opcin en conservar
en el espacio n-dimensional la funcin de perteneca
N obtenida. Si no se realiza la proyeccin en el espacio
( ik ) m ( z k ci )( z k ci )T de salida (modelo Mandami), se emplea un mtodo
Fi = k =1 N (14) alternativo de ajuste apropiado para la determinacin
( ik ) m
del consecuente (mnimos cuadrados, algoritmos
k =1 genticos, ...). Adems, se suele perder la
interpretabilidad de las reglas a cambio de un bajo
Una vez determinadas las clases hiperelipsoidales, si error de modelado.
lo que se desea es conseguir un modelo borroso de
Takagi-Sugeno, se debern ajustar dichas clases a El objetivo primordial de este trabajo es buscar
estructuras lineales (Dez y Navarro, 1999) siguiendo tcnicas de agrupamiento que desarrollen clases
la informacin proporcionada por el eje mayor de lineales o hiperplanos (consecuente deseado),
dicha clase y mediante el uso de, por ejemplo, el manteniendo la interpretabilidad de las reglas
algoritmo de mnimos cuadrados. (antecedente deseado) y todo ello con resultados de
error de modelado al menos tan buenos como el
El algoritmo GK es bastante adecuado para el algoritmo GK, de forma que se pueda facilitar el uso
propsito de la identificacin, ya que tiene las posterior de dichos modelos para el control del
siguientes propiedades: sistema que est siendo modelado. Como se ver,
esto se consigue por medio de la implementacin de
La dimensin de las clases viene limitada por la
lo que se ha llamado funcin de coste mixta.
medida de la distancia y por la definicin del
prototipo de las clases como un punto.
En comparacin con otros algoritmos, GK es 4. ALGORITMOS CON PROTOTIPOS LINEALES
relativamente insensible a la inicializacin de la
matriz de particin. Existen diferentes algoritmos que eliminan el
Como el algoritmo est basado en una norma problema de la limitacin de forma y tamao de las
adaptativa, no es sensible al escalado de los clases impuesta por FCM manteniendo la norma
datos, con lo que se hace innecesaria la constante pero definiendo prototipos r-dimensionales
normalizacin previa de los mismos. (0 r n-1), lineales o no lineales, en subespacios
del espacio de datos. Esta opcin es opuesta a la idea
Por todas estas caractersticas es bastante empleado de GK de emplear normas variables, pero tambin
en la identificacin de los sistemas que son de inters obtiene buenos resultados.
en el marco de este trabajo. Sin embargo, tambin
tiene sus desventajas: Los algoritmos de este tipo que pueden ser de inters
con las premisas de identificacin establecidas, es
La carga computacional es bastante elevada, decir, referentes a espacios o subespacios lineales,
sobre todo en el caso de grandes cantidades de son el algoritmo fuzzy c-varieties (FCV) (Bezdek,
datos. 1987) y el algoritmo fuzzy c-regression models
El algoritmo GK puede detectar clases de (FCRM) (Hathaway y Bezdek, 1993).
diferentes formas, no solo subespacios lineales
que son los que en principio interesan (en De entre todos estos algoritmos, el que en un
realidad busca clases hiperelipsoidales). principio parece ms interesante es el FCRM, ya que
J. L. Dez, J. L. Navarro, A. Sala 35
ajusta los parmetros de la clasificacin a un modelo
de regresin genrico: 1

yk = f i ( zk ; i ) (15)
0.5

con las funciones fi parametrizadas por i Rpi. El


grado de pertenencia ik U se interpreta en este 0
caso como la cercana existente entre el valor
predicho por el modelo (15) e yk. El error de
prediccin suele calcularse como: -0.5

E ik ( i ) = ( y k f i ( z k ; i )) 2 (16)
-1

Las funciones objetivo a minimizar con el mtodo


que se presenta, son definidas por U Mfc y (1, -1.5
...,c) Rp1 x Rp2 x ... x Rpc para -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

c N 1
Em (U , { i }) = ( ik ) m Eik ( i ) (17) 0.9
i =1 k =1
0.8
Una posibilidad para minimizar (17) se presenta en
0.7
(Hathaway y Bezdek, 1991).
0.6
A pesar de lo interesante que en un principio parece 0.5
el algoritmo, tan solo Kim (1997) sugiere emplearlo
para el modelado borroso. Adems, los resultados 0.4

que obtiene no son muy prometedores, y se considera 0.3


que solo debe ser empleado como una primera 0.2
aproximacin y el ajuste fino del modelo final se
har posteriormente, por ejemplo, con el mtodo del 0.1

gradiente. En cuanto al antecedente de las reglas lo 0


-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
obtiene en un paso tambin posterior al
agrupamiento, mediante un ajuste de U a funciones Fig. 1. FCRM en la deteccin de datos sin estructura
exponenciales. lineal (cruces: datos, lnea continua: simulacin
El comportamiento de FCRM cuando en los datos no basada en el modelo, lneas rectas: modelos
hay estrictamente clases lineales, sino que lo que se lineales identificados).
pretende es obtener modelos lineales que aproximen 1

a un sistema que no es lineal (ni siquiera a tramos) se


puede comprobar buscando modelos lineales con 0.5
alguna curva, por ejemplo, una parbola. Dos de las
soluciones que obtiene FCRM para este caso se
muestran en la figura 1. 0

El problema del que adolece el algoritmo es que


aunque el error entre los datos de salida y los del -0.5

modelo se minimiza, los modelos lineales obtenidos


no son nada parecidos a lo esperado (aproximar la
-1
funcin a modelar con modelos lineales en el entorno
de un punto de funcionamiento), tal y como se
muestra especialmente en la parte inferior figura 1. -1.5
Posiblemente existan mltiples mnimos locales en el -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

problema de optimizacin.
Fig. 2. FCRM en la deteccin de datos sin estructura
Una inicializacin de la matriz de particin U ms lineal con U dada (cruces: datos, lnea continua:
cercana al resultado deseado lleva a resultados como simulacin basada en el modelo, lneas rectas:
los mostrados es la figura 2, pero nunca comparables modelos lineales identificados).
a los que se obtienen con el algoritmo GK (figura 4).

En definitiva, este algoritmo no consigue los 5. ALGORITMOS CON PROTOTIPOS MIXTOS


objetivos deseados aunque su filosofa no sea
desechable. Una familia de algoritmos que combina Existe un tercer tipo de algoritmos (adems de los
ventajas de uno y otro enfoque se presenta en el que tienen norma adaptativa o los que emplean
apartado siguiente. prototipos lineales) que intentan superar los
problemas de los algoritmos con prototipos lineales
mediante la combinacin de stos con los de norma
36 Algoritmos de Agrupamiento en la Identificacin de Modelos Borrosos
adaptativa. Estos algoritmos son el algoritmo fuzzy c- con [0,1]. El primer trmino proporciona el
elliptotypes (FCE) (Bezdek, 1987) y el algoritmo mismo criterio que FCRM y el segundo incrementa
adaptive fuzzy c-regression models (AFCR) (Ryoke la capacidad de particin en el espacio de las
y Nakamori, 1996), y a los que podramos llamar variables ya que tiene en cuenta la distancia de los
algoritmos con prototipos mixtos. Con FCE se datos al prototipo de las clases. La eleccin del se
pretenden superar algunos de los problemas del FCV. hace de forma dinmica en este algoritmo y se acerca
Se toma un criterio genrico, a 1 segn la estructura descubierta en la clase es ms
c N
lineal. Su determinacin se basa en
J ( Z ;U ) = ( ik ) Deik
m

i =1 k =1
(18) min{il }
i = 1 l
, i = 1,2, " c (22)
max{il }
se fuerza a cada clase a tener un centro de gravedad l
cdgi y se mide la distancia como combinacin de las
distancias de FCM (Dik) y FCV (Drik): con il los autovalores de la matriz de covarianzas
definida en (14) para GK. De este modo se conjugan
Deik = Dik + (1 ) Drik (19) en un solo algoritmo ventajas de FCRM, FCM y GK.
El parmetro sirve de balance entre los trminos
con [0,1]. El problema en este algoritmo es la cuando su tamao medio es muy diferente y no hay
eleccin del correcto para cada clase. El algoritmo ningn estudio respecto a su determinacin.
AFCR intenta proporcionar un tratamiento similar a
FCRM del que hace FCE con FCV. En este caso el Los resultados que obtiene AFCR para el mismo
criterio queda: ejemplo planteado en las figuras 1 y 2 se pueden
observar en la figura 3 y se pueden comparar con el
J ( Z ;U , 1 , " , c , c1 " , cc ) = resultado obtenido por GK en la figura 4 y FCRM en
c N la figura 1.

i =1 k =1
( ik ) m Daik (20)
1

y se toma la distancia como combinacin de las 0.5


distancias de FCRM (Eik) y FCM (Dik):

Daik = k E ik ( i ) + (1 k )Dik (21) 0

1 1t
u -0.5
pt
u
O
0.5
-1

0
-1.5

-0.5
-2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-1 Input

1.5
-1.5

1
-2
-1 -0.5 0 0.5 1
0.5

1
0

0.5
1t
u -0.5
pt
u
0 O
-1

-0.5
-1.5

-1
-2

-1.5
-2.5
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-2 Input

-2.5
Fig. 4. GK en la deteccin de datos sin estructura
-1 -0.5 0 0.5 1 lineal (lnea contnua: datos, lnea discontinua:
Fig. 3. AFCR en la deteccin de datos sin estructura simulacin basada en el modelo, lneas rectas:
lineal (cruces: datos, lnea continua: simulacin modelos lineales identificados) para 3 (parte
basada en el modelo, lneas rectas: modelos superior) y 5 (parte inferior) clases.
lineales identificados) para 3 (parte superior) y 5
(parte inferior) clases.
J. L. Dez, J. L. Navarro, A. Sala 37
Los resultados se corresponden con la mejora A continuacin, y dados los buenos resultados
indicada en (Ryoke y Nakamori, 1996) respecto a obtenidos, se analiza el campo en el que GK se
FCRM, igualando resultados de algoritmos como el comporta mejor y que es, por otra parte, el que ms
GK y obteniendo, al tiempo de realizacin del interesa: la identificacin de modelos locales lineales
agrupamiento, una serie de modelos locales lineales de funciones estticas y dinmicas desde datos reales,
que se ajustan perfectamente a la funcin en estudio como se da en las aplicaciones a control. Para ello, se
e incluyendo el error de modelado en la funcin de ha tomado en primer lugar una serie de datos reales
coste. Adems, la capacidad de deteccin de correspondientes al ratio de la cintica de
estructuras lineales no se ha perdido en AFCR, crecimiento de un biorreactor (Carbonell et al.,
obteniendo resultados idnticos a FCRM con 2000), ejemplo que se muestra en la figura 5.
diferentes conjuntos de datos en lo que ste
funcionaba correctamente. Se puede observar como AFCR supera FCRM
6 (figura 5) e iguala GK (figura 6) en este ejemplo.
5
Cabe destacar que en ambos casos de resultado
positivo (AFCR y GK) las funciones de pertenencia
4 borrosas obtenidas pierden parte de su
3
interpretabilidad (convexidad), como se muestra en
la parte inferior de la figura 6.
2
El efecto de la prdida de la interpretabilidad se hace
1
mucho ms claro en sistemas ms "complejos"
0 (orden ms elevado), pero no se puede representar
grficamente de forma adecuada. El anlisis de los
-1
datos en estos casos mediante ndices (Ahvenlampi et
-2 al., 2003) lleva a concluir que las funciones de
0 10 20 30 40 50 60 70
pertenencia pierden su interpretabiblidad a cambio de
3 un bajo error de modelado.

2.5 Una inspeccin de la matriz U definitiva a la que


llevan AFCR o GK indica que se minimiza el error
2 no por cercana del modelo obtenido, sino por la
ponderacin de varios modelos. Sin embargo, lo que
1.5 se pretende buscando modelos cuyo fin es un
posterior uso en control, son modelos locales lineales
1
que se aproximen lo ms posible al modelo del
sistema: se pretende aproximar la funcin
0.5
desconocida que representa al sistema con
0
hiperplanos en el entorno del prototipo de la clase
que representar un punto de funcionamiento. La
-0.5
idea que se persigue a partir de este momento es
0 10 20 30 40 50 60 70 incluir en el proceso de agrupamiento alguna
Fig. 5. AFCR (parte superior) y FCRM (parte condicin que favorezca la pertenencia a clases
inferior) en la deteccin de datos sin estructura concretas: entradas de U (pertenencias) cercanas a 1
lineal (cruces: datos, lnea continua: simulacin si estamos cerca del prototipo de la clase y cercanas a
basada en el modelo, lneas rectas: modelos 0 si estamos lejos del prototipo.
lineales identificados).
Function approximation
Se pretende, por tanto, conseguir la convexidad de
2
las funciones de pertenencia borrosas suministradas
1.5
en el proceso de identificacin, pues es lo que se
y
1 necesita para una posterior interpretacin y
0.5 validacin y ni el algoritmo AFCR ni el GK lo
0 consiguen. A pesar de esto, con los algoritmos
0 10 20 30 40 50 60
propuestos hasta el momento, ya se puede decir que
x el funcionamiento de AFCR supera a GK, dado que
Membership functions
1 para los mismos conjuntos de datos se obtienen
0.8
resultados finales similares pero con la ventaja de
pi
0.6
que el consecuente afn de las reglas borrosas
h
sr
e
identificadas forma parte del propio proceso de
b 0.4
m
e
agrupamiento.
M 0.2

0
0 10 20 30
x
40 50 60 70
6. ALGORITMOS QUE FAVORECEN LA
Fig. 6. GK detectando estructuras lineales en datos CONVEXIDAD
reales (crculos: datos, lneas continuas: modelos
lineales, cruces: prototipos). En la parte inferior Aprovechando la metodologa de minimizacin de
se observan las funciones de pertenencia. ndices de coste por agrupamiento comentada
brevemente en el apartado 2.2 y propuesta en
38 Algoritmos de Agrupamiento en la Identificacin de Modelos Borrosos
2

(Bezdek, 1987), donde indican las condiciones para 1.5

la convergencia del ndice J de los algoritmos de 1


agrupamiento, se propone aadir nuevos trminos a 0.5
la distancia (21) empleada en AFCR para mejorar la 0
convexidad de las funciones de pertenencia -0.5
0 10 20 30 40 50 60 70
manteniendo lo positivo de este algoritmo (Dez et
al., 2002). Para un criterio como el mostrado en (23) 1

c N 0.8

J ( Z ;U , 1 ,", c , c1 ", cc ) = ( ik ) m DC ik (23) 0.6


i =1 k =1
0.4

0.2
se incluir en DC ik un trmino para penalizar la alta
pertenencia de los puntos lejanos a un prototipo 0
0 10 20 30 40 50 60 70
(Dlejos ik) y otro para penalizar la baja pertenencia de
Function approximation
puntos cercanos al prototipo (Dcerca ik), manteniendo
2
tambin las distancias de FCRM (Eik) y FCM (Dik).
1.5

1
La nueva distancia global que se emplear ser: y
0.5

i i 0
DC ik = Eik ( i ) + 1 Dlejos ik
3 3 0 10 20 30 40 50 60

i (24) x
Membership functions
+ 2 Dcerca ik + (1 i )Dik 1
3 0.8
pi
0.6
con [0,1] siguiendo para su determinacin el h
sr
e
b 0.4
criterio (22). El parmetro se mantiene para el m
e
M 0.2
balance entre los trminos cuando su tamao medio
es muy diferente y se incluyen 1 y 2 con el mismo 0
0 10 20 30 40 50 60 70
fin. x
Fig. 7. Deteccin de 3 clases y funciones de
Para determinar los valores de Dlejos ik y Dcerca ik se pertenencia con AFCRC (parte superior) y GK
identifica en (25) y (26), respectivamente, el criterio (parte inferior).
2
de distancia que es necesario incluir en un ndice
para expresar la penalizacin por alta pertenencia de 1.5

puntos lejanos a un prototipo (25) y baja pertenencia 1

de puntos cercanos al prototipo (26). Se ha utilizado 0.5

una penalizacin exponencial en ambos casos, lo que 0

llevar a una preferencia por la generacin de -0.5


0 10 20 30 40 50 60 70
funciones de pertenencia exponenciales, aunque
dicho criterio puede ser modificado segn el criterio 1
que pueda interesar en cada caso. 0.8

0.6
D2
J lejos ik = 1 exp( ik2 )
m
ik
0.4

2 1 0.2

D2 (25) 0
0 10 20 30 40 50 60 70
Dlejos ik = 1 exp( ik2 )
2 1 Function approximation
2

D2 1.5
J cerca ik = (1 ik ) m exp( ik2 ) (26)
2 2 y
1

0.5
(1 ik ) m
Dik2 0
Dcerca ik = exp( )
ikm 2 22 0 10 20 30 40 50 60
x
Membership functions
Este nuevo algoritmo que se propone, denominado 1

AFCRC (Adaptive Fuzzy C-Regression models with 0.8

Convexity enhancement), ha sido programado y, pi


h 0.6
sr
aunque se pretende realizar en el futuro un estudio e
b 0.4
m
terico para la determinacin ms adecuada de 1 y e
M 0.2
2, se han llevado a cabo numerosas simulaciones 0
0 10 20 30 40 50 60 70
con resultados muy interesantes determinando 1 y x
2 de forma manual. Fig. 8. Deteccin de 4 clases y funciones de
pertenencia con AFCRC (parte superior) y GK
(parte inferior).
J. L. Dez, J. L. Navarro, A. Sala 39
Una primera aproximacin sencilla de estos
parmetros se ha determinado viendo que los 1
trminos sigma estn situados en el denominador de
un trmino exponencial, cuyo numerador es la 0.5
distancia al cuadrado del punto que se est
evaluando. Es por ello que se intuye una dependencia 0

del adecuado con las distancias, el rango mximo


de las variables (universo de discurso) y el nmero -0.5
-1 -0.5 0 0.5 1
de clases que se pretende emplear para explicar el
sistema. Se pueden usar reglas sencillas basadas en 1

aproximaciones de la mxima y mnima distancia 0.8

entre clases esperada (Sala et al., 2002). 0.6

0.4
6.1 Identificacin de funciones unidimensionales 0.2

0
Con unos valores adecuados de los parmetros del -1 -0.5 0 0.5 1

ndice AFCRC, los resultados para distinto nmero


1
de clases se pueden observar en las figuras 7 a 9 para
el mismo conjunto de datos empleados en el ejemplo 0.5
del biorreactor de las figuras 5 y 6. Con el fin de
resaltar la clara mejora proporcionada la nueva 0
propuesta, en todas las figuras se presenta en la parte
superior los resultados del algoritmo AFCRC y en la -0.5
-1 -0.5 0 0.5 1
inferior los de los algoritmos AFCRC/GK (ambos
obtienen resultados muy similares). 1

0.8
En combinaciones de datos ms sencillas, como el 0.6
caso de la parbola empleada en las figuras 1 a 4,
0.4
AFCRC no pierde sus capacidades. Esto queda
0.2
claramente mostrado en la figura 10 para 2, 3, 4 y 8
clases. 0
-1 -0.5 0 0.5 1
2

1.5 1

1
0.5
0.5

0 0
-0.5
0 10 20 30 40 50 60 70
-0.5
-1 -0.5 0 0.5 1
1

0.8 1

0.6 0.8

0.4 0.6

0.2 0.4

0 0.2
0 10 20 30 40 50 60 70
0
-1 -0.5 0 0.5 1
Function approximation
2
1
1.5

1 0.5
y
0.5
0 0

0 10 20 30 40 50 60 -0.5
x -1 -0.5 0 0.5 1
Membership functions
1
1
0.8
pi 0.8
h 0.6
sr
e 0.6
b 0.4
m 0.4
e
M 0.2
0.2
0
0 10 20 30 40 50 60 70 0
x -1 -0.5 0 0.5 1

Fig. 9. Deteccin de 5 clases y funciones de Fig. 10. Deteccin de diferentes nmeros de clases
pertenencia con AFCRC (parte superior) y GK (cuatro casos) y sus funciones de pertenencia con
(parte inferior). AFCRC.
40 Algoritmos de Agrupamiento en la Identificacin de Modelos Borrosos
6.2 Identificacin de funciones de varias variables modelos dinmicos suelen ser tratados como
funciones estticas multidimensionales en la
El sistema no lineal con dos variables de entrada (x1, identificacin borrosa (Sugeno y Yasukawa, 1993),
x2) y una de salida (y) descrito por la ecuacin (27), AFCRC se muestra aplicable en la identificacin
ha sido empleado por diferentes autores para borrosa de sistemas dinmicos.
comprobar el funcionamiento de diferentes tcnicas
de identificacin borrosa (Sugeno y Yasukawa, El algoritmo AFCRC puede ser empleado en
1993), (Emami et al., 1998). conjuntos de datos de dimensiones ms elevadas
(ms de dos entradas) pero, en ese caso, los
y = (1 + x12 + x 21.5 ) 2 con 1 x1 , x 2 5 (27) resultados no pueden ser visualizados (Sala et al.,
2002).
En el ejemplo de este apartado, se ha modificado el
conjunto original de 50 pares de datos originales
empleados en (Sugeno y Yasukawa, 1993) mediante
la adicin de ruido aleatorio. La superficie no lineal a
identificar se muestra en la figura 11.

Fig. 13. Asignacin de datos a clases mediante


AFCRC.

Fig. 11. Sistema no lineal a identificar. 7. CONCLUSIONES


Las figuras 12 y 13 muestran, respectivamente, cmo En este artculo se han revisado las principales
los datos son asignados (considerando la pertenencia tcnicas de agrupamiento, enfocando esta revisin
ms alta) a clases mediante la aplicacin de los hacia las tcnicas ms adecuadas para la
algoritmos AFCR y AFCRC. Para facilitar la identificacin de modelos borrosos interpretables.
interpretacin, se han marcado los prototipos de las
clases (+) y los lmites de las clases (lneas), excepto Este trabajo presenta adems la definicin e
en el caso de la clase no interpretable de la figura 12. implementacin de un nuevo algoritmo que mejora la
interpretabilidad de las reglas borrosas (denominado
AFCRC) de forma muy clara, adems de generar en
el proceso de agrupamiento los consecuentes afines
de las reglas borrosas de tipo Takagi-Sugeno.

El algoritmo de agrupamiento AFCRC


(especialmente diseado para identificar modelos
borrosos para control) proporciona modelos que
experimentan en su funcionamiento para simulacin
mejoras importantes, tanto por la facilidad de
implementacin de los antecedentes del modelo
basado en reglas como distancias (ponderadas
exponencialmente) al prototipo (gracias a la
convexidad de las funciones de pertenencia), como
por la generacin del consecuente en el proceso de
agrupamiento teniendo en cuenta el error de
Fig. 12. Asignacin de datos a clases mediante modelado en cada paso de la iteracin.
AFCR.
Igualmente se observa mejora respecto al efecto del
Dado que las funciones de pertenencia identificadas ruido en el proceso de identificacin, pues los
son ms compactas y corresponden mejor a los trminos aadidos implican, implcitamente, una
modelos locales que detectara un experto al observar cierta forma de la funcin de pertenencia del cluster
la figura 11, AFCRC mejora (de nuevo en este deseada, con lo que los resultados tienden a esa
ejemplo) los resultados de AFCR en el sentido de la forma incluso contaminados con ruido, dado que el
interpretabilidad de las funciones de pertenencia. La error de modelado no es el nico trmino del ndice.
funcin identificada es esttica pero, dado que los
J. L. Dez, J. L. Navarro, A. Sala 41
REFERENCIAS Klawonn F., Kruse R., Timm H. (1997). Fuzzy Shell
Cluster Analysis. Learning, Networks and
Ahvenlampi T., Dez J. L., Navarro J. L. (2003). New Statistics (Eds. G. Della Riccia, H.-J. Lenz and
methods for validation of local models in fuzzy R. Kruse). Springer, New York.
clustering identification. Proc. of IFAC Nelles, O. (1999). Nonlinear system identification
Conference on Intelligent Control and Signal with local linear neuro-fuzzy models. PhD
Processing, pp. 9-12. dissertation. Darmstadt University of Tech.,
Babuska R. (1996). Fuzzy Modeling and Darmstadt, Germany.
Identification, PhD. dissertation. Delft Ryoke M., Nakamori Y. (1996). Simultaneous
University of Technology, Delft, The Analysis of Classification and Regression by
Netherlands. Adaptive Fuzzy Clustering. Japanese Journal of
Bezdek J. C. (1987). Pattern recognition with Fuzzy Fuzzy Theory and Systems, vol. 8, n1, pp. 99-
Objective Function Algorithms. Ed. Plenum 113.
Press. Sala A., Dez J. L., Navarro J. L. (2002). A Fuzzy
Carbonell P., Dez J. L., Navarro J. L. (2000). Clustering Algorithm Enhancing Membership
Aplicaciones de tcnicas de modelos locales en Functions Interpretability. Proc. Controlo'02,
sistemas complejos. Revista de la Asociacin 5th Portuguese Control Conference, pp. 200-
Espaola para la Inteligencia Artificial, vol. 10, 206.
pp. 111-118. Sugeno M., Yasukawa T. (1993). A Fuzzy-Logic-
Dez J. L., Navarro J. L. (1999). Fuzzy Models of Based Approach to Qualitative Modeling.
Complex Systems by means of Clustering Transactions on Fuzzy Systems, vol. 1, n1, pp.
Techniques. Proc. 2nd Intelligent Systems in 7-31.
Control and Measurement, pp.147-153.
Dez J. L., Navarro J. L., Sala A. (2002). Fuzzy
Clustering Algorithm for Local Model Control.
Proc. IFAC 15th. World Congress, pp. 60-66.
Dez J. L., Navarro J. L., Sala A. (2004). Control por
Planificacin de Ganancia con Modelos
Borrosos. Revista Iberoamericana de
Automtica e Informtica Industrial, vol. 1, n1,
pp. 32-43.
Duda, R. O., Hart, P. E., StorkD. G. (2000). Pattern
Classification. John Wiley & Sons, New York.
Emami M. R., Trksen I. B., Goldenberg A. A.
(1998). Developement of a Systematic
Methodology of Fuzzy Logic Modeling.
Transactions on Fuzzy Systems, vol. 6, n3, pp.
346-36.
Gustafson E. E., Kessel W. C. (1979). Fuzzy
Clustering with a Fuzzy Covariance Matrix.
IEEE CDC, San Diego, California, pp. 761-766.
Hathaway R. J., Bezdek J. C. (1991). Grouped
Coordinate Minimization Using Newton's
Method for Inexact Minimization in One Vector
Coordinate. Journal of Optimization Theory and
Applications, vol. 71, n 3, pp. 503-516.
Hathaway R. J., Bezdek J. C. (1993). Switching
Regression Models and Fuzzy Clustering.
Transactions on Fuzzy Systems, vol. 1, n3, pp.
195-204.
Johansen, T.A., Murray-Smith, R. (1997). The
operating regime approach to nonlinear
modelling and control. Multiple Model
Approaches to Modelling and Control (Eds. R.
Murray-Smith and T.A. Johansen). Taylor &
Francis, London.
Johansson, R. (1993). System modeling and
identification. Information and Systems Science
series. Prentice-Hall, New Jersey.
Kim E., Park M., Ji S., Park M. (1997). A New
Approach to Fuzzy Modeling. Transactions on
Fuzzy Systems, vol. 5, n3, pp. 328-337.

Anda mungkin juga menyukai