Las redes neuronales artificiales y la lgica difusa o borrosa son dos de los avances
cientficos recientes ms importantes del conocimiento. Mediante estas herramientas se
ha intentado simular dos de las caractersticas ms importantes con que cuenta el cerebro
humano: la capacidad de aprendizaje y el poder procesar informacin incompleta o que
no es precisa. Estas tcnicas se han podido utilizar para la solucin de problemas tanto
cientficos como de la vida diaria. Con una buena combinacin de estas dos tcnicas es
posible un desarrollo tecnolgico ms amplio en diversos campos, desde la medicina
hasta el mejoramiento de electrodomsticos.
D.1. Redes neuronales artificiales
Mediante esta tcnica se intenta imitar el proceso de aprendizaje del cerebro
humano. El cerebro esta formado por miles de millones de neuronas conectadas entre
s. Utiliza informacin que es percibida, trasmitida hasta las neuronas, y all procesada
por ellas para dar una respuesta a cada uno de los diferentes estmulos. Cada neurona
tiene tres partes: un cuerpo celular, una estructura de entrada (Dendrita) y una de salida
(Axn). La mayora de las terminales de los axones se conectan con las dendritas de
otras neuronas (Sinpsis). El comportamiento de una neurona es el siguiente: recibe una
seal de entrada con una fuerza determinada, dependiendo de ellas la neurona emite
una seal de respuesta, las sinpsis pueden variar en fuerza, algunas pueden dar una
seal dbil y otras una fuerte. A una neurona pueden llegar miles de seales de entrada,
cada una con una fuerza o peso diferente. Matemticamente el comportamiento de la
neurona puede representarse por una lista de sus seales de entrada que son
multiplicadas por sus pesos respectivos y posteriormente sumados, el resultado es
llamado nivel de activacin de la neurona del cual depende la seal de salida que es
enviada a cada una de las neuronas a las que esta conectada a ella.
Una red neuronal artificial (RNA) es un sistema compuesto de muchos elementos
procesadores simples conectados en paralelo, cuya funcin es determinada por la
estructura de la red, la fuerza en las conexiones y el procesamiento realizado por los
elementos en los nodos (Jang 1997). Las RNA, igual que las personas, aprenden de la
experiencia.
288
Uno de los primeros modelos de redes neuronales fue el Perceptrn diseado por
Rosenbalatt, el cual contaba con tres tipos de neuronas: sensoriales, asociativas y de
respuesta. Las sensoriales tomaban entradas de fuera de la red, las unidades de
respuesta llevaban seales fuera de la red al mundo externo y las asociativas eran
exclusivamente internas. Estos tipos ahora son llamados unidades de entrada, de salida
y ocultas. Rosenbalatt desarroll mtodos para que la red alterara los niveles sinpticos
de forma que la red aprendiera a reconocer niveles de entrada.
Despus de los aos 80 la inteligencia artificial se hizo ms popular y aumento su
campo de aplicacin. Se han desarrollado algoritmos para modelar procesos mentales
de alto nivel como la asociacin de conceptos, deduccin, induccin y razonamiento.
En 1986 Rumelhart y McClelland demostraron que algunos problemas imposibles
para los Perceptrons simples pueden ser resueltos por redes multi-nivel con funciones
de activacin no lineales, utilizando procesos simples de entrenamiento (algoritmos
Back-propagation).
D.1.1. Caractersticas generales
Pesos: Las redes neuronales pueden tener factores de peso adaptable o fijo. Las que
tienen pesos adaptables emplean leyes de aprendizaje para ajustar el valor de la fuerza de
interconexin con otras neuronas. Si se utilizan pesos fijos, su tarea debe estar
previamente definida. Los pesos son determinados a partir de una descripcin completa
del problema a tratar. Los pesos adaptables son muy importantes, ya que no se conoce de
antemano su valor correcto.
Aprendizaje: Se utilizan dos tipos de aprendizaje: supervisado y no supervisado. En
el primero se le proporciona a la red tanto la salida como la entrada correcta, y la red
ajusta sus pesos para disminuir el error en la salida que ella calcula. Este tipo es utilizado
principalmente en el conocimiento de patrones. En el aprendizaje no supervisado a la red
se le proporcionan nicamente los estmulos, y la red ajusta los pesos de sus
interconexiones utilizando solamente los estmulos y la salida calculada por la red. La
forma de aprendizaje que se utiliza depende del tipo de problema que se intenta resolver.
Fases de operacin: Se presentan dos fases en la operacin de una red neuronal
artificial: Entrenamiento y recuperacin de lo aprendido. En la primera fase se le
proporcionan estmulos de entrada y salida (segn el caso), para que la red ajuste sus
pesos de interconexin y minimice el error en la salida que calcula. En la segunda fase la
red solamente calcula la respectiva salida. El aprendizaje de la red disminuye a medida
que aumenta el nmero de veces que se usa.
No son algortmicas: Las redes neuronales artificiales no se programan slo para
seguir una secuencia de instrucciones, sino que ellas mismas pueden generar sus propias
reglas para aprender de su propia experiencia.
Necesitan un patrn: Las redes neuronales no son capaces de reconocer nada que no
tenga algn tipo de patrn. Son muy buenas resolviendo problemas de asociacin,
evaluacin y reconocimiento de patrones.
D.1.2. Tipos de redes
Dependiendo de la estructura de la red neuronal existen varias tipologas, algunas de
estas son: el Perceptron, Backpropagation, Hopfield, y Kohonen. A continuacin se
presenta una descripcin resumida de cada una de estas tipologas:
289
D.1.2.1. Perceptrn
En 1943 se desarrollo el primer modelo de neurona artificial por McCulloch y Pitts.
El perceptrn intenta modelar el comportamiento de la neurona biolgica, derivado del
modelo hecho por McCulloch y Pitts (Looney 1997). Es la base de la arquitectura de las
redes neuronales artificiales. El perceptron trabaja con funciones de activacin. En la
figura D.1 se observa el modelo de un perceptrn para reconocimiento de patrones. El
cuerpo de la neurona es representado como un sumador lineal de estmulos zj, seguida por
una funcin no lineal f(zj) que es la funcin de activacin, esta utiliza la suma de
estmulos para determinar la salida de la neurona. En el perceptrn cada entrada es
multiplicada por un factor de peso W correspondiente, los resultados son sumados y
luego evaluados contra el valor de umbral , si el valor es mayor al mximo el
perceptrn se activa.
Entrada
g1
X1
W1
g2
X 2 W2
XiWi f(z)
g3
X 3 W3
g4
X4
W4
Axones Sinpsis
Salida
Axon
Cuerpo
Dendritas
La primera capa acta como un grupo de sensores que detectan una seal especfica
con la importancia correspondiente. La segunda capa toma las salidas de los detectores
y clasifica el patrn de entrada dado. El aprendizaje empieza ajustando la fuerza en las
conexiones (pesos Wi) y el valor de umbral . La funcin gi es fija y est
predeterminada.
El entrenamiento de un perceptrn se hace utilizando una funcin de aprendizaje.
Si la respuesta dada por el perceptrn es incorrecta, se modifican todos los pesos de las
conexiones de acuerdo a la funcin D.1.
wi = t i xi
[D.1]
290
espacio de dimensin N. Es decir slo puede resolver una funcin, si todos los posibles
resultados del problema pueden separarse de forma que no se combinen entre si.
Existen varios tipos de perceptrones dependiendo del nmero de capas que tenga.
Un perceptrn simple o de dos capas, corresponde a una capa de entrada con neuronas
lineales y una de salida con funcin de activacin tipo escaln. Este slo puede
establecer dos regiones separadas por una frontera lineal en el espacio de patrones de
entrada.
Un perceptrn de tres capas puede formar cualquier regin convexa en este espacio.
Cada elemento se comporta como un perceptron simple. Un perceptrn de cuatro capas
puede generar regiones de decisin arbitrariamente complejas. Puede resolver una gran
variedad de problemas cuyas entradas sean analgicas; la salida sea digital y sea
linealmente separable. El rango de tareas que el perceptrn puede realizar es ms
amplio que simples decisiones y reconocimiento de patrones. El perceptrn multicapa
puede ser usado para la prediccin de una serie de datos en el tiempo, como cambios
financieros.
D.1.2.2. Backpropagation
Cuando se combinan varios perceptrones en una capa y los estmulos de entrada
despus son sumados, se tiene ya una red neuronal.
La falta de mtodos de entrenamiento apropiados para los perceptrones multicapa
(MLP) hizo que declinara el inters en las redes neuronales en los aos 60 y 70. Esto no
cambio hasta la reformulacin del mtodo de entrenamiento para MLP
backpropagation a mediados de los aos 80 por Rumelhart (1986).
En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas
de cada capa se conectan entre s. Cada neurona de una capa proporciona una entrada a
cada una de las neuronas de la siguiente capa. En la figura D.2 se observa la arquitectura
de este tipo de red.
X1
X2
X3
Capa de
Entrada
X7
X8
Capa
Oculta
Capa de
Salida
291
a) Pasada hacia delante (foward pass): las salidas son calculadas y el error en las
unidades de salida es calculado.
b) Pasada hacia atrs (backward pass): el error de las salidas es utilizado para alterar
los pesos de las unidades de salida. Luego el error en las neuronas de las capas
ocultas es calculado mediante propagacin hacia atrs del error en las unidades de
salida), y los pesos en las capas ocultas son alterados usando esos valores.
D.1.2.3. Modelo Hopfield
Son redes de adaptacin probabilstica y recurrente. Funcionalmente entraran en la
categora de las memorias autoasociativas, es decir que aprenden a reconstruir los
patrones de entrada que memorizan durante el entrenamiento. Son monocapa con
interconexin total y en la que el valor de salida de cada unidad es binario (solo puede
tomar los valores 0 o 1) y siguen una regla de aprendizaje no supervisado.
Estn formadas por N neuronas interconectadas que actualizan sus valores de
activacin en forma independiente, todas son a la vez de entrada y salida. Es buena para
resolver problemas de optimizacin. Tiene siempre una restriccin por simetra en cada
conexin (Wjk=Wkj). Cuando una neurona mantiene su valor de activacin se dice que es
estable. Se llega a un estado estable cuando todas las neuronas son estables (Looney
1997).
Ante la presentacin de un estimulo nuevo se obtiene una configuracin inicial ms o
menos parecida a la de alguno de los estmulos almacenados, el sistema hace iteraciones
hasta quedar en una configuracin estable. En la figura D.3 se observa la arquitectura del
modelo de Hopfield.
Y1
I1
Y2
I2
Entradas de
Realimentacion
YN
Salidas
IN
XN
X2 X1
Entradas
Iniciales
Una caracterstica importante de este modelo es que como se muestra en la figura D.3
una neurona nunca se realimenta a s misma.
292
V11
Y1
X2
Y2
XN
YM
VNM
Puede decirse que entre las neuronas de la capa de salida existen conexiones laterales
de inhibicin implcitas aunque no estn conectadas. La influencia que una neurona tiene
sobre las dems es funcin de la distancia entre ellas, se hace muy pequea cuando estn
muy alejadas.
Cada una de las M neuronas tiene un vector de pesos V(m) de dimensin N, que es la
misma dimensin del vector de entradas X(q). Al principio los vectores de pesos son
inicializados aleatoriamente. Se calculan las distancias cuadradas entre X(q) y cada V(m),
m=1, ..., M as:
(q)
vn
( m) 2
[D.2]
La distancia mnima Dqm* determina la neurona m* que es ganadora sobre las dems
neuronas. Desde este punto es posible tomar diferentes estrategias, una de ellas es
actualizar el vector de peso paramtrico de la neurona ganadora utilizando:
V (m ) = V (m ) + ( X (q) V (m ) )
*
[D.3]
293
donde es la rata de aprendizaje, y las dems neuronas mantienen los valores anteriores.
Otra estrategia que puede se utilizada es actualizar positivamente (recompensar) todas las
neuronas que son cercanas a la neurona ganadora, y actualizar negativamente (castigar)
las neuronas que estn a mayor distancia (Looney1997).
Esta red una vez entrenada puede ser utilizada para clasificar patrones de entrada
similares en el espacio N-dimensional.
D.1.3. Aplicaciones
Las redes neuronales pueden ser de diferentes modelos de aprendizaje y tipologas
dependiendo del uso que se espere darle a cada una. Pueden ser aplicadas a diferentes
campos tales como: Control de eficiencia de mquinas, reconocimiento de firmas,
reconocimiento de blancos mediante sonares, predicciones en el tiempo, decisiones,
anlisis de inversiones, monitoreo, mercadotecnia, planeacin estratgica, diagnostico,
diseo, optimizacin y en aplicaciones (recientemente) de Ingeniera Civil como la
valoracin de efectos ssmicos, amplificacin de onda, solucin de problemas de gerencia
de construccin, control activo estructural y diagnsticos de dao (Paolucci 2000). Una
aplicacin reciente ha sido en el pronstico de caudales diarios y en el clculo del nivel
de agua en ciertos sitios en la poca de crecida del ro Iguaz. En el sector industrial las
redes neuronales son ampliamente utilizadas empleando modelos de ingeniera que
incluyen conocimiento cientfico y tecnolgico en la industria cervecera, qumica, area,
de alimentos, del acero, el vidrio, el cemento y las telecomunicaciones.
294
A = {( x , A ( x ) ) x X }
[D.4]
295
Triangular
Trapezoidal
1.2
0.8
0.8
(x)
(x)
1.2
0.6
0.6
0.4
0.4
0.2
0.2
0
20
60
80
10
20
1.2
1.2
0.8
0.8
(x)
(x)
90
Tipo
Exponencial
0.6
0.6
0.4
0.4
0.2
0.2
0
0
20
40
60
80
100
20
Singleton
40
60
80
100
Tipo S
1.2
1.2
0.8
0.8
(x)
(x)
60
0.6
0.6
0.4
0.4
0.2
0.2
0
0
20
40
60
80
100
20
40
60
80
100
296
importante que esta respuesta no sea difusa y se debe pasar de una respuesta difusa a una
que no lo es. Para lograr esto se ha desarrollado el concepto de desfusificacin. Se han
propuesto varios mtodos para lograr esta transformacin; algunos de ellos se explican a
continuacin. El mtodo de desfusificacin debe ser escogido de acuerdo con la
aplicacin que se desea hacer (Jang 1997).
Tabla D.1: Caractersticas matemticas de los Conjuntos Difusos
Caracterstica
Matemtica
-corte
-corte marcado
Convexidad
Nmeros Difusos
Ancho de conjuntos
difusos normales y
convexos
Simetra
Conjunto Difuso abierto
a la derecha
Definicin
A = {x A (x) }
A = {x A (x) > }
Un conjunto es convexo si y solo si para cualesquiera x1, x2 X y
cualquier [0,1] se cumple que:
A (x1 + (1 ) x 2 ) min{ A ( x1 ), A ( x2 )}
Se dice que un conjunto es convexo si todos su conjuntos de nivel
son convexos.
Es un conjunto difuso en la recta real (R) que satisface las condiciones
de normalidad y convexidad.
Esta definido como la distancia entre los dos nicos puntos de
crossover
Ancho ( A) = x 2 x1
lim x A ( x ) = lim x + A ( x) = 0
Definicin
Contencin o Subconjunto
Unin
C ( x ) = max ( A ( x ), B ( x ) ) = A ( x ) B ( x )
Interseccin
297
Definicin
Complemento (negacin)
Producto Cartesiano
Co-producto Cartesiano
Ax
A
i
[D.5]
COA =
( x) xdx
( x)dx
[D.6]
Bmax = y Y ( y ) = max B ( z )
zY
[D.7]
De este grupo de mximos se debe obtener un nico punto. Esto se puede hacer de
varias formas. Un mtodo es escoger aleatoriamente un punto optimo (supone que todas
las soluciones son igualmente buenas), pero preferiblemente que sea un punto en la mitad
del conjunto de soluciones. La solucin puede escogerse tambin hallando el valor medio
del conjunto, si este es un conjunto finito, ecuacin D.8.
298
y0 ( B ) =
1
N
yBmax
[D.8]
1
y B ( y )
(
y
)
y
B
B
max
[D.9]
[D.10]
[D.11]
= x [ A' ( x) R ( x)]
De acuerdo al problema que se desea resolver se han desarrollado diferentes reglas
para el razonamiento difuso, en estas puede variar el nmero de antecedentes y de
consecuencias. Se emplea tambin diferentes operadores para relacionar los conjuntos
difusos como Y, O, implicacin, desfusificacin, entre otros.
D.2.6. Aplicaciones
La teora de conjuntos difusos ha sido amplia mente aplicada en campos como: la
Medicina, Economa, Ecologa y Biologa. Se ha empleado en empresas de produccin
299
300
Maldonado R., E, Casas, J.R., Canas, J.A. (1999): Utilizacin de los Conjuntos Difusos
en Modelos de Vulnerabilidad Ssmica. Monografas de Ingeniera Ssmica. A. H.
Barbat (Ed.). Centro Internacional de Mtodos Numricos en Ingeniera, UPC,
Barcelona.
Pea, C.A. (2000): Evolutionary Fuzzy Modeling, Ecole Polytechnique Federale de
Lausanne, Logical Systems Laboratory, Universidad de los Andes, Bogot.
Paolucci, R., Colli, P., Giacinto, G. (2000): Assessment of Seismic Site Effects in 2-D
Alluvial Valleys Using Neural Networks. Earthquake Spectra. Earthquake
Engineering Research Institute, EERI, Vol.16, No. 3,. August.