1.- Introducción:
Fig. 1
3
Fig. 2
X1
W
X2 1
W
2
W
∑ u f y
X3 3
W
4.
X4 .
.
W
n
θ
Xn
Fig. 3
n
u = ∑Wi X i
i =1
n
y = f (u ) = f ∑ Wi X i − θ
i =1
Donde: y es la salida de la neurona (axón)
f es la función de activación, correspondiente, en
general, a una función no lineal (cuerpo celular)
θ es el sesgo
5
2 Reseña Histórica
una función no-lineal. Esto demostró que el Perceptron era muy débil,
dado que las funciones no-lineales son extensamente empleadas en
computación y en los problemas del mundo real.
1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de
aprendizaje de propagación hacia atrás (backpropagation); cuyo
significado quedó definitivamente aclarado en 1985.
1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La
Teoría de Resonancia Adaptada es una arquitectura de red que se
diferencia de todas las demás previamente inventadas. La misma simula
otras habilidades del cerebro: memoria a largo y corto plazo.
1985 - John Hopfield. Provocó el renacimiento de las redes neuronales
con su libro: “Computación neuronal de decisiones en problemas de
optimización.”
1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de
aprendizaje de propagación hacia atrás (backpropagation).
3 Redes Neuronales
3.1 Generalidades
En los últimos años de exploración en inteligencia artificial, los
investigadores se han intrigado por las redes neuronales.
Como lo implica su nombre, una red neuronal artificial consiste en
una red de neuronas artificiales interconectadas.
El concepto se basa vagamente en cómo pensamos que funciona
el cerebro de un animal. Un cerebro consiste en un sistema de células
interconectadas, las cuales son, aparentemente, responsables de los
pensamientos, la memoria y la conciencia. Las neuronas se conectan a
muchas otras neuronas formando uniones llamadas sinapsis.
Las señales electroquímicas se propagan de una neurona a otra a
través de estas sinapsis.
Las neuronas demuestran plasticidad: una habilidad de cambiar
su respuesta a los estímulos en el tiempo, o aprender. En una red
neuronal artificial, se imitan estas habilidades por software.
Fig. 4
ini1
Wi1
Función
De
Entrada
Función
De
Activació
Función
De outi1
n Salida
Wi 2
ini 2
Fig. 5
∑wi =1
ij xij , con j = 1, 2, 3……, n
• Función Lineal:
− 1 x ≤ −1 / a
−1/ a ≤ x < 1/ a
f ( x) = a * x
1 x > 1/ a
activación
Linear(a, x)
+1
___ a=1
-- -- a=0.66
- - - - a=2
x = gini − θi
-1
Fig. 6
(gini - i), cuando el argumento de (gini - i) esté comprendido dentro del rango
(-1/a, 1/a).
• Función Sigmoidea:
activación
+1
Sigmoid(g,x)
___ a=100
-- -- a=10
- - - a=0.3
x = gini − θi
1
f ( xx) == gini − θi
1 + e − gx Con
Fig. 7
e gx − e − gx
f (xx)==gingxi − θi− gx Con x = gini − θi
e +e
-1
Fig. 8
11
El Perceptrón de una capa (SLP), una de las topologías de red más antiguas,
consiste en una capa de unidades computacionales; las unidades de entrada
no desarrollan ningún cálculo. La capa de entrada se conecta completamente
con la capa de salida, es decir, cada unidad de entrada está conectada a cada
unidad de salida.
12
Fig. 9
Ejm.
El Perceptrón multicapa tiene capas adicionales, llamadas capas
Ocultas
13
Fig. 10
Las redes de propagación hacia atrás que tienen lazos cerrados son llamadas:
sistemas recurrentes.
A continuación se muestran algunas de estas redes:
a) Red recurrente
14
Fig. 11
De esta manera, se dice que los pesos se han adaptado, ya que sus
valores son distintos de 0 y su derivada es igual a 0.
Aprendizaje supervisado.
Aprendizaje no supervisado.
Fig. 12
• Aprendizaje hebbiano.
• Aprendizaje competitivo y comparativo.
Fig. 13
Por ejemplo, para esta figura se debe encontrar la ecuación que describa la
función de transformación; a la cual llamaremos “t” y se escribe como sigue:
t(x) = xnuevos = a * x + b;
donde:
De forma genérica:
Fig. 14
Fig. 15
6.1 Perceptrón
Antecedentes
Funcionamiento
Fig. 16
Limitantes
Entrenamiento
dW = LR ( T - Y ) X
Tipos de perceptrón
6.2 Backpropagation
25
Fig. 17
Algoritmo
6.3 Kohonen
Antecedentes
Características
Arquitectura
Aprendizaje
Aplicación
6.4 Hopfield
Boltzmann
Características
El estado del sistema esta dado por los valores de activación Yk. La
entrada de la neurona k en el ciclo temporal t+1 viene dada por
31
Funcionamiento
Fig. 18
Aplicación
7.2 Auto-organización.
Las redes neuronales emplean su capacidad de aprendizaje adaptativo
para autoorganizar la información que reciben durante el aprendizaje y/o la
operación. Mientras que el aprendizaje es la modificación de cada elemento
procesal, la autoorganización consiste en la modificación de la red neuronal
completa para llevar a cabo un objetivo específico. Cuando las redes
neuronales se usan para reconocer ciertas clases de patrones, ellas
autoorganizan la información usada. Por ejemplo, la red llamada
backpropagation, creará su propia representación característica, mediante
la cual puede reconocer ciertos patrones. Esta autoorganización provoca la
generalización: facultad de las redes neuronales de responder
apropiadamente cuando se les presentan datos o situaciones a las que no
había sido expuesta anteriormente. El sistema puede generalizar la entrada
para obtener una respuesta. Esta característica es muy importante cuando
se tiene que solucionar problemas en los cuales la información de entrada
35
La razón por la que las redes neuronales son tolerantes a los fallos es que
tienen su información distribuida en las conexiones entre neuronas,
existiendo cierto grado de redundancia en este tipo de almacenamiento. La
mayoría de los ordenadores algorítmicos y sistemas de recuperación de
datos almacenan cada pieza de información en un espacio único, localizado
y direccionable. En cambio, las redes neuronales almacenan información no
localizada. Por lo tanto, la mayoría de las interconexiones entre los nodos
de la red tendrán sus valores en función de los estímulos recibidos, y se
generará un patrón de salida que represente la información almacenada.
8. Aplicaciones.
Biología:
Aprender más acerca del cerebro y otros sistemas.
Obtención de modelos de la retina.
Empresa:
Evaluación de probabilidad de formaciones geológicas y
petrolíferas.
Identificación de candidatos para posiciones específicas.
Explotación de bases de datos.
Optimización de plazas y horarios en líneas de vuelo.
Reconocimiento de caracteres escritos.
Modelado de sistemas para automatización y control.
Medio ambiente:
Analizar tendencias y patrones.
Previsión del tiempo.
Finanzas:
Previsión de la evolución de los precios.
Valoración del riesgo de los créditos.
Identificación de falsificaciones.
Interpretación de firmas.
Manufacturación:
Robots automatizados y sistemas de control (visión
artificial y censores de presión, temperatura, gas, etc.).
Control de producción en líneas de procesos.
Inspección de la calidad.
Medicina:
Analizadores del habla para ayudar en la audición de
sordos profundos.
Diagnóstico y tratamiento a partir de síntomas y/o de datos
analíticos(electrocardiograma, encefalogramas, análisis
sanguíneo..).
Monitorización en cirugías.
37
Militares:
Clasificación de las señales de radar.
Creación de armas inteligentes.
Optimización del uso de recursos escasos.
Reconocimiento y seguimiento en el tiro al blanco.