Carlos Montenegro A.
2019
AGENDA
Teoría de McCulloch-Pitts
La actividad de una neurona es un proceso todo-nada (0-1)
Aprendizaje de Hebb
La actividad persistente de una neurona puede influenciar en el
comportamiento de neuronas relacionadas.
Ej: condicionamiento de una conducta
2.1 Redes Neuronales Biológicas y Artificiales
Kohonen:
Redes interconectadas masivamente en paralelo, de elementos
simples (usualmente adaptivos) y con organización jerárquica,
las cuales intentan actuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso biológico
Hecht-Nielsen
Sistema de computación hecho con un gran número de
elementos de proceso simples interconectados, que procesan
información como respuesta a entradas externas
Elementos:
Conjunto de entradas, xj
Pesos sinápticos, wi a
Función de activación: y
w1·x1+ w2·x2 + ... + wn·xn = a
Función de transferencia:
y = F (w1·x1+ w2·x2 + ... + wn·xn )
Bias o polarización: entrada constate de magnitud 1, y peso b
que se introduce en el sumador
2.1 Redes Neuronales Biológicas y Artificiales
Sigmoide
Gaussiana.
2.1 Redes Neuronales Biológicas y Artificiales
a1
y1
a2
y2
an
yn
2.1 Redes Neuronales Biológicas y Artificiales
Salida
Oculta
Tipos de entrenamiento:
Supervisado.
Si salida incorrecta
Ejemplo: OR
Salida
Muestra x1=l1 x2=l2 x3=l3
deseada
1 0 0 1 0
2 0 1 1 1
3 1 0 1 1
4 1 1 1 1
2.2 Aprendizaje del Perceptrón.
# x1 x2 t
x2 -------------
3 4
1 0 0 0
3 0 1 1
1 2 2 1 0 1
x1 4 1 1 0
-------------
2.2 Aprendizaje del Perceptrón.
0 0 1 1 1 1 1 1 1 1
9 1 1 1 1 1 1 0 1 0
8 1 1 1 1 1 1 1 1 0
7 0 0 1 1 1 0 0 1 0
6 1 1 1 0 1 1 1 1 0
5 1 1 1 0 1 1 0 1 0
4 1 1 0 1 1 0 0 1 0
3 1 0 1 1 1 1 0 1 0
2 1 0 1 1 0 1 1 1 0
1 0 0 0 1 1 0 0 1 0
2.2 Regla Delta
Widrow-Hoff o Delta
Di =d lr xi
Wi (t+1) = Wi (t) + D i
Razón de aprendizaje lr
Si las neuronas son
lineales=> un único
mínimo
2.2 Redes Neuronales Lineales
1
-0.5
1 -0.5
1 z1 1 y
-1.5
x1 1 -1
1 z2
x2 1
z1 (x1 x2 0.5)
y (z1 z2 0.5)
z2 (x1 x2 1.5)
2.2 Problema XOR
# x1 x2 t z1 z2 y
z2 -------------------------
4
1 0 0 0 0 0 0
3 0 1 1 1 0 1
1 2 3
z1 2 1 0 1 1 0 1
4 1 1 0 1 1 0
-------------------------
Descripción:
Tras inicializar los pesos de forma aleatoria y con valores
Adelante
Detalles:
SSE: E=SEp=S (ypk-opk)2
Pasos:
Inicialización:
Construcción de la red.
Inicialización aleatoria de pesos y umbrales (-0.5, 0.5)
Criterio de terminación (número máximo de iteraciones,…).
Contador de iteraciones n=0.
Fase hacia delante:
Parálisis de la red.
Mínimos locales.
2.3 Algoritmo Backpropagation IV
Subaprendizaje o Underfitting.
Memorización o Sobreaprendizaje (Sobreentrenamiento).
Caracterización de la red. ¿Cuantas capas, cuantas neuronas en
cada capa, factor de aprendizaje…?
Herramientas para RNA
Backpropagation en MATLAB
Retropropagación
Dígito X0 X1 X2 X3 X4 X5 X6 X7
0 0 1 1 1 1 1 1 1
9 1 1 1 1 1 1 0 1
8 1 1 1 1 1 1 1 1
7 0 0 1 1 1 0 0 1
6 1 1 1 0 1 1 1 1
5 1 1 1 0 1 1 0 1
4 1 1 0 1 1 0 0 1
3 1 0 1 1 1 1 0 1
2 1 0 1 1 0 1 1 1
1 0 0 0 1 1 0 0 1
2.4 Redes de Aproximación e
Interpolación
Control de sistemas.
Redes dinámicas:
Respuesta a:
Aprendizaje:
Inicialización de los pesos wij
Hopfield:
ALGORITMO:
Vive en el agua?
Tiene escamas?
Tiene plumas?
Pone huevos?
Tiene pelo?
Vuela?
Perro 1 0 0 0 0 0
Gato 1 0 0 0 0 0
Murciélago 1 0 0 1 0 0
Ballena 1 0 0 0 1 0
Canario 0 0 1 1 0 1
Petirojo 0 0 1 1 0 1
Avestruz 0 0 1 1 0 1
Serpiente 0 1 0 0 0 1
Lagarto 0 1 0 0 0 1
Caimán 0 1 0 0 1 1
Redes No Supervisadas en MATLAB
2.6 RNA en MATLAB
2.6 RNA en MATLAB
2.6 RNA en MATLAB
2.6 RNA en MATLAB
2.6 CONSIDERACIONES PRÁCTICAS
Número de Capas
Número de Neuronas
Interpolación y Extrapolación
Convergencia
2.6 Trabajo con RNA
La arquitectura.
El algoritmo de entrenamiento.
2.6 Trabajo con RNA
Selección de la salida
Estará determinada por la naturaleza del problema.
Pueden ser:
Salidas binarias o
Escala de grises (valores continuos)
Número de capas
La red de retropropagación usa generalmente tres capas.
Es mejor usar dos capas ocultas pequeñas que una sola muy
grande
Función de la Capa Oculta
Actúa como Sintetizador.
Número de neuronas
El número adecuado de neuronas ocultas se determina a
través de la experimentación.
Muy pocas neuronas ocultas impide el correcto mapeo de la
entrada a la salida
Muchas neuronas ocultas conduce a la memorización de los
datos sin extraer las características para la generalización.
Para una sola capa oculta se recomienda el número de
neuronas ocultas como 2/3 de número de entradas.
Cuando se usan dos capas ocultas el numero de neuronas
es significativamente menor en cada capa
Las redes neuronales con mayor número de entradas
respecto al numero de salidas trabajan mejor.
Un número mayor de salidas hacen mas duro el
entrenamiento.
2.6 Recomendaciones
Normalización de Datos:
Los datos numéricos deben ser normalizados o escalados
Algoritmos Genéticos
2.8 Aplicaciones
Detección de patrones
Conversión de texto a voz
Procesado de lenguaje natural
Filtrado de señales
Segmentación de datos
Predicción
Identificación de sistemas