Anda di halaman 1dari 43

Aprendizaje Asociativo

Aprendizaje Asociativo

ESTIMULO RESPUESTA
Red Asociativa Simple

a = hardlim (w p + b ) = hardlim ( w p – 0.5 )

 1 , stimulus  1, response
p =  a = 
 0 , no stimulus  0, no response
Asociador de Fruta

Estimulo No Condicionado Estimulo Condicionado


0  1, shape detected  1 , smell detected
p =  p = 
 0, shape not detected  0 , smell not detected
1.1.1 Regla de Hebb No
Supervisada
w ij (q ) = w ij (q – 1 ) + αa i( q ) p j( q )

En forma de Vector:
W( q ) = W (q – 1 ) + αa( q ) p T( q )

Secuencia de Entrenamiento:

p (1 ), p ( 2 ), … , p (Q )
Ejemplo: Identificador
Pesos Iniciales:
0
w = 1, w ( 0) = 0

Secuencia de Entrenamiento:
0 0
{ p ( 1 ) = 0 , p ( 1 ) = 1 }, { p ( 2 ) = 1 , p (2 ) = 1 }, …

α=1
w (q ) = w ( q – 1 ) + a (q ) p (q )

Primera Iteración (Vista No presente):


0 0
a (1 ) = hardlim (w p (1 ) + w (0 )p (1 ) – 0.5 )
= hardlim (1 ⋅ 0 + 0 ⋅ 1 – 0.5 ) = 0 (no response)

w( 1 ) = w (0 ) + a ( 1 ) p ( 1 ) = 0 + 0 ⋅ 1 = 0
Ejemplo (nnd13uh)
Segunda Iteración (Aspecto presente):
0 0
a (2 ) = hardlim (w p (2 ) + w (1 )p (2 ) – 0.5 )
= hardlim (1 ⋅ 1 + 0 ⋅ 1 – 0.5 ) = 1 (banana)

w( 2 ) = w (1 ) + a ( 2 ) p ( 2 ) = 0 + 1 ⋅ 1 = 1

Tercera Iteración (Vista No presente):


0 0
a ( 3 ) = hardlim ( w p (3 ) + w (2 ) p (3 ) – 0.5 )
= hardlim ( 1 ⋅ 0 + 1 ⋅ 1 – 0.5 ) = 1 (banana)

w( 3 ) = w (2 ) + a ( 3 ) p ( 3 ) = 1 + 1 ⋅ 1 = 2

A partir de este momento, la Fruta será detectada si cualquiera


de los sensores está presente.
Problemas con la
Regla de Hebb

Los Pesos pueden crecer sin


medida.

No existe un mecanismo para


disminuir los Pesos.
Regla de Hebb con Degradación
W (q ) = W ( q – 1 ) + αa( q ) p T (q ) – γ W( q – 1 )

W (q ) = (1 – γ )W (q – 1 ) + αa( q ) p T( q )

Ésta Regla impide que la matriz de pesos crezca sin medida, lo


cual se demuestra al igualar ai y pj a 1:
m ax m ax
wi j = ( 1 – γ ) wi j + α ai p j
m ax m ax
wi j = ( 1 – γ ) wi j +α
m ax α
wi j = ---
γ
Ejemplo: Asociador de Fruta
α=1 γ = 0.1

Primera Iteración (No vista):


0 0
a ( 1 ) = hardlim ( w p ( 1 ) + w ( 0 ) p ( 1 ) – 0.5 )
= hardlim ( 1 ⋅ 0 + 0 ⋅ 1 – 0.5 ) = 0 (no response)

w (1 ) = w ( 0 ) + a ( 1 ) p ( 1 ) – 0.1w( 0 ) = 0 + 0 ⋅ 1 – 0.1 ( 0 ) = 0

Segunda Iteración (vista presente):


0 0
a ( 2 ) = hardlim ( w p ( 2 ) + w ( 1 ) p ( 2 ) – 0.5 )
= hardlim ( 1 ⋅ 1 + 0 ⋅ 1 – 0.5 ) = 1 (banana)

w (2 ) = w ( 1 ) + a ( 2 ) p ( 2 ) – 0.1w( 1 ) = 0 + 1 ⋅ 1 – 0.1 ( 0 ) = 1
Ejemplo (nnd13hd) (nnd13edr)
Tercera Iteración (No vista):
0 0
a ( 3 ) = hardlim ( w p (3 ) + w (2 ) p (3 ) – 0.5 )
= hardlim ( 1 ⋅ 0 + 1 ⋅ 1 – 0.5 ) = 1 (banana)

w( 3 ) = w (2 ) + a ( 3 ) p ( 3 ) – 0.1w( 3 ) = 1 + 1 ⋅ 1 – 0.1 (1 ) = 1.9

30 10

20

6 m ax α 1
wi j = --- = ------- = 10
γ 0.1
4
10

Regla de Hebb 2
Hebb Con Degradación
0 0
0 10 20 30 0 10 20 30
Problema en Hebb con Degradación
• La asociación se degradará si el estimulo no se presenta
ocasionalmente. 3

Si ai = 0, Entonces, 2

wij ( q ) = (1 – γ )w ij (q – 1 )

Si γ = 0.1, esto se convierte 1

wi j( q ) = ( 0.9 )wi j( q – 1 )

0
0 10 20 30

Por lo cual el Peso se degrada un 10% en cada iteración


donde no exista estimulo.
1.1.2 REGLA INSTAR
Red de Reconocimiento simple
Vector de entrada.

Instar.

Reconoce
patrones.
Instar (Operación)
a = hardlim ( Wp + b ) = hardlim ( 1w T p + b )
La instar estará activa cuando

wT p ≥ –b
1

Para vectores normalizados, el producto punto mayor ocurre


cuando el ángulo entre el vector de pesos y el vector de entradas
es cero -- El vector de entrada es igual al vector de pesos.

Las filas de una matriz de pesos representa los patrones


a ser reconocidos.
Reconociendo un Vector
Si el umbral es
b = – 1w p

El instar solo será activado cuando θ = 0.


Si el umbral es
b > – 1w p

el instar estará activo para un determinado rango de ángulos.

1w

Si b se incrementa, habrá más patrones (sobre un amplio


rango de θ) los cuales activarán el instar.
Red INSTAR
Reconocimiento de
patrones,
Similar arquitectura
al perceptron,
Realiza el
reconocimiento de
un vector,
Todos los vectores
tienen la misma
longitud (normales).
Regla INSTAR

Un problema con la regla de Hebb con


degradación es que requiere que el estimulo
se repita o la asociación se ira perdiendo.

La regla INSTAR minimiza el olvido.

Proporciona vectores de pesos normalizados


si los vectores de entrada están normalizados
Regla Instar (nnd13is, nnd13gis)
Hebb con Decay
w ij ( q ) = wij ( q – 1 ) + α a i( q ) p j( q )

Solo ocurrirán modificaciones al aprendizaje y al olvido


cuando la neurona este activa - Regla Instar:
w ( q ) = w ( q – 1 ) + αa ( q ) p ( q ) – γ a ( q )w ( q – 1 )
ij ij i j i ij

o si γ es igual a α
w ij ( q ) = wij ( q – 1 ) + α a i( q ) ( p j ( q ) – wi j( q – 1 ) )

En forma de Vector:

iw (q ) = iw ( q – 1 ) + αa i( q ) (p ( q ) – iw (q – 1 ) )
Representación Gráfica
Para el caso donde el instar está activo (ai = 1):
iw (q ) = iw ( q – 1 ) + α ( p ( q ) – iw( q – 1 ))
or
iw( q ) = ( 1 – α )iw ( q – 1 ) + αp ( q )

Para el caso donde el instar está inactivo (ai = 0):


iw ( q ) = iw (q – 1 )
EN RESUMEN
Regla de Hebb no
supervisada
Incrementa justamente el peso Wij
entre la entrada de la neurona Pj y la
salida ai en proporción a su producto.

Donde: α Es la razón de aprendizaje.


q Es el numero de iteración.
Regla de Hebb con
Degradación
Esta regla mejora a la anterior al degradar W.

Donde: γ es la razón de degradación;


constante positiva con valores entre 0 y 1.
Esta constante evita que W crezca sin limite.
Razón de Degradación γ
Si γ tiende a 1; La ley de aprendizaje olvida
rápidamente las entradas anteriores y recuerda
los patrones más recientes
El valor máximo de la matriz de pesos es:

Se requiere que el estimulo sea repetido o la


asociación se ira perdiendo
Regla INSTAR

Se considera α = γ

Si a (q) = 1
i
Representación Gráfica de la
Regla INSTAR
Cuando la INSTAR
esta activa el vector
de pesos se mueve
hacia el vector de
entrada.

La distancia en que
se mueve el vector
de pesos depende
de α.
Representación Gráfica de la
Regla INSTAR

Si α = 0 ; el nuevo
vector de pesos es
igual al anterior (no
se mueve)

si α = 1 ; el nuevo
vector de pesos es
igual al vector de
entrada (máximo
movimiento)
Representación Gráfica de la
Regla INSTAR
Si α = 0.5 el vector de
pesos se encuentra a la
mitad entre el vector
anterior de pesos y el
vector de entrada.

Se tiene una regla que


no solo minimiza el
olvido, si no que
entrega los vectores de
pesos normalizados
cuando los vectores de
entrada son
normalizados.
EJEMPLO
Ejemplo
0  1 , orange detected visually
p = 
 0 , orange not detected

shape
p = tex ture
w eight
Ejemplo: Reconocedor de naranjas
T
w 0 = 3 ; W( 0 ) = 1w ( 0 ) = 0 0 0

 1  1 
 0  0 
 p ( 1 ) = 0 , p ( 1 ) = ,
–1   p (2 ) = 1 , p (2 ) = – 1 , …
  
 – 1  – 1 

Primera Iteración (α=1):


0 0
a (1 ) = hardlim ( w p ( 1 ) + Wp ( 1 ) – 2 )
 1 
 
a (1 ) = h ardlim 3 ⋅ 0 + 0 0 0 – 1 – 2 = 0 (no response)
 
 – 1 

0  1 0  0
 
1 w (1 ) = 1 w (0 ) + a ( 1 )( p ( 1 ) – 1w ( 0 )) = 0 + 0  – 1 – 0  = 0
 
0  –1 0 0
Entrenamiento
 1 
0 0  
a ( 2 ) = hardlim ( w p ( 2 ) + Wp ( 2 ) – 2 ) = h ardlim  3 ⋅ 1 + 0 0 0 – 1 – 2 = 1
 
 – 1  (orange)

0  1 0  1
 
1w ( 2 ) = 1 w( 1 ) + a (2 ) ( p (2 ) – 1 w (1 ) ) = 0 + 1  –1 – 0 = –1
 
0  – 1 0  –1

 1 
0 0  
a ( 3 ) = hardlim ( w p ( 3 ) + Wp ( 3 ) – 2 ) = hardlim 3 ⋅ 0 + 1 – 1 – 1 – 1 – 2 = 1
 
 –1  (orange)

1  1 1  1
 
1 w( 3 ) = 1 w( 2 ) + a (3 )( p (3 ) – 1w (2 )) = – 1 + 1  – 1 – –1  = – 1
 
–1  –1 –1  –1

Ahora la naranja será detectada con cualquier sensores activo.


REGLA DE KOHONEN

Regla de aprendizaje
Asociativo
Regla de Kohonen

Regla de Kohonen.

Se puede utilizar para aplicaciones de


reconocimiento.
Regla de Kohonen

1 w( q ) = 1 w( q – 1 ) + α( p ( q ) – 1w ( q – 1 ) ), for i ∈ X (q )

En la regla de Kohonen el aprendizaje no es proporcional a


la salida de la neurona, ai(q) .

El aprendizaje ocurre cuando el índice i de la neurona es un


elemento del conjunto X(q).

Esta regla es útil para el entrenamiento de redes como los


mapas de características auto-organizativas.
1.1.3 REGLA OUTSTAR

Redes que recuerdan patrones


Asocia estímulos a vectores
de salida
Redes que Recuerdan

La red outstar posee una entrada escalar y un vector de salida.


Operación de la Outstar
Supongase que se quiere que la outstar recuerde el patrón a*
siempre y cuando la entrada p = 1 se presente en la Red. Si
W = a∗

Entonces, cuando p = 1

a = sa tlins (W p ) = s atli ns( a∗ ⋅ 1 ) = a∗

y el patrón será recordado correctamente.

Las columnas de una matriz de pesos representan


los patrones a recordar.
Regla Outstar
En la regla instar el termino de degradación de los
pesos de la regla Hebb es proporcional a la salida de la
red. Mientras que en la regla Outstar el termino de
degradación de pesos es proporcional a la entrada de
la red.wij ( q ) = wi j( q – 1 ) + α a i( q ) p j (q ) – γ p j( q )w ij (q – 1 )
Sí la razón de degradación γ es igual a la razón de aprendizaje α,

wi j( q ) = wi j( q – 1 ) + α ( a i( q ) – w ij ( q – 1 ) ) p j ( q )
En forma de Vector:
w j ( q ) = w j ( q – 1 ) + α ( a( q ) – w j ( q – 1 ) ) p j ( q )
Ejemplo - Recordando una
Piña
Definiciones
a = s atl ins( W0 p 0 + W p )

100
0
W = 010
001

shape –1
0 pi neap ple
p = tex ture p = –1
w eight 1

 1 , if a pineapple can be seen


p = 
 0 , otherwise
Primera Iteración
 0  – 1 
 0  0 
 p ( 1 ) = 0 , p ( 1 ) = 1 ,
 p (2 ) = –1 , p ( 2 ) = 1 , …
  
 0  1 

α=1

 
 0 0  0
a( 1 ) = s atli ns 0 + 0 1  = 0 (no response)
 
 0 0  0

 
0  0 0  0
w 1 (1 ) = w1 ( 0 ) + (a (1 ) – w 1 ( 0 )) p (1 ) = 0 +  0 – 0  1 = 0
 
0 0 0 0
Convergencia
 –1 0  –1
 
a ( 2 ) = satlins  – 1 + 0 1  = –1 (se dan los datos)
 
 1 0  1

0  – 1 0  –1
w 1 ( 2 ) = w1 (1 ) + (a ( 2 ) – w1 ( 1 ) ) p ( 2 ) = 0 +  –1 – 0 1 = –1
 
0  1 0 1

 0 –1  –1
 
a ( 3 ) = s atli ns  0 + – 1 1  = – 1 (los datos son recordados)
 
 0 1  1

– 1  –1 – 1  –1
w 1 ( 3 ) = w1 ( 2 ) + (a ( 2 ) – w1 ( 2 ) ) p ( 2 ) = – 1 +  –1 – – 1  1 = – 1
 
1  1 1 1

Anda mungkin juga menyukai