Anda di halaman 1dari 19

Redes Neuronales y Sistemas Difusos

Practica 1
Figura 2. Linear Transfer Function
De este modo, la ecuacin de la ADALINE queda
j
i
(:) =
n
X
j=1
n
ij
r
j
0
i
, 8i, 1 i :
La diferencia mas importante con el perceptron y con el asociador lineal
reside en la regla de aprendizaje que implementa. En la ADALINE se utiliza
la regla de Widrow-Ho, tambin conocida como regla LMS, siendo la
actualizacin de los pesos proporcional al error que la neurona comete.
La regla LMS conducir a asociaciones perfectas cuando los vectores de
entrada sean linealmente independientes, proporcionando cuando no lo sean
una matriz de pesos optima desde el punto de vista de mnimos cuadrados
el algoritmo de aprendizaje es
n
i
(: + 1) = n
i
(:) + j(:)c(:)r
i
8i, 1 i :
donde:
j(:) =
j
0
1 +
n

, j
0
= 0.8, t = 0.3
IMPLEMENTACION EN SIMULINK
La planta
j(:) = 0.3j((: 1) 0.3j(: 2) + 0.4n(: 1) + 0.3
2
Fig 3. Planta Lineal
con la entrada de control n(:) y la entrada de generalizacin (:)
n(:) = :at

1.5 sin(2:) + 0.6 sin

3n
2

+ 1.12 sin

n
2

(:) = :at

2 cos(
2n
5
) + 0.5 cos

7n
2

+ sin

n
9

3
Fig 4. n(:), (:)
En la Figura 4 podemos observar la entrada n(:) utilizada para la calibracin
de los pesos sinpticos en el recuadro superior y en el inferior la entrada (:)
utilizada para la generalizacin.
El diagrama de la neurona queda de la siguiente manera.
4
Fig 5. ADALINE
5
Para la implementacin de la neurona se utilizo la ecuacin de la ADALINE
^ j
i
(t) =
n
X
j=1
n
ij
r
j
0
i
, 8i, 1 i :
Que se trabajo de la siguiente forma
^ j(:) = \
T
A
donde el vector X se construyo concatenando las entradas de la siguiente
forma
A = [1, n(: 1), j(: 1), j(: 2)]
y \
T
se implemento directamente del algoritmo de aprendizaje
\(: + 1) = \(:) + j(:)c(:)A
T
donde:
j(:) =
j
0
1 +
n

, j
0
= 0.8, t = 0.3
cuyo diagrama es el siguiente
Fig 6. j(:)
La conexin general queda como sigue
6
Fig 7. Conexn general
7
RESULTADOS
A continuacion se presentan los resultado se la simulacion
Los resultados de simulacion presentados son para : 2 [0, 500] epocas en
el caso de el periodo de entrenamiento y : 2 (500, 600] para la generalizacion,
esto se logro switcheando la entrada n(:) a la (:) y congelando los pesos en el
mismo instante
Fig 8. j(:) vs ^ j(:)
La gura 8 muestra las primeras 5 epocas del periodo de entrenamiento
Fig 9. Switcheo
8
La gura 9 presenta el momenton el que termina el periodo de entren-
amoento, lo que origina que se congelen los pesos y entre la entrada (:) de
generalizacion
Fig 10. Generalizacion
La gura 10 muestra un detalle de el comportamiento de la ADALINE en
presencia de la nueva entrada desconocida
Fig 11. Error instantaneo
9
Fig 12. Error cuadratico medio
Las guras 11 y 12 muestran el error instantane y cuadratico medio, en el
caso del error instantaneo se puede notar que en el intante : = 500 se hace el
switcheo y se modica el error instantaneo
Comentarios
Escogiendo los parametros de
j(:) =
j
0
1 +
n

,
de la siguente manera podemos
j
0
= 0.5, t = 1000
mejora el comportamiento de la ADALINE, mejorando la tarea de aproxi-
maxion de la Planta
se presentan resultados de los errores instantaneos y cuadratico medio con
los nuevis valores de j
0
y t
10
Fig 13. Error instantaneo
Fig 14. Error cuadratico medio
CASO 2 PLANTA NO LINEAL
La tarea de aproximacion se complica, ya que la funcion a aproximar es no
lineal
la planta no lineal queda denida de la siguente forma
j(:) = 0.3j((: 1) 0.3j(: 2) + 0.4n(: 1) + 0.3 + /(:)
/(:) = 0.15[1 + j(: 1) j(: 2)]
el diagrama de la planta no lineal queda de la siguiente manera
11
Fig 15. Planta no lineal
donde su entrada esta dada por
n(:) = 0.5

1.5 sin(2:) + 0.6 sin

3n
2

+ 1.12 sin

n
2

y la entrada de generalizacin
(:) = 0.8

cos(
n
3
) + 1.4 cos

n
9

+ 1.3 sin

n
4

El digrama de bloques de la entrada es similar al del Caso 1


Se manejo la misma topologia por lo que la ecuacion sera la misma
^ j(:) = \
T
A
donde el vector X se construyo concatenando las entradas de la siguiente
forma
A = [1, n(: 1), j(: 1), j(: 2)]
El algoritmo de aprendizaje utilizado en este caso es un caso mejorado,
que tiene un termino momentum que le suma estabilidad de manera de amor-
iguamiento, como la friccion en el caso de los sistemas mecanicos.
El momentum suma un efecto de memoria, lo que ocaciona que la NN no
responda a solo a un gradiente local estancandose en un minimo local, busca un
minimo global.
12
Entonces el algoritmo de aprendizaje es
\(:+1) = \(:)+jc(:)(1^ j
2
(:))A
T
(:)+cc(:1)(1j
2
(:1))A
T
(:1)
donde j, c son constantes
j = 0.8 c = 0.6
el diagrama de bloque de la implementacion es
13
Fig 16. ADALINE
14
RESULTADOS
Los resultado se presentan bajo las mismas condiciones que para el CASO 1
Fig 17. j(:) vs ^ j(:)
Fig 17. primeras 5 epocas del periodo de entrenamiento
Fig 18. Switcheo
Switcheo a la entrada (:) en : = 500
15
Fig 19. Detalle de la generalizacion
Fig 20. Error instantaneo
16
Fig 21. Error cuadratico medio
Para este caso, el no lineal se observa un error instantaneo considerablemente
mas elevado en la parte de la generalizacion pero es por causa de la propia no
linealidad de la planta
COMENTARIOS
Se observa que si se escoge la constante c = 0 correspondiendo al algoritmo
de aprendizaje, mejora sustancialmente el aprendizaje.
\(:+1) = \(:)+jc(:)(1^ j
2
(:))A
T
(:)+cc(:1)(1j
2
(:1))A
T
(:1)
con j = 0.8 j c = 0
despues de 500 epocas no es posible distinguir ente j(:) y ^ j(:)
Fig 22. j(:) vs ^ j(:)
17
Se presenta el switcheo y la generalizacion, en la generalizacion tampoco se
aprecia diferencia entre las salidas
Fig 23. Switcheo
Fig 24. Detalle de la generalizacion
En las gracas siguientes referentes al error instantaneo y al error cuadratico
medio, se aprecia con claridad el el mejoramiento de la tarea de aproximaxion
de la funcion no lineal
18
Fig 25. Error instantaneo
Fig 26. Error cuadratico medio
19