Captulo 5
Radial Basis Function
As RNAs do tipo Radial Basis Function (RBFs) so redes supervisionadas,
consideradas aproximadoras universais, assim como as RNAs Multilayer Perceptron
(MLPs) treinadas pelo algoritmo Backpropagation abordadas no captulo anterior. As
arquiteturas particulares das duas redes so, entretanto, muito diferentes. interessante
comentar algumas diferenas importantes entre as redes MLPs e as redes RBFs:
J uma rede RBF tipicamente treinada em dois estgios, com as funes de base
radial
pesos)
sendo
subseqentemente
determinada
por
mtodos
lineares
erro final atingido por uma rede RBF menor do que o erro final atingido por
uma rede MLP;
a convergncia de uma rede RBF pode chegar a ser uma ordem de grandeza
mais rpida do que a convergncia de uma rede MLP;
O projeto de uma rede neural RBF pode ser visto como um problema de ajuste de
curvas (ou, dito de outra forma, um problema de aproximao de funes) em um espao
de alta dimensionalidade. De acordo com este ponto de vista, o aprendizado de uma RBF
equivalente a encontrar uma superfcie em um espao multi-dimensional que melhor se
ajuste ao conjunto de dados de treinamento, sendo o critrio para o "melhor ajuste" medido
em algum sentido estatstico.
uma particular coordenada do espao multi-dimensional dos pontos que compem o espao
de dados de entrada [6][5]. Cada uma destas coordenadas particulares caracteriza-se por
definir o centro de uma entre vrias possveis regio de maior aglomerao de pontos,
ou cluster [5], do espao de dados de entrada.
As redes neurais RBF foram originalmente desenvolvidas para interpolao de
dados em espaos multi-dimensionais. Segundo B. Mulgrew [1], o problema da
interpolao de dados pode ser assim formulado: dado um conjunto de vetores {u i } e um
conjunto de escalares {yi } , busca-se uma funo F ()
. , tal que,
yi = F (u i ) , i
(5.1)
F (u ) = wi u u i
i
onde u u i
(5.2)
vetores u i so, por esta razo, referidos como centros no contexto de redes neurais RBF. O
operador usualmente a norma Euclidiana ou Norma L2 e mede o mdulo do vetor
argumento, isto , a distncia Euclidiana da ponta do vetor sua origem [3][7]. A norma
Euclidiana de u M expressa por u =
M 1
(u m )2
T
= u .u .
m=0
log
2
( ) =
Multi-Quadrtica
( ) = 2 + 2
Multi-quadrtica inversa
( ) =
2 + 2
2
( ) = exp 2
2
Gaussiana
i ,
! (u 1 ; t K )
! (u 2 ; t K )
#
"
! (u N ; t K )
(5.3)
Broomhead e Lowe propuseram que nem todos os vetores de entrada tivessem uma
funo de base radial associada, ou seja, N (nmero de vetores pertencentes ao conjunto de
treino da RNA) > K (nmero de funes de base radial adotadas para a RNA RBF). Com
N>K
sobre-determinado, ou seja, ter mais equaes do que incgnitas. Para a soluo de tal
sistema utiliza-se o mtodo dos mnimos quadrados, que possui soluo atravs da
pseudo-inverso da matriz de interpolao .
A abordagem de Broomhead e Lowe resultou em uma significativa reduo de
custo computacional e no aumento da capacidade de generalizao das redes RBF, o que
possibilitou a sua aplicao a uma vasta gama de problemas em processamento digital de
sinais (por exemplo), tais como predio de sries temporais, modelamento de sistemas,
rejeio de interferncia e equalizao/desconvoluo de canal.
A Figura 5.1 apresenta a arquitetura da rede neural RBF que habitualmente usada
em tais aplicaes. A rede composta de uma camada de ns fonte (que conectam a rede a
seu ambiente externo), qual apresentado o vetor de entrada u (n ) M . Uma nica
camada intermediria de neurnios no-lineares, cada um deles computando uma funo
distncia entre o vetor de entrada e o centro da funo de base radial associada, constitui a
1
2
u (n ) t k (n ) ,
k (n ) = k u (n ), t k (n ), k2 (n ) = exp 2
k (n )
(5.4)
y=
wk k ( u, t k , k2 )
(5.5)
K 1
k =0
u e o centro t k da ksima funo de base radial. O sinal de sada produzido pelo ksimo
neurnio escondido , portanto, devido funo exp() e ao operador () , uma funo
2
K 1
Pesos Sinpticos
Supervisionado: usa
e(n ) = d (n ) y (n )
k-means. No-supervisionado.
em valores singulares:
Supervisionado: usa
w(n ) = 1 (n ). d (n )
e(n ) = d (n ) y (n )
()
()
2
2
k n = k n . max t n t n
a
b
a ,b
()
Supervisionado: usa
e(n ) = d (n ) y (n )
()
11
t k (n ) t k (n + 1) , k , onde um nmero
muito pequeno.
12
~
k (u ) = arg min u (n ) t k (n ) ; k = 0,1,!, K 1
(5.6)
~
t k (n ) + [u (n ) t k (n )]; k = k (u )
t (n + 1) =
t k (n ) ;
outros casos
(5.7)
}.
2
(t i t j ); com i, j = 0,1,!, K 1
2 = d max
(5.8)
(5.9)
13
u (n ) t k (n )
k2 (n )
(5.10)
(5.11)
(n + 1) = (n ) + e(n )wk (n ) k (n )
2
k
2
k
u (n ) t k (n )
(5.12)
( (n ))
2
k
1
N
N 1
(d (n ) y(n ))2
n =0
14
(5.13)
I - Inicializao:
1. Subtrair o vetor mdia do conjunto de N vetores de treino.
2. Normalizar a i-sima componente de cada vetor de treino pelo desvio
padro do conjunto de N valores formado pela i-sima componente de
todos os N vetores de treino.
3. Normalizar o conjunto de N sadas desejadas para o intervalo [-1,+1].
4. Inicializar os centros das funes de base radial:
t k (n = 0 ) k-means
t k (n) + [u(n) t k (n)]; k = k~(u)
t (n + 1) =
outros casos
t k (n);
~
k (u ) = arg min u (n ) t k (n ) ; k = 0,1, ! , K 1
k
t k (n) t k (n + 1) , k
5. Inicializar os pesos sinpticos:
wk (n = 0 ) 0 ; k = 0,1, ! , K 1
15
2
k2 (n = 0) d max
t i t j , k ; com i, j = 0,1, ! , K 1, onde
2
2
d max
t i t j = max t i t j
II - Treinamento:
1.
2.
K 1
k =0
k =0
y (n ) = wk (n ) k (n ) =
3.
e(n ) = d (n ) y (n )
4.
u (n ) t k (n)
k2 (n)
k2
(n + 1)
= k2
(n ) + e(n )wk (n ) k (n )
16
u (n ) t k (n )
2
k
(n ))
5. Incrementar n (n = n + 1) .
Se
1
N
N 1
(d (n) y(n))2
n =0
Observao:
Havendo bias, a Equao para a sada da rede (passo II.2) torna-se:
K 1
y (n ) = wk (n ) k (n ) + wb B
k =0
17
5.1.3.1
Derivao de wk (n )
p = 0,1, ! , K 1 ,
(5.14)
1 2 1
e = (d y )2 ,
2
2
(5.15)
18
pJ =
1
J
(d y )2
=
w p 2 w p
(5.16)
em que
(d y )2 = 2(d y ) (d y ) .
w p
w p
(5.17)
(d y )2 = 2(d y )
w p
w p
(5.18)
K 1
d wi i
i =0
(d y )2 = 2(d y ) d w0 0 w1 1 $ w p p $ w K 1 K 1
w p
w p
(5.19)
(d y )2 = 2(d y ) p
w p
(5.20)
)]
1
J
(d y )2 = 1 2(d y ) p = (d y ) p
=
2
w p 2 w p
(5.21)
19
w p (n + 1) = w p (n ) w (d y ) p = w p (n ) + w e(n ) p (n )
(5.22)
5.1.3.2
Derivao de t k (n )
p = 0,1, ! , K 1
(5.23)
onde o parmetro t a razo de aprendizado (ou passo de adaptao) dos vetores centro
das funes de base radial e a funo de custo J , novamente, expressa pela Equao
(5.15).
Observa-se, a partir da Equao (5.23) que, para que possamos determinar t p (n )
precisamos encontrar p J . Desta forma, de (5.15) podemos escrever
pJ =
1
J
(d y )2
=
t p 2 t p
(5.24)
onde
(d y )2 = 2(d y )
t p
t p
K 1
wi i
i =0
(5.25)
20
(d y )2 = 2(d y )
t p
t p
K 1
1
d wi exp 2 u t i
i
i =0
(5.26)
(d y )2 =
t p
d w0 e
= 2(d y )
t p
u t 0
02
w1e
u t1
(5.27)
u t p
12
2p
$ w p e
$ w K 1 e
u t K 1
2
K
1
Como a sada desejada d no depende dos centros das funes de base radial e a
derivada t p dos termos expandidos s existir para t i = t p , teremos
u t
2
(d y ) = 2(d y ) w p exp
2
t p
t p
p
u t p
= 2(d y )( 2 )w p
2p
u t
p
exp
2p
u t
p
exp
2
(5.28)
u t p
1
p J = 2(d y )( 2 )w p
2p
2
u t p
= 2w p (d y )
2p
u t
p
exp
2p
21
(5.29)
(5.30)
5.1.3.3
2
Derivao de k (n )
p (n + 1) = p (n ) p J (n ) ;
p = 0,1, ! , K 1
(5.31)
onde o parmetro razo de aprendizado (ou passo de adaptao) das varincias dos
centros das funes de base radial. A funo de custo J expressa pela Equao (5.15).
A partir de (5.31) observa-se que, para a determinao de p (n ) , precisamos
encontrar p J . Desta forma, a partir de (5.15) podemos escrever
pJ =
1
J
(d y )2
=
p 2 p
onde
22
(5.32)
(d y )2 = 2(d y )
p
p
(5.33)
K 1
wi i
i =0
(d y )2 = 2(d y )
p
p
K 1
1
d
wi exp
u ti
i =0
i
(5.34)
(d y )2 =
p
d w0 e
= 2(d y )
p
u t 0
w1e
u t1
(5.35)
$ w p e
u t p
$ w K 1e
u t K 1
K 1
Como a sada desejada d no depende das varincias das funes de base radial e a
derivada p dos termos expandidos s existir para i = p , teremos
u t
2
(d y ) = 2(d y )
w p exp
p
p
p
Como
(5.36)
c c
c
exp = 2 exp , (5.36) pode ser escrita sob a forma
x
x x
x
u t 2
2
(d y ) = 2(d y ) w p
2
p
p
( )
23
u t
exp
p
(5.37)
1
J
pJ =
= 2(d y ) w p
p 2
u t 2
2
p
u t 2
p
= (d y ) w p
2
p
( )
( )
u t
exp
p
u t
exp
p
(5.38)
p
p (n + 1) = p (n ) (d y ) w p
2
p
( )
u t
exp
p
(5.39)
p
(n + 1) = (n ) + e(n ) w p (n ) p (n )
2
2p
2
p
2
p
( )
(5.40)
24
u1
u2
F (u )
0.0
0.01
0.04
0.09
0.16
0.25
0.36
0.49
u = [u 0 u1 u 2 ] , atravs do
T
+ 0w1
+ 0w1
+ 1w1
+ 1w1
+ 0w1
+ 0w1
+ 1w1
+ 1w1
+ 0w2
+ 1w2
+ 0w2
+ 1w2
+ 0w2
+ 1w2
+ 0w2
+ 1w2
25
=
=
=
=
=
=
=
=
0.0
0.01
0.04
0.09
0.16
0.25
0.36
0.49
(5.41)
de treino da rede RBF, com sada desejada d (n ) dado pelo respectivo valor na coluna F (u )
da tabela, isto , d (n ) = F (u (n )) . Como u (n ) 3 , faz-se M = 3 . Adotou-se K = 3 funes
de base radial para formar a superfcie de aproximao. Os centros das funes de base
radial so inicializados pelo algoritmo k-means, atravs da Equao (5.7) com = 0.1 , e as
varincias so inicializadas pelo valor dado pela Equao (5.8). A atualizao dos pesos
sinpticos, centros e varincias, atravs das Equaes (5.10) a (5.12), utiliza as razes de
aprendizado w = 0.1 , t = 0.1 e = 0.1 .
Para o treinamento da rede RBF, o conjunto de treino normalizado de forma que
os seus valores extremos situem-se no intervalo [ 1, 1] . Esta uma precauo usual, que
visa evitar overflow das variveis de ponto flutuante ao longo da operao do algoritmo
Gradiente Estocstico. Cada componente do conjunto de vetores u (n ) 3 normalizado
atravs da transformao u : , u (x ) = 2 x 1 , e cada um dos valores do conjunto de
N sadas desejadas d (n ), n = 0,1, !, N 1 , normalizado atravs da transformao
d : , d (x ) = 4.08163x 1 .
A apresentao dos N = 8 vetores do conjunto de treino definido pela Tabela 5.3
constitui uma poca. A Figura 5.2 mostra a evoluo do NMSEA1, medida que as pocas
de treinamento se sucedem. Aps 2000 pocas de treino, a rede RBF apresenta a relao
analtica dada pela Equao (5.42) como aproximao para o mapeamento da Tabela 5.3.
Note que a Equao (5.42) inclui o efeito das normalizaes u e d .
1
NMSEA =
N
26
(d (n ) y(n ))2
(d (n ))2
n=0
N 1
0.069259
(2u 1) 0.962758
0.015931
1.948417 exp
+
2.774243
1.265731
(2u 1) 0.180856
0.316373
+
+1
2.111299 exp
2.372715
1.234718
(2u 1) 1.019335
0.118491
1.045209 exp
1.934487
F (u ) =
4.08163
27
(5.42)
temos
F [0 0 0] = 7.739 10 6 ,
que
F [0 0 1] = 0.01 ,
T
(
)
F ( [111] ) = 0.49 .
F [0 1 0] = 0.04 ,
T
28
encontrados no mundo real. Por esta razo representam uma grande contribuio ao estudo
das sries temporais resultantes de tais processos [7].
Estudamos tambm que as redes neurais artificiais supervisionadas constituem uma
classe particular de RNAs que tm a capacidade de mimetizar processos estocsticos
associados a conjuntos de dados, atravs do aprendizado. Assim como na forma
convencional de um filtro linear adaptativo, as RNAs supervisionadas tm a capacidade de,
atravs da informao de uma resposta desejada tentar aproximar um sinal alvo durante o
processo de aprendizado. Esta aproximao obtida atravs do ajuste, de forma
sistemtica, de um conjunto de parmetros livres, caracterstico de cada rede neural. Na
verdade, o conjunto de parmetros livres prov um mecanismo para armazenar o contedo
de informao subjacente presente nos dados que so apresentados rede na fase de
treinamento [7][5].
Os dois principais tipos de redes neurais artificiais supervisionadas so as redes
MLP (Multilayer Perceptrons) treinadas pelo algoritmo back-propagation e as redes RBF
(Radial Basis Function). Como sabemos, ambas as redes so aproximadoras universais. No
entanto, quando se trata de aprendizado continuado, como no caso da predio de sries
temporais, as redes MLP se mostram menos adequadas porque o custo computacional de
treino de uma rede MLP muito superior ao de uma rede RBF, o que impossibilita a
operao de forma dinmica [6][7].
J as RNAs RBF possuem caractersticas especiais que as capacitam a aprender
rapidamente padres complexos e tendncias presentes nos dados e a se adaptar
rapidamente a mudanas. Estas caractersticas as tornam especialmente adequadas
predio de sries temporais, especialmente aquelas sries regidas por processos nolineares e/ou no-estacionrios, casos em que as tcnicas lineares de modelamento tm
sucesso apenas limitado em seu desempenho.
29
T
u (n + 1) = y (n ) = Wk u (n k ) = W u
k =0
30
(5.43)
Figura 5.3: Filtro Linear Transversal utilizado como preditor de u (n + 1) com ordem de
predio M = 8 . E{}
o operador que resulta no valor esperado do argumento [10].
Da Figura 5.3, o erro de predio e(n) pode ser expresso por
e(n ) = d (n ) y (n )
(5.44)
{ }
(d y ) = E 2e y ;
=
E e 2 = E 2e
= E 2e
Wi Wi
Wi
Wi
Wi
i = 0, 1, ! , M 1
31
(5.45)
y (n )
i J (n ) = E 2e(n )
= E 2e(n )
Wi
Wi
W u (n k ) = 2 E{e(n )u (n i )}
M 1
k =0
(5.46)
Como a funo de custo J uma funo quadrtica, J ser globalmente mnimo para
J = 0. Assim, a partir da Equao (5.46) podemos escrever que
i J (n ) = 2 E{e(n ) u (n i )}= 0
(5.47)
E d (n ) Wk u (n k ) u (n i ) = 0
k =0
(5.48)
(5.49)
(5.50)
(5.51)
onde Rdu a funo de correlao cruzada entre o processo aleatrio que descreve a sada
desejada d = u (n + 1) e o processo u.
Considerando as Equaes (5.50) e (5.51), a Equao (5.49) pode ser reescrita como
M 1
W R (k i ) = R ( i );
k =0
uu
i = 0 ,1,!, M-1
du
32
(5.52)
Para escrever a Equao (5.52) sob a forma matricial, consideremos que seja
u (n ) = [u (n ) u (n 1) ! u (n M + 1)] , tal que
T
R = E u (n ) u (n )
T
(5.53)
isto
E{u (n )u (n )}
E{u (n )u (n 1)}
E{u (n 1)u (n )}
E{u (n 1)u (n 1)}
R=
"
"
E{u (n )u (n M + 1)}
(5.54)
!
"
#
"
ou
Ruu (1)
Ruu (0)
R (1)
Ruu (0)
uu
R=
"
"
Ruu (M 1) Ruu (M 2 )
! Ruu (M 1)
!
"
#
"
Ruu (0 )
!
(5.55)
R = E u (n ) u (n ) =
T
u (n )
= E u (n 1) [u (n ) u (n 1) u (n 2 )] =
u (n 2 )
33
(5.56)
(5.57)
(5.58)
= [P(0) P( 1) ! P(1 M )]
(5.59)
Assim, partindo das Equaes (5.52), (5.53), (5.55), (5.58) e (5.59), teremos
RW = P
(5.60)
(5.61)
sendo P o vetor que define a correlao cruzada entre o vetor u (n ) de entrada e a sada
desejada d (n ) = u (n + 1) .
importante observar que, para uma dada srie temporal com N t amostras totais,
apresentando correlao entre M amostras consecutivas prvias ao instante a ser predito, a
preciso com que R e P representam as correlaes envolvidas ser tanto maior quanto
maior for N t com relao a M.
34
35
(observao predio )
(observao observao )
2
(5.62)
t 1
36
NMSE (n ) =
2
(o(i ) p(i ))
i =1
i =1
(u (i + 1) u(i + 1))
(5.63)
i =0
(u (i + 1) u(i ))
i =0
5.2.1.2
37
W7 = -0.334968 , W8 = 0.221793 ,
W9 = -0.248085 e W10 = 0.0365866 , de tal forma que a Equao (5.43) resulta em:
u (n + 1) = 0.689614 u (n ) + 0.545837 u (n 1) 0.206001 u (n 2 ) + 0.144179 u (n 3) +
0.109438u (n 4 ) + 0.054155u (n 5) 0.402716u (n 6 ) 0.334968u (n 7 ) +
+ 0.221793u (n 8) 0.248085u (n 9) + 0.0365866u (n 10)
38
Utilizando estes coeficientes no filtro FIR da Figura 5.3, o NMSE final resultante,
conforme Equao (5.63),
39
40
(5.64)
1
2
k (n ) = exp 2
u (n ) t k (n )
2 (n )
(5.65)
K 1
k =0
onde
a sada do ksimo centro Gaussiano com o vetor u (n ) aplicado entrada da rede RBF.
Para utilizar a rede RBF no contexto de predio de sries temporais torna-se
necessria a definio de algumas estruturas de dados.
Seja S uma srie temporal definida por S = {u (0), u (1),!, u (N t 1)}, onde N t o
nmero de amostras de S. A um instante n qualquer, o objetivo predizer a amostra
u (n + 1)
de
S,
sendo
conhecidas
u (n ), u (n 1), !, u (n M K + 1)
que
as
N =K +M
compem
amostras
janela
de
prvias
predio
(5.66)
41
t k (n ) = u (n k 1) , k = 0,1,!, K 1
(5.67)
42
2 (n ) = max t i (n ) t j (n )
}, i, j = 0,1,!, K 1
(5.68)
u (n ) t k (n )
k (n ) = exp
2
max t i (n ) t j (n )
(5.69)
, i, j = 0,1,!, K 1
(n ) = [ 0 (n ) 1 (n ) ! K 1 (n )]T
Por exemplo, (n 1) K
(5.70)
u (n 1), u (n 2), !, u (n K )
define
seqncia
de
vetores
43
entre
as
dimenses
K ,
conjunto
de
vetores
(n 2)T 0 (n 2) 1 (n 2) ! K 1 (n 2)
(n ) =
=
"
"
"
"
T
(n K ) 0 (n K ) 1 (n K ) ! K 1 (n K )
(5.71)
(n 1)T , (n 2)T , !, (n K )T
do
processo
no-linear,
os
quais
resultam
44
(5.72)
y (n ) = [y (n 1) y (n 2 ) ! y (n K ) ]
(5.73)
onde y (n 1), y (n 2 ),!, y (n K ) so as sadas da rede RBF com respeito aos vetores de
entrada u (n 1), u (n 2 ),!, u (n K ) associados ao desenrolar temporal momentneo da
srie S, sendo dados o vetor de pesos sinpticos arbitrrio w = wa e a matriz de estados
(n ) .
Vamos supor que y (n ) = d (n ) , onde d (n ) o vetor de sadas desejadas definido por
d (n ) = [u (n ) u (n 1) ! u (n K + 1)] conforme construo mostrada na Figura 5.7, de tal
T
forma que
u (n )
u (n 1)
= (n ). w(n ) =
y (n ) = d (n ) =
"
u (n K + 1)
(5.74)
0 (n 1) 1 (n 1) ! K 1 (n 1) w0 (n )
(n 2 ) (n 2 ) ! (n 2 ) w (n )
0
1
K 1
1
"
"
"
"
0 (n K ) 1 (n K ) ! K 1 (n K ) wK 1 (n )
Observe-se que cada elemento em d (n ) o elemento que se coloca uma posio
frente na srie S, com respeito ao vetor de entrada que gerou o correspondente vetor de
transio de estado no-linear em . Por exemplo, a primeira linha de na Equao
45
p (n) ,
(5.75)
temporal seja normalizada para o intervalo [1,1] , antes de qualquer procedimento, por
46
neural. O vetor peso sinptico w(n ) obtido de (5.75) armazena informao de como ocorre
a transio estados prviosprximo elemento dado o vetor de entrada que descreve o
desenrolar temporal momentneo da srie S. Como, por definio, uma varivel de estado
no sofre alterao para uma variao pequena no sistema por ela descrito [3], assume-se
que os vetores de estado t k do processo de S no sofram uma mudana significativa uma
posio frente em S. Assim, a sada da rede neural y (n ) ao vetor de entrada
u (n ) = [u (n ) u (n 1) ! u (n M + 1)]
k
u (n + 1) = y (n ) = wk (n )exp
2
k =0
max t i (n ) t j (n )
K 1
K 1
(5.76)
= wk (n ) k (n ) = w (n ) (n )
T
k =0
deve ser
2.
3.
4.
II - Treinamento:
1.
(n ) K , = 1,! , K .
2.
3.
4.
48
5.
2
u (n ) t k (n )
u (n + 1) = wk (n )exp
2
k =0
t i (n ) t j (n )
(n )max
i, j
K 1
5.2.2.2
= wT (n ) (n )
6.
n = n +1
7.
49
Figura 5.8: Srie Chaotic_LASER Predio no-linear atravs da heurstica APC com
M = 11 , K = 8 e N = 19 . NMSE( N t 1) = 0.096 .
Experimentou-se novamente a predio linear da srie Chaotic_LASER (conforme
descrita na Seo 5.2.1), considerando, neste novo experimento, o dobro da ordem de
predio utilizada na predio por APC, isto , M = 22 para o caso linear.
Os valores dos coeficientes obtidos para o filtro linear, atravs de (5.43) so
W0 = -0.670762 , W1 = 0.545837 , W2 = -0.253092 ,
W5 = 0.129263 ,
W6 = -0.355902 ,
W7 = -0.510382 ,
W3 = 0.198692 , W4 = -0.0704754 ,
W8 = 0.277562 ,
W9 = -0.30334 ,
W10 = 0.217955 , W11 = -0.161362 , W12 = 0.092362 , W13 = -0.189575 , W14 = 0.0408657 ,
W15 = 0.162011 , W16 = -0.109375 , W17 = 0.0276988 , W18 = -0.0969306 , W19 = 0.0260158 ,
W20 = -0.0871898 e W21 = 0.101258 .
50
O resultado da predio linear para este caso mostrado na Figura 5.9 e o NMSE
final resultante, conforme Equao (5.63), NMSE( N t 1) = 0.185 .
51
Neste sentido, para uma ordem de predio M = 11 , pode-se dizer que a heurstica
APC obtm um NMSE final 0.096 com uma janela de predio com apenas 19 amostras
prvias conhecidas, enquanto que a predio linear obtm um NMSE final de 0.213
necessitando, para isso, uma janela de predio equivalente s 1000 amostras prvias
conhecidas todas as amostras da srie.
[2]
[3]
C. T. Chen, Linear System Theory and Design, Harcourt Brace College Publishers,
1984.
[4]
[5]
[6]
S. Haykin, Adaptive Filter Theory, 3rd ed., Prentice Hall, Upper Saddle River, New
Jersey, 1996.
[7]
S. Haykin, Neural Networks, 2nd ed., Prentice Hall, Upper Saddle River, New
Jersey, 1999.
[8]
[9]
52
[10]
[11]
[12]
[13]
53