Download PDF
ads:
Universidade Federal do Maranh
˜
ao
Centro de Ci
ˆ
encias Exatas e Tecnologia
Programa de P
´
os-Graduac¸
˜
ao em Engenharia de Eletricidade
EWALDO EDER CARVALHO SANTANA
ESTUDO E DESENVOLVIMENTO DE UMA FAM
´
ILIA DE
ALGORITMOS N
˜
AO LINEARES PARA FILTRAGEM
ADAPTATIVA
ao Lu´ıs - MA
2006
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
EWALDO EDER CARVALHO SANTANA
ESTUDO E DESENVOLVIMENTO DE UMA FAM
´
ILIA DE
ALGORITMOS N
˜
AO LINEARES PARA FILTRAGEM
ADAPTATIVA
Disserta¸ao apresentada ao Programa de os Gra-
dua¸ao em Engenharia de Eletricidade da UFMA,
como requisito para a obten¸ao do grau de MES-
TRE em Engenharia de Eletricidade.
Orientador: Allan Kardec Duailibe Barros Filho
Universidade Federal do Maranh˜ao
ao Lu´ıs - MA
2006
ads:
Santana, Ewaldo
ESTUDO E DESENVOLVIMENTO DE UMA FAM
´
ILIA DE AL-
GORITMOS N
˜
AO LINEARES PARA FILTRAGEM ADAPTA-
TIVA / Ewaldo Santana - 2006
PG.p
1.Engenharia 2. Filtros Adaptativos.. I.T´ıtulo.
CDU NNN.NN
EWALDO EDER CARVALHO SANTANA
ESTUDO E DESENVOLVIMENTO DE UMA FAM
´
ILIA DE
ALGORITMOS N
˜
AO LINEARES PARA FILTRAGEM
ADAPTATIVA
Disserta¸ao apresentada ao Programa de os Gra-
dua¸ao em Engenharia de Eletricidade da UFMA,
como requisito para a obten¸ao parcial do grau de
MESTRE em Engenharia de Eletricidade.
Apresentado em 17 de fevereiro de 2006
BANCA EXAMINADORA
Allan Kardec Duailibe Barros Filho
Universidade Federal do Maranh˜ao
Raimundo Carlos Silv´erio Freire
Universidade Federal de Campina Grande
Sebastian Yuri Cavalcanti Catunda
Universidade Federal do Maranh˜ao
`
A
´
Eder unior, Arthur e Tiago.
Sem voes, nada seria poss´ıvel.
Resumo
Neste trabalho ´e desenvolvida uma fam´ılia de algoritmos adaptativos baseados
em fun¸oes ao lineares como crit´erio a ser aplicado sobre o erro, o qual deseja-se mini-
mizar. Tal desenvolvimento baseia-se na utiliza¸ao de estat´ısticas de alta ordem para a
obten¸ao de mais informa¸oes sobre os sinais envolvidos no processo, com o objetivo de
melhorar a performance de um filtro adaptativo.
Derivamos equa¸oes, baseadas na expans˜ao em eries de Taylor das fun¸oes
ao lineares, para a obten¸ao de crit´erios que garantam a convergˆencia. Tamb´em fazemos
um estudo da covariˆancia do vetor peso em regime estacion´ario e determinamos equa¸oes
que mensurem a constante de tempo do processo adaptativo.
Apresentamos o algoritmo sigmoidal, que utiliza como crit´erio a fun¸ao Ln(cosh ε).
Foram feitas simula¸oes com este algoritmo para validar a teoria apresentada, e tamb´em o
aplicamos para a obten¸ao das componentes determin´ısticas de sinais reais de impedˆancia
cardiogr´afica.
Palavras-chave: algoritmos adaptativos, filtragem adaptativa, impedˆancia cardiogr´afica
Abstract
In this work we develop a family of adaptive algorithms based on nonlinear
functions as a criterion to be applied upon the error, that we want to minimize. Such
a development is based upon the use of high order statistics to obtain additional infor-
mation of the signals involved in the process, intending to enhance the adaptive filtering
performance.
We derive equations based upon the Taylor’s series expansion of the nonlinear
functions in order to obtain criterions that guarantee convergence. We also make a study
about the covariance of the weight vector on steady state and determine equations that
measure the time constant of the adaptive process.
We present the sigmoidal algorithm that uses the function Ln(cosh ε) as cri-
terion. Simulations of this algorithm are performed to validate the theory and it is also
applied to obtain the deterministic components of real impedance cardiographic signals.
Keywords: adaptive algorithms, adaptive filtering, cardiographic impedance
Agradecimentos
Ao professor Allan Kardec Duailibe Barros Filho pela amizade, confian¸ca,
orienta¸ao e dedica¸ao com que encaminhou este trabalho e por nos ajudar a enxergar
mais al´em do nosso olhar.
`
A professora Maria da Guia da Silva pela oportunidade, incentivo e cr´edito.
Ao professor Eugˆenio Medeiros pela amizade e coment´arios oportunos.
Aos amigos do PIB: Fausto Lucena, Denner Guilhon, Andr´e Borges, ucio
Campos, Ricardo Robson, Carlos Magno, Glenda Salgado, Ivan J´unior, Jaciani Pereira,
Raniere Machado e Ranielma Machado.
`
A toda a minha fam´ılia.
Aos irm˜aos Lucas, Jahamag´e e toda sua equipe de seareiros.
Aos amigos do Centro Esp´ırita Humberto de Campos pela compreens˜ao.
`
A CAPES pela bolsa a mim concedida.
Sum´ario
Lista de Figuras 8
1 Introdu¸ao 10
1.1 Motivoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Organiza¸ao do texto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 A Superf´ıcie Quadr´atica 13
2.1 Introdu¸ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 O Combinador Linear Adaptativo . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 O algoritmo adaptativo LMS . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Derivao do algoritmo LMS . . . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Convergˆencia do vetor peso . . . . . . . . . . . . . . . . . . . . . . 18
2.3.3 Excesso do erro quadr´atico m´edio . . . . . . . . . . . . . . . . . . 19
2.4 Conclus˜ao do Cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3 Uma fam´ılia de algoritmos baseados em ao linearidades do erro 21
3.1 Introdu¸ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Estat´ıstica de Segunda Ordem e Estat´ıstica de Alta Ordem . . . . . . . . . 21
3.3 Uma fun¸ao ao linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Derivao do algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Convergˆencia do vetor peso . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Covariˆancia do vetor peso e desajuste . . . . . . . . . . . . . . . . . . . . . 30
3.7 Compara¸ao com o LMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.8 Conclus˜ao do Cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4 O Algoritmo Sigmoidal 35
4.1 Introdu¸ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 A fun¸ao Ln(cosh ε) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3 Derivao do algoritmo Sigmoidal (SA) . . . . . . . . . . . . . . . . . . . . 37
4.3.1 Convergˆencia do vetor peso, constante de tempo e Desajuste . . . . 38
4.3.2 SA versus LMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3.3 Simula¸oes com o Algoritmo Sigmoidal . . . . . . . . . . . . . . . . 39
4.4 Conclus˜oes do Cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5 Estima¸ao Adaptativa Estoastica de Sinal de Impedˆancia Cardiogr´afica 43
5.1 Introdu¸ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Simula¸ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.3 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6 Conclus˜oes e Proposta de Continuidade 50
6.1 Conclus˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6
6.2 Proposta de Continuidade . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Referˆencias 52
Lista de Figuras
2.1 Combinador Linear Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Por¸ao de uma superf´ıcie quadr´atica tridimensional, juntamente com al-
guns contornos. O erro quadr´atico edio est´a plotado na vertical, w
0
e w
1
variam de -1 a 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 A linha pontilhada representa a curva de aprendizagem do algoritmo LMS
e a linha cheia representa uma aproxima¸ao exponencial dessa curva. . . . 19
3.1 Gr´afico da superf´ıcie gerada pela fun¸ao cosh(ε) e algumas curvas de n´ıveis.
Os pesos w
0
e w
1
variam de -2 a 2. . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Excesso no erro final em rela¸ao ao erro m´ınimo . . . . . . . . . . . . . . . 33
4.1 Por¸ao da superficie tridimensional gerada pela fun¸ao Ln(cosh ε), juntamente
com alguns contornos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2 Gr´aficos das fun¸oes Ln(cosh ε), Ln(cosh 2ε) e Ln(cosh 3ε). . . . . . . . . . . 36
4.3 Gr´aficos das fun¸oes Ln(cosh 2ε) e ε
2
, onde podemos ver a maior in-
clina¸ao da primeira, no intervalo [1; 1] . . . . . . . . . . . . . . . . . . . 37
4.4 Diagrama de blocos da modelagem adaptativa de uma planta . . . . . . . . 40
4.5 curvas de aprendizagem dos algoritmos LMS e SA com α = 2 . . . . . . . . 41
4.6 curvas de aprendizagem dos algoritmos LMS e SA com α = 3 . . . . . . . . 41
5.1 Captura de sinais de ICG . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2 Diagrama de bloco do filtro adaptativo. s
k
´e o sinal determin´ıstico, n
k
´e o
ru´ıdo descorrelacionado com s
k
. [x
1,k
x
2,k
· · · x
2H,K
]
T
´e o vetor de entrada. 45
5.3 a)Sinal de interesse, s
k
, uma onda quadrada; b) sinal de ru´ıdo, n
k
, gaussiano
de m´edia zero e variˆancia 1; c) Sinal de interesse mais ru´ıdo; d) Sa´ıda do
filtro com o algoritmo LMS; e) Sa´ıda do filtro com o algoritmo SA . . . . . 47
5.4 curvas de aprendizagens dos algoritmos LMS e SA para o mesmo desajuste
e para os tamanhos dos passos dados pela rela¸ao (4.8). Vemos que o
algoritmo SA converge com mais ou menos 500 itera¸oes enquanto que o
LMS converge com 1500 itera¸oes . . . . . . . . . . . . . . . . . . . . . . . 47
5.5 Compara¸ao espectro-temporal entre o sinal de ICG real com os sinais
de sa´ıda dos filtros LMS e SA. (a)Sinal de ICG real; (b) e (c) Sinais de
sa´ıda dos filtros LMS e SA, respectivamente; (d), (e) e (f) Transformada
de Fourier de (a), (b) e (c), respectivamente. As setas indicam a remo¸ao
do ru´ıdo de 1.8 Hz e seus harmˆonicos realizada pelo algoritmo SA, quando
comparado com o sinal original e a sa´ıda do LMS . . . . . . . . . . . . . . 48
10
1 Introdu¸ao
O processamento de sinais utilizados na maioria das situa¸oes pr´aticas envolve
o processamento de dados contaminados por ru´ıdo, de forma a extrair alguma informa¸ao
sobre o sinal de interesse. Nesta categoria incluem-se os processamentos chamados de
filtragem, predi¸ao e estima¸ao. Os sinais envolvidos ao sinais aleat´orios, os quais ao
caracterizados por suas propriedades estat´ısticas. O projeto de filtros para o processa-
mento de sinais aleat´orios requer o conhecimento pr´evio de alguma informa¸ao sobre as
propriedades estat´ısticas dos sinais envolvidos. Quando isso ´e poss´ıvel, trata-se o problema
no ˆambito do processamento estat´ıstico de sinais. Nos casos em que tais informa¸oes ao
ao conhecidas e ao podem ser estimadas por falta de tempo (processamento em tempo
real), a melhor solu¸ao ´e o emprego de filtros adaptativos. Tais filtros ao program´aveis
por um algoritmo num´erico que realiza um processo de otimiza¸ao de acordo com uma
figura de m´erito especificada. O trabalho em filtragem adaptativa envolve o estudo de
algoritmos e de estruturas de filtragem de forma a melhorar o desempenho dos sistemas
adaptativos existentes.
´
Areas de aplica¸ao de filtragem adaptativa incluem a identifica¸ao de sistemas
f´ısicos, o cancelamento de ecos em sistemas de comunica¸ao, a equaliza¸ao de canais de
sistemas de comunica¸ao, o cancelamento de interferˆencias, a codifica¸ao de sinais e o
controle ativo de ru´ıdo ac´ustico e de vibra¸oes. Em especial, na ´area biom´edica, diversas
aplica¸oes podem ser encontradas, tais como: Cancelamento de interferˆencias de sinais de
60 Hz em Eletrocardiograma (ECG); cancelamento de interferˆencias do cora¸ao-doador
no ECG durante o transplante de cora¸ao; cancelamento da influˆencia materna em ECG
11
fetal.
Muito do sucesso dos filtros adaptativos ´e devido ao desenvolvimento do popu-
lar e robusto algoritmo least-mean-square (LMS) [1], o qual tenta determinar parˆametros
do filtro que minimizem o crit´erio do erro quadr´atico m´edio (MSE), o que ´e alido para o
combinador linear adaptativo, descrito no cap´ıtulo 2. Este algoritmo ´e importante em vir-
tude de sua simplicidade e baixo custo computacional, uma vez que ao requer estima¸oes
do gradiente dos dados com atraso, ou seja, modo off-line. Al´em disso, dado que o sinal de
entrada ´e estatisticamente estacion´ario, o algoritmo convergir´a para a solu¸ao de Wiener,
na teoria de estima¸ao de m´ınimos quadrados [2]. Algoritmos baseados no crit´erio do
m´ınimo erro quadr´atico edio, com caracter´ısticas bem conhecidas, ao referˆencias para
compara¸oes de outros algoritmos.
1.1 Motivoes
Devido `a complexidade computacional, pouca aten¸ao tem sido dada `as fun¸oes
ao lineares como estima¸ao do gradiente em filtragem adaptativa. Mas, a explora¸ao
das propriedades das fun¸oes ao lineares pode nos conduzir a importantes descober-
tas concernentes `a melhoria do desempenho da adapta¸ao do algoritmo sob particulares
condi¸oes estat´ısticas. Por exemplo, o algoritmo LMS est´a limitado a um grande compro-
metimento entre erro edio final e tempo de convergˆencia, fato que tem for¸cado alguns
pesquisadores a apelar a etodos computacionalmente mais custosos [ 3, 4]. Assim, sim-
plesmente usando fun¸oes ao lineares como estimativas do gradiente, pode-se obter, de
uma forma geral, uma melhora no desempenho do algoritmo.
Neste trabalho, os apresentamos o desenvolvimento de uma fam´ılia de algo-
12
ritmos adaptativos que utilizam como fun¸ao de custo aplicada sobre o erro, uma ao
linearidade par, e demonstramos suas propriedades que conduzem a um melhor desempe-
nho quando comparado com outros filtros adaptativos.
1.2 Organiza¸c˜ao do texto
Este trabalho est´a dividido da seguinte forma: No cap´ıtulo 2, apresentamos
o combinador linear adaptativo, como um dos principais elementos dos filtros adaptati-
vos; fazemos uma revis˜ao da superf´ıcie quadr´atica, gerada pela utiliza¸ao do m´etodo dos
m´ınimos quadrados; revisamos o algoritmo least-mean square (LMS), mostrando a sua
derivao, convergˆencia do vetor peso e excesso final.
No cap´ıtulo 3 apresentamos fun¸oes lineares como alternativa de crit´erio a ser
aplicado sobre o erro; desenvolvemos algoritmos que utilizem-se de fun¸ao ao lineares
como estima¸ao do gradiente, bem como analisamos matematicamente a convergˆencia, a
covariˆancia do vetor peso bem como o desajuste final e mostramos um modo de comparar
esses algoritmos com o algoritmo LMS.
No cap´ıtulo 4 derivamos o algoritmo sigmoidal (SA), que utiliza como crit´erio
sobre o erro a fun¸ao Ln(cosh ε). Obtemos express˜ao para garantir a convergˆencia e
determinamos a constante de tempo e o desajuste; fizemos simula¸oes e compara¸oes com
o LMS, aplicando as equa¸oes desenvolvidas no cap´ıtulo 3.
No cap´ıtulo 5 apresentamos a Impedˆancia Cardiogr´afica (ICG), um novo etodo
ao invasivo para obten¸ao de informa¸oes card´ıacas e aplicamos o algoritmo SA para re-
cuperar as componentes determin´ısticas do ICG.
13
2 A Superf´ıcie Quadr´atica
2.1 Introdu¸ao
Muitos algoritmos adaptativos utilizam-se do erro quadr´atico edio como
fun¸ao de custo aplicada sobre o erro e que se deseja minimizar. O erro quadr´atico m´edio
´e uma fun¸ao convexa dos componentes do vetor peso e gera uma superf´ıcie hiperpara-
bol´oide que garante a existˆencia de um m´ınimo global. O problema ´e como determinar
procedimentos de forma tal a encontrar esse m´ınimo, o mais apido poss´ıvel e com o menor
erro final.
2.2 O Combinador Linear Adaptativo
O principal componente de muitos sistemas adaptativos ´e o combinador linear
adaptativo (CLA), mostrado na figura (2.1). O sinal de entrada ´e um vetor, X
k
, definido
como
X
k
=
x
0k
x
1k
· · · x
Lk
T
(2.1)
O vetor peso, W
k
, ´e definido por
W
k
= [
w
0k
w
1k
. . . w
Lk
]
T
. (2.2)
e a sa´ıda, y
k
, ´e igual ao produto interno de X
k
por W
k
:
y
k
= X
T
k
W
k
= W
T
k
X
k
(2.3)
14
Figura 2.1: Combinador Linear Adaptativo
Conforme visto na figura (2.1), o sinal de erro, no instante k, ´e dado por
ε
k
= d
k
y
k
. (2.4)
Substituindo (2.3) nesta express˜ao, temos:
ε
k
= d
k
X
T
k
W = d
k
W
T
X
k
. (2.5)
Aqui, os omitimos o subscrito k no vetor peso por conveniˆencia, visto que,
no momento, ao queremos ajustar os pesos.
2.3 O algoritmo adaptativo LMS
A finalidade do algoritmo adaptativo mostrado na figura 2.1 ´e ajustar os pe-
sos do CLA para minimizar o erro quadr´atico edio. Uma express˜ao geral para o erro
quadr´atico m´edio como uma fun¸ao dos valores dos pesos, supondo que os sinais de en-
trada e a resposta desejada ao estatisticamente estacion´arios e que os valores do peso ao
fixos, pode ser derivada da seguinte maneira:
15
2.3.1 Derivao do algoritmo LMS
Expandindo o quadrado de 2.5, obtemos
ε
2
k
= d
2
k
+ W
T
X
k
X
T
k
W 2d
k
X
T
k
W. (2.6)
Aplicando o operador expectˆancia em ambos os lados de (2.6), obtemos:
E[ε
2
k
] = E[d
2
k
] + W
T
E[X
k
X
T
k
]W 2E[d
k
X
T
k
]W. (2.7)
Definamos R como a seguinte matriz quadrada:
R = E[X
k
X
T
k
] = E
x
2
0k
x
0k
x
1k
x
0k
x
2k
. . . x
0k
x
Lk
x
1k
x
0k
x
2
1k
x
1k
x
2k
. . . x
1k
x
Lk
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
Lk
x
0k
x
Lk
x
1k
x
Lk
x
2k
. . . x
2
Lk
(2.8)
Esta matriz ´e chamada de ”matriz de correla¸ao de entrada.”Os termos da
diagonal principal ao as m´edias quadradas das componentes do sinal de entrada e os
demais termos ao as correla¸oes cruzadas entre as componentes. Al´em do mais, ela ´e
uma matriz sim´etrica, positiva definida e, em raros casos, positiva semidefinida.
Definamos, tamb´em, P como o seguinte vetor:
P = E[d
k
X
k
] = [
d
k
x
0k
d
k
x
1k
. . . d
k
x
Lk
]
T
(2.9)
Este vetor ´e o conjunto das correla¸oes cruzadas entre o sinal resposta desejada
e as componentes do sinal de entrada. Quando X
k
e d
k
ao estacion´arios, as componentes
de R e P ao todas estat´ısticas de segunda ordem.
Fazendo ξ E[ε
2
k
], e utilizando (2.8) e (2.9) reescrevemos ( 2.7), da seguinte
maneira:
ξ E[ε
2
k
] = E[d
2
k
] + W
T
RW 2P
T
W (2.10)
16
Observemos que o erro quadr´atico m´edio ´e uma fun¸ao quadr´atica dos pesos,
cujo gr´afico ´e uma superf´ıcie oncava hiperparab´olica, conforme vemos na figura 2.2, onde
consideramos apenas dois pesos. Esta fun¸ao, obviamente, nunca pode ser negativa.
Figura 2.2: Por¸ao de uma superf´ıcie quadr´atica tridimensional, juntamente com alguns
contornos. O erro quadr´atico edio est´a plotado na vertical, w
0
e w
1
variam de -1 a 1
Ajustar os pesos, para minimizar o erro, significa “descer”sobre a superf´ıcie
com o objetivo de atingir o ponto m´ınimo. M´etodos do gradiente ao geralmente utilizados
com este objetivo.
O gradiente da superf´ıcie de desempenho do erro quadr´atico m´edio, designado
por (ξ), ou simplesmente, , pode ser obtido derivando (2.10) para obter o vetor coluna
=
ξ
W
= [
ξ
w
0
ξ
w
1
. . .
ξ
w
L
]
T
= 2RW 2P. (2.11)
Para obter o erro quadr´atico edio m´ınimo, o vetor peso ´e ajustado para seu
17
valor ´otimo, W
, onde o gradiente ´e zero:
= 0 = 2RW
2P (2.12)
Supondo que R seja uma matriz ao singular, o vetor peso ´otimo, tamb´em
chamado de vetor peso de Wiener, ´e determinado de (2.12) como
W
= R
1
P. (2.13)
O algoritmo adaptativo LMS (Least Mean Square) [1], [10], ´e um etodo
pr´atico para encontrar solu¸oes pr´oximas de ( 2.13) em tempo real. Este algoritmo ´e
importante em virtude de sua simplicidade computacional, visto que ao requer e invers˜oes
de matriz, nem derivoes, nem integra¸oes. A acur´acia ´e limitada pelo tamanho da
amostra estat´ıstica, visto que os valores dos pesos encontrados ao baseados em medidas
em tempo real dos sinais de entrada.
O algoritmo LMS ´e uma implementa¸ao do etodo da descida mais ´ıngreme.
De acordo com este m´etodo, o “pr´oximo” vetor peso, W
k+1
, ´e igual ao vetor peso “atual”,
W
k
, mais um quantidade proporcional ao negativo do gradiente:
W
k+1
= W
k
µ
k
. (2.14)
O parˆametro µ ´e um fator que controla a estabilidade e a taxa de convergˆencia,
denominada “tamanho do passo”. Cada itera¸ao ocupa um per´ıodo de tempo unit´ario.
Para desenvolver o algoritmo LMS, os tomamos o pr´oprio ε
2
k
como uma esti-
mativa de ξ
k
. Enao, a cada itera¸ao, no processo adaptativo, os teremos uma estima¸ao
18
do gradiente da forma
ˆ
k
=
ε
2
k
w
0
.
.
.
ε
2
k
w
L
= 2ε
k
ε
k
w
0
.
.
.
ε
k
w
L
= 2ε
k
X
k
. (2.15)
As derivadas de ε
k
, em rela¸ao aos pesos, seguem, diretamente de (2.5).
Usando (2.15), em lugar do verdadeiro gradiente, em (2.14 ) temos o algoritmo
LMS:
W
k+1
= W
k
+ 2µε
k
X
k
. (2.16)
Este algoritmo ´e simples e acil de implementar.
2.3.2 Convergˆencia do vetor peso
A partir de (2.16), ´e mostrado [1], [10] que o vetor pesos W
k
´e fun¸ao apenas
dos vetores de entradas passadas X
k1
, X
k2
, · · · , X
0
. Se supormos que sucessivos vetores
de entrada ao independentes no tempo, W
k
ser´a independente de X
k
. Desta forma, o
valor esperado do vetor peso, E[W
k
], ap´os um n´umero suficiente de itera¸oes, convergir´a
para a solu¸ao ´otima, W
= R
1
P. Iniciando com um vetor peso inicial arbitr´ario, o
algoritmo convergir´a, em m´edia, e permanecer´a est´avel enquanto o parˆametro µ for maior
que zero e menor que o inverso do maior autovalor, λ
max
, da matriz R:
0 < µ <
1
λ
max
. (2.17)
Na figura 2.3 podemos ver uma t´ıpica curva de aprendizagem resultante do
uso do algoritmo LMS.
19
0 100 200 300 400 500 600 700 800 900 1000
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Número de iterações
Erro quadrático médio
Erro quadrático médio
aproximação exponencial
Figura 2.3: A linha pontilhada representa a curva de aprendizagem do algoritmo LMS e
a linha cheia representa uma aproxima¸ao exponencial dessa curva.
Vemos que esta curva ´e de natureza exponencial. Podemos, desta forma, apro-
xim´a-la por um “envelope” exponecial dado por e
t
τ
, onde t ´e o tempo e τ ´e uma grandeza
chamada de a constante de tempo, de forma tal que uma itera¸ao seja igual `a uma unidade
de tempo. A constante de tempo est´a relacionada com o n-´esimo autovalor da matriz R
da seguinte forma:
τ
n
=
1
2µλ
n
. (2.18)
2.3.3 Excesso do erro quadr´atico m´edio
Na figura 2.3, podemos ver que quando os pesos ao ao iguais a W
, o erro
quadr´atico m´edio (ξ) ser´a maior que o erro quadr´atico m´edio m´ınimo (ξ
min
). Temos,
assim, um excesso no erro final
Definimos, ent˜ao, o excesso do erro quadr´atico edio, ExcessoMSE, como a
20
diferen¸ca entre o erro quadr´atico m´edio atual (ξ
k
) e o erro quadr´atico edio m´ınimo[1]:
ExcessoMSE = E[ξ
k
ξ
min
]
= µE[n
2
k
]tr[R] (2.19)
onde tr[R] ´e o traco da matriz R e n
k
´e um sinal de ru´ıdo.
Definimos, tamb´em, a diferen¸ca entre o erro quadr´atico edio atual e o erro
quadr´atico edio m´ınimo, normalizado pelo erro quadr´atico edio m´ınimo, como o de-
sajuste (M).
M =
E[ξ
k
ξ
min
]
ξ
min
. (2.20)
Desta forma, temos que:
M
LMS
= µtr[R] (2.21)
2.4 Conclus˜ao do Cap´ıtulo
Neste cap´ıtulo, realizou-se uma revis˜ao da superf´ıcie quadr´atica gerada quando
se utiliza o erro quadr´atico edio (EQM) como crit´erio aplicado sobre o erro em um filtro
adaptativo. Mostramos a derivao do popular algoritmo LMS e descrevemos as equa¸oes
que determinam sua condi¸ao de convergˆencia. A constante de tempo e o desajuste
tamb´em ao enfatizados, p ois os mesmos ao utilizados como referˆencia comparativa de
outros algoritmos adaptativos.
21
3 Uma fam´ılia de algoritmos baseados em ao
linearidades do erro
3.1 Introdu¸ao
Neste cap´ıtulo, mostraremos o desenvolvimento de uma fam´ılia de algoritmos
adaptativos, do tipo descida mais ´ıngreme, que utiliza como estima¸ao instantˆanea do
gradiente uma fun¸ao ´ımpar ao linear. A id´eia asica ´e mostrar que a superf´ıcie de de-
sempenho obtida por este etodo de estima¸ao oferece maior velocidade de convergˆencia,
bem como um menor desajuste na busca do peso m´ınimo.
3.2 Estat´ıstica de Segunda Ordem e Estat´ıstica de
Alta Ordem
Conforme vimos, entre os filtros adaptativos, o algoritmo LMS aparece como
um dos mais utilizados. O LMS p ertence a uma classe de algoritmos que pode ser denomi-
nada como estat´ıstica de segunda ordem (SOS), em oposi¸ao `a estat´ıstica de alta ordem
(HOS)[11]. O uso de m´etodos baseados em SOS ´e suficiente quando supomos que os si-
nais envolvidos no processo tˆem distribui¸oes gaussianas, fornecendo um grande n´umero
de simplifica¸oes na an´alise do comportamento do algoritmo, bem como proporcionando
um menor custo computacional, em oposi¸ao aos etodos baseados em HOS.
22
Por outro lado, provavelmente devido ao aumento no poder computacional nas
´ultimas ecadas, etodos baseados em HOS em atra´ıdo a aten¸ao dos pesquisadores.
Certamente, em vez de tratar somente da potˆencia do sinal (i.e. estat´ıstica de segunda
ordem), HOS permite o acesso `a informa¸ao contida em todos os momentos do sinal,
fornecendo, conseq¨uentemente, uma melhor aproxima¸ao da distribui¸ao real do sinal sob
o estudo. Desta forma, podemos esperar que algoritmos projetados sob a ´otica de HOS
tenham comportamentos mais eficientes.
Neste campo, de particular interesse para o estudo aqui proposto, ´e o trabalho
de Barros et al [11]. Eles desenvolveram uma fam´ılia de algoritmos baseados na soma
dos momentos pares do erro, inspirados na fun¸ao de distribui¸ao de probabilidade de
uma vari´avel aleat´oria, os quais podem ser escritos como uma combina¸ao linear de seus
momentos.
Aqui, os trabalharemos em uma dire¸ao alternativa, propondo como fun¸ao
de custo uma ao linearidade par, que gera uma superf´ıcie convexa, que ao tem m´ınimo
local, apenas um m´ınimo global e que admita uma expans˜ao em erie de Taylor de forma
tal a utilizar as informa¸oes contidas em todos os momentos do sinal. O resultado ´e
uma fam´ılia de algoritmos que mostraram-se mais eficazes em termos de velocidade de
convergˆencia e desajuste final, quando comparado com o LMS.
3.3 Uma fun¸ao ao linear
Definiremos F(ε
k
) como uma fun¸ao cont´ınua, ao linear, par, sim´etrica, apli-
cada sobre o erro a cada itera¸ao. Na figura 3.1, por exemplo, vemos a superf´ıcie tridi-
mensional gerada pela fun¸ao cosseno hiperb´olico do erro, considerando-se apenas dois
23
pesos.
Figura 3.1: Gr´afico da superf´ıcie gerada p ela fun¸ao cosh(ε) e algumas curvas de n´ıveis.
Os pesos w
0
e w
1
variam de -2 a 2.
Sabemos que a forma da superf´ıcie depende do crit´erio (fun¸ao) aplicado sobre
o erro. Como os crit´erios ao fun¸oes do erro quadr´atico m´edio, onde a forma da sup erf´ıcie
depende apenas dos sinais de entrada [6], podemos intuir que a forma da superf´ıcie, para
fun¸oes ao lineares, depender´a, tamb´em, dos sinais de entrada. Al´em disso, os eixos
principais das curvas de n´ıveis da superf´ıcie de desempenho, para a fun¸ao quadr´atica,
corresponde aos autovetores da matriz de correla¸ao de entrada R, e, os correspondentes
autovalores determinam a taxa de varia¸ao do gradiente ao longo dos eixos principais da
superf´ıcie de desempenho, afetando, portanto, o tempo de convergˆencia.
24
3.4 Derivao do algoritmo
No Combinador Linear Adaptativo (CLA), descrito no cap´ıtulo 2, a sa´ıda,
y
k
= W
T
k
X
k
, ´e dada como uma combina¸ao linear das amostras da entrada. O sinal
desejado d
k
´e composto de um sinal que desejamos extrair, s
k
, adicionado a um ru´ıdo que
tem distribui¸ao normal (0,1) , n
k
, na forma d
k
= s
k
+ n
k
.
Fcamos, agora, as seguintes suposi¸oes:
cada vetor de entrada X
k
´e estatisticamente independente de todos os outros vetores
X
j
, j < k;
X
k
´e limitado em um intervalo [δ, δ], onde δ ´e um n´umero positivo menor que ou
igual a 1;
n
k
´e estatisticamente independente de X
k
;
todas as vari´aveis em distribui¸oes de probabilidades ao necessariamente gaussia-
nas;
o vetor peso W
k
´e estatisticamente independente de X
k
.
Como em (2.5), temos
ε
k
= d
k
X
T
k
W
k
. (3.1)
Para desenvolver um algoritmo adaptativo usando o m´etodo da descida mais
´ıngreme, os utilizar´ıamos ξ = E[ε
2
k
] como fun¸ao de custo ou crit´erio a ser aplicado
sobre o erro. Em vez disso, os tomaremos F(ε
k
) como fun¸ao de custo, a qual queremos
minimizar. Ent˜ao, a cada itera¸ao, no processo iterativo, os teremos uma estima¸ao do
25
gradiente na forma
ˆ
k
=
F (ε
k
)
W
= F
(ε
k
)
ε
k
W
k
= F
(ε
k
)X
k
, (3.2)
onde F
() representa a diferencia¸ao de F. Definindo f(ε
k
) = F
(ε
k
) podemos especificar
um algoritmo adaptativo do tipo descida mais ´ıngreme. De ( 2.14), temos:
W
k+1
= W
k
+ µf(ε
k
)X
k
. (3.3)
3.5 Convergˆencia do vetor peso
A tarefa de filtragem, como sabemos, ´e realizada atrav´es de mudan¸cas nos
pesos, os quais ao dados por W
k
= [
w
k1
w
k2
· · · w
kM
].
Seja V = W W
o vetor de desvio do peso, onde W
´e o vetor peso ´otimo,
ou seja, s
k
= W
T
X
k
. Assim, teremos
ε
k
= d
k
y
k
= s
k
+ n
k
W
T
k
X
k
= W
T
X
k
+ n
k
W
T
k
X
k
= n
k
(W
k
W
)
T
X
= n
k
V
T
k
X
k
. (3.4)
Substituindo esta equa¸ao em (3.3), teremos
V
k+1
= V
k
+ µf(n
k
V
T
k
X
k
)X
k
. (3.5)
26
Expandindo f(n
k
V
T
k
X
k
) em erie de Taylor em torno do valor V
T
k
X
k
,
obtemos
f(n
k
V
T
k
X
k
) =
i=0
f
i
(V
T
k
X
k
)
i!
n
i
k
= f(V
T
k
X
k
) + f
(V
T
k
X
k
)n
k
+
+
1
2
f

(V
T
k
X
k
)n
2
k
+
1
6
f

(δ)n
3
k
, (3.6)
onde f
(i)
representa a i-´esima derivada de f, e δ pertence ao intervalo [0, n
k
].
Substituindo (3.6) em (3.5), encontramos
V
k+1
= V
k
+ µ[f(V
T
k
X
k
) + f
(V
T
k
X
k
)n
k
+
+
1
2
f

(V
T
K
X
k
)n
2
k
+
1
6
f

(δ)n
3
k
]X
k
. (3.7)
Aplicando o operador expectˆancia em ambos os lados de (3.7), podemos ver
que
E[V
k+1
] = E[ V
k
] + µ{E[f (V
T
k
X
k
)X
k
] +
+
1
2
E[f

(V
T
k
X
k
)X
k
]σ
2
n
}, (3.8)
onde usamos o fato de que os momentos ´ımpares do ru´ıdo ao iguais a zero e σ
2
n
= E[n
2
k
]
´e a variˆancia do ru´ıdo.
Demonstremos, agora, o seguinte teorema:
Teorema: Seja f uma fun¸ao ao linear, ´ımpar, definida e cont´ınua em um
intervalo (δ, δ), onde δ ´e um n´umero positivo suficientemente pequeno. Desta forma,
f(αβ) αf (β), para todo α, β (δ, δ).
Demonstrao: Observe que |α| < δ, |β| < δ e f (0) = 0. De acordo com
as hip´oteses, existe ρ > 0, um n´umero suficientemente pequeno, tal que |f(β)| < ρ.
27
Obviamente, tamb´em teremos |f (αβ)| < ρ. Multiplicando |α| por |f (β)| obtemos a
seguinte desigualdade: |α||f(β)| < δρ ou |α f (β)| < δρ. Note que δ e ρ ao n´umeros
pequenos, ent˜ao o produto ent˜ao eles ´e, ainda, pequeno. Desta maneira, podemos fazer
αf(β) ao pr´oximo de f(αβ) quanto desejarmos .
Utilizando o teorema acima, reescrevemos a equa¸ao (3.8) como
E[V
k+1
] = E[V
k
] µ
E[f(X
k
)V
T
k
X
k
] +
1
2
E[f

(X
k
)V
T
k
X
k
]σ
2
n
.
= E[V
k
] µ
E[f(X
k
X
T
k
)V
k
] +
1
2
E[f

(X
k
X
T
k
)V
k
]σ
2
n
= E[V
k
] µ
f(R)E[V
k
] +
1
2
f

(R)E[V
k
]σ
2
n
=
I µ
f(R) +
1
2
f

(R)σ
2
n
E[V
k
]. (3.9)
Esta equa¸ao pode ser utilizada para determinar um limite no parˆametro µ
para garantir convergˆencia. Definindo Q como sendo a matriz dos autovetores de R, ou
seja, as colunas de Q ao formados pelos autovetores de R, e Λ uma matriz diagonal,
cujos elementos da diagonal principal ao os autovalores de R, escrevemos a matriz de
correla¸ao de entrada como:
R = QΛQ
1
. (3.10)
Definindo, tamb´em,
˜
V
k
= Q
1
V
k
como uma rota¸ao nos vetores pesos, rees-
crevemos (3.9) da seguinte maneira:
QE[
˜
V
k+1
] =
I µf (R)
µ
2
f

(R)σ
2
n
QE[
˜
V
k
] =
E[
˜
V
k+1
] = Q
1
I µf (R)
µ
2
f

(R)σ
2
n
QE[
˜
V
k
]
=
Q
1
µQ
1
f(R)
µ
2
Q
1
f

(R)σ
2
n
QE[
˜
V
k
]
=
I µQ
1
f(R)Q
µ
2
Q
1
f

(R)Qσ
2
n
E[
˜
V
k
]
=
I µf (Λ)
µ
2
f

(Λ)σ
2
n
[
˜
V
k
]. (3.11)
28
mas, agora, o que temos em (3.11), ´e justamente o valor esperado de
˜
V
k+1
=
I µf (Λ)
µ
2
f

(Λ)σ
2
n
˜
V
k
, (3.12)
a qual pode ser resolvida por indu¸ao da seguinte forma: iniciando com um peso inicial
arbitr´ario,
˜
V
0
, temos, para as primeiras trˆes itera¸oes:
˜
V
1
=
I µf (Λ)
µ
2
f

(Λ)σ
2
n
˜
V
0
˜
V
2
=
I µf (Λ)
µ
2
f

(Λ)σ
2
n
2
˜
V
0
˜
V
3
=
I µf (Λ)
µ
2
f

(Λ)σ
2
n
3
˜
V
0
. (3.13)
Generalizando, para a k-´esima itera¸ao, obtemos:
˜
V
k
=
I µf (Λ)
µ
2
f

(Λ)σ
2
n
k
˜
V
0
. (3.14)
De (3.14) vemos que o algoritmo ser´a convergente se
lim
k→∞
I µf (Λ)
µ
2
f

(Λ)σ
2
n
k
= 0. (3.15)
O termo entre aspas em (3.15) ´e uma matriz diagonal, cujos elementos da
diagonal principal ao da forma:
lim
k→∞
1 µf (λ
i
)
µ
2
f

(λ
i
)σ
2
n
k
, (3.16)
com i = 0, . . . , L.
A condi¸ao de convergˆencia ser´a satisfeita com
1 µf (λ
i
)
µ
2
f

(λ
i
)σ
2
n
1, (3.17)
que obtemos se tomarmos
0 < µ <
2
f(λ
max
) +
1
2
f

(λ
max
)σ
2
n
, (3.18)
29
onde λ
max
´e o maior autovalor da matriz R.
Se esta condi¸ao ´e satisfeita, segue que
lim
k→∞
˜
V
k
= 0. (3.19)
Se substituirmos
˜
V
k
= Q
1
V = Q
1
(W W
) em (3.19), encontramos
lim
k→∞
W
K
= W
. (3.20)
Desta forma, o algoritmo ser´a convergente se a condi¸ao (3.18) for suprida.
os podemos determinar a constante de temp o, associada com o i-´esimo au-
tovalor da matriz R da seguinte maneira: tal como feito na se¸ao (2.3.2), determinemos
um envelope exponencial e
t/τ
, onde t representa o tempo e τ representa a constante de
tempo, que aproxime o comportamento da curva de aprendizagem. De (3.14) temos, para
cada itera¸ao, que
˜v
i
= (1 µf(λ
i
)
µ
2
f

(λ
i
)σ
2
n
)
k
˜v
0
, (3.21)
para i = 0, . . . , L.
Definamos
r
i
1 µf (λ
i
)
µ
2
f

(λ
i
)σ
2
n
(3.22)
como a raz˜ao geom´etrica da seq¨encia de amostras de ˜v
i
. Considerando uma unidade de
tempo igual a uma itera¸ao temos que
e
1
i
= r
i
, (3.23)
a qual pode ser expandida como [1]:
r
i
= e
1
i
= 1
1
τ
i
+
1
2!τ
2
i
1
3!τ
3
i
+ · · · . (3.24)
30
Visto que em muitas aplica¸oes τ
i
´e maior ou igual a 10 e r
i
´e menor que 1,
fa¸camos a seguinte aproxima¸ao:
r
i
=
1
1
τ
i
. (3.25)
Igualando (3.22) e (3.25), obtemos
τ
i
=
1
µ
f(λ
i
) +
1
2
f

(λ
i
)σ
2
n
. (3.26)
Quando a rela¸ao sinal ru´ıdo (SNR) for alta, os podemos negligenciar o se-
gundo fator no denominador e reescrever (3.26) como [13]
τ
i
=
1
µf(λ
i
)
. (3.27)
3.6 Covariˆancia do vetor peso e desajuste
Um sistema adaptativo modifica os seus pesos com o objetivo de encontrar a
solu¸ao ´otima. Como o sistema ´e ruidoso, no estado estacion´ario, ap´os a convergˆencia, os
pesos assumir˜ao valores em uma “vizinhan¸ca” do ´otimo, mas ao igual a ele. Podemos,
assim, determinar a covariˆancia do vetor peso.
Perto do peso ´otimo, a superf´ıcie gerada por F (ε
k
) se aproxima da superf´ıcie
quadr´atica. Desta forma, considerando apenas os dois primeiros termos de (3.6), temos:
V
k+1
= V
k
+ µ
f(V
T
k
X
k
) + f
(V
T
k
X
k
)n
k
X
k
. (3.28)
31
Continuando, multiplicando cada lado de (3.28) pelo seu transposto:
V
k+1
V
T
k+1
=
V
k
+ µf(V
T
k
X
k
)X
k
+ µf
(V
T
k
X
k
)n
k
X
k
·
V
T
k
+ µf(V
T
k
X
k
)X
T
k
+ µf
(V
T
k
X
k
)n
k
X
T
k
= V
k
V
T
k
+ µf(V
T
k
X
k
)V
k
X
T
k
+
µf
(V
T
k
X
k
)n
k
V
k
X
T
k
+ f(V
T
k
X
k
)X
k
V
T
k
+
µ
2
f
2
(V
T
k
X
k
)X
k
X
T
k
+
µ
2
f(V
T
k
X
k
)f
(V
T
k
X
k
)n
k
X
k
X
T
k
+
µf
(V
T
k
X
k
)n
k
X
k
V
T
k
+
µ
2
f(V
T
k
X
k
)f
(V
T
k
X
k
)n
k
X
k
X
T
k
+
µ
2
f
2
(V
T
k
X
k
)n
2
k
X
k
X
T
k
. (3.29)
Como V
k
X
T
k
= X
k
V
T
k
, temos:
V
k+1
V
T
k+1
= V
k
V
T
k
+ 2µf(V
T
k
X
k
)V
k
X
T
k
+
2µf
(V
T
k
X
k
)n
k
V
k
X
T
k
+
2µ
2
f(V
T
k
X
k
)f
(V
T
k
X
k
)
n
k
X
k
X
T
k
+
µ
2
f
2
(V
T
k
X
k
) + f
2
(V
T
k
X
k
)n
2
k
X
k
X
T
k
. (3.30)
Aplicando o operador expectˆancia em ambos os lados de (3.30) e lembrando
que os momentos ´ımpares do ru´ıdo ao iguais a zero e que E[V
k+1
V
T
k+1
] = E[V
k
V
T
k
],
32
obtemos a express˜ao
Cov[V
k
] = Cov[V
k
] + 2µE[f (V
T
k
X
k
)V
k
X
T
k
] +
µ
2
E
f
2
(V
T
k
X
k
)X
k
X
T
k
+ E
f
2
(V
T
k
X
k
)n
2
k
X
k
X
T
k
= Cov[V
k
] +
2µE
f(V
T
k
X
k
)V
k
X
T
k
+µ
2
f
2
(V
T
k
X
k
)
Rσ
2
n
, (3.31)
pois f
2
(V
T
k
X
k
) 0 com V 0. Utilizando o Teorema demonstrado na se¸ao (3.5),
reescrevemos (3.31) como
Cov[V
k
] = Cov[V
k
] 2µf (R)Cov[V
k
] + µ
2
E[f
2
(V
T
k
X
k
)]Rσ
2
n
=
µ
2
E[f
2
(V
T
k
X
k
)]f
1
(R)Rσ
2
n
, (3.32)
onde f
1
(R) indica a inversa da matriz f(R).
Observemos, agora, que f
2
(V
T
k
X
k
) ´e sempre positiva, e que, no estado es-
tacion´ario, k implica que n
k
V
T
k
X
k
. Desta forma, simplificamos (3.32):
Cov[V
k
] =
µ
2
E[f
2
(n
k
)]f
1
(R)Rσ
2
n
. (3.33)
No processo adaptativo, quando os pesos finais est˜ao pr´oximos, mais ao iguais
a W
, temos um excesso no erro final (veja figura 3.2). Na se¸ao 2.3.3, definimos, para
a superf´ıcie quadr´atica, o excesso do erro quadr´atico edio. Douglas e Meng [12] comen-
tando a respeito da dificuldade de se derivarem express˜oes para medir o desajuste de ao
linearidades, prop˜oem uma aproxima¸ao, a qual utilizaremos aqui, dada por:
M =
µE[f
2
(n
k
)]tr[R]
2E[f
(n
k
)]σ
2
n
. (3.34)
33
Figura 3.2: Excesso no erro final em rela¸ao ao erro m´ınimo
3.7 Compara¸c˜ao com o LMS
Dado os resultados acima, para o comportamento da adapta¸ao para fun¸oes
ao lineares, surge uma quest˜ao: Como escolher uma ao linearidade F(ε
k
) e conse-
quentemente, seu gradiente f(·) de forma tal que maximize o desempenho do algoritmo
adaptativo? Desempenho pode ser mensurado em termos de velocidade de convergˆencia
e m´ınimo excesso. A velocidade de convergˆencia pode ser medida a partir da constante
de tempo e o excesso atrav´es do desajuste. A implementa¸ao de qualquer algoritmo deve
levar em conta estas duas caracter´ısticas.
Uma boa maneira de mensurar o desempenho do algoritmo ´e compar´a-lo com
o desemp enho do LMS, como Walach e Widrow fizeram [3]. Definimos, assim, um fator
de desemp enho, χ, como a raz˜ao entre a constante de tempo do LMS e a constante de
tempo do algoritmo proposto, onde os tamanhos dos passos foram escolhidos de forma tal
34
que os desajustes sejam os mesmos.
χ =
τ
LMS
τ
. (3.35)
Observe que ´e mais vantajoso utilizar o algoritmo proposto em vez do LMS
quando χ > 1.
3.8 Conclus˜ao do Cap´ıtulo
Neste cap´ıtulo, descrevemos a id´eia asica da utiliza¸ao de estat´ıstica de alta
ordem como uma forma de obten¸ao de mais informa¸oes sobre os sinais envolvidos em
um processo adaptativo.
Descrevemos a aplica¸ao de fun¸oes ao lineares, pares e cont´ınuas, as quais
admitem expans˜ao em s´erie de Taylor, como crit´erio aplicado sobre o erro. Realizamos
minuciosa an´alise matem´atica para descrever as condi¸oes de convergˆencia dos algoritmos
e deduzimos equa¸oes para mensurar a covariˆancia do vetor peso em regime estacion´ario.
Obtivemos, aqui, um resultado surpreendente, nunca, antes obtido, em outros
trabalhos que versavam sobre fun¸oes ao lineares. De acordo com a equa¸ao 3.27 a cons-
tante de tempo de um algoritmo adaptativo, em determinadas situa¸oes, ´e influenciada
apenas pelas caracter´ısticas do sinal de entrada.
35
4 O Algoritmo Sigmoidal
4.1 Introdu¸ao
Neste cap´ıtulo aplicaremos a teoria desenvolvida no cap´ıtulo anterior, no de-
senvolvimento de um algoritmo adaptativo denominado Algoritmo Sigmoidal (SA), onde
escolhemos a fun¸ao Ln(cosh ε) como crit´erio a ser aplicado sobre o erro, o qual que-
remos minimizar. A id´eia asica ´e mostrar que a superf´ıcie de desempenho obtida por
este crit´erio oferece maior velocidade de convergˆencia, bem como um menor desajuste na
busca do peso m´ınimo.
4.2 A fun¸ao Ln(cosh ε)
A fun¸ao Ln(cosh ε) ´e uma ao linearidade par, cont´ınua, sim´etrica, cujo
gr´afico est´a representado na figura (4.1). Esta fun¸ao, como podemos ver, ao tem m´ınimo
local, apenos o m´ınimo global.
A partir desta fun¸ao, podemos gerar uma fam´ılia de fun¸oes, Ln(cosh αε),
multiplicando o argumento ε por um inteiro positivo α, conforme observamos na figura
(4.2).
Uma outra caracter´ıstica dos elementos deste conjunto de fun¸oes ´e que, para
um valor fixo de α, podemos determinar intervalos [δ, δ] onde as curvas destas fun¸oes
tem inclina¸oes maiores do que a curva da fun¸ao quadr´atica, neste mesmo intervalo.
36
Figura 4.1: Por¸ao da superficie tridimensional gerada pela fun¸ao Ln(cosh ε), junta-
mente com alguns contornos.
Podemos observar esta caracter´ıstica na figura (4.3), onde temos plotados os gr´aficos das
fun¸oes Ln(cosh 2 ε) e ε
2
.
Figura 4.2: Gr´aficos das fun¸oes Ln(cosh ε), Ln(cosh 2ε) e Ln(cosh 3ε).
37
Figura 4.3: Gr´aficos das fun¸oes Ln(cosh 2ε) e ε
2
, onde podemos ver a maior inclina¸ao
da primeira, no intervalo [1; 1]
4.3 Derivao do algoritmo Sigmoidal (SA)
Para desenvolver o algoritmo SA, os tomamos como fun¸ao de custo a fun¸ao
F
k
= Ln(cosh αε), (4.1)
Enao, a cada itera¸ao, no processo adaptativo, os teremos uma estima¸ao
do gradiente da forma
ˆ
F
k
= αtanh(αε
k
)X
k
. (4.2)
Com esta simples estima¸ao do gradiente, os podemos especificar um algo-
ritmo adaptativo dado por:
W
k+1
= W
k
µ
ˆ
k
= W
k
+ αµtanh (αε
k
)X
k
. (4.3)
38
Este ´e o algoritmo Sigmoidal.
Como antes, µ ´e uma constante que regula a velocidade e a estabilidade da
adapta¸ao.
4.3.1 Convergˆencia do vetor peso, constante de tempo e Desa-
juste
De acordo com (3.18), o limite de µ para garantir a convergˆencia do algoritmo
ser´a dada por:
0 < µ <
2
αtanh(αλ
max
) α
2
tanh(αλ
max
)sech(αλ
max
)σ
2
n
. (4.4)
As constantes de tempo, derivadas a partir de (3.26) e (3.27), ser˜ao
τ
i
=
1
µ
αtanh(αλ
max
) α
2
tanh(αλ
max
)sech(αλ
max
)σ
2
n
(4.5)
e
τ
i
=
1
αµ
tanh(αλ
max
)
. (4.6)
E o Desajuste, de acordo com (3.34), ser´a determinado por:
M =
µE
α
2
tanh
2
(αn
k
)
tr[R]
2E
α
2
sech
2
(αn
k
)
σ
2
n
=
µE
tanh
2
(αn
k
)
tr[R]
2E
sech
2
(αn
k
)
σ
2
n
. (4.7)
4.3.2 SA versus LMS
Para fazer a compara¸ao, exposta na se¸ao 3.7, com o LMS, inicialmente de-
terminamos a rela¸ao entre os parˆametros tamanho do passo dos algoritmos LMS e SA,
39
considerando iguais desajustes. Igualando (2.21) a ( 4.7 ), determinamos:
µ
LMS
tr[R] =
µ
SA
E
tanh
2
(αn
k
)
tr[R]
2E
sech
2
(αn
k
)
σ
2
n
µ
SA
=
2E
sech
2
(αn
k
)
σ
2
n
E
tanh
2
(αn
k
)
µ
LMS
(4.8)
Lembrando que a constante de tempo do LMS e do SA foram dadas respec-
tivamente por (2.18) e (4.6), substitu´ımos estas equa¸oes em (3.35), utilizando a rela¸ao
dada por (4.8), obtendo:
χ =
τ
LMS
τ
SA
=
1
2µ
LM S
λ
1
αµ
SA
tanh(αλ)
=
µ
SA
µ
LMS
αtanh(αλ)
2λ
=
2E[sech
2
(αn
k
)]σ
2
n
E[tanh
2
(αn
k
)]
αtanh(αλ)
2λ
=
αtanh(αλ)E[sech
2
(αn
k
)]σ
2
n
λE[tanh
2
(αn
k
)]
. (4.9)
4.3.3 Simula¸oes com o Algoritmo Sigmoidal
Objetivando verificar a exatid˜ao das equa¸oes derivadas na se¸ao anterior,
fizemos simula¸oes, onde comparamos os desempenhos dos algoritmos LMS e SA.
Muitos problemas de processamento de sinais, tais como modelagem de planta,
cancelamento de ru´ıdo, etc., pode ser representado na forma mostrada na figura (4.4) [3],
onde temos uma planta representada pela fun¸ao de transferˆencia polinomial P (z) =
0.2037z
1
+ 0.5926z
2
+ 0.2037z
3
, cuja sa´ıda ´e corrompida por um ru´ıdo, n
k
. Nosso
objetivo ´e encontrar, de um modo adaptativo, um modelo da planta,
˜
P (z). Com este
objetivo, utilizamos os algoritmos LMS e SA.
40
Figura 4.4: Diagrama de blocos da modelagem adaptativa de uma planta
O sinal de entrada foi simulado como um sinal aleat´orio uniformemente dis-
tribu´ıdo, limitado no intervalo [1, 1]. Como ru´ıdo utilizamos ora um sinal gaussiano de
m´edia zero e variˆancia unit´aria, ora um sinal com distribui¸ao uniforme de probabilidades.
O sinal desejado foi posto como a soma do sinal de entrada mais ru´ıdo. Os parˆametros
tamanho do passo foram µ
LMS
= 0.3e
1
e µ
SA
foi posto satisfazendo a equa¸ao (4.8)
e utilizamos arios valores para o parˆametro α. Observemos que para cada valor de α,
modificamos o algoritmo dado por (4.3). Para cada algoritmo, em cada uma das distri-
bui¸oes do ru´ıdo, 100 simula¸oes de Monte Carlo foram realizadas. Nas figuras (4.5) e
(4.6), abaixo, plotamos as curvas de aprendizagens dos dois algoritmos, onde em uma
utilizamos α = 2 e na outra foi utilizado α = 3, ambas com ru´ıdo gaussiano.
4.4 Conclus˜oes do Cap´ıtulo
Neste cap´ıtulo mostramos o desenvolvimento de uma fam´ılia de Algoritmos
adaptativos, que utilizam como crit´erio aplicado sobre o erro a fun¸ao Ln(cosh αε), a qual
41
0 200 400 600 800 1000 1200 1400 1600 1800 2000
10
−4
10
−3
10
−2
10
−1
10
0
Número de iterações
Erro
SA
LMS
Figura 4.5: curvas de aprendizagem dos algoritmos LMS e SA com α = 2
0 200 400 600 800 1000 1200 1400 1600 1800 2000
10
−4
10
−3
10
−2
10
−1
10
0
Número de iterações
Erro
SA
LMS
Figura 4.6: curvas de aprendizagem dos algoritmos LMS e SA com α = 3
queremos minimizar. isto origina o algoritmo Sigmoidal (SA), dada pela regra (4.3).
Este algoritmo mostrou uma melhora no desempenho, quando comparado com
o LMS. Melhora esta que mostrou-se dependente do parˆametro α, ou seja, ao aumentarmos
o valor de α, conseq¨uentemente, aumentando a inclina¸ao da superf´ıcie de desempenho,
o algoritmo SA aumenta a velocidade de convergˆencia dos pesos, mantendo o mesmo
42
desajuste. Dando mais ˆenfase `a esta caracter´ıstica do algoritmo SA, temos, na tabela 4.1,
os valores do fator de desempenho, χ, obtidos para arios valores de α, em cada uma das
duas distribui¸oes do ru´ıdo.
Tabela 4.1: Valores de χ para arios α e distribui¸oes de probabilidades gaussiana e
uniforme para o ru´ıdo.
α Gaussiano Uniforme
1 1,53 1,18
2 2,29 1,61
3 3,04 2,12
4 3,79 2,65
5 4,50 3,17
6 5,21 3,66
10 7,64 5,45
43
5 Estima¸ao Adaptativa Estoastica de Sinal de
Impedˆancia Cardiogr´afica
5.1 Introdu¸ao
Um dos grandes desafios da tecnologia diagn´ostica em cardiologia ´e a obten¸ao
de dados ao invasivos mais detalhados sobre as fun¸oes card´ıacas, que representem alter-
nativas simples e baratas aos etodos a existentes. A impedˆancia cardiogr´afica ´e uma das
op¸oes interessantes neste aspecto, embora seja relativamente pouco utilizada na pr´atica
cl´ınica. Ela mede varia¸oes card´ıacas a cada batida, baseada nas propriedades el´etricas
da regi˜ao tor´acica. Impedˆancia ´e um valor el´etrico alterado pelas varia¸oes concomitantes
no volume tor´acico, causadas pelo movimento do sangue em seu interior, durante o ciclo
card´ıaco [14].
A impedˆancia cardiogr´afica ´e medida usando-se quatro eletrodos de superf´ıcie,
veja figura 5.1, sendo dois colocados em volta do pesco¸co, e mais dois na regi˜ao peitoral.
Os eletrodos exteriores ao usados para injetar um sinal el´etrico alternado, de baixa inten-
sidade, no orax e pesco¸co, a partir do qual se mede a impedˆancia, atraes dos eletrodos
interiores. ao a risco para o paciente, e o procedimento de obten¸ao de dados ´e apido,
simples e ao traum´atico, exatamente como em um ECG. A impedˆancia cardiogr´afica
pode fornecer diversos dados, mas o volume por batida card´ıaca ´e o mais comumente
registrado na pr´atica cl´ınica. Este valor, em fun¸ao do tempo, ´e calculado pelo aparelho
atrav´es do que se chama, em termos matem´aticos, de derivada do sinal de impedˆancia (em
44
outras palavras, a velocidade de varia¸ao da mesma, em fun¸ao do tempo). A impedˆancia
cardiogr´afica ´e o resultado de arios eventos fisiol´ogicos, principalmente mudan¸cas no
volume sangu´ıneo nos tecidos durante o ciclo card´ıaco, e mudan¸cas na orienta¸ao dos
eritr´ocitos, causada pela varia¸ao de velocidade do sangue na aorta.
Figura 5.1: Captura de sinais de ICG
O maior problema em Impedˆancia Cardiogr´afica (ICG) ´e como eliminar a
influˆencia de ru´ıdos, tais como os provenientes da respira¸ao e de movimentos internos
do corpo humano, que alteram a forma de onda do ICG. Uma maneira de superar essas
limita¸oes ´e usando filtragem adaptativa, tal como proposto por Barros [14].
Neste tipo de filtro, a componente determin´ıstica de um sinal, vinculado a um
est´ımulo, ´e estimada enquanto o ru´ıdo ´e removido. Esses filtros tˆem duas entradas: uma
prim´aria, que ´e o sinal a ser filtrado e uma entrada de referˆencia vinculada a um est´ımulo.
Neste trabalho, o sinal determin´ıstico do ICG ´e recuperado usando as propri-
edades de um sinal, em um dado per´ıodo de tempo, como uma soma de senos e cossenos,
ou, como uma S´erie de Fourier, como proposto por Vaz e Thakor[16]. A estima¸ao dos
coeficientes da S´erie de Fourier ´e realizada pelo algoritmo SA em cada intervalo RR do
45
ECG.
5.2 Simula¸ao
Nesta simula¸ao, o filtro adaptativo, na k-´esima itera¸ao, ´e composto do si-
nal a ser filtrado d
k
, que chamamos de sinal desejado e um vetor sinal de entrada
X
k
= [
x
1,k
x
2,k
· · · x
2H,K
], conforme figura 5.2, onde H ´e o n´umero de harmˆonicos
necess´arios para reconstruir o sinal. O sinal d
k
´e composto do sinal de interesse, s
k
, e um
ru´ıdo, n
k
, descorrelacionado com s
k
, ou seja, d
k
= s
k
+ n
k
. s
k
´e representado por uma
s´erie de Fourier, na forma:
s
k
=
H
i=1
w
,i
e
j
0
k
+
H
i=1
w
,H+i
e
j
0
k
, (5.1)
onde j ´e a unidade complexa e w
,i
´e o coeficiente de Fourier do i-´esimo harmˆonico [18].
Figura 5.2: Diagrama de bloco do filtro adaptativo. s
k
´e o sinal determin´ıstico, n
k
´e o
ru´ıdo descorrelacionado com s
k
. [x
1,k
x
2,k
· · · x
2H,K
]
T
´e o vetor de entrada.
46
O sinal de entrada ´e definido como
X
k
= [
1 e
jω
0
t
· · · e
jω
0
kt
e
jω
0
t
· · · e
jω
0
kt
], (5.2)
cuja frequˆencia fundamental ω
0
foi recuperada utilizando-se o algoritmo HIF [17]. Mais
uma vez, utilizamos os algoritmos LMS e SA e comparamos os seus desempenhos.
Nosso objetivo ´e estimar s
k
, ap´os calcular os pesos W
k
e o erro atual ε
k
=
d
k
y
k
.
Para testar o desempenho dos filtros, um sinal atual de ICG, sem ru´ıdo, seria
necess´ario. Entretanto, at´e hoje, ao vimos nenhum trabalho que utilizasse esse tipo de
sinal. Deste modo, simula¸oes computacionais foram realizadas para avaliar o desempenho
dos filtros, usando uma onda quadrada, s
k
, como sinal de interesse, adicionado a um ru´ıdo,
n
k
, o qual foi simulado como um sinal gaussiano de edia zero e variˆancia unit´aria, como
podemos ver na figura 5.3, onde , tamem, vemos as sa´ıdas quando utilizamos o algoritmo
LMS e o algoritmo SA com α = 2. Neste caso, 100 simula¸oes de Monte Carlo foram
realizadas.
Na figura 5.4 podemos ver as curvas de aprendizagens dos dois algoritmos.
Comparamos, tamb´em, os desempenhos dos algoritmos SA e LMS com dados
reais. Na figura 5.5 podemos ver o sinal de ICG e outros filtrados pelos algortimos LMS
e SA, no dom´ınio do tempo e no espectro de potˆencia, onde os tamanhos do passo foram
escolhidos de forma tal a sastifazerem a rela¸ao (4.8).
47
Figura 5.3: a)Sinal de interesse, s
k
, uma onda quadrada; b) sinal de ru´ıdo, n
k
, gaussiano
de edia zero e variˆancia 1; c) Sinal de interesse mais ru´ıdo; d) Sa´ıda do filtro com o
algoritmo LMS; e) Sa´ıda do filtro com o algoritmo SA
Figura 5.4: curvas de aprendizagens dos algoritmos LMS e SA para o mesmo desajuste e
para os tamanhos dos passos dados pela rela¸ao (4.8). Vemos que o algoritmo SA converge
com mais ou menos 500 itera¸oes enquanto que o LMS converge com 1500 itera¸oes
48
0 500 1000 1500
−40
−20
0
20
40
(a)
0 500 1000 1500
−40
−20
0
20
40
(b)
0 500 1000 1500
−40
−20
0
20
40
Numero de amostras
(c)
0 2 4 6 8 10
0
2000
4000
(d)
0 2 4 6 8 10
0
2000
4000
(e)
0 2 4 6 8 10
0
2000
4000
Frequencia (Hz)
(f)
Figura 5.5: Compara¸ao espectro-temporal entre o sinal de ICG real com os sinais de sa´ıda
dos filtros LMS e SA. (a)Sinal de ICG real; (b) e (c) Sinais de sa´ıda dos filtros LMS e SA,
respectivamente; (d), (e) e (f) Transformada de Fourier de (a), (b) e (c), respectivamente.
As setas indicam a remo¸ao do ru´ıdo de 1.8 Hz e seus harmˆonicos realizada pelo algoritmo
SA, quando comparado com o sinal original e a sa´ıda do LMS
5.3 Conclus˜oes do cap´ıtulo
Neste cap´ıtulo, descrevemos, de forma sucinta, a impedˆancia cardiogr´afica, um
novo m´etodo ao invasivo, ao traum´atico, repetitivo, para obten¸ao de dados card´ıacos.
Contudo, as gravoes de ICG ao alteradas p or ru´ıdos, tais como os oriundos da respira¸ao
do paciente. Para cancelar estes ru´ıdos ´e sugerida a utiliza¸ao de filtros adaptativos, tal
como feito por Barros [15], que utilizou o algoritmo LMS. Aqui, os propomos a utiliza¸ao
do algoritmo SA para recuperar as componentes determin´ısticas do ICG e como previsto
pela nossa teoria e mostrado nas figuras 5.3 e 5.4, usando o algoritmo sigmoidal melhora-
mos, significantemente, o desempenho na estima¸ao das componentes determin´ısticas de
um sinal.
49
Em rela¸ao `a aplica¸oes para dados reais de ICG, podemos ver na figura 5.5 que
tamb´em, obtivemos uma melhor performance quando comparamos o algoritmo SA com o
algoritmo LMS. Isto pode ser visto na an´alise espectral da referida figura. Comparando
as sa´ıdas do SA e do LMS, p odemos ver que o SA removeu o ru´ıdo de 1.8 Hz e seus
harmˆonicos, como indicado pelas setas nas baixas freq¨encias. Al´em do mais, comparando
os sinais tempor´arias em (a), (b) e (c), podemos observar que em (c) temos um sinal menos
ruidoso em rela¸ao `aqueles que temos em (a) e em (b).
50
6 Conclus˜oes e Proposta de Continuidade
6.1 Conclus˜oes
A utiliza¸ao de estat´ıstica de alta ordem, como uma forma de obten¸ao de mais
informa¸oes sobre sinais, tem-se demonstrado de grande valia em sistemas adaptativos.
Apesar disso, poucos pesquisadores tem-se utilizado de tais t´ecnicas, provavelmente devido
`as dificuldades matem´aticas advindas das ao linearidades.
Neste trabalho, os desenvolvemos uma substancial ferramenta matem´atica
para analisar a aplica¸ao de fun¸oes ao lineares, pares e cont´ınuas, as quais admitem
expans˜ao em erie de Taylor, como crit´erio aplicado sobre o erro. As equa¸oes obtidas
mostraram-se adequadas e foram comprovadas atrav´es das simula¸oes.
Nas simula¸oes, o algoritmo sigmoidal mostrou-se mais eficiente quando com-
parado com o LMS. Esta eficiˆencia acentua-se ao aumentarmos a inclina¸ao da superf´ıcie
de desempenho.
Na utiliza¸ao do algoritmo SA para a determina¸ao das componentes deter-
min´ısticas de um sinal de impedˆancia cardiogr´afica, obtivemos uma melhor performance
quando comparamos os resultados com os resultados advindos da utiliza¸ao do algoritmo
LMS para realizar a mesma fun¸ao.
51
6.2 Proposta de Continuidade
O desenvolvimento matem´atico aqui apresentado, foi baseado nas caracter´ısti-
cas das superf´ıcies de desempenho geradas pelas ao linearidades aplicadas sobre o erro.
Baseado nesta id´eia lguns opicos de pesquisa podem ser identificados, tais como:
Utiliza¸ao de processos geom´etricos na determina¸ao de fun¸oes ao lineares a serem
aplicadas como crit´erio sobre o erro;
Desenvolvimento de equa¸oes mais adequadas para o desajuste;
Estudos mais aprofundados sobre a constante de tempo.
Referˆencias
[1] B. Widrow and Samuel D. Stearns. ”Adaptive Signal Processing”. Prentice-Hall sig-
nal processing series, 1985.
[2] B. N. Wiener. ”Extrapolation, Interpolation and smoothing of Stationary Time Se-
ries, with Engineering Applications”. New York: Wiley, 1949.
[3] E. Walach and B. Widrow. ”The least mean fourth (LMF) adaptive algorithm and
its family”. IEEE Trans. Inform. Theory, vol. IT-30, n. 2, p.275-283, Mar, 1984.
[4] J. A. Chambers, O. Tanrikulu and A. G. Constantinides. ”Least mean mixed-norm
adaptive filtering”. IEEE Electronic Letters, vo. 30, n. 19, sept. 1994.
[5] Sheldon M. Ross. “Introduction to Probability Models” 6 edition, Academic Press.
New york, 1997.
[6] Jos´e C. Principe , Neil R. Euliano, W.Curt Lefebvre,. “Neural and Adaptive Systems:
Fundamentals Through Simulations” John Wiley and sons. New York, 2000.
[7] Athanasios Papoulis, “Probability, randon variables, and stochastic processes”. 3a.
Ed. McGraw-Hill series in electrical engineering, Communications and signal proces-
sing, 1991.
[8] B. Widrow and M. E. Ted Hoff, Jr. “Adaptive switching circuits”, IRE WESCON
conv. REC. pt. 4, pp. 96-104, 1960.
[9] B. Widrow et al, “Adaptive noise cancelling: principles and applications”, Procee-
dings IEEE, vol.64, n.8, pp. 1692-1716, Dec.1975.
[10] Simon Haykin, “Adaptive Filter Theory”. 3rd. edition. Prentice Hall, Englewwod
Cliffs, NJ. 1995.
[11] Allan K. Barros, Jos´e Pr´ıncipe, Carlos H. Sales and Noboru Ohnishi, “An algorithm
based on the even moments of the error”. XIII workshop on neural networks for signal
processing. p 879-885, 2003.
[12] S. C. Douglas and T. Meng, “Stochastic gradient adaptation under general error
criteria”. IEEE transaction on signal processing, v. 42, p 1335-1351, 1994.
[13] Ewaldo E. C. Santana, Allan Kardec Barros,Yoshifumi Yasuda e Raimundo C.
S. Freire , “Analysis of the Time Constant for the Sigmoidal Algorithm Applied
to Biomedical Signals”. Aceito para apresenta¸ao no 2006 IEEE International
Workshop On Medical Measurements and Applications e a ser publicado
nos respectivos Anais. 20 a 21 de abril de 2006. Benevento, It´alia.
53
[14] Allan K. Barros“Impedˆancia Cardiogr´afica: Um Novo etodo ao Invasivo”. Revista
Inform´edica, 2(7): 19-20, 1994.
[15] Allan K. Barros, M.Yoshizawa and Y. Yasuda “Filtering Noncorrelated noise in Im-
pedance Cardiography”. IEEE Transactions on Biomedical Engineering, vol. 42, n.
3, march, 1995.
[16] C. Vaz and N. V. Thakor, “Adaptive Fourier Estimation of time-variyng potentials”.
IEEE Transactions on Biomedical Engineering, BME-36,p.448-455, 1987.
[17] Allan K. Barros e Noboru Ohnishi, “Heart Instantaneous Frequency (HIF): an later-
native Approach to Exctract Heart Rate Variability”. IEEE transction on Biomedical
engineering. v. 48, n.8, august 2001.
[18] Ewaldo E. C. Santana,Yoshifumi Yasuda, Yoshinori Takeuchi and Allan Kardec
Barros, “Adaptive Estimation of Impedance Cardiographic Signal by the Sig-
moidal Algorithm”. Proceedings of the fifth International Workshop on Biosignal
Interpretation,p.117-120. September 6-8, 2005. Tokio Japan.
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo