Download PDF
ads:
i
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
ii
ads:
iii
Para Natália, companheira em todos os momentos, quem
me ajudou a perceber que a vida pode ser boa, melhor do
que a vida de qualquer pessoa, dependendo apenas do que
temos na cabeça.
Agradecimentos
"Introduzimos algumas distrações para as crianças. Ensinamos elas
a cantar enquanto trabalham; isso as distrai e faz com que
enfrentem com coragem as doze horas de esforço e cansaço
que são necessárias para que obtenham os meios de subsistência."
Relatório de um empresário durante o primeiro congresso de filantropia de Bruxe-
las, em 1857
O trabalho era muito, em compensação, o dinheiro era pouco. Mas a diversão, também
era grande...
Aos meus pais que sempre ensinaram a valorizar o conhecimento. À Mainha, pela cuida-
dosa eduação e todo o complexo trabalho de ser mãe, em tempo integral. Ao pai, o primeiro a
despertar em mim o espírito curioso, de todo cientista. Aos meus irmãos, por todas as discus-
sões, incentivos e amizades....
À toda minha adorável família.
Aos amigos de Brasília que muito me apoiaram.
Aos antigos professoresemeuorientadorde iniciação científica que contribuiram praminha
formação acadêmica.
À minha tia, por toda força, amizade e apoio nos momentos mais difíceis nesta cidade.
Aos meus primeiros amigos de Recife, por me mostrarem essas belezas escondidas que
os nativos conhecem.
À minha namorada pela inspiração, carinho e muita paciência.
Ao meu quase-tio, pelos conselhos e toda essa minha quase-família, pelo grande apoio.
Aos amigos e grandes companheiros com quem dividi e ainda divido o teto, o chão as
contas...
Ao departamento de física, por ter juntado, simultaneamente, tanta gente interessante numa
mesma sala: 315-A. Se o pessoal soubesse, iam querer colocar câmeras. O fato é que aquelas
v
AGRADECIMENTOS vi
histórias eram muito melhores do que qualquer big brother.
À todos os amigos da sala 315-A, pelas várias horas, dias, feriados, etc. de divertidos
estudos. Onde o lema era: "O conhecimento é o alimento da alma".
Aos hermanos cubanos e colombianos e os amigos do sul... enfim os que vieram ainda mais
de longe.
Aos amigos e companheiros de estudos e de listas.
Ao vizinho sempre disposto a discutir os problemas de "la lista".
Aos professores das disciplinas do programa de mestrado.
Ao meu orientador pela confiança, orientação, conselhos científicos, pessoais, encaminha-
mento... Enfim, por todas as longas horas de discussões, e as curtas também, e por agüentar este
físico supercrítico (que apresenta atividade não-nula mesmo na ausência de estímulo externo).
Ao meu coorientador por todas as intensas discussões e principalmente pelo grande apoio
na reta final.
Aos amigos, pais, companheiros, professores e colegas de todos os dias de trabalho no
laboratório (LFTC).
Aos companheiros de sala.
Aos membros da banca, que de certa forma, também colaboram com este trabalho.
A todos os funcionários e professores do DF.
Aos amigos de todos os dias, dos fins de semana, da cachaça. Aos amigos dos grupos de
surf teórico e cinema teórico. Aos amigos, co-fundadores do nosso bloco de carnaval. E aos
amigos de Olinda, que têm o privilégio de ver tudo de cima.
Aos avanços tecnológicos que possibilitaram esta coorientação: internet, blog, skype... E
ao Google, um fiel companheiro.
À todas essas pessoas que não sabem nada de física mas toleram nossas excentricidades
1
.
1
Uma nota aos que gostam de terem seus nomes nos agradecimentos: todos os nomes foram omitidos para não
correr o risco do agradecimento ficar maior do que a dissertação.
"Maravilhas nunca faltaram ao mundo, o que sempre falta é a capacidade
de senti-las e admirá-las."
—MÁRIO QUINTANA
Resumo
No campo da neurociência computacional, a atividade elétrica dos neurônios étradicionalmente
modelada por equações diferenciais não-linearesacopladas, representando a evolução do poten-
cial de membrana e certas variáveis relacionadas às condutâncias iônicas presentes no sistema.
Uma tendência recente consiste na extensão desta estratégia de modelagem, detalhando as ár-
vores dendríticas neuronais através da abordagem compartimental. Essa modelagem fina visa
examinar a possibilidade de que essas extensas regiões neuronais em forma de árvores ramifi-
cadas desempenhem funções importantes, ou seja, sejam palco de uma complexa "computação
dendrítica".
Nesta dissertação, estudamos analiticamente e através de simulações um modelo cuja di-
nâmica da transmissão de estímulos dos elementos excitáveis é simples, porém a estrutura da
árvore dendrítica é modelada em detalhe na forma de uma árvore de Cayley com um grande
número de compartimentos. Resolvemos a equação mestra do problema, primeiro pela aproxi-
mação de campo médio simples, que apresenta fracos resultados. Em seguida, estudamos um
cálculo da aproximação de pares, com resultados mais promissores.
Os resultados de nossas simulações computacionais sugerem que a estrutura da árvore den-
drítica da célula mitral é fundamental para o aumento da faixa dinâmica observado no glomé-
rulo olfatório. Constatamos também o aparecimento de retropropagação de excitações, um fato
observado experimentalmente. Nossos resultados sugerem que a estrutura física em forma de
árvore extensa com várias camadas poderia implementar importantes computações dendríticas,
em especial uma função compressora de sinais com faixa dinâmica de mais de 50 dB.
Fazemos também uma aplicação deste sistema ao glomérulo olfatório dos mamíferos, que
contém dezenas de dendritos primários de células mitrais entrelaçados e conectados por junções
comunicantes, modelado por árvores dendríticas com elementos conectados por uma rede bi-
direcional quase-aleatória. Um resultado notável nesta arquitetura é que a razão de ramificação
das excitações não é dada simplesmente pela soma das razões dos casos isolados previamente
conhecidos (rede aleatória e árvore isolada). No nosso modelo as árvores conectam-se por jun-
çoes bidirecionais sorteadas aleatoriamente. Dependendo do número de junções comunicantes
viii
RESUMO ix
e de sua eficiência, o sistema passa a ter laços, possibilitando o aparecimento de atividade auto-
sustentada na forma de transiçãode fase de não-equilíbrio. Deste forma, foi possíveldeterminar
numericamente as linhas críticas desta transição de fase. Neste caso, através de simulações, ob-
temos na criticalidade valores de faixa dinâmica similares aos observados experimentalmente
para o glomérulo olfatório. Este resultado sugere uma possível função fisiológica para junções
comunicantes nos circuitos neuronais do bulbo olfatório.
Palavras-chave: dendrito ativo, retropropagação, célula mitral, árvore de Cayley, computação
dendrítica, faixa dinâmica, junção comunicante, glomérulo olfatório, razão de ramificação,
classe de universalidade, criticalidade, Neurociência
Abstract
In the field of computational neuroscience, the electric activity of neurons traditionally is mo-
deled by coupled nonlinear differential equations, representing the dynamics of the membrane
potential and certain variables related to the ionic conductances present in the system. A recent
trend consists of the extension of this modeling strategy, detailing the neuronal dendritic trees
through a compartmental approach. This detailed modeling aims at examining the possibility
that these extensive tree-shaped neuronal regions play important functions, that is, they may be
the stage for a complex "dendritic computation".
In this dissertation, we study analytically and through simulations a model whose dynamics
of the transmission of stimulus of the excitable elements is simple, however the structure of
the dendritic tree is modeled in detail in the form of a Cayley tree with a large number of
compartments. We solve the master equation of the problem, rst by the simple mean-field
approximation, which presents poor results. Then, we study the pair mean-field approximation,
with more promising results.
The results of our computational simulations suggest that the structure of the dendritic
tree of the mitral cell is fundamental for the increase of the observed dynamical range in the
olfactory glomerulus. We also show evidence of the appearance of spike backpropagation,
a fact already observer experimentally. Our results suggest that the physical structure of an
extensive tree with some layers could implement essential dendritic computations, in particular
a compressing function of signals with dynamic range of more than 50 dB.
We also study an application of this system to the mammalian olfactory glomerulus, which
contains tens of primary dendrites of mitral cells interlaced and linked by gap junctions, mode-
led as dendritic trees with elements connected by an almost-random bidirectional network. A
notable result in this architecture is that the branching ratio of the activity is not given simply
by the sum of the branching ratios of the isolated cases previously known (random network
and isolated tree). In our model the trees are connect randomly by gap junctions. Depending
on the number of gap junctions and their efficiency, the system can have loops, allowing the
appearance of self-sustained activity in the form of a non-equilibrium phase transition. It was
x
ABSTRACT xi
possible to determine numerically the critical lines of this phase transition. Through simulati-
ons, we obtain in the critical region values of dynamic range of which are similar to the ones
observed for olfactory glomeruli. This result suggests a possible physiological function of gap
junctions in the neuronal circuits of the olfactory bulb.
Keywords: active dendrite, backpropagation, mitral cell, Cayley tree, dendritic computation,
dynamic range, gap junction, olfactory glomerulus, branching ratio, universality class, critica-
lity, Neuroscience
Sumário
1 Introdução 1
1.1 Neurociência Teórica 3
1.2 Atividade Neuronal 4
1.2.1 Morfologia Neuronal 5
1.2.2 Dendritos Passivos 7
1.2.3 Dendritos Ativos 8
1.2.4 Sinapses Químicas e Elétricas 10
1.3 Meios Excitáveis 11
1.3.1 Modelagem por Autômatos Celulares em Meios Excitáveis 11
1.3.2 Função de Resposta e Faixa Dinâmica 11
1.3.3 Resultados Conhecidos 13
1.4 Descrição da Organização da Dissertação 16
2 Modelo de uma Árvore Dendrítica Ativa 18
2.1 Árvore de Cayley 19
2.2 Modelagem Compartimental por Autômatos Celulares 21
2.3 Dinâmica de Excitação e Transmissão 22
2.4 Equação Mestra 23
2.4.1 O Caso Limite do Sítio Central Isolado 28
3 Simulações Computacionais 31
3.1 Função Resposta e Faixa Dinâmica 32
3.2 Comportamento Espacial 37
3.3 Comportamento Crítico 44
3.4 Sistemas Sensoriais 47
3.5 Efeito dos Parâmetros Neuronais 50
3.5.1 Duração do Estado Ativo 52
3.5.2 Duração do Período Refratário 55
xii
SUMÁRIO xiii
4 Cálculo de Campo Médio Simples 59
4.1 Campo Médio por Camada 59
4.2 Atividade Auto-Sustentada 61
4.3 Curvas de Resposta e Faixa Dinâmica 63
4.4 Árvore Infinita 66
5 Cálculo de Campo Médio na Aproximação de Pares 68
5.1 Árvore Infinita 71
5.2 Atividade Auto-Sustentada 75
5.3 Curvas de Resposta e Faixa Dinâmica 76
6 Aplicação ao Sistema Olfatório 80
6.1 Acoplando Árvores Dendríticas: Modelo do Glomérulo Olfatório 81
6.2 Curvas de Resposta e Faixa Dinâmica 83
6.3 Transição de Fase e Comportamento Crítico 86
6.4 Razão de Ramificação como Parâmetro de Controle 94
7 Conclusões e Perspectivas 99
7.1 Conclusões 99
7.2 Perspectivas 101
A Detalhes do Cálculo das Equações de Pares 104
Referências Bibliográficas 117
CAPÍTULO 1
Introdução
"A finalidade da ciência não é abrir a porta ao saber infinito,
mas colocar um limite à infinitude do erro."
– Galileu Galilei
Mesmo os homens primitivos sentiram a necessidade de buscar algo fundamental para sua
própria existência. Por observações simples perceberam que os vivos precisavam respirar e se
não o fizessem por um curto intervalo de tempo, poucos minutos, perderiam a vida de forma
irreverssível, sem que houvesse qualquer outro dano. Para completar, este alento era misterioso
e invisível, tão volátil quanto a própria vida. Esta linha de raciocínio era tão bem difundida
que influenciou a cultura de diversos povos, como podemos ver em exemplos etimológicos. A
palavra alento, em várias línguas, significa o que poderíamos chamar de alma, como a palavra
grega pneuma ou a latina spiritus, ambas mencionadas como a essência da vida. Posteriormente
percebemos a interpretação do sangue como o elemento fundamental, pois apenas os vivos
sangram. Os gregos antigos compartilhavam destas idéias: Aristóteles, um dos mais célebres
pensadores antigos acreditava que a finalidade do cérebro era apenas resfriar o sangue aquecido
que circulava dentro [1]. A Bíblia indica que o sangue é essencial à vida, sendo portanto
proibido comê-lo como matéria viva. Tanto que o Gêneses, capítulo nove , versículo quatro,
diz: "A carne, porém, com sua vida, isto é, com seu sangue, não comereis".
Ainda no século XVII, acreditava-se que o órgão responsável pelas paixões era o fígado, a
maior víscera e um dos órgãos mais irrigados, enquanto que pelo amor seria o coração, como
está presente, por exemplo, na comédia Noite de Reis de William Shakespeare. Apenas no
século XIX reconheceu-se a importância dos nervos. Por analogia com circuitos elétricos,
percebeu-se que o ato de cortar os nervos que conectam um olho, por exemplo, causaria a
cegueira deste olho. Entretanto somente no final do século XIX, depois da invenção do mi-
croscópio, utilizando o método de impregnação por prata inventando por Golgi (publicado em
1885), Ramón y Cajal mostrou que o sistema nervoso não era formado por um retículo contínuo
1
CAPÍTULO 1 INTRODUÇÃO 2
mas por células neurais distintas [2].
Hoje acreditamos, através dos avanços em neurociência, que o cérebro é responsável pelos
pensamentos, sentimentos, desejos e decisões ao invés de algum outro elemento não físico.
Isto significa que não existe uma alma que se apaixona, apesar de continuar existindo este
sentimento, e a paixão permanecer tão real como sempre foi. Agora entendemos que estes
importantes eventos acontecem fisicamente no cérebro [3]. Assim, provavelmente devido a
sua importância fundamental na vida e comportamento de cada um de nós este, que é prova-
velmente o sistema mais complexo conhecido, atrai a atenção de cientistas e pesquisadores de
tantas áreas do conhecimento.
Ainda permanece um mistério as razões para a grande diferença no comportamento de nós
seres humanos em relação a outros animais, como os outros mamíferos, por exemplo. Acredita-
se que estas diferençassurgem devidoàs estruturas e organizações complexasda região cerebral
mais evoluída, o córtex.
Independentemente desta discussão, temos interesse em utilizar os conceitos típicos e bem
estabelecidos da mecânica estatística para modelarmos, de forma genérica, árvores dendríticas
neuronais e parte do sistema olfatório. O olfato é um sentido primitivo que não muda muito
entre os diferentes mamíferos apesar de toda diferença existente entre as várias espécies. Além
disso, os aspectos estudados de computação dendrítica supostamentesão tão gerais que também
ocorrem de maneira similar nas várias espécies.
Neste capítulo discutimos alguns conceitos fundamentais do comportamento neuronal, ne-
cessários para a compreensão dos resultados que são introduzidos logo em seguida. Este é um
vasto campo do conhecimento, que é tradicionalmente estudado a partir de caracterizações para
depois buscar padrões e regras que determinam o nosso entendimento dos sistemas vivos.
Os sistemas biológicos são muito complexos, distantes do equilíbrio e difíceis de mode-
lar matematicamente. Isso tende a criar abismos entre as abordagens descritivas dos detalhes
biológicos, cada vez em maior quantidade, e os modelos mais abstratos que definem o nosso
grau de compreensão. O que nós físicos buscamos nestes sistemas é selecionar somente os
fatores essenciais para se obter os comportamentos básicos desejados. E desta forma, auxiliar
na construção de teorias gerais que descrevem os sistemas desejados.
O sentido do olfato, além de ser um tópico de biologia interessante e misterioso é muito
importante em termos médicos e econômicos (indústrias alimentícia, de perfumes e de pro-
dutos de limpeza). Assim, por mais distante que possa parecer, acredita-se que seja possível
obter aumentos significativos na qualidade de vida dos indivíduos. O que vem ocorrendo
1.1 NEUROCIÊNCIA TEÓRICA 3
rapidamente à medida em que cada avanço ocorre em nosso entendimento.
1.1 Neurociência Teórica
A cultura ocidental tem comparado o cérebro com as tecnologias mais modernas da época.
Hoje esta comparação é realizada com os computadores. Enquanto os computadores podem
realizar processos com um intervalo mínimo da ordem de um nanosegundo (supondo um clock
de 1Ghz) os processos neuronais ocorrem em intervalos da ordem de milisegundo, ou seja,
esses computadores realizam 10
6
operações para cada disparo neuronal. Mesmo assim, os
processamentos simultâneos que ocorrem no cérebro humano fazem com que ele funcione
melhor em muitos casos, ou de maneira equivalente até nas atividades puramente lógicas, como
é o caso do jogo de xadrez.
Qualquer pessoa interessada em compreender como funciona o cérebro, principalmente
as funções cognitivas, deve aceitar o fato que nós ainda somos muito ignorantes nesta área.
Quase toda pergunta, por mais trivial que possa parecer, acaba sendo absurdamente difícil de
responder. Deste modo, é necessário tomarmos inúmeros cuidados para formularmos questões
tratáveis. Entretanto, uma vez que enxergamos o panorama em que nos encontramos, aparecem
diversos problemas teóricos em aberto de todos os níveis, desde uma abordagem molecular até
comportamental.
A nossa abordagem neste trabalho tem características de engenharia reversa, no sentido que
sabemos que uma certa atividade ocorreu, porém ainda não entendemos bem os mecanismos
que geram este comportamento, como e porque ocorreu. Estaremos buscando estas explicações
a partir dos resultados conhecidos e verificados experimentalmente. É importante notar que até
mesmo o processamento dendrítico, um sistema que pode a primeira vista parecer elementar, é
muito pouco entendido. Este é, em particular, o caso do dendrito ativo (primeiramente obser-
vado em 1958 [4]), foco principal deste trabalho.
Seguiremos então com uma pequena introdução aos fundamentos de neurociência.
1.2 ATIVIDADE NEURONAL 4
1.2 Atividade Neuronal
A teoria celular
1
propõe que todos os organismos são compostos por células individuais. Porém
estas idéias foram aplicadas ao sistema nervoso no final do século por Ramón y Cajal, que
apresentou a doutrina neuronal na qual cada neurônio é uma entidade individual, a unidade
elementar do circuito neuronal [5].
O cérebro, bem como o sistema nervoso como um todo, é formado por uma grande varie-
dade de células. A comunicação envolvendo estes elementos básicos ocorre através da geração
ativa de potencial elétrico chamado potencial de ação, como podemos ver no clássico estudo de
Hodgkin e Huxley (figura 1.1). O efeito do potencial de ação pode ser medido com um eletrodo
(A) intracelular que mede a diferença de potencial entre o interior do neurônio e o meio extra
celular (B). Esta diferença de potencial é chamada de potencial de membrana. Por definição
o potencial de repouso de um neurônio é o potencial de membrana apresentado pelo neurônio
livre da influência das atividades externas e dos neurônios vizinhos. Tipicamente, ao receber
algum estímulo externo o potencial de repouso é alterado porém sempre retorna ao estado ini-
cial. Uma alteração positiva é dita excitatória (despolarização) e uma negativa é considerada
inibitória (hiperpolarização) [6].
Deve-se tomar um certo cuidado ao estudar um meio tão complexo. Mesmo que se defi-
nam certos padrões, haverá muitas exceções, como para o potencial de repouso. As células
fotoreceptoras da retina apresentam potencial de repouso de -40 mV e são hiperpolarizadas
quando ativadas pela luz. As células do núcleo geniculado dorsal lateral que recebem os es-
tímulos axonais da retina e os mandam para o córtex visual têm um potencial de repouso de
aproximadamente -70 mV durante o sono e -55 mV quando alerta
2
enquanto que os neurônios
piramidais do córtex visual têm o potencial de repouso de -75 mV. Ou seja, existe uma grande
diferença de comportamento que varia entre os diferentes possíveis estados mostrando uma
relativa dependência funcional [5].
Os neurônios são sistemas dinâmicos não-lineares. Eles estão sujeitos a receber estímulos
de aproximadamente 10
4
conexões [2]. Se a quantidade total de estímulos provocar uma pola-
rização acima de um limiar (por volta de 20-30 mV acima do potencial de repouso [6]) ocorre
um disparo com amplitude de 100 mV (e duração de 1 ms) seguido de uma hiperpolari-
zação, denominada: período refratário. Caso seu potencial de membrana não ultrapasse este
1
Desenvolvida por volta do meio do século XIX por Mattias Schleiden e Theodor Schwann.
2
Acredita-se que durante o sono são reparados os danos causados pela vigília. Em particular, um indíviduo
privado de sono morre antes do que um outro privado de alimento [1].
1.2 ATIVIDADE NEURONAL 5
Figura 1.1 Do trabalho original de Hodgkin Huxley [7], em (A) uma micropipeta de vidro (com diâme-
tro de 100
µ
m) está inserido no interior do axônio da lula gigante (cerca de 1mm de diâmetro). A figura
(B) mostra a dinâmica de um potencial de ação medido entre o meio intracelular e extra celular. Abaixo
tem-se a escala de tempo com 2 ms de intervalo entre dois picos. Figuras retiradas de [5].
limiar a diferença de potencial volta assintoticamente ao potencial de repouso.
1.2.1 Morfologia Neuronal
As características morfológicas mais gerais satisfeitas pela maior parte dos neurônios são as
seguintes [5]:
O corpo celular (soma): contém o núcleo e a maior parte das organelas citoplasmáticas. É o
centro metabólico da célula.
Árvores dendríticas
3
: apresentam a maior variação de tamanho, forma e número entre os
diferentes tipos de neurônios, vide figura 1.2. É a principal estrutura para recepção de
sinais.
Axônio: pode ter extensão variada (0.1-2000 mm [2]) dependendo de sua função, em ge-
ral é apenas um processo celular que vai muito mais além do soma do que as árvores
dendríticas. Surge do cone axônico como um prolongamento tubular e ramifica-se nas
extremidades.
3
Do grego, dendritos, significa árvore. Utilizamos este "suave" pleonasmo em diversas partes do texto propo-
sitalmente para enfatizar que estamos considerando toda a sua esrutura.
1.2 ATIVIDADE NEURONAL 6
Figura 1.2 Exemplos de diferentes tipos de neurônios. Figura extraída de [5].
Devido a sua especialização o axônio é a principal unidade condutora do potencial de ação
(gerado no cone axônico) do neurônio. Esta propagação ocorre sem falhas e sem distorção. A
informação transmitida por um potencial de ação é determinada pelo caminho percorrido. É
desta forma que o cérebro analisa os padrões dos sinais elétricos para interpretá-los e formar
nossas percepções do mundo exterior através dos diferentes sentidos [2].
Também é de Ramón y Cajal
4
o princípio de polarização dinâmica que pressupõe uma
direção específica no fluxo de sinais elétricos através dos neurônios [2]. Como veremos adiante
(seção 3.2) esta hipótese nem sempre é verdadeira, pois pode existir uma retropropagação pela
árvore dendrítica de modo que os dendritos, eventualmente, funcionam como elementos pré-
sinápticos [8, 9].
Como mostra a figura 1.2, a característica mais marcante dos neurônios talvez seja a árvore
dendrítica, é ela que a personalidade à célula
5
. Mesmo com sua importância reconhe-
cida, ainda permanece pouco entendido como se desenvolvem e para que servem os dendritos.
4
Seus princípios: polarização dinâmica e da especificidade conectiva (não existe continuidade citoplasmática
e os neurônios não formam redes ao acaso) formam a base do moderno enfoque conectivista sobre o cérebro [2].
5
Existem 10
4
classes morfológicas distintas [10].
1.2 ATIVIDADE NEURONAL 7
Acredita-se que um dos motivos seja a dificuldade das técnicas experimentais atuais em acessar
os ramos extremos, onde muitas sinapses estão situadas. Em particular, sabe-se muito pouco
sobre as leis que regem a integração de atividade nos dendritos, como elas influenciam as di-
ferentes sinapses e alcançam formas distintas de plasticidade. Tudo isso é de fundamental
importância para determinarmos até que ponto a computação dendrítica influencia o funcio-
namento final do cérebro [9]. Faremos, a seguir, uma pequena análise das características de
árvores dendríticas classificadas pelo padrão de integração sináptica: passivas ou ativas.
1.2.2 Dendritos Passivos
O estudo de dendritos passivos tem uma importância histórica muito grande. As hipóteses
de Ramón y Cajal incluíam que os dendritos apenas recebiam os impulsos que seguiam na
direção do axônio até suas ramificações finais. Posteriormente, surgiram dois avanços: as
medidas intracelulares (fig. 1.1) e a teoria do cabo, que ajudaram na disseminação dos estudos
de dendritos passivos.
Esta abordagem de medida direta com microeletrodos de vidro permitiu o estudo siste-
mático dos neurônios motores. Descobriu-se assim a existência dos dois tipos de potenciais
(excitatórios e inibitórios) pós-sinápticos [11]. Assim, foi proposto que os dendritos somavam
a corrente total resultante dos potenciais pós-sinápticos inibitórios e excitatórios e convertia a
resposta para o cone axônico. Este seria responsável pelo disparo do potencial de ação que
seguiria pelo axônio [12].
O comportamento passivo foi estudado em uma base teórica por Wilfred Rall [13]. Ele
derivou as equações do cabo que descrevem o fluxo de corrente elétrica em modelos de árvores
dendríticas que recebem diferentes tipos de impulsos sinápticos de chegada. Esta equação do
cabo em sua primeira versão podia ser escrita assim:
π
a
2
R
i
2
V
x
2
=
C
m
2
π
a
V
t
+
2
π
aV
R
m
(1.1)
onde as grandezas físicas estão representadas por: a resistência de membrana R
m
, a resistência
interna R
i
, a capacitância de membranaC
m
, o raio do cabo a, o potencial elétrico V, a distância
no cabo x e o tempo t. Note que a equação é linear emV, tipicamente com soluções que decaem
exponencialmente. Deste modo, seus resultados [14] mostram uma grande atenuação das ativi-
dades dendríticas de maneira assimétrica [15], os estímulos mais distantes seriam muito mais
atenuados e temporalmente deslocados que os provenientes de regiões mais próximas. Além
1.2 ATIVIDADE NEURONAL 8
disso começaram a surgir diversas evidências experimentais que os dendritos poderiam ampli-
ficar ativamente os impulsos sinápticos recebidos, como por exempo o trabalho de Lorente de
e Coundouris [16]. Mais recentemente, porém, acumularam-se evidências de que as ár-
vores dendríticas são geralmente ativas. Foi até mesmo proposto um princípio de democracia
dendrítica [9], onde os dendritos contribuem igualmente para o potencial final no cone axonal
independentemente da distância entre o dendrito e o corpo celular.
Os trabalhos inovadores de Rall produziram análises quantitativas de fisiologia dendrítica
que influenciaria a pesquisa teórica e experimental até hoje [15]. Uma evidência disto é que os
modelos de dendritos passivos ainda hoje são ensinados em livros-texto [5, 6, 17].
.
1.2.3 Dendritos Ativos
As atividades dendríticas foram primeiramente observadas como amplificações dos potenciais
excitatórios pós-sinápticos, no trabalho [16]. Eles também acreditavam que as correntes era
somadas em pontos de bifurcação, de forma que a estrutura de ramificação sintonizaria o pa-
drão espaço-temporal de excitações. Estes resultados incentivaram uma grande quantidade de
trabalhos em dendritos ativos (neurônios motores cromados, células de Purkinje, neurônios pi-
ramidais)
6
. Em particular, o trabalho interessante de Spencer e Kandel [18] descreve pequenos
pré-potenciais rápidos que precediam os disparos. Como eventualmente estes pré-potenciais
não conseguiriam causar um disparo completo, concluiu-se que os dendritos também apre-
sentavam características não-lineares com um limiar definido e a repolarização de membrana
ocorria de forma ainda mais rápida (período refratário mais curto). Com este trabalho surgiu
também a idéia que estes pré-potenciais rápidos ocorriam em alguma região de gatilho (trig-
ger zone) que possivelmente estaria associado à bifurcação do dendrito apical dos neurônios
piramidais.
Trabalhos posteriores [19] no neurônio de Purkinje mostram que seus dendritos produzem
platôs de potenciais e disparo de íons de cálcio enquanto que a região somática produzia dis-
paros devidos a íons de sódio. Portanto, existiam duas reges funcionais distintas, o soma e
a árvore dendrítica, com propriedades eletrofisiológicas ativas distintas que dominavam a di-
nâmica do sistema sobre a propagação passiva de sinal. Além disso, as diferentes amplitudes
de sinais observados sugeriram que haviam múltiplas regiões sensíveis (hot spot) que davam
6
Para mais detalhes e referências podemos indicar o artigo de revisão de R. Yuste e D. W. Tank [15].
1.2 ATIVIDADE NEURONAL 9
independência funcional às bifurcações dendríticas distintas. Estes resultados mostram-se par-
ticularmente importantes para o nosso modelo, a ser discutido em detalhes no capítulo seguinte.
A partir daí, diversos avanços tecnólogicos possibilitaram medidas mais precisas e em di-
versos neurônios (Células piramidais, Purkinje, Mitral). Ainda hoje, existe toda uma área de
pesquisa neurofisiológica preocupada em caracterizar a quantidade, a densidade, a eficiência
dos diferentes canais iônicos para os mais variados tipos de íons distintos que dependem de
cada tipo de neurônio. Estas questões em aberto estão sendo cada vez mais estudadas com
o advento de novas técnicas experimentais. Mais importante para este trabalho é a discussão
dos modelos que foram surgindo para descrever dendritos ativos, principalmente para os que
acreditam que o entendimento completo de sistemas de neurônios deve ser esperado após a
descrição funcional das unidades básicas do sistema nervoso, o neurônio e sua árvore dendrí-
tica [10].
Os modelos mais simples estudados desprezavam completamente toda a estrutura espacial,
de modo que cada neurônio era tido como puntual [20, 21, 22, 23, 24, 25, 26]. Esta abordagem
facilita bastante o estudo de sistemas coletivos formados a partir de muitos neurônios conec-
tados entre si. Talvez seja por isto que os modelos de neurônios puntuais e suas variantes têm
sido universalmente adotados nos estudos das áreas de redes neurais e inteligência artificial [9].
Devido aos novos resultados obtidos esses modelos puntuais tornaram-se limitados. Isso
estimulou a criação do modelo com dois compartimentos, a evolução mais simples. Este mo-
delo separava a árvore dendrítica do restante da célula. Alguns avanços foram observados,
entre eles o aparecimento de novos tipos de atividades em rajadas (bursting), o que resultou na
adoção deste modelo pela comunidade experimental [9].
Modelos mais sofisticados e com mais compartimentos foram estudados no sentido de ob-
ter maior realismo descritivo e numa busca de novas idéias de computação dendrítica. Como
exemplo temos um trabalho recente [27] que estuda a função das junções comunicantes den-
drodendríticas entre células mitrais, tal estudo e pode ser realizado com um modelo que leva
em conta a estrutura espacial da árvore dendrítica.
Atualmente, a comunidade de neurociência teórica está em busca de entender o papel reali-
zado pela compartimentalizaçãodos modelos. Neste caso existetoda uma artepara modelagem,
alguns seguem o caminho mais próximo dos neurofisiologistas (utilizando a dinâmica de cada
um dos canais iônicos conhecidos e supondo relações para os parâmetros que permanecem des-
conhecidos), outros desenvolvem abordagens mais abstratas, como por exemplo a utilização da
própria física estatística (apresentada em detalhes no capítulo 2). Nesta direção, o nosso ob-
1.2 ATIVIDADE NEURONAL 10
jetivo é encontrar um modelo cuja dinâmica seja simples o suficiente para ser entendida em
detalhes e cuja topologia seja suficientemente realista do ponto de vista biológico.
1.2.4 Sinapses Químicas e Elétricas
Charles Sherrington, em 1897, postulou que neurônios realizam contatos funcionais com outros
neurônios e outros tipos de células através de sinapses. Entretanto a existência dessas estruturas
só foi demostrada através de microscopia eletrônica, 50 anos mais tarde [5].
Nos dias atuais, definimos a sinapse como uma região de maior aproximação celular onde
ocorre a maioria das comunicações interneuronais
7
. A célula transmissora de um sinal é de-
nominada como célula pré-sináptica enquanto que a célula que recebe o sinal é a célula pós-
sináptica. Estas regiões podem estar presentes em todo o neurônio.
A forma predominante de comunicação interneuronal nos cérebros dos vertebrados é a si-
napse química [6]. Neste tipo de sinapse existe uma separação da ordem de poucas dezenas
de nanômetros chamada de fenda sináptica. Nos terminais pré-sinápticos, estão localizadas
coleções de vesículas sinápticas, cada uma contendo milhares de moléculas de neurotransmis-
sores. As vesículas liberam os neurotransmissores na fenda sináptica quando o neurônio pré-
sináptico dispara. Neste caso os neurotransmissores sofrem um processo de difusão no espaço
extra celular da fenda sináptica. As moléculas de neurotransmissores podem assim se ligar aos
receptores da célula pós-sináptica causando a abertura de canais iônicos. Desta forma o po-
tencial de membrana é alterado, e caso ultrapasse um certo limiar o neurônio pós-sináptico irá
disparar em resposta ao estímulo, concluindo a comunicação. Note que neste caso existe uma
diferença anatômica entre as duas células bem definida, o que torna este tipo de comunicação
unidirecional.
As sinapses elétricas ocorrem através da interação elétrica entre as células. Neste caso, as
membranas dos neurônios estão localizadas extremamente próximas uma da outra e conectam-
se através de canais especializados chamados junções comunicantes (gap junctions). Estas são
proteínas com canais mais largos que os poros dos canais iônicos: assim, diversas substâncias
estão simplesmente livres para difundir por estes canais. Além disso, ocorre também um fluxo
direto de corrente entre os neurônios, o que faz com que estas ligações bidirecionais sejam mais
rápidas do que as sinapses químicas.
7
Uma comunicação distinta é denominada interação efática que ocorre através do fluxo de corrente na região
extra celular.
1.3 MEIOS EXCITÁVEIS 11
1.3 Meios Excitáveis
Meios excitáveis são sistemas que têm a capacidade de propagar alguma atividade, tipicamente
ondas não-lineares (que não obedecem o princípio de superposição linear). Devido a este fato,
duas frentes de onda não se superpõe mas se aniquilam. Em particular, estas idéias são
bastante difundidas como conhecimentos práticos, por exemplo, para conter incêndios. Logo
após uma queimada de algum combustível (eventualmente uma vegetação) o meio torna-se
imune à atividade, o fogo não volta a uma região já queimada. De modo que se pode utilizar
o próprio fogo para limitar uma região desejada, por exemplo, no caso de um grande incêndio
na mata. Outro exemplo bastante curioso é o caso da "Ôla" dos espectadores nos estádios de
esporte. Um caso mais próximo seria o sistema neuronal, em que cada neurônio apresenta
este comportamento não-linear. Entretanto, neste trabalho, estudaremos a árvore dendrítica
enquanto meio excitável.
1.3.1 Modelagem por Autômatos Celulares em Meios Excitáveis
Através do modelo de autômato celular podemos obter um meio excitável muito simples (pos-
sivelmente o elemento não-linear mais simples seja este). Determina-se uma rede em que cada
sítio da estrutura é modelado por um autômato satisfazendo os três estados: excitável, excitado
e refratário. Os estados são associados com o potencialde membrananeuronal respectivamente:
potencial de repouso, potencial de disparo (despolarizado) e refratário (hiperpolarizado). A di-
nâmica deles obedece a regra do autômato celular cíclico [28]. Descrevemos com mais detalhes
este tipo de comportamento que utilizamos em nosso modelo no capítulo seguinte, seção 2.2.
1.3.2 Função de Resposta e Faixa Dinâmica
Função de resposta, como o próprio nome diz, mede a resposta média de um certo sistema a um
dado estímulo externo. Nossa medida típica será denominada F(r), onde r é uma intensidade de
estímulo, por exemplo, no caso do olfato estaria relacionado com a concentração de odorantes
no ar. A grandeza F mede alguma atividade do sistema, geralmente utilizaremos como sendo
a média temporal da densidade de atividade do sistema. Esta grandeza é definida em termos
matemáticos no próximo capítulo, página 28.
Um exemplo clássico de curva de resposta medido nos neurônios sensoriais da salamandra
tigre pode ser visto na figura 1.3. Note entretanto que a resposta nesta figura é medida através
1.3 MEIOS EXCITÁVEIS 12
do máximo de corrente que entra em um neurônio devido a um estímulo. Estas curvas estão
ajustadas para o melhores parâmetros encontrados da função de Hill:
F(r) =
F
max
r
m
r
m
0
+ r
m
, (1.2)
onde F
max
é a resposta de saturação e r
0
corresponde ao valor de r em que a resposta do sistema
é igual a metade do valor máximo.
Figura 1.3 Curvas de respostas mostram a relação entre estímulo e resposta no neurônio sensorial
olfatório da salamandra tigre. Tipicamente estes gráficos aparecem em escala log-linear. Figura extraída
da referência [29].
A faixa dinâmica é obtida a partir das curvas de resposta. É uma grandeza definida arbitra-
riamente desta forma:
= 10 log
10
r
0.9
r
0.1
, (1.3)
onde r
0.1
e r
0.9
são determinados através da relação:
F(r
x
) x[ F
max
F
0
] + F
0
. (1.4)
1.3 MEIOS EXCITÁVEIS 13
A utilização desta grandeza é amplamente difundida e funciona particularmente bem para
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
10
5
10
4
10
3
10
2
10
1
10
0
10
-1
10
-2
10
-3
10
-4
10
-5
10
-6
Normalized Response (F/F
max
)
Stimulus intensity
10% below saturation
10% above baseline
r
0.9
r
0.1
F
0.1
F
0.9
m=1
m=1/2
m=1/3
Figura 1.4 Exemplos de curvas de respostas e faixa dinâmica. Acima uma medida experimental [30] de
um neurônio olfatório do sapo. Abaixo um gráfico de curvas de Hill teóricas com expoentes m variados,
eq. (1.2), e um diagrama esquemático com todos os elementos da definição de faixa dinâmica [31].
o objetivo proposto: medir a eficiência de distinção de intensidades de estímulos em um certo
sistema. Um exemplo experimental desta desta medida e um diagrama esquemático para curvas
de respostas tipo função de Hill, com diferentes expoentes m, podem ser vistos na figura 1.4.
1.3.3 Resultados Conhecidos
O foco principal deste trabalho consiste em entender o papel da estrutura espacial da árvore
dendrítica no processamento de intensidade de estímulos sensorial. Diversos modelos surgiram
para tentar explicar o mecanismo responsável por este fenômeno. Como podemos ver nas figu-
1.3 MEIOS EXCITÁVEIS 14
ras 1.3 e 1.4, as medidas realizadas nos neurônios sensorias possuem faixa dinâmica estreita,
entre uma e duas décadas. Entretanto as medidas realizadas nos neurônios de segunda ordem,
que recebem esses sinais dos neurônios sensoriais, possuem faixas dinâmicas maiores: variadas
entre duas e quatro décadas [32]. Sabe-se que no sistema olfatório esse comportamento é man-
tido mesmo que outros circuitos intrabulbares sejam bloqueados [33]. Isto é compatível com os
resultados da psicofísica [34, 35] que apresentam grande faixa dinâmica conforme determinada
por métodos macroscópicos, comportamento de resposta em animais e avaliação subjetiva no
caso dos seres humanos. Um esquema bastante simplificado dos primeiros estágios do sistema
olfatório pode ser visto na figura 1.5.
Figura 1.5 Esquema do circuito neuronal do sistema olfatório. Figura extraída da enciclopédia livre:
http://en.wikipedia.org/wiki/Glomerulus_(olfaction).
Este conjunto de resultados sugere que de fato ocorre um processamento que amplifica os
sinais, sem produzir uma saturação prévia, nestes dois primeiros estágio do sistema olfatório.
Para estudar este problema alguns autores tentaram explicar estes resultados a partir de uma
suposta heterogeneidade dos neurônios olfatórios sensoriais da mesma família de receptores
odorantes [36]. Desta forma, assumindo a existência destes neurônios sensoriais com diferen-
tes sensibilidades, o número de neurônios ativos devido a um dado estímulo aumentaria com
a intensidade de estímulos externos. Esta é uma versão da teoria do recrutamento e pode ser
observada na figura 1.6. Entretanto este resultado não é consistente com medidas da densi-
1.3 MEIOS EXCITÁVEIS 15
dade de neuroreceptores. Para cada diferença em uma ordem de grandeza na sensibilidade dos
neurônios sensoriais seria necessário um crescimento proporcional nas densidades de neurore-
ceptores. Porém, a maior diferença observada nesta densidade é de aproximadamente o dobro.
Deste modo, devemos esperar que este não seja o principal mecanismo responsável por esta
otimização [31].
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
10
3
10
2
10
1
10
0
10
-1
10
-2
10
-3
10
-4
10
-5
10
-6
Normalized Response (F/F
max
)
Stimulus intensity
Single OSN
Average
Figura 1.6 Teoria do recrutamento: resposta nal medida como a soma de diferentes respostas de
nerônios sensoriais com sensibilidade distintas, figura extraída de [31].
Diversos trabalhos [37, 20, 21, 22, 23, 24, 25] alternativos, que não apelam para a hipó-
tese do recrutamento, surgiram com a característica comum de tentar explicar esta otimização
através de fenômenos coletivos. Este é um resultado bastante robusto em meios excitáveis. A
interação entre muitos elementos não-lineares, cada um com faixa dinâmica estreita, pode pro-
mover um comportamento do sistema de modo que a resposta apresente faixa dinâmica mais
larga.
Cada uma das referências acima propõe uma forma de interação interneuronal compatível
com a estrutura de sua rede. Para isso, supôs-se que as interações efáticas e a grande conver-
gência (discutida em mais detalhe no capítulo 2) do sistema sensorial seriam fundamentais para
este fenômeno. Outra possibilidade seria a existência de junções comunicantes conectando os
elementos neuronais.
Estas são as motivações para os modelos, entretanto, cada um destes trabalhos além de
1.4 DESCRIÇÃO DA ORGANIZAÇÃO DA DISSERTAÇÃO 16
responder a esta importante questão ainda contribui de alguma forma para o melhor entendi-
mento destes sistemas excitáveis. Em particular, o trabalho da referência [37] relaciona estes
fenômenos coletivos com estudos de criticalidade e transição de fase de não-equilíbrio. Ele
proporciona um exemplo concreto de otimização de uma importante grandeza biológica (faixa
dinâmica) na criticalidade. Em um sentido complementar, outros autores também acreditam
na importância do comportamento crítico em sistemas neuronais [38, 39, 40, 41, 42] e existem
evidências experimentais que dão suporte a estas idéias [43, 44].
1.4 Descrição da Organização da Dissertação
Para testar se as hipóteses listadas acima são realmente necessárias, faremos inicialmente um
estudo do processamento dendrítico no tufo dendrítico primário da célula mitral. No capítulo 2
descrevemos os detalhes deste modelo estudado. Definimos a rede, sua dinâmica e apresenta-
mos a equação mestra que governa o sistema que resolvemos exatamente para o caso particular
mais simples.
Seguimos com o capítulo 3, onde discutimos os resultados obtidos nas simulações. Verifi-
camos que a estrutura espacial de árvore propicia diversos elementos favoráveis à computação
dendrítica, o que poderia explicar porque dentre todas as possíveis geometrias a natureza esco-
lheu justamente esta topologia de árvore. A distinção de diferentes intensidades de estímulos
foi a mais eficiente dentre todas as estruturas estudadas por fenômenos coletivos para um
mesmo número de elementos não-lineares. Mostramos que efeitos de retropropagação surgem
naturalmente neste modelo somente devido à estrutura da árvore. Notamos que nossos resulta-
dos, para osistema olfatório, compartilham semelhanças entre os padrões fundamentais (curvas
de resposta e faixa dinâmica) observadas experimentalmente através de medidas realizadas no
sistema visual. Em particular, este é o único modelo, dentre as redes conhecidas, que pode
proporcionar curvas de respostas com múltiplas inflexões
8
.
Apresentamos nos dois capítulos seguintes (4 e 5) os nossos resultados das aproximações
utilizadas para abordar o modelo descrito no capítulo 2. Verificamos que os cálculos de campo
médio simples e da aproximação de pares, que se mostram surpreendentemente corretos para
outras topologias (respectivamente: rede aleatória e rede unidimensional), não são tão bons
assim para esta rede patológica (árvore de Cayley).
8
Isto faz com que as curvas de resposta não sejam apenas sigmóides simples mas apresentem barrigas. Como
exemplo: veja a curva de resposta do gráfico superior da página 34 para p = 1.
1.4 DESCRIÇÃO DA ORGANIZAÇÃO DA DISSERTAÇÃO 17
Realizamos ainda uma aplicação (consideravelmente ambiciosa) de um sistema formado
por árvores de Cayley acopladas aleatoriamente. Foi possível confirmar e até mesmo melhorar
a previsão teórica da referência [37]. Neste caso surgem diversos problemas relacionados com
a transição de fase de não-equilíbrio. Este sistema visa a melhor compreensão das atividades
neuronais glomérulo e amplia de maneira razoável os nossos horizontes. Neste estudo, alguns
pontos permaneceram em aberto: não temos certeza quanto à classe de universalidade deste
modelo de árvores de Cayley acopladas e a relação entre a razão de ramificação e os outros
parâmetros do modelo também não pode ser determinada.
As conclusões e perspectivas deste nosso trabalho foram colocadas no capítulo 7.
CAPÍTULO 2
Modelo de uma Árvore Dendrítica Ativa
"Temos que lembrar que não observamos
a natureza em si mesma, mas a natureza
exposta ao nosso método de questionamento."
– Werner Heisenberg
Para estudar o fenômeno do aumento da faixa dinâmica pelo glomérulo, estamos ignorando
uma possível interação entre os axônios dos neurônios sensoriais, diferentemente do que foi
proposto anteriormente [20, 21, 22, 23, 24, 25], e supondo que toda otimização do processa-
mento dos estímulos externos ocorre somente devido à geometria da árvore dendrítica. Nossa
maior motivação está na própria arquitetura do glomérulo.
No caso do coelho, por exemplo, um dos maiores fenômenos de convergência do sistema
nervoso ocorre no glomérulo
1
. Este é formado por cerca de 25.000 axônios dos neurônios
sensoriais olfatórios que conectam-se com cerca de 25 células mitrais. Portanto cada árvore
dendrítica da célula mitral recebe estímulos de pelo menos 1000 neurônios sensoriais [45].
Outros mamíferos também apresentam altas razões de convergências de neurônios sensoriais
por glomérulo, como podemos observar na figura do bulbo olfatório do camundongo 2.1.
Como veremos ao longo deste trabalho, apesar de nossa motivação ter surgido devido a
complexidade da árvore dendrítica da célula mitral, espera-se que o modelo seja suficiente-
mente geral para tratar qualquer dendrito ativo apresentando naturalmente propriedades obser-
vadas por árvores dendríticas ativas, como por exemplo a propagação da excitação no sentido
inverso (backpropagation).
Diferentemente de outros modelos anteriormente propostos para dendritos ativos, este mo-
delo trata de forma muito simplificada a propagação de estímulos para poder levar em conta
aspectos topológicos que consideramos mais importantes. É interessante notar que atualmente
sabe-se muito pouco sobre a dinâmica, concentração e densidade de canais bem como sobre
1
Excedido apenas pelos fotoreceptores da retina [45].
18
2.1 ÁRVORE DE CAYLEY 19
Figura 2.1 O preparado de membrana do focinho do camundongo mostra a convergência dos neurônios
receptores olfatórios em um único glomérulo. Nesta fotograa, estão corados uma única família de
neurônios sensoriais olfatórios, que possuem uma dada proteína receptora especifíca. Figura extraída
de [5].
como ocorre a propagação de estímulos numa árvore dendrítica ativa. Uma das limitações deste
trabalho é a escassez de resultados experimentais com os quais o modelo pode ser comparado
e através dos quais pode ser aperfeiçoado.
2.1 Árvore de Cayley
A nossa proposta é modelar a árvore dendrítica por uma árvore de Cayley, uma rede bastante
particular, como ilustrada na figura 2.2. Uma árvore de Cayley pode ser obtida, partindo-se de
um sítio semente, através do seguinte processo iterativo:
(i): A primeira camada é obtida conectando-se o sítio semente a Z novos sítios, onde Z é o
número de coordenação.
(ii): Cada nova camada é obtida conectando-se os últimos sítios inseridos a k = Z1 novos
sítios.
2.1 ÁRVORE DE CAYLEY 20
Figura 2.2 Exemplo de uma árvore de Cayley com k = 2, número de coordenação Z = k+ 1, e número
de camadas G = 4. Cada elemento excitável pode ocupar apenas um dos três estados possíveis em cada
tempo. A probabilidade de transmissão de uma excitação de um elemento pertencente a uma camada i
para um elemento de uma camada i+1 é dada por p
i
. Usamos esta topologia para modelar um dendrito
espacialmente regular.
Este é um grafo que não contém nenhum laço. Cada sítio da árvore de Cayley possui Z
vizinhos com exceção dos elementos pertencentes a última camada que têm apenas um vizinho.
No caso particular em que Z = 2, temos uma rede unidimensional com N
G
= (2G) + 1 tios,
onde G é o número total de camadas.
Uma camada j 1 possui n
j
= (k+ 1)k
( j1)
sítios. Para Z 3, o número de elementos na
última camada n
G
nunca torna-se desprezível em relação ao resto da rede, por exemplo, para
Z = 3, n
G
N
G1
(N
G
)/2 enquanto que para Z > 3, n
G
> N
G1
e se torna n
G
N
G1
quando G é suficientemente grande. O número de elementos na última camada n
G
é n
G
=
(k+ 1) k
(G1)
e o número total de sitios na árvore é dado por:
N
G
= n
0
+ n
1
+ ··· + n
G
=
(k+ 1) (k
G
1)
(k 1)
+ 1 . (2.1)
Esta topologia já foi bastante estudada pelos físicos e matemáticos [46], uma aproximação
que pode ser feita para tratar o problema da última camada é supor que G . Desta forma,
considera-se que a rede é formada apenas por elementos profundamente interiores do grafo, ou
"infinitamente" longe da fronteira.
2.2 MODELAGEM COMPARTIMENTAL POR AUTÔMATOS CELULARES 21
2.2 Modelagem Compartimental por Autômatos Celulares
Neste modelo, cada sítio da árvore de Cayley é excitável e restrito a ocupar apenas três esta-
dos distintos. Descrevemos anteriormente, subseção 1.3.1, um modelo de autômato celular que
simplifica bastante o comportamento de um neurônio inteiro. Estamos agora utilizando os mes-
mos estados para descrever um pequeno pedaço do dendrito (dendritic patch) de um neurônio.
Trata-se de um modelo muito mais detalhado do ponto de vista espacial. Acreditamos que este
tipo de modelagem seja particularmente inovadora para a modelagem de dendritos ativos.
0
β
α
λ
21
Figura 2.3 Dinâmica dos estados e taxas de probabilidades. Exemplo de um elemento desacoplado que
recebe apenas estímulo externo com probabilidade igual a
λ
: (0 − 1)e está sujeito às probabilidades
de transição
α
: (1 − 2) e
β
: (2 − 0) por passo de tempo.
Tem-se então:
0 : estado fundamental ou excitável do sítio, representando o potencial de membrana pola-
rizado do elemento de dendrito em relação ao meio extra celular igual ao potencial de
repouso;
1 : estado excitado onde o potencial elétrico do sítio está acima do potencial de repouso;
2 : estado refratário onde o potencial elétrico do sítio está abaixo do potencial de repouso, e
portanto não pode excitar-se.
Desta forma, a seguinte normalização deve ser satisfeita, para todo tempo t:
P
ν
t
(0) + P
ν
t
(1) + P
ν
t
(2) = 1 , (2.2)
onde
ν
(0
ν
G) indexa o número de camadas e P
ν
t
(i) é a probabilidade de um elemento
excitável da camada
ν
ser encontrado no estado i no instante t.
2.3 DINÂMICA DE EXCITÃO E TRANSMISSÃO 22
Existe uma direção privilegiada obedecida pelo modelo, conforme a fig. 2.3: uma vez no
estado 0 o sítio pode evoluir, caso receba um estímulo, para o estado 1. Este então poderá
evoluir exclusivamente para o estado 2 com uma probabilidade
α
a cada unidade de tempo,
previamente discretizado. Uma vez no estado 2, ele poderá evoluir somente de volta para o
estado 0 com uma probabilidade
β
a cada unidade de tempo, onde permanecerá até receber
um estímulo novamente. Esta dinâmica, torna este um claro exemplo de autômato celular
cíclico [28], e probabilístico.
A descrição direcionada dos estados, desta forma, nos parece bastante razoável, está de
acordo com os modelos mais precisos e detalhados (Hodgkin Huxley), pois o estado de equi-
líbrio celular é na verdade um equilíbrio dinâmico de ions que estão entrando e saindo do
neurônio mantendo a mesma diferença de potencial. Após abertos o suficiente para gerar uma
excitação, os canais levam um certo tempo característico específico para fecharem, e uma vez
fechados o sistema leva um tempo para voltar ao equilíbrio dinâmico inicial quando torna-se
novamente susceptível a excitar-se outra vez.
2.3 Dinâmica de Excitação e Transmissão
Este modelo considera duas formas possíveis de excitação de cada elemento, devido a um
estímulo externo ou através de interação com algum vizinho. A chegada de estímulos externos
em cada elemento excitável da árvore dendrítica é modelada por um processo de Poisson e
ocorre com uma probabilidade
λ
ν
dada por
λ
ν
= 1 e
r
ν
τ
, (2.3)
onde
τ
é a duração do passo de tempo que fixamos arbitrariamente em um milisegundo e r
ν
é
uma taxa de estímulo em cada camada
ν
representando a taxa de excitações devido às sinapses.
Por exemplo, no caso do glomérulo olfatório, r
ν
estaria relacionado com a taxa de disparos
dos neurônios sensoriais olfatórios, que por sua vez cresce com a concentração de odorantes no
epitélio olfatório.
De acordo com algumas evidências experimentais [47] as sinapses, no glomérulo olfatório,
podem existir em qualquer região da árvore dendrítica, como mostra a figura 2.4.
A interação com os elementos vizinhos é a grande simplificação deste modelo que não é
levada em conta pelos modelos tradicionais de dendrito ativo, como discutido no capítlulo 1
2.4 EQUAÇÃO MESTRA 23
Figura 2.4 Célula mitral e o dendrito primário da célula mitral. Setas indicam contato direto com axô-
nios dos neurônios olfatórios sensoriais. Figuras adaptadas do trabalho de Kosaka e colaboradores [47].
(vide subseção 1.2.3). Isto nos possibilita estudar os efeitos produzidos pela geometria espacial
mantendo um equilíbrio, e o problema permanece tratável.
Esta interação bidirecional, no nosso modelo, é dada por um parâmetro para cada camada
p
ν
que conecta dois elementos, um na camada
ν
e outro na camada
ν
+ 1, ilustrado na fi-
gura 2.2. Portanto, supondo-se que um elemento na camada
η
(1
η
G1), esteja excitado,
ele poderá transmitir esta excitação para cada vizinho susceptível na camada seguinte com uma
probabilidade p
η
e para o vizinho da camada anterior, caso susceptível, com uma probabilidade
p
η
1
.
2.4 Equação Mestra
As regras de transição do autômato são probabilísticas de forma que a evolução dinâmica do
sistema é governarda por uma equação mestra. Como no caso da árvore o comportamento de
um elemento na i-ésima camada depende do comportamento de elementos nas camadas anteri-
ores i 1 e ulteriores i+ 1 a esta, é necessário introduzir uma notação que permita descrever o
estado de todos os sítios da rede.Assim, P
ν
t
(a;b;C) é a probabilidade do elemento que estamos
2.4 EQUAÇÃO MESTRA 24
observando, pertencente a
ν
-ésima camada, estar no estado b no tempo t enquanto seu vizinho
da camada
ν
1 está no estado a e seus k vizinhos da camada
ν
+ 1 compõem o estado C . Por
exemplo, se k = 2, então o estado C poderia ser substituído por d,e: P
ν
t
(a;b;d, e) e neste caso,
d e e são os estados dos dois vizinhos pertencentes a camada
ν
+ 1. Note que o símbolo ";"
separa os estados referentes a elementos de camadas distintas enquanto o símbolo "," separa
os estados referentes a elementos de uma mesma camada. O estado de um elemento vizinho
ao elemento considerado será omitido no caso em que não seja absolutamente necessária sua
presença, no nível de descrição mais conveniente. Um exemplo seria o caso da probabilidade
de um sítio da camada
ν
encontrar-se no estado j no instante t, independentemente do estado
dos seus vizinhos é denotada por P
ν
t
(; j;). Assim,
P
ν
t+1
(;0;) = 1 P
ν
t+1
(;1;) P
ν
t+1
(;2;) , (2.4)
que coincide com a eq. 2.2 em uma nova notação.
A partir das regras definidas na página 21, a evolução temporal de P
ν
t
(;2;) é dada por:
P
ν
t+1
(;2;) =
α
P
ν
t
(;1;) + (1
β
)P
ν
t
(;2;) (2.5)
Devemos completar o sistema com as equações para P
ν
t+1
(;1;) uma vez que a equação para
P
ν
t+1
(;0;) pode sempre ser obtida pela condição de normalização (2.2). Como as equações
diferem de uma camada para outra, começaremos no caso particular mais simples, em que
ν
= G, e cada sítio desta última camada tem apenas um vizinho:
P
G
t+1
(;1;) = [1 (1
λ
G
)(1 p
G1
)]P
G
t
(1;0;) +
λ
G
=1
P
G
t
(;0;) + (1
α
)P
G
t
(;1;) (2.6)
Ou seja, o elemento da última camada estará no estado 1 no tempo t + 1 com uma probabi-
lidade dada pela soma das seguintes probabilidades:
1
o
termo: do elemento estar no estado 0 e seu vizinho no estado 1 no tempo t, e ele
receber um estímulo externo (com probabilidade
λ
G
) ou uma excitação transmitida pelo
seu vizinho (com probabilidade p
G1
).
2
o
termo: do elemento estar no estado 0 e seu vizinho não estar no estado 1 no tempo t e
ele receber um estímulo externo.
3
o
termo: do elemento estar no estado 1 no tempo t e assim permanecer no tempo se-
guinte.
2.4 EQUAÇÃO MESTRA 25
Generalizando este argumento, podemos escrever a equação para a camada 0:
P
0
t+1
(;1;) =
1 (1
λ
0
)(1 p
0
)
k+1
P
0
t
(;0;1
(k+1)
)
k+ 1
k+ 1
+
1 (1
λ
0
)(1 p
0
)
k
j
1
=1
P
0
t
(;0;1
(k)
, j
1
)
k+ 1
k
+
1 (1
λ
0
)(1 p
0
)
k1
j
1
, j
2
=1
P
0
t
(;0;1
(k)
, j
1
, j
2
)
k+ 1
k 1
+ ··· +
+[1 (1
λ
0
)(1 p
0
)]
j
1
,..., j
k
=1
P
0
t
(;0;1, j
1
,..., j
k
)
k+ 1
1
+
λ
0
j
1
,..., j
k+1
=1
P
0
t
(;0; j
1
,..., j
k+1
)
+(1
α
)P
0
t
(;1;) , (2.7)
onde foi introduzida aqui outra notação:
P(;0;1
(0)
) refere-se a um estado dado por P(;0;);
P(;0;1
(1)
) refere-se a um estado dado por P(;0;1);
P(;0;1
(2)
) refere-se a um estado dado por P(;0;1,1);
.
.
.
P(;0;1
(k)
) refere-se a um estado dado por P(;0;
k vezes

1,··· , 1);
Finalmente, para uma camada
η
tal que (0
η
G), temos:
2.4 EQUAÇÃO MESTRA 26
P
η
t+1
(;1;) =
1 (1
λ
η
)(1 p
η
1
)(1 p
η
)
k
P
η
t
(1;0;1
(k)
)
k
k
+
1 (1
λ
η
)(1 p
η
1
)(1 p
η
)
k1
j
1
=1
P
η
t
(1;0;1
(k1)
, j
1
)
k
k 1
+ ··· +
+
1 (1
λ
η
)(1 p
η
1
)(1 p
η
)
j
1
,..., j
k1
=1
P
η
t
(1;0;1, j
1
,..., j
k1
)
k
1
+
1 (1
λ
η
)(1 p
η
1
)
j
1
,..., j
k
=1
P
η
t
(1;0; j
1
,..., j
k
)
k
0
+
1 (1
λ
η
)(1 p
η
)
k
=1
P
η
t
(;0;1
(k)
)
k
k
+
1 (1
λ
η
)(1 p
η
)
k1
ℓ, j
1
=1
P
η
t
(;0;1
(k1)
, j
1
)
k
k 1
+ ··· +
+[1 (1
λ
η
)(1 p
η
)]
ℓ, j
1
,..., j
k1
=1
P
η
t
(;0;1, j
1
,..., j
k1
)
k
1
+
λ
η
ℓ, j
1
,..., j
k
=1
P
η
t
(;0; j
1
,..., j
k
)
k
0
+(1
α
)P
η
t
(;1;) . (2.8)
Podemos ainda simplificar as eqs. (2.7) e (2.8) eliminando as restrições dos somatórios
através da condição de normalização geral
P
η
t
(a;b; j
1
,..., j
1
)
j
P
η
t
(a;b; j
1
,..., j
1
, j
) . (2.9)
Por exemplo:
j
1
=1
P
η
t
(;0;1
(k1)
, j
1
) =
j
1
P
η
t
(;0;1
(k1)
, j
1
) P
η
t
(;0;1
(k)
)
= P
η
t
(;0;1
(k1)
) P
η
t
(;0;1
(k)
) . (2.10)
Assim, de maneira direta, podemos separar todos os termos de cada um dos somatórios e
reagrupá-los. Desta forma, as eqs. (2.6), (2.7) e (2.8) podem ser reduzidas apenas a:
2.4 EQUAÇÃO MESTRA 27
P
0
t+1
(;1;) = P
0
t
(;0;1
(0)
) (1
λ
0
)
k+1
i=0
p
i
0
k+ 1
i
(1)
i
P
0
t
(;0;1
(i)
)
+(1
α
)P
0
t
(;1;) , (2.11)
P
η
t+1
(;1;) = P
η
t
(;0;1
(0)
) (1
λ
η
)
k
i=0
p
i
η
k
i
(1)
i
P
η
t
(;0;1
(i)
)
p
(
η
1)
p
i
η
k
i
(1)
i
P
η
t
(1;0;1
(i)
)
+(1
α
)P
η
t
(;1;) , (2.12)
P
G
t+1
(;1;) = P
G
t
(;0;1
(0)
) (1
λ
G
)
P
G
t
(;0;1
(0)
) p
(G1)
P
G
t
(1;0;1
(0)
)
+(1
α
)P
G
t
(;1;) . (2.13)
Este é um um sistema de equações bem mais simples para todos os P
ν
t+1
(;1;) que, junto com
as eqs. (2.4) e (2.5), descreve a dinâmica dos estados de todas as G+ 1 camadas.
Mesmo com esta grande simplificação que pode ser realizada, o conjunto de equações for-
mado por: (2.4), (2.5), (2.11), (2.12) e (2.13) continua incompleto pois precisaríamos das equa-
ções para P
t
(1;0;1
(i)
), que envolveria dependência entre quatro e cinco camadas, por sua vez
estas equações para quatro ou cinco camadas dependeriam de termos envolvendo seis e sete
camadas. Deve-se então truncar estas dependências em algum ponto caso não deseje-se resol-
ver exatamente o sistema de equações envolvendo termos em todas as camadas. Optamos pela
utilização de métodos aproximativos para tratar o problema. No capítulo 4, trabalhamos com
a aproximação de campo médio simples. Uma primeira aproximação, em que as probabilida-
des conjuntas são aproximadas por produtos das probabilidades individuais. E uma segunda
aproximação é descrita no capítulo 5, que aproxima a dependência de muitos elementos em
um conjunto de pares destes elementos, levando em consideração a influência de apenas um
vizinho.
2.4 EQUAÇÃO MESTRA 28
2.4.1 O Caso Limite do Sítio Central Isolado
Um caso particular é quando a árvore é igual ao sítio semente
2
isolado, i.e., só existe a camada
zero e este elemento não tem nenhum vizinho Z = 0, como na figura 2.3. O mesmo compor-
tamento também seria obtido para qualquer árvore quando todos os p
ν
forem iguais a zero.
Neste caso elementar, sabemos calcular o valor da faixa dinâmica em função dos parâmetros
que controlam a dinâmica dos estados
α
e
β
. Simplificamos a notação fazendo P
ν
t
(;i;) = P
t
(i).
O sistema de equações que descreve este problema é simplesmente dado por:
P
t+1
(0) =
β
P
t
(2) + (1
λ
)P
t
(0) , (2.14)
P
t+1
(1) =
λ
P
t
(0) + (1
α
)P
t
(1) , (2.15)
P
t+1
(2) =
α
P
t
(1) + (1
β
)P
t
(2) . (2.16)
No caso estacionário, esperamos encontrar
P
t+1
(i) = P
t
(i) , (2.17)
eliminando-se o índice t.
Sob esta condição, eq. (2.17), e a partir da eq. (2.16), temos:
P(2) =
α
β
P(1) . (2.18)
Podemos tratar agora de uma grandeza válida somente no caso estacionário. P
(t)
(1) F
que corresponde à densidade estacionária de sítios excitados e é proporcional à taxa média
de excitações por unidade de tempo por elemento excitável, fundamental para todo desen-
volvimento seguinte. Estamos tomando emprestado esta notação classicamente utilizada para
descrever a taxa média de disparos de neurônios excitáveis.
Usando a condição de normalização eq. (2.2) e a eq. (2.18) encontramos o valor de P(0)
que pode ser usado junto com a definição de F para reescrever a eq. (2.15):
F(
λ
) =
λβ
αβ
+
αλ
+
βλ
. (2.19)
2
Veja figura 2.2.
2.4 EQUAÇÃO MESTRA 29
Como o parâmetro r é mais intuitivo do ponto de vista experimental, usaremos a eq. (2.3) para
expor a dependência em r ao invés de
λ
no cálculo da faixa dinâmica , desta forma:
F(r) =
(1 e
r
τ
)
β
αβ
+ (
α
+
β
)(1 e
r
τ
)
, (2.20)
e a resposta de saturação F
max
= lim
r
F(r) fica:
F
max
(r) =
β
αβ
+
α
+
β
. (2.21)
Conforme discutido na seção 1.3.2, temos
F(r
x
) x[ F
max
F
0
] + F
0
. (2.22)
De (2.20) e da definição acima pode-se isolar r
x
:
r
x
= ln
1
αβ
x
αβ
+ (
α
+
β
)(1 x)
, (2.23)
e finalmente obtemos a faixa dinâmica :
= 10 log
10
r
0.9
r
0.1
, (2.24)
ou explicitamente, (
α
,
β
):
= 10 log
10
ln
1
0.9
αβ
αβ
+ 0.1(
α
+
β
)
ln
1
0.1
αβ
αβ
+ 0.9(
α
+
β
)
. (2.25)
Podemos ver na figura 2.5 uma dependência fraca e equivalente
3
em relação às duas variá-
veis
α
e
β
. Este resultado analítico é exato e corresponde a um pedaço de dendrito (dendritic
patch) isolado. Pode-se considerar esta com uma generalização de cálculos realizados anterior-
mente [24, 20] para um modelo de automato de Greenberg-Hastings [48] de n estados nos quais
(n 2) eram refratários determinísticos, o que corresponde ao caso particular em que
α
= 1.
3
Note que a equação (2.25) é indistinguível em relação a
α
e
β
, ou seja, o resultado permanece inalterado
mesmo que sejam invertidas as posições dessas duas variáveis.
2.4 EQUAÇÃO MESTRA 30
0.01
0.1
1
0.01
0.1
1
19
18
17
16
(α,β)
α
β
(α,β)
Figura 2.5 (
α
,
β
): O resultado analítico da faixa dinâmica para um elemento desacoplado apresenta
fraca dependência em relação aos parâmetros de controle dos estados neuronais (não-susceptível) do
modelo.
CAPÍTULO 3
Simulações Computacionais
"Computadores fazem arte
Artistas fazem dinheiro
Computadores avançam
Artistas pegam carona
Cientistas criam o novo
Artistas levam a fama"
– Fred Zero Quatro
Vamos começar restringindo o espaço de muitos parâmetros, primeiramente utilizado para
a descrição matemática, mais geral possível, do modelo proposto. Os parâmetros escolhidos
para descrever uma árvore dendrítica ativa foram os seguintes:
k = 2: Cada bifurcação foi fixada em apenas dois ramos, sendo a escolha mais plausível
do ponto de vista biológico;
p
ν
= p (0
ν
G 1): Todas as probabilidades de transmissão de estímulos fo-
ram assumidas iguais independentemente da posição na árvore, a opção mais simples
possível;
λ
ν
=
λ
(0
ν
G): Além de impor que o estímulo externo pode chegar em to-
dos os elementos de qualquer camada [47], supomos que esta probabilidade é a mesma
independente da camada pressupondo homogeneidade na chegada de estímulos;
α
= 1: Esta afirmação diz que cada excitação tem duração de apenas um intervalo de
tempo, a mesma escolha feita em outros trabalhos anteriores [37, 20, 22, 23, 24];
β
= 0.5: A duração média de cada "período refratário", pós-excitação, é duas vezes mais
longa que a excitação, um valor arbitrário porém plausível.
31
3.1 FUNÇÃO RESPOSTA E FAIXA DINÂMICA 32
A taxa média de atividade neuronal F já foi anteriormente definida. Porém, a fim de enten-
dermos a fundo este modelo, utilizamos duas medidas distintas desta grandeza. A primeira foi
chamada de F
0
e mede somente a atividade média do sítio semente. Supondo-se que o estímulo
chegue na árvore dendrítica ele deveria necessariamente passar por este sítio para chegar no
corpo celular e finalmente no axônio do neurônio, como sugerido e observado experimental-
mente [49, 50] e posteriormente modelados [27]. A segunda, F
T
, foi definida como a atividade
média de todos os elementos excitáveis da árvore dendrítica. Talvez a maior importância desta
grandeza seja a possibilidade de compará-lo com dados experimentais. No caso do glomérulo
olfatório algumas medidas de curvas de respostas e de faixa dinâmica são realizadas utilizando-
se técnicas de fluorescência de cálcio, tornando-se indistinguível o instante e a região exata de
cada atividade, obtendo-se apenas uma grande média no tempo e no espaço da região do glo-
mérulo.
3.1 Função Resposta e Faixa Dinâmica
Esta seção discute os resultados das simulações, além de responder a pergunta de como a
topologia espacial influencia o processamento de informação do sistema sensorial.
Uma das conseqüênciasmais importantes da escolha dosparâmetrosde controle dos estados
não susceptível utilizados nesta e nas próximas três seções, (
α
= 1 e
β
= 0.5), é a impossibi-
lidade de ocorrência de atividade auto-sustentada e conseqüentemente não há transição de fase
de não-equilíbrio. Como a topologia da rede não apresenta laços e as ondas de excitação não
podem ir e voltar entre dois elementos vizinhos, qualquer atividade inicial da árvore morre no
estado estacionário.
É possível prever o valor máximo de F(r ) F
max
. Tanto para F
0
quanto para F
T
,
devem apresentar o mesmo valor dependente apenas das varáveis de controle dos estados não
susceptível.
Neste regime de (r ) toda vez que um elemento estiver no estado 0 no tempo t ele
evoluirá para o estado 1 no tempo seguinte de modo que em cada período de evolução do
autômato cíclico cada sítio passará apenas um intervalo de tempo no estado 0. O intervalo de
tempo médio de cada excitação é dada por
1
α
. Finalmente, o período refratário médio T
2
é dado
por T
2
1
β
. De modo que o período total é dado por 1+
1
α
+
1
β
. Assim, por definição, fazemos
F igual a razão do período ativo pelo período total:
3.1 FUNÇÃO RESPOSTA E FAIXA DINÂMICA 33
F
max
=
1
α
1+
1
α
+
1
β
, (3.1)
portanto, neste caso particular F
max
=
1
4
.
Curvas de resposta típicas são mostradas na figura 3.1 para rios valores de p. Quanto
maior a probabilidade de transmissão, mais sensível torna-se o sistema aos estímulos externos,
contribuindo para um aumento da faixa dinâmica dado que todas elas saturam aproximada-
mente com a mesma intensidade de r.
A partir de funções respostas semelhantes a estas da figura 3.1 calculam-se os valores da
faixa dinâmica
0
correspondente à s curvas de resposta de F
0
e a faixa dinâmica
T
correspon-
dente à s curvas de resposta de F
T
. Este é o resultado que estávamos buscando para entender
melhor o processamento de intensidade de estímulos no bulbo olfativo, fig. 3.2.
A geometria da árvore dendrítica é justificada, por argumentos evolutivos, como sendo uma
boa forma de obter estímulos provenientes de diversas regiões. Além deste argumento trivial,
podemos agora acrescentar à resposta da pergunta porque dendritos tem uma topologia de ár-
vore? Uma possível assertiva é que esta topologia favorece o processamento e a distinção entre
diferentes intensidades de estímulos. Desta forma, podemos ver que apenas a computação den-
drítica é suficiente para o aumento da faixa dinâmica, ou seja, ao contrário do proposto anteri-
ormente [20, 21], podemos dizer que o acoplamento elétrico interneuronal não é indispensável
para este fenômeno.
As curvas de faixa dinâmica em função do número máximo de camada G, para alguns va-
lores de p, estão no gráfico da fig. 3.3. Um resultado interessante deste modelo é a diferença
entre
0
e
T
. Para valores de p > 0.5 e não muito próximos do extremo p 1, temos que
T
é menor que
0
para valores de G suficientemente grandes. Assim, mesmo que uma medida
da faixa dinâmica
T
do glomérulo por fluorescência de cálcio apresente um aumento relati-
vamente baixo, a amplificação efetiva na qualidade do processamento de informação da célula
mitral
0
seria muito maior, o que está de acordo com a enorme capacidade de distinção entre
diferentes intensidades de estímulos, fundamental para sobrevivência, conhecida e descrita a
muito tempo pelas leis a psicofísica [34].
Espera-se obter a saturação em todas estas curvas para G suficientemente grande devido a
própria definição de faixa dinâmica, mas este resultado ficará evidente mais adiante (vide
fig. 3.11).
3.1 FUNÇÃO RESPOSTA E FAIXA DINÂMICA 34
0
0.05
0.1
0.15
0.2
0.25
1e-08 1e-06 1e-04 0.01 1 100
F
0
(r)
r
p=1.0
p=0.8
p=0.6
p=0.4
p=0.2
p=0.0
0
0.05
0.1
0.15
0.2
0.25
1e-08 1e-06 1e-04 0.01 1 100
F
T
(r)
r
p=1.0
p=0.8
p=0.6
p=0.4
p=0.2
p=0.0
Figura 3.1 Curvas de resposta para uma árvore de Cayley de elementos excitáveis com os parâmetros
restritos no início do capítulo (
α
= 1,
β
= 0.5, k = 2, p
ν
= p,
λ
ν
=
λ
) , e com número máximo de
gerações ou camadas G = 7. Acima, foi tomada uma média de excitações no tempo apenas no elemento
semente (F
0
), com número de interações T 10
4
(esta estimativa é válida para todas as curvas de
respostas das simulações). Abaixo, além da média de excitações no tempo foi tomada a média em
todos os sítios, elementos excitáveis, da rede (F
T
). Os pontos apresentam barra de erro menor que o
símbolo utilizado, em todos os casos o erro é estimado atras do desvio padrão de cinco realizações
independentes.
3.1 FUNÇÃO RESPOSTA E FAIXA DINÂMICA 35
15
20
25
30
35
40
45
50
55
60
0 0.2 0.4 0.6 0.8 1
0
(p)
p
G=15
G=10
G=7
G=5
15
20
25
30
35
40
45
50
55
60
0 0.2 0.4 0.6 0.8 1
T
(p)
p
G=15
G=10
G=7
G=5
Figura 3.2 Faixa dinâmica em função de p para o seguinte conjunto de valores máximos de gerações
G = 5,7,10,15. Acima, a faixa dinâmica
0
do elemento semente que representa a base da árvore
dendrítica no dendrito primário. Abaixo, a faixa dinâmica
T
correspondente árvore dendrítica inteira.
Notar que o modelo possibilita um aumento máximo de mais de 200% em relação ao modelo desaco-
plado p = 0 para valores razoáveis de G, do ponto vista biológico.
Os gráficos das figs. 3.3 e 3.4 deixam explícito como as altas razões de convergência oti-
mizam o processamento de intensidade de estímulo devido a geometria do dendrito. Neste
modelo, o número de neurônios sensorias por célula mitral [45] é representado pelo número de
3.1 FUNÇÃO RESPOSTA E FAIXA DINÂMICA 36
20
30
40
50
60
70
5 10 15 20
0
G
p= 1.0
p= 0.9
p= 0.8
p= 0.7
p= 0.5
20
30
40
50
60
70
5 10 15 20
T
G
p= 1.0
p= 0.9
p= 0.8
p= 0.7
p= 0.5
Figura 3.3 Faixa dinâmica em função de G. A saturação ocorre antes em
T
, excetuando-se casos
extremos p 1.
sítios na rede por árvore dendrítica, descritos no capítulo 2. Pela definição de N
G
em uma árvore
de Cayley (seção 2.1), vemos na figura 3.4 que o aumento da faixa dinâmica ocorre de maneira
linearmente proporcional ao logaritmo do número de sítios na rede até um valor máximo de
saturação, como numa rede de neurônios quadrada [24] ou uma rede unidimensional [20].
3.2 COMPORTAMENTO ESPACIAL 37
25
30
35
40
45
50
55
10 100 1000 10000 100000
(p=0.9)
N
G
0
T
Figura 3.4 Faixa dinâmica em função do logaritmo do número total de sítios na rede N
G
.
3.2 Comportamento Espacial
As curvas de resposta de F
0
apresentam uma particularidade muito interessante, para valores
de p suficientemente grandes, ocorre uma redução na atividades na primeira camada com o
aumento da probabilidade de transmissão, para algumas quantidades de estímulos externos
específicas. Podemos ver este efeito nos gráficos da figura. 3.5.
Consideramos este cruzamento entre as curvas de respostas para diferentes valores de p
um comportamento anti-intuitivo e inesperado. Por isso foi realizado um estudo exaustivo e
detalhado deste efeito. Tal fenômeno é intensificado com o aumento da árvore influenciando o
comportamento médio de toda árvore dendrítica, como mostra a figura 3.6.
O gráfico da distribuição da atividade média das camadas por cada camada, representado na
fig. 3.7, sugere um comportamento bastante diferenciado de p 1 em relação a outros valores
de p. Para p = 1 observa-se uma distribuição quase homogênea, que se tornaria exatamente
homogênea no limite em que r 0 e não há interação entre duas ondas de excitação. Esta reta
horizontal na distribuição da atividade média por camadas também é o esperado para uma ár-
vore de infinitas camadas , que será apresentada mais adiante 4.4, ou para um tio desacoplado,
p = 0, como visto na subseção 2.4.1.
De acordo com a fig. 3.7, os sítios localizados nas primeiras cinco camadas têm um compor-
tamento médio mais ativo no caso de p = 0.9 quando comparado com p = 1.0. Este fenômeno
só pode ocorrer se as atividades provenientes das camadas mais externas não estiverem conse-
3.2 COMPORTAMENTO ESPACIAL 38
0
0.05
0.1
0.15
0.2
0.25
10
0
10
-1
10
-2
10
-3
10
-4
10
-5
F
0
(r)
r
G=7
p=1.0
p=0.9
p=0.8
0
0.05
0.1
0.15
0.2
0.25
10
0
10
-1
10
-2
10
-3
10
-4
10
-5
F
0
(r)
r
G=10
p=1.0
p=0.9
p=0.8
Figura 3.5 Surpresa na função resposta: Acima G = 7 e abaixo G = 10. Curvas de resposta de F
0
para
alguns valores de p = 0.8,0.9,1.0. Os fenômenos de interação com os vizinhos provocam uma redução
na atividade da camada zero, mesmo com o número máximo de camadas G relativamente pequeno,
com o aumento da probabilidade de transmissão da excitação p acima de uma quantidade característica
p 0.9, para alguns valores de r, que depende do tamanho da árvore.
guindo chegar nas primeiras camadas. Isto contradiz o esperado, i.e, que seja mais fácil uma
certa atividade se propagar quanto maior fosse o valor de p. Considerando-se que aproximada-
mente metade dos sítios estão localizados na última camada da árvore, seção 2.1, este aparente
paradoxo pode ser explicado através dos muitos choques ocorridos entre atividades que se
propagam para dentro da árvore com atividades que se propagam para fora da árvore. Estas
atividades que percorrem a árvore no sentido crescente das camadas chamamos de retropropa-
gação ("backpropagation") e têm um papel fundamental nas curvas de respostas, dificultando
a chegada de excitações externas, funcionando como uma blindagem em relação as atividades
3.2 COMPORTAMENTO ESPACIAL 39
0
0.05
0.1
0.15
0.2
0.25
1e-08 1e-06 1e-04 0.01 1 100
F
0
(r)
r
p=1.0
p=0.9
p=0.8
p=0.7
0
0.05
0.1
0.15
0.2
0.25
1e-08 1e-06 1e-04 0.01 1 100
F
T
(r)
r
p=1.0
p=0.98
p=0.9
p=0.8
Figura 3.6 árvores maiores: Curvas de respostas para G = 15, acima medida em F
0
e abaixo medida
em F
T
. O mesmo efeito mostrado na fig. 3.5 mostra-se ainda mais importante para árvores dendríticas
maiores, podendo influenciar até mesmo o comportamento médio de todos os sítios da rede. Existe um
fenômeno local envolvendo poucos sítios que altera o comportamento global da árvore dendrítica.
que vêm de fora.
Na figura 3.8, comparamos a atividade média de algumas camadas em função de p para
diferentes intensidades de estímulos. Acredita-se que todo comportamento dessas curvas dis-
tintos de monotônico crescente seja causado pelo aumento da quantidade de estímulos retro-
propagantes. Este fenômeno torna-se muito importante quando p é consideravelmente grande.
Apresentamos também, em um único gráfico (fig. 3.9), a atividade da camada zero por
p para vários valores de estímulos externos r, partindo-se da hipótese que F
0
pode ter uma
importância extra em relação as outras camadas de um dendrito ativo. Mais uma vez, podemos
notar que para valores de estímulo muito baixos, onde ocorrem poucas colisões entre ondas de
3.2 COMPORTAMENTO ESPACIAL 40
0.04
0.06
0.08
0.1
0 2 4 6 8 10
F
i
i
p=1.0
p=0.9
p=0.8
Figura 3.7 Comportamento espacial: Atividade média por cada camadas F
i
, com G = 10 e r = 10
3
,
para alguns valores de p.
0.15
0.1
0.05
0
F
i
r=10
-2
(a)
0.1
0.05
0
i=0
i=10
r=10
-3
(b)
0.04
0.02
0
0 0.2 0.4 0.6 0.8 1
F
i
p
r=10
-4
(c)
0.01
0
0 0.2 0.4 0.6 0.8 1
p
r=10
-5
(d)
Figura 3.8 Comportamento espacial em função de p: Atividade média da i-ésima camada por p com
G = 10 e camadas dadas por, de baixo para cima, valores de i = 10,8,6,4,2,0. As intensidades de
estímulo r são dadas por: (a) r = 10
2
, (b) r = 10
3
, (c) r = 10
4
e (d) r = 10
5
.
3.2 COMPORTAMENTO ESPACIAL 41
estímulos, e para valores de r muito alto, onde a interação entre elementos vizinhos torna-se
desprezível em relação à grande quantidade de estímulos externos, este efeito torna-se pequeno
e até imperceptível.
0
0.2
0.15
0.1
0.05
0 0.2 0.4 0.6 0.8 1
F
0
p
r=10
-1
r=10
-2
r=10
-3
r=10
-4
r=10
-5
Figura 3.9 Resumo de F
0
: Atividade média na camada zero como função de p, com G = 10. De cima
para baixo temos r = 10
1
,10
2
,10
3
,10
4
,10
5
.
A evolução temporal da atividade de cada camada pode ser vista nos gráficos da fig. 3.10.
A intensidade das retropropagações da atividade é tão alta, no caso p = 1, que os estímulos
provenientes de camadas muito exteriores não conseguem chegar nas primeiras camadas com
facilidade.
A partir deste modelo, podemos supor que as retropropagações de estímulo, aqui presentes,
ocorrem devido à geometria da árvore dendrítica. Além disso, o efeito cresce com o tamanho
da árvore G e com a eficiência da transmissão de estímulos de uma árvore dendrítica ativa.
Outro comportamento notável deste modelo, que não ocorre em outras topologias, é o for-
mato tortuoso (barrigas) das curvas de respostas de F
0
observado quando p 0.5. No caso
de F
T
, como metade dos sítios estão localizados na última camada, observamos apenas uma
pequena sinousidade. Esta característica também ocorre por causa da interação entre ondas de
excitação. Podemos entender este processo separando a atividade em três regimes principais
de acordo com a intensidade de estímulos externos. No primeiro, para estímulos muito baixos,
podemos desprezar as interações entre as ondas, e a resposta cresce de forma linear com r. O
segundo caso, de intensidade intermediária, diminui consideravelmente a derivada da curva de
resposta devido à grande quantidade de interações entre ondas de estímulos propagantes na ár-
vore. Sendo que cada choque corresponde a aniquilação de dois estímulos reduzindo a taxa de
crescimento da função resposta. O último regime é regido essencialmente apenas pela grande
3.2 COMPORTAMENTO ESPACIAL 42
0
0.2
0.4
0.6
0.8
1
t
i
p =0.8
0 10 20 30 40
0
5
10
15
0
0.2
0.4
0.6
0.8
1
t
p =0.9
40 30 20 10
0
0.2
0.4
0.6
0.8
1
t
p =1.0
40 30 20 10
Figura 3.10 Evolução temporal da atividade média das camadas para G = 15 e r = 10
4
. Este resultado
concorda tanto com as curvas de respostas dadas na fig. 3.6 quanto com a interpretação do resultado e
a importância da retropropagação verificada. Note que a freqüência de excitações na camada 0 é maior
para p = 0.9 do que para p = 1. No caso extremo em que p = 1, uma vez que a primeira camada é
excitada o estímulo propaga-se inversamente com muita intensidade, por exemplo, quando t = 15
intensidade de excitação externa e a interação entre elementos vizinhos pode ser desprezada, de
forma que todas as curvas comportam-se da mesma forma. A necessidade de p > 0.5 é devida
a uma transição de fase de bifurcação, para valores inferiores deste parâmetro as atividades que
se propagam entre vizinhos tendem a morrer rapidamente. Para os casos superiores de p, a
propagação entre vizinhos tende a crescer quanto mais propaga-se (efeito cascata) e torna-se
ainda mais eficaz quanto maior for o valor de p. Pelo mesmo motivo, esta segunda região, fase
de interação, precisa de menos intensidade de estímulos externos para ocorrer quanto maior o
valor do parâmetro p. Este comportamento pode ser visto em qualquer uma das curvas de res-
postas (figs 3.1, 3.5, 3.6, 3.17, 3.20 e 3.21) e até mesmo em medidas experimentais (fig. 3.14)
sendo mais forte para árvores maiores.
Este fenômeno tem sido bastante estudado, nas ultimas décadas, tanto experimentalmente,
através do desenvolvimento de novas técnicas [10] quanto teoricamente através de diversos
modelos. Acredita-se que este efeito tenha grande importância, como um mecanismos celular
presente em eventos que apresentam alto grau de complexidade, como aprendizado
Acredita-se que esta retropropagação não seja necessariamente proveniente dos potenciais
de ação axonais, mas sim de qualquer atividade, incluindo-se atividades dendríticas de árvores
3.2 COMPORTAMENTO ESPACIAL 43
ativas [51]. Alguns experimentos mostram claramente [52] que a atividade não espalha-se
passivamente mas propaga-se no sentido inverso ativamente [53], dependendo da atividade
anterior da célula [54], mesmo com a atividade de fundo presente em experimentos in vivo [55,
56], de acordo com o nosso modelo.
Existem uma série de funções conhecidas da retropropagação de um potencial de ação [5,
55, 15]:
Inibição dendrodendrítica [57], uma das formas de comunicação utilizadas entre as cé-
lulas mitrais e as células granulares, importante na diferenciação, aumento de contraste,
entre diferentes odores;
Reestabelecer o potencial de membrana para recebimento de novos estímulos de en-
trada [58], situação análoga a observada na figura 3.10;
Potencial de ação retrógrado nas sinapses, contribui para a ativação de neurotrasmissores
liberados nos dendritos [59];
Plasticidade sináptica: necessário para estabilização de contatos sinápticos recentes nos
circuitos neuronais durante o pós-natal;
Mudanças rápidas na eficiência sináptica: a retropropagação da atividade pode reduzir o
limiar de indução de potenciais dendríticos regenerativos e influenciar assim a atividade
neural [55].
Mudanças lentas na eficiência sináptica: Pode representar uma sinalização global da ár-
vore dendrítica indicando a atividade dos tios de entrada sináptica induzindo mudanças
localizadas na eficácia de sinapses excitatórias [55].
No nosso modelo o fenômeno de retropropagação apareceu de modo natural, e inevitável,
em contraste com os modelos teóricos que já partem do ponto que esta retropropagação acon-
tece, sendo necessário apenas levar em consideração a geometria do dendrito. Exatamente por
isto, talvez este seja um excelente modelo para estudar efeitos e conseqüências da retropropa-
gação de estímulos em um nível mais baixo, onde a causa também seria importante.
3.3 COMPORTAMENTO CRÍTICO 44
3.3 Comportamento Crítico
Vamos abordar o comportamento crítico através da razão de ramificação
σ
[37, 39, 40], que
pode ser estimada como:
σ
= p
ζ
, (3.2)
onde
ζ
é o número médio de vizinhos efetivos que podem receber estímulos. Quando fixamos
o parâmetro
α
= 1 nesta árvore sem laços, estamos dizendo que se um dado elemento A recebe
uma excitação no tempo t
0
de seu vizinho B, então esta mesma excitação ainda não tinha
chegado em A num tempo t < t
0
e também não voltará ao sítio A em nenhum tempo seguinte
t > t
0
. Isto ocorre porque após cada excitação o estado seguinte de um dado sítio passa a
ser refratário e quando este tio voltar a tornar-se suscepvel seus vizinhos que receberam
excitações deste elemento não estarão mais excitados. Este argumento é válido para todos os
sítios da rede. Podemos então calcular o número médio de vizinhos efetivos:
ζ
=
3N
G1
+ 1n
G
N
G
1 . (3.3)
Em outras palavras, esta equação está nos dizendo que o número médio de vizinhos efetivos
é dado pela média de vizinhos na rede menos 1, que corresponde ao vizinho ativador desta
excitação que não estará susceptível. Lembrando que N
G1
é o número total de elementos na
árvore até a penúltima camada e cada um destes elementos possui 3 vizinhos. n
G
é o número
de elementos na última camada, com apenas um vizinho, esta G-ésima camada funciona como
um sorvedouro de estímulos pois cada elemento possui apenas um vizinho. E N
G
é o número
total de elementos em toda árvore.
De 3.3 e levando em conta os resultados da seção 2.1: N
G1
n
G
e N
G
= N
G1
+n
G
, então
ζ
= 1. Definimos agora o comportamento crítico de uma rede como sendo aquele gerado pela
razão de ramificação crítica:
σ
c
1 . (3.4)
Neste caso o sistema está em equilíbrio, quando
σ
c
< 1 a atividade média do sistema tende
a morrer rapidamente e para
σ
> 1 ocorre um grande aumento da atividade do sistema so-
brecarregando a rede. O exemplo da árvore de Cayley indica que o valor de p
c
=
σ
c
ζ
= 1.
Esta definição concorda com o resultado de [37] em que a razão de ramificação crítica de es-
tímulos implica no valor máximo de faixa dinâmica, bem como as interpretações de
σ
c
dadas
em [39, 40] que também relacionam o comportamento ótimo dos sistemas com as respectivas
situações críticas.
3.3 COMPORTAMENTO CRÍTICO 45
No intuito de obtermos um melhor entendimento deste caso crítico, de grande importância
para o problema de distinção de intensidades de estímulos, fundamental para todos os sistemas
sensoriais, analizaremos os expoentes críticos. Portanto, estamos interessados em estudar os
expoentes de Hill (m) das curvas de resposta (vide eq. 1.2). Este expoente é bastante estu-
dado pelos biológos devido a sua relação direta com a faixa dinâmica, como pode ser visto no
exemplo teórico mostrado na figura 1.4 (página 13). Em particular, a situação de maior interese
corresponde ao caso crítico, que apresenta o comportamento ótimo em nosso sistema. Para
tanto, definimos a variável:
δ
1
h
m
c
, onde o subíndice de m
c
apenas indica a situação crí-
tica. De maneira alternativa, poderíamos definir de uma forma mais familiar aos físicos, pois,
tipicamente esta grandeza é definida por: F(p = p
c
) r
δ
1
h
, na região em que r 0.
1e-04
0.001
0.01
0.1
1
1e-07 1e-05 0.001 0.1 10
F
T
(r)
r
G=20
G=19
G=18
G=17
G=16
G=15
Figura 3.11 Curvas de Respostas de F
T
: Comparação entre várias redes de tamanhos distintos.
Observa-se diferença apenas para baixas intensidades de estímulos. Uma média sobre cinco realiza-
ções no caso crítico em que p = p
c
= 1.
Utilizaremos as curvas de resposta em escala log-log para realizarmos estas medidas, no
caso crítico, anteriormente determinado, o que corresponde a p
c
= 1. Como estamos traba-
lhando com uma topologia não-trivial, nossas cuvas de resposta apresentam diversas rugosi-
dades que as diferenciam de sigmóides simples. Isso torna relativamente complexa a tarefa
de determinação dos expoentes críticos. Uma outra dificuldade encontrada provém do tama-
nho finito da rede, pois este expoente críico é definido para redes infinitas, livre dos efeitos de
3.3 COMPORTAMENTO CRÍTICO 46
borda. Os gráficos da figura 3.11, mostram como as medidas deste expoente são alteradas pelo
tamanho da árvore dendrítica. Note que a relação entre N
G
e N
G+1
é dada aproximadamente
por N
G+1
=
2N
G
.
10
-4
10
-3
10
-2
10
-1
10
0
10
-1
10
-4
10
-7
10
-10
F
T
(r)
r
G=22
G=24
r
δ
h
-1
, δ
h
-1
=0.124 (4)
10
-4
10
-3
10
-2
10
-1
10
0
10
-1
10
-4
10
-7
10
-10
F
0
(r)
r
G=22
G=24
r
δ
h
-1
, δ
h
-1
=0.117 (2)
Figura 3.12 Expoente: Medidas realizadas nas maiores árvores simuladas, N
24
5· 10
8
, resultaram no
expoente crítico
δ
1
h
muito próximos do valor obtido para percolação direcionada em uma dimensão:
δ
1
h
= 0.111. Acima, a medida de F
T
, abaixo, em relação a F
0
. O tempo de processamento passa a ser
um gargalo nestas simulações devido ao tamanho das redes.
O resultado da fig. 3.12 é válido para um número considerável de décadas, e o erro ob-
3.4 SISTEMAS SENSORIAIS 47
tido em cada ponto da rede menor G = 22 é praticamente desprezível. Como as duas curvas
1
mostram o mesmo comportamento para intensidades de estímulos maiores que r = 10
9
, con-
sideramos nossa medida bastante confiável. Note que estas curvas de respostas, mesmo para
redes muito grandes apresentam algumas irregularidades, o que torna este medida difícil de ser
realizada. Entretanto, devemos observar a diferença de apenas 10% em relação ao expoente
de percolação direcionada em uma dimensão:
δ
1
h
= 0.111. As duas redes, árvore de Cayley
e uma rede unidimensional, têm em comum a característica topológica de não apresentarem
laços. É importante notar que através da nossa definição de criticalidade a partir da razão de
ramificação, o comportamento supercrítico acaba não podendo ser observado.
Conforme anteriormente observado, a melhor maneira de visualizar como ocorre a satu-
ração no valor da faixa dinâmica com o aumento da rede é através desta fig. 3.11. No gráfico
seguinte, fig. 3.12, a saturação no limite inferior ocorreu paraatividades com respostas abaixo
de 0.1F
max
= 0.025.
3.4 Sistemas Sensoriais
O maior interesse deste nosso grupode pesquisa tem sido, até então, o estudo do processamento
de informação no sistema olfatório. Desta forma, todos os aspectos e parâmetros utilizados na
criação deste modelo foram motivados pela arquitetura do bulbo olfatório
2
Existe um paralelo,
bem estabelecido, entre princípios gerais compartilhados com outras regiões de sistemas
sensoriais, especialmente a retina e o tálamo [45], que gostaríamos de explorar.
Ocorre no bulbo olfatório e na retina o primeiro estágio de processamento sináptico de in-
formação sensorial. Os dois apresentam tipos de células e circuitos distintos mas em um plano
geral e em muitos aspectos da organização dos microcircuitos têm muitas semelhanças [5].
Ambos são formados por caminhos diretos para transmissão da informação sensorial, além
de conter dois veis de processamento lateral, um no nível sensorial de entrada e o outro no
controle da saída, ver fig. 3.13. Devido a estas semelhanças diversos modelos criados para o es-
tudo do bulbo olfatório [20, 21] foram comparados com resultados, de excelente precisão [60],
medidos na retina.
De acordo com o esquema da fig. 3.13 nota-se a grande importância de célula Mitral no
bulbo olfatório. O resultado da fig. 3.14 compara a resposta da base do dendrito primário, F
0
1
Perceba que a rede com G = 24 é quatro vezes maior do que a árvore com G = 22.
2
Representações dessas arquiteturas podem ser vistas nas páginas: 14 e 80.
3.4 SISTEMAS SENSORIAIS 48
Figura 3.13 "Comparação entre circuitos básicos presentes na retina (A) e no bulbo olfatório (B). As
duas regiões processam diferentes tipos de informação sensorial, mesmo assim, a semelhança geral da
organização ea detalhada semelhança de alguns circuitos locais indicam princípios no mecanismo neural
conservados para o processamento dos dois tipos de informação". Figura e legenda extraídas de [5].
3.4 SISTEMAS SENSORIAIS 49
no nosso modelo, com o análogo da retina, a resposta da célula Ganglionar.
1.2
1
0.8
0.6
0.4
0.2
0
0.01 0.1 1 10 100 1000 10000
F
0
/F
max
r(Rh*/rod/s)
Figura 3.14 Comparação do modelo com resultados experimentais. Taxas de disparos normalizada por
intensidade luminosa medida em moléculas isomerizadas de rodopsina por bastonetes (células fotore-
ceptoras da retina) por segundo. Os símbolos fechados são medidas experimentais [60] e os símbolos
abertos são os resultados das simulações em uma árvore de Cayley com G = 15. Este número de cama-
das relativamente grande está levando em conta a grande razão de convergência dos neurônios sensoriais
na retina, vide capítulo 2.
Os parâmetros distintos utilizados em cada curva da figura 3.14 foram:
Quadrado: p = 0.0 e 1· Rh*/rod/s= 1.5· r;
Círculo: p = 0.4 e 1· Rh*/rod/s= 100· r;
Diamante: p = 0.58 e 1·Rh*/rod/s= 2700· r;
Triângulo: p = 0.0 e 1·Rh*/rod/s= 1100· r.
Uma fraqueza do modelo foi a necessidade de utilizarmos dois parâmetros. Um deles (p)
provavelmente estaria ligado com diferentes circuitos e tipos distintos de processamentos [60].
Enquanto que o outro foi o ajuste de unidades (em r) necessário para relacionarmos as curvas.
Isso poderia ser interpretadodevido à existência de diferentes grupos de neurônios sensoriais na
retinaque acabariam por respondermelhor a certas intensidades distintas de estímulos externos.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 50
Em todas as geometrias de redes
3
neuronais excitáveis modelas até então, nenhuma delas
apresenta curvas de respostas tortuosas (com múltiplas inflexões
4
que chamaremos daqui para
frente de barrigas) como é o caso desta que utilizamos para comparar com os pontos de dia-
mante da figura 3.14. Como esta é uma característica observada experimentalmente pode ser
considerado um triunfo desta topologia. O que contribui, junto com o aparecimento do efeito
de retropropagação, para a conjectura que a estrutura física seria fundamental para computação
dendrítica.
Note que não estamos dizendo que as células da retina formam uma árvore de Cayley,
mas acreditamos que o resultado da figura 3.14 pode não ser apenas uma simples coincidên-
cia. É possível que haja um princípio de comportamento tão geral, comum a estas regiões.
Desta forma não seria necessário descrever os circuitos de forma detalhada para encontramos
padrões fundamentais semelhantes, como as curvas de resposta. Não estamos diminuindo a
relevância de todas as outras possíveis variáveis, apenas querendo ressaltar a importância do
caráter espacial, que não deve ser desprezado.
3.5 Efeito dos Parâmetros Neuronais
Todos os resultados obtidos até aqui tiveram os parâmetros
α
= 1 e
β
= 0.5 como descritos
no início do capítulo 3. A escolha arbitrária do parâmetro
α
foi equivalente à mesma utilizada
anteriormente em alguns trabalhos [20, 23] onde cada autômato representaria um neurônio.
Em particular, o trabalho da referência [24] verifica um comportamento similar do modelo de
autômatos celulares com o modelo de Hodgkin-Huxley, mais detalhado e pesado do ponto de
vista computacional. Recentemente a idéia de considerar este autômato como uma represen-
tação de um elemento dendrítico excitável pertencente ao glomérulo, sem nenhuma geometria
específica (rede aleatória), foi introduzida mais uma vez com o comportamento equivalente a
esta mesma escolha de
α
[37].
Entretanto, estas escolhas dos parâmetros
α
e
β
, principalmente nos casos em que cada
sítio representa apenas elementos excitáveis de dendrito ao invés do neurônio inteiro, podem
não estar de acordo com as medidas experimentais. O intervalo de duração de cada excitação
3
Mais especificamente, estamos nos referindo às: redes hipercúbicas (1D-4D) [20, 22, 23, 24, 25, 21], rede
aleatória [37] e rede livre de escala [61].
4
Toda curva sigmóide apresenta ao menos um ponto de inflexão, entretanto esta barriga aparece como con-
seqüência da presença de outros pontos de inflexão.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 51
Figura 3.15 Diferença de uma ordem de grandeza nas escalas de tempo das atividades dendríticas
medidas em neurônios piramidais. Figura extraída de [62].
passa a ser determinístico quando
α
= 1, ao passo que algumas medidas mostram uma variação
neste intervalo de uma ordem de grandeza, fig. 3.15. É possível que uma excitação dendrítica,
por exemplo, ocorra com duração de intervalos de tempo varáveis, diferentemente de um dis-
paro gerado no cone axônico. Da mesma forma, não temos nenhuma certeza na duração do
intervalo de tempo necessário para um elemento dendrítico excitável poder voltar ao seu estado
polarizado. Assim, tornou-se importante realizar pelo menos um pequeno estudo da influência
destes parâmetros neste modelo.
A simulação de uma árvore dendrítica inicialmente ativa e livre de estímulos externos após
chegar no regime estacionário, como função de dois parâmetros
α
e p, mostra quão particu-
lar é o regime que estamos investigando. Como pode ser visto na figura 3.16, a escolha de
α
= 1 é um caso muito extremo, sendo a única a não permitir atividade auto-sustentada ao sis-
tema porém quando tiramos o sistema desta condição fazendo
α
< 1 vemos um outro tipo de
comportamento, aparecendo transição de fase de não-equilíbrio e conseqüentemente alterando
as curvas de respostas e a medida da faixa dinâmica. Por outro lado, o modelo mostrou-se
bem mais robusto com respeito ao parâmetro
β
, diferentemente do caso desacoplado discutido
anteriormente 2.4.1, onde o comportamento era equivalente.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 52
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0
0.2
0.4
0.6
0.8
1
0
0.2
0.4
0.6
0.8
1
F
T
(r=0)
α
p
F
T
(r=0)
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
α
p
β=1.00
β=0.50
β=0.25
Figura 3.16 Acima, o comportamento médio do sistema,
α
= 1.0 é um caso extremo e singular, o
único que não permite que haja atividade auto-sustentada. Nesta figura temos
β
= 0.5, r = 0 e G = 10.
E abaixo, a projeção das curvas de atividade auto-sustentada para diferentes valores de
β
.
3.5.1 Duração do Estado Ativo
Pela superfície de atividade auto-sustentada para
β
= 0.5, fig. 3.16, pode-se inferir que com
α
= 0.9 ocorreuma transição de fasede não equilíbrioquando p 0.75, desta forma, p
c
0.75.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 53
Neste caso, as curvas de respostas tornam-se completamente diferente do discutido anterior-
mente, seção 3.1, como mostram os gráficos da fig. 3.17.
0
0.05
0.1
0.15
0.2
0.25
10
2
10
0
10
-2
10
-4
10
-6
F
0
(r)
r
p=1.0
p
c
=0.75
p=0.5
0
0.05
0.1
0.15
0.2
0.25
10
2
10
0
10
-2
10
-4
10
-6
F
T
(r)
r
p=1.0
p
c
=0.75
p=0.5
Figura3.17 Os três tipos diferentes de curvas de respostas (G= 10,
α
= 0.9,
β
= 0.5): supercrítico p >
p
c
, círculos abertos; crítico p = p
c
representado por círculos fechados e subcríticos p < p
c
triângulos.
As duas formas distintas de medidas utilizadas F
0
, acima, e F
T
, abaixo apresentam o mesmo valor de
p
c
0.75.
O resultado da faixa dinâmica também mostra-se bastante diferente de obtido para
α
= 1,
fig. 3.2. Um resultado interessante desta medida, indica que a faixa dinâmica
0
, principal-
mente próximo de p
c
, mostra-se muito maior que a medida para
T
, o que indicaria uma oti-
3.5 EFEITO DOS PARÂMETROS NEURONAIS 54
mização de processamento de informação devido a geometria do dendrito. A convergência
espacial do camada 0 amplifica bastante a região em que as intensidades de estímulo podem ser
distinguidas, fig. 3.18.
15
20
25
30
35
40
45
50
55
0 0.2 0.4 0.6 0.8 1
(dB)
p
0
T
Figura 3.18 Faixa dinâmica: O comportamento ótimo na criticalidade é verificado. A faixa dinâmica
0
é quase duas décadas maior que a média da árvore em p
c
. Neste caso, também ocorre um cruzamento
entre as duas curvas para p 1.
Neste caso, em que ocorre transição de fase de não equilíbrio, a nossa explicação para as
barrigas das curvas de resposta deve ser corrigido. As curvas de resposta supercríticas são
modificadas bruscamente no regime de baixos estímulos. De forma que para valores de p
maiores que p
c
a primeira região passa a ser de atividade auto-sustentada, não nulo mesmo
que a intensidade de estímulos externos r 0. A região de crescimento linear pode vir logo
em seguida, ou não, dependo da intensidade de F(r 0), da mesma forma que a região de
interação. Assim, para p muito grande o comportamento sinuoso pode nem ser observado.
Pois a curva de resposta pode estar situada somente na última região de interação, onde a
propagação entre vizinhos pode ser desprezada e as excitações exteriores dominam a dinâmica,
um exemplo seria caso em que p = 1 da figura 3.17.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 55
3.5.2 Duração do Período Refratário
Fixamos agora os parâmetros de controle do sistema em
α
= 1 e
β
= 0.1, para entender melhor
o comportamento do sistema, estudado em detalhe e definido no começo do capítulo, com
respeito à variável
β
. Conforme discutido no começo desta seção, os resultados das simulações
para a faixa dinâmica neste caso mostram uma pequena diferença quantitativa, mas uma grande
semelhança qualitativa tanto para o primeiro sítio quanto para a média da árvore dendrítica.
15
20
25
30
35
40
45
50
55
0 0.2 0.4 0.6 0.8 1
0
(dB)
p
β=0.5
β=0.1
15
20
25
30
35
40
45
50
55
0 0.2 0.4 0.6 0.8 1
T
(dB)
p
β=0.5
β=0.1
Figura 3.19 Resultado das simulações para faixa dinâmica em função de p para
α
= 1.0 e G = 10.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 56
A dependência da faixa dinâmica com a duração do período refratário é fraca, conforme
já verificado anteriormente [20, 24]. É importante ressaltar que a influência de
β
no problema
tem caráter secundário unicamente no caso particular,
α
= 1. Excetuando-se os casos extremos
em que os parâmetros de controle voltam a tornar-se equivalentes, como no caso desacoplado
da subseção 2.4.1.
0
0.2
0.4
0.6
0.8
1
10
2
10
0
10
-2
10
-4
10
-6
F
0
(r)/F
max
(β)
r
Figura 3.20 Efeito do período refratário nas curvas de respostas: Comparação entre as curvas de res-
postas normalizadas do sítio semente com
β
= 0.5 (círculo aberto) e
β
= 0.1 (círculo fechado) em duas
probabilidades de transição distintas. De cima para baixo, o caso de transmissão determinística p = 1 e
um caso probabilístico com p = 0.5 (novamente fixamos
α
= 1 e G = 10). Note que embora as curvas
variem bastante com respeito a
β
, principalmente quando p 0.5, os valores de r
0.1
e r
0.9
permanecem
parecidos, o que explica a semelhança das curvas nos gráficos da fig 3.19.
Podemos entender a pequena variação na medida da faixa dinâmica (fig. 3.19) através da
análise das curvas de respostas (fig. 3.20) que possuem grandes variações na forma, porém
apresentam os valores de r
0.1
e r
0.9
muito parecidos. O parâmetro
β
influencia de maneira
essencial a aparência das curvas de resposta. Em particular, o aumento do período refratário
médio faz com que a região de forte interação entre os vizinhos comece antes e termine de-
pois. O sistema sai do regime linear mais facilmente (com a necessidade de menos excitação
3.5 EFEITO DOS PARÂMETROS NEURONAIS 57
exterior) pois cada elemento fica mais tempo no período refratário sem poder receber excitação
de um vizinho excitado. O que aumenta a freqüência de choques entre as ondas excitáveis.
E entra no regime de forte excitação exterior e interação entre vizinhos desprezível depois,
sendo necessário uma maior intensidade de excitação exterior. O valor máximo da curva de
resposta caí tornando cada atividade mais importante para o valor total de F além de continuar
mais fácil ocorrerem aniquilações de excitações que necessitam de vizinhos susceptíveis para
se propagar. Todos estes fatores juntos fazem com que este comportamento também influencie
muito o comportamento de toda rede. As curvas de resposta de F
T
apresentam apenas pequenas
sinuosidades quando
β
= 0.5 (fig. 3.5), porém podem apresentar uma barriga considerável no
caso
β
= 0.1 (fig. 3.21).
Um resultado curioso aparece nas curvas de respostas de F
0
com o aumento do período
refratário médio. De acordo com os gráficos da fig. 3.21 vemos que as colisões entre as ondas
de atividades dependem do período refratário, de forma que o cruzamento entre curvas de res-
postas de diferentes probabilidades de transmissão p não ocorre mais neste caso. Ainda assim,
ocorrem os fenômenos de retropropagação, entretanto, um longo período refratário associado
com seu caráter estocástico eliminam estas respostas anti-intuitivas. Torna-se então evidente a
necessidade de quantificar e caracterizar este fenômeno de retropropagação.
3.5 EFEITO DOS PARÂMETROS NEURONAIS 58
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
10
2
10
0
10
-2
10
-4
10
-6
F
0
(r)
r
p=1.0
p=0.9
p=0.8
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
10
2
10
0
10
-2
10
-4
10
-6
10
-8
F
T
(r)
r
p=1.0
p=0.9
p=0.8
Figura 3.21 Curvas de respostas para F
0
e F
T
para
β
= 0.1,
α
= 1.0 e G = 10. Neste caso, o cruzamento
das curvas de respostas não ocorre, ao contrário dos gráficos das figs. 3.5 e 3.6.
CAPÍTULO 4
Cálculo de Campo Médio Simples
"Estes são os meus princípios. Se não
lhes agradam, tenho outros."
– Groucho Marx
Este capítulo discute a aproximação de campo médio simples para as eqs. (2.11-2.13) que
governam a evolução dinâmica do sistema. Trata-se de uma primeira aproximação, onde todas
as probabilidades conjuntas são aproximadas pelos produtos das probabilidades individuais:
P
t
( j
1
; j
2
,..., j
m1
, j
m
)
m
i=1
P
t
( j
i
) , (4.1)
onde o símbolo "" denota uma igualdade válida na aproximação de campo médio. Note que
estão incluídos os casos em que a dependência ocorre entre camadas distintas assim como entre
elementos de uma mesma camada.
O interesse desta análise consiste em comparar estes resultados com as simulações do ca-
pítulo anterior, portanto, utilizaremos das mesmas simplificações utilizadas no capítulo 3:
k = 2 ;
λ
ν
=
λ
;
p
ν
= p .
Por fim, estudamos a relação desta aproximação utilizada em uma árvore de G camadas,
onde o sistema de equações leva em conta cada camada da rede com uma árvore infinita.
4.1 Campo Médio por Camada
Aplicando-se a aproximação (4.1) nas eqs. (2.11-2.13) , obtemos
59
4.1 CAMPO MÉDIO POR CAMADA 60
P
0
t+1
(1) P
0
t
(0) + (1
λ
)
3
i=0
p
i
3
i
(1)
i+1
P
0
t
(0)(P
1
t
(1))
i
+ (1
α
)P
0
t
(1)
P
0
t
(0)
1 (1
λ
)
1 pP
1
t
(1)
3
+ (1
α
)P
0
t
(1) ; (4.2)
P
η
t+1
(1) P
η
t
(0) + (1
λ
)
2
i=0
p
i
2
i
(1)
i+1
P
η
t
(0)(P
η
+1
t
(1))
i
+p
i+1
2
i
(1)
i
P
η
t
(0)P
η
1
t
(1)(P
η
+1
t
(1))
i
+ (1
α
)P
η
t
(1)
P
η
t
(0)
1 (1
λ
)(1 pP
η
1
t
(1))
1 pP
η
+1
t
(1)
2
+(1
α
)P
η
t
(1) , (1
η
G 1) ; (4.3)
P
G
t+1
(1) P
G
t
(0) + (1
λ
)
P
G
t
(0) p
(G1)
P
G1
t
(1)P
G
t
(0)
+(1
α
)P
G
t
(1)
P
0
t
(0)
λ
+ (1
λ
)pP
G1
t
(1)
+ (1
α
)P
G
t
(1) ; (4.4)
P
ν
t+1
(2)
α
P
ν
t
(1) + (1
β
)P
ν
t
(2) , (0
ν
G) . (4.5)
P
ν
t+1
(0) 1 P
ν
t+1
(1) P
ν
t+1
(2) ; (4.6)
Utilizamos um método numérico iterativo para encontrarmos soluções estacionárias está-
veis para as 3(G+ 1) equações acima. Partindo-se de uma condição inicial arbitrária (respei-
tando a normalização), realizamos iterações para cada instante de tempo t até que todas as
variáveis tenham convergido para um valor fixo.
4.2 ATIVIDADE AUTO-SUSTENTADA 61
0.1
0.12
0.14
0.16
0.18
0.2
0 2 4 6 8 10 12 14
F
i
i
p=1.0
p=0.9
p=0.8
0.04
0.06
0.08
0.1
0.12
0.14
0 2 4 6 8 10 12 14
F
i
i
p=1.0
p=0.9
p=0.8
Figura 4.1 Distribuição da atividade média de cada camada pela camada. À esquerda, aproximação de
campo médio simples e à direita o resultado das simulações. Os dois dizem respeito a uma árvore de
Cayley com G = 15 e atividade r = 10
3
, este é um caso particular especialmente escolhido. Quantita-
tivamente a aproximação não coincide com a simulação, porém qualitativamente a simulação apresenta
uma distribuição similar a esta da aproximação na maioria dos casos.
A distribuição da atividade por camada no caso estacionário é mostrada na fig. 4.1. O
resultado da aproximação de campo médio apresenta a mesma estrutura geral para qualquer
intensidade de estímulos externos, com uma maior atividade nas primeiras camadas, i.e., ocorre
uma convergência espacial de atividade para as primeiras camadas. Este comportamento é
semelhante ao observado nas simulações, excetuando-se apenas alguns casos particulares em
que o fenômeno de propagação inversa não pode ser desprezado. Em geral, a aproximação não
concorda com as simulações pois existe uma grande correlação espacial no sistema, ignorada
por esta primeira aproximação.
4.2 Atividade Auto-Sustentada
Outro comportamento fundamental para este estudo diz respeito às transições de fase de não-
equilíbrio. A escolha dos parâmetros
α
= 1 , em uma árvore sem laços não permite que haja
atividade auto-sustentada e conseqüentemente não deveria ocorrer transição de fase de não-
equilíbrio, como discutido na seção 3.5.
4.2 ATIVIDADE AUTO-SUSTENTADA 62
0
0.05
0.1
0.15
0.2
0.25
0 0.2 0.4 0.6 0.8 1
F
i
(p)
p
i= 0
i= T
i= G
Figura 4.2 Atividade auto-sustentada na ausência de estímulos (r = 0) ocorre na solução das equações
da aproximação de campo médio. Este resultado foi obtido para G = 15. O gráfico mostra que o valor
crítico da probabilidade de transmissão de estímulos, p
c
, é o mesmo para todas as camadas da árvore e
ocorre de forma mais suave quanto maior for a camada.
Entretanto, mais uma vez o resultado desta aproximação discorda com as simulações, con-
forme pode ser observado na fig. 4.2 que mostra a ocorrência de atividade auto-sustentada na
ausência de estímulos externos em um gráfico que compara a densidade média de atividade
para a primeira camada F
0
(p), a média de toda árvore F
T
(p) e o comportamento da última ca-
mada F
G
(p). A aproximação de campo médio considera apenas a atividade média das camadas
e não dos elementos de cada camada. Assim, as excitações pertencentes a uma camada podem
ativar outra camada e depois voltar a camada inicial, enquanto que nas simulações uma exci-
tação de um elemento poderá excitar um vizinho porém não poderá voltar a excitar o primeiro
elemento, não permitindo a transição de fase no caso especial em que
α
= 1. Nesta figura 4.2,
temos p
c
= 0.36 quando G = 15. Neste caso extremo (r = 0), foi necessário mudar o parâme-
tro
β
, responsável pelo controle do período refratário T
2
, definido por T
2
1
β
, anteriormente
4.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 63
fixado arbitrariamente em
β
= 0.5 para
β
= 0.54
1
, garantindo assim a convergência numé-
rica do mapa formado pelo sistema de equações da seção 4.1. Em geral, o valor de p
c
1
3
quando G pode ser encontrado analiticamente, como mostraremos na última seção 4.4
deste capítulo.
4.3 Curvas de Resposta e Faixa Dinâmica
Nesta seção, vamos discutir o resultado desta aproximação para o problema da faixa dinâmica
anteriormente proposto. A discordância neste caso é esperada de antemão, depois de conhecer-
mos a transição de fase de não equilíbrio, fig. 4.2.
As curvas de respostas da simulação e o resultado da aproximação de campo médio para
G = 15 camadas aparecem no mesmo gráfico na fig. 4.3. A concordância entre os resulta-
dos ocorre apenas nos casos subcríticos em que a probabilidade de transmissão dos estímulos
p 0.2, como fica evidente também na fig. 4.4. Nesta pequena região, a aproximação de campo
médio mostra-se muito boa pois todas as árvores de Cayley, independentemente dos tamanhos,
apresentam um comportamento muito similar, a interação com os vizinhos ainda é fraca demais
para alterar de forma significativa as curvas de respostas como função do tamanho da árvore,
como podemos ver na fig. 3.2. Nos casos em que p > p
c
, as curvas de respostas supercríticas
saturam no limite em que r 0 em um valor de F = 0, de acordo com a fig. 4.2.
Nesta aproximação, o comportamento da faixa dinâmica em função de p apresenta caracte-
rísticas bastante distintas. As simulações apresentam um comportamento monotônico crescente
de (p) enquanto a aproximação de campo médio prevê o comportamento ótimo de
0
(p) exa-
tamente em p
c
de acordo com o resultado de [37]. Por outro lado, para a medida realizada em
todos os elementos da árvore, obtemos o máximo de
T
próximo de p
c
, porém ligeiramente
deslocado. Esta pequena discordância é provavelmente causada pela suavidade na transição de
fase de F
T
(p), fig. 4.2.
1
É provável que esta pequena alteração não influencie de forma perceptível. Todos os outros resultados discu-
tidos neste capítulo estão livres desta adaptação.
4.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 64
-0.05
0
0.05
0.1
0.15
0.2
0.25
0.3
1e-07 1e-05 0.001 0.1 10
F
0
(r)
r
p=0.5
p=0.3
p=0.0
0
0.05
0.1
0.15
0.2
0.25
0.3
1e-07 1e-05 0.001 0.1 10
F
T
(r)
r
p=0.9
p=0.6
p=0.3
Figura 4.3 Comparação entre simulação (G=15, símbolos) e aproximação de campo médio (curvas
cheias) para as mesmas probabilidades de transmissão de estímulos p. Acima, estão as curvas de resposta
de F
0
, para o primeiro elemento, seguido das curvas de resposta para a média de todos os elementos
excitáveis F
T
.
4.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 65
15
20
25
30
35
40
45
50
55
60
0 0.2 0.4 0.6 0.8 1
0
(dB)
p
15
20
25
30
35
40
45
50
55
60
0 0.2 0.4 0.6 0.8 1
T
(dB)
p
Figura4.4 A faixa dinâmica em função de p, na aproximação decampo médio (linha simples) apresenta
grandes diferenças de comportamento em relação a simulação (linha e pontos) tanto para
0
, acima,
quanto para
T
, abaixo. As setas marcam o ponto crítico (p
c
= 0.36) somente para efeito de comparação.
4.4 ÁRVORE INFINITA 66
4.4 Árvore Infinita
Podemos simplificar ainda mais o problema, considerando um número infinito de camadas,
neste caso, espera-se que todas as camadas sejam equivalentes, ou seja:
P
η
(x) = P
η
+1
(x) , (4.7)
e o sistema de equações completo reduz-se apenas a:
P
t+1
(1) P
t
(0)
1 (1
λ
)(1 pP
t
(1))
3
+ (1
α
)P
t
(1)
P
t+1
(2)
α
P
t
(1) + (1
β
)P
t
(2)
P
t+1
(0) 1 P
t+1
(1) P
t+1
(2) . (4.8)
No caso estacionário, temos:
α
F P(0)
1 (1
λ
)(1 pF)
3
. (4.9)
Podemos expandiresta eq. (4.9) no limite em que o sistema está livre de estímulos externos:
λ
= 0, F 0, P(0) 1, e p p
c
, de onde obtemos:
p
c
α
3
, (4.10)
de forma que, para uma árvore infinita ocorre atividade auto-sustentada quando p > p
c
e a
transição de fase de não equilíbrio ocorre exatamente em p
c
.
Quando resolvemos o sistema de eqs. (4.8) obtemos praticamente a mesma resposta da
primeira camada, na aproximação de campo médio por camadas, para um mero de camadas
G suficientemente grande, fig. 4.5.
4.4 ÁRVORE INFINITA 67
0
0.05
0.1
0.15
0.2
0.25
0.3
1e-04 0.001 0.01 0.1 1 10
F
r
G→∞
G=10
0
0.05
0.1
0.15
0.2
0.25
0.3
1e-04 0.001 0.01 0.1 1 10
F
r
F
0
F
T
Figura 4.5 Comparação entre as aproximações de uma árvore infinita com uma de G = 10 camadas.
Acima, o resultado das curvas de respostas da árvore infinita é igual a resposta de F
0
para uma árvore
com número de camadas suficientemente grande, valores de p = 0.3,0.5,0.7 baixo para cima. Abaixo,
representação explícita da diferença do comportamento das curvas de respostas medidas como a média
de todos os elementos da árvore F
T
, na aproximação por camadas, com a resposta de uma árvore infinita
ou F
0
, na aproximação por camadas, de baixo para cima temos um caso subcrítico p = 0.3 e um caso
supercrítico p = 0.7.
CAPÍTULO 5
Cálculo de Campo Médio na Aproximação de
Pares
"Um passo à frente
e você já não está mais no mesmo lugar."
– Chico Science e Nação Zumbi
Os resultados obtidos a partir de uma primeira aproximação de campo médio simples, que
considera apenas as probabilidades individuais de cada sítio, mostraram-se insatisfatórios, com
o aparecimento de um estado ativo que não pode existir, conforme visto no capítulo 4. Para
obter uma melhor descrição do sistema [20], realizamos a aproximação de pares [63], que leva
em consideração a influência de um vizinho em cada probabilidade condicional:
P
t
( j
1
| j
2
,..., j
m
) P
t
( j
1
| j
2
). (5.1)
Nos cálculos seguintes, um dado par P(a;b) deverá, no máximo, depender da atividade dos
seguintes sítios vizinhos:
P
t
(w;a;b,x;y,z) . (5.2)
A posição de cada estado acima refere-se a uma posição específica em relação ao par, assim
como na figura 5.1, da seguinte forma:
w é o estado do elemento da camada anterior ao par que só é vizinho de a,
x é o estado do elemento pertencente à mesma camada do elemento b e vizinho somente de
a,
y é o estado do elemento da camada seguinte à camada de b e vizinho somente de b,
68
CAPÍTULO 5 CÁLCULO DE CAMPO MÉDIO NA APROXIMAÇÃO DE PARES 69
x
y
z
b
a w
Figura 5.1 Representação de um par (a,b) e a posição dos seus primeiros vizinhos (w,x,y, z) perten-
centes a uma árvore infinita. Esta é a maior de dependência considerada por esta aproximação de pares
referente a probabilidade genérica P
t
(w;a;b,x;y,z).
z é o estado do outro elemento da camada seguinte à camada de b e também vizinho somente
de b.
Assim como no capítulo 2, o símbolo ";" é utilizado para separar estados de elementos que
pertencem a camadas distintas enquanto que o símbolo ", " é utilizado para separar os estados
de elementos distintos pertencentes a mesma camada.
Usando a definição de aproximação de pares, eq. (5.1), reduzimos todas as probabilidades
conjuntas apenas a pares. Como exemplo, o caso mais geral (5.2) seria assim:
P
t
(w;a;b,x;y,z) = P
t
(w|a;b,x;y,z)P
t
(a;b,x;y,z) P
t
(w|a)P
t
(a;b,x;y,z)
P
t
(w|a)P
t
(x|a)P
t
(y|b)P
t
(z|b)P
t
(a;b)
P
t
(w;a)
P
t
(a)
P
t
(x;a)
P
t
(a)
P
t
(y;b)
P
t
(b)
P
t
(z;b)
P
t
(b)
P
t
(a;b)
P
t
(w;a)P
t
(a;b)P
t
(x;a)P
t
(y;b)P
t
(z;b)
P
t
(a)
2
P
t
(b)
2
. (5.3)
Portanto, nesta aproximação, o sistema é descrito pelo seguinte conjunto de nove
1
equações
1
pois é o arranjo com repetição de três estados tomados dois a dois, i.e., 3
2
.
CAPÍTULO 5 CÁLCULO DE CAMPO MÉDIO NA APROXIMAÇÃO DE PARES 70
de pares válidos ( 0
ν
G 1) :
P
ν
t+1
(0;0) = Γ
ν
1
(0;0) + Γ
ν
1
(0;2) + Γ
ν
1
(2;0) + J
1
P
ν
t
(2;2) (5.4)
P
ν
t+1
(0;1) = Γ
ν
2
(0;0) + Γ
ν
2
(0;1) + Γ
ν
2
(2;0) + H
2
P
ν
t
(2;1) (5.5)
P
ν
t+1
(1;0) = Γ
ν
3
(0;0) + Γ
ν
3
(0;2) + Γ
ν
3
(1;0) + G
3
P
ν
t
(1;2) (5.6)
P
ν
t+1
(1;1) = Γ
ν
4
(0;0) + Γ
ν
4
(0;1) + Γ
ν
4
(1;0) + F
4
P
ν
t
(1;1) (5.7)
P
ν
t+1
(1;2) = Γ
ν
5
(0;1) + Γ
ν
5
(0;2) + F
5
P
ν
t
(1;1) + G
5
P
ν
t
(1;2) (5.8)
P
ν
t+1
(2;1) = Γ
ν
6
(1;0) + Γ
ν
6
(2;0) + F
6
P
ν
t
(1;1) + H
6
P
ν
t
(2;1) (5.9)
P
ν
t+1
(2;0) = Γ
ν
7
(1;0) + Γ
ν
7
(2;0) + G
7
P
ν
t
(1;2) + J
7
P
ν
t
(2;2) (5.10)
P
ν
t+1
(0;2) = Γ
ν
8
(0;1) + Γ
ν
8
(0;2) + H
8
P
ν
t
(2;1) + J
8
P
ν
t
(2;2) (5.11)
P
ν
t+1
(2;2) = F
9
P
ν
t
(1;1) + G
9
P
ν
t
(1;2) + H
9
P
ν
t
(2;1) + J
9
P
ν
t
(2;2) , (5.12)
onde as seguintes considerações foram utilizadas:
1. Definimos o índice
ν
representando um par formado por um elemento da camada
ν
com
um elemento da camada
ν
+ 1.
2. Cada coeficiente Γ
ν
i
(a;b) representa um conjunto de elementos associados à probabi-
lidade do par em consideração ter vindo do estado P
ν
t
(a;b) no tempo anterior (a ser
definido no apêndice A, a partir da página 104). Neste caso, existe uma dependência dos
sítios vizinhos deste par (a;b) porém está implícita em nossa notação.
3. As constantes F
i
,G
i
,H
i
,J
i
representam as probabilidades de transição do tempo t para o
tempo t + 1 do estado representado pela probabilidade que estão multiplicando para o
estado representado pela probabilidade no lado esquerdo da equação.
5.1 ÁRVORE INFINITA 71
4. O índice i dos dois ítens acima está apenas indexando as constantes, devido a grande
quantidade delas, de acordo com um mero escolhido de maneira arbitrária para cada
equação.
5. O elemento pertencente a primeira camada
ν
= 0 não tem vizinhos em uma camada
anterior e tem três vizinhos na camada seguinte e um elemento pertencente a última
camada não tem vizinhos na camada seguinte e possui apenas um vizinho na camada
anterior. Todos os outros elementos pertencentes a outras camadas possuem um vizinho
na camada anterior e dois vizinhos na seguinte. Assim, todas as equações dos pares
que não envolvem a primeira e a última camada são equivalentes e possuem os mesmos
coeficientes multiplicando pares de probabilidades dependentes da camada.
Note que as três equações de um único sítio podem sempre ser obtidas a partir das equações
de pares (5.4-5.12) da seguinte forma:
P
ν
t
(0) = P
ν
t
(0;0) + P
ν
t
(0;1) + P
ν
t
(0;2) (5.13)
P
ν
t
(1) = P
ν
t
(1;0) + P
ν
t
(1;1) + P
ν
t
(1;2) (5.14)
P
ν
t
(2) = P
ν
t
(2;0) + P
ν
t
(2;1) + P
ν
t
(2;2) . (5.15)
Novamente, assumiremos a mesma escolha de parâmetros utilizada nas simulações para
podermos efetuar as devidas comparações:
k = 2 ;
λ
ν
=
λ
;
p
ν
= p .
5.1 Árvore Infinita
Poderíamos encontrar todos os coeficientes e constantes que estão faltando nas vinte e sete
equações
2
para resolver o problema proposto nesta aproximação de pares. Entretanto, devido
2
O sistema possui 9G equações, entretanto, para resolver numericamente, como fazemos, seria necessário
encontrar apenas os termos de 27 equações: nove do par que contém o primeiro elemento, nove dos pares que
contém elementos da última camada e nove de todos os outros pares da árvore.
5.1 ÁRVORE INFINITA 72
ao grande esforço algébrico necessário
3
, resolvemos apenas o sistema acima reduzido de 9G
para 6 equações, considerando novamente um número infinito de camadas:
P
ν
(a;b) = P
ν
+1
(a;b) = P(a;b) , (5.16)
o que proporciona isotropia à solução:
P
t
(a;b) = P
t
(b;a) . (5.17)
Convidamos o leitor interessado nos detalhes desta solução a verificá-los no apêndice A,
onde todos os passos desta solução estão descritos. Assim, finalmente, por esta aproximação
de pares, as equações de todosos pares possíveis(5.4-5.12), quedependiam dos estados de mais
de dois elementos através das equações para Γ
i
(a;b) (A.7-A.11), podem ser reduzidos apenas
a probabilidades de pares de elementos por um procedimento análogo ao exposto em (5.3).
Como esta dedução também assumiu que o número de camadas era infinito restaram apenas
seis pares distintos. Este conjunto de seis equações foi resolvido numericamente através de um
método iterativo, tornando possível a determinação de soluções estacionárias estáveis para o
problema, assim como foi feito no capítulo 4 para a aproximação de campo médio simples. A
seguir, escrevemos explicitamente estas equações utilizadas em função apenas dos parâmetros
do modelo, descritos no capítulo 2:
P
t
(0;0)
P
t
(0;0)P
t
(0)
4
2P
t
(0;0)
λ
P
t
(0)
4
+ P
t
(0;0)
λ
2
P
t
(0)
4
4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
+8pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2
+6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
12p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
+6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0) + 8p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
2
+ p
4
P
t
(0;0)P
t
(0;1)
4
2p
4
P
t
(0;0)P
t
(0;1)
4
λ
+p
4
P
t
(0;0)P
t
(0;1)
4
λ
2
+ 2
β
P
t
(0)2P
t
(0)
4
2
βλ
P
t
(0)2P
t
(0)
4
4P
t
(0)2pP
t
(0;1)P
t
(0)
3
β
+ 4P
t
(0)2pP
t
(0;1)P
t
(0)
3
λβ
+2p
2
β
P
t
(0;1)
2
P
t
(0)2P
t
(0)
2
2p
2
β
P
t
(0;1)
2
P
t
(0)2P
t
(0)
2
λ
+
β
2
P
t
(2;2)P
t
(0)
4
1
P
t
(0)
4
; (5.18)
3
Além da equivalência no resultado da aproximação de campo dio de uma árvore com infinitas camadas
com o primeiro elemento da aproximação de campo médio com um número finito de camadas, seção 4.4, sugerir
a possibilidade de ocorrência do mesmo fenômeno.
5.1 ÁRVORE INFINITA 73
P
t+1
(0;1)
P
t
(0;1)P
t
(0)
4
αλ
p 2pP
t
(0;0)P
t
(0;1)P
t
(0)
3
4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2
+6pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2P
t
(0;1)
2
p
2
P
t
(0)
3
+ 2P
t
(0;1)
2
pP
t
(0)
3
p
2
β
P
t
(0;1)
2
P
t
(0;2)P
t
(0)
2
λ
+ p
2
α
P
t
(0;1)
3
P
t
(0)
2
+ p
3
α
P
t
(0;1)
3
P
t
(0)
2
λ
2P
t
(0;1)
2
p
α
P
t
(0)
3
2P
t
(0;1)
2
p
2
α
P
t
(0)
3
λ
+ p
3
P
t
(0;1)
3
P
t
(0)
2
+2P
t
(0;1)
2
p
α
P
t
(0)
3
λ
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
3
λβ
βλ
P
t
(0;2)P
t
(0)
4
2P
t
(0;2)pP
t
(0;1)P
t
(0)
3
β
+ 5p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
+6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2
11p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0) 4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
2
+P
t
(0;1)P
t
(0)
4
p+ P
t
(0;1)P
t
(0)
4
λ
+ P
t
(0;1)P
t
(0)
4
α
+p
2
β
P
t
(0;1)
2
P
t
(0;2)P
t
(0)
2
p
2
P
t
(0;1)
3
P
t
(0)
2
P
t
(0;1)P
t
(0)
4
+P
t
(0;0)
λ
2
P
t
(0)
4
p
2
α
P
t
(0;1)
3
P
t
(0)
2
λ
+
αβ
P
t
(2;1)P
t
(0)
4
2p
4
P
t
(0;0)P
t
(0;1)
4
λ
+ p
4
P
t
(0;0)P
t
(0;1)
4
λ
2
+p
4
P
t
(0;0)P
t
(0;1)
4
P
t
(0;1)P
t
(0)
4
α
p P
t
(0;1)P
t
(0)
4
λ
p
+8p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
+ p
2
P
t
(0;1)
3
P
t
(0)
2
λ
p
3
P
t
(0;1)
3
P
t
(0)
2
λ
+2P
t
(0;1)
2
p
2
α
P
t
(0)
3
p
3
α
P
t
(0;1)
3
P
t
(0)
2
β
P
t
(2;1)P
t
(0)
4
P
t
(0;0)
λ
P
t
(0)
4
2P
t
(0;1)
2
pP
t
(0)
3
λ
+ 2P
t
(0;1)
2
p
2
P
t
(0)
3
λ
P
t
(0;1)P
t
(0)
4
αλ
1
P
t
(0)
4
; (5.19)
P
t+1
(0;2)
P
t
(0;2)P
t
(0)
2
β
p
3
α
P
t
(0;1)
3
P
t
(0;2)P
t
(0)
2
λ
+ P
t
(0;1)P
t
(0)
2
α
+2P
t
(0;2)pP
t
(0;1)P
t
(0)
λ
2P
t
(0;2)pP
t
(0;1)P
t
(0)
λβ
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
β
2P
t
(0;2)pP
t
(0;1)P
t
(0) 2P
t
(0;1)
2
p
α
P
t
(0) 2P
t
(0;1)
2
p
2
α
P
t
(0)
λ
+2P
t
(0;1)
2
p
α
P
t
(0)
λ
p
2
β
P
t
(0;1)
2
P
t
(0;2) + p
2
β
P
t
(0;1)
2
P
t
(0;2)
λ
+p
2
α
P
t
(0;1)
3
+ p
2
P
t
(0;2)P
t
(0;1)
2
β
2
P
t
(2;2)P
t
(0)
2
+P
t
(0;1)P
t
(0)
2
αλ
p p
2
P
t
(0;2)P
t
(0;1)
2
λ
p
2
α
P
t
(0;1)
3
λ
+p
3
α
P
t
(0;1)
3
λ
+
αβ
P
t
(2;1)P
t
(0)
2
+
βλ
P
t
(0;2)P
t
(0)
2
+2P
t
(0;1)
2
p
2
α
P
t
(0) P
t
(0;1)P
t
(0)
2
αλ
P
t
(0;1)P
t
(0)
2
α
p
+P
t
(0;2)P
t
(0)
2
+
β
P
t
(2;2)P
t
(0)
2
1
P
t
(0)
2
; (5.20)
5.1 ÁRVORE INFINITA 74
P
t+1
(1;1)
2P
t
(0;1)P
t
(0)
4
αλ
p 4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2
+ 4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
4P
t
(0;1)
2
p
2
P
t
(0)
3
+ 4P
t
(0;1)
2
pP
t
(0)
3
+ 2p
2
α
P
t
(0;1)
3
P
t
(0)
2
+2p
3
α
P
t
(0;1)
3
P
t
(0)
2
λ
4P
t
(0;1)
2
p
α
P
t
(0)
3
4P
t
(0;1)
2
p
2
α
P
t
(0)
3
λ
+4P
t
(0;1)
2
p
α
P
t
(0)
3
λ
+ 4p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
+ 6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0) 4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
2
+8p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
+ P
t
(1;1)P
t
(0)
4
+ P
t
(1;1)P
t
(0)
4
α
2
2P
t
(1;1)P
t
(0)
4
α
+2p
3
P
t
(0;1)
3
P
t
(0)
2
+ 2P
t
(0;1)P
t
(0)
4
p+ 2P
t
(0;1)P
t
(0)
4
λ
2p
2
α
P
t
(0;1)
3
P
t
(0)
2
λ
2p
4
P
t
(0;0)P
t
(0;1)
4
λ
+p
4
P
t
(0;0)P
t
(0;1)
4
λ
2
+ p
4
P
t
(0;0)P
t
(0;1)
4
2P
t
(0;1)P
t
(0)
4
α
p
2P
t
(0;1)P
t
(0)
4
λ
p+ 2p
2
P
t
(0;1)
3
P
t
(0)
2
λ
2p
3
P
t
(0;1)
3
P
t
(0)
2
λ
+4P
t
(0;1)
2
p
2
α
P
t
(0)
3
2p
3
α
P
t
(0;1)
3
P
t
(0)
2
4P
t
(0;1)
2
pP
t
(0)
3
λ
10p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2p
2
P
t
(0;1)
3
P
t
(0)
2
+ P
t
(0;0)
λ
2
P
t
(0)
4
+4P
t
(0;1)
2
p
2
P
t
(0)
3
λ
2P
t
(0;1)P
t
(0)
4
αλ
1
P
t
(0)
4
; (5.21)
P
t+1
(1;2)
p
3
α
P
t
(0;1)
3
P
t
(0;2)P
t
(0)
2
λ
P
t
(2;1)P
t
(0)
2
+ P
t
(2;1)P
t
(0)
2
α
P
t
(1;1)P
t
(0)
2
α
+ P
t
(1;1)P
t
(0)
2
α
2
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
λ
2P
t
(0;2)pP
t
(0;1)P
t
(0)
λβ
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
β
2P
t
(0;2)pP
t
(0;1)P
t
(0)
2P
t
(0;1)
2
p
α
P
t
(0) 2P
t
(0;1)
2
p
2
α
P
t
(0)
λ
+ 2P
t
(0;1)
2
p
α
P
t
(0)
λ
p
2
β
P
t
(0;1)
2
P
t
(0;2) + p
2
β
P
t
(0;1)
2
P
t
(0;2)
λ
+ p
2
α
P
t
(0;1)
3
+p
2
P
t
(0;2)P
t
(0;1)
2
+ P
t
(0;1)P
t
(0)
2
αλ
p p
2
P
t
(0;2)P
t
(0;1)
2
λ
p
2
α
P
t
(0;1)
3
λ
+ p
3
α
P
t
(0;1)
3
λ
αβ
P
t
(2;1)P
t
(0)
2
+
βλ
P
t
(0;2)P
t
(0)
2
+ 2P
t
(0;1)
2
p
2
α
P
t
(0) P
t
(0;1)P
t
(0)
2
αλ
P
t
(0;1)P
t
(0)
2
α
p+
β
P
t
(2;1)P
t
(0)
2
1
P
t
(0)
2
; (5.22)
P
t+1
(2;2)
α
2
P
t
(1;1) + 2
α
P
t
(2;1) 2
αβ
P
t
(2;1) + P
t
(2;2) 2
β
P
t
(2;2)
+
β
2
P
t
(2;2) . (5.23)
5.2 ATIVIDADE AUTO-SUSTENTADA 75
De maneira exatamente análoga a equação 5.13, tem-se que P
t
(0) é dado por:
P
t
(0) = P
t
(0;0) + P
t
(0;1) + P
t
(0;2) . (5.24)
Podemos resolver numericamente este sistema de equações (5.18-5.23) nesta mesma forma ou
ainda eliminando alguma destas equações através da condição de normalização:
P
t
(0;0) + P
t
(1;1) + P
t
(2;2) + 2P
t
(0;1) + 2P
t
(0;2) + 2P
t
(1;2) = 1 , (5.25)
obtendo-se o mesmo resultado, como esperado. Apesar da grande quantidade de termos nas
expressões, o esforço computacional é muito baixo comparando com a simulação ou ao campo
médio por camadas devido a pequena quantidade de equações. Os resultados desta aproxima-
ção são apresentados nas seções seguintes.
5.2 Atividade Auto-Sustentada
A aproximação de pares para uma árvore infinita pode ser realizada mediante um esforço al-
gébrico consideravelmente maior do que a aproximação de campo médio simples. Entretanto
não se conhecia a priori quão melhor seria esta segunda aproximação. Na realidade, mesmo
depois de solucionarmos este problema ainda não podemos compará-lo diretamente com os re-
sultados da simulação pois a aproximação trata somente do caso de infinitas camadas enquanto
as simulações são apenas para redes finitas.
No caso mais simples em que o sistema está livre de estímulos externos (r = 0), esta apro-
ximação, assim como a aproximação de campo médio simples, também pre uma transição de
fase de não-equilíbrio. A diferença aparece no valor da probabilidade crítica de transmissão de
estímulos (p
c
): para a aproximação de pares temos p
c
=
1
2
e para campo médio simples temos
p
c
=
1
3
, como podemos ver na figura 5.2. Novamente, o valor de F é definido por P
t
(1) quando
t e desta vez P
t
(1) é encontrado de forma semelhante a eq. (5.24):
P
t
(1) = P
t
(1;0) + P
t
(1;1) + P
t
(1;2) . (5.26)
Este resultado da aproximação de pares mostra-se bastante razoável quando levamos em
conta que cada elemento desta rede infinita possui exatamente três vizinhos e que uma onda de
excitação não pode ativar duas vezes o mesmo elemento, dada a escolha do parâmetro
α
= 1.
Ou seja, um elemento excitado poderá estimular apenas dois vizinhos efetivos, pois ele recebeu
5.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 76
esta excitação do terceiro vizinho que não estará mais susceptível. Desta forma, na criticali-
dade, um elemento excitável estimula, em média, um outro elemento e a razão de ramificação
é crítica (
σ
c
=
ζ
p
c
= 1), seção 3.3. O caso particular em que k = 1 equivale a uma rede
unidimensional onde cada elemento possui dois vizinhos. Assim, se uma excitação também
não puder voltar ao elemento excitador (
α
= 1) então cada elemento excitado possuirá ape-
nas um vizinho efetivo (
ζ
= 1). Neste caso temos p
c
= 1, como foi obtido anteriormente na
referência [20].
0
0.05
0.1
0.15
0.2
0.25
0 0.2 0.4 0.6 0.8 1
F(p)
p
Figura 5.2 Atividade auto sustentada também ocorre na solução das equações da aproximação de pares
em uma árvore infinita. Os círculos representam a aproximação de campo médio simples, na rede
infinita, com p
c
=
1
3
e os triângulos a aproximação de pares com p
c
=
1
2
.
5.3 Curvas de Resposta e Faixa Dinâmica
Devido à esta transição de fase de não equilíbrio, podemos esperar diferenças nos resultados da
aproximação de pares em relação às simulações tanto nas curvas de respostas quanto na faixa
dinâmica para valores de p > p
c
. As curvas de respostas obtidas nas aproximações aparecem
comparadas com as simulações em dois tamanhos distintos de árvores, G = 7 e G = 15, na
figura 5.3. Através dos gráficos superiores percebemos que as curvas de respostas das simula-
ções para p = 0.3 não variam para estes tamanhos de árvore tanto para F
0
quanto para F
T
, o
5.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 77
que está de acordo com os gráficos da figura 3.2. Além disso, esta aproximação de pares, para
uma rede infinita, descreve bem as curvas de respostas de F
0
. Nos gráficos inferiores aparecem
o comportamento crítico e supercrítico da aproximação de pares comparada com a simulação.
0
0.05
0.1
0.15
0.2
0.25
0.001 0.1 10
F
T
r
p =0.3
0
0.05
0.1
0.15
0.2
0.25
0.001 0.1 10
F
r
p =0.3
0
0.05
0.1
0.15
0.2
0.25
0.001 0.1 10
F
r
p =0.5
0
0.05
0.1
0.15
0.2
0.25
1e-05 0.001 0.1 10
F
r
p =0.7
Figura 5.3 Curvas de respostas: uma comparação entre as aproximações de pares (curva fechada) e
campo médio simples (tracejada) para árvores infinitas com os resultados das simulações G = 15 (cír-
culos) e G = 7 (triângulos). Acima e a esquerda os resultados das aproximações para p = 0.3 são
comparados com F
T
das simulações e à sua direita são comparados com a resposta do primeiro sítio,
F
0
. Verifica-se que os resultados da aproximação de pares correspondem à resposta F
0
das simulações
nos casos subcríticos, para valores de p p
c
. Abaixo: comparação das curvas de respostas F
0
com as
aproximações. À esquerda temos o caso crítico da aproximação de pares (supercrítico na aproximação
de campo médio simples). À direita, um caso supercrítico nas duas aproximações, que discordam das
simulações no regime de baixas intensidades de estímulos.
Estes resultados deixam explícito a melhora da aproximação de pares em relação ao campo
médio simples. Porém, a comparação desta aproximação de pares com às simulações ocorre
apenas de forma indireta. Deste modo, os resultados sugerem que também seja feita uma
comparação direta, i.e., realizar a aproximação de pares por camadas, que não podemos
5.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 78
realizar simulações em árvores infinitas. Este procedimento seria pouco mais de duas vezes
mais trabalhoso
4
do que esta aproximação de pares para uma rede infinita.
A correspondência das curvas de respostas de F
0
das simulações com esta aproximação de
pares da rede infinita também sugere uma explicação de por que as medidas de faixa dinâmica
de
0
são maiores que
T
para quase todos os valores de p
5
. As medidas realizadas na camada
0 minimizam os efeitos da borda, fig. 4.1 e desta forma o comportamento médio da rede toda
quando G aproxima-se do observado nesta primeira camada. Como a resposta da rede é
melhor quanto maior o número de camadas, figs. 3.3 e 3.4, a resposta na camada 0 distingue
melhor diferentes intensidades de estímulos que as camadas maiores. Esta é uma possível
explicação para a topologia do dendrito sendo que, em particular, funciona muito bem para a
grande árvore dendrítica da célula mitral, fig. 2.4.
Assim como nas aproximações de campo médio, a aproximação de pares concorda com os
resultados das simulações para p p
c
e a medida em que p cresce aproximando-se de p
c
a
aproximação de pares passa a discordar das simulações. Este comportamento pode ser melhor
visto na figura 5.4.
Nenhuma das duas aproximações prevê um crescimento tão grande de (p) como o que
ocorre nas simulações. Os resultados das aproximações concordam com a previsão da referên-
cia [37] que o processamento ótimo de informação (
max
) deve ocorrer em p = p
c
, onde p
c
é
determinado na fig. 5.2 e a curva de (p) está na fig. 5.4.
Um teste de consistência desta aproximação pode ser realizado. A confirmação do expoente
crítico foi verificada através da análise do expoente no gráfico log-log de F por r, fig. 5.5, pois
toda aproximação de campo médio apresenta um expoente
δ
1
h
= 0.5 na criticalidade [63].
4
Medido em relação ao número de coeficientes necessários, que é a maior dificuldade do procedimento, caso
seja realizado através da mesma solução numérica adotada nesta aproximação de pares.
5
Este é um resultado bastante robusto, observado em todos os casos, excetuando-se as regiões de p 1 onde o
efeito de backpropagation torna-se relevante, como mostram as figs. 3.2, 3.18, 3.19 e 4.4
5.3 CURVAS DE RESPOSTA E FAIXA DINÂMICA 79
15
20
25
30
35
40
45
50
55
60
0 0.2 0.4 0.6 0.8 1
(dB)
p
Figura 5.4 Comparação entre as faixas dinâmicas em função de p obtidas na simulação com G = 15
(pontos e linha), aproximação de pares (linha cheia) e aproximação de campo médio simples (linha
tracejada). Os picos das aproximações correspondem aos respectivos valores de p
c
, fig. 5.2.
1e-04
0.001
0.01
0.1
1
10
2
10
0
10
-2
10
-4
10
-6
F(r)
r
p
c
=0.5
r
0.5
Figura 5.5 Curva de resposta na criticalidade: encontramos o expoente crítico na aproximação de pares
δ
1
h
= 0.5, como esperado.
CAPÍTULO 6
Aplicação ao Sistema Olfatório
Este capítulo trata de uma aplicação do nosso modelo de árvore dendrítica ativa a um problema
mais específico, o processamento de intensidade de estímulos no sistema olfatório. Existem
dois importantes tipos de processamento de intensidades no bulbo olfatório. Um diz respeito
a intensidade de um dado estímulo, proveniente da resposta de uma certa família de neurônios
sensoriais específicos. O segundo corresponde a um processamento lateral, que compara as
intensidades de estímulos provenientes de diferentes famílias de neurônios sensoriais. Nosso
foco está concentrado apenas no primeiro tipo que ocorre, por hipótese, somente no glomérulo
olfatório (enquanto que o outro estaria presente em todo o bulbo olfatório (fig. 6.1), conectando
diferentes glomérulos).
Figura 6.1 O bulbo olfatório: Os dois principais processamentos de estímulos no bulbo olfatório po-
dem ocorrer em vários glomérulos (comparando diferentes tipos de estímulos) ou em apenas um glomé-
rulo (medindo a atividade de um única família de neurônios olfatórios sensoriais). Figura adaptada de:
http://www.colorado.edu/kines/Class/IPHY3430-200/image/figure6n.jpg.
80
6.1 ACOPLANDO ÁRVORES DENDRÍTICAS: MODELO DO GLOMÉRULO OLFATÓRIO 81
Para estudarmos este sistema nós modelamos o circuito neuronal glomerular conectando
os elementos considerados mais fundamentais deste processo. Diversas situações de grande
interesse surgem tanto do ponto de vista biológico, por ser mais realista, quanto do ponto
de vista físico, pela abertura de um leque de possibilidades para uma grande variedade de
efeitos. Vamos responder apenas a algumas das perguntas mais fundamentais, que motivaram
a proposta desta aplicação. Entretanto formularemos e deixaremos espaço para muitas novas
questões com graus de complexidade distintos.
6.1 Acoplando Árvores Dendríticas: Modelo do Glomérulo Olfatório
O glomérulo olfatório recebe toda entrada a partir dos neurônios sensoriais
1
e envia a saída
diretamente para o córtex olfatório [45]. Em todo o cérebro, este está entre os mais claros
exemplos do princípio de agrupamento de elementos neuronais e sinapses contidos em módulos
anatomicamente definidos.
Evocamos os princípios de convergência do bulbo olfatório (capítulo 2) para estimarmos
a quantidade de árvores e elementos excitáveis presentes em cada glomérulo. De acordo com
a anatomia do bulbo olfatório, modelamos um glomérulo composto por M = 20 árvores den-
dríticas do dendrito primário das células mitrais. Cada uma é representada por uma árvore
de Cayley de elementos excitáveis. Elas estão conectadas entre si através de junções comuni-
cantes [27, 65] (gap junctions) com eficiência média dada por p
J
e modelada como uma rede
bidirecional quase aleatória. Os elementos excitáveis pertencentes a uma árvore dendrítica têm
em média
ζ
J
vizinhos aleatórios exclusivamente de outras árvores acoplados eletricamente por
junções comunicantes. Devidoa restrição deste acoplamentoelétrico não conectar dois elemen-
tos da mesma árvore, a definição de rede aleatória não é satisfeita e por isso ela foi nomeada
rede quase-aleatória
2
.
Uma ilustração do modelo pode ser vista na figura 6.2 que mostra o glomérulo de forma
bastante simplificada. Alguns exemplos de todos os elementos neuronais considerados por este
trabalho estão contidos nesta representação, entretanto, os outros considerados menos relevan-
tes para este processamento foram omitidos.
O sistema formado por este conjunto de árvores dendríticas ativas acoplados por uma rede
1
Cujas ramificações axonais ocorrem apenas dentro do glomérulo. Esta arborização no glomérulo é espacial-
mente limitada envolvendo, em média, 7 ramificações e 8 botões terminais [64].
2
Note que no limite em que o número de camadas vai a zero, esta volta a ser uma rede aleatória.
6.1 ACOPLANDO ÁRVORES DENDRÍTICAS: MODELO DO GLOMÉRULO OLFATÓRIO 82
Figura 6.2 O glómerulo olfatório (círculo tracejado) e os elementos neuronais contidos em seu inte-
rior considerados neste modelo. As setas indicam a direção de chegada dos estímulos provenientes dos
neurônios sensoriais (em qualquer região das árvores dendríticas). Os círculos amarelos representam as
junções comunicantes, conexões bidirecionais com eficiência p
J
, presentes entre elementos excitáveis
escolhidos aleatoriamente em diferentes árvores dendríticas das células mitrais. Além disso, cada ele-
mento excitável possui em média
ζ
J
vizinhos por junções comunicantes. Por fim, a dinâmica de cada
dendrito ativo é a mesma descrita no capítulo 2. Figura gentilmente cedida por M. Copelli.
quase aleatória aumenta o espaço de parâmetros em três novos elementos (
ζ
J
, p
J
, M). Isto
altera a natureza do problema que anteriormente era exclusivamente um processo de contato
(p) e passa a ser dada por percolação (
ζ
J
) e contato (p e p
J
). Em um trabalho recente [37], foi
proposta uma rede aleatória excitável para descrever o aglomerado de elementos neuronais do
glomérulo. Isto corresponde ao caso particular em que a árvore dendrítica é formada apenas
pelo primeiro elemento. Desta forma, a generalização surge então como uma evolução natural
do estudo de dendritos ativos realizado na topologia de árvore. Este novo modelo tem a pro-
posta intrínseca de entender melhor as funções das junções comunicantes no processamento de
intensidades de estímulos no glomérulo.
6.2 CURVAS DE RESPOSTA E FAIXA DINÂMICA 83
6.2 Curvas de Resposta e Faixa Dinâmica
Esta arquitetura complexa de rede foi criada para estudarmos o efeito do acoplamento elétrico
via junções comunicantes no glomérulo. Em particular, a medida da faixa dinâmica é extrema-
mente importante para o melhor entendimento do processamento de intensidades de estímulos
do sistema olfatório. Novamente, a partir da atividade auto-sustentada observada, partindo-se
de uma condição inicial parcialmente estimulada, é possível descrever o comportamento do
sistema que apresenta uma transição de fase de não-equilíbrio. Esta situação, refletida nas cur-
vas de resposta, pode ser vista na figura 6.3. Os gráficos apresentam os três diferentes tipos
de curvas de respostas: um exemplo subcrítico, a curva aproximadamente crítica e um caso
supercrítico. É notável a distinção que pode ser feita entre os comportamentos das curvas de
respostas de F
0
e F
T
, pois as curvas de respostas de F
0
mostram-se muito mais sensíveis em
relação à variável p
J
.
Outro ponto interessante diz respeito à forma das curvas de respostas. Conforme p
J
vai
aumentando, as curvas vão perdendo as barrigas características de uma única árvore e vão
transformando-se em curvas sigmoidais simples como em uma rede aleatória. Ou seja, a di-
nâmica do sistema tende a ser dominada rapidamente pelo comportamento aleatório à medida
que a eficiência das junções comunicantes vai aumentando, mostrando-se muito mais robusto
que o comportamento de árvore de Cayley.
Isso sugere que o comportamento das junções comunicantes no glomérulo tem caracte-
rísticas distintas do observado na retina [60]. Nas curvas de resposta (figura 3.14) as barrigas
aparecem somente no caso em que acoplamento elétrico nos circuitos internos da retina (dia-
mantes). E quando realiza-se a medida em ratos geneticamente alterados, sem conexina 36 (que
é uma proteína fundamental para existência de um certo tipo de junção comunicante), a única
curva de resposta observada é a com menor faixa dinâmica e sem sinuosidade (triângulos). Este
nosso resultado poderia explicar o porque de não serem observadas experimentalmente estas
barrigas nas curvas de resposta do glomérulo [33, 66, 67].
Mesmo que sejam mantidos fixostodos os parâmetrosde controle dos estados não-susceptível
(
α
,
β
) e os parâmetros internos de cada árvore dendrítica (G, p), ainda permanecem dois parâ-
metroslivres(p
J
,
ζ
J
). Desta forma fixando um deles, o outropode levaro sistemapara qualquer
uma das possíveis fases. No caso da fig. 6.3, por exemplo, estava fixo o parâmetro
ζ
J
= 0.2.
Os mesmos tipos de comportamentos característicos podem ocorrer de forma semelhante para
outros valores, como podemos observar o caso
ζ
J
= 0.1 na figura 6.4.
6.2 CURVAS DE RESPOSTA E FAIXA DINÂMICA 84
0
0.05
0.1
0.15
0.2
0.25
10
1
10
-1
10
-3
10
-5
F
0
(r)
r
0
0.05
0.1
0.15
0.2
0.25
10
1
10
-1
10
-3
10
-5
F
T
(r)
r
Figura 6.3 Curvas de respostas de F
0
(acima) e F
T
(abaixo). Estão fixos os valores de
α
= 1,
β
= 0.5,
M = 20, G = 7,
ζ
J
= 0.2 e p = 0.7. Os três primeiros permanecem os mesmos em todo o capítulo e por
isso serão omitidos das próximas legendas. De cima para baixo temos: p
J
= 0.7, um caso supercrítico
(triângulos), p
J
= 0.3, que corresponde aproximadamente à situação crítica (círculos fechados) e p
J
= 0,
um caso subcrítico (círculos abertos). Podemos observar uma diferença muito maior entre as curvas de
respostas de F
0
em comparação com F
T
. Note que a barra de erro em todos os pontos é menor que o
símbolo utilizado.
6.2 CURVAS DE RESPOSTA E FAIXA DINÂMICA 85
0
0.05
0.1
0.15
0.2
0.25
10
1
10
-1
10
-3
10
-5
F
0
(r)
r
0
0.05
0.1
0.15
0.2
0.25
10
1
10
-1
10
-3
10
-5
F
T
(r)
r
Figura 6.4 Curvas de respostas de F
0
(acima) e F
T
(abaixo). Estão fixos os valores de G = 7,
ζ
J
= 0.1 e
p = 0.7. De cima para baixo temos: p
J
= 1 um caso supercrítico (triângulos), p
J
= 0.7, que corresponde
aproximadamente à situação crítica (círculos fechados) e p
J
= 0.4, um caso subcrítico (círculos abertos).
Mais uma vez, podemos observar uma diferença muito maior entre as curvas de respostas de F
0
em
comparação com F
T
.
Mantendo-se todos os parâmetros fixos e deixando variar apenas p
J
, medimos os valores de
faixa dinâmica a partir das curvas de resposta. Estes resultados estão apresentados na fig. 6.5
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 86
para
ζ
J
= 0.2 e
ζ
J
= 0.1. Note que em algumas situações, dependentes do valor crítico de
p
J
, a medida da faixa dinâmica pode ser até maior no caso desacoplado p
J
= 0 do que com
acoplamento muito grande (como é o caso de p
J
> 0.5 quando
ζ
J
= 0.2). Isto acontece porque
no caso desacoplado por junções comunicantes ainda ocorre o processamento típico da árvore
que é mais eficiente do que o processamento de uma rede aleatória, que essencialmente domina
a dinâmica quando a eficiência destes acoplamentos elétricos cresce muito.
Algumas semelhanças de parecem inevitáveis nos dois gráficos, por exemplo, em relação
ao pico na curva da faixa dinâmica ocorrer no caso crítico, todos os resultados concordam com
os resultados da referência [37] outra vez. O aumento máximo da faixa dinâmica
0
em relação
ao caso desacoplado é semelhante e comparável com o obtido somente pela rede aleatória
( 10dB), válido para todos os valores de p e G estudados, o que poderia ser considerado um
resultado bastante robusto. Isto motiva a previsão teórica de que, eliminando-se as junções
comunicantes, as medidas de faixa dinâmica na célula mitral deveriam cair uma década. Por
outro lado, no caso de considerarmos a medida da faixa dinâmica no glomérulo (
T
) pela
técnica de fluorescência de cálcio então a redução na faixa dinâmica seria muito pequena (
4dB). E a diferença pode até mesmo passar despercebida se a razão sinal-ruído presente no
experimento não for consideravelmente grande.
6.3 Transição de Fase e Comportamento Crítico
Por tratar-se de um sistema biológico, sujeito a milhões de anos de evolução, possivelmente
deveríamos encontrar na natureza um caso crítico que otimize o processamento de intensidades
de estímulos externos. Neste modelo aparece uma curva crítica, separando os dois regimes
(subcrítico e supercrítico), de casos distintos dos parâmetros
ζ
J
e p
J
para cada valor fixo de
p, G e M, como na figura 6.6. Supostamente, o escolhido seria o caso com maior eficiência
para o animal, ou seja, aquele que além de otimizar este processamento de informação tivesse
o menor custo energético.
Ainda com respeito a este gráfico da figura 6.6, podemos ver que a curva de atividade
auto-sustentada de F
0
que está acima de F
T
em todo intervalo parece apresentar uma transição
mais brusca. Isto indica que o expoente de transição conhecido na literatura por
β
[28] (para
evitar ambigüidades o chamaremos de
β
) e definido por F(r = 0) (p p
c
)
β
, para valores de
p > p
c
, pode ser diferente entre as duas curvas. É importante notar que quanto mais suave for
esta curva de transição, maior é este expoente crítico
β
(que cresce com a dimensionalidade
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 87
22
24
26
28
30
32
34
36
38
40
0 0.2 0.4 0.6 0.8 1
(dB)
p
J
0
T
22
24
26
28
30
32
34
36
38
40
0 0.2 0.4 0.6 0.8 1
(dB)
p
J
0
T
Figura 6.5 Medidas de faixa dinâmica
0
e
T
mantendo-se fixo G = 7 e p = 0.7. Acima temos (p
J
)
quando
ζ
J
= 0.2 e abaixo o caso
ζ
J
= 0.1. O aumento máximo da faixa dinâmica em relação ao caso
desacoplado nas medidas de
0
são mais de duas vezes maiores que os obtidos para
T
.
da rede nos processos de contato). Realizamos a medida deste expoente crítico que confirmou
a diferença entre as duas formas distintas de medidas, como pode ser visto na figura 6.7. Elas
sugerem que cada uma das medidas pode estar relacionada com valores de
β
tabelados para
diferentes dimensionalidades do sistema, caso não sejam anômalos .
A fim de entendermos melhor o papel da restrição utilizada na rede quase aleatória, de
uma junção comunicante não poder conectar elementos pertencentes à mesma árvore, tornou-
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 88
0
0.2
0.4
0.6
0.8
1
0
0.2
0.4
0.6
0.8
1
0.1
0.15
0.05
0
F(r=0)
ζ
J
p
J
F(r=0)
Figura 6.6 Diagrama de fase: Um exemplo de curva crítica que separa os dois regimes (subcrítico
e supercrítico). A superfície de cima é a medida de F
0
e a de baixo corresponde a medida em F
T
e
apresenta a curva de transição mais suave. Os parâmetros utilizados foram G = 10, p = 0.7.
10
-2
10
-1
10
0
10
-3
10
-2
10
-1
10
0
F
p
J
-p
J c
β’=0.29
β’=0.60
F
0
F
T
Figura 6.7 A comparação dos expoentes
β
para às duas medidas F
0
e F
T
indica que os valores
são bastante distintos. Não podemos deixar de notar a semelhança com os resultados conhecidos
na literatura [28] para o processo de contato em redes hipercúbicas d-dimensionais em d dimensões:
β
(d = 1) = 0.27649(4),
β
(d = 2) = 0.583(4). Este resultado corresponde aos parâmetros:
ζ
J
= 0.275,
p
Jc
= 0.195, p = 0.7 e G = 10.
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 89
se interessante realizarmos uma comparação direta. Neste sentido, mostramos na figura 6.8 (a)
a total equivalência nos diagramas de fase desta rede quase aleatória, utilizando nosso modelo
de árvores internamente desconectadas (p = 0, G = 7 e M = 20), com uma rede aleatória com
o mesmo número de sítios (M = 7640). Os círculos indicam a região da rede aleatória em
que não ocorre atividade auto-sustentada, as linhas verticais marcam apenas a região onde
atividade auto-sustentada da rede quase-aleatória e a curva: p
J
= 1/
ζ
J
, separa as duas regiões.
0
0.2
0.4
0.6
0.8
1
0 5 10 15 20 25 30
p
J
ζ
J
(a)
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
p
J
ζ
J
A
B
C
D
E
(b)
Figura 6.8 Diagrama de fase: exemplo de curva crítica que separa os dois regimes (subcrítico e super-
crítico). O gráfico de (a) mostra o mesmo resultado obtido em uma rede aleatória (marcada por círculos
na região livre de atividade) com uma rede quase-aleatória que apresenta a estrutura de árvore (G = 7)
desconectada (p = 0) e as junções comunicantes conectam elementos de árvores distintas. A região
ativa da rede quase aleatória aparece em listras verticais na figura e a transição é descrita pela função
p
J
= 1/
ζ
J
. Em (b), obtemos o mesmo comportamento: p
J
1/
ζ
J
, para outros valores fixos da variável
p no glomérulo. Os triângulos referem-se a p = 0.5 e os círculos a p = 0.7. Os pontos A, B, C, D e E
serão utilizados posteriormente para o cálculo dos expoentes críticos. Estava fixo o tamanho da árvore
(G = 7).
Atualmente sabe-se muito pouco acerca das regiões de conees entre as estruturas dos
elementos neuronais pertencentes ao glomérulo. Por isso, pode-se pensar, por exemplo, em
restringir as junções comunicantes a conectarem elementos de uma camada i com outros per-
tencentes a árvores distintas porém apenas desta mesma i-ésima camada. Isto é, será que pode-
ríamos incluir ainda mais restrições em nosso modelo e obter os mesmos resultados?
Na figura 6.8 (b), aumentamos o valor de p no caso da rede quase aleatória discutido acima
(G = 7, M = 20) e fizemos o diagrama de fase. Nos dois casos p = 0.5 (triângulos) e p = 0.7
(círculos), encontramos um comportamento similar ao observado para p = 0. A diferença
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 90
observada foi que com o aumento do valor de p, a transição de fase ocorre mais facilmente. As
curvas de transição ajustadas nos dois casos foram as seguintes:
p
J
(p = 0.5,G = 7,
ζ
J
) =
0.25
ζ
J
, (6.1)
p
J
(p = 0.7,G = 7,
ζ
J
) =
0.07
ζ
J
. (6.2)
Deixamos explícitos nestas funções a dependência dosparâmetros mais relevantes que gostaría-
mos de explorar mais adiante. Excluímos nesta análise a grandeza M, que não é relevante neste
caso pois a atividade auto-sustentada necessita de apenas duas árvores conectadas entre si para
ocorrer, de modo que o valor desta variável não altera significativamente este problema, como
veremos adiante na fig. 6.12. Alguns pontos aproximadamente críticos estão propositalmente
marcados na curva de transição de p = 0.7, o que corresponde a:
A:
ζ
J
= 0.2 , p
J
= 0.3 ,
B:
ζ
J
= 0.138 , p
J
= 0.52 ,
C:
ζ
J
= 0.1 , p
J
= 0.7 ,
D:
ζ
J
= 0.08 , p
J
= 0.85 ,
E:
ζ
J
= 0.06 , p
J
= 0.98 .
Uma análise das curvas de resposta nestes pontos (figura 6.9) indica que as mudanças na
faixa dinâmica são devidas somente à distância do ponto a curva crítica, pois toda curva diz
respeitoao mesmo tipo de comportamentocrítico de contato. Na figura 6.9, nós utilizamosestes
mesmos pontos para avaliar os expoentes críticos (
δ
1
h
) das curvas de resposta e tentar obter
alguma informação acerca da classe de universalidade deste modelo. Algumas das curvas (B e
C) mostraram-se ligeiramente supercríticas, e o ajuste foi realizado na curva de resposta mais
suave, considerada melhor, correspondente ao ponto D. Os resultados indicam que a medida
realizada em todos os elementos do glomérulo deveter um expoente crítico diferente do medido
em relação às respostas das células mitrais (F
0
).
Estes resultados poderiam estar relacionados apenas com efeitos de tamanho finito, presente
em qualquer sistema simulado, e relativamente difícil de tratar nesta topologia não-trivial. Para
tentar entender este efeito de diferentes expoentes críticos, realizamos o mesmo ajuste para
redes maiores. Mantendo-se o valor de p fixo, escolhemos o ponto com
ζ
J
= 0.27 e p
J
= 0.17
através da curva de transição da figura 6.6 que corresponde a árvores com G = 10. A figura 6.10
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 91
10
-4
10
-3
10
-2
10
-1
10
0
10
-6
10
-5
10
-4
10
-3
10
-2
10
-1
F
0
(r)
r
A
B
C
D
E
r
δ
h
-1
, δ
h
-1
=0.299 (4)
10
-4
10
-3
10
-2
10
-1
10
0
10
-6
10
-5
10
-4
10
-3
10
-2
10
-1
F
T
(r)
r
A
B
C
D
E
r
δ
h
-1
, δ
h
-1
=0.393 (2)
Figura 6.9 Curvas de resposta em escala logarítmica referentes aos pontos da fig. 6.8 (b) com G = 7
e p = 0.7. Assim como as diferentes inclinações para os dois casos (F
0
e F
T
) das curvas de atividade
auto-sustentável (figura 6.6), estes gráficos também sugerem que estas duas medidas podem pertencer
a classes de universalidade distintas. Em particular, o ajuste que julgamos mais confiável foi obtido
em relação ao ponto D, e o resultado é mostrado na figura: no caso F
0
encontramos
δ
1
h
= 0.30 e para
F
T
temos
δ
1
h
= 0.39. O erro estimado na gura foi obtido pelo método dos mínimos quadrados num
conjunto de 5 realizações. Devemos estimar um erro consideravelmente maior por causa do pequeno
intervalo em que foi realizado o ajuste nos dois casos [3· 10
5
,10
2
].
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 92
expõe os resultados das medidas para esta rede um pouco maior. Estes valores sugerem que
os expoentes críticos podem convergir para as grandezas conhecidas e tabeladas. Neste caso,
para F
0
seria
δ
1
h
0.285(35) enquanto que para F
T
δ
1
h
0.45(2) que correspondem aos
resultados conhecidos do processo de contato respectivamente em duas e três dimensões. Apa-
rentemente, a relação de F
0
associado a uma dimensão d e F
T
a uma d+1 foi mantida nos dois
expoentes, embora não tenha sido observada a esperada correspondência entre as dimensiona-
lidades dos expoentes
β
e
δ
1
h
. Esta provável anomalia é mais um resultado surpreendente
desta topologia. Seria preciso desenvolver uma metodologia confiável de análise de escala de
tamanho finito em uma rede não regular para determinar de forma precisa os expoentes desta
rede para e ter alguma certeza destas curiosas indicações.
10
-2
10
-1
10
0
10
-6
10
-5
10
-4
10
-3
10
-2
10
-1
F
0
(r)
r
r
δ
h
-1
, δ
h
-1
=0.291 (2)
10
-3
10
-2
10
-1
10
0
10
-6
10
-5
10
-4
10
-3
10
-2
10
-1
F
T
(r)
r
r
δ
h
-1
, δ
h
-1
=0.422 (2)
Figura 6.10 Expoentes críticos para redes maiores (G = 10, M = 20). A figura mostra as curvas de
resposta na escala log-log e os valores medidos do expoente crítico
δ
1
h
através do método númerico
de mínimos quadrados. Os resultados sugerem que o
δ
1
h
de F
0
estaria na classe de universalidade de
percolação direcionada em duas dimensões, enquanto que a mesma grandeza medida em relação a F
T
estaria na classe de universalidade de percolação direcionada em três dimensões. Este pequeno erro foi
estimado apenas pelo método numérico num conjunto de três realizações. O efeito de tamanho finito
aparenta ser muito menos importante no glomérulo do que no caso de uma árvore apenas, de forma que
a medida dos expoentes parece ainda mais confiável.
A diferença fundamental entre a medida de F
0
e F
T
acreditamos que seja devido aos ele-
mentos da última camada. Estima-se que o expoente
δ
1
h
medido para os elementos em F
G
,
somente da última camada, deva ser próximo de
1
2
devido a uma maior influência da rede alea-
tória para estes elementos
3
. Possivelmente esta seja a razão para a discordância dos expoentes
3
Esta é mais uma questão que realmente gostaríamos de investigar.
6.3 TRANSIÇÃO DE FASE E COMPORTAMENTO CRÍTICO 93
nas diferentes medidas. Mesmo que não pareça intuitivo, este resultado apresenta uma relação
consistente com os expoentes das curva da fig. 6.7, devido tanto à diferença dos expoentes
β
,
quanto com as curvas de faixa dinâmica (figura 6.5). Pela própria definição de faixa dinâmica,
como as curvas de resposta (por exemplo os casos das figs. 6.3, 6.4) saturam sempre para os
mesmos valores de r
0.9
1 o fator importante para a medida da faixa dinâmica é de fato a
sensibilidade do sistema no regime de estímulo fraco. Por este motivo, quando levamos em
conta os efeitos de tamanho finito (exemplos figs. 3.11, 3.12) concluímos que quanto maior
for o expoente
δ
1
h
maior será a intensidade de estímulos r
0.1
de saturação inferior, portanto,
menor será a medida da faixa dinâmica. Podemos, desta maneira, entender o resultado obtido
em uma rede hipercúbica [21] e também publicado por Kinouchi e Copelli [37], sem especifi-
car a geometria da rede. Estes trabalhos dizem que quanto menor a dimensionalidade da rede,
maior será a medida da faixa dinâmica, dado que os expoentes
δ
1
h
de processos de contato são
menores para dimensões menores. Note que este argumento é puramente geométrico, e não
precisamos nos valer de nenhuma hipótese adicional.
Nossos resultados neste sistema relativamente complexo empregado na modelagem do glo-
mérulo sugere uma constatação bastante intrigante. Caso estes resultados sejam confirmados
através da análise de tamanho finito (ou seja, a correta comparação entre sistemas de diferentes
tamanhos). Talvez seja possível que esta mesma topologia apresente um modelo que equivalha
a todas as dimensionalidades conhecidas apenas através dos parâmetros de contato p e p
J
. Para
o caso unidimensional, trabalhamos apenas com o caso crítico da árvore de Cayley fazendo
p
J
= 0 e p = 1, como vimos anteriormente na seção 3.3. Olhando para F
0
, um caso crítico com
p
J
> 0 e p > 0 possivelmente corresponde a duas dimensões, e quando medimos em relação
a F
T
teríamos o análogo a três dimensões. Quatro ou mais dimensões corresponde ao caso
da rede aleatória, ou mesmo da rede quase aleatória com p
J
> 0 e p = 0 (como no caso da
figura 6.11), onde
δ
1
h
=
1
2
. Note que todos estes resultados podem ser obtidos em meios
excitáveis devido a interação de ondas não lineares
4
, i.e., para uma topologia excitável (ativa).
Em contraposição, temos o caso linear, em que os elementos o ativam os vizinhos e não
interações entre ondas de excitação, o que corresponde a um caso passivo com expoente m = 1
(também mostrado na fig. 6.11), obtido através dos parâmetros p
J
= 0 e p = 0.
De certo modo, quanto mais conhecimento temos a respeito deste sistema, mais vantagens
percebemos nesta topologia. Uma vez determinada a estrutura, mesmo que seja mantida fixa,
poderia-se obter qualquer comportamento desejado, dentro dos limites conhecidos.
4
Conforme apresentado na página 11, seção 1.3.
6.4 RAZÃO DE RAMIFICAÇÃO COMO PARÂMETRO DE CONTROLE 94
10
-3
10
-2
10
-1
10
0
10
-5
10
-4
10
-3
10
-2
10
-1
10
0
10
1
F
T
(r)
r
r
1/2
10
-5
10
-4
10
-3
10
-2
10
-1
10
0
10
-5
10
-4
10
-3
10
-2
10
-1
10
0
10
1
F
T
(r)
r
r
Figura 6.11 Outros importantes expoentes conhecidos encontrados no glomérulo. À esquerda, o expo-
ente crítico (
δ
1
h
=
1
2
) para uma rede quase aleatória (p = 0, G = 10, p
J
= 0.2,
ζ
J
= 5) é exatamente o
mesmo o obtido para a rede aleatória [37], de acordo com a equivalência observada na fig. 6.8 (a). À
direita, o caso desacoplado em que a transmissão entre vizinhos não é ativa (p = 0, p
J
= 0). Nestes dois
casos as medidas de F
T
e F
0
são equivalentes, diferem apenas na quantidade de sítios.
6.4 Razão de Ramificação como Parâmetro de Controle
Outro ponto interessante é em relação à medida da razão de ramificação. Todos os resultados
obtidos na seção anterior dizem respeito somente a transição de fase e comportamento crítico.
Pela definição utilizada anteriormente, na seção 3.3, o caso crítico é determinado através da
situação em que a razão de ramificação de estímulos
σ
= 1. Isto indica que o comportamento
crítico, que otimiza o processamento de intensidades de estímulos sensoriais, acontece quando
em média para cada atividade que chega em um dado elemento um vizinho será excitado, não
superexcitando a rede com atividade de fundo e nem mantendo uma relação subcrítica que
dificulta a percepção de baixas intensidades de estímulos externos. Assim poderíamos tentar
determinar
σ
em função dos parâmetros do problema, como fizemos no capítulo 3. Neste caso,
levando-se em conta o mesmo argumento que o estímulo não pode voltar, para determinar o
número de vizinhos efetivos relativos a topologia da árvore, fazemos novamente:
σ
D
= p
ζ
. (6.3)
O índice "
D
" neste caso refere-se a árvore dendrítica e a equação é a mesma estudada anterior-
mente com
ζ
= 1, pois é uma média efetiva da árvore dendrítica.
6.4 RAZÃO DE RAMIFICAÇÃO COMO PARÂMETRO DE CONTROLE 95
Definimos agora, um resultado já conhecido na literatura [41, 37]:
σ
J
= p
J
ζ
J
, (6.4)
que também pode ser verificado na fig. 6.11, onde utilizamos esta mesma rede quase aleatória
que desejamos estudar em detalhe.
Na situação crítica, limiar entre a supercrítica e a subcrítica, que tem densidade nula de
elementos ativos no caso estacionário e no regime livre de estímulos externos, desprezamos
as interações entre as ondas de excitações. Desta forma, partindo-se da definição de razão
de ramificação, podemos supor que o número de vizinhos que um dado elemento estimulado
irá excitar é dado pelas atividades médias propagadas aos vizinhos pertencentes a mesma ár-
vore
σ
D
somadas com as atividades médias que estimulam os vizinhos por junções comuni-
cantes de outros sítios localizados em outras árvores dendríticas
σ
J
. Por exemplo, a situação
C da figura 6.8 (b) em que p = 0.7,
ζ
= 1,
ζ
J
= 0.1 e p
J
= 0.7 calculando-se
σ
c
, temos:
σ
=
σ
J
+
σ
D
= p
J
ζ
J
+ p
ζ
,
de modo que
σ
c
= 0.77.
E o valor obtido para a soma de
σ
J
com
σ
D
é menor do que 1 o que contradiz a definição
σ
c
= 1.
Entretanto, de acordo com nossas análises anteriores acerca das aproximações utilizadas,
capítulos 4 e 5, podemos definir o parâmetro de controle da árvore dendrítica, válido na aproxi-
mação de campo médio simples, por:
σ
D
=
ζ
p, e o conjunto de equações 4.8 para uma árvore
infinita pode ser reescrito da seguinte forma:
P
t+1
(1) P
t
(0)
1 (1
λ
)(1
σ
D
ζ
P
t
(1))
3
+ (1
α
)P
t
(1)
P
t+1
(2)
α
P
t
(1) + (1
β
)P
t
(2)
P
t+1
(0) 1 P
t
(1) P
t
(2) . (6.5)
Podemos fixar
α
= 1, como estudado neste capítulo, e obtemos no regime estacionário:
F P(0)
1 (1
λ
)(1
σ
D
ζ
F)
3
. (6.6)
Tomando o caso particular em que o sistema está livre de estímulos externos:
λ
0, F 0,
P(0) 1, e
σ
D
σ
Dc
:
σ
Dc
ζ
3
, (6.7)
como
ζ
é o mero efetivo de vizinhos, na aproximação de campo médio simples
ζ
= 3 pois
não é levado em consideração que os estímulos não podem voltar. Finalmente encontramos que
σ
Dc
1.
6.4 RAZÃO DE RAMIFICAÇÃO COMO PARÂMETRO DE CONTROLE 96
Analogamente, mantendo
α
= 1, pode-se realizar o mesmo procedimento somente para a
rede aleatória:
P
t+1
(1) P
t
(0)
1 (1
λ
)(1
σ
J
ζ
J
P
t
(1))
ζ
J
P
t+1
(2) P
t
(1) + (1
β
)P
t
(2)
P
t+1
(0) 1 P
t
(1) P
t
(2) . (6.8)
Novamente, no caso estacionário,
F P(0)
1 (1
λ
)(1
σ
J
ζ
J
F)
ζ
J
, (6.9)
e nos mesmos limites:
λ
0, F 0, P(0) 1, e
σ
J
σ
Jc
:
σ
Jc
1 , (6.10)
Chegamos onde queríamos, o caso da árvore infinita acoplada por rede aleatória. O sistema
de equações muda muito pouco, apenas considera a influência de todos os vizinhos relativos
conectados através das duas redes:
P
t+1
(1) P
t
(0)
1 (1
λ
)(1
σ
D
ζ
P
t
(1))
3
(1
σ
J
ζ
J
P
t
(1))
ζ
J
P
t+1
(2) P
t
(1) + (1
β
)P
t
(2)
P
t+1
(0) 1 P
t
(1) P
t
(2) . (6.11)
F P(0)
1 (1
λ
)(1
σ
D
ζ
F)
3
(1
σ
J
ζ
J
F)
ζ
J
. (6.12)
Tomando os mesmos limites para determinar o caso crítico:
λ
0, F 0, P(0) 1,
σ
D
σ
Dc
, e
σ
J
σ
Jc
, concluímos que a soma dos dois
σ
pode definir um outro parâmetro crítico
σ
c
=
σ
Dc
+
σ
Jc
, tal que:
σ
Dc
+
σ
Jc
1 , (6.13)
portanto
σ
c
1.
Concluimos assim que nossa aproximação de campo médio simples prevê uma relação
simples entre as razão de ramificação das duas redes que não é verificada nas simulações para
redes finitas. Também não corresponde à generalização dos resultados obtidos na aproximação
de pares.
Como no capítulo 5, Deveríamos esperar a relaçao
σ
c
=
σ
Dc
+
σ
Jc
p , onde o termo ne-
gativo representa o vizinho que não pode receber o estímulo de volta com a probabilidade dada
6.4 RAZÃO DE RAMIFICAÇÃO COMO PARÂMETRO DE CONTROLE 97
por p que seria uma média de p e p
J
ponderada respectivamente por
ζ
e
ζ
J
. Esta aproximação
de pares, se não for feita com cuidado, pode surpreendentemente apresentar resultados ainda
piores que a aproximação de campo médio simples. No caso de apenas a rede aleatória com
ζ
J
= 3, por exemplo, o conjunto de equações seria exatamente o mesmo obtido no capítulo 5
(eqs. 5.18-5.23), isto leva a p
Jc
=
1
2
, que é diferente do obtido nas simulações e corretamente
previsto pela aproximação de campo médio simples p
Jc
=
1
3
. Outro exemplo para este mesmo
conjunto de equações seria uma árvore com k = 1, ou seja, uma rede unidimensional em que
cada elemento possui dois vizinhos somados a uma rede aleatória com um vizinho em média
(
ζ
J
= 1). A correspondência seria completa apenas no caso em que p
J
= p. E mesmo assim,
novamente encontraríamos p
c
=
1
2
. Provavelmente o grande número de laços gerados por esta
topologia possibilita esta discordância.
Não sabemos contar este
σ
que acreditamos ter uma dependência não trivial em relação a
outros parâmetros do sistema, como podemos ver nos gráficos da figura 6.12. Surge assim o
interesse em determinar a função
σ
(G, p,M,
ζ
J
, p
J
,
α
,
β
)
5
para a nossa topologia e entender
como acontece esta relação entre redes formadas pela combinação de diferentes estruturas. A
idéia é, desta forma, estender esses estudos para outras topologias mais complexas.
5
A única relação estabelecida precisamente foi o produto das variáveis
ζ
J
e p
J
que define uma constante, como
podemos ver nas eqs. (6.1 e 6.2), ou graficamente na figura 6.12.
6.4 RAZÃO DE RAMIFICAÇÃO COMO PARÂMETRO DE CONTROLE 98
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
p
p
J
M=20
M=10
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
p
ζ
J
p
J
=1.0
p
J
=0.7
p
J
=0.5
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1
p
ζ
J
p
J
p
J
=1.0
p
J
=0.7
p
J
=0.5
Figura 6.12 Atividade auto-sustentada, somente a região ativa do diagrama de fase está marcada.
Acima, vemos em um gráfico de p(p
j
) a independência em relação ao número de árvores. No meio,
temos o comportamento para alguns valores de p
J
no gráfico de p(
ζ
J
), estas curvas podem colapsar
(abaixo) em apenas uma multiplicando-se o eixo
ζ
J
por p
J
, como esperado pelas equações (6.1 e 6.2),
pois este produto define uma constante.
CAPÍTULO 7
Conclusões e Perspectivas
"If I have seen further it is by standing on ye shoulders of Giants."
– Sir Isaac Newton
Este trabalho trata inicialmente do problema da codificação de intensidades de estímulo
através da computação dendrítica, que apresenta importância fundamental em árvores den-
dríticas grandes e com estrutura complexa. Modelamos uma árvore dendrítica espacialmente
uniforme ativa como uma árvore de Cayley de elementos excitáveis. Estudamos o comporta-
mento deste sistema através de simulações onde foi possível estimar a dependência de todos
os parâmetros e entender o efeito daqueles considerados mais relevantes. Tratamos este mo-
delo através de duas aproximações distintas (campo médio simples, campo médio de pares)
que ajudaram na compreenção do sistema. Por fim, fizemos uma aplicação na modelagem
de uma unidade do sistema sensorial do olfato, o glomérulo olfatório. Para tanto, conectamos
diversas árvores de Cayley através de ligações bidirecionais aleatoriamente posicionadas repre-
sentando as junções comunicantes. Este estudo confirma e extende os resultados de Kinouchi
e Copelli [37] além de abrir portas para uma série de novos estudos.
7.1 Conclusões
O estudo de uma árvore dendrítica possibilitou o melhor entendimento do problema do au-
mento da faixa dinâmica pelo glomérulo. Notamos que esta talvez seja a melhor topologia para
realizar este processamento, possivelmente por não possuir laços. Uma comparação entre os
modelos mostra que no caso em que as excitações dendríticas podem durar tempos variáveis
(
α
< 1), e o mesmo estímulo está livre para ir e voltar para qualquer elemento excitável, o
aumento da faixa dinâmica é o maior de todos para um dado tamanho de árvore.
O efeito de retropropagação aparece naturalmente em nosso modelo (proveniente da estru-
tura espacial da árvore dendrítica). Sua presença pode alterar de forma significativa as curvas
99
7.1 CONCLUSÕES 100
de respostas porém com uma influência menor para árvores dendríticas pequenas. No caso de
árvores muito grandes o modelo mostra que até mesmo a faixa dinâmica pode mudar devido a
este efeito.
Utilizando-nos de algumas semelhanças já bem estabelecidas entre o processamento de in-
formação no glomérulo olfatório e na retina foi possível encontrar padrões fundamentais como
curvas de respostas e faixas dinâmicas surpreendentemente parecidos. Talvez a principal van-
tagem do nosso modelo em relação a todas as outras possibilidades já estudadas tenha sido que
esta estrutura prediga curvas de respostas com barrigas similares às das medidas experimentais.
Como uma abordagem analítica, fizemos duas aproximações para a equação mestra que
governa a dinâmica da árvore dendrítica: campo médio simples e aproximação de pares. Esta
primeira aproximação, por ser mais simples, pode ser realizada com mais detalhes. Separamos
em dois tipos, um mais detalhado (por camadas) para árvores nitas e o caso ainda mais simples
da árvore infinita. Nesses dois casos obtemos atividade auto-sustentada e transições de fase
de não-equilíbrio em contraste com as simulações. As vantagens da separação em camadas
são: poder avaliar a atividade média das diferentes camadas, determinar as curvas de respostas
e faixa dinâmica para o sítio central (camada zero) e a média global da árvore dendrítica.
As medidas realizadas da atividade do elemento semente, tanto na árvore infinita como no
caso de camadas apresentam comportamentos semelhantes e o mesmo expoente
β
= 1, típico
da aproximação de campo médio. Assim, o máximo das medidas de faixa dinâmica neste
caso ocorre exatamente no caso crítico em que p = p
c
, como conjecturado por Kinouchi e
Copelli [37]. Por outro lado, o caso ótimo (com maior faixa dinâmica) medido para todos os
elementos (
δ
T
) está ligeiramente deslocado do valor crítico. Isso ocorre provavelmente devido
a diferença no expoente
β
(neste caso
β
> 1), o que deixa a transição de fase mais suave e a
intensidade da atividade auto-sustentada cresce mais lentamente, em relação a F
0
, para valores
de p maior que p
c
.
A aproximação de pares é realizada mediante um esforço algébrico consideravelmente
maior do que a aproximação de campo médio simples. Neste caso realizamos apenas a aproxi-
mação para a árvore dendrítica infinita. Acreditamos que nossos resultados foram muito bons
para este caso. Isto é, concordam completamente com as simulações no caso particular da rede
unidimensional [20] (k = 1) pois mostra-se sensível o suficiente para perceber que no regime
livre de estímulos externos as excitações que chegam a um dado sítio provem necessariamente
de um vizinho excitado.
Foi possível compreender melhor as funções das junções comunicantes no glomérulo. Com
7.2 PERSPECTIVAS 101
a aplicação ao glomérulo olfatório percebemos que a conexão de árvores dendríticas através de
uma rede aleatória aumenta as medidas de faixa dinâmica da lula mitral (
0
) em uma década.
O que motiva a previsão teórica de que, eliminando-se as junções do glomérulo olfatório, as
medidas de faixa dinâmica da célula mitral deveriam cair uma década. Entretanto as medidas,
caso sejam realizadas através da técnica de fluorescência de cálcio, que levam em conta so-
mente uma grande média no tempo e no espaço, (ou seja, corresponderia a uma medida de
T
)
devem apresentar uma queda de apenas 4 dB. Este valor, por ser muito pequeno, pode facil-
mente nem ser notado dependendo das condições em que as medidas são realizadas. As curvas
de resposta tendem a transformar-se em sigmóides simples perdendo as barrigas à medida em
que aumenta-se a eficiência das junções comunicantes. Este talvez seja o efeito responsável
por não observarmos tais barrigas nas curvas de respostas do glomérulo, o que poderia ser
verificado experimentalmente. Neste caso, mesmo que não hajam junções comunicantes, não
podemos garantir a presença das barrigas, isto dependeria da eficiência de transmissão de ativi-
dades internas de cada árvore dendrítica da célula mitral. Para esta aplicação, não foi possível
encaixar os resultados desta rede (árvores de Cayley acopladas aleatoriamente) em nenhuma
classe de universalidade conhecida o que sugere que tal rede ode definir uma nova classe de
universalidade. Outro problema deixado em aberto foi a determinação da razão de ramificação
efetiva nesta rede.
Nossos resultados sugerem que, no caso mais simples, de apenas uma árvore (em que o
sistema nunca chega no regime supercrítico) estaríamos na classe de universalidade da percola-
ção direcionada com dimensão d = 1. Note que, neste sistema p
c
= 1 de modo que não temos
acesso ao expoente
β
. Entretanto, todas as outras tentativas de determinar a classe de univer-
salidade do sistema mostram-se insatisfatórias, tanto no caso de uma árvore em que o mesmo
estímulo está livre para ir e voltar para qualquer elemento excitável quanto no caso do glomé-
rulo. Sabemos apenas que nestes dois últimos casos os valores medidos dependem fortemente
de como medimos, em relação a toda árvore dendrítica (F
T
) ou somente as células mitrais (F
0
).
7.2 Perspectivas
As perspectivas mais imediatas deste trabalho se referem às questões que ficaram em aberto
nesta dissertação:
1. A caracterização e medição de intensidades de estímulos retropropagados. Determinar,
7.2 PERSPECTIVAS 102
por exemplo, o que seria fundamental para o limiar que provocaria o cruzamento das
curvas de respostas e conseguir assim variar sua intensidade conforme a necessidade do
modelo proposto.
2. Entender melhor o diagrama de fase de
α
,
β
e p, bem como o que provoca a mudança
de classe de universalidade do sistema quando saímos de
α
= 1 para
α
< 1.
3. Continuar o cálculo sistematizado no capítulo 5 para obtermos a aproximação de pares
por camadas em uma árvore dendrítica. Como foi anteriormente sugerido, espera-se
assim compreender ainda melhor nosso modelo.
4. Determinar os valores da razão de ramificação global
σ
c
como função dos parâmetros
do modelo no glomérulo e no caso em que
α
< 1. Isso possibilitaria um melhor enten-
dimento do que de fato ocorre em redes formadas por combinações de outras estruturas
previamente conhecidas.
5. Entender a relação dos expoentes críticos nas situações de uma única árvore com
α
< 1
(com a maior faixa dinâmica encontrada neste trabalho) e no glomérulo. Em particu-
lar, parece bastante interessante comparar como as diferentes medidas influenciam os
expoentes obtidos, uma vez que a mudança ocorre de forma tão brusca.
6. Todos os casos estudados tiveram certas características essencialmente simples, como
é o caso da total uniformidade geométrica da árvore dendrítica. Seria possível realizar
os mesmos procedimentos incluindo alguns efeitos de desordem. Poderíamos introdu-
zir uma desordem congelada para as probabilidades de transmissão de estímulos p
j
i
1
, ou
seja, extrair os valores de p
j
i
, para cada conexão, a partir de uma distribuição P(p
j
i
). Po-
deríamos também introduzir desordem geométrica, eliminando-se aleatoriamente certos
ramos da árvore [68, 69]. Do ponto de vista biológico, seria interessante considerar a
árvore dendrítica como sendo uma estrutura dinâmica. Por exemplo, poderíamos enfra-
quecer ou fortalecer a eficiência das junções comunicantes conforme a evolução temporal
da atividade no glomérulo. Com esta dinâmica, talvezfosse possível produzir um cenário
de criticalidade auto-organizada, onde o sistema se manteria crítico (
σ
=
σ
c
) de forma
homeostática, o que acredita-se ocorrer no sistema nervoso.
7. Aplicar técnicas de análise de tamanho finito (finite size scaling) para determinarmos os
expoentescríticos com a maiorprecisão. As teoriasexistentesconsideram redesregulares
1
Neste caso precisaríamos de dois índices, um para a camada (i) e outro para cada elemento desta camada (j).
7.2 PERSPECTIVAS 103
(com dimensionalidade definida) e precisaríamos generalizar estas idéias paraaplicarmos
ao nosso problema com essas redes de Cayley acopladas. Assim poderíamos ter certeza
em que classe de universalidade estaria situado nossos sistemas.
8. Usando de pequenas árvoresdendríticas conectadas poderíamos tentarmodelar neurônios
piramidais do córtex e estudar as conseqüências da retropropagação neste modelo para
problemas de memória ou aprendizagem. Neste caso estaríamos tratando de uma forma
de modelagem mais fundamental que privilegia a relação entre neurônios, conectados
entre si e formados por dendritos ativos, onde a retropropagação surge naturalmente.
9. No mesmo sentido de algunsestudos que foram realizados [27], poderíamos facilmente
estudar os efeitos de sincronização entre células mitrais do mesmo glomérulo. Nosso
circuito simples do glomérulo incentiva a modelagem de pelo menos parte do bulbo ol-
fatório. Poderíamos estudar o efeito das sinapses laterais entre diferentes glomérulos
conectados através dos neurônios periglomerulares. Na literatura conjectura-se que tal
interação lateral é responsável pelo aumento do contraste de atividade entre glomérulos
próximos [70, 71]. Este é um problema muito discutido pelos biólogos, e possivelmente
nossa simplificação na dinâmica das atividades propicie uma maneira muito conveniente
de modelar o bulbo olfatório, um órgão com características bastante complexas.
APÊNDICE A
Detalhes do Cálculo das Equações de Pares
Este apêndice mostra passo a passo, uma possível forma de obtenção do conjunto de equa-
ções (5.18-5.23) a partir de (5.4-5.12) na aproximação de pares definida na página 68, eq. (5.1).
Lembramos que estamos utilizando da hipótese adicional que consideramos uma rede infinita,
eq. (5.16), o que implica na isotropia dos pares, eq. (5.17).
Portanto, a partir do conjunto de eqs. (5.4-5.12), podemos identificar os termos da segunda
consideração da pág. 70:
Γ
ξ
(0;0) =
i, j,k,ℓ=1
A
0
ξ
P
t
(i;0;0, j;k,) +
i, j,k=1
A
1
ξ
P
t
(i;0;0, j;k,1)
+A
2
ξ
P
t
(i;0;0, j;1, k) + A
3
ξ
P
t
(i;0;0,1; j, k) + A
4
ξ
P
t
(1;0;0,i; j, k)
+
i, j=1
A
5
ξ
P
t
(i;0;0, j;1, 1) + A
6
ξ
P
t
(i;0;0,1; j, 1) + A
7
ξ
P
t
(i;0;0,1;1, j)
+A
8
ξ
P
t
(1;0;0,i; j, 1) + A
9
ξ
P
t
(1;0;0,i;1, j) + A
10
ξ
P
t
(1;0;0,1;i, j)
+
i=1
A
11
ξ
P
t
(i;0;0,1;1, 1) + A
12
ξ
P
t
(1;0;0,i;1, 1) + A
13
ξ
P
t
(1;0;0,1;i, 1)
+A
14
ξ
P
t
(1;0;0,1;1, i)
+ A
15
ξ
P
t
(1;0;0,1;1, 1) (A.1)
Γ
ξ
(0;1) =
i, j=1
B
0
ξ
P
t
(i;0;1, j;) +
i=1
B
1
ξ
P
t
(i;0;1,1;) + B
2
ξ
P
t
(1;0;1,i;)
+B
3
ξ
P
t
(1;0;1,1;) (A.2)
104
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 105
Γ
ξ
(0;2) =
i, j=1
C
0
ξ
P
t
(i;0;2, j;) +
i=1
C
1
ξ
P
t
(i;0;2,1;) +C
2
ξ
P
t
(1;0;2,i;)
+C
3
ξ
P
t
(1;0;2,1;) (A.3)
Γ
ξ
(1;0) =
i, j=1
D
0
ξ
P
t
(;1;0;i, j) +
i=1
D
1
ξ
P
t
(;1;0;1, i) + D
2
ξ
P
t
(;1;0;i, 1)
+D
3
ξ
P
t
(;1;0;1, 1) (A.4)
Γ
ξ
(2;0) =
i, j=1
E
0
ξ
P
t
(;2;0;i, j) +
i=1
E
1
ξ
P
t
(;2;0;1, i) + E
2
ξ
P
t
(;2;0;i, 1)
+E
3
ξ
P
t
(;2;0;1, 1) (A.5)
Os somatórios das eqs. (A.1-A.5) podem ser expandidos através da condição de normaliza-
ção geral (pág. 26) por exemplo:
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 106
i, j,k,ℓ=1
P(i;a;b, j;k,) =
i, j,k=1
P(i;a;b, j;k,) P(i;a;b, j;k, 1)
=
i, j=1
P(i;a;b, j;) P(i;a;b, j;1,) P(i;a;b, j;,1) + P(i;a;b, j;1, 1)
=
i=1
P(i;a;b;) P(i;a;b, 1;) P(i;a;b,;1,) + P(i;a;b,1;1,)
P(i;a;b,;,1) + P(i;a;b,1;, 1) + P(i;a;b,;1, 1) P(i;a;b,1;1,1)
= P(;a;b,;) P(1;a;b,;) P(;a;b, 1;) + P(1;a;b, 1;) P(;a;b,;1,)
+P(1;a;b,;1,) + P(;a;b,1;1, ) P(1;a;b,1;1,) P(;a;b,;,1)
+P(1;a;b,;,1) + P(;a;b,1;, 1) P(1;a;b,1;,1) + P(;a;b,;1,1)
P(1;a;b,;1,1) P(;a;b,1;1,1) + P(1;a;b, 1;1,1) . (A.6)
Eliminando-se todos os somatórios da eq. (A.1), obtemos:
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 107
Γ
ξ
(0;0) = A
0
ξ
P
t
(;0;0;) + A
1
ξ
P
t
(1;0;0;) + A
2
ξ
P
t
(;0;0,1;)
+A
3
ξ
P
t
(;0;0;1, ) + A
4
ξ
P
t
(;0;0;,1) + A
5
ξ
P
t
(1;0;0,1;)
+A
6
ξ
P
t
(1;0;0;1, ) + A
7
ξ
P
t
(1;0;0;, 1) + A
8
ξ
P
t
(;0;0,1;1, )
+A
9
ξ
P
t
(;0;0,1;, 1) + A
10
ξ
P
t
(;0;0,;1, 1) + A
11
ξ
P
t
(1;0;0,1;1, )
+A
12
ξ
P
t
(1;0;0,1;, 1) + A
13
ξ
P
t
(1;0;0,;1, 1) + A
14
ξ
P
t
(;0;0,1;1, 1)
+A
15
ξ
P
t
(1;0;0,1;1, 1) , (A.7)
onde definimos:
A
1
ξ
A
4
ξ
A
0
ξ
; A
2
ξ
A
3
ξ
A
0
ξ
; A
3
ξ
A
2
ξ
A
0
ξ
; A
4
ξ
A
1
ξ
A
0
ξ
;
A
5
ξ
A
10
ξ
+ A
0
ξ
A
4
ξ
A
3
ξ
; A
6
ξ
A
9
ξ
+ A
0
ξ
A
4
ξ
A
2
ξ
; A
7
ξ
A
8
ξ
+ A
0
ξ
A
4
ξ
A
1
ξ
;
A
8
ξ
A
7
ξ
+ A
0
ξ
A
3
ξ
A
2
ξ
; A
9
ξ
A
6
ξ
+ A
0
ξ
A
3
ξ
A
1
ξ
; A
10
ξ
A
5
ξ
+ A
0
ξ
A
2
ξ
A
1
ξ
;
A
11
ξ
A
14
ξ
+ A
4
ξ
+ A
3
ξ
+ A
2
ξ
A
10
ξ
A
9
ξ
A
7
ξ
A
0
ξ
;
A
12
ξ
A
13
ξ
+ A
4
ξ
+ A
3
ξ
+ A
1
ξ
A
10
ξ
A
8
ξ
A
6
ξ
A
0
ξ
;
A
13
ξ
A
12
ξ
+ A
4
ξ
+ A
2
ξ
+ A
1
ξ
A
9
ξ
A
8
ξ
A
5
ξ
A
0
ξ
;
A
14
ξ
A
11
ξ
+ A
3
ξ
+ A
2
ξ
+ A
1
ξ
A
7
ξ
A
6
ξ
A
5
ξ
A
0
ξ
;
A
15
ξ
A
15
ξ
+ A
10
ξ
+ A
9
ξ
+ A
8
ξ
+ A
7
ξ
+ A
6
ξ
+ A
5
ξ
+ A
0
ξ
A
14
ξ
A
13
ξ
A
12
ξ
A
11
ξ
A
4
ξ
A
3
ξ
A
2
ξ
A
1
ξ
.
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 108
Fazendo o mesmo para as outras eqs. (A.2-A.5), temos:
Γ
ξ
(0;1) = B
0
ξ
P
t
(;0;1;) + B
1
ξ
P
t
(;0;1,1;) + B
2
ξ
P
t
(1;0;1,;)
+B
3
ξ
P
t
(1;0;1,1;) , (A.8)
definimos também:
B
1
ξ
B
1
ξ
B
0
ξ
;
B
2
ξ
B
2
ξ
B
0
ξ
;
B
3
ξ
B
3
ξ
+ B
0
ξ
B
2
ξ
B
1
ξ
.
Γ
ξ
(0;2) = C
0
ξ
P
t
(;0;2;) +C
1
ξ
P
t
(;0;2,1;) +C
2
ξ
P
t
(1;0;2,;)
+C
3
ξ
P
t
(1;0;2,1;) , (A.9)
desta mesma forma:
C
1
ξ
C
1
ξ
C
0
ξ
;
C
2
ξ
C
2
ξ
C
0
ξ
;
C
3
ξ
C
3
ξ
+C
0
ξ
C
2
ξ
C
1
ξ
.
Γ
ξ
(1;0) = D
0
ξ
P
t
(;1;0;) + D
1
ξ
P
t
(;1;0,1;) + D
2
ξ
P
t
(1;1;0,;)
+D
3
ξ
P
t
(1;1;0,1;) , (A.10)
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 109
análogamente:
D
1
ξ
D
1
ξ
D
0
ξ
;
D
2
ξ
D
2
ξ
D
0
ξ
;
D
3
ξ
D
3
ξ
+ D
0
ξ
D
2
ξ
D
1
ξ
.
Γ
ξ
(2;0) = E
0
ξ
P
t
(;2;0;) + E
1
ξ
P
t
(;2;0,1;) + E
2
ξ
P
t
(1;2;0,;)
+E
3
ξ
P
t
(1;2;0,1;) , (A.11)
e de maneira similar:
E
1
ξ
E
1
ξ
E
0
ξ
;
E
2
ξ
E
2
ξ
E
0
ξ
;
E
3
ξ
E
3
ξ
+ E
0
ξ
E
2
ξ
E
1
ξ
.
Para encontrar o valor de cada uma dessas constantes realizamos o mesmo procedimento.
Por exemplo na eq. (5.12), a probabilidade do par que encontra-se no estado P
t
(1;2) passar
para o estado P
t+1
(2;2) é dada por
α
(1
β
), i.e., a probabilidade
α
do primeiro elemento do
par passar do estado 1 para o estado 2 vezes a probabilidade (1
β
) do elemento que estava
em 2 permanecer neste mesmo estado. Desta forma, determinamos o valor da constante G
9
:
G
9
=
α
(1
β
) . (A.12)
Com este mesmo raciocínio, determinamos as outras constantes da eq. (5.12):
F
9
=
α
2
; H
9
= (1
β
)
α
; J
9
= (1
β
)
2
.
De maneira similar, obtemos todas as outras constantes das eqs. (5.11-5.4):
J
8
= (1
β
)
β
; H
8
=
αβ
; C
0
8
= (1
λ
)(1
β
) ; C
1
8
= (1
λ
)(1 p)(1
β
) ;
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 110
C
2
8
= (1
λ
)(1 p)(1
β
) ; C
3
8
= (1
λ
)(1 p)
2
(1
β
) ; B
0
8
= (1
λ
)(1 p)
α
;
B
1
8
= (1
λ
)(1 p)
2
α
; B
2
8
= (1
λ
)(1 p)
2
α
; B
3
8
= (1
λ
)(1 p)
3
α
;
J
7
=
β
(1
β
) ; G
7
=
αβ
; E
0
7
= (1
β
)(1
λ
) ; E
1
7
= (1
β
)(1
λ
)(1 p) ;
E
2
7
= (1
β
)(1
λ
)(1 p) ; E
3
7
= (1
β
)(1
λ
)(1 p)
2
; D
0
7
=
α
(1
λ
)(1 p) ;
D
1
7
=
α
(1
λ
)(1 p)
2
; D
2
7
=
α
(1
λ
)(1 p)
2
; D
3
7
=
α
(1
λ
)(1 p)
3
.
Não é difícil perceber que para cada uma das constantes da eq. (5.11) existe uma constante
exatamente análoga na eq. (5.10), como previsto anteriormente na eq. (5.17). Esta equiva-
lência também ocorre entre os pares de equações (5.5-5.6) e (5.8-5.9). Continuando com o
processo de determinação das constantes das equações restantes que não se tornaram redun-
dantes, temos ainda:
H
6
= (1
α
)(1
β
) ; F
6
=
α
(1
α
) ; E
3
6
= (1
β
)
1 (1
λ
)(1 p)
2
;
E
2
6
= (1
β
)(1 (1
λ
)(1 p)) ; E
1
6
= (1
β
)(1 (1
λ
)(1 p)) ; E
0
6
= (1
β
)
λ
;
D
0
6
=
α
(1 (1
λ
)(1 p)) ; D
1
6
=
α
1 (1
λ
)(1 p)
2
;
D
2
6
=
α
1 (1
λ
)(1 p)
2
; D
3
6
=
α
1 (1
λ
)(1 p)
3
;
F
4
= (1
α
)
2
; D
0
4
= (1
α
)(1 (1
λ
)(1 p)) ; D
1
4
= (1
α
)
1 (1
λ
)(1 p)
2
;
D
2
4
= (1
α
)
1 (1
λ
)(1 p)
2
; D
3
4
= (1
α
)
1 (1
λ
)(1 p)
3
;
B
0
4
= (1
α
)(1 (1
λ
)(1 p)) ; B
1
4
= (1
α
)
1 (1
λ
)(1 p)
2
;
B
2
4
= (1
α
)
1 (1
λ
)(1 p)
2
; B
3
4
= (1
α
)
1 (1
λ
)(1 p)
3
;
A
0
4
=
λ
2
; A
1
4
=
λ
(1 (1
λ
)(1 p)) ; A
2
4
=
λ
(1 (1
λ
)(1 p)) ;
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 111
A
3
4
=
λ
(1 (1
λ
)(1 p)) ; A
4
4
=
λ
(1 (1
λ
)(1 p)) ;
A
5
4
=
λ
1 (1
λ
)(1 p)
2
; A
6
4
= (1 (1
λ
)(1 p))
2
;
A
7
4
= (1 (1
λ
)(1 p))
2
; A
8
4
= (1 (1
λ
)(1 p))
2
;
A
9
4
=
1 (1
λ
)(1 p)
2
2
; A
10
4
=
λ
1 (1
λ
)(1 p)
2
;
A
11
4
= (1 (1
λ
)(1 p))
1 (1
λ
)(1 p)
2
;
A
12
4
= (1 (1
λ
)(1 p))
1 (1
λ
)(1 p)
2
;
A
13
4
= (1 (1
λ
)(1 p))
1 (1
λ
)(1 p)
2
;
A
14
4
= (1 (1
λ
)(1 p))
1 (1
λ
)(1 p)
2
; A
15
4
=
1 (1
λ
)(1 p)
2
2
;
G
3
=
β
(1
α
) ; C
0
3
=
βλ
; C
1
3
=
β
(1 (1
λ
)(1 p)) ;
C
2
3
=
β
(1 (1
λ
)(1 p)) ; C
3
3
=
β
1 (1
λ
)(1 p)
2
;
D
0
3
= (1
α
)(1
λ
)(1 p) ; D
1
3
= (1
α
)(1
λ
)(1 p)
2
;
D
2
3
= (1
α
)(1
λ
)(1 p)
2
; D
3
3
= (1
α
)(1
λ
)(1 p)
3
;
A
0
3
=
λ
(1
λ
) ; A
1
3
=
λ
(1
λ
)(1 p) ; A
2
3
=
λ
(1
λ
)(1 p) ;
A
3
3
= (1
λ
)(1 (1
λ
)(1 p)) ; A
4
3
= (1
λ
)(1 (1
λ
)(1 p)) ;
A
5
3
=
λ
(1
λ
)(1 p)
2
; A
6
3
= (1 (1
λ
)(1 p))(1
λ
)(1 p) ;
A
7
3
= (1 (1
λ
)(1 p))(1
λ
)(1 p) ; A
8
3
= (1 (1
λ
)(1 p))(1
λ
)(1 p) ;
A
9
3
= (1 (1
λ
)(1 p))(1
λ
)(1 p) ; A
10
3
= (1
λ
)
1 (1
λ
)(1 p)
2
;
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 112
A
11
3
= (1 (1
λ
)(1 p))(1
λ
)(1 p)
2
;
A
12
3
= (1 (1
λ
)(1 p))(1
λ
)(1 p)
2
;
A
13
3
=
1 (1
λ
)(1 p)
2
(1
λ
)(1 p) ;
A
14
3
=
1 (1
λ
)(1 p)
2
(1
λ
)(1 p)
A
15
3
=
1 (1
λ
)(1 p)
2
(1
λ
)(1 p)
2
J
1
=
β
2
; E
0
1
=
β
(1
λ
) ; E
1
1
=
β
(1
λ
)(1 p) ; E
2
1
=
β
(1
λ
)(1 p) ;
E
3
1
=
β
(1
λ
)(1 p)
2
; C
0
1
=
β
(1
λ
) ; C
1
1
=
β
(1
λ
)(1 p) ;
C
2
1
=
β
(1
λ
)(1 p) ; C
3
1
=
β
(1
λ
)(1 p)
2
;
A
0
1
= (1
λ
)
2
; A
1
1
= (1
λ
)
2
(1 p) ; A
2
1
= (1
λ
)
2
(1 p) ;
A
3
1
= (1
λ
)
2
(1 p) ; A
4
1
= (1
λ
)
2
(1 p) ; A
5
1
= (1
λ
)
2
(1 p)
2
;
A
6
1
= (1
λ
)
2
(1 p)
2
; A
7
1
= (1
λ
)
2
(1 p)
2
; A
8
1
= (1
λ
)
2
(1 p)
2
;
A
9
1
= (1
λ
)
2
(1 p)
2
; A
10
1
= (1
λ
)
2
(1 p)
2
; A
11
1
= (1
λ
)
2
(1 p)
3
;
A
12
1
= (1
λ
)
2
(1 p)
3
; A
13
1
= (1
λ
)
2
(1 p)
3
; A
14
1
= (1
λ
)
2
(1 p)
3
;
A
15
1
= (1
λ
)
2
(1 p)
4
.
Utilizando-nos agora de um pouco de álgebra, podemos determinar os coeficientes das
eqs. (A.7-A.11):
B
1
8
= p
α
(1
λ
)(1 p) ; B
2
8
= p
α
(1
λ
)(1 p) ; B
3
8
= p
2
α
(1
λ
)(1 p) ;
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 113
C
1
8
= p(1
λ
)(1
β
) ; C
2
8
= p(1
λ
)(1
β
) ; C
3
8
= p
2
(1
λ
)(1
β
) ;
D
1
6
= p
α
(1
λ
)(1 p) ; D
2
6
= p
α
(1
λ
)(1 p) ; D
3
6
= p
2
α
(1
λ
)(1 p) ;
E
1
6
= p(1
λ
)(1
β
) ; E
2
6
= p(1
λ
)(1
β
) ; E
3
6
= p
2
(1
λ
)(1
β
) ;
D
1
4
= p(1
α
)(1
λ
)(1 p) ; D
2
4
= p(1
α
)(1
λ
)(1 p) ;
D
3
4
= p
2
(1
α
)(1
λ
)(1 p) ; B
1
4
= p(1
α
)(1
λ
)(1 p) ;
B
2
4
= p(1
α
)(1
λ
)(1 p) ; B
3
4
= p
2
(1
α
)(1
λ
)(1 p) ;
A
1
4
= p
λ
(1
λ
) ; A
2
4
= p
λ
(1
λ
) ; A
3
4
= p
λ
(1
λ
) ;
A
4
4
= p
λ
(1
λ
) ; A
5
4
= p
2
λ
(1
λ
) ; A
6
4
= p
2
(1
λ
)
2
;
A
7
4
= p
2
(1
λ
)
2
; A
8
4
= p
2
(1
λ
)
2
; A
9
4
= p
2
(1
λ
)
2
;
A
10
4
= p
2
λ
(1
λ
) ; A
11
4
= p
3
(1
λ
)
2
; A
12
4
= p
3
(1
λ
)
2
;
A
13
4
= p
3
(1
λ
)
2
; A
14
4
= p
3
(1
λ
)
2
; A
15
4
= p
4
(1
λ
)
2
;
D
1
3
= p(1
α
)(1
λ
)(1 p) ; D
2
3
= p(1
α
)(1
λ
)(1 p) ;
D
3
3
= p
2
(1
α
)(1
λ
)(1 p) ; C
1
3
= p
β
(1
λ
) ;
C
2
3
= p
β
(1
λ
) ; C
3
3
= p
2
β
(1
λ
) ;
A
1
3
= p(1
λ
)
2
; A
2
3
= p(1
λ
)
2
; A
3
3
= p
λ
(1
λ
) ;
A
4
3
= p
λ
(1
λ
) ; A
5
3
= p
2
(1
λ
)
2
; A
6
3
= p
2
(1
λ
)
2
;
A
7
3
= p
2
(1
λ
)
2
; A
8
3
= p
2
(1
λ
)
2
; A
9
3
= p
2
(1
λ
)
2
;
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 114
A
10
3
= p
2
λ
(1
λ
) ; A
11
3
= p
3
(1
λ
)
2
; A
12
3
= p
3
(1
λ
)
2
;
A
13
3
= p
3
(1
λ
)
2
; A
14
3
= p
3
(1
λ
)
2
; A
15
4
= p
4
(1
λ
)
2
;
E
1
1
= p(1
λ
)
β
; E
2
1
= p(1
λ
)
β
; E
3
1
= p
2
(1
λ
)
β
;
C
1
1
= p(1
λ
)
β
; C
2
1
= p(1
λ
)
β
; C
3
1
= p
2
(1
λ
)
β
;
A
1
1
= p(1
λ
)
2
; A
2
1
= p(1
λ
)
2
; A
3
1
= p
λ
(1
λ
) ;
A
4
1
= p(1
λ
)
2
; A
5
1
= p
2
(1
λ
)
2
; A
6
1
= p
2
(1
λ
)
2
;
A
7
1
= p
2
(1
λ
)
2
; A
8
1
= p
2
(1
λ
)
2
; A
9
1
= p
2
(1
λ
)
2
;
A
10
1
= p
2
λ
(1
λ
) ; A
11
1
= p
3
(1
λ
)
2
; A
12
1
= p
3
(1
λ
)
2
;
A
13
1
= p
3
(1
λ
)
2
; A
14
1
= p
3
(1
λ
)
2
; A
15
1
= p
4
(1
λ
)
2
.
Para deixarexplícitoapenas os parâmetros do modelo, capítulo2, apenas substituimostodos
estes coeficientes acima nas equações que os definem (5.4-5.12) e (A.7-A.11), obtendo-se deste
modo:
P
t
(0;0)
P
t
(0;0)P
t
(0)
4
2P
t
(0;0)
λ
P
t
(0)
4
+ P
t
(0;0)
λ
2
P
t
(0)
4
4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
+8pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2
+6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
12p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
+6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0) + 8p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
2
+ p
4
P
t
(0;0)P
t
(0;1)
4
2p
4
P
t
(0;0)P
t
(0;1)
4
λ
+p
4
P
t
(0;0)P
t
(0;1)
4
λ
2
+ 2
β
P
t
(0)2P
t
(0)
4
2
βλ
P
t
(0)2P
t
(0)
4
4P
t
(0)2pP
t
(0;1)P
t
(0)
3
β
+ 4P
t
(0)2pP
t
(0;1)P
t
(0)
3
λβ
+2p
2
β
P
t
(0;1)
2
P
t
(0)2P
t
(0)
2
2p
2
β
P
t
(0;1)
2
P
t
(0)2P
t
(0)
2
λ
+
β
2
P
t
(2;2)P
t
(0)
4
1
P
t
(0)
4
; (A.13)
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 115
P
t+1
(0;1)
P
t
(0;1)P
t
(0)
4
αλ
p 2pP
t
(0;0)P
t
(0;1)P
t
(0)
3
4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2
+6pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2P
t
(0;1)
2
p
2
P
t
(0)
3
+ 2P
t
(0;1)
2
pP
t
(0)
3
p
2
β
P
t
(0;1)
2
P
t
(0;2)P
t
(0)
2
λ
+ p
2
α
P
t
(0;1)
3
P
t
(0)
2
+ p
3
α
P
t
(0;1)
3
P
t
(0)
2
λ
2P
t
(0;1)
2
p
α
P
t
(0)
3
2P
t
(0;1)
2
p
2
α
P
t
(0)
3
λ
+ p
3
P
t
(0;1)
3
P
t
(0)
2
+2P
t
(0;1)
2
p
α
P
t
(0)
3
λ
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
3
λβ
βλ
P
t
(0;2)P
t
(0)
4
2P
t
(0;2)pP
t
(0;1)P
t
(0)
3
β
+ 5p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
+6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2
11p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0) 4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
2
+P
t
(0;1)P
t
(0)
4
p+ P
t
(0;1)P
t
(0)
4
λ
+ P
t
(0;1)P
t
(0)
4
α
+p
2
β
P
t
(0;1)
2
P
t
(0;2)P
t
(0)
2
p
2
P
t
(0;1)
3
P
t
(0)
2
P
t
(0;1)P
t
(0)
4
+P
t
(0;0)
λ
2
P
t
(0)
4
p
2
α
P
t
(0;1)
3
P
t
(0)
2
λ
+
αβ
P
t
(2;1)P
t
(0)
4
2p
4
P
t
(0;0)P
t
(0;1)
4
λ
+ p
4
P
t
(0;0)P
t
(0;1)
4
λ
2
+p
4
P
t
(0;0)P
t
(0;1)
4
P
t
(0;1)P
t
(0)
4
α
p P
t
(0;1)P
t
(0)
4
λ
p
+8p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
+ p
2
P
t
(0;1)
3
P
t
(0)
2
λ
p
3
P
t
(0;1)
3
P
t
(0)
2
λ
+2P
t
(0;1)
2
p
2
α
P
t
(0)
3
p
3
α
P
t
(0;1)
3
P
t
(0)
2
β
P
t
(2;1)P
t
(0)
4
P
t
(0;0)
λ
P
t
(0)
4
2P
t
(0;1)
2
pP
t
(0)
3
λ
+ 2P
t
(0;1)
2
p
2
P
t
(0)
3
λ
P
t
(0;1)P
t
(0)
4
αλ
1
P
t
(0)
4
; (A.14)
P
t+1
(0;2)
P
t
(0;2)P
t
(0)
2
β
p
3
α
P
t
(0;1)
3
P
t
(0;2)P
t
(0)
2
λ
+ P
t
(0;1)P
t
(0)
2
α
+2P
t
(0;2)pP
t
(0;1)P
t
(0)
λ
2P
t
(0;2)pP
t
(0;1)P
t
(0)
λβ
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
β
2P
t
(0;2)pP
t
(0;1)P
t
(0) 2P
t
(0;1)
2
p
α
P
t
(0) 2P
t
(0;1)
2
p
2
α
P
t
(0)
λ
+2P
t
(0;1)
2
p
α
P
t
(0)
λ
p
2
β
P
t
(0;1)
2
P
t
(0;2) + p
2
β
P
t
(0;1)
2
P
t
(0;2)
λ
+p
2
α
P
t
(0;1)
3
+ p
2
P
t
(0;2)P
t
(0;1)
2
β
2
P
t
(2;2)P
t
(0)
2
+P
t
(0;1)P
t
(0)
2
αλ
p p
2
P
t
(0;2)P
t
(0;1)
2
λ
p
2
α
P
t
(0;1)
3
λ
+p
3
α
P
t
(0;1)
3
λ
+
αβ
P
t
(2;1)P
t
(0)
2
+
βλ
P
t
(0;2)P
t
(0)
2
+2P
t
(0;1)
2
p
2
α
P
t
(0) P
t
(0;1)P
t
(0)
2
αλ
P
t
(0;1)P
t
(0)
2
α
p
+P
t
(0;2)P
t
(0)
2
+
β
P
t
(2;2)P
t
(0)
2
1
P
t
(0)
2
; (A.15)
APÊNDICE A DETALHES DO CÁLCULO DAS EQUAÇÕES DE PARES 116
P
t+1
(1;1)
2P
t
(0;1)P
t
(0)
4
αλ
p 4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
2
+ 4pP
t
(0;0)P
t
(0;1)P
t
(0)
3
λ
4P
t
(0;1)
2
p
2
P
t
(0)
3
+ 4P
t
(0;1)
2
pP
t
(0)
3
+ 2p
2
α
P
t
(0;1)
3
P
t
(0)
2
+2p
3
α
P
t
(0;1)
3
P
t
(0)
2
λ
4P
t
(0;1)
2
p
α
P
t
(0)
3
4P
t
(0;1)
2
p
2
α
P
t
(0)
3
λ
+4P
t
(0;1)
2
p
α
P
t
(0)
3
λ
+ 4p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
+ 6p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2
4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0) 4p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
2
+8p
3
P
t
(0;1)
3
P
t
(0;0)P
t
(0)
λ
+ P
t
(1;1)P
t
(0)
4
+ P
t
(1;1)P
t
(0)
4
α
2
2P
t
(1;1)P
t
(0)
4
α
+2p
3
P
t
(0;1)
3
P
t
(0)
2
+ 2P
t
(0;1)P
t
(0)
4
p+ 2P
t
(0;1)P
t
(0)
4
λ
2p
2
α
P
t
(0;1)
3
P
t
(0)
2
λ
2p
4
P
t
(0;0)P
t
(0;1)
4
λ
+p
4
P
t
(0;0)P
t
(0;1)
4
λ
2
+ p
4
P
t
(0;0)P
t
(0;1)
4
2P
t
(0;1)P
t
(0)
4
α
p
2P
t
(0;1)P
t
(0)
4
λ
p+ 2p
2
P
t
(0;1)
3
P
t
(0)
2
λ
2p
3
P
t
(0;1)
3
P
t
(0)
2
λ
+4P
t
(0;1)
2
p
2
α
P
t
(0)
3
2p
3
α
P
t
(0;1)
3
P
t
(0)
2
4P
t
(0;1)
2
pP
t
(0)
3
λ
10p
2
P
t
(0;1)
2
P
t
(0;0)P
t
(0)
2
λ
2p
2
P
t
(0;1)
3
P
t
(0)
2
+ P
t
(0;0)
λ
2
P
t
(0)
4
+4P
t
(0;1)
2
p
2
P
t
(0)
3
λ
2P
t
(0;1)P
t
(0)
4
αλ
1
P
t
(0)
4
; (A.16)
P
t+1
(1;2)
p
3
α
P
t
(0;1)
3
P
t
(0;2)P
t
(0)
2
λ
P
t
(2;1)P
t
(0)
2
+ P
t
(2;1)P
t
(0)
2
α
P
t
(1;1)P
t
(0)
2
α
+ P
t
(1;1)P
t
(0)
2
α
2
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
λ
2P
t
(0;2)pP
t
(0;1)P
t
(0)
λβ
+ 2P
t
(0;2)pP
t
(0;1)P
t
(0)
β
2P
t
(0;2)pP
t
(0;1)P
t
(0)
2P
t
(0;1)
2
p
α
P
t
(0) 2P
t
(0;1)
2
p
2
α
P
t
(0)
λ
+ 2P
t
(0;1)
2
p
α
P
t
(0)
λ
p
2
β
P
t
(0;1)
2
P
t
(0;2) + p
2
β
P
t
(0;1)
2
P
t
(0;2)
λ
+ p
2
α
P
t
(0;1)
3
+p
2
P
t
(0;2)P
t
(0;1)
2
+ P
t
(0;1)P
t
(0)
2
αλ
p p
2
P
t
(0;2)P
t
(0;1)
2
λ
p
2
α
P
t
(0;1)
3
λ
+ p
3
α
P
t
(0;1)
3
λ
αβ
P
t
(2;1)P
t
(0)
2
+
βλ
P
t
(0;2)P
t
(0)
2
+ 2P
t
(0;1)
2
p
2
α
P
t
(0) P
t
(0;1)P
t
(0)
2
αλ
P
t
(0;1)P
t
(0)
2
α
p+
β
P
t
(2;1)P
t
(0)
2
1
P
t
(0)
2
; (A.17)
P
t+1
(2;2)
α
2
P
t
(1;1) + 2
α
P
t
(2;1) 2
αβ
P
t
(2;1) + P
t
(2;2) 2
β
P
t
(2;2)
+
β
2
P
t
(2;2) . (A.18)
Como queríamos mostrar.
Referências Bibliográficas
[1] I Asimov. The Human Brain: Its Capacities and Functions. New American Library
Boston, 1965.
[2] E. R. Kandel, J. H. Schwartz, and T. M. Jessell, editors. Essentials of Neural Science and
Behavior. Appleton & Lange, Norwalk, 1995.
[3] P. S. Churchland. Brain-Wise Studies in Neurophilosophy. The MIT Press, 2002.
[4] J. C Eccles, B. Libet, and R. R. Young. The behaviour of chromatolysed motoneurons
studied by intracellular recording. J. Physiol., 143:11–40, 1958.
[5] L. R. Squire, F. E. Bloom, S. K. McConnell, J. L. Roberts, N. C. Spitzer, and M. J.
Zigmound. Fundamental Neuroscience. Elsevier Science, 2003.
[6] W. Gerstner and W. Kistler. Spiking Neuron Models: Single Neurons, Populations, Plas-
ticity. Cambridge University Press, 2002.
[7] A. L. Hodgkin and A. F. Huxley. Action potentials recorded from inside a nerve fiber.
Nature, 144:710–711, 1939.
[8] B. H. Falkenburger, K. L. Barstow, and I. M. Mintz. Dendrodendritic inhibition throw
reversal of dopamine transport. Science, 293:2465–2470, 2001.
[9] M. Häusser and B. Mel. Dendrites: bug or feature? Curr. Opinion in Neurobiology,
13:372–383, 2003.
[10] D. Johnston, J.C. Magee, C.M. Colbert, and B.R. Christie. Active properties of neuronal
dendrites. Annu. Rev. Neurosci., 19:165–186, 1996.
[11] L. G. Brock, J. S. Coombs, and J. C Eccles. The recording of potencials from motoneu-
rones with an intracellular electrode. J. Physiol., 117:431–460, 1952.
117
REFERÊNCIAS BIBLIOGRÁFICAS 118
[12] P. Fatt. Sequence of events in synaptic activation of a motoneurone. J. Neurophysiol.,
20:61–80, 1957.
[13] W. Rall. Branching dendrites tree and motoneuron membrane resistivity. Exp. Neurol.,
1:491–527, 1959.
[14] W. Rall, I. Segev, J. Rinzel, and G. M. Shepherd. The theoretical foudation of dendritic
function. MIT press, 1995.
[15] R. Yuste and D. W. Tank. Dendritic integrations in mammalian neurons a century after
Cajal. Neuron, 16:701–716, 1996.
[16] R. Lorente de and G. A. Coundouris. Clustering and preferential attachment in
growing networks. Natl. Acad. Sci. USA, 45:592–617, 1959.
[17] C. Koch. Biophysics of Computation. Oxford University Press, New York, 1999.
[18] W. A. Spencer and E. R. Kandel. Eletrophysiology of hippocampal neurons. J. Neurophy-
silo., 24:272–285, 1961.
[19] R. Llinás and M. Nicolson. Electroresponsive properties of dendrites and somata in alli-
gator purkinje cells. J. Neurophysiol., 34:532–551, 1971.
[20] L. S. Furtado and M. Copelli. Response of electrically coupled spiking neurons: a cellular
automaton approach. Phys. Rev. E, 73:011907, 2006.
[21] V. R. Vitorino de Assis. Da epidemiologia para a neurociência: entendendo neurônios
disparantes acoplados eletricamente através do modelo SIRS estocástico na rede hipercú-
bica. Master’s thesis, Universidade Federal de Pernambuco, 2006.
[22] M. Copelli, A. C. Roque, R. F. Oliveira, and O. Kinouchi. Physics of Psychophysics:
Stevens and Weber-Fechner laws are transfer functions of excitable media. Phys. Rev. E,
65:060901, 2002.
[23] M. Copelli, R. F. Oliveira, A. C. Roque, and O. Kinouchi. Signal compression in the
sensory periphery. Neurocomputing, 65-66:691–696, 2005.
[24] M. Copelli and O. Kinouchi. Intensity coding in two-dimensional excitable neural
networks. Physica A, 349(3-4):431–442, 2005.
REFERÊNCIAS BIBLIOGRÁFICAS 119
[25] Antônio Cruz. Neurônios excitáveis conectados eletricamente modelados por redes de
mapas acoplados. Master’s thesis, Universidade Federal de Pernambuco, 2006.
[26] M. A. D. Roa. Baixa dimensionalidade numa rede de neurônios de Fitzhugh-Nagumo.
Master’s thesis, Universidade Federal de Pernambuco, 2006.
[27] M. Migliore, M. L. Hines, and Shepherd G. M. The role of distal dendritic gap juncions
in synchronization os mitral cell axonal output. J. Comp. Neurosc., 18:151–161, 2005.
[28] J. Marro and R. Dickman. Nonequilibrium Phase Transitions in Lattice Models. Cam-
bridge University Press, Cambridge, 1999.
[29] S. Firestein, C. Picco, and A. Menini. The relation between stimulus and response in
olfactory receptor cells of the tiger salamander. Journal of Physiology, 468:1–10, 1993.
[30] J.-P. Rospars, P. Lánský, P. Duchamp-Viret, and A. Duchamp. Spiking frequency versus
odorant concentration in olfactory receptor neurons. BioSystems, 58:133–141, 2000.
[31] M. Copelli. Physics of psychophysics: it is critical to sense. q-bio.NC/0611017.
[32] P. Duchamp-Viret, A. Duchamp, and M. Vigouroux. Temporal aspects of information pro-
cessing in the first two stages of the frog olfactory system: Influence of stimulus intensity.
Chem. Sens., 15(3):349–365, 1990.
[33] P. Duchamp-Viret and A. Duchamp. GABAergic control of odour-induced activity in the
frog olfactory bulb: Possible GABAergic modulation of granule cell inhibitory action.
Neuroscience, 56:905–914, 1993.
[34] S. S. Stevens. On the psychophysical law. Psychol. Rev., 64(3):153–181, 1957.
[35] S. S. Stevens. Psychophysics: Introduction to its Perceptual, Neural andSocial Prospects.
Wiley, New York, 1975.
[36] T. A. Cleland and C. Linster. Concentration tuning mediated by spare receptor capacity
in olfactory sensory neurons: A theoretical study. Neural Computation, 11:1673–1690,
1999.
[37] O. Kinouchi and M. Copelli. Optimal dynamical range of excitable networks at criticality.
Nat. Phys., 2(5):348–352, 2006.
REFERÊNCIAS BIBLIOGRÁFICAS 120
[38] O. Kinouchi. Self-organized (quasi-)criticality: the extremal feder and feder model. cond-
mat/9802311.
[39] D. R. Chialvo. Critical brain networks. Physica A, 340:756–765, 2004.
[40] D. R. Chialvo. Psychophysics - are our senses critical? Nat. Phys., 2(5):301–302, 2006.
[41] C. Haldeman and J. M. Beggs. Critical branching captures activity in living neural
networks and maximizes the number of metastable states. Phys. Rev. Lett., 94:058101,
2005.
[42] D. R. Chialvo. The brain near the edge. q-bio.NC/0610041.
[43] J. M. Beggs and D. Plenz. Neuronal avalanches in neocortical circuits. J. Neurosci.,
23(35):11167–11177, 2003.
[44] J. M. Beggs and D. Plenz. Neuronal avalanches are diverse and precise activity patterns
that are stable for many hours in cortical slice cultures. J. Neurosci., 24(22):5216–5229,
2004.
[45] G. M. Shepherd, editor. The Synaptic Organization of the Brain. Oxford University Press,
1998.
[46] T. P. Eggarter. Cayley trees, the ising problem, and the thermodynamic limit. Phys. Rev.
B, 9(7):2989 – 2992, 1974.
[47] K. Kosaka and K. Kosaka T. Aika, Y. ans Toida. Structure of intraglomerular dendi-
tic tufts of mitral cells and their contacts with olfactory nerve terminals and calbindin-
immunoreactive type 2 periglomerular neurons. The Journal of Comparative Neurology,
440:219–235, 2001.
[48] J. M. Greenberg and S. P. Hastings. Spatial patterns for discrete models of diffusion in
excitable media. SIAM J. Appl. Math., 34:515–523, 1978.
[49] W. R. Chen, J. Midgaard, and G. M. Shepherd. Forward and backward propagation of
dendritic impulses and their synaptic control in mitral cells. Science, 278:463–467, 1997.
[50] W. R. Chen, G. Y. Shen, G. M. Shepherd, M. L. Hines, and J. Midgaard. Multiple modes
of action potencial initiation and propagation in mitral cell primary dendrite. J. Neurophy-
siol., 88:2755–2764, 1995.
REFERÊNCIAS BIBLIOGRÁFICAS 121
[51] N. L. Golding, N. P. Staff, and N. Spruston. Dendritic spikes as a mechanism for coope-
rative long-term potentiantion. Nature, 418:326–331, 2002.
[52] G. J. Stuart and B. Sakmann. Active propagation of somatic action potentials into neo-
cortical pyramidal cell dendrites. Nature, 367:6–72, 1994.
[53] G. Y. Shen, W. R. Chen, J. Midtgaard, G. M. Shepherd, and M. L. Hines. Computational
analysis of action potential initiation in mitral cell soma and dendrites based on dual patch
recordings. J. Neurophysiol., 82:3006–3020, 1999.
[54] M. Djurisic, S. Antic, W. R. Chen, and D. Zecevic. Voltage imaging from dendrites of
mitral cell: Epsp attenuation and spik trigger zones. J. Neurosci., 24, 2004.
[55] J. Waters, A. Schaefer, and B. Sakmann. Backpropagating action potentials in neurons:
Measurement mechanisms and potential functions. Prog Biophys Mol Biol., 87.
[56] G. Buzsáki and A. Kandel. Somadendritic backpropagation of action potential in cortical
pyramidal cells of the awake rat. J. Neurophysiol., 79:1587–1591, 1998.
[57] J. S. Isaacson. Mechanisms govening dendritic gamma-aminobutyric acid (GABA) rele-
ase in the rat olfactory bulb. Proc. Natl. Acad. Sci., 98:337–342, 2001.
[58] D. B. Jaffe, D. Johnston, N. Lasser-Ross, J. E. Lisman, H. Miyakawa, and W. N. Ross.
The spread of Na spikes determines the pattern of dendritic Ca entry into hippocampal
neurons. Nature, 357:244, 1992.
[59] M. L. Simmons, G. W. Terman, S. M. Gibbs, and C. Chavkin. L -type calcium channels
mediate dynorphin neuropeptide release from dendrites but not axons of hippocampal
granule cells. Neuron, 14:1265, 1995.
[60] M. R. Deans, B. Volgyi, D. A. Goodenough, S. A. Bloomfield, and D. L. Paul. Conne-
xin36 is essential for transmission of rod-mediated visual signalsin the mammalian retina.
Neuron, 36:703–712, 2002.
[61] M. Copelli and P. R. A. Campos. Excitable scale free network. q-bio.NC/0703004.
[62] M. Häusser, N. Spruston, and G. J. Stuart. Diversity and dinamics of dendritic signaling.
Science, 290:739–744, 2000.
REFERÊNCIAS BIBLIOGRÁFICAS 122
[63] A. P. F. Atman, R. Dickman, and J. G. Moreira. Phase diagram of a probabilistic cellular
automaton with three-site interaction. Phys. Rev. E, 67:016107, 2003.
[64] N. Hálasz and C. A. Greer. Terminal arborizations of olfactory nerve fibers in the glome-
ruli of the olfactory bulb. The Journal of Comparative Neurology, 337:307–316, 1993.
[65] N. E. Schoppa and G. L. Westbrook. AMPA autoreceptor drive correlated spiking in
olfactory bulb glomerulli. Nat. Neurosci., 5:1194–1202, 2002.
[66] M. Wachowiak and L. B. Cohen. Representation of odorants by receptor neuron input to
the mouse olfactory bulb. Neuron, 32:723–735, 2001.
[67] R. W. Friedrich and S. I. Korsching. Combinatorial and chemotopic odorant coding in the
zebrafish olfactory bulb visualized by optical imaging. Neuron, 18:737–752, 1997.
[68] J. Van Pelt. Effect of pruning on dendritic tree topology. J. Theor. Biol., 186:17–32, 1997.
[69] E. K Scott and L. Luo. How do dendrites take treir shape? Nature Neuroscience, 4:359–
365, 2001.
[70] P. M. Lledo, G. Gheusi, and Vincent J. D. information processing in the mammalian
olfactory system. Physiol. Rev., 85:281–317, 2005.
[71] T. C Smith and C. E. Jahr. Self-inibition of olfactory bulb neurons. Nat. Neurosci, 5:760–
766, 2002.
Este volume foi tipografado em L
A
T
E
X na classe UFPEThesis (www.cin.ufpe.br/~paguso/ufpethesis).
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo