Download PDF
ads:
TESE DE DOUTORADO IFT-D.002/10
Formalismo de Hamilton-Jacobi generalizado:
Teorias de campos com derivadas de ordem superior
Mario Cezar Ferreira Gomes Bertin
Orientador
Prof. Dr. Bruto Max Pimentel Escobar
Abril de 2010
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
ads:
Para Sofia Amalie.
Agradecimentos
A meus pais Luiz Júlio e Maria Lúcia, que possibilitaram, com amor e carinho, que eu
dispusesse do livre arbítrio e pudesse escolher meu próprio caminho.
Aos meus irmãos Júlio Cesar e Tainã.
Ao meu professor B. M. Pimentel, em primeiro lugar pela amizade, mas também por me
acompanhar em minha aventura científica.
Aos meus amigos e colaboradores P. J. Pompéia, G. E. R. Zambrano e C. E. Valcárcel, que
muito me ensinaram.
A Júlio Marny Hoff que, pela grande amizade, merece em minha vida um capítulo espe-
cial, a ser escrito num boteco.
A CAPES, pelo suporte financeiro integral.
iv
Resumo
Neste trabalho apresentaremos o formalismo de Hamilton-Jacobi para sistemas singu-
lares em teorias de campos, com foco em teorias com derivadas de ordem superior. Iniciare-
mos com uma análise preliminar do cálculo variacional para esses sistemas, que envolve as
condições para a extremização de uma integral fundamental múltipla e a análise dos teore-
mas de Noether. Buscaremos seguir este caminho na construção do formalismo de Hamilton-
Jacobi em forma covariante, em que nos utilizaremos da clássica abordagem de Carathéodory
adaptada a teorias de campos. No terceiro capítulo, mostraremos como o formalismo pode ser
construído dada a escolha de uma dinâmica relativística específica e como esta escolha nos
permite tratar de sistemas singulares de forma natural. No quarto capítulo abordaremos o
problema das condições de integrabilidade, análise que garantirá um método autoconsistente
de análise de vínculos. Nesta análise, seremos capazes de relacionar um conjunto de geradores
a simetrias da integral fundamental e um segundo tipo a uma modificação da dinâmica com
a introdução de parênteses generalizados. Nos dois últimos capítulos apresentaremos apli-
cações deste método.
v
Abstract
In this work we will develop the Hamilton-Jacobi formalism to singular and higher-order
derivative field theories. We will begin with a preliminary approach to the variational prob-
lem concerning the search for extrema of a given fundamental integral, and the analysis of
the Noether’s theorems. Next, we will present a covariant Hamilton-Jacobi theory using the
classical approach of Carathéodory applied to field theories. In the third chapter we will show
how this formalism can be derived given a choice of relativistic dynamics, and how this choice
allows us to deal with singular systems. In the fourth chapter we will address the problem
of integrability conditions. This analysis will be the basic tool for a self consistent constraint
analysis. We will see that we can relate a certain set of generators to symmetries of the ac-
tion, as well as a second type of generators to a modification of the dynamics by means of
generalized brackets. The two last chapters will be used for applications.
vi
Índice Analítico
Introdução 1
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1 O problema variacional 8
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1 O problema variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Os teoremas de Noether . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1 O primeiro teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.2 Integrais de movimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.3 O segundo teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2 O formalismo de Hamilton-Jacobi generalizado 35
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1 Integrais equivalentes e condições para extremos da integral fundamental . . . . 36
2.2 Introdução de variáveis canônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3 Equações características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.4 Integrabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.5 Os parênteses de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3 Sistemas não Hessianos 65
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1 Formas de dinâmica relativística . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.2 O formalismo de Hamilton-Jacobi parametrizado . . . . . . . . . . . . . . . . . . . 70
3.3 Sistemas não Hessianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.4 Equações características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
vii
3.5 O espaço de fase e os parênteses de Poisson . . . . . . . . . . . . . . . . . . . . . . 82
3.6 O quadro geométrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.7 Dois teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4 Integrabilidade 94
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.1 Os parênteses de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.2 Condições de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.3 O formalismo simplético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.4 Fluxos Hamiltonianos e transformações canônicas . . . . . . . . . . . . . . . . . . 104
4.5 Transformações canônicas e simetrias de gauge . . . . . . . . . . . . . . . . . . . 108
4.6 Análise de integrabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5 Teoria eletromagnética de Podolsky 122
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.1 Sobre a dinâmica no plano nulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.2 Os geradores da teoria de Podolsky . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.3 Análise de integrabilidade e a matriz M . . . . . . . . . . . . . . . . . . . . . . . . 129
5.4 Cálculo da inversa de M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.5 Os parênteses generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.6 As equações características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.7 Transformações de gauge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6 Relatividade Geral em duas dimensões 145
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.1 Notação e convenções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
6.2 Definição dos geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.3 A matriz M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.4 A inversa de M

e os parênteses generalizados . . . . . . . . . . . . . . . . . . . . 152
6.5 As equações características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Considerações finais 161
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
viii
Introdução
Mais que apenas um dos formalismos que compõem a mecânica clássica, o formalismo de
Hamilton-Jacobi é também uma teoria matemática de grande alcance. Seu desenvolvimento
teve início nas primeiras formulações do cálculo variacional, mas ganhou forma final a partir
dos trabalhos de Hamilton [1] sobre sua teoria Hamiltoniana da mecânica e de Jacobi com o
desenvolvimento da teoria das transformações canônicas. A ideia por trás deste formalismo
é bastante simples. Sob certas condições, equações diferenciais ordinárias podem ser rela-
cionadas a sistemas de equações diferenciais parciais [2]. pelo menos um caso em que
esta correspondência é geral, na relação entre equações diferenciais ordinárias de primeira
ordem e equações diferenciais parciais de primeira ordem. Enquanto soluções das equações
ordinárias representam congruências de curvas em certa variedade, como por exemplo o es-
paço Euclidiano no caso da ótica geométrica ou o espaço de fase na mecânica, as soluções
das equações parciais formam famílias de hiper-superfícies neste mesmo espaço. A relação
existente entre essas equações é traduzida em relações geométricas entre o campo vetorial
característico das congruências e a família de hiper-superfícies.
Na mecânica clássica, quando um sistema pode ser formulado a partir de um princípio
variacional, as equações que descrevem a trajetória de uma teoria no espaço de configuração
são as equações de Euler-Lagrange. Estas equações formam um sistema de equações dife-
renciais ordinárias de segunda ordem. Contudo, Hamilton nos mostrou que é possível reduzir
estas equações a um sistema de equações lineares de primeira ordem, as equações canôni-
cas de Hamilton, cujas soluções descrevem famílias de curvas em um espaço de fase. As
equações canônicas podem ser relacionadas a uma equação diferencial parcial de primeira
ordem, geralmente não linear, que vem a ser a equação de Hamilton-Jacobi. Sua solução é
relacionada a uma família de hiper-superfícies no espaço de configuração. Embora esta não
seja toda a história, este roteiro padrão é reproduzido em quase todos os textos de introdução
à mecânica clássica [3, 4]. Nessa literatura, o formalismo de Hamilton-Jacobi aparece como
um coadjuvante do formalismo Hamiltoniano através da teoria das transformações canônicas.
Contudo, não só a mecânica clássica pode ser descrita por uma teoria de Hamilton-Jacobi.
Este é o caso também da ótica geométrica, em que a equação de Hamilton-Jacobi é a equação
Eikonal [5]. Também encontramos o mesmo sistema de relações na termodinâmica [6]. As
equações de estado de um sistema termodinâmico determinam “trajetórias” em um espaço
de estados formado pelas variáveis termodinâmicas. Essas equações podem ser reconhecidas
como equações características de uma equação de Hamilton-Jacobi para a entropia. Outros e-
xemplos do alcance da teoria de Hamilton-Jacobi na física podem ser encontrados na mecânica
de fluidos [7] e na mecânica quântica [8]. Mesmo na mecânica clássica, a importância deste
formalismo torna-se evidente em muitas situações. Por exemplo, a teoria de Hamilton-Jacobi
é o cenário ideal para a teoria de perturbações clássica [4], muito utilizada na mecânica celeste
[9].
O poder de generalização do formalismo de Hamilton-Jacobi vem da sua relação direta com
os princípios variacionais. No entanto, um quadro completo deste cenário seria formado
com os trabalhos de Carathéodory na teoria das equações diferenciais parciais de primeira
ordem [10]. O método de Carathéodory inverte o roteiro que apresentamos acima. A equação
de Hamilton-Jacobi aparece como a condição necessária e suficiente para que uma trajetória
clássica seja um extremo de uma integral fundamental. A partir desta equação podemos de-
duzir as equações canônicas de Hamilton com o método das características e, ainda, podemos
deduzir diretamente as equações de Euler-Lagrange do sistema. Com este ponto de vista,
Carathéodory unificou três disciplinas da matemática que, apesar de relacionadas em ca-
sos particulares, eram consideradas disciplinas independentes: o cálculo variacional, a teoria
das equações diferenciais parciais de primeira ordem e a teoria das equações diferenciais
ordinárias. Este conjunto de relações é conhecido como o quadro completo do cálculo varia-
cional. Para a mecânica clássica regular, a teoria de Carathéodory encontra-se sintetizada na
ref. [11].
O quadro completo de Carathéodory permitiu um formalismo alternativo ao método de
Dirac-Bergmann [12] para análise de sistemas vinculados. Este estudo foi iniciado por Güler
[13] no início da década de 1990 e suas ideias centrais podem ser encontradas também na
ref. [14]. No formalismo de Hamilton-Jacobi, sistemas vinculados dão origem a um sistema
de equações diferenciais parciais de primeira ordem, não apenas a uma única equação, como
no caso regular tratado por Carathéodory. Como consequência, as equações características
tornam-se equações em um espaço de fase reduzido cujas soluções são curvas características
parametrizadas pelo tempo e por um conjunto de variáveis independentes. Essas variáveis
relacionam-se diretamente às coordenadas generalizadas do espaço de configuração cujas ve-
locidades não podem ser escritas em função dos momentos através da transformação de Le-
gendre. Além disso, os vínculos possuem status de geradores dinâmicos da teoria. Como
2
também apontado por Güler, esses geradores devem obedecer a condições de integrabilidade
para que as equações características sejam integráveis. Essas condições são a base para a
análise de vínculos que foi proposta e estudada a partir de então, também por outros autores
[15, 16, 17].
Em 2006 o autor defendeu dissertação de mestrado [18] sobre o formalismo de Hamilton-
Jacobi para ações de primeira ordem, que constituem sistemas cuja função Lagrangiana é line-
ar nas velocidades generalizadas, estudo que resultou também no trabalho [19]. O principal
resultado deste trabalho vem a ser a introdução dos parênteses generalizados ao formalismo,
que resultam da existência de vínculos que não obedecem as condições de integrabilidade.
Ainda nesta dissertação foi possível mostrar pistas de que essa estrutura de parênteses seria
independente da natureza linear das Lagrangianas de primeira ordem e deveriam existir
para sistema gerais com geradores não involutivos. Essa linha de investigação nos levou ao
trabalho [20]. Em paralelo, temos também o artigo [21] em que aplicamos os resultados de
[19] para sistemas de primeira ordem com derivadas de ordem superior, bem como os traba-
lhos de revisão [11, 14] e o proceeding [22]. Este último trata de aplicações do formalismo em
teorias no plano nulo. Todos esses trabalhos apresentam o formalismo de Hamilton-Jacobi a
partir da mecânica clássica, enquanto as aplicações em teorias de campos são feitas através
de extensões, como é usual em outros formalismos para sistemas vinculados.
Esta tese, além de apresentar os principais resultados do estudo de doutorado, pretende
preencher a ausência de um texto que trate da teoria de Hamilton-Jacobi genuinamente para
teorias de campos que incluam sistemas singulares. Em adição, generalizaremos o formalismo
para incluir também sistemas com derivadas de ordem superior. Para tanto, o trabalho é
dividido em seis capítulos.
O primeiro capítulo é um capítulo introdutório ao problema variacional referente às teorias
de campos, que são sistemas descritos por integrais múltiplas de densidades Lagrangianas em
volumes do espaço-tempo. Este capítulo não possui nenhuma informação nova, mas serve ao
propósito de introduzir um roteiro padrão para o formalismo de Hamilton-Jacobi para campos.
Além de plataforma inicial, usaremos este capítulo para apresentar notações e convenções que
serão necessárias nos demais capítulos. Trataremos também dos teoremas de Noether para
campos, que usaremos mais tarde para estudar simetrias que resultam do formalismo de
Hamilton-Jacobi.
No segundo capítulo faremos uma tentativa de formular a teoria de Hamilton-Jacobi em
uma forma completamente covariante, embora esta tentativa seja infrutífera para análise de
sistemas singulares. Ainda assim discussões interessantes que brotam dessa tentativa.
Seremos capazes de mostrar que, com uma escolha de método de Lagrangianas equivalentes,
podemos definir uma equação de Hamilton-Jacobi cujas equações características reproduzem
equações canônicas covariantes para teorias de campos. Essas equações também levam a
uma estrutura de parênteses de Poisson bem determinada e a condições de integrabilidade na
3
forma de parênteses de Lagrange das variáveis do espaço de fase.
O terceiro capítulo traz o formalismo de Hamilton-Jacobi para uma escolha particular de
dinâmica relativística, que envolve uma foliação do espaço-tempo com a escolha de hiper-
superfícies de Cauchy. Este é o método padrão para análise de sistemas vinculados também
pelo método de Dirac. Nesta parte, seremos capazes de construir um quadro completo análogo
ao quadro completo de Carathéodory para a mecânica clássica. Além disso, introduziremos o
formalismo geral para teorias com vínculos, que tornam-se equações funcionais que integram
o sistema de Hamilton-Jacobi da teoria. Deduziremos também as equações características
deste sistema e discutiremos o espaço de fase e os parênteses de Poisson. Por fim, apresentare-
mos o teorema de Jacobi, que relaciona soluções completas das equações de Hamilton-Jacobi
a configurações características da integral fundamental.
Podemos dizer que o capítulo 4 contém os principais resultados deste trabalho. Este é o
capítulo que trata da integrabilidade das equações de Hamilton-Jacobi. Com esta análise,
veremos que as equações de Hamilton-Jacobi definem geradores de transformações canôni-
cas no espaço de fase da teoria que, se integráveis, devem fechar uma álgebra de Lie com
os parênteses de Poisson. A forma mais direta de analisar como esses geradores agem sobre
a dinâmica de uma teoria é através do formalismo simplético, que apresentaremos na seção
4.3. A partir deste ponto, a tese volta-se a aspectos geométricos do formalismo de Hamilton-
Jacobi, em detrimento da vocação analítica dos capítulos anteriores. Estudaremos também a
relação entre os geradores da teoria e as simetrias da integral fundamental, especialmente
focados em como podemos reconstruir simetrias de gauge a partir das transformações canôni-
cas geradas pelos vínculos. Essa análise é também inédita no que diz respeito ao formalismo
de Hamilton-Jacobi e consiste em outro resultado importante do nosso trabalho. Na seção
4.6 apresentaremos a generalização dos resultados publicados em [20], ou seja, a análise de
sistemas em teorias de campos que possuam vínculos que não obedeçam as condições de in-
tegrabilidade. Nesta seção, introduziremos a estrutura dos parênteses generalizados e sua
interpretação geométrica em termos do formalismo simplético.
Os capítulos 5 e 6 trazem duas aplicações do formalismo apresentado no capítulo 4. A
primeira é a teoria eletromagnética de Podolsky na dinâmica do plano nulo e a segunda é a
ação de Einstein-Hilbert em duas dimensões, na dinâmica instantânea. Ambas as aplicações
serão úteis em mostrar a validade e abrangência do método introduzido na seção 4.6.
Na literatura sobre sistemas singulares a nomenclatura é baseada inteiramente no forma-
lismo de Dirac e o mesmo ocorre, de alguma forma, nos trabalhos de Güler e de outros autores
com o formalismo de Hamilton-Jacobi. Nessa nomenclatura, existem vínculos primários e se-
cundários, assim como vínculos de primeira e segunda classes. Contudo, para evidenciar a in-
dependência do formalismo de Hamilton-Jacobi com relação ao método Hamiltoniano, vamos
esquecer, durante o texto, essas convenções. O motivo é que trataremos os sistemas vincula-
dos como sistemas dinâmicos e, por isso, usaremos o termo “geradores” no lugar de “vínculos”.
4
Usaremos frequentemente a denominação “sistemas Hessianos” para sistemas regulares e
“sistemas não Hessianos” para sistemas singulares. Da mesma forma, usaremos também as
expressões “geradores em involução” e “geradores não involutivos” com a operação dos parên-
teses de Poisson, que, como será evidente no texto, são equivalentes às expressões “vínculos
de primeira classe” e “vínculos de segunda classe”. Além dessas mudanças, é possível que o
leitor sinta falta de outros elementos do jargão padrão de sistemas vinculados. Por exemplo,
chamaremos as variáveis do espaço de fase reduzido por “variáveis dependentes”, enquanto
os parâmetros relacionados à parte não inversível da matriz Hessiana serão tratados como
“variáveis independentes”, no estrito sentido de que os primeiros são funções dos últimos nas
soluções do problema variacional. Contudo, buscaremos tornar o formalismo conciso e auto-
consistente para que a nomenclatura não seja um fator determinante para a compreensão da
teoria.
Por fim, as referências serão colocadas no fim de cada capítulo, em vez de no fim do tra-
balho, com o objetivo de facilitar a leitura e a dinâmica do texto.
5
Referências
[1] David R. Wilkins é responsável pela transcrição e edição de uma vasta
coleção dos trabalhos de W. R. Hamilton, que se encontram na página
http://www.maths.soton.ac.uk/EMIS/classics/Hamilton.
[2] V. I. Arnold, Lectures on partial differential equations, Springer-Verlag (2004).
[3] H. Goldstein, C. P. Poole & J. L. Safko, Classical mechanics, Addison-Wesley (2002).
E. T. Whittaker, A treatise on the analytical dynamics of particles & rigid bodies, Cam-
bridge Un. Press (1988).
A. O. Lopes, Introdução à mecânica clássica, Edusp (2006).
V. I. Arnold, Mathematical methods of classical mechanics, Springer-Verlag (1989).
C. Lanczos, The variational principles of mechanics, Dover Publications (1986).
[4] J. V. José & E. J. Saletan, Classical Dynamics: A Contemporary Approach, Cambridge
Un. Press (1998).
[5] K. B. Wolf, Geometric optics on phase space, Springer-Verlag (2004).
[6] S. G. Rajeev, A Hamilton–Jacobi formalism for thermodynamics, Ann. Phys. 323, 2265-
2285 (2008).
[7] L. D. Landau & E. M. Lifshits, Fluid Mechanics, Butterworth-Heinemann (2000).
[8] David Bohm, Quantum theory, Dover Publications (1989).
[9] Y. Hagihara, Celestial mechanics: Dynamical principles and transformation theory, MIT
Press (1970).
[10] C. Carath
´
éodory, Calculus of variations and partial differential equations of the first
order - Parts I & II, Holden Day Inc. (1967).
6
[11] M. C. Bertin, B. M. Pimentel & P. J. Pompeia, Formalismo de Hamilton-Jacobi à la
Carathéodory, Rev. Bras. Ens. Fis. 29, 393-403 (2007).
[12] P. A. M. Dirac, Lectures on quantum mechanics, Yeshiva University (1964).
[13] Y. Güler, Il Nuovo Cimento B 107, 1398 (1992); B 107, 1143 (1992).
[14] M. C. Bertin, B. M. Pimentel & P. J. Pompeia, Formalismo de Hamilton-Jacobi à la
Carathéodory parte 2, sistemas singulares, Rev. Bras. Ens. Fis. 30, 3310 (2008).
[15] Y. Güler, Il Nuovo Cimento B 109, 341 (1994); B 111, 513 (1996).
Y. Güler & D. Baleanu - Il Nuovo Cimento B 114, 1023 (1999); B 115, 319 (2000).
[16] B. M. Pimentel & R. G. Teixeira, Il Nuovo Cimento B 111, 841- (1996); B 113, 805- (1998).
B. M. Pimentel, R. G. Teixeira & J. L. Tomazelli, Ann. Phys. 267, 75- (1998).
B. M. Pimentel, P. J. Pompeia, J. F. da Rocha-Neto & R. G. Teixeira, Gen. Rel. Grav. 35,
877- (2003).
B. M. Pimentel, P. J. Pompeia & J. F. da Rocha-Neto, Il Nuovo Cimento B 120, 981-
(2005).
[17] Soon-Tae Hong, Yong-Wan Kim, Young-Jai Park & K. D. Rothe, Mod. Phys. Lett. A 17,
435- (2002).
[18] M. C. Bertin, Formalismo de Hamilton-Jacobi para ações de primeira ordem,
http://www.ift.unesp.br/posgrad/mcbertin.pdf.
[19] M. C. Bertin, B. M. Pimentel & P. J. Pompeia, First-order actions: a new view, Mod. Phys.
Lett. A 20, 2873-2889 (2005).
[20] M. C. Bertin, B. M. Pimentel & C. E. Valcárcel, Non-Involutive Constrained Systems and
Hamilton-Jacobi Formalism, Ann. Phys. 323, 3137–3149 (2008).
[21] M. C. Bertin, B.M. Pimentel & P.J. Pompeia, Hamilton–Jacobi approach for first order
actions and theories with higher derivatives, Ann. Phys. 323, 527–547 (2008).
[22] M. C. Bertin, B.M. Pimentel, C. E. Valcárcel & G. E. R. Zambrano, Hamilton-Jacobi
formalism on the null-plane: applications, V International School on Field Theory and
Gravitation, PoS(ISFTG)046 (2009).
7
Capítulo 1
O problema variacional
————————————————————————–
Introdução
Neste primeiro capítulo, vamos revisar a análise do problema variacional de se encontrar
condições necessárias e suficientes para que uma dada integral fundamental tome um valor
extremo (máximo ou mínimo) local. Este problema variacional é comum em diversas áreas
da física e da matemática que compartilham de quantidades geométricas que assumam, por
requerimentos físicos ou puramente matemáticos, um valor máximo ou mínimo. Por exemplo,
o problema variacional que descreve fenômenos da ótica geométrica consiste em encontrar a
trajetória do raio de luz para a qual o tempo de propagação seja mínimo (princípio de Fer-
mat). A dinâmica de partículas relativísticas, como outro exemplo, refere-se ao problema de
se encontrar trajetórias no espaço-tempo que maximizem o tempo próprio.
Problemas variacionais na mecânica clássica [1, 2], disciplina na qual o cálculo variacional
encontrou seu maior terreno de desenvolvimento, precisam ser definidos com base em espaços
não tão facilmente intuídos. Um sistema físico neste cenário é descrito por uma trajetória
em um espaço de configuração Q
n
formado por suas coordenadas generalizadas q
a
, em que
a = 1, . . . , n e n indica a dimensão de Q
n
. Tal trajetória é definida pelas equações paramétricas
C : q
a
= q
a
(t) , (1.1)
em que t é um parâmetro relacionado univocamente com o tempo. O problema variacional
consiste em encontrar condições necessárias e suficientes para que a integral fundamental
A [C]
t
1
t
0
L (t, q
a
, ˙q
a
, . . .) dt, (1.2)
em que ˙q
a
dq
a
/dt, assuma um valor extremo sobre C, fornecida uma função Lagrangiana
L que dependa do tempo, das coordenadas e de suas derivadas até ordem k. Neste caso,
precisamos que as funções q
a
(t) sejam pelo menos de classe C
2k
. Este problema variacional
recebe o nome de princípio de Hamilton quando a primeira variação das coordenadas genera-
lizadas em t = t
0
e t = t
1
é nula. A aplicação direta do princípio de Hamilton leva às equações
de Euler-Lagrange
k
i=0
(1)
i
d
i
dt
i
L
q
a
(i)
= 0, (1.3)
que são as equações diferenciais que ditam a dinâmica da teoria. Nessas equações, usamos a
notação q
a
(i)
para indicar a i-ésima derivada temporal das coordenadas.
O caráter do tempo como parâmetro de evolução nessas teorias é bastante especial. Em
primeiro lugar, é um parâmetro de evolução único: a integral (1.2) é uma integral simples e
as soluções das equações (1.3), se existirem, são famílias de curvas de 1-parâmetro que de-
pendem de um conjunto de condições iniciais. Em segundo lugar, embora seja sempre possível
um processo de reparametrização, a integral fundamental não é independente da escolha do
parâmetro. Por isso, as equações de Euler-Lagrange não são apenas equações que descrevem
uma dada geometria no espaço de configuração, mas possuem também a interpretação de
equações que caracterizam um sistema dinâmico finito.
Por causa do papel especial do tempo, o formalismo Hamiltoniano pode ser naturalmente
introduzido e a mecânica clássica pode ser analisada através do espaço de fase T
Q
n
, onde as
equações de movimento tomam a forma de um conjunto de equações de ordem reduzida. No
espaço de fase a introdução de uma estrutura simplética natural, através da qual é possível
conhecer a forma da evolução de qualquer observável físico sem a necessidade da resolução
das equações de movimento. Além disso, as propriedades geométricas do espaço de fase per-
mitem que o efeito de transformações sobre observáveis sejam imediatamente reconhecidos,
independentemente da dinâmica específica da teoria. Dentre as transformações mais impor-
tantes estão as transformações canônicas, que preservam o elemento de volume do espaço de
fase. A importância desse formalismo canônico para a física não pode ser subestimada, visto
que a mesma estrutura formal está presente também na mecânica quântica.
O cálculo variacional para a mecânica clássica envolve também os teoremas de Noether,
que dizem respeito a identidades obedecidas quando a integral fundamental (1.2) é invariante
por alguma classe de transformações, assim como o formalismo de Hamilton-Jacobi. Histori-
camente, este formalismo foi desenvolvido como um braço do formalismo Hamiltoniano, mas
9
sua estrutura sintetizadora é mais fundamental, como veremos nos capítulos 2 e 3.
O mesmo quadro para teorias de campos não pode ser traçado tão naturalmente. Como
veremos, campos são sistemas que dependem de um conjunto de parâmetros, geralmente iden-
tificados com as coordenadas retangulares do espaço-tempo. A integral fundamental que ca-
racteriza o problema variacional, análoga à integral (1.2), é uma integral múltipla. Além
disso, os sistemas em campos mais importantes na física são invariantes por reparametriza-
ções. Essas características fazem desses sistemas essencialmente distintos dos sistemas clás-
sicos, nos quais o tempo tem um papel privilegiado. Em especial, não uma forma única
de dinâmica Hamiltoniana e, tampouco, um único formalismo de Hamilton-Jacobi possível.
Outro aspecto das teorias de campos mais importantes para a física são as simetrias de gauge,
que são características de sistemas singulares.
Neste capítulo abordaremos o problema variacional para teorias de campos, tanto para
apresentar nomenclatura e convenções que utilizaremos no trabalho, quanto para esclarecer
aspectos normalmente obscuros do procedimento de dedução das equações de Euler-Lagrange,
como os termos de fronteira do problema de extremização da ação. Este caminho também é o
mais coerente para fins de apresentação do formalismo de Hamilton-Jacobi. Este desenvolvi-
mento é fortemente baseado na referência [3], mas nos preocuparemos também na generaliza-
ção do método para considerar sistemas com derivadas superiores na ação. Na seção 1.2 nos
preocuparemos em apresentar, pelas mesmas razões, os teoremas de Noether para campos.
Nesta seção, nos baseamos também nas referências [1, 2, 4]. Não nos preocuparemos em a-
presentar o formalismo Hamiltoniano. De acordo com o ponto de vista que abordaremos, ele é
um resultado natural do formalismo de Hamilton-Jacobi, que será o foco do próximo capítulo.
1.1 O problema variacional
Um campo pode ser descrito por um conjunto de n funções φ
a
(x), em que x representa um
ponto no espaço-tempo de d+1 dimensões, localmente descrito por um sistema de coordenadas
x
µ
=
x
0
, x
1
, . . . , x
d
em um dado volume . Todas as nossas considerações serão restritas ao
sistema contido nesse volume. O índice a varia de 1 a n. Vamos trabalhar em um espaço de
configuração construído da seguinte forma. Os campos φ
a
são coordenadas de uma variedade
Q
n
de dimensão n. Em conjunto com essa variedade, definimos também um espaço para os
parâmetros, R
d+1
. O espaço de configuração vem a ser o produto direto definido por Q
Q
n
× R
d+1
, de modo que o volume , o qual será tratado também como o domínio dos campos
φ
a
, esteja imerso em Q.
Vamos supor que os campos sejam funções pelo menos de classe C
2k
, de modo que podemos
10
definir as derivadas
φ
a
µ
µ
φ
a
, φ
a
µν
µ
ν
φ
a
, . . . ,
até ordem 2k. A configuração dos campos φ
a
é, portanto, definida como os valores dos campos e
de todas as suas derivadas até ordem 2k. Consideremos, agora, a existência de uma densidade
Lagrangiana L
x
µ
, φ
a
, φ
a
µ
, φ
a
µν
, . . .
, contendo derivadas dos campos até ordem k. Com essa
densidade Lagrangiana definimos a ação
A [φ]
L
x
µ
, φ
a
, φ
a
µ
, φ
a
µν
, . . .
, (1.4)
em que usamos a notação dx
0
dx¹ . . . dx
d
.
Para definir o problema variacional vamos fazer da configuração φ
a
um membro de uma
família de configurações de 1-parâmetro, definida por
φ (u) : φ
a
= φ
a
(x
µ
, u) ; φ
a
µ
= φ
a
µ
(x
µ
, u) ; ··· , (1.5)
pelo menos de classe C² em u. Se uma dada configuração φ (u
0
) é um extremo da integral fun-
damental (1.4), A (u
0
) deve ser menor (ou maior) que um valor A (u) referente à ação calculada
em uma configuração φ (u), pertencente a uma vizinhança fechada |u u
0
| de φ (u
0
). Supondo
|u u
0
| um número muito pequeno, desprezando termos de ordem maior ou igual a |u u
0
|
2
,
a expansão de φ (u) em série de Taylor ao redor da configuração φ (u
0
) pode ser escrita por
φ
a
(x
α
, u) φ
a
(x
α
, u
0
) +
φ
a
(x
α
, u)
u
u=u
0
δu, (1.6)
e assim também para as derivadas dos campos, em que δu u u
0
. Esta é a fórmula de
primeira ordem para a comparação entre duas configurações φ (u
0
) e φ (u) para um conjunto
fixo de parâmetros x
µ
. Ela nos permite definir a primeira variação dos campos a ponto fixo,
dada pela expressão
δ
φ
a
φ
a
(x
α
, u) φ
a
(x
α
, u
0
) =
φ
a
u
u=u
0
δu. (1.7)
A mesma expressão é válida para as derivadas. Por exemplo, temos a primeira variação de
φ
a
µ
:
δ
φ
a
µ
φ
a
µ
(x
α
, u) φ
a
µ
(x
α
, u
0
) =
φ
a
µ
u
u=u
0
δu
=
2
φ
a
x
µ
u
u=u
0
δu =
d
dx
µ
φ
a
u
u=u
0
δu =
d
dx
µ
(δ
φ
a
) . (1.8)
11
Na expressão (1.8), usamos a derivada total definida por
d
dx
α
x
α
+
x
φ
a
α
(x)
δ
δφ
a
(x)
+ φ
a
µα
(x)
δ
δφ
a
µ
(x)
+ φ
a
µνα
(x)
δ
δφ
a
µν
(x)
+ ···
.
A integral que aparece na expressão acima atende ao fato de que campos são, de forma
rigorosa, tratados como distribuições do espaço-tempo: as derivadas com relação aos campos
são derivadas funcionais e não simples derivadas parciais. Por essa razão usamos o símbolo
δF (x) φ (y) para caracterizar a derivada funcional de uma função F (x), aplicada em um
ponto x do volume , com relação a uma função φ (y), aplicada em um ponto y do mesmo
domínio. A relação mais fundamental vem a ser
δφ
a
(x)
δφ
b
(y)
= δ
a
b
δ
d+1
(x y) ,
em que temos a delta de Dirac de dimensão d + 1. No geral podemos ignorar a escrita das
integrais, de modo a não sobrecarregar a notação, o que faremos em boa parte do trabalho.
Contudo, quando somas em derivadas funcionais aparecem, integrais geralmente as acom-
panham e devemos ficar atentos a este fato. Por exemplo, usaremos repetidamente expressões
do tipo φ
a
µ
[δL/δφ
a
], com L sendo a densidade Lagrangiana, que devem ser lidas como
x
φ
a
µ
(x)
δL (y)
δφ
a
(x)
.
A primeira variação (1.7), portanto, é o termo de primeira ordem da comparação entre
duas configurações infinitesimalmente próximas, mantendo fixos o conjunto de parâmetros x
µ
e, portanto, o domínio . Podemos generalizar este argumento e considerar também a com-
paração com configurações que variem os parâmetros. Basta considerarmos a configuração
φ
(u) : φ
a
= φ
a
(v
µ
, u) ; ··· , (1.9)
em que os parâmetros v
µ
representam coordenadas de um volume
do espaço-tempo. Pode-
mos escolher esta configuração de modo que v
µ
= x
µ
para u = u
0
e, assim, ambos os conjuntos
estão relacionados pela equação
v
µ
= v
µ
(x
ν
, u) x
µ
+
v
µ
u
u=u
0
δu,
em que, por último, tomamos a expansão até primeira ordem em δu.
12
Com a variação dos parâmetros, temos a primeira variação total
φ
a
(v
µ
, u) φ
a
(x
µ
, u
0
) +
φ
a
(v
µ
, u)
u
u=u
0
δu +
δφ
a
(v
µ
, u)
δv
β
v
β
u
u=u
0
δu
= φ
a
(x
µ
, u
0
) + δ
φ
a
+
φ
a
β
u=u
0
δx
β
,
ou seja,
δφ
a
δ
φ
a
+ φ
a
β
(x
µ
, u
0
) δx
β
, (1.10)
em que
δx
β
v
β
u
u=u
0
δu. (1.11)
Vamos escrever a integral fundamental para a configuração φ (u
0
):
A (u
0
) =
L
x
µ
, φ
a
, φ
a
µ
, φ
a
µν
, . . .
, (1.12)
assim como para a configuração φ
(u):
A (u) =
L
v
µ
, φ
a
, φ
a
µ
, φ
a
µν
, . . .
, (1.13)
em que
dv
0
dv¹ . . . dv
d
. A primeira variação total da ação é definida por
δA A (u) A (u
0
)
dA (u)
du
u=u
0
δu. (1.14)
Assim, devemos calcular a primeira derivada de (1.13). A condição fundamental para que a
integral seja estacionária é que essa derivada seja nula no ponto u = u
0
. Dessa forma, temos:
dA
du
=
d
du
L
v
µ
, φ
a
, φ
a
µ
, φ
a
µν
, . . .
=
dL
du
+ L
d
du
.
Nesta expressão, o elemento de volume depende de u, o que justifica a segunda derivada no
integrando. Podemos trabalhar esse termo, considerando a relação
= det
v
α
x
β
B
e assim, a derivada total da ação se escreve
dA
du
=
dL
du
B + L
B
u
. (1.15)
13
Para o primeiro termo
dL
du
=
δL
δv
α
δv
α
u
+
δL
δφ
a
δφ
a
δv
α
v
α
u
+
φ
a
u
+
δL
δφ
a
µ
δφ
a
µ
δv
α
v
α
u
+
φ
a
µ
u
+
δL
δφ
a
µν
δφ
a
µν
δv
α
v
α
u
+
φ
a
µν
u
+ ··· .
Devemos manter em mente, entretanto, que integrais estão implícitas nessa expressão.
Organizando os termos de modo a escrever a expressão como combinações lineares das
derivadas de u, mostramos que a expressão anterior equivale a
dL
du
=
δL
δφ
a
φ
a
u
+
δL
δφ
a
µ
φ
a
µ
u
+
δL
δφ
a
µν
φ
a
µν
u
+ ···
+
dL
dx
α
v
α
u
. (1.16)
Assim,
dA
du
=

δL
δφ
a
φ
a
u
+
δL
δφ
a
µ
φ
a
µ
u
+
δL
δφ
a
µν
φ
a
µν
u
+ ···
B +
dL
dx
α
v
α
u
B + L
B
u
. (1.17)
Para a derivada do determinante, vamos usar a relação
B
u
= G
α
β
B
β
α
u
, B
β
α
v
β
x
α
, (1.18)
em que G
α
β
são os cofatores de B
β
α
, definidos por
G
α
β
B
β
γ
= Bδ
α
γ
. (1.19)
Podemos escrever os dois últimos termos do integrando de (1.17) como
dL
dx
α
v
α
u
B + L
B
u
=
dL
dx
α
v
β
u
Bδ
α
β
+ L
B
u
=
dL
dx
α
v
β
u
G
α
γ
B
γ
β
+ LG
α
β
B
β
α
u
= G
α
γ
dL
dx
α
v
β
u
B
γ
β
+ L
B
γ
α
u
= G
α
γ
dL
dx
α
v
β
u
v
γ
x
β
+ L
u
v
γ
x
α

= G
α
γ
dL
dx
α
v
β
u
v
γ
x
β
+ L
x
α
v
γ
u

= G
α
γ
dL
dx
α
v
γ
u
+ L
x
α
v
γ
u

= G
α
γ
d
dx
α
L
v
γ
u
.
14
Dessa forma, com (1.17),
dA (u)
du
u=u
0
=
δL
δφ
a
φ
a
u
+
δL
δφ
a
µ
φ
a
µ
u
+
δL
δφ
a
µν
φ
a
µν
u
+ ···
u=u
0
+
d
dx
α
L
v
α
u
u=u
0
, (1.20)
em que usamos B
α
β
u=u
0
= δ
α
β
, B|
u=u
0
= 1 e, por consequência da equação (1.19), G
α
β
u=u
0
=
δ
α
β
.
A equação para a primeira variação da ação (1.13) vem a ser, devido a (1.20),
δA =
δL
δφ
a
δ
φ
a
+
δL
δφ
a
µ
δ
φ
a
µ
+
δL
δφ
a
µν
δ
φ
a
µν
+ ···
+
d
dx
α
(x
α
) .
Mas ainda não acabamos com esta expressão. Por meio de (1.8), podemos escrever
δA =
δL
δφ
a
δ
φ
a
+
δL
δφ
a
µ
d
dx
µ
(δ
φ
a
) +
δL
δφ
a
µν
d
dx
µ
d
dx
ν
(δ
φ
a
) + ···
+
d
dx
α
(x
α
)
=
δL
δφ
a
d
dx
µ
δL
δφ
a
µ
+
d
dx
µ
d
dx
ν
δL
δφ
a
µν
···
δ
φ
a
+
d
dx
µ

δL
δφ
a
µ
d
dx
ν
δL
δφ
a
µν
+
d
dx
ν
d
dx
γ
δL
δφ
a
µνγ
···
δ
φ
a
+
d
dx
µ

δL
δφ
a
µν
d
dx
γ
δL
δφ
a
µνγ
+
d
dx
γ
d
dx
λ
δL
δφ
a
µνγλ
···
δ
φ
a
ν
+ ···
+
d
dx
µ
(x
µ
) .
Definindo-se a derivada funcional de Lagrange:
¯
δ
¯
δφ
δ
δφ
d
dx
µ
δ
δφ
µ
+
d
dx
µ
d
dx
ν
δ
δφ
µν
··· , (1.21)
escrevemos
δA =
¯
δL
¯
δφ
a
δ
φ
a
+
d
dx
µ
x
µ
+
¯
δL
¯
δφ
a
µ
δ
φ
a
+
¯
δL
¯
δφ
a
µν
δ
φ
a
ν
+ ···
. (1.22)
Em (1.22), vamos usar (1.10) na forma
δ
φ
a
δφ
a
φ
a
β
δx
β
, (1.23)
15
mas apenas na segunda integral. Dessa forma,
δA =
¯
δL
¯
δφ
a
δ
φ
a
+
d
dx
µ
x
µ
+
¯
δL
¯
δφ
a
µ
δφ
a
+
¯
δL
¯
δφ
a
µν
δφ
a
ν
+ ···
+
d
dx
µ
¯
δL
¯
δφ
a
µ
φ
a
β
δx
β
¯
δL
¯
δφ
a
µν
φ
a
νβ
δx
β
···
.
Por fim, temos a primeira variação em sua forma final
δA =
¯
δL
¯
δφ
a
δ
φ
a
+
d
dx
µ
H
µ
β
δx
β
+
¯
δL
¯
δφ
a
µ
δφ
a
+
¯
δL
¯
δφ
a
µν
δφ
a
ν
+ ···
, (1.24)
na qual definimos o tensor densidade de energia-momento
H
µ
β
¯
δL
¯
δφ
a
µ
φ
a
β
+
¯
δL
¯
δφ
a
µν
φ
a
νβ
+ ···
µ
β
. (1.25)
As equações (1.22) e (1.24) descrevem a primeira variação da ação e as trataremos como
fórmulas fundamentais. No geral, o princípio variacional utilizado em teorias de campos é
mais específico. Envolve apenas a primeira variação com domínio fixo, em que δx
β
= 0 e
δφ = δ
φ. A primeira variação toma a forma
δA =
¯
δL
¯
δφ
a
δφ
a
+
d
dx
µ
¯
δL
¯
δφ
a
µ
δφ
a
+
¯
δL
¯
δφ
a
µν
δφ
a
ν
+ ···
. (1.26)
Neste caso, o problema variacional é equivalente ao princípio de Hamilton na mecânica clás-
sica.
Em (1.22) e (1.24) a segunda integral tem como integrando uma divergência total. Vamos
definir o objeto
Φ
µ
H
µ
β
δx
β
+
¯
δL
¯
δφ
a
µ
δφ
a
+
¯
δL
¯
δφ
a
µν
δφ
a
ν
+ ··· . (1.27)
O teorema de Gauss-Ostrogradski nos garante que
dΦ
µ
dx
µ
=
n
µ
Φ
µ
, (1.28)
no qual é a fronteira de , enquanto é o seu respectivo elemento de volume. A 1-forma
n = n
µ
dx
µ
é tal que, se a fronteira for definida por meio de uma equação F (x
µ
) = 0, n deve
ser proporcional a dF ou, em componentes,
n
µ
= α
dF
dx
µ
. (1.29)
16
O valor de α é, na verdade, uma escolha arbitrária. Se o vetor Φ = Φ
µ
(d/dx
µ
) for nulo em ,
o que pode ser satisfeito se escolhermos δx
β
= 0 e δ
φ = 0 na fronteira, a integral do termo de
divergência será nula e a primeira variação da ação será escrita apenas pela expressão
δA =
¯
δL
¯
δφ
a
δ
φ
a
. (1.30)
Com a condição de que A seja estacionária, δA = 0, tomando δ
φ
a
arbitrário em , resultam
as equações de Euler-Lagrange
¯
δL
¯
δφ
a
= 0. (1.31)
Por outro lado, podemos escolher, em vez das condições δx
β
= 0 e δ
φ = 0 na fronteira, a
condição de ortogonalidade
n
µ
Φ
µ
|
x
= 0, (1.32)
que é mais geral e pode trazer informações sobre o sistema não contidas no problema varia-
cional. Por exemplo, vamos tomar o caso da Lagrangiana L = L
φ
a
, φ
a
µ
. A variação a volume
fixo (1.26) é dada por
δA =
δL
δφ
a
d
dx
µ
δL
δφ
a
µ
δφ
a
+
n
µ
δL
δφ
a
µ
δφ
a
.
As equações de Euler-Lagrange assumem a forma mais usual
δL
δφ
a
d
dx
µ
δL
δφ
a
µ
= 0,
como condições necessárias e suficientes para que a ação desse sistema seja estacionária,
desde que δφ
a
= 0 em , ou que as funções
π
µ
a
δL
δφ
a
µ
,
sejam tangentes à fronteira, ou seja,
n
µ
π
µ
a
|
x
= 0.
É comum reconhecer as funções π
µ
a
como momentos conjugados aos campos φ
a
com relação
aos parâmetros x
µ
. Se o problema variacional permitir volume variável, o termo de fronteira
sofre o acréscimo de
n
µ
H
µ
β
δx
β
,
17
tal que a densidade
H
µ
β
δL
δφ
a
µ
φ
a
β
µ
β
deve obedecer
n
µ
H
µ
β
x
= 0.
Isto indica que o tensor densidade de energia-momento deve ser nulo, ou como condição
mais fraca, tangente a . Como veremos na próxima seção, a densidade H
µ
ν
vem a ser
uma corrente conservada relacionada à invariância da integral fundamental com relação a
translações em . Dessa forma, as condições de fronteira tornam-se requerimentos físicos
para o fluxo de energia-momento dos campos. Em outras palavras, este fluxo deve estar sem-
pre contido em .
Como exemplo de teoria com derivadas de segunda ordem, vamos encontrar pela primeira
vez a densidade Lagrangiana de Podolsky, com a qual trabalharemos no capítulo 5. Os campos
fundamentais são denotados por A
µ
(x), que formam as componentes do potencial de gauge,
também chamado de conexão de gauge. A teoria de Podolsky é uma teoria de gauge para
o grupo U (1), de modo que a densidade Lagrangiana deve ser escrita com os invariantes
F
µν
A
ν,µ
A
µ,ν
, em que usamos a notação A
ν,µ
dA
ν
/dx
µ
=
µ
A
ν
. Esta densidade é escrita
por
L =
1
4
F
µν
F
µν
+
1
2
a
2
λ
F
µλ
γ
F
µγ
. (1.33)
As equações de Euler-Lagrange (1.31) para esta teoria são dadas por
¯
δL
¯
δA
µ
=
δL
δA
µ
d
dx
ν
δL
δA
µ,ν
+
d
dx
λ
d
dx
ν
δL
δA
µ,νλ
= 0,
em que os campos A
µ
, A
µ,ν
e A
µ,νλ
devem ser considerados independentes. Da expressão
acima, obtemos as equações de campo
1 + a
2
ν
F
νµ
= 0, (1.34)
em que usamos o operador
β
β
.
Para calcular o tensor densidade de energia-momento canônico, vamos usar os objetos
Υ
αβ
µν
1
2
δ
α
µ
δ
β
ν
δ
β
µ
δ
α
ν
, (1.35)
αβ
µν
1
2
δ
α
µ
δ
β
ν
+ δ
β
µ
δ
α
ν
. (1.36)
18
Para o campo de Podolsky temos por cálculo direto o tensor
H
α
β
=
¯
δL
¯
δA
µ,α
A
µ,β
+
¯
δL
¯
δA
µ,λα
A
µ,λβ
α
β
= F
µα
A
µ,β
+ a
2
Υ
αµ
ν
λ
F
νλ
A
µ,β
+ 2a
2
η
γν
λα
µν
Υ
µ
ψγ
τ
F
ψτ
A
,λβ
δ
α
β
L,
ou,
H
αβ
= F
µ
α
A
µ,β
+ a
2
η
ατ
Υ
τµ
ν
λ
F
νλ
A
µ,β
+ 2a
2
η
γν
η
αφ
λφ
µν
Υ
µ
ψγ
τ
F
ψτ
A
,λβ
η
αβ
L. (1.37)
Contudo, este tensor não é simétrico em α e β. O processo de simetrização, que envolve o uso
de termos de divergência total conhecido como processo de Belinfante, não funciona com teo-
rias que apresentam derivadas de ordem superior. Para a teoria de Podolsky, o procedimento
adotado em [5], embora tedioso, resulta no tensor simétrico [6]
T
αβ
= F
αµ
F
µ
β
+ a
2
2
λ
F
µ
α
λ
F
βµ
2
λ
F
µ
α
µ
F
λβ
+
λ
F
λ
α
µ
F
µ
β
η
αβ
L. (1.38)
Aqui, gostaria de deixar um agradecimento a C. A. Bonin pela discussão sobre a densidade de
energia-momento do eletromagnetismo de Podolsky.
1.2 Os teoremas de Noether
As propriedades de invariância de um sistema físico são analisadas através de dois teo-
remas de Amalie “Emmy” Noether [7], de 1918. Ambos referem-se a condições necessárias e
suficientes para que uma dada integral fundamental seja invariante, ou quasi-invariante, sob
uma transformação nos campos e nas coordenadas do espaço-tempo. Essa condição, em sua
forma mais geral, é conhecida como equação de Lie.
O primeiro teorema de Noether diz respeito à invariância da ação sob a ação de um grupo
de transformações com parâmetros constantes. Neste caso, a equação de Lie origem a
um sistema de identidades que relacionam combinações lineares das derivadas de Lagrange
da densidade Lagrangiana a divergências totais. Então, as equações de campo do sistema
resultam nas chamadas leis de conservação, quando correntes associadas aos campos têm
divergência nula. Essas leis de conservação estão relacionadas também com as integrais de
movimento, ou quantidades invariantes por evolução temporal. Por exemplo, na mecânica
clássica sistemas invariantes por translações resultam na preservação do momento linear.
Sistemas invariantes por rotações preservam o momento angular.
O segundo teorema de Noether diz respeito a teorias invariantes por transformações cu-
jos parâmetros são funções do espaço-tempo. Para esses sistemas, as simetrias implicam na
19
existência de relações geométricas entre os campos, as identidades de Noether. Essas identi-
dades são independentes da satisfação das equações de campo, ou seja, devem ser satisfeitas
também fora das soluções do problema variacional, o que infere ao teorema uma importân-
cia fundamental, que essas relações fornecem informações sobre o sistema físico sem a
necessidade de resolvê-lo explicitamente. Por exemplo, as identidades de Ward-Takahashi
são identidades de Noether que resultam da invariância da ação efetiva, em teoria quântica
de campos, por transformações BRST. A importância desse teorema é ainda mais apreciada
quando nos lembramos que uma crença generalizada de que as interações fundamentais da
natureza sejam teorias invariantes por transformações de gauge locais, nas quais o segundo
teorema se aplica.
As transformações mais gerais a que uma configuração de campos φ
a
(x) pode ser sub-
metida consistem em dois tipos. O primeiro vem a ser uma transformação ativa no ponto de
aplicação no espaço-tempo que leva um ponto x = (x
µ
) a um ponto y = (y
µ
). Essa transfor-
mação é caracterizada genericamente pela variação
δx
µ
y
µ
x
µ
, (1.39)
tal que δx
µ
é uma função do espaço-tempo.
Os campos no ponto y estão relacionados aos mesmos campos no ponto x pela variação
δφ
a
(x) φ
a
(y) φ
a
(x) =
φ
a
(y)
y
µ
δx=0
δx
µ
,
que é o termo de primeira ordem na série de Taylor de φ
a
(y). Podemos desprezar termos de
ordem superior se δx for muito pequeno. Nessas condições, o operador δ age como um operador
diferencial e podemos escrever a primeira variação dos campos pela expressão
δφ
a
= φ
a
µ
δx
µ
. (1.40)
Da mesma forma, podemos definir uma transformação que age apenas sobre a forma fun-
cional dos campos, que chamaremos de transformações a ponto fixo, cuja expressão é dada por
¯
δφ
a
(x) = φ
a
(x) φ
a
(x) (1.41)
e, assim como no caso da transformação a ponto variável, consideraremos esta como uma
transformação infinitesimal de primeira ordem.
A variação total de primeira ordem é definida pela soma da transformação a ponto fixo
20
e a ponto variável, ou seja,
φ
a
(x) =
¯
δφ
a
(x) + δφ
a
(x) =
¯
δφ
a
(x) + φ
a
µ
(x) δx
µ
. (1.42)
Devemos analisar como a integral fundamental muda a partir de (1.42). A ação de na
integral (1.4) resulta na expressão
A [φ] =
[∆Ldω + L] . (1.43)
É possível verificar que, devido à natureza infinitesimal das transformações e ao fato de todos
os campos envolvidos serem suaves, tem as mesmas propriedades de um operador diferen-
cial, assim como δ e
¯
δ, o que nos permite este procedimento.
A variação total da densidade Lagrangiana pode ser calculada por
L =
¯
δL +
dL
dx
µ
δx
µ
, (1.44)
tal que,
¯
δL =
δL
δφ
a
¯
δφ
a
+
δL
δφ
a
µ
¯
δφ
a
µ
+
δL
δφ
a
µν
¯
δφ
a
µν
+ ··· . (1.45)
Note que, devido ao fato de a variação a ponto fixo não alterar o ponto de aplicação das funções
e derivadas, temos
¯
δ (
µ
φ
a
) =
x
µ
φ
a
(x)
x
µ
φ
a
(x) =
x
µ
φ
a
(x) φ
a
(x)
=
d
dx
µ
¯
δφ
a
e o mesmo se aplica às derivadas de ordem superior. Portanto, a variação funcional de L é
dada por
¯
δL =
¯
δL
¯
δφ
a
¯
δφ
a
+
d
dx
µ
¯
δL
¯
δφ
a
µ
¯
δφ
a
+
¯
δL
¯
δφ
a
µν
¯
δφ
a
ν
+ ···
, (1.46)
em que
¯
δ/
¯
δφ é a já definida derivada de Lagrange (1.21).
A variação total do elemento de volume pode ser calculada por = δdω, visto que a
variação a ponto fixo deixa o volume invariante. Temos
= det
x
µ
x
ν
= det
δ
µ
ν
+
[δx
µ
]
x
ν
.
Tomando apenas termos até primeira ordem em δx,
det
δ
µ
ν
+
[δx
µ
]
x
ν
1 +
d
dx
µ
[δx
µ
]
21
e, portanto, a variação do elemento de volume vem a ser
δ =
d [δx
µ
]
dx
µ
. (1.47)
Somando as contribuições de (1.44) e (1.47) na variação (1.43), obtemos como resultado
A [φ] =
¯
δL +
d
dx
µ
(x
µ
)
.
Se a ação é invariante, A = 0 e, desde que a integração é efetuada em um volume arbitrário
e usando a expressão (1.46), para que a primeira variação da ação seja nula devemos ter
¯
δL
¯
δφ
a
¯
δφ
a
+
d
dx
µ
¯
δL
¯
δφ
a
µ
¯
δφ
a
+
¯
δL
¯
δφ
a
µν
¯
δφ
a
ν
+ ··· + x
µ
= 0. (1.48)
Essa é a equação diferencial de Lie. Com conhecimento explícito das variações dos campos e
de δx, é possível utilizar esta equação para deduzir uma Lagrangiana a partir das simetrias
de um sistema. De fato, (1.48) é a identidade mais geral devida à invariância da ação sob
transformações infinitesimais nos campos e nas coordenadas. Toda configuração de campos
deve satisfazer a esta equação, independente de φ ser ou não um extremo e, ainda, condições
de contorno não afetam o caráter físico dessa equação, já que não é necessária a especificação
de nenhum comportamento de fronteira dos campos.
Para efeito de aplicação em teorias de campos, pode ser conveniente escrever a equação de
Lie como combinações da variação total dos campos, ou seja,
¯
δφ
a
= ∆φ
a
δφ
a
= ∆φ
a
φ
a
µ
δx
µ
.
Assim, (1.48) torna-se
¯
δL
¯
δφ
a
φ
a
φ
a
µ
δx
µ
+
d
dx
µ
¯
δL
¯
δφ
a
µ
φ
a
+
¯
δL
¯
δφ
a
µν
φ
a
ν
+ ···
+
µ
γ
¯
δL
¯
δφ
a
µ
φ
a
γ
¯
δL
¯
δφ
a
µν
φ
a
νγ
···
δx
γ
= 0.
Usando o objeto (1.25) o tensor densidade de energia-momento canônico,
H
µ
ν
¯
δL
¯
δφ
a
µ
φ
a
ν
+
¯
δL
¯
δφ
a
µα
φ
a
αν
+ ··· δ
µ
ν
L, (1.49)
escrevemos a equação de Lie como
¯
δL
¯
δφ
a
φ
a
φ
a
µ
δx
µ
+
d
dx
µ
¯
δL
¯
δφ
a
µ
φ
a
+
¯
δL
¯
δφ
a
µν
φ
a
ν
+ ··· H
µ
ν
δx
ν
= 0. (1.50)
22
Esta será a equação fundamental que determina condições satisfeitas pelos campos quando
simetrias estão presentes no sistema.
A equação de Lie pode ser generalizada para o caso em que a ação é quasi-invariante pela
transformação (1.42), ou seja, se a integral fundamental for invariante a menos de um termo
de fonte, tal que
A =
Ψ (x, φ, ···) .
A equação de Lie para este caso torna-se
¯
δL
¯
δφ
a
φ
a
φ
a
µ
δx
µ
+
d
dx
µ
¯
δL
¯
δφ
a
µ
φ
a
+
¯
δL
¯
δφ
a
µν
φ
a
ν
+ ··· H
µ
ν
δx
ν
= Ψ.
Casos especiais devem ser analisados para formas especiais das transformações (1.39), (1.42)
e de Ψ.
1.2.1 O primeiro teorema
Vamos considerar o caso de invariância forte Ψ = 0 e vamos supor que as transformações
sejam dependentes de um conjunto de parâmetros constantes ε
i
em que i = 1, ··· , N . A
transformação no ponto é definida por
x
µ
y
µ
= y
µ
x
ν
, ε
i
, y
µ
x
ν
, ε
i
ε
i
=0
= x
µ
, (1.51)
de modo que
δx
µ
=
y
µ
ε
i
ε
i
=0
ε
i
. (1.52)
Vamos impor a seguinte variação nos campos:
φ
a
= φ
a
(y) φ
a
(x) =
δφ
a
δε
i
ε
i
=0
ε
i
, (1.53)
com os mesmos parâmetros de transformação de (1.51). Com isso, estamos assumindo que
os campos se transformam como uma representação do grupo de transformações que age no
espaço-tempo. Embora essa restrição não seja necessária para os argumentos que seguem, va-
mos tomá-la com o objetivo de focalizar o formalismo para sistemas com simetrias de gauge.
Dizemos que essas transformações são finitas, que dependem de um número finito de
parâmetros. Substituindo as transformações (1.52) e (1.53) em (1.50) e levando em conta
23
que os parâmetros são constantes, temos o conjunto de N equações
¯
δL
¯
δφ
a
δφ
a
δε
i
φ
a
µ
y
µ
ε
i
+
d
dx
µ
¯
δL
¯
δφ
a
µ
δφ
a
δε
i
+
¯
δL
¯
δφ
a
µν
δφ
a
ν
δε
i
+ ··· H
µ
ν
y
ν
ε
i
= 0, (1.54)
tomadas em ε
i
= 0. No segundo termo, possivelmente existirão derivadas funcionais das
derivadas dos campos. Assumiremos que as derivadas também possuam a lei de transfor-
mação (1.53).
As identidades (1.54) carregam o conteúdo matemático do primeiro teorema de Noether.
Se a integral fundamental é invariante por um grupo de transformações com parâmetros cons-
tantes, N combinações lineares da derivada de Lagrange estão relacionadas a divergências.
Para configurações de campos que são solução das equações de Euler-Lagrange
¯
δL/δφ
a
= 0,
que formam as superfícies de extremos da ação, o primeiro termo de (1.54) se anula. Se
definirmos as densidades de corrente de Noether
Φ
µ
i
H
µ
ν
y
ν
ε
i
¯
δL
¯
δφ
a
µ
δφ
a
δε
i
¯
δL
¯
δφ
a
µν
δφ
a
ν
δε
i
+ ··· , (1.55)
essas obedecerão as equações de continuidade
dΦ
µ
i
dx
µ
= 0, (1.56)
e dizemos que são conservadas. Na literatura [4], essas são chamadas densidades de corrente
próprias. Portanto, se a integral fundamental for invariante por um grupo de transformações
finito, as equações de campo implicam na conservação das densidades de corrente próprias. A
equação (1.56) sintetiza o conteúdo físico do primeiro teorema de Noether.
A condição de invariância da ação implica, nos extremos do problema variacional, nas
condições de fronteira
dΦ
µ
i
dx
µ
=
n
µ
Φ
µ
i
ε
i
= 0,
ou seja,
n
µ
Φ
µ
i
|
x
= 0, (1.57)
que podem ser obedecidas se as densidades de corrente forem nulas, ou mesmo tangentes à
mesma hiper-superfície, para os pontos que a ela pertencem. Neste caso, o fluxo das correntes
próprias deve ser restrito ao volume .
Vamos falar no caso em que a teoria seja apenas quasi-invariante, ou seja, quando Ψ = 0.
24
Vamos assumir que esse termo possa ser escrito como
Ψ = Ψ
a
φ
a
φ
a
µ
δx
µ
,
em que Ψ
a
podem ser relacionadas com termos de fontes. Neste caso, temos as leis de conser-
vação não homogêneas
Ψ
a
δφ
a
δε
i
φ
a
µ
y
µ
ε
i
dΦ
µ
i
dx
µ
= 0. (1.58)
A situação de quasi-invariância é equivalente à situação de invariância forte cujas equações
de campo sejam equações de Euler-Lagrange generalizadas
¯
δL
¯
δφ
a
= Ψ
a
. (1.59)
Com este ponto de vista podemos ver como as funções Ψ
a
podem ser relacionadas com campos
fontes. As equações não homogêneas (1.58) indicam o quanto a ação se desvia da invariância
com a adição de campos externos. Ainda que o sistema perca sua invariância, esse desvio
é bem definido e, por isso, podemos justificar o uso do termo “quasi-invariante” para essas
teorias.
1.2.2 Integrais de movimento
As integrais de movimento na mecânica clássica são quantidades invariantes por evolução
temporal, como por exemplo a energia, o momento linear e o momento angular em sistemas
isolados. Essa qualidade é definida também pela existência do primeiro teorema de Noether
na versão do problema variacional para esses casos. Quando tratamos de sistemas mecânicos,
o tempo é o único parâmetro de evolução e os sistemas são, no geral, dependentes da escolha de
parametrização. Essa qualidade da mecânica clássica, aliada à invariância desta com relação
ao grupo de Galilei, origem a um conjunto de características bastante peculiar. Como
exemplo, podemos citar o fato de que todas as teorias Hamiltonianas que podemos construir
com o cenário clássico são equivalentes, ou seja, existe apenas uma estrutura Hamiltoniana
para cada problema na mecânica clássica.
Contudo, as teorias físicas mais importantes são invariantes por reparametrizações, com
densidades Lagrangianas independentes do ponto do espaço-tempo. Assim, o processo de es-
colha de parâmetro é arbitrário. Este fato é bem explorado em teorias de campos, que a
parametrização pode sempre ser escolhida levando em conta critérios físicos, como por exem-
plo o referencial de um observador ou, até mesmo, critérios de conveniência.
Para escolher uma parametrização em teorias de campos, vamos usar uma transformação
25
de coordenadas tal que
x
µ
y
µ
= Σ
µ
ν
x
ν
. (1.60)
Vamos escolher τ = y
0
= Σ
0
µ
x
µ
como parâmetro de evolução. O parâmetro τ está, dessa forma,
relacionado com o eixo y
0
, que é uma combinação linear das coordenadas x
µ
.
Agora, vamos supor uma família de hiper-superfícies definida pela equação
Ξ (y
µ
, τ) = 0,
que seja ortogonal ao eixo y
0
. Os membros da família são tais que nunca se interceptam no
volume . A ação, calculada entre os valores τ
0
e τ
1
que delimitam duas superfícies da família,
é dada por
A =
τ
1
τ
0
Ξ
Ldσ, (1.61)
em que Ξ é o d-volume de uma hiper-superfície Ξ (τ) a τ constante, enquanto é seu elemento
de volume. Podemos definir a quantidade
L =
Ξ
Ldσ, (1.62)
que é a integral da densidade Lagrangiana sobre Ξ, chamada de função Lagrangiana. A
integral fundamental tem a forma
A =
τ
1
τ
0
L. (1.63)
Esta ação assume, portanto, forma análoga à da mecânica clássica.
Entretanto, não podemos definir a função Lagrangiana (1.62) impunemente. Ela deve ser
uma quantidade finita, de modo que condições de contorno apropriadas devem ser impostas
aos campos e suas derivadas na fronteira Ξ. De modo geral, vamos supor que os campos e
todas as suas derivadas se anulem nesses pontos. A primeira variação da ação, (1.24), pode
ser escrita nas coordenadas y
µ
:
δA =
¯
δL
¯
δφ
a
δ
φ
a
+
d
dy
µ
H
µ
β
δy
β
+
¯
δL
¯
δφ
a
µ
δφ
a
+
¯
δL
¯
δφ
a
µν
δφ
a
ν
+ ···
,
em que, neste desenvolvimento apenas, estamos considerando como o domínio do sistema
transformado, com elemento de volume = (det Σ) dy
0
···dy
n
. Também estamos mantendo
a notação para as derivadas, de modo que φ
a
µ
= φ
a
/∂y
µ
.
26
Vamos nos concentrar primeiro no termo de divergência total. Ele pode ser escrito por
div
τ
1
τ
0
Ξ
d
dy
0
H
0
β
δy
β
+
¯
δL
¯
δφ
a
0
δφ
a
+
¯
δL
¯
δφ
a
0ν
δφ
a
ν
+ ···
+
τ
1
τ
0
Ξ
d
dy
I
H
I
β
δy
β
+
¯
δL
¯
δφ
a
I
δφ
a
+
¯
δL
¯
δφ
a
Iν
δφ
a
ν
+ ···
,
em que I = 1, . . . , d. A última integral torna-se um termo de fronteira em Ξ e este termo
deve ser nulo de acordo com as condições de fronteira que escolhemos para os campos. Assim,
temos
div =
τ
1
τ
0
d
H
0
β
δy
β
+
¯
δL
¯
δφ
a
0
δφ
a
+
¯
δL
¯
δφ
a
0ν
δφ
a
ν
+ ···
, (1.64)
em que definimos
H
α
β
Ξ
H
α
β
dσ. (1.65)
Supondo que as variações se anulem nos pontos τ
0
e τ
1
, esse termo de divergência é nulo.
Se δA = 0, temos satisfeitas as equações de Euler-Lagrange, ou seja,
τ
1
τ
0
¯
δL
¯
δφ
a
δ
φ
a
= 0
¯
δL
¯
δφ
a
= 0.
Com as condições de contorno nos campos, essas equações equivalem a
δL
δφ
a
d
δL
δφ
a
0
+
d
2
2
δL
δφ
a
00
··· = 0. (1.66)
Os demais termos tornam-se termos de fronteira em Ξ e, por essa razão, são nulos.
Com este procedimento, temos um formalismo idêntico ao da mecânica clássica. Entre-
tanto, a interpretação sobre a dinâmica dos campos deve ser revista. Como vimos anterior-
mente, os campos
φ
a
(y) = φ
a
(τ, y)
e suas derivadas em cada ponto do espaço-tempo constituem uma solução do problema varia-
cional se obedecerem as equações (1.31). Se definirmos as funções
φ
a
(τ) =
Ξ
φ
a
(τ, y) dσ, (1.67)
assim como para todas as derivadas com relação ao parâmetro τ, as equações de Euler-
Lagrange (1.66) ainda valem para os campos substituídos por φ
a
(τ), que representam uma
27
configuração integrada sobre uma hiper-superfície Ξ (τ ), a τ constante. As equações de campo
tornam-se equações dinâmicas que nos dizem como uma configuração em τ = τ
0
evolui para
um valor posterior τ = τ
1
.
Neste cenário, o primeiro teorema de Noether, para o sistema de coordenadas y
µ
, implica
nas equações
dΦ
µ
i
dy
µ
= 0. (1.68)
Integrando-as no volume Ξ, temos
Ξ
dΦ
0
i
+
Ξ
· Φ
i
= 0,
que implica, com a nulidade da segunda integral, em
Ξ
dΦ
0
i
=
d
Ξ
Φ
0
i
= 0.
Assim, as cargas definidas por
Q
0
i
Ξ
Φ
0
i
(1.69)
são integrais de movimento, ou seja, invariantes por evolução com relação ao parâmetro τ.
De modo usual, o procedimento utilizado neste parágrafo é o início da descrição canônica
(ou formalismo Hamiltoniano) de teorias de campos relativísticas. Essas teorias possuem
a simetria de Poincaré, que envolve translações e rotações no espaço-tempo, como simetria
fundamental. A densidade de corrente conservada pela simetria de translações é o tensor
densidade de energia-momento canônico
H
µ
ν
¯
δL
¯
δφ
a
µ
φ
a
ν
+
¯
δL
¯
δφ
a
µα
φ
a
αν
+ ··· δ
µ
ν
L. (1.70)
Se escolhermos o parâmetro τ = t x
0
, mantendo o sistema de coordenadas x
µ
, a função
Hamiltoniana, definida por
H
0
0
¯
δL
¯
δφ
a
0
φ
a
0
+
¯
δL
¯
δφ
a
0α
φ
a
α0
+ ··· L, (1.71)
é a integral de movimento relacionada à invariância por evolução temporal. Para teorias com
derivadas de até primeira ordem, temos, com H
0
0
H, e π
a
δLφ
a
0
,
H = p
a
φ
a
0
L,
em que as funções p
a
são momentos canônicos. Esta função Hamiltoniana tem a mesma forma
28
que o seu análogo na mecânica clássica, H = p
a
˙q
a
L.
Na teoria eletromagnética de Podolsky, por exemplo, vamos tomar a componente 00 do
tensor simétrico
T
00
= F
0µ
F
µ
0
+ a
2
2
λ
F
µ
0
λ
F
0µ
2
λ
F
µ
0
µ
F
λ0
+
λ
F
λ
0
µ
F
µ
0
L.
Com a métrica η = diag (1, 1, ··· , 1)) e explicitando as componentes E e B, temos a densi-
dade de energia do campo de Podolsky [6]
E T
00
=
1
2
E
2
+ B
2
+ a
2
( · E)
2
+
˙
E × B
2
+ 4E · E + 4E · ( · E)

.
Esta é a densidade de energia conservada por evolução temporal.
1.2.3 O segundo teorema
Para a discussão do segundo teorema de Noether, vamos considerar a transformação (1.52),
δx
µ
=
δy
µ
δε
i
ε
i
=0
ε
i
, (1.72)
e uma fransformação nos campos que dependa de um conjunto de N funções λ (x):
φ
a
δφ
a
δy
µ
y
µ
ε
i
ε
i
=λ
i
=0
ε
i
+ φ
a
ν
δx
ν
+
δφ
a
δλ
i
i
dy
α
dy
α
dx
ν
ε
i
=λ
i
=0
δx
ν
=
δφ
a
δy
µ
y
µ
ε
i
ε
i
=λ
i
=0
ε
i
+ φ
a
ν
δx
ν
+
δφ
a
δλ
i
λ
i
=0
i
dx
ν
δx
ν
.
Vamos definir as funções
A
a
i
δφ
a
δy
µ
y
µ
ε
i
ε
i
=λ
i
=0
e B
i
δφ
a
δλ
i
λ
i
=0
δx
ν
.
Dessa forma,
φ
a
= A
a
i
ε
i
+ B
i
i
dx
ν
+ φ
a
ν
δx
ν
. (1.73)
A variação a ponto fixo é, portanto, dada por
¯
δφ
a
= ∆φ
a
φ
a
µ
δx
µ
= A
a
i
ε
i
+ B
i
i
dx
ν
. (1.74)
29
A partir da equação de Lie (1.48), temos
¯
δL
¯
δφ
a
A
a
i
ε
i
+ B
i
i
dx
ν
dΦ
µ
dx
µ
= 0, (1.75)
com Φ
µ
definido em (1.27). Podemos escrever esta equação como
¯
δL
¯
δφ
a
A
a
i
ε
i
d
dx
ν
¯
δL
¯
δφ
a
B
i
λ
i
d
dx
ν
Φ
ν
¯
δL
¯
δφ
a
B
i
λ
i
= 0.
Agora, vamos supor que λ
i
(x) = ε
i
(x). Temos
¯
δL
¯
δφ
a
A
a
i
d
dx
ν
¯
δL
¯
δφ
a
B
i

ε
i
d
dx
ν
Φ
ν
i
ε
i
¯
δL
¯
δφ
a
ν
B
i
i
dx
µ
¯
δL
¯
δφ
a
B
i
ε
i
= 0. (1.76)
Temos que usar um resultado forte devido ao fato de que os parâmetros de transformação
são funções do espaço-tempo. Enquanto o primeiro teorema de Noether lida com o caso
de parâmetros constantes, em que as transformações são globais e a invariância da ação é
definida em todo o domínio , a invariância da ação por transformações com parâmetros que
dependem do espaço-tempo é local. A integral fundamental não só é invariante quando calcu-
lada num volume , mas também em qualquer sub-domínio
¯
de d + 1 dimensões contido em
. Isso nos obriga a tomar a integral
¯
d¯ω
d
dx
ν
Φ
ν
i
ε
i
¯
δL
¯
δφ
a
ν
B
i
i
dx
µ
¯
δL
¯
δφ
a
B
i
ε
i
(1.77)
nula em qualquer sub-domínio, com exceção do volume total . Dessa forma, a equação de Lie
nos fornece o resultado
¯
¯
δL
¯
δφ
a
A
a
i
d
dx
ν
¯
δL
¯
δφ
a
B
i

ε
i
d¯ω = 0.
Como os parâmetros são arbitrários, temos as relações
¯
δL
¯
δφ
a
A
a
i
d
dx
ν
¯
δL
¯
δφ
a
B
i
= 0. (1.78)
Estas são as chamadas identidades de Noether.
Assim, o segundo teorema de Noether atesta que, quando a integral fundamental é in-
variante por transformações com parâmetros locais, existem N identidades que envolvem
combinações lineares das derivadas de Lagrange com relação aos campos.
As identidades de Noether (1.78) podem ser colocadas na forma de uma equação de con-
servação covariante. Para tal, definimos as funções G
i
tais que
G
i
(x) B
j
(y) = δ
i
j
δ
b
a
δ
µ
ν
δ
d+1
(x y) .
30
Assim,
¯
δL
¯
δφ
a
A
a
i
d
dx
ν
¯
δL
¯
δφ
a
B
i
=
¯
δL
¯
δφ
a
B
i
A
b
j
G
j
δ
µ
ν
d
dx
ν
¯
δL
¯
δφ
a
B
i
=
d
dx
µ
A
b
j
G
j
¯
δL
¯
δφ
a
B
i
= −∇
µ
¯
δL
¯
δφ
a
B
i
,
em que definimos a derivada covariante
µ
d
dx
µ
Γ
µ
, (1.79)
com os campos de conexão
Γ
µ
A
b
j
G
j
. (1.80)
Dessa forma, as identidades de Noether podem ser escritas por
µ
¯
δL
¯
δφ
a
B
i
= 0. (1.81)
Essas identidades são independentes das equações de movimento e não dependem das
condições de fronteira dos campos ou das variações do problema variacional. São válidas
para qualquer configuração de campos, extremos ou não. Elas recebem o nome de leis de
conservação impróprias: não são verdadeiramente leis de conservação. As quantidades
Υ
µ
i
¯
δL
¯
δφ
a
B
i
(1.82)
são chamadas correntes impróprias. Se as equações de campo forem obedecidas, as correntes
impróprias obedecem a leis próprias de conservação:
dΥ
µ
i
dx
µ
= 0. (1.83)
Na fronteira de , a integral (1.77) não pode ser levada a zero para transformações com
forma geral. Assim, para campos que são extremos do problema variacional, a equação (1.76)
fornece
d
dx
ν
Φ
ν
i
ε
i
¯
δL
¯
δφ
a
ν
B
i
i
dx
µ
=
dΦ
ν
i
dx
ν
ε
i
d
dx
ν
¯
δL
¯
δφ
a
ν
B
i
i
dx
µ
+ Φ
ν
i
i
dx
ν
¯
δL
¯
δφ
a
ν
B
i
d
dx
ν
i
dx
µ
=
dΦ
ν
i
dx
ν
ε
i
+
Φ
µ
i
d
dx
ν
¯
δL
¯
δφ
a
ν
B
i

i
dx
µ
¯
δL
¯
δφ
a
ν
B
i
+
¯
δL
¯
δφ
a
µ
B
i
d
dx
ν
i
dx
µ
= 0.
31
Independência dos parâmetros e de suas derivadas resulta nas relações
dΦ
µ
i
dx
µ
= 0, (1.84)
Φ
µ
i
=
d
dx
ν
¯
δL
¯
δφ
a
ν
B
i
, (1.85)
¯
δL
¯
δφ
a
ν
B
i
+
¯
δL
¯
δφ
a
µ
B
i
= 0. (1.86)
Portanto, na validade das equações de Euler-Lagrange, temos uma corrente própria conser-
vada segundo a relação (1.84). Essa corrente, de acordo com (1.85), pode ser escrita como uma
divergência ordinária de um tensor de segunda ordem que, ainda de acordo com (1.86), deve
ser antissimétrico nos índices do espaço-tempo. Este conjunto de relações não é, obviamente,
independente. Se a corrente é escrita como a divergência de um tensor antissimétrico, a lei de
conservação (1.84) é automática, devido à simetria das derivadas.
Se leis de conservação próprias são obedecidas, integrais de movimento podem ser encon-
tradas com uma escolha de parametrização, na forma de
Q
0
i
=
Ξ
Φ
0
i
=
1
2
Ξ
d
dy
ν
¯
δL
¯
δφ
a
ν
B
a0
i
¯
δL
¯
δφ
a
0
B
i
=
1
2
Ξ
d
dy
I
¯
δL
¯
δφ
a
I
B
a0
i
¯
δL
¯
δφ
a
0
B
aI
i
.
Com o teorema de Gauss-Ostrogradski, essa carga pode ser escrita por
Q
0
i
=
1
2
Ξ
dv n
I
¯
δL
¯
δφ
a
I
B
a0
i
¯
δL
¯
δφ
a
0
B
aI
i
, (1.87)
como uma integral de d 2 dimensões na fronteira de Ξ. Além desse fato, a equação de
continuidade (1.83) implica que as cargas Σ
0
µ
Υ
µ
i
, em que Σ é a matriz definida em (1.60), são
também integrais de movimento.
Se a ação for quasi-invariante segundo as transformações locais, ou seja, se Ψ = 0, podemos
mostrar que o procedimento acima acresce às identidades (1.81) as relações
µ
a
B
i
) = 0. (1.88)
Como discutimos, os campos Ψ
a
podem ser representados por campos fontes, de modo que
as equações (1.88) representam conservação covariante desses campos.
Com a discussão do problema variacional e dos teoremas de Noether temos as ferramentas
necessárias para a tentativa de desenvolvimento do formalismo de Hamilton-Jacobi em forma
covariante, que será foco do capítulo 2. Dessa forma, trataremos o formalismo como uma
32
extensão natural do problema variacional inicial, embora sua utilização para sistemas físicos
em teorias de campos ainda seja um problema em aberto. Veremos que a invariância por
reparametrizações inviabiliza o procedimento covariante para a construção de uma teoria
em forma canônica. Ainda assim essa tentativa engloba de maneira satisfatória o ponto de
partida para um futuro desenvolvimento neste campo.
33
Referências
[1] C. Lanczos, The variational principles of mechanics, fourth edition, Dover Publications
(1986).
[2] I. M. Gelfand & S. V. Fomin, Calculus of variations, Dover Publications (2000).
[3] H. Rund, The Hamilton-Jacobi theory in the calculus of variations; its role in mathemat-
ics and physics, Van Nostrand (1966).
[4] N. P. Konopleva & V. N. Popov, Gauge fields, Harwood Academic Publishers (1981).
[5] A. O. Barut, Electrodynamics and the classical theory of fields and particles, McMillan
(1982).
[6] C. A. Bonin, R. Bufalo, B. M. Pimentel & G. E. R. Zambrano, Podolsky electromagnetism
at finite temperature: Implications on the Stefan-Boltzmann law, Phys. Rev. D 81, 025003
(2010).
[7] E. Noether, Invariant variation problems, tradução por M. A. Travel,
arXiv:physics/0503066v1 [physics.hist-ph] (2005).
34
Capítulo 2
O formalismo de Hamilton-Jacobi
generalizado
————————————————————————–
Introdução
Neste capítulo, estudaremos o formalismo de Hamilton-Jacobi sob o ponto de vista do
quadro completo de Carathéodory [1], com foco em teorias de campos. Como introdução,
utilizaremo-nos de uma discussão qualitativa do quadro completo do cálculo variacional, que
envolve um conjunto de relações geométricas consequentes da extremização de uma integral
fundamental no contexto de sistemas de 1-parâmetro, ou seja, com base no problema varia-
cional definido pela ação (1.2), que é uma integral simples no tempo t. A exposição dessas
ideias pretende lançar luz para o objetivo deste capítulo, que é o estudo de teorias de campos.
O ponto essencial do quadro completo de Carathéodory envolve a definição de integrais
fundamentais equivalentes à integral (1.2) pela adição de uma diferencial total de uma função
arbitrária. Esta definição lança o conceito de Lagrangianas equivalentes: funções Lagrangia-
nas que diferem apenas pela derivada temporal total de uma função arbitrária definem pro-
blemas variacionais equivalentes, que resultam nas mesmas equações de Euler-Lagrange.
Denotaremos esta função por S
t, q
i
e esta vem a ser uma função geratriz de uma transfor-
mação de ponto em Q
n
. Com posse dessa informação, podemos nos perguntar se é possível
encontrar uma transformação de ponto tal que a integral fundamental transformada satis-
faça identicamente os requerimentos para que seja um extremo: que a ação equivalente seja
nula na trajetória C e seja sempre menor (ou maior) que seu valor calculado em qualquer
trajetória que pertença a uma vizinhança infinitesimal de C. Se essa transformação existir,
a função S deve obedecer um conjunto de equações diferenciais parciais de primeira ordem,
que podemos chamar de equações de Hamilton-Jacobi. No caso especial em que a teoria não
possui vínculos, o sistema possui apenas uma equação de Hamilton-Jacobi [2].
A função S, como solução de um sistema de equações diferenciais parciais de primeira or-
dem, representa uma família de hiper-superfícies de r-parâmetros em Q
n
, Σ : S
t, σ
z
, q
i
= 0,
em que σ são os parâmetros. A condição de extremização também garante que os momentos
conjugados p
i
L/∂ ˙q
i
sejam proporcionais ao gradiente de S, ou seja, p
i
= S/∂q
i
. A tra-
jetória C que extremiza a ação torna-se, então, parte de uma congruência de curvas ortogonal
à família Σ em cada ponto de Q
n
. Tal congruência é solução de um sistema de equações dife-
renciais ordinárias de primeira ordem, que consistem nas equações características do sistema.
Podemos chamar a congruência de curvas pelo nome de curvas características do sistema de
Hamilton-Jacobi.
A ação calculada entre duas hiper-superfícies distintas é independente da curva caracterís-
tica, o que caracteriza a família Σ como uma família de superfícies geodesicamente equidis-
tantes. Como consequência, as curvas características são geodésicas referentes ao problema
variacional. Para representar este cenário, dizemos que a condição necessária e suficiente
para a extremização da integral fundamental é a existência de uma congruência de curvas
características pertencente a uma família de hiper-superfícies geodesicamente equidistantes.
Este conjunto de relações geométricas é o que chamamos de quadro completo do cálculo varia-
cional.
Este mesmo quadro completo não é tão fácil de ser definido para campos, mas uma gene-
ralização do procedimento descrito acima é largamente utilizada na literatura, às vezes sem
o devido cuidado. Uma das razões é que as integrais fundamentais que descrevem teorias de
campos consistem em integrais múltiplas, sobre o volume de um dado domínio de parâmetros,
em vez de uma curva. Diferentemente do caso da mecânica clássica, na qual a definição de
ações equivalentes pode ser feita a partir de diferenciais totais, em teoria de campos exis-
tem outras formas de se definir integrais fundamentais equivalentes, que levam a diferentes
formalismos de Hamilton-Jacobi.
2.1 Integrais equivalentes e condições para extremos da inte-
gral fundamental
Para descrever o formalismo de Hamilton-Jacobi para campos, desejamos encontrar um
conjunto de relações equivalentes ao quadro completo de Carathéodory. Este conjunto de
relações deve envolver a existência de uma configuração que descreva um campo geodésico,
36
pertencente a uma família de hiper-superfícies geodesicamente equidistantes no espaço de
configuração dos campos. No que consistem esses objetos, quando observamos sistemas cuja
integral fundamental é uma integral múltipla, veremos através de uma construção que pre-
tende ser análoga à de Carathéodory para integrais simples.
O primeiro passo para este objetivo é definir um método pelo qual podemos introduzir
integrais equivalentes à integral fundamental
A [φ]
L
x
µ
, φ
a
, φ
a
µ
, φ
a
µν
, . . .
. (2.1)
Diferentemente do caso em que a ação depende apenas de um parâmetro, não existe um único
meio de se definir integrais equivalentes. O método mais simples é através de uma dife-
rencial funcional total, ou seja, pela adição de um termo de fronteira na ação. Este método
foi primeiramente proposto por Weyl [3, 4]. O segundo método para integrais equivalentes
mais conhecido foi proposto pelo próprio Carathéodory e envolve a adição de um determinante
à densidade Lagrangiana [4]. Cada método envolve uma definição diferente para campos
geodésicos e levam a formalismos de Hamilton-Jacobi distintos. Uma peculiaridade muito
interessante sobre o método de Carathéodory é que sua definição leva a uma Hamiltoniana
definida pelo determinante do tensor energia-momento. Aqui, trabalharemos com a teoria de
Weyl por dois motivos: primeiro, é o procedimento que leva a campos geodésicos análogos aos
da mecânica clássica. Segundo, suas limitações não impedem que ela seja praticável para as
teorias de campos que são mais importantes na física. A teoria de Carathéodory, por outro
lado, exige que a Lagrangiana seja sempre positiva, imposição que acaba por excluir muitos
problemas de interesse.
Vamos observar a integral
¯
A [φ] A [φ]
δS, (2.2)
em que
δS
dS
µ
dx
µ
=
S
µ
x
µ
+
δS
µ
δφ
a
φ
a
µ
+
δS
µ
δφ
a
ν
φ
a
µν
+ ···
,
na qual consideramos um conjunto de funções S
µ
= S
µ
x
α
, φ
a
, φ
a
µ
, . . .
. Devemos nos lem-
brar que na expressão à esquerda da diferencial acima temos integrais implícitas devido ao
processo de derivação funcional. Sobre os argumentos das funções S
µ
, podemos limitá-los a
derivadas dos campos até ordem k 1 se a Lagrangiana apresentar derivadas até ordem k. O
motivo ficará claro adiante.
Segundo o teorema de Gauss-Ostrogradski, a integral
δS =
dS
µ
dx
µ
37
depende apenas dos valores de S
µ
na fronteira . Portanto, a primeira variação deste termo,
se considerarmos fixos os parâmetros x
µ
e se escolhermos δ
φ = 0 para todo ponto em ,
é nula. Se uma configuração é um extremo da ação (2.1), ela também será um extremo de
(2.2). Essas integrais fundamentais definem, por consequência, problemas variacionais equi-
valentes. Assim, de forma equivalente à mecânica clássica, a adição de uma divergência total
à densidade Lagrangiana leva a uma densidade Lagrangiana equivalente:
¯
L L
dS
µ
dx
µ
. (2.3)
Este procedimento leva à nossa primeira limitação. Integrais equivalentes não podem ser
definidas simplesmente por (2.2) se o problema variacional tiver fronteira variável, ou seja, se
δx
µ
= 0 em (1.10) e (1.11). Nesses casos, uma generalização torna-se obviamente necessária.
Contudo, vamos nos preocupar apenas com o caso de problemas variacionais com fronteira
fixa, o que abriga de forma geral os sistemas mais importantes em teorias de campos.
Temos devidamente elaborada, portanto, uma forma de definir integrais equivalentes à
ação (2.1), de modo que podemos nos preocupar em encontrar extremos para a integral (2.2).
A construção a seguir, na direção desse objetivo, vem a ser uma generalização do método
desenvolvido em [5].
A princípio, vamos considerar a configuração
φ : φ
a
= φ
a
(x
µ
) , (2.4)
definida em Q. Se as funções φ
a
(x) devem ser pelo menos de classe C
2k
, podemos supor a
existência de um conjunto de equações diferenciais
φ
µ
: φ
a
µ
= β
a
µ
(φ
a
, x
µ
) , (2.5)
tais que a configuração (2.4) seja solução de (2.5). De fato, (2.5) define uma configuração dos
campos que habitam o espaço tangente TQ do espaço de configuração. De forma análoga,
φ
µν
: φ
a
µν
= β
a
µν
φ
a
µ
, φ
a
, x
µ
, (2.6)
correspondem aos campos do espaço tangente dos tensores simétricos de segunda ordem, T
2
Q.
Construímos, assim, coordenadas para os espaços tangentes a Q até ordem k, considerando os
campos
φ
a
µ
, φ
a
µν
, ···
como variáveis independentes entre si, relacionadas por um conjunto de
k equações diferenciais tais como (2.5) e (2.6), que escreveremos de forma compacta por
φ
(i)
: φ
a
(i)
= β
a
(i)
x
µ
, φ
a
, ··· , φ
a
(i1)
. (2.7)
Nessa expressão, o índice i assume os valores de 1 a k e representa a ordem da derivada dos
38
campos. Por exemplo, quando i = 1, a equação (2.7) torna-se a equação para as velocidades
(2.5). Se i = 2, temos reproduzida a equação (2.6).
Conhecidos todos os campos dos espaços tangentes a Q, assumiremos que existe um con-
junto de funções S
µ
tal que
¯
L
x
µ
, φ
a
, β
a
(i)
= 0. (2.8)
Além de (2.8), vamos supor que
¯
L
x
µ
, φ
a
, φ
a
(i)
> 0, ou
¯
L
x
µ
, φ
a
, φ
a
(i)
< 0, (2.9)
para quaisquer φ
a
(i)
= β
a
(i)
.
Neste caso, a configuração φ é um extremo global da integral (2.2), que esta integral será
nula sempre que φ
a
(i)
= β
a
(i)
, em razão da validade de (2.8), e será sempre maior ou menor que
zero para quaisquer φ
a
(i)
= β
a
(i)
. No caso do sinal maior, a integral fundamental definida por
¯
L
será mínima. Caso contrário, teremos um máximo. Também podemos definir as desigualdades
(2.9) para qualquer valor de φ
a
(i)
em uma vizinhança de β
a
(i)
e, assim, lidaríamos com um
mínimo local, fato que não afeta o procedimento que teceremos aqui.
Portanto, estamos trabalhando com uma família de densidades Lagrangianas, cuja ação
assume um valor extremo quando os campos tangentes obedecem as equações (2.7). As
derivadas de
¯
L com relação aos campos tangentes devem ser nulas independentemente no
ponto de mínimo, ou seja,
δ
¯
L
δφ
a
(i)
φ
a
(i)
=β
a
(i)
= 0. (2.10)
A densidade Lagrangiana depende de derivadas dos campos até ordem k. Vamos tomar uma
das condições (2.10), digamos, com relação a um campo tangente de ordem i. Com isso, obte-
mos
δ
¯
L
δφ
b
(i)
=
δL
δφ
b
(i)
δ
δφ
b
(i)
dS
ν
dx
ν
δL
δφ
b
(i)
δ
δφ
b
(i)
S
ν
x
ν
δ
δφ
b
(i)
k1
m=0
φ
a
ν(m)
δS
ν
δφ
a
(m)
=
δL
δφ
b
(i)
δS
ν
δφ
b
(i1)
x
ν
δS
ν
δφ
b
(i)
k1
m=0
φ
a
ν(m)
δ
δφ
b
(i)
δS
ν
δφ
a
(m)
=
δL
δφ
b
(i)
δS
ν
δφ
b
(i1)
d
dx
ν
δS
ν
δφ
b
(i)
.
39
Para qualquer valor de m tal que 0 m k 1, temos, no ponto de mínimo,
δS
ν
δφ
a
(m)
=
δL
δφ
a
ν(m)
d
dx
µ
δS
µ
δφ
a
ν(m)
, (2.11)
de acordo com (2.10). Se m = k 1, o que corresponde a i = k, temos
δ
¯
L
δφ
a
µ(k1)
=
δL
δφ
a
µ(k1)
δS
µ
δφ
a
(k1)
,
pois as funções S
µ
dependem dos campos tangentes apenas até ordem k 1. Portanto, mais
uma vez no ponto de mínimo,
δS
µ
δφ
a
(k1)
=
δL
δφ
a
µ(k1)
. (2.12)
Se tomarmos uma ordem abaixo, (2.11) indica que
δS
ν
δφ
a
(k2)
=
δL
δφ
a
ν(k2)
d
dx
µ
δS
µ
δφ
a
ν(k2)
=
δL
δφ
a
ν(k2)
d
dx
µ
δL
δφ
a
µν(k2)
.
Na ordem k 3,
δS
ν
δφ
a
(k3)
=
δL
δφ
a
ν(k3)
d
dx
µ
δS
µ
δφ
a
ν(k3)
=
δL
δφ
a
ν(k3)
d
dx
µ
δL
δφ
a
µν(k3)
d
dx
λ
δL
δφ
a
µνλ(k3)

.
Seguindo este processo de iteração, temos a expressão geral
δS
ν
δφ
a
(m)
=
δL
δφ
a
ν(m)
d
dx
µ
δL
δφ
a
νµ(m)
d
dx
λ
δL
δφ
a
νµλ(m)
d
dx
γ
δL
δφ
a
νµλγ(m)
···

=
δL
δφ
a
ν(m)
d
dx
µ
δL
δφ
a
νµ(m)
+
d
dx
µ
d
dx
λ
δL
δφ
a
νµλ(m)
d
dx
µ
d
dx
λ
d
dx
γ
δL
δφ
a
νµλγ(m)
··· . (2.13)
Nesta expressão, temos à direita a derivada de Lagrange (1.21), de modo que podemos escr-
ever
δS
µ
δφ
a
(m)
=
¯
δL
¯
δφ
a
µ(m)
, (2.14)
para todo 0 m k 1.
Vamos considerar uma densidade Lagrangiana L
x
µ
, φ
a
, φ
a
µ
, φ
a
µν
, cujo exemplo mais céle-
bre vem a ser a teoria eletromagnética generalizada de Podolsky. Neste caso, k = 2, enquanto
40
m assume os valores de zero e 1. As condições (2.14) assumem a forma
δS
µ
δφ
a
ν
=
δL
δφ
a
µν
, (2.15)
δS
µ
δφ
a
=
δL
δφ
a
µ
d
dx
ν
δL
δφ
a
µν
=
δL
δφ
a
µ
x
ν
δL
δφ
a
µν
φ
b
ν
δ
2
L
δφ
b
δφ
a
µν
φ
b
νλ
δ
2
L
δφ
b
λ
δφ
a
µν
φ
b
νλγ
δ
2
L
δφ
b
λγ
δφ
a
µν
. (2.16)
Portanto, as derivadas funcionais das funções S
µ
estão relacionadas com derivadas fun-
cionais da Lagrangiana através das relações (2.14), como condições para que a ação seja um
extremo na configuração (2.4). Notemos que essas expressões dependem dos campos tangentes
de ordem superior a k.
Observando a condição (2.8), temos
L
S
µ
x
µ
k1
m=0
φ
a
µ(m)
δS
µ
δφ
a
(m)
= 0,
novamente lembrando que a igualdade vale para φ
a
(i)
= β
a
(i)
. Neste caso, podemos escrever
S
µ
x
µ
= L
k1
m=0
φ
a
µ(m)
δS
µ
δφ
a
(m)
,
em que as derivadas de S
µ
são obtidas da expressão (2.14), resultando em
S
µ
x
µ
= L
k
i=1
φ
a
(i)
¯
δL
¯
δφ
a
(i)
. (2.17)
Agora, vamos analisar a desigualdade
¯
L
x
µ
, φ
a
, φ
a
µ
, ···
> 0, válida para qualquer φ
a
(i)
=
β
a
(i)
, que é análoga à expressão
L
S
µ
x
µ
k
i=1
φ
a
(i)
¯
δL
¯
δφ
a
(i)
> 0. (2.18)
Nesta, usamos a notação L
L
x
µ
, φ
a
, φ
a
µ
, ···
. As derivadas funcionais não mudam seu
valor para o caso em que φ
a
(i)
= β
a
(i)
, de modo que podemos substituir (2.14) e (2.17) direta-
mente em (2.18). Apenas como notação simplificada, vamos usar γ
a
(i)
φ
a
(i)
φ
a
(i)
. Obtemos,
por consequência, a desigualdade
L
L
k
i=1
γ
a
(i)
¯
δL
¯
δφ
a
(i)
> 0. (2.19)
41
À esquerda, temos a função de Weierstrass:
E
W
L
L
k
i=1
γ
a
(i)
¯
δL
¯
δφ
a
(i)
. (2.20)
A condição (2.9) pode, portanto, ser substituída pela condição de Weierstrass
E
W
x
µ
, φ
a
, γ
a
(i)
> 0. (2.21)
Para compreender melhor o papel dessa função no problema variacional, vamos considerar
a integral
J [φ]
δS =
S
µ
x
µ
+
k1
m=0
φ
a
µ(m)
δS
µ
δφ
a
(m)
.
Esta integral é um termo de fronteira e, portanto, independente das funções φ
a
µ
, ou mais
especificamente, independe da configuração dos campos. Substituindo (2.14) e (2.17) nessa
integral, temos
J [φ] =
L +
k
i=1
γ
a
(i)
¯
δL
¯
δφ
a
(i)
. (2.22)
Esta é a integral de Hilbert, independente da configuração dos campos. Na configuração que
minimiza a integral fundamental, em que γ
a
(i)
= 0, esta integral é igual à ação (2.1), ou seja,
J [φ = β] = I [φ]:
J [φ = β] =
Ldω.
Por isso, dizemos que a configuração que extremiza a ação é um campo geodésico.
A integral (2.22) pode ser reescrita com a definição (2.20), resultando em
J [φ] =
[L
E
W
] .
Se a integral de Hilbert independe da configuração, temos uma identidade fundamental:
L
=
Ldω +
E
W
,
que induz na função de Weierstrass a interpretação de uma função de excesso, ou seja, a
integral fundamental calculada em uma configuração qualquer excede seu valor calculado
no ponto de mínimo pela integral dessa função. Dessa forma, a condição (2.21) é condição
suficiente para que a configuração φ seja um mínimo da integral fundamental (2.1).
42
Ainda sobre a função de Weierstrass, podemos colocar a condição (2.21) em uma forma
mais tratável. Vamos considerar a expansão da função L
até segunda ordem em γ
a
(i)
:
L
(x, φ
) = L (x, φ) +
k
i=1
δL
δφ
a
(i)
φ
=φ
γ
a
(i)
+
1
2
k
i,j=1
δ
2
L
δφ
a
(i)
δφ
b
(j)
φ
=φ
γ
a
(i)
γ
b
(j)
. (2.23)
De (2.20), temos
L
L = E
W
+
k
i=1
¯
δL
¯
δφ
a
(i)
γ
a
(i)
. (2.24)
Comparando ambas as equações, obtemos
E
W
=
k
i=1
δL
δφ
a
(i)
¯
δL
¯
δφ
a
(i)
γ
a
(i)
+
1
2
k
i,j=1
δ
2
L
δφ
a
(i)
δφ
b
(j)
γ
a
(i)
γ
b
(j)
=
k
i=1
d
dx
µ
¯
δL
¯
δφ
a
(i+1)
γ
a
(i)
+
1
2
k
i,j=1
δ
2
L
δφ
a
(i)
δφ
b
(j)
γ
a
(i)
γ
b
(j)
=
k
i=2
d
dx
µ
¯
δL
¯
δφ
a
(i)
γ
a
(i1)
+
1
2
k
i,j=1
δ
2
L
δφ
a
(i)
δφ
b
(j)
γ
a
(i)
γ
b
(j)
. (2.25)
Primeiro, vamos nos concentrar no termo de primeira ordem. Ele pode ser escrito por
d
dx
µ
¯
δL
¯
δφ
a
(i)
γ
a
(i1)
=
d
dx
µ
¯
δL
¯
δφ
a
(i)
γ
a
(i1)
¯
δL
¯
δφ
a
(i)
a
(i1)
dx
µ
=
d
dx
µ
¯
δL
¯
δφ
a
(i)
γ
a
(i1)
¯
δL
¯
δφ
a
(i)
γ
a
(i)
.
Agora, vamos supor que as funções γ
a
(i)
são nulas na fronteira de . Portanto, o termo de
divergência total é nulo e a função de Weierstrass toma a forma
E
W
=
k
i=2
¯
δL
¯
δφ
a
(i)
γ
a
(i)
+
1
2
k
i,j=1
δ
2
L
δφ
a
(i)
δφ
b
(j)
γ
a
(i)
γ
b
(j)
. (2.26)
Assim, a condição de Weierstrass E
W
> 0 está ligada ao polinômio à direita de (2.26), que
envolve a matriz
W
ij
ab
δ
2
L
δφ
a
(i)
δφ
b
(j)
.
Veremos na seção (2.2) que esta matriz tem importância fundamental. De fato, para teorias
de primeira ordem, em que i = 1,
E
W
=
1
2
δ
2
L
δφ
a
µ
δφ
b
ν
γ
a
µ
γ
b
ν
43
e a condição (2.21) pode ser reescrita por
det W
µν
ab
> 0.
Assim, se a matriz W for positiva-definida, garante-se um mínimo da integral fundamental.
A mesma relação não vale para derivadas de ordem superior, como podemos facilmente
verificar em (2.26). Contudo, é imediato notar que
det W
kk
ab
= 0 (2.27)
é condição necessária (mas não suficiente) para a existência de extremos da integral funda-
mental. (2.27) é chamada condição Hessiana. Contudo, a existência de condições suficientes
que envolvam formas polinomiais como a matriz Hessiana W permanece um problema em
aberto para sistemas com derivadas de ordem superior.
2.2 Introdução de variáveis canônicas
A partir das relações (2.14) e (2.17) temos o que é preciso para formular a teoria de
Hamilton-Jacobi. Ambas as relações podem ser sintetizadas nas expressões
S
µ
x
µ
+
k1
m=0
φ
a
µ(m)
δS
µ
δφ
a
(m)
L = 0 (2.28)
e
φ
a
(i)
= β
a
(i)
x, φ
a
, ··· , φ
a
(i1)
. (2.29)
No entanto, assumir as condições (2.29) é inverossímil, visto que, como regra geral, o co-
nhecimento das soluções do problema variacional é objetivo da existência do formalismo: a
solução, bem como as funções β, não podem ser assumidas por princípio. Mas para que a
equação (2.28) seja útil do ponto de vista operacional, precisamos conhecer as funções β. Esta
equação tornar-se-ia uma equação diferencial para as funções S
µ
e, se essas funções forem
conhecidas, o caminho para a obtenção de extremos retorna ao foco principal.
Se o conhecimento a priori das funções β não pode ser assumido, podemos trabalhar com
condições mais fracas que (2.29) através da introdução de variáveis canônicas, por uma trans-
formação de Legendre. A transformação consiste em um mapeamento entre os campos tan-
gentes φ
a
(i)
e novas variáveis canônicas π
(i)
a
, que cobrem os respectivos espaços cotangentes
definidos sobre Q. Se o mapeamento for biunívoco, expressões para os campos tangentes em
função dos momentos e dos campos podem ser obtidas através da transformação de Legendre
44
inversa. Dizemos que existe um isomorfismo canônico entre os espaços tangentes e cotan-
gentes a Q.
Não existe uma forma única para se definir este mapeamento. O que podemos fazer é
tomar um caminho análogo ao da mecânica clássica e esperar que, por construção, o for-
malismo resultante seja consistente. Vamos observar um sistema clássico tal que a função
Lagrangiana dependa das derivadas das coordenadas generalizadas até primeira ordem. A
integral fundamental desse sistema é a já conhecida ação de primeira ordem
A
t
1
t
0
L (t, q, ˙q) dt.
O princípio de Hamilton para esta integral compara seu valor calculado em duas curvas entre
dois valores fixos de t. A primeira variação devida a tal comparação é dada por
δA =
t
2
t
1
dt
L
q
d
dt
L
˙q
δq +
t
2
t
1
dt
d
dt
L
˙q
δq
.
Se olharmos para o termo de fronteira, ao usarmos a definição
p
L
˙q
,
temos
t
2
t
1
dt
d
dt
[q] = q|
t=t
2
q|
t=t
1
.
Através da teoria das transformações canônicas, sabemos que a 1-forma q é a função geratriz
de transformações de ponto no espaço de configuração, de modo que p, o momento conjugado,
é gerador de transformações canônicas no espaço das coordenadas.
De maneira análoga, a primeira variação geral para o mesmo problema em teorias de
campos é explícita na expressão (1.24),
δA =
¯
δL
¯
δφ
a
δ
φ
a
+
d
dx
µ
k1
m=0
¯
δL
¯
δφ
a
µ(m)
δφ
a
(m)
H
µ
β
δx
β
,
em que temos o tensor densidade de energia-momento canônico (1.25). Essa relação sugere
que os momentos canonicamente conjugados sejam definidos por
π
(i)
a
¯
δL
¯
δφ
a
(i)
. (2.30)
À direita dessa definição temos um conjunto de funções do espaço de configuração e dos campos
tangentes até ordem 2k i. Esta definição está de acordo com a generalização para campos
do procedimento de Ostrogradski [6, 7]. Se a analogia for completa (assumiremos que é, sem
45
provas imediatas), os momentos (2.30) devem ser geradores de transformações canônicas em
um espaço de fase ainda a ser apropriadamente construído. Observando a forma
k
i=1
π
(i)
a
δφ
a
(i1)
,
somos imediatamente levados a intuir que os momentos, membros dos espaços cotangentes
de ordem i, são geradores de transformações nos espaços tangentes de ordem imediatamente
inferior, i 1.
Em termos das variáveis canônicas, a condição (2.14) pode ser reescrita por
π
µ(m)
a
=
δS
µ
δφ
a
(m)
. (2.31)
Podemos definir também a variável
π
0
S
µ
x
µ
, (2.32)
que pode ser compreendida como uma simples notação. Neste caso, (2.28) torna-se
π
0
+
k
i=1
φ
a
(i)
π
(i)
a
L = 0. (2.33)
Para encontrar condições equivalentes a (2.29), vamos observar a definição (2.30). Para os
momentos de ordem k,
π
(k)
a
=
¯
δL
¯
δφ
a
(k)
=
δL
δφ
a
(k)
= ψ
(k)
a
x
µ
, φ
a
, ··· , φ
a
(k)
. (2.34)
Para obter expressões para os campos φ
a
(k)
, basta inverter essa equação. A condição necessária
e suficiente vem a ser
det
δψ
(k)
a
δφ
b
(k)
= det
δ
2
L
δφ
a
(k)
δφ
b
(k)
= 0. (2.35)
Esta é a mesma condição Hessiana que encontramos em (2.27). A matriz definida por
W
(k)(k)
ab
δ
2
L
δφ
a
(k)
δφ
b
(k)
, (2.36)
que é uma matriz quadrada nos índices a e b, é chamada matriz Hessiana e é a matriz Jaco-
biana da transformação φ
a
(k)
π
(k)
a
. Se essa matriz for regular, podemos escrever
φ
a
(k)
= β
a
(k)
x
µ
, φ
a
, ··· , φ
a
(k1)
, π
(k)
a
. (2.37)
46
Esta expressão, bem como (2.33), nos faria intuir que a inversão de todos os campos tan-
gentes é necessária, desde os campos de velocidades até os campos tensoriais de ordem k 1.
Na verdade, porque derivadas de Lagrange aparecem à direita de (2.30), necessitamos de ex-
pressões equivalentes para os campos tangentes de ordem superior a k, até ordem 2k 1.
Podemos ter isto claro ao ver a expressão para o momento de ordem k 1, dada por
π
(k1)
a
=
¯
δL
¯
δφ
a
(k1)
= ψ
(k1)
a
x
µ
, φ
a
, ··· , φ
a
(k)
, φ
a
(k+1)
. (2.38)
As funções à direita dependem dos campos tangentes até ordem k + 1 e podemos substituir
(2.37) em (2.38): ψ
a
(k1)
dependerão dos momentos π
(k)
a
. Devido à estrutura da derivada de
Lagrange, a dependência dessas funções com os campos φ
a
(k+1)
é linear. Para inverter esta
expressão, temos:
δψ
(k1)
a
δφ
b
(k+1)
=
δ
δφ
b
(k+1)
¯
δL
¯
δφ
a
(k1)
=
δ
δφ
b
(k+1)
δL
δφ
a
(k1)
d
dx
µ
δL
δφ
a
(k)
=
δ
δφ
b
(k+1)
δL
δφ
a
(k1)
x
µ
δL
δφ
a
(k)
k+1
j=1
φ
c
(j)
δ
2
L
δφ
c
(j1)
δφ
a
(k)
=
δφ
c
(k+1)
δφ
b
(k+1)
δ
2
L
δφ
c
(k)
δφ
a
(k)
=
δ
2
L
δφ
a
(k)
δφ
b
(k)
= W
(k)(k)
ab
.
Assim, assumindo a condição Hessiana
det W
(k)(k)
ab
= 0, (2.39)
podemos igualmente inverter a equação (2.38):
φ
a
(k+1)
= β
a
(k+1)
x
µ
, φ
a
, ··· , φ
a
(k1)
, π
(k)
a
, π
(k1)
a
. (2.40)
Com o mesmo processo, podemos inverter os demais campos de ordem superior a k e,
porque a Lagrangiana só depende dos campos até esta ordem, o resultado sempre será
δψ
(km)
a
δφ
b
(k+m)
= (1)
m
W
(k)(k)
ab
, m [0, k 1] ,
de modo que a condição Hessiana (2.39) é a condição necessária e suficiente para a inversão
dos campos tangentes de ordem k a ordem 2k 1, através das definições (2.30). Com este
resultado, podemos ao menos escrever
φ
a
(k+m)
= β
a
(k+m)
x
µ
, φ
a
, ··· , φ
a
(k1)
, π
(k)
a
, π
(k1)
a
, ··· , π
(km)
a
. (2.41)
47
Quando m = k 1, temos
φ
a
(2k1)
= β
a
(2k1)
x
µ
, φ
a
, ··· , φ
a
(k1)
, π
(1)
a
, ··· , π
(k)
a
. (2.42)
Isso é o melhor que se pode fazer. Inverter as relações para os momentos para fins de obter
relações similares a (2.29) está fora de questão para os campos entre φ
a
µ
e φ
a
(k1)
. No entanto,
se a condição Hessiana (2.39) for satisfeita, Ostrogradski mostrou ser possível a construção de
um espaço de fase que contenha as variáveis canônicas
φ
a
, ··· , φ
a
(k1)
, π
µ
a
, ··· , π
(k)
a
. Assim, o
caminho que seguiremos será o seguinte: assumiremos que os campos φ
a
(m)
, em que 0 m
k 1, são coordenadas de um espaço de configuração construído pelo produto
¯
Q
k1
m=0
T
m
Q, T
0
Q Q. (2.43)
Os campos de ordem k, φ
a
(k)
, serão considerados campos de velocidades. Com a transformação
de Legendre (2.30), temos as variáveis conjugadas à coordenadas φ
a
(m)
, os momentos π
µ(m)
a
,
que são elementos pertencentes ao espaço cotangente T
π
¯
Q definido diretamente sobre
¯
Q. É
importante observar que esta correspondência não se ordem a ordem; uma dada coorde-
nada é conjugada ao momento de ordem imediatamente superior. Por exemplo, os campos
φ
a
são conjugados aos momentos π
µ
a
e, portanto, temos d + 1 momentos relacionados a cada
campo de ordem zero. Essa assimetria é inteiramente devida ao fato de trabalharmos em um
formalismo explicitamente covariante.
Assim, assumiremos a seguinte reformulação do problema variacional: Para que a inte-
gral múltipla (2.1) seja um extremo em uma dada configuração φ =
φ
a
(m)
, é necessário e
suficiente que exista um conjunto de funções S
µ
x
µ
, φ
a
(m)
tal que
π
0
+
k
i=1
φ
a
(i)
π
(i)
a
L = 0, π
0
S
µ
x
µ
, π
µ(m)
a
=
δS
µ
δφ
a
(m)
, (2.44)
e que seja satisfeita a condição Hessiana
det W
(k)(k)
ab
= 0, W
(k)(k)
ab
δ
2
L
δφ
a
(k)
δφ
b
(k)
. (2.45)
As condições (2.44) e (2.45) podem, ainda, ser unidas com a definição de uma densidade
Hamiltoniana canônica. (2.45) implica em (2.41), de modo que, para m = 0, temos a expressão
(2.37) para os campos φ
a
(k)
. Assim, de (2.44) obtemos
π
0
+
k1
i=1
φ
a
(i)
π
(i)
a
+ β
a
(k)
π
(k)
a
L
x
µ
, φ
a
(m)
, β
a
(k)
= 0. (2.46)
48
Com esta expressão, definiremos simplesmente
H
c
k1
i=1
φ
a
(i)
π
(i)
a
+ β
a
(k)
π
(k)
a
L
x
µ
, φ
a
(m)
, β
a
(k)
. (2.47)
Esta densidade depende, além do ponto do espaço-tempo, das coordenadas φ
a
(m)
e dos momen-
tos π
(i)
a
. Se escrevermos (2.44) da forma
S
µ
x
µ
+ H
c
x
µ
, φ
a
(m)
,
δS
µ
δφ
a
(m)
= 0, (2.48)
esta torna-se uma equação diferencial parcial funcional para S
µ
.
Esta é a equação de Hamilton-Jacobi, que torna-se condição necessária e suficiente sobre
as funções S
µ
para que os momentos π
(i)
a
definam campos geodésicos, dentre os quais estão os
extremos da integral fundamental.
Como nota sobre a densidade Hamiltoniana, desde deve ficar claro que nossa intenção
é, através deste formalismo, encontrar uma estrutura simplética no espaço das variáveis
φ
a
(m)
, π
µ(m)
a
, com a qual essa densidade tornar-se-ia um gerador dinâmico. Nas próximas
seções veremos como este objetivo pode ser alcançado. Observando-se a forma dessa função
Hamiltoniana, dada genericamente por
H
c
i
φ
a
(i)
π
(i)
a
L,
vemos que esta forma nos lembra o traço do tensor energia momento, dado por
H
α
β
k1
m=0
φ
a
β(m)
π
(m)α
a
α
β
.
Contudo, esta correspondência não é correta, visto que o traço de H
α
β
depende da dimensão do
espaço dos parâmetros, enquanto a Hamiltoniana canônica não depende. A correspondência
entre H
c
e H
α
β
pode ser feita através da projeção deste último sobre um eixo definido no
espaço-tempo. Este consiste no primeiro obstáculo na busca de uma teoria canônica completa-
mente covariante. O formalismo de Hamilton-Jacobi, portanto, já nasce como um formalismo
canônico, baseado em um espaço de fase, assim como o formalismo Hamiltoniano obtido pela
transformação de Legendre das equações de Euler-Lagrange. De fato, neste trabalho empre-
garemos o ponto de vista no qual o formalismo de Hamilton está contido no formalismo de
Hamilton-Jacobi.
Agora que dispomos dos momentos covariantes canonicamente conjugados às variáveis de
49
¯
Q, vamos voltar à teoria de Podolsky como exemplo. Temos a densidade Lagrangiana (1.33):
L =
1
4
F
µν
F
µν
+
1
2
a
2
λ
F
µλ
γ
F
µγ
.
Como a teoria é de segunda ordem, vamos construir os momentos respectivos às coordenadas
A
µ
e A
µ,ν
π
µν
=
¯
δL
¯
δA
µ,ν
=
δL
δA
µ,ν
d
dx
λ
δL
δA
µ,νλ
= F
µν
2a
2
η
ωγ
Υ
αµ
βω
νλ
αγ
λ
ρ
F
βρ
. (2.49)
π
µνλ
=
¯
δL
¯
δA
µ,νλ
=
δL
δA
µ,νλ
= 2a
2
η
ωγ
Υ
αµ
βω
νλ
αγ
ρ
F
βρ
, (2.50)
em que usamos as deltas (1.35) e (1.36). A matriz Hessiana deste sistema é dada pela derivada
de (2.50) com relação a A
µ,νλ
, que resulta em
W
µνλ:σηω
=
δπ
µνλ
δA
σ,ηω
= a
2
η
ηω
η
µσ
η
νλ
η
µν
η
λσ
. (2.51)
Seu determinante é claramente nulo, o que faz deste sistema um sistema não Hessiano, ou
singular. Neste caso, alguns momentos não podem ser invertidos para fornecer os campos
de velocidades e teremos problemas para definir uma equação de Hamilton-Jacobi. Também
vimos que a condição Hessiana é necessária para garantir a presença de extremos da integral
fundamental, o que significa que não configuração extrema da ação de Podolsky em
¯
Q.
Trataremos das ferramentas necessárias para lidar com este tipo de sistema nos capítulos 3
e 4, enquanto a aplicação para a teoria de Podolsky será realizada no capítulo 5
2.3 Equações características
Se a condição Hessiana (2.39) se cumpre, toda informação disponível sobre o sistema des-
crito pela integral (2.1) está na equação de Hamilton-Jacobi (2.48). Com o uso das variáveis
do espaço de fase, escreveremos
π
µ(m)
a
=
¯
δL
¯
δφ
a
µ(m)
=
δS
µ
δφ
a
(m)
, π
0
=
S
µ
x
µ
, (2.52)
Φ
0
π
0
+ H
c
x
µ
, φ
a
(m)
, π
µ(m)
a
= 0. (2.53)
Nesta seção, manteremos os índices 0 m k 1 e 1 i k. Derivando (2.53) com relação
aos momentos, temos
δΦ
0
δπ
µ(m)
a
=
δH
c
δπ
µ(m)
a
50
e essas derivadas podem ser escritas com o auxílio da definição (2.47):
δH
c
δπ
µ(m)
a
=
δ
δπ
µ(m)
a
k2
m
=0
φ
b
ν(m
)
π
ν(m
)
b
+ β
b
(k)
π
(k)
b
L
x
µ
, φ
b
(m)
, β
b
(k)
=
k2
m
=0
φ
b
ν(m
)
δπ
ν(m
)
b
δπ
µ(m)
a
+
δβ
b
(k)
δπ
µ(m)
a
π
(k)
b
+ β
b
(k)
δπ
(k)
b
δπ
µ(m)
a
δL
δφ
b
(k)
δβ
b
(k)
δπ
µ(m)
a
= φ
a
µ(m)
+
δβ
b
(k)
δπ
(k)
a
π
(k)
b
δL
δφ
b
(k)
.
O segundo termo à direita é nulo, visto que (2.52) é válida. Assim, todos os campos tangentes
até ordem k estão relacionados com derivadas da equação de Hamilton-Jacobi com relação aos
momentos por
φ
a
(i)
=
δΦ
0
δπ
(i)
a
.
Consideraremos esta a primeira equação característica da equação de Hamilton-Jacobi.
À direita desta equação, temos funções conhecidas das coordenadas e dos momentos. Ob-
servemos que essas equações não possuem conteúdo dinâmico: são identidades geométricas
que dependem apenas da transformação de Legendre. Será útil futuramente que possamos
escrever esta equação em termos de diferenciais totais, da seguinte forma,
δφ
a
(m)
=
δΦ
0
δπ
µ(m)
a
dx
µ
. (2.54)
Uma segunda equação característica pode ser obtida com a derivação total dos momentos
com relação ao parâmetros. Contudo, vamos tomar o traço desta derivada, da seguinte forma:
µ(m)
a
dx
µ
=
π
µ(m)
a
x
µ
+
k1
m
=0
φ
b
µ(m
)
δπ
µ(m)
a
δφ
b
(m
)
.
De (2.52) temos
π
µ(m)
a
x
µ
=
x
µ
δS
µ
δφ
a
(m)
=
δ
δφ
a
(m)
S
µ
x
µ
,
de modo que
µ(m)
a
dx
µ
=
δπ
0
δφ
a
(m)
+
k1
m
=0
φ
b
µ(m
)
δπ
µ(m)
a
δφ
b
(m
)
. (2.55)
Agora, podemos tomar a derivada total da equação de Hamilton-Jacobi com relação às
51
coordenadas. Ela se desdobra na equação
δΦ
0
δφ
a
(m)
+
δΦ
0
δπ
0
δπ
0
δφ
a
(m)
+
k1
m
=0
δΦ
0
δπ
µ(m
)
b
δπ
µ(m
)
b
δφ
a
(m)
= 0.
Podemos reescrevê-la por
δπ
0
δφ
a
(m)
=
δΦ
0
δφ
a
(m)
k1
m
=0
δΦ
0
δπ
µ(m
)
b
δπ
µ(m
)
b
δφ
a
(m)
(2.56)
e, portanto, com a substituição de (2.56) em (2.55),
µ(m)
a
dx
µ
=
δΦ
0
δφ
a
(m)
k1
m
=0
δΦ
0
δπ
µ(m
)
b
δπ
µ(m
)
b
δφ
a
(m)
+
k1
m
=0
φ
b
µ(m
)
δπ
µ(m)
a
δφ
b
(m
)
. (2.57)
Nesta, inserimos a equação característica (2.54) e obtemos
µ(m)
a
dx
µ
=
δΦ
0
δφ
a
(m)
k1
m
=0
δΦ
0
δπ
µ(m
)
b
δπ
µ(m
)
b
δφ
a
(m)
+
k1
m
=0
δΦ
0
δπ
µ(m
)
b
δπ
µ(m)
a
δφ
b
(m
)
.
A nosso favor, temos a seguinte identidade:
δπ
µ(m)
a
δφ
b
(m
)
=
δ
δφ
b
(m
)
δS
µ
δφ
a
(m)
=
δ
δφ
a
(m)
δS
µ
δφ
b
(m
)
=
δπ
µ(m
)
b
δφ
a
(m)
.
Assim,
µ(m)
a
dx
µ
=
δΦ
0
δφ
a
(m)
. (2.58)
Com esta equação, temos a segunda equação característica da equação de Hamilton-Jacobi,
δπ
µ(m)
a
=
δΦ
0
δφ
a
(m)
dx
µ
. (2.59)
A terceira equação característica é obtida através da diferenciação
dS
µ
dx
µ
=
S
µ
x
µ
+
k1
m=0
φ
a
µ(m)
δS
µ
δφ
a
(m)
=
k
i=1
φ
a
(i)
π
(i)
a
H
c
, (2.60)
em que usamos as condições (2.52) e (2.53). À direita podemos reconhecer a densidade La-
grangiana em sua forma canônica. Podemos nos lembrar da definição
dS
µ
dx
µ
δS
52
e, assim, temos
δS =
k
i=1
φ
a
(i)
π
(i)
a
H
c
.
Integrando em todo o espaço-tempo,
S =
k
i=1
φ
a
(i)
π
(i)
a
H
c
. (2.61)
Através da variação direta da integral (2.61) com relação às variáveis canônicas obtemos iden-
ticamente as equações características (2.54) e (2.59). Dessa forma, quando essas equações são
satisfeitas, S = A [φ]. Também podemos encontrar individualmente as funções S
µ
integrando
diretamente a equação (2.60), obtendo
S
µ
=
k
i=1
φ
a
(i)
π
(i)
a
H
c
dx
µ
. (2.62)
Portanto, as soluções do sistema de equações
δφ
a
(m)
=
δΦ
0
δπ
µ(m)
a
dx
µ
, δπ
µ(m)
a
=
δΦ
0
δφ
a
(m)
dx
µ
, (2.63)
são extremos da integral fundamental (2.1). Essas equações características coincidem com as
equações canônicas de Hamilton segundo a construção de Ostrogradski e, no caso em que k =
1, também com as equações de Hamilton usuais, deduzidas, por exemplo, em [4]. As soluções
das equações características podem ser construídas no espaço das variáveis
φ
a
(m)
, π
µ(m)
a
, que
adotaremos como o espaço de fase T
¯
Q
¯
Q × T
π
¯
Q.
Devidas à transformação de Legendre e à definição da densidade Hamiltoniana temos as
identidades
δ
δφ
a
(m)
H
c
x
µ
, φ
a
(m)
, π
µ(m)
a
=
δ
δφ
a
(m)
L
x
µ
, φ
a
(m)
, φ
a
(k)
x
µ
H
c
x
µ
, φ
a
(m)
, π
µ(m)
a
=
x
µ
L
x
µ
, φ
a
(m)
, φ
a
(k)
,
com as quais as equações características para os momentos resultam em
d
dx
µ
¯
δL
¯
δφ
a
µ(m)
=
δH
c
δφ
a
(m)
=
δL
δφ
a
(m)
,
53
ou seja,
¯
δL
¯
δφ
a
(m)
= 0. (2.64)
Para m = 0 temos as equações de Euler-Lagrange, que devem ser satisfeitas em conjunto
com outras k 2 condições que restam em (2.64). Dessa forma, mostramos novamente que as
soluções das equações características são extremos do problema variacional. Essas soluções,
que definem um subespaço do espaço de fase T
¯
Q, são também campos geodésicos. Isto se
constata a partir da integral de Hilbert
J [φ] =
S
µ
x
µ
+
k1
m=0
φ
a
µ(m)
δS
µ
δφ
a
(m)
=
π
0
+
k
i=1
φ
a
(i)
π
(i)
a
.
Com a equação de Hamilton-Jacobi,
J [φ] =
k
i=1
φ
a
(i)
π
(i)
a
H
c
, (2.65)
em que os momentos são definidos pelas suas respectivas equações canônicas. Quando o
campo é geodésico, com φ
a
(i)
= φ
a
(i)
e φ
a
(k)
= β
a
(k)
, esta integral é igual à integral fundamen-
tal (2.1).
2.4 Integrabilidade
O desenvolvimento anterior depende de um teorema que garanta a existência de uma
configuração φ
a
(m)
e de funções S
µ
tais que
π
µ(m)
a
=
δS
µ
δφ
a
(m)
. (2.66)
Agora, vamos provar este teorema.
Vamos supor um conjunto de soluções das equações características que dependam de n
parâmetros u
a
, formando assim uma família de sub-espaços de n parâmetros
φ
a
(m)
= φ
a
(m)
x
µ
, u
b
, π
(i)
a
= π
(i)
a
x
µ
, u
b
, (2.67)
cuja dimensão é d + 1 e
det
φ
a
(m)
u
b
= 0.
54
Se tal configuração é uma família de extremos, ela pertence a um campo geodésico, para o
qual (2.66) é válida segundo o conjunto de funções
S
µ
= S
µ
x
µ
, φ
a
(m)
x
µ
, u
b

. (2.68)
Temos
S
µ
u
a
=
k1
m=0
δS
µ
δφ
b
(m)
φ
b
(m)
u
a
.
Segundo (2.66),
S
µ
u
a
=
k1
m=0
π
µ(m)
b
φ
b
(m)
u
a
.
Vamos derivar novamente com relação a u
a
:
2
S
µ
u
a
u
b
=
k1
m=0
π
µ(m)
c
u
b
φ
c
(m)
u
a
+ π
µ(m)
c
2
φ
c
(m)
u
a
u
b
,
ou seja,
2
S
µ
u
a
u
b
k1
m=0
π
µ(m)
c
2
φ
c
(m)
u
a
u
b
=
k1
m=0
π
µ(m)
c
u
b
φ
c
(m)
u
a
. (2.69)
Estamos admitindo que todas as funções são pelo menos de classe C
2
em u
a
. O lado esquerdo
de (2.69) é simétrico em a e b, de modo que a parte antissimétrica do termo à direita da
igualdade é nula:
u
a
, u
b
µ
= 0, (2.70)
na qual definimos os parênteses de Lagrange
u
a
, u
b
µ
k1
m=0
φ
c
(m)
u
a
π
µ(m)
c
u
b
φ
c
(m)
u
b
π
µ(m)
c
u
a
. (2.71)
A relação (2.70) é a condição necessária que garante a existência de um conjunto de funções
S
µ
que satisfaça (2.66).
Podemos mostrar que (2.70) é uma condição também suficiente. Vamos supor uma família
de configurações
φ
a
(m)
= φ
a
(m)
x
µ
, u
b
, π
(i)
a
= π
(i)
a
x
µ
, u
b
,
55
tal que
k1
m=0
φ
c
(m)
u
a
π
µ(m)
c
u
b
φ
c
(m)
u
b
π
µ(m)
c
u
a
= 0.
Temos
k1
m=0
φ
c
(m)
u
a
π
µ(m)
c
u
b
φ
c
(m)
u
b
π
µ(m)
c
u
a
=
k1
m=0
u
b
π
µ(m)
c
φ
c
(m)
u
a
u
a
π
µ(m)
c
φ
c
(m)
u
b

,
ou seja,
k1
m=0
u
b
π
µ(m)
c
φ
c
(m)
u
a
=
k1
m=0
u
a
π
µ(m)
c
φ
c
(m)
u
b
.
Portanto, deve existir um conjunto de funções σ
µ
(x
µ
, u
a
) de modo que
k1
m=0
π
µ(m)
c
φ
c
(m)
u
a
=
σ
µ
u
a
. (2.72)
Podemos inverter a equação paramétrica para os campos a fim de obter a relação
u
a
= u
a
x
µ
, φ
a
(m)
e definir as funções
S
µ
x
µ
, φ
a
(m)
σ
µ
x
µ
, u
a
x
µ
, φ
a
(m)

.
Automaticamente essas definições resultam na identidade
σ
µ
u
a
=
k1
m=0
S
µ
φ
b
(m)
φ
b
(m)
u
a
. (2.73)
Comparando (2.72) e (2.73) temos
π
µ(m)
a
=
δS
µ
δφ
a
(m)
. (2.74)
Se as coordenadas e os momentos forem canônicos, satisfazendo (2.63), podemos derivar
56
(2.74) com relação a x
µ
, obtendo
d
dx
µ
π
µ(m)
a
δS
µ
δφ
a
(m)
=
µ(m)
a
dx
µ
d
dx
µ
δS
µ
δφ
a
(m)
=
δΦ
0
δφ
a
(m)
x
µ
δS
µ
δφ
a
(m)
k1
m
=0
δS
µ
δφ
a
(m)
δφ
a
(m
)
φ
a
µ(m
)
,
ou seja, com a igualdade (2.74),
δΦ
0
δφ
a
(m)
+
x
µ
δS
µ
δφ
a
(m)
+
k1
m
=0
δS
µ
δφ
a
(m)
δφ
a
(m
)
φ
a
µ(m
)
= 0.
Utilizando a primeira equação característica de (2.63) e lembrando que Φ
0
= π
0
+ H
c
,
δH
c
δφ
a
(m)
+
x
µ
δS
µ
δφ
a
(m)
+
k1
m
=0
δS
µ
δφ
a
(m)
δφ
b
(m
)
δH
c
δπ
µ(m
)
b
= 0,
que pode ser colocado na forma
δ
δφ
a
(m)
S
µ
x
µ
+ H
c
x
µ
, φ
a
(m)
,
δS
µ
δφ
a
(m)

= 0. (2.75)
A solução mais trivial de (2.75) vem a ser
S
µ
x
µ
+ H
c
x
µ
, φ
a
(m)
,
δS
µ
δφ
a
(m)
= F (x
µ
) . (2.76)
A função F depende apenas dos parâmetros e pode, sem perda de generalidade, ser tomada
nula. Portanto, reobtemos a equação de Hamilton-Jacobi a partir das condições de integra-
bilidade (2.70) e das equações características. Isto mostra que a nulidade dos parênteses de
Lagrange com relação às coordenadas e momentos garantem que essas variáveis canônicas
descrevam campos geodésicos com relação a um conjunto de funções S
µ
. Esta condição de
integrabilidade assume importância fundamental mais adiante, quando lidaremos com o caso
em que a condição Hessiana não é satisfeita pela densidade Lagrangiana.
2.5 Os parênteses de Poisson
Para completar este capítulo, vamos fazer uma tentativa de compreender a estrutura sim-
plética que existe por trás do espaço de fase deste formalismo, que envolve duas generaliza-
ções: a descrição de teorias de campos em forma explicitamente covariante e o tratamento
de densidades Lagrangianas com derivadas superiores dos campos. Ambas as generalizações
57
trazem limitações e problemas em sua aplicação conjunta a problemas físicos de interesse,
como logo veremos. Contudo, muitas características deste problema variacional são análo-
gas ao problema equivalente que pertence à mecânica clássica. Nota-se, por exemplo, que a
construção canônica levada a cabo por Ostrogradski para Lagrangianas de ordem superior foi
naturalmente reproduzida pelo formalismo de Hamilton-Jacobi.
Vamos escrever as equações características utilizando explicitamente sua forma correta
considerando o cálculo funcional:
δφ
a
(m)
(x) =
y
δΦ
0
(y)
δπ
µ(m)
a
(x)
dy
µ
, δπ
µ(m)
a
(x) =
y
δΦ
0
(y)
δφ
a
(m)
(x)
dy
µ
. (2.77)
Estas equações diferenciais totais podem ser naturalmente interpretadas como equações dinâ-
micas com soluções no espaço de fase T
¯
Q das variáveis canônicas φ
a
(m)
e π
µ(m)
a
. Relembremos
que os argumentos das funções acima remetem ao ponto de aplicação no espaço-tempo, já que
essas funções devem ser tomadas como densidades distribucionais.
Agora, vamos considerar um observável físico representado por uma função do espaço de
fase, F (x, φ, π), que depende explicitamente dos parâmetros, das coordenadas e dos momen-
tos. A evolução deste observável é dada por diferenciação funcional, tal como
δF (x) =
F (x)
x
µ
dx
µ
+
y
δF (x)
δφ
a
(m)
(y)
δφ
a
(m)
(y) +
δF (x)
δπ
µ(m)
a
(y)
δπ
µ(m)
a
(y)
. (2.78)
Nesta expressão, bem como no restante desta seção, vamos suprimir a soma sobre as ordens,
supondo que o índice m varie sempre entre os valores zero e k 1. Contudo, voltamos a expli-
citar a integração devida ao processo de diferenciação funcional. As equações características
(2.77) podem ser inseridas na lei de evolução (2.78) e, dessa forma, obtemos a expressão
δF (x) =
F (x)
x
µ
dx
µ
+
y
z
δF (x)
δφ
a
(m)
(y)
δΦ
0
(z)
δπ
µ(m)
a
(y)
δF (x)
δπ
µ(m)
a
(y)
δΦ
0
(z)
δφ
a
(m)
(x)
dz
µ
. (2.79)
Nesta, vamos definir a operação
{A (x) , B (y)}
µ
=
F (x)
y
µ
+
z
δA (x)
δφ
a
(m)
(z)
δB (y)
δπ
µ(m)
a
(z)
δA (x)
δπ
µ(m)
a
(z)
δB (y)
δφ
a
(m)
(z)
, (2.80)
que vem a ser os parênteses de Poisson da teoria. Podemos escrever a evolução de um ob-
servável, portanto, por
δF (x) =
y
{F (x) , Φ
0
(y)}
µ
dy
µ
. (2.81)
58
Como bons parênteses, (2.80) agem como operadores diferenciais bilineares, antissimétricos
e que obedecem a identidade de Jacobi. A equação (2.81), por sua vez, é uma equação de
evolução Hamiltoniana típica, na qual vemos que Φ
0
age como uma função Hamiltoniana:
ela é geradora de transformações em observáveis que conectam diferentes pontos do espaço-
tempo.
Os parênteses entre as variáveis canônicas, segundo a definição (2.80), são dados por
φ
a
(m)
(x) , π
λ(m
)
b
(y)
µ
= δ
a
b
δ
λ
µ
δ
(m
)
(m)
δ
d+1
(x y) (2.82)
e, assim, as equações características podem ser escritas por
δφ
a
(m)
(x) =
y
φ
a
(m)
(x) , Φ
0
(y)
µ
dy
µ
, (2.83)
δπ
α(m)
a
(x) =
y
π
α(m)
a
(x) , Φ
0
(y)
µ
dy
µ
. (2.84)
Essas equações definem a evolução das variáveis do espaço de fase com relação aos parâmetros
x
µ
.
Consideremos por um instante os momentos π
α(m)
a
. Através do cálculo dos parênteses
F (x) , π
α(m)
a
(y)
µ
= δ
α
µ
δF (x)
δφ
a
(m)
(y)
,
podemos mostrar que uma variação infinitesimal das coordenadas, denotada por δφ
a
(m)
, im-
plica em uma variação infinitesimal equivalente em qualquer observável F , que denotamos
por δ
φ
F , através da equação
δ
φ
F (x)
1
d + 1
y
F (x) , π
µ(m)
a
(y)
µ
δφ
a
(m)
(y) . (2.85)
Esta equação também pode ser vista como uma transformação ativa φ
a
(m)
φ
a
(m)
+δφ
a
(m)
, que
tem como geradores os momentos. Assim, em analogia com a mecânica clássica, dizemos que
os momentos são geradores de transformações no espaço das coordenadas. Da mesma forma,
podemos mostrar que
δ
π
F (x) =
y
F (x) , φ
a
(m)
(y)
µ
δπ
µ(m)
a
(y) , (2.86)
ou seja, as coordenadas agem como geradores de transformações no espaço dos momentos.
Não existe uma maneira única de dar prosseguimento à construção de um formalismo
simplético a partir deste ponto, de modo que nos limitaremos apenas a alguns comentários a
respeito. Na literatura existem várias abordagens, nem todas equivalentes, para a geometria
simplética por trás desse formalismo. Podemos citar, por exemplo, o formalismo multissim-
59
plético [8, 9]. No que segue, representa o produto exterior, enquanto representa o produto
interno. A partir da integral fundamental
A =
L,
definimos a (d + 1)-forma fundamental
θ Ldω, dx
0
dx
1
. . . dx
d
. (2.87)
Com esta e a partir da transformação de Legendre, temos a (d + 1)-forma canônica
θ = π
µ(m)
a
a
(m)
d
dx
µ
+ π
0
. (2.88)
A (d + 2)-forma simplética é definida por , resultando na expressão explícita
Ω =
µ(m)
a
a
(m)
d
dx
µ
0
. (2.89)
O espaço de fase de coordenadas
x
µ
, φ
a
(m)
, π
0
, π
µ(m)
a
imbuído com uma (d + 2)-forma sim-
plética (2.89) é chamado espaço de fase multissimplético.
À parte desta pequena digressão consideramos os parênteses de Poisson (2.80) a estrutura
fundamental. Contudo, o sucesso deste programa em problemas físicos de interesse é seri-
amente comprometido por dois problemas correlacionados. O primeiro vem a ser a condição
Hessiana generalizada (2.27), que não é satisfeita, por exemplo, em teorias com simetria de
gauge. Este problema poderia ser contornado com um programa de análise de vínculos co-
variante. Contudo, essa tentativa certamente se depara com uma segunda barreira: teorias
de campo relativísticas são, por definição, invariantes por reparametrizações. No restante
desta seção vamos nos preocupar em analisar o motivo pelo qual a invariância com relação
aos parâmetros de uma teoria torna-se um sério problema para o programa proposto neste
capítulo.
As transformações de parâmetros tomam a forma de transformações de coordenadas no
espaço-tempo:
¯x
µ
= ¯x
µ
(x
ν
) . (2.90)
As funções ¯x
µ
são pelo menos de classe C
1
e obedecem a condição
J det [b
µ
ν
] = 0, b
µ
ν
x
µ
¯x
ν
.
Existem exemplos distintos de densidades Lagrangianas que resultam em integrais funda-
mentais invariantes por reparametrizações. Por exemplo, as teorias de campos no espaço
60
de Minkowski, como o eletromagnetismo e as teorias de Yang-Mills-Utiyama, são caracter-
izadas por densidades Lagrangianas que independem explicitamente do ponto do espaço-
tempo. Esses sistemas se assemelham mais aos sistemas em mecânica clássica invariantes
por reparametrizações: são invariantes por reparametrizações em razão da estrutura al-
gébrica das Lagrangianas.
Por outro lado, a densidade Lagrangiana
L =
|g|g
µν
(x) φ
a
µ
φ
a
ν
, (2.91)
resulta em uma integral fundamental invariante, desde que g
µν
sejam componentes con-
travariantes de um tensor simétrico de segunda ordem, com g = det (g
µν
). As componentes g
µν
se transformam contravariantemente, enquanto os campos tangentes se transformam como
vetores covariantes:
g
αβ
= b
µ
α
b
µ
β
¯g
µν
, φ
a
µ
=
b
1
ν
µ
¯
φ
a
ν
,
b
1
ν
µ
b
µ
γ
= δ
ν
γ
.
A raiz do determinante transforma-se pela relação
¯g = |J|
g,
de modo que a densidade Lagrangiana (2.91) também é uma densidade escalar de peso 1
com relação à transformação (2.90). Assim, a integral fundamental
Ldω tona-se invariante,
visto que o elemento de volume transforma-se segundo d¯ω = |J|
1
. Neste exemplo, que não
possui paralelos na mecânica clássica, a densidade Lagrangiana depende explicitamente dos
parâmetros e, mesmo assim, o sistema é invariante em razão de sua estrutura tensorial. O
problema físico que mais se assemelha a esta situação poderia ser uma teoria de campos em
um espaço-tempo fixo com métrica dependente do ponto.
Os dois tipos de teorias são inteiramente distintos do ponto de vista do cálculo variacional,
o que torna a análise das propriedades de invariância da ação pelas transformações (2.90) um
problema de difícil generalização.
Vamos considerar uma Lagrangiana explicitamente independente dos parâmetros com a
forma L
φ
a
, φ
a
(i)
, em que i = 1, . . . , k. Para a invariância da integral fundamental, temos
¯
L
φ
a
,
¯
φ
a
(i)
d¯ω =
L
φ
a
, b
(i
)
(i)
φ
a
(i
)
|J|
1
=
L
φ
a
, φ
a
(i)
,
em que usamos a notação simbólica
b
(i
)
(i)
φ
a
(i
)
b
µ
α
φ
a
µ
+ b
µ
α
b
ν
β
φ
a
µν
+ ··· .
61
Dessa forma, a condição para que a ação seja invariante vem a ser
L
φ
a
, b
(i
)
(i)
φ
a
(i
)
= L
φ
a
, φ
a
(i)
|J|. (2.92)
Vamos derivar (2.92) com relação aos elementos b
(i
)
(i)
. No lado esquerdo temos
b
(i
)
(i)
L
φ
a
,
¯
φ
a
(i)
=
δ
¯
L
δ
¯
φ
a
(i

)
¯
φ
a
(i

)
b
(i
)
(i)
=
δL
δφ
a
(i

)
b
(i

)
(i

)
b
(i
)
(i)
φ
a
(i

)
.
No lado direito,
b
(i
)
(i)
[L|J|] = L
J
b
(i
)
(i)
,
de modo que a condição (2.92) torna-se
δL
δφ
a
(i)
φ
a
(i
)
= L
J
b
(i
)
(i)
(2.93)
Esta expressão vale para cada valor de i. Por exemplo, para i = 1,
δL
δφ
a
µ
φ
a
ν
= L
J
b
ν
µ
.
Para i = 2,
δL
δφ
a
µν
φ
a
αβ
= L
J
b
α
µ
b
β
ν
.
No caso especial em que b
α
µ
= δ
α
µ
, podemos mostrar facilmente que (2.93) é equivalente a
δL
δφ
a
(i)
φ
a
(i
)
δ
(i)
(i
)
L = 0. (2.94)
A condição (2.94) é suficiente para que a integral seja invariante por reparametrizações.
Ela também é uma condição necessária, cuja prova encontra-se em [4] para o caso k = 1.
Esta prova é facilmente generalizada para derivadas de ordem superior, de modo que não nos
preocuparemos em demonstrá-la aqui. Se esta estrutura é nula, vamos tomar a expressão
com i = k. Por ser a última ordem das derivadas que ocorrem na Lagrangiana, (2.94) torna-se
¯
δL
¯
δφ
a
(k)
φ
a
(k
)
δ
(k)
(k
)
L = 0.
62
Se esta expressão é válida, evidencia-se a validade da expressão contraída
¯
δL
¯
δφ
a
µ(m)
φ
a
(m)ν
δ
µ
ν
L = 0. (2.95)
À esqueda de (2.95) temos o tensor densidade de energia-momento canônico, definido em
(1.25).
Dessa forma, teorias invariantes por reparametrizações possuem o tensor densidade de
energia-momento identicamente nulo se a invariância é devida a independência da densidade
Lagrangiana com relação aos parâmetros. De fato, a condição (2.95) é puramente geométrica:
não depende das expressões particulares para a Lagrangiana ou para os campos. Como con-
sequência, a densidade Hamiltoniana canônica definida em (2.47) também é identicamente
nula:
δL
δφ
a
(i)
φ
a
(i)
L = 0.
Portanto, o formalismo canônico que desenvolvemos a partir do formalismo de Hamilton-
Jacobi torna-se impraticável. Tentativas para corrigir este problema foram realizadas, por
exemplo, em [4], onde uma redefinição das transformações de Legendre resulta em uma teo-
ria Hamiltoniana generalizada. Contudo, essa proposição depende de condições que descar-
tam aplicações físicas importantes e, portanto, não seguiremos este caminho. O fato é que
ainda não podemos escapar da decomposição d + 1, que foi a maneira como Dirac enfrentou o
problema da existência de vínculos canônicos.
Portanto, no capítulo 3 vamos voltar à análise de Hamilton-Jacobi, desta vez com a escolha
de um eixo temporal que quebra a covariância explícita do formalismo. Com esta escolha o
problema da invariância por reparametrizações é resolvido da maneira mais simples possível:
com a escolha de uma parametrização particular. Também seremos capazes de abordar o
problema da existência de sistemas não Hessianos.
63
Referências
[1] C. Caratheodory, Calculus of Variations and Partial Differential Equations of the First
Order, Holden Day Inc. (1967).
[2] M. C. Bertin, B. M. Pimentel & P. J. Pompeia, Formalismo de Hamilton-Jacobi à la
Carathéodory, Revista Brasileira de Ensino de Física 29, 393-403 (2007).
Formalismo de Hamilton-Jacobi à la Carathéodory parte 2, sistemas singulares, Revista
Brasileira de Ensino de Física 30, 3310 (2008).
[3] H. Weyl, Geodesic fields in the calculus of variations for multiple integrals, Ann. Math.
36, 607-629 (1935).
[4] H. Rund, The Hamilton-Jacobi theory in the calculus of variations; its role in mathemat-
ics and physics, Van Nostrand, (1966).
[5] B. M. Pimentel & R. G. Teixeira, Generalization of the Hamilton-Jacobi approach for
higher-order singular systems, Il Nuovo Cimento B 113, 805-817 (1998).
[6] M. Ostrogradski, Mem. Ac. St. Petersbourg 1, 385 (1850).
[7] E. T. Whittaker, A treatise on the analitical dynamics of particles and rigid bodies, Cam-
bridge Un. Press (1917).
[8] G. Giachetta, L. Mangiarotti & G. Sardanashvily, New lagrangian and hamiltonian
methods in field theory, World Scientific (1997).
[9] M. J. Gotay, J. Isenberg & J. E. Marsden, Momentum maps and classical relativistic
fields, Part I: Covariant field theory, arXiv:physics/9801019v2 (2004).
64
Capítulo 3
Sistemas não Hessianos
————————————————————————–
Introdução
No capítulo 2 usamos a introdução de variáveis canônicas para transformar as condições
para a construção de um campo geodésico em uma equação diferencial funcional, a equação
de Hamilton-Jacobi. A condição para que esta construção seja possível é a condição Hessiana.
Esta é uma condição não para a existência de uma boa transformação de Legrendre, mas
também para a própria existência dos campos geodésicos: se uma configuração é tal que mi-
nimiza ou maximiza a integral fundamental, a condição Hessiana é satisfeita. Isto porque a
conexão da matriz Hessiana com a segunda variação da integral fundamental mostra que, se
o determinante da matriz Hessiana é nulo, também será nula a segunda variação e, portanto,
não podemos garantir a existência de extremos.
Contudo, a matriz Hessiana é um propriedade da densidade Lagrangiana e não podemos
garantir que sistemas físicos obedeçam a condição Hessiana por princípio. De fato, em teorias
de campos abundam sistemas nos quais a matriz Hessiana é singular. Dentre tais sistemas
estão os campos fundamentais descritos por teorias de gauge e, por esta razão, não podemos
nos limitar a tratar apenas sistemas que concordem com a condição (2.39). As teorias que vi-
olam a condição Hessiana são tratadas na literatura como sistemas singulares, que possuem
vínculos entre as variáveis do espaço de fase. Uma das consequências notáveis dessas teorias
vem a ser o fato de que as relações de comutação entre as variáveis canônicas a nível quântico
não raro devem ser modificadas para que sejam consistentes com as equações de movimento.
Aqui, usaremos frequentemente as expressões “sistemas não Hessianos” e “sistemas singu-
lares” para nos referir a este tipo de teoria.
O problema da não validade da matriz Hessiana foi primeiramente tratado por Dirac
[1], em paralelo com trabalhos de Bergmann [2], que elaboraram um formalismo Hamiltoni-
ano para sistemas singulares. Este método, conhecido como formalismo de Dirac-Bergmann,
aplica-se a encontrar um sub-espaço do espaço de fase no qual a condição Hessiana seja válida
e as equações canônicas sejam equivalentes às equações de Euler-Lagrange. Sob este ponto de
vista, a singularidade da matriz Hessiana implica em vínculos algébricos entre as variáveis
canônicas. No caminho para a construção da equivalência entre este formalismo Hamiltoni-
ano e o de Euler-Lagrange que se impor condições de consistência sobre os vínculos, sua
separação entre vínculos em primeira e segunda classe, a possível definição dos parênteses de
Dirac e, como resultado mais importante, a correspondência entre vínculos de primeira classe
e simetrias. Além dos artigos originais, um estudo bastante completo do formalismo de Dirac
pode ser encontrado nas referências [3, 4, 5].
Em razão desta motivação, a generalização do formalismo que desenvolvemos até aqui,
de modo a englobar sistemas que não obedecem a condição Hessiana, torna-se um caminho
natural. A primeira (e também mais séria) consequência que vem desta violação é a impos-
sibilidade de se definir um campo geodésico que contenha imersa uma configuração mínima
da integral fundamental. A nível Lagrangiano, tampouco é possível garantir que soluções das
equações de Euler-Lagrange sejam extremos locais. Este problema se reflete, como já vimos,
na própria construção do formalismo canônico: a construção do espaço de fase pode ser feita
através de uma transformação do tipo (2.30), mas esta não consistirá em uma transformação
de Legendre, tal que entre os momentos e os campos tangentes não poderá existir uma re-
lação biunívoca. Portanto, não se pode estabelecer um isomorfismo canônico entre os espaços
tangentes e cotangentes de
¯
Q.
No entanto, como vimos também no capítulo 2, as teorias de campos nas quais estamos in-
teressados na Física possuem um requerimento vindo da relatividade geral: a integral funda-
mental que as descreve deve ser invariante por reparametrizações. Especialmente nas teorias
de campos que descrevem interações fundamentais na natureza, a densidade Lagrangiana é
explicitamente independente do ponto do espaço-tempo e, como consequência imediata, o ten-
sor densidade de energia-momento canônico (1.25) dessas teorias é identicamente nulo. Isso
também ocorre com todas as suas contrações e projeções, particularmente com a densidade
Hamiltoniana canônica (2.47). Neste caso, o programa que descrevemos no capítulo 2 sofre
um colapso: a equação de Hamilton-Jacobi torna-se uma identidade, não uma equação, fato
que frustra a implementação do formalismo canônico subsequente.
Uma tentativa de resolver este problema de forma a manter o formalismo covariante é
feita, com certo sucesso, em [6]. O procedimento consiste em redefinir a transformação de
Legendre para generalizar a definição dos momentos conjugados. Contudo, essa tentativa
depende de condições que tornam impraticável a utilização em sistemas físicos de interesse.
66
Até o presente momento, nenhuma tentativa no sentido de construir uma teoria Hamiltoni-
ana covariante livre deste problema teve sucesso com campos físicos, de modo que não nos
preocuparemos em seguir este caminho. Nos artigos de Dirac sobre quantização de sistemas
singulares, salienta-se que a quebra da invariância por reparametrizações, com a escolha de
um parâmetro de evolução, resolve este problema, fato de que também se dá conta Bergmann
e seus colaboradores. Assim como no caso do formalismo Hamiltoniano desenvolvido nessa
linha, sacrificaremos a covariância da teoria em troca de uma descrição canônica coerente
com as equações de Euler-Lagrange.
Para realizar este programa, vamos primeiro fazer uma discussão qualitativa das pos-
síveis formas de decomposição d + 1 em teorias relativísticas. Em seguida, vamos adequar
o formalismo de Hamilton-Jacobi que estudamos no capítulo 2 para um escolha particular
de parametrização. Veremos como sistemas não Hessianos podem ser tratados naturalmente
dessa forma.
3.1 Formas de dinâmica relativística
A escolha de um parâmetro de evolução temporal envolve a descrição das teorias de campos
como sistemas dinâmicos de dimensão infinita. Neste caso, as equações de Euler-Lagrange
são reescritas a partir de uma foliação do espaço-tempo, que chamaremos também de de-
composição d + 1, nos moldes do desenvolvimento das integrais de movimento discutidas no
primeiro capítulo. A decomposição d + 1 consiste na escolha de um eixo de evolução temporal
τ y
0
e, portanto, na escolha de uma família de hiper-superfícies de Cauchy
Ξ (y
µ
, τ) = 0,
que são ortogonais ao eixo y
0
em cada ponto e nunca se interceptam no domínio . Feita a
escolha das superfícies de Cauchy, as equações de Euler-Lagrange, escritas como equações
canônicas, agem como equações dinâmicas que indicam como uma configuração de campos em
uma dada superfície, digamos Ξ (τ = 0), evolui para uma segunda superfície Ξ (τ = τ
1
). Quem
faz o trabalho de determinar como age esta dinâmica é o grupo de simetria fundamental do
espaço-tempo. Para que essa descrição seja unívoca, ou seja, para que o conhecimento de uma
configuração inicial resulte em uma única dinâmica, devemos também escolher a família Ξ de
modo que a linha de mundo de um observador nunca passe por uma mesma superfície mais
de uma vez.
Na mecânica clássica, o grupo fundamental de simetria do espaço-tempo é o grupo de
Galilei. Como o tempo clássico é um parâmetro fixo, o espaço-tempo clássico é dado simples-
mente pelo produto R
d
× R e a decomposição d + 1 é trivial. A superfície de Cauchy vem a
67
ser a d-superfície R
d
a t constante. De fato, essa é a única superfície de Cauchy permitida
na mecânica clássica. Para qualquer outra família de superfícies existem observadores que
interceptam seus membros no mínimo duas vezes. Isto ocorre porque a velocidade de um
observador clássico pode ser arbitrária. Neste caso, o grupo de Galilei possui um subgrupo,
chamado grupo de estabilidade, cuja ação deixa o sistema invariante por transformações em
uma superfície de tempo constante. Os geradores deste subgrupo são o momento linear e a
matriz de momento angular, que constituem seis geradores cinemáticos. Existe apenas mais
um gerador, de natureza dinâmica, que vem a ser a função Hamiltoniana geradora da evolução
temporal entre duas superfícies distintas. Se a família de superfícies de Cauchy é única neste
caso, a Hamiltoniana também é única.
No caso de teorias relativísticas, o grupo fundamental é o grupo de Poincaré. Observadores
relativísticos não podem se deslocar com velocidades arbitrárias, o que separa o espaço-tempo
em regiões acessíveis (dentro do cone de luz) e inacessíveis (fora do cone de luz) a observadores
que passam pela origem do sistema de coordenadas. Assim, o espaço-tempo relativístico pos-
sui uma estrutura causal. Dirac observou [7] que esta estrutura causal e a invariância por
reparametrizações quebram a unicidade do formalismo Hamiltoniano e encontrou três formas
inequivalentes de escolher as superfícies de Cauchy com a qual a decomposição d + 1 pode ser
feita. Mais recentemente uma análise mais completa dos possíveis subgrupos do grupo de
Poincaré revelou a existência de mais duas famílias de superfícies [8]. No total, as formas de
dinâmica relativística são dadas pelas superfícies:
1. Hiper-superfície t = x
0
= constante, chamada forma instantânea.
2. Hiper-superfície da frente de luz τ = x
0
+ x
3
= constante, chamada forma frontal.
3. Folha do hiperbolóide τ x
2
= a
2
, x
0
> 0 com a = constante, chamada forma puntual.
4. Folha do hiperbolóide τ = x
2
0
x
2
1
x
2
2
= a
2
, x
0
> 0.
5. Folha do hiperbolóide τ = x
2
0
x
2
3
= a
2
, x
0
> 0.
O grupo de Poincaré contém dez geradores e podemos usar a escolha da superfície de Cauchy
para decompô-lo em um subgrupo de estabilidade e um subgrupo dinâmico, assim como no
caso da mecânica clássica. Contudo, essa decomposição depende da escolha da superfície. Na
forma instantânea existem seis geradores cinemáticos, representados pelo momento linear
e pela matriz de momento angular, geradores de translações e rotações em R
d
. O subgrupo
dinâmico é formado pela evolução temporal, gerada pela Hamiltoniana
H
Ξ
Hdσ,
68
em que
H H
αβ
ξ
α
ξ
β
é o tensor densidade de energia-momento (1.25) projetado no eixo temporal. Nesta expressão,
ξ é o vetor unitário tangente a este eixo.
No caso da forma instantânea em coordenadas retangulares x
µ
=
x
0
, x
i
, ξ é um vetor
com única componente na direção de x
0
. Por consequência,
H = H
00
=
¯
δL
¯
δφ
a
0(m)
φ
a
(m)0
L = π
0m
a
φ
a
(m)0
L. (3.1)
Esta é a forma usual da densidade Hamiltoniana em teoria de campos. Note que ela não é cor-
respondente à densidade Hamiltoniana canônica (2.47). Além da evolução temporal, o grupo
dinâmico contém também o boosts, gerados por rotações que envolvem direções tipo tempo. Os
boosts são apenas transformações de Lorentz entre observáveis e constituem transformações
cinemáticas do ponto de vista relativístico. A verdadeira dinâmica dos campos é gerada ape-
nas pela Hamiltoniana (3.1).
A forma instantânea é aquela mais comum em teorias de campos por duas razões: a
primeira é que esta escolha de superfícies de Cauchy é a que equivale àquela da mecânica
clássica. A segunda razão vem a ser experimental, pois o referencial do laboratório tem linha
de mundo coincidente com o eixo x
0
, ou seja, a parametrização natural para os experimentais
é o tempo clássico Galileano.
Vem ganhando espaço, contudo, a análise de teorias de campos na forma frontal, que tam-
bém podemos chamar de dinâmica na frente de luz, ou dinâmica no cone de luz. Nesse tipo
de dinâmica, o tempo é escolhido como uma combinação linear das coordenadas x
µ
, dada por
τ x
0
+ x
d
, a menos de um termo de normalização. Esta escolha remete a uma preferência
natural pelas coordenadas do cone de luz
x
+
, x
, x
i
=
x
0
+ x
d
, x
0
x
d
, x
i
, em que o índice
i varia entre 1 a d 1. De fato, uma diferença fundamental entre essa dinâmica e as
demais, pelo fato de que a superfície ortogonal ao eixo x
+
, o plano nulo, não é uma superfí-
cie de Cauchy [9, 10]. Ela é uma das superfícies características do cone de luz. Para uma
superfície de Cauchy genuína, a definição dos dados iniciais envolve o conhecimento da con-
figuração dos campos em uma única superfície. No caso do plano nulo, uma dinâmica única
emerge apenas se fornecermos dados iniciais para as duas famílias de superfícies caracterís-
ticas x
+
= contante e x
= constante.
A decomposição do grupo de Poincaré na dinâmica do cone de luz indica que o grupo de
estabilidade possui sete geradores, um a mais que as dinâmicas instantânea e puntual e três
a mais que as dinâmicas definidas nos itens 4 e 5. Este fato tem várias consequências sobre a
descrição canônica de campos no plano nulo [11]. Por exemplo, a estrutura do espaço de fase
69
é bastante distinta, como veremos através da aplicação do campo de Podolsky no capítulo 5.
Outra característica é que os campos tornam-se sobre-vinculados, ou seja, a dinâmica frontal
traz mais vínculos canônicos que reduzem ainda mais os graus de liberdade do sistema.
A grande vantagem de se trabalhar no cone de luz vem a ser o fato de que as constantes
de estrutura da álgebra dos geradores cinemáticos tomam a forma mais simples possível. Isto
ocorre porque nas coordenadas do cone de luz um boost na direção x
d
é uma simples trans-
formação de escala diagonal, que não mistura as coordenadas x
+
e x
. Para muitos sistemas
essa característica é responsável por separar completamente graus de liberdade físicos, resul-
tando em um vácuo quântico limpo, livre de excitações devido a graus de liberdade não físicos.
Isto é verificado, por exemplo, na análise de quebra de simetria do modelo padrão [12] e em
modelos de teorias de gauge em duas dimensões [13].
3.2 O formalismo de Hamilton-Jacobi parametrizado
Para demonstrar como o formalismo desenvolvido no capítulo 2 pode ser facilmente espe-
cializado para uma escolha particular de superfícies de Cauchy, possibilitando a análise de
sistemas não Hessianos, vamos trabalhar com a forma instantânea, que representa a escolha
das superfícies
Ξ
x
i
, t = x
0
= 0, i = 1, ··· , d, (3.2)
ortogonais ao eixo x
0
do espaço-tempo de Minkowski. Esta superfície é isomórfica ao espaço
euclidiano R
d
. Contudo, o procedimento pode ser facilmente transplantado para outras for-
mas de dinâmica a partir de transformações de coordenadas apropriadas, como veremos na
aplicação do campo de Podolsky.
Assim como feito na seção 1.2.2, a integral fundamental de uma teoria pode ser reescrita
com a definição da função Lagrangiana, que vem a ser a derivada da densidade Lagrangiana
em um d-volume que representa um sub-domínio de , o que nos obriga a escolher condições
de contorno para os campos na fronteira desse sub-domínio. Vamos supor que este volume
vem a ser uma superfície de Cauchy (3.2) a t contante e as condições de contorno tais que
lim
xΞ
φ
a
(i)
(x) = 0, (3.3)
para i = 0, inclusive. Neste caso, integrais no volume cujos integrandos sejam divergências
totais se anularão. Em particular, podemos tomar a expressão (2.2), que representa a definição
70
da integral equivalente à ação A =
Ldω. Com o uso das condições (3.3) temos
¯
A [φ] = A [φ]
dS
µ
dx
µ
= A [φ]
dS
0
dt
dt
Ξ
dS
i
dx
i
d
d
x,
em que a última integral é um termo na fronteira de Ξ. Portanto, podemos definir densidades
Lagrangianas equivalentes pela simples adição de uma derivada temporal:
¯
L = L
dS
dt
, (3.4)
na qual suprimimos o índice zero da densidade S
0
.
As condições para extremos locais da integral fundamental neste cenário permanecem as
mesmas: se
¯
L = 0 para uma dada configuração φ e
¯
L > 0 ou
¯
L < 0 para uma configuração φ
infinitesimalmente próxima, φ é um extremo. Contudo, como vimos na seção 1.2.2, devemos
reavaliar a nossa noção sobre o que consiste uma configuração de campos na decomposição
d + 1. Em vez de uma configuração geométrica que envolve os valores dos campos em uma
região do espaço-tempo, devemos pensar em termos uma distribuição de campos φ (x, t) em
uma hiper-superfície d-dimensional Ξ em um dado tempo t = t
0
. A dinâmica é dada pela
evolução dessa distribuição na direção de x
0
, gerada pela densidade Hamiltoniana (3.1). Essa
dinâmica deve ser univocamente determinada se conhecermos um conjunto de dados iniciais
sobre a superfície Ξ (t
0
). No caso da dinâmica instantânea, esse conjunto de condições iniciais
deve envolver o conhecimento de derivadas temporais dos campos até certa ordem.
Mais adiante, veremos que será necessário restringir a função S de modo que
S = S (x
µ
, φ
a
, φ
a
0
, φ
a
00
, . . .) ,
até ordem k 1, ou seja, S não deve depender das derivadas espaciais dos campos. Esta
restrição, contudo, não implica em perda de generalidade.
Vamos observar, para derivadas até segunda ordem, a densidade Hamiltoniana
H = π
0m
a
φ
a
(m)0
L = π
0
a
φ
a
0
+ π
0µ
a
φ
a
0µ
L
= π
0
a
φ
a
0
+ π
00
a
φ
a
00
+ π
0i
a
φ
a
0i
L.
Na última linha, vamos fazer uma integração por partes e descartar os termos de fronteira.
Dessa forma obtemos
H =
π
0
a
d
dx
i
π
0i
a
φ
a
0
+ π
00
a
φ
a
00
L. (3.5)
71
Se analisarmos um sistema de terceira ordem, o resultado será
H = π
0
a
φ
a
0
+ π
0µ
a
φ
a
0µ
+ π
0µν
a
φ
a
0µν
L
= π
0
a
φ
a
0
+ π
0i
a
φ
a
0i
+ π
00
a
φ
a
00
+ π
0ij
a
φ
a
0ij
+ 2π
00i
a
φ
a
00i
+ π
000
a
φ
a
000
L
=
π
0
a
d
dx
i
π
0i
a
+
d
dx
i
d
dx
j
π
0ij
a
φ
a
0
+
π
00
a
2
d
dx
i
π
00i
a
φ
a
00
+ π
000
a
φ
a
000
L.
Não vamos nos preocupar, contudo, em escrever uma expressão geral. O importante é
que essas expressões revelam como devemos escolher os momentos conjugados, observando a
forma geral da densidade Hamiltoniana:
H = p
a
φ
a
0
+ p
1
a
φ
a
00
+ p
2
a
φ
a
000
+ ··· L.
No caso de uma teoria de segunda ordem, os momentos conjugados são
p
a
π
0
a
d
dx
i
π
0i
a
,
p
1
a
π
00
a
.
Como exemplo, mais uma vez usaremos a teoria de Podolsky, cujos momentos covariantes são
dados pelas expressões (2.49) e (2.50):
π
µν
= F
µν
2a
2
η
ωγ
Υ
αµ
βω
νλ
αγ
λ
ρ
F
βρ
,
π
µνλ
= 2a
2
η
ωγ
Υ
αµ
βω
νλ
αγ
ρ
F
βρ
.
Assim, temos
π
µ0
= F
µ0
+ a
2
0
ρ
F
µρ
1
2
a
2
µ
i
F
0i
,
π
µ00
= a
2
η
µ0
i
F
0i
a
2
η
00
ρ
F
µρ
,
π
µ0i
=
1
2
a
2
η
µi
j
F
0j
+ η
µ0
0
F
i0
+
j
F
ij

.
Com essas expressões, definimos os momentos conjugados
p
µ
π
µ0
i
π
µ0i
= F
µ0
+ a
2
0
ρ
F
µρ
1
2
a
2
µ
+ η
µi
i
η
µ0
0
j
F
0j
, (3.6)
π
µ
π
µ00
= a
2
η
µ0
i
F
0i
a
2
η
00
ρ
F
µρ
. (3.7)
Voltando ao formalismo, verificamos que as equações (2.10) devem ser substituídas pelas
72
equações
δ
¯
L
δφ
a
[i]
= 0, (3.8)
em que [i] representa o número de derivadas temporais, sendo i [1, k]. Seguindo o mesmo
procedimento da seção 2.1, temos
δ
¯
L
δφ
a
[i]
=
δL
δφ
a
[i]
δ
δφ
a
[i]
dS
dt
=
δL
δφ
a
[i]
δ
δφ
a
[i]
S
t
+ φ
a
0(m)
δS
δφ
a
(m)
=
δL
δφ
a
[i]
t
δS
δφ
a
[i]
δφ
a
0(m)
δφ
a
[i]
δS
δφ
a
(m)
φ
a
0(m)
δ
δφ
a
[i]
δS
δφ
a
(m)
=
δL
δφ
a
0[m]
δS
δφ
a
[m]
d
dt
δS
δφ
a
0[m]
,
em que m [0, k 1]. Dessa forma, temos as condições
δS
δφ
a
[m]
=
δL
δφ
a
0[m]
d
dt
δS
δφ
a
0[m]
. (3.9)
A partir deste ponto, o desenvolvimento é idêntico ao da seção 2.1 a partir da equação
(2.11). Com alguma álgebra, o resultado obtido é que a equação (3.9) é equivalente a
p
m
a
=
δS
δφ
a
[m]
, (3.10)
em que p
m
a
são exatamente os momentos obtidos da análise da densidade Hamiltoniana. Este
resultado se verifica em todas as ordens. Nesta expressão, usamos a notação p
m
a
para indicar
o momento correspondente à variável de ordem m como forma de expressão geral.
Vamos voltar à equação (3.4), que deve resultar na equação de Hamilton-Jacobi deste sis-
tema. Ela pode ser escrita por
S
t
+ φ
a
0(m)
δS
δφ
a
(m)
L = 0.
Agora, usaremos o fato de que S não deve depender das derivadas espaciais dos campos. Neste
caso podemos escrever
S
t
+ φ
a
0[m]
δS
δφ
a
[m]
L = 0. (3.11)
Com as relações (3.10) e definindo o momento p
t
S/∂t, podemos escrever a equação
p
t
+ p
m
a
φ
a
0[m]
L = 0. (3.12)
73
Esta é a condição equivalente a (2.33), desta vez para a dinâmica em forma instantânea da
decomposição d + 1.
Até agora, recorremos à decomposição do espaço-tempo em hiper-superfícies de Cauchy
para escapar do problema da invariância por reparametrizações em teorias relativísticas.
Neste cenário a existência de uma função S
x, φ
a
[m]
que satisfaça as condições (3.10) e (3.12)
garante que a integral fundamental possua um extremo. Assim, em analogia com o caso co-
variante, devemos buscar fazer de (3.12) uma equação diferencial parcial. Novamente vamos
recorrer às definições dos momentos conjugados para que isto ocorra.
Vamos tomar a definição para o momento de ordem k 1:
p
k1
a
=
δL
δφ
a
[k]
= ψ
a
x
µ
, φ
a
, φ
a
(i)
,
que, exatamente como (2.34), é uma função dos parâmetros e dos campos até ordem k. Pode-
mos inverter esta relação para encontrar o campo φ
a
[k]
se
det [W
ab
] det
δp
k1
a
δφ
b
[k]
= det
δ
2
L
δφ
a
[k]
δφ
b
[k]
= 0. (3.13)
Assim como no caso covariante, a expressão geral para os momentos envolve derivadas tem-
porais dos campos de ordem superior a k, até ordem 2k 1. O procedimento é idêntico ao
da seção 2.2 e não nos preocuparemos em reproduzi-lo aqui, mas o resultado é análogo: se a
condição Hessiana (3.13) for satisfeita, podemos escrever os campos de ordem k a 2k 1 em
função dos momentos correspondentes aos campos de ordem 1 a k. A expressão tem forma
geral
φ
a
[k+m]
= β
a
k+m
x
µ
, φ
a
, ··· , φ
a
(k1)
, p
k1
a
, ··· , p
km1
a
. (3.14)
Tomando a equação (3.12), temos
p
t
+
k1
i=1
p
i1
a
φ
a
[i]
+ p
k1
a
φ
a
[k]
L = 0.
Contudo, sabemos que somente φ
a
[k]
pode ser invertida:
φ
a
[k]
= β
a
k
x
µ
, φ
a
, ··· , φ
a
(k1)
, p
k1
a
.
Portanto,
p
t
=
k1
i=1
p
i1
a
φ
a
[i]
p
k1
a
β
a
k
+ L
φ
a
[k]
= β
a
k
.
74
À direita, temos a densidade Hamiltoniana em sua forma canônica, com os campos φ
a
[k]
subs-
tituídos pelas suas respectivas expressões β
a
k
, ou seja,
H
c
k1
i=1
p
i1
a
φ
a
[i]
+ p
k1
a
β
a
k
L
φ
a
[k]
= β
a
k
. (3.15)
Como os momentos são dados por (3.10), a equação (3.11) torna-se uma equação diferencial
funcional para S,
Φ
0
p
t
+ H
c
= 0. (3.16)
Esta equação é a equação de Hamilton-Jacobi do sistema.
É uma característica dos sistemas com derivadas superiores que a Hamiltoniana canônica
(3.15) dependa linearmente dos momentos p
a
a p
k2
a
, mas a dependência com p
k1
a
não é neces-
sariamente linear. Este fato tem profunda influência na estrutura dinâmica da teoria, como
veremos adiante, especialmente no caso de sistemas que não obedecem a condição Hessiana
(3.13). Na próxima seção, mostraremos como esses sistemas podem ser tratados naturalmente
pelo formalismo de Hamilton-Jacobi.
3.3 Sistemas não Hessianos
Agora, vamos supor que a condição (3.13) seja violada para um sistema de densidade La-
grangiana L
x
µ
, φ
a
, φ
a
(i)
, que contenha derivadas até ordem k nos campos. Vamos admitir o
caso em que a matriz Hessiana
W
ab
=
δ
2
L
δφ
a
[k]
δφ
b
[k]
(3.17)
tenha determinante nulo, o que indica que ela possui um conjunto de autovalores nulos, di-
gamos, de número r. Se ignorarmos, por enquanto, o fato de que podem haver autovalores
degenerados e supor que o posto de W, que vem a ser o número de autovalores não nulos, seja
dado por p = n r, existe uma submatriz regular de ordem p,
W
a
b
δ
2
L
δφ
a
[k]
δφ
b
[k]
,
a
, b
= (1, 2, ··· , p)
cujo determinante é diferente de zero. De agora em diante, usaremos os índices com linha
para designar variáveis relacionadas com a parte inversível da matriz Hessiana.
75
Se este for o caso, é possível escrever
φ
a
[k]
= β
a
k
x
µ
, φ
a
, ··· , φ
a
(k1)
, p
k1
a
, (3.18)
ou seja, existe um número p de derivadas de ordem k no tempo que podem ser escritas em
termos dos momentos. Por consequência, também são escritas em termos dos momentos todas
as derivadas de ordem k a 2k 1 dos campos φ
a
.
Por outro lado, as expressões
p
k1
z
=
δL
δφ
z
[k]
−H
k1
z
x
µ
, φ
a
, φ
a
(i)
, z = 1, 2, ··· , r,
não podem ser invertidas para fornecer os campos φ
z
[k]
. Tampouco podemos usar os momentos
de ordem inferior para obter expressões para as derivadas dos campos acima de k. Isso indica
que as funções H
k1
z
não dependem de φ
z
[k]
, ou em último caso a dependência é tal que im-
pede a inversão. No geral, este último caso pertence a Lagrangianas com nenhum interesse
físico. Portanto, assumiremos que H
k1
z
sejam funções dos campos e de suas derivadas que
não incluam derivadas temporais de ordem k.
Por outro lado, H
k1
z
podem depender de φ
a
[k]
e podemos utilizar (3.18). De forma mais
geral, definiremos as funções
Φ
k1
z
x
µ
, φ
a
(m)
, p
k1
a
p
k1
z
H
k1
z
x
µ
, φ
a
(m)
, p
k1
a
. (3.19)
Nessas estamos omitindo possível dependência nas derivadas espaciais de ordem k dos cam-
pos. Visto que os momentos estão relacionados com derivadas funcionais de S com relação aos
campos, as equações
Φ
k1
z
x
µ
, φ
a
(m)
, p
k1
a
= 0 (3.20)
são equações diferenciais para S
x
µ
, φ
a
[m]
.
O mesmo ocorre para derivadas superiores a k. Por exemplo, podemos inverter as derivadas
de ordem k + 1 dos campos φ
a
:
φ
a
[k+1]
= β
a
k+1
x
µ
, φ
a
, ··· , φ
a
(k1)
, p
k1
a
, p
k2
a
,
mas não podemos fazer o mesmo com φ
z
[k+1]
, o que resulta nas expressões
p
k2
z
= −H
k2
z
x
µ
, φ
a
(m)
, p
k1
a
, p
k2
a
.
76
De maneira geral, retrocedendo este procedimento até os momentos p
a
, temos
φ
a
[k+s]
= β
a
k+s
x
µ
, φ
a
, ··· , φ
a
(k1)
, p
k1
a
, ··· , p
ks1
a
(3.21)
e
p
ks1
z
= −H
ks1
z
x
µ
, φ
a
(m)
, p
k1
a
, ··· , p
ks1
a
, (3.22)
para s de 0 a k 1.
Portanto, se a matriz Hessiana (3.17) tem posto p, temos um número de kp relações (3.21)
para as derivadas superiores com relação aos momentos e kr equações diferenciais
Φ
m
z
x
µ
, φ
a
(m)
, p
m
a
= 0, (3.23)
que devem ser obedecidas pela função S. A equação de Hamilton-Jacobi (3.16) também deve
ser satisfeita, mas para que ela seja colocada sob a forma de uma equação diferencial temos
que mostrar que a Hamiltoniana canônica não depende dos campos φ
z
[k]
. Isto pode ser obser-
vado por
δH
c
δφ
z
[k]
=
δ
δφ
z
[k]
k1
i=1
p
i1
a
φ
a
[i]
+
δ
δφ
z
[k]
p
k1
a
φ
a
[k]
δL
δφ
z
[k]
= p
k1
z
δL
δφ
z
[k]
= Φ
k1
z
= 0.
Portanto, a equação (3.16) permanece válida. As equações (3.16) e (3.23) podem ser colocadas
sob um sistema único de equações:
Φ
m
α
x
µ
, φ
a
(m)
, p
m
a
= 0, (3.24)
em que α = 0, 1, ··· , r. Essas equações são lineares nos momentos p
m
α
. Chamaremos essas
equações de equações de Hamilton-Jacobi.
Temos, então, um conjunto de k (r + 1) equações de Hamilton-Jacobi para sistemas não
Hessianos, ou singulares, de posto p = n r. Essas condições constituem a generalização
do formalismo para esses sistemas. Observamos de imediato que apenas a equação Φ
0
= 0
sobrevive para o caso em que p = n, ou seja, se o sistema for regular, ou Hessiano. No outro
caso extremo, em que r = n, as equações (3.24) tornam-se k (n + 1) equações, uma para cada
variável
t, φ
a
[m]
para m de 0 a k 1.
Neste ponto, podemos fazer uma mudança de variáveis bastante conveniente. Vamos supor
que o tempo t seja incluso às variáveis φ
a
[m]
, tal que t φ
0
. De fato, podemos compreender a
equação de Hamilton-Jacobi (3.16) como uma equação de vínculo se o tempo for tratado como
77
variável dinâmica. Neste caso, p
t
= S/∂t deixa de ser uma notação e torna-se um momento
conjugado, respectivo à variável φ
0
= t. A esta mudança de variáveis relacionamos um espaço
de configuração
¯
Q cujos elementos são as variáveis
t, φ
a
, φ
a
0
, ··· , φ
a
[k1]
. Da mesma forma
que no formalismo covariante, as derivadas de ordem k são tidas como análogas aos campos de
velocidade em teorias de primeira ordem. Contudo, o fato de a Hessiana ter posto p leva a uma
separação natural entre as variáveis do espaço de configuração,
φ
α
[m]
, φ
a
[m]
. Cada variável
φ
α
[m]
está relacionada a sua respectiva equação de Hamilton-Jacobi, enquanto as variáveis
φ
a
[m]
estão relacionadas com a submatriz regular de W .
3.4 Equações características
Agora que encontramos o sistema de Hamilton-Jacobi como as condições generalizadas
obedecidas pelos sistemas singulares para a existência de extremos da integral fundamental,
vamos nos ocupar em como encontrar estes extremos. Assim como na seção 2.3, começamos
com as relações
p
m
α
(x) =
δS
δφ
α
[m]
(x)
, α = 0, ··· , r, m = 0, ··· , k 1, (3.25)
Φ
m
α
(x) = p
m
α
(x) + H
m
α
(x) = 0, H
0
H
c
. (3.26)
A partir de agora, explicitaremos o ponto de aplicação no espaço-tempo nas expressões mais
importantes. Acima, verificamos que (3.25) não equivale exatamente a (3.10) pois, a rigor, o
objeto definido nesta depende de dois pontos distintos do espaço-tempo. A definição correta do
momento exige integração sobre Ξ, de modo que (3.25) é a expressão correta, considerando
S
Ξ
y
S (y) .
Note que Φ
0
pode ser escrito por
Φ
0
= p
t
+ p
m
a
φ
a
0[m]
+ p
m
z
φ
z
0[m]
L,
com soma em m implícita.
A partir deste ponto assumiremos que as variáveis φ
α
[m]
são independentes entre si, ou
seja, que não existem condições algébricas adicionais sobre essas variáveis além das equações
(3.26). Veremos mais adiante que esta suposição depende da análise da integrabilidade dessas
equações. De fato, a discussão sobre a integrabilidade do sistema de Hamilton-Jacobi deve
preceder a dedução das equações características. Mais que isso, veremos no capítulo 4 que
essa discussão é o foco da interpretação dos sistemas não Hessianos como sistemas dinâmi-
78
cos. O que pode parecer uma inversão de procedimento formal, entretanto, nos permitirá in-
troduzir ferramentas que na verdade independem do procedimento de dedução das equações
canônicas do formalismo, sendo as mais importantes os parênteses de Poisson. Por enquanto,
vamos supor que as equações de Hamilton-Jacobi formam um conjunto completo de equações
diferenciais parciais linearmente independentes, condição que assegura a independência en-
tre as variáveis φ
α
[m]
e a integrabilidade da teoria.
Em Φ
0
usaremos as demais equações (3.26), p
m
z
= −H
m
z
, e derivaremos com relação a p
m
a
:
δΦ
0
δp
m
a
=
δ
δp
m
a
p
m
a
φ
a
0[m]
δ
δp
m
a
H
m
z
φ
z
0[m]
δL
δp
m
a
= δ
a
a
φ
a
0[m
]
δH
m
z
δp
m
a
φ
z
0[m]
.
Esta equação pode ser reescrita como
φ
a
0[m
]
=
δΦ
0
δp
m
a
φ
0
0
+
δH
m
z
δp
m
a
φ
z
0[m]
=
δΦ
m
α
δp
m
a
φ
α
0[m]
,
ou como forma de uma equação diferencial total:
δφ
a
[m
]
(x) =
Ξ
y
δΦ
m
α
(y)
δp
m
a
(x)
δφ
α
[m]
(y) , (3.27)
em que explicitamos a integração sobre a hiper-superfície Ξ.
A equação (3.27) é a primeira equação característica do sistema, sendo análoga à equação
(2.54). Devemos nos lembrar que estamos utilizando a notação φ
α
[m]
=
t, φ
z
[m]
e, portanto, se
r = 0 essas equações devem se reduzir às equações canônicas de Hamilton para derivadas de
ordem superior, como de fato ocorre:
d
dt
φ
a
[m]
(x) =
δH
c
δp
m
a
(x)
, H
c
Ξ
H
c
dσ.
A segunda equação característica do sistema de Hamilton-Jacobi (3.26) pode ser obtida
com a variação funcional dos momentos:
δp
m
a
(x) =
Ξ
y
δp
m
a
(y)
δφ
b
[m]
(x)
δφ
b
[m
]
(y) +
δp
m
a
(y)
δφ
α
[m]
(x)
δφ
α
[m
]
(y)
=
Ξ
y
δp
m
b
(y)
δφ
a
[m]
(x)
δφ
b
[m
]
(y) +
δp
m
α
(y)
δφ
a
[m]
(x)
δφ
α
[m
]
(y)
,
79
em que, na última linha, usamos (3.25). Com (3.27),
δp
m
a
(x) =
Ξ
y
z
δp
m
b
(y)
δφ
a
[m]
(x)
δΦ
m

α
(z)
δp
m
b
(y)
δφ
α
[m

]
(z) +
Ξ
y
δp
m
α
(y)
δφ
a
[m]
(x)
δφ
α
[m
]
(y). (3.28)
Agora, vamos derivar as equações (3.26) com relação aos campos φ
a
[m]
, obtendo
δΦ
m
α
(y)
δφ
a
[m
]
(x)
+
Ξ
z
δΦ
m
α
(y)
δp
m

b
(z)
δp
m

b
(z)
δφ
a
[m
]
(x)
+
δΦ
m
α
(y)
δp
m

β
(z)
δp
m

β
(z)
δφ
a
[m
]
(x)
= 0.
As equações de Hamilton-Jacobi são lineares em p
m
α
, de modo que
δp
m
α
(y)
δφ
a
[m]
(x)
=
δΦ
m
α
(y)
δφ
a
[m]
(x)
Ξ
w
δΦ
m
α
(y)
δp
m

b
(w)
δp
m

b
(w)
δφ
a
[m]
(x)
. (3.29)
Substituindo (3.29) em (3.28) temos
δp
m
a
(x) =
Ξ
y
δΦ
m
α
(y)
δφ
a
[m]
(x)
δφ
α
[m
]
(y). (3.30)
Esta é a equação característica para os momentos, em analogia com (2.59). Esta equação
também se reduz às equações de Hamilton usuais no caso r = 0:
d
dt
p
m
a
(x) =
δH
c
δφ
a
[m]
(x)
,
como deve ser.
A terceira equação característica, aquela que resulta em uma forma para a função S, é
dada pela variação
δS (x) =
Ξ
y
δS (x)
δφ
a
[m]
(y)
δφ
a
[m]
(y) +
δS (x)
δφ
α
[m]
(y)
δφ
α
[m]
(y)
=
Ξ
z
Ξ
y
δS (x)
δφ
a
[m]
(y)
δΦ
m
α
(z)
δp
m
a
(y)
+
δS (x)
δφ
α
[m]
(z)
δφ
α
[m]
(z). (3.31)
Integrando esta equação em Ξ, podemos escrever
δS =
Ξ
z
y
p
m
a
(y)
δH
m
α
(z)
δp
m
a
(y)
H
m
α
(z)
δφ
α
[m]
(z). (3.32)
Nesta última utilizamos as equações (3.26) e (3.27). Portanto, (3.32) é a terceira equação
80
característica do sistema (3.26). Note que podemos escrever esta equação como
δS =
Ξ
z
p
m
a
(z) φ
a
0[m]
(z) H
m
α
(z) φ
α
0[m]
(z)
dt.
Integrando em t, temos
S =
p
m
a
φ
a
0[m]
H
m
α
φ
α
0[m]
. (3.33)
Vamos comparar a integral fundamental
A =
L
com a integral (3.33). Vemos claramente que A torna-se uma solução do sistema de Hamilton-
Jacobi se
L = p
m
a
φ
a
0[m]
H
m
α
φ
α
0[m]
= p
m
a
φ
a
0[m]
H
c
H
m
z
(z) φ
z
0[m]
.
Adicionando e subtraindo os termos p
m
z
φ
z
0[m]
, temos
L = p
m
a
φ
a
0[m]
+ p
m
z
φ
z
0[m]
H
c
+ p
m
z
φ
z
0[m]
H
m
z
φ
z
0[m]
= p
m
a
φ
a
0[m]
H
c
+ [p
m
z
H
m
z
] φ
z
0[m]
= p
m
a
φ
a
0[m]
H
c
+ Φ
m
z
φ
z
0[m]
.
Com a expressão acima, temos uma ligação entre o método de Dirac e o formalismo de Hamil-
ton-Jacobi. Assumindo que Φ
m
z
são vínculos primários na nomenclatura de Dirac, os campos
φ
z
0[m]
são campos indeterminados. Definindo os parâmetros λ
z
m
φ
z
0[m]
,
L = p
m
a
φ
a
0[m]
H
c
+ Φ
m
z
λ
z
m
.
Portanto, a existência dos vínculos Φ
m
z
= 0 exige que a densidade Lagrangiana e, por conse-
quência, a densidade Hamiltoniana canônica, sejam redefinidos com a adição de combinações
lineares dos vínculos primários. Este procedimento indica de forma natural a definição da
densidade Hamiltoniana primária no formalismo de Dirac.
Contudo, no que diz respeito ao formalismo de Hamilton-Jacobi, as equações caracterís-
ticas (3.27) e (3.30), que tomaremos a liberdade de chamar de equações canônicas, são as
equações de campo da teoria. A função S pode ser encontrada por (3.31) apenas se as equações
81
canônicas forem resolvidas. Por outro lado, a forma
δS
Ξ
x
p
m
a
(x) δφ
a
[m]
(x) H
m
α
(x) δφ
α
[m]
(x)
sugere uma integral fundamental com várias variáveis independentes φ
α
[m]
. Se for tomada a
primeira variação da ação na forma (3.33) com relação às variáveis p
m
a
e φ
a
m
, as equações (3.27)
e (3.30) serão as condições para que esta primeira variação seja nula, a menos de termos de
superfície.
3.5 O espaço de fase e os parênteses de Poisson
Vamos trabalhar com as equações canônicas
δφ
a
[m]
(x) =
Ξ
y
δΦ
m
α
(y)
δp
m
a
(x)
δφ
α
[m
]
(y) , (3.34)
δp
m
a
(x) =
Ξ
y
δΦ
m
α
(y)
δφ
a
[m]
(x)
δφ
α
[m
]
(y), (3.35)
cujas soluções gerais são um conjunto de funções
φ
a
[m]
= φ
a
[m]
x, φ
α
[m]
= φ
a
[m]
x, t, φ
z
[m]
, (3.36)
p
m
a
= p
m
a
x, φ
α
[m]
= p
m
a
x, t, φ
z
[m]
. (3.37)
Se estas soluções existirem, elas representam campos geodésicos que são extremos da integral
fundamental. No que segue, os índices desses campos permanecem com os mesmos valores: m
varia de zero a k 1, em que k é a ordem da maior derivada temporal presente na densidade
Lagrangiana; a varia de 1 a n, enquanto a
toma valores de 1 a p, o posto da matriz Hessiana e
z, de 1 a r tal que r = n p. O índice α não deve ser confundido com índices do espaço-tempo:
ele varia de zero a r para englobar quantidades relacionadas à evolução temporal, como o
momento p
0
e a densidade Hamiltoniana canônica H
c
.
Através das equações canônicas (3.34) e (3.35) somos capazes de observar que as variáveis
φ
z
[m]
possuem o mesmo status que o parâmetro t, ou seja, são variáveis independentes do sis-
tema, no sentido que os campos em (3.36) e (3.37) são funções dessas variáveis. A separação do
espaço de configuração entre os campos φ
a
[m]
e φ
z
[m]
, evidente já na análise da singularidade da
matriz Hessiana, reflete-se também na separação do espaço de fase do sistema. Observando-
se as equações características, está claro que o espaço de fase deve ser definido pelas variáveis
ξ
A
m
φ
a
[m]
, p
m
a
. Dizemos que essas variáveis são as variáveis dependentes do sistema. Natu-
ralmente, quando tratarmos explicitamente das variáveis ξ
A
m
o índice A varia de 1 a 2p.
82
Vamos usar o procedimento padrão e verificar como podemos escrever a evolução de um
observável físico dadas as equações características. Vamos supor que este observável seja
representado por uma função
F (x) = F
φ
a
[m]
, p
m
a
, φ
α
[m]
,
ou seja, uma função tanto das variáveis dependentes como independentes do sistema. Es-
tamos usando o argumento x para lembrar que estamos tratando F como uma densidade
distribucional.
A diferencial funcional
δF (x) =
Ξ
y
δF (x)
δφ
a
[m]
(y)
δφ
a
[m]
(y) +
δF (x)
δp
m
a
(y)
δp
m
a
(y) +
δF (x)
δφ
α
[m]
(y)
δφ
α
[m]
(y)
representa a variação de F com relação às variáveis, independentes e dependentes. Com as
equações canônicas (3.36) e (3.37), escrevemos
δF (x) =
Ξ
y
z
δF (x)
δφ
a
[m]
(y)
δΦ
m
α
(z)
δp
m
a
(y)
δF (x)
δp
m
a
(y)
δΦ
m
α
(z)
δφ
a
[m]
(y)
δφ
α
[m
]
(z)
+
Ξ
z
δF (x)
δφ
α
[m
]
(z)
δφ
α
[m
]
(z) . (3.38)
Esta equação sugere a adoção dos parênteses de Poisson
{A (x) , B (y)}
Ξ
z
δA (x)
δφ
a
[m]
(z)
δB (y)
δp
m
a
(z)
δA (x)
δp
m
a
(z)
δB(y)
δφ
a
[m]
(z)
, (3.39)
tal que a evolução de F é observada segundo
δF (x) =
Ξ
y
{F (x) , Φ
m
α
(y)} +
δF (x)
δφ
α
[m]
(y)
δφ
α
[m]
(y) . (3.40)
A última integral refere-se à dependência de F (x) com relação às variáveis independentes.
Esta função não deve depender dos momentos p
m
α
, mas podemos generalizar a diferencial
para atender a este caso. Basta escrever
δF (x) =
Ξ
y
z
δF (x)
δφ
a
[m]
(y)
δΦ
m
α
(z)
δπ
m
a
(y)
δF (x)
δπ
m
a
(y)
δΦ
m
α
(z)
δφ
a
[m]
(y)
δφ
α
[m
]
(z)
+
Ξ
y
z
δF (x)
δφ
β
[m]
(y)
δΦ
m
α
(z)
δπ
m
β
(y)
δF (x)
δπ
m
β
(y)
δΦ
m
α
(z)
δφ
β
[m]
(y)
δφ
α
[m
]
(z) .
83
Esta expressão reduz-se a (3.38) se F independe dos momentos p
m
α
e se Φ
m
α
depender li-
nearmente desses momentos, como é o caso das equações (3.26). Vamos introduzir aqui os
parênteses de Poisson estendidos
{A (x) , B (y)}
Ξ
z
δA (x)
δφ
i
[m]
(z)
δB (y)
δp
m
i
(z)
δA (x)
δp
m
i
(z)
δB(y)
δφ
i
[m]
(z)
, (3.41)
em que estamos usando o índice i para englobar variáveis dependentes e independentes do
sistema. Mais uma vez, devemos ressaltar que essas relações são tomadas sobre uma hiper-
superfície de Cauchy a t constante.
Da definição (3.41) podemos intuir um espaço de fase estendido com as variáveis ξ
I
m
φ
i
[m]
, p
m
i
, tais que I = 0, ··· , n, n + 1, ··· , 2n + 1. A dinâmica do observável F (x) pode ser
escrita, com o auxílio de (3.41), por
δF (x) =
Ξ
y
{F (x) , Φ
m
α
(y)}δφ
α
[m]
(y) . (3.42)
Os parênteses fundamentais das variáveis dinâmicas são dados por
φ
a
[m]
(x) , φ
b
[m
]
(y)
= 0, (3.43)
p
m
a
(x) , p
m
b
(y)
= 0, (3.44)
φ
a
[m]
(x) , p
m
b
(y)
= δ
a
b
δ
m
m
δ
d
(x y) , (3.45)
o que pode ser verificado diretamente pela definição (3.41). Com a definição podemos, também,
provar as propriedades:
1. Antissimetria:
{A (x) , B (y)} = {B (y) , A (x)}; (3.46)
2. Bilinearidade:
{A (x) , (a + b) B (y)} = {A (x) , aB (y)} + {A (x) , bB (y)}
= a {A (x) , B (y)}+ b {A (x) , B (y)}, (3.47)
{A (x) , bB (y) + cC (z)} = b {A (x) , B (y)}+ c {A (x) , C (z)}; (3.48)
3. As regras de composição e de Leibniz:
{A (x) , B (y) C (z)} = B (y) {A (x) , C (z)} + {A (x) , B (y)}C (z) , (3.49)
{A (x) , B [C (y)]} =
Ξ
z
δB (y)
δC (z)
{A (x) , C (z)}; (3.50)
84
4. A identidade de Jacobi
{A (x) , {B (y) , C (z)}} + {B (y) {C (z) , A (x)}}
+ {C (z) , {A (x) , B (y)}} = 0, (3.51)
com a, b e c, números complexos.
As equações características são obtidas facilmente com (3.42):
δφ
a
[m]
(x) =
Ξ
y
φ
a
[m]
(x) , Φ
m
α
(y)
δφ
α
[m
]
(y) =
Ξ
y
δΦ
m
α
(y)
δp
m
a
(x)
δφ
α
[m
]
(y) ,
δπ
m
a
(x) =
Ξ
y
φ
a
[m]
(x) , Φ
m
α
(y)
δφ
α
[m
]
(y) =
Ξ
y
δΦ
m
α
(y)
δφ
a
[m]
(x)
δφ
α
[m
]
(y) ,
δS (x) =
Ξ
y
{S (x) , Φ
m
α
(y)}δφ
α
[m]
(y)
=
Ξ
y
z
δS (x)
δφ
a
[m
]
(z)
δΦ
m
α
(y)
δp
m
a
(z)
+
δS (x)
δφ
β
[m
]
(z)
δΦ
m
α
(y)
δp
m
β
(z)
δφ
α
[m]
(y)
=
Ξ
y
Ξ
z
δS (x)
δφ
a
[m
]
(z)
δΦ
m
α
(y)
δp
m
a
(z)
+
δS (x)
δφ
α
[m]
(y)
δφ
α
[m]
(y) .
Além disso, as equações para as variáveis independentes são triviais:
δφ
α
[m]
(x) =
Ξ
y
φ
α
[m]
(x) , Φ
m
β
(y)
δφ
β
[m
]
(y) =
Ξ
y
Φ
m
β
(y)
p
m
α
(x)
δφ
β
[m
]
(y) = δφ
α
[m]
(x) .
As variáveis independentes não possuem dinâmica. Dessa forma, com a lei de evolução (3.42)
aprendemos que a dinâmica se restringe ao espaço de fase das variáveis dependentes ξ
A
m
, que
denotaremos pelo símbolo T
¯
Q
p
. Este espaço de fase tem dimensão 2pk. As soluções que são
extremos da integral fundamental são hiper-superfícies r-dimensionais pertencentes a T
¯
Q
p
e parametrizadas pelas variáveis independentes φ
α
[m]
.
3.6 O quadro geométrico
Neste ponto, vamos definir um conjunto de campos vetoriais
X
m
α
(x) [ ]
Ξ
y
χ
Im
αm
(x, y)
δ
δξ
I
m
(y)
, (3.52)
que são operadores diferenciais lineares no espaço de fase completo das variáveis ξ
I
m
. Usa-
remos para indicar em que lugar nas expressões entram as funções sobre as quais esses
85
operadores atuam. Os componentes são dados por
χ
Im
αm
(x, y)
ξ
I
m
(y) , Φ
m
α
(x)
. (3.53)
Note que a ação desses campos em F (x) é dada por
X
m
α
(y) [F (x)] =
Ξ
z
χ
Im
αm
(y, z)
δF (x)
δξ
I
m
(z)
=
Ξ
y
ξ
I
m
(z) , Φ
m
α
(y)
δF (x)
δξ
I
m
(y)
= {F (x) , Φ
m
α
(y)},
de modo que podemos escrever
δF (x) =
Ξ
y
δφ
α
[m]
(y) X
m
α
(y) [F (x)] . (3.54)
Podemos escrever as equações canônicas simplesmente por
δξ
I
m
(x)
δφ
α
[m
]
(y)
= X
m
α
(y)
ξ
I
m
(x)
= χ
Im
αm
(x, y) . (3.55)
Com a definição dos campos vetoriais X
m
α
pretendemos induzir uma interpretação geo-
métrica, que vem a ser uma generalização daquela que podemos facilmente deduzir do for-
malismo simplético da mecânica clássica. As equações canônicas (3.34) e (3.35) levam na-
turalmente à definição dos vetores X
m
α
, com componentes χ
Im
αm
definidos em (3.53). Dizemos
que esses campos vetoriais são responsáveis por gerar soluções do problema variacional a par-
tir das equações (3.55). Devido à estrutura dos componentes desses campos, escritos a partir
dos parênteses de Poisson, conclui-se que esta é uma estrutura universal. Por exemplo, vamos
tomar uma função G (x) do espaço de fase. A este observável relacionamos um campo vetorial
definido por
Λ (x) [ ]
Ξ
y
λ
I
m
(x, y)
δ
δξ
I
m
(y)
,
com componentes
λ
I
m
(x, y)
ξ
I
m
(x) , G (y)
.
A este campo vetorial podemos relacionar a operação
δ
ρ
=
Ξ
y
δρ (y) Λ (y) [ ] , (3.56)
que determina a variação de uma quantidade qualquer do espaço de fase estendido com re-
86
lação a ρ (y), que é um parâmetro relacionado às soluções das equações diferenciais ordinárias
δξ
I
m
(x)
δρ (y)
= Λ (y)
ξ
I
m
(x)
=
ξ
I
m
(x) , G (y)
. (3.57)
Dizemos que G é gerador de soluções das equações (3.57), mas também é gerador de transfor-
mações infinitesimais definidas a partir do operador (3.56), sobre as soluções de (3.57). Essas
transformações são definidas por
δ
ρ
F (x) = F (x)|
ρ=ρ
1
F (x)|
ρ=ρ
0
, ρ
1
ρ
0
δρ 1,
para uma função arbitrária F (x).
Da mesma forma, as funções Φ
m
α
(x) são geradores de transformações infinitesimais que
descrevem a evolução dinâmica de uma função F (x) de acordo com a diferencial (3.54). Esta
evolução é parametrizada com as variáveis independentes φ
α
[m]
(x). Φ
0
(x) é o gerador de
transformações infinitesimais na direção do parâmetro t = x
0
, de modo que a Hamiltoni-
ana canônica H
c
é a geradora da evolução temporal do sistema. As demais funções Φ
m
z
, que no
formalismo de Dirac são tratadas como vínculos entre as variáveis canônicas, são geradores de
transformações infinitesimais com relação às suas respectivas variáveis independentes φ
z
[m]
.
Vamos assumir, dessa forma, a interpretação de que as equações de Hamilton-Jacobi
Φ
m
α
= p
m
α
+ H
m
α
= 0 (3.58)
dão origem a um conjunto de geradores Φ
m
α
que geram a evolução dinâmica do sistema com
relação a um conjunto de variáveis independentes φ
α
[m]
. A dinâmica segue a lei de evolução
δF (x) =
Ξ
y
δφ
α
[m]
(y) X
m
α
(y) [F (x)] =
Ξ
y
{F (x) , Φ
m
α
(y)}δφ
α
[m]
(y) . (3.59)
Esta equação será tratada como a diferencial fundamental do formalismo de Hamilton-Jacobi.
Neste ponto, vamos definir os objetos
p
Ξ
x
p
m
i
(x) δφ
i
[m]
(x) , (3.60)
X
m
α
Ξ
x
X
m
α
(x) . (3.61)
Dada a diferencial
δS
Ξ
x
δS
δφ
i
[m]
(x)
δφ
i
[m]
(x) , (3.62)
as condições (3.25) são equivalentes a p = δS. A definição dos objetos S, p e X
m
α
, que re-
presentam as densidades S (x), p
m
i
(x) e X
m
α
(x) integradas em uma superfície de Cauchy a t
87
constante, nos permite traçar um quadro geométrico para o formalismo de Hamilton-Jacobi
em teorias de campos. A partir de (3.52) vemos que X
m
α
são vetores definidos a partir da cons-
trução de uma variedade tangente ao espaço de fase completo T
¯
Q, que engloba o conjunto de
variáveis ξ
I
m
=
t, φ
a
[m]
, p
t
, p
m
a
. Por outro lado, a quantidade p é claramente a 1-forma definida
sobre T
¯
Q cujos componentes são os momentos conjugados p
m
i
. A condição p = δS, por sua vez,
indica que S é geradora de uma família de hiper-superfícies em T
¯
Q
p
, de dimensão k (r + 1):
σ : S
φ
a
[m]
, φ
α
[m]
= σ. (3.63)
Neste caso, σ faz o papel de um conjunto de parâmetros que identificam os membros da
família.
Nesta discussão torna-se útil a definição das funções
ξ
I
m
Ξ
x
ξ
I
m
(x) , (3.64)
que representam os campos do espaço de fase estendido integrados sobre uma superfície de
Cauchy. Com essas funções, a diferencial fundamental pode ser facilmente colocada na forma
de um sistema de equações diferenciais totais:
δF
δφ
α
[m]
= X
m
α
[F ] . (3.65)
O momento p é claramente ortogonal à família S. Cada vetor X
m
α
gera uma curva de 1-
parâmetro, ou um fluxo Hamiltoniano. Esses fluxos são soluções das equações canônicas
δξ
I
m
δφ
α
[m]
= X
m
α
ξ
I
m
, (3.66)
que descrevem curvas em T
¯
Q
p
.
Com esta seção, consideramos fechado o quadro completo de Carathéodory para teorias
de campos com derivadas de ordem superior. Contudo, este desenvolvimento depende da
integrabilidade do sistema de Hamilton-Jacobi, que investigaremos no capítulo 4. Como vi-
mos anteriormente, a principal característica de teorias com matriz Hessiana singular vem a
ser o fato de as condições para extremos da integral fundamental apresentarem-se como um
conjunto de equações diferenciais parciais, ou com o devido rigor, como equações funcionais
de primeira ordem. No decorrer da descrição da teoria de Hamilton-Jacobi, vimos que es-
sas equações estão relacionadas com equações diferenciais totais, as equações características,
enquanto as soluções dessas equações são descritas por fluxos Hamiltonianos no espaço de
fase T
¯
Q
p
de coordenadas
φ
a
[m]
, p
m
a
, parametrizados pelas variáveis independentes φ
α
[m]
. As
funções Φ
m
α
que definem as equações de Hamilton-Jacobi são os geradores da dinâmica do
sistema. Do ponto de vista geométrico, o formalismo de Hamilton-Jacobi pode ser sintetizado
88
pela existência de uma família de hiper-superfícies σ (3.63), de fluxos Hamiltonianos gerados
por vetores X
m
α
(3.52) e pela 1-forma p definida em (3.60). Se p for ortogonal à família σ, temos
cumpridas todas as condições para a existência de um campo geodésico que seja um extremo
da integral fundamental.
3.7 Dois teoremas
Antes de discutir a integrabilidade do sistema de Hamilton-Jacobi, vamos a dois teoremas
fundamentais, que dizem respeito à construção de campos geodésicos a partir de soluções
completas dessas equações. Consideremos genericamente um conjunto de k (r + 1) equações
Φ
m
α
φ
a
[m]
, φ
α
[m]
, p
m
a
, p
m
α
= 0, (3.67)
p = δS, (3.68)
m = 1, ··· , k; a
= 1, ··· , p; α = 0, ··· , r,
que dependem apenas de primeiras derivadas de S, ou seja, são de primeira ordem. Como
caso especial, as equações de Hamilton-Jacobi são obtidas considerando-se linearidade em
p
m
α
. Uma integral completa de (3.67) é dada por uma solução
S = S
φ
i
[m]
, λ
, i = 0, ··· , n, (3.69)
em que λ representa um conjunto de parâmetros. Dizemos que a solução (3.69) é completa se
1. Os parâmetros forem linearmente independentes, o que assumiremos por princípio.
2. O número de parâmetros presentes em S for máximo, ou seja, igual ao número de graus
de liberdade do sistema.
Se o sistema (3.67) possuir pelo menos uma integral completa na forma (3.69), dizemos tam-
bém que este é um sistema completo de equações diferenciais parciais.
As equações características referentes a (3.67) são dadas por
δξ
A
m
= δφ
α
[m
]
X
m
α
ξ
A
m
, A = 1, ··· , 2p, (3.70)
em que usaremos para indicar a operação de convolução, definida por
A B
Ξ
x
A (x) B (x) . (3.71)
Os vetores X
m
α
possuem componentes definidos em (3.52).
89
Para o primeiro teorema, vamos supor que dispomos de uma solução parcial do sistema
(3.67). Tal solução seria tal que S = S
φ
i
[m]
, λ
a

m
, em que a

= 1, ··· , p
< p. Neste caso,
diferenciação de S com relação aos parâmetros resultam em
δ
δS
δλ
a

m
= δφ
a
[m
]
δ
2
S
δφ
a
[m
]
δλ
a

m
+ δφ
α
[m
]
δ
2
S
δφ
α
[m
]
δλ
a

m
= δφ
α
[m

]
X
m

α
φ
a
[m
]
δ
2
S
δφ
a
[m
]
δλ
a

m
+
δ
2
S
δφ
α
[m
]
δλ
a

m
.
Tomando as derivadas de (3.67) com relação a λ
a

m
e usando a linearidade com relação a p
m
α
obtemos
δΦ
m
α
δλ
a

m
=
δΦ
m
α
δp
β
m

δp
β
m

δλ
a

m
+
δΦ
m
α
δp
a
m

δp
a
m

δλ
a

m
=
δp
α
m
δλ
a

m
+
δΦ
m
α
δp
a
m

δp
a
m

δλ
a

m
=
δ
2
S
δφ
α
[m
]
δλ
a

m
+ X
m
α
φ
a
[m

]
δ
2
S
δφ
a
[m

]
δλ
a

m
= 0,
ou seja,
δ
δS
δλ
a

m
= 0.
Portanto, as funções definidas por
β
m
a

δS
δλ
a

m
(3.72)
são constantes de movimento. Este consiste no primeiro teorema.
Se obtivermos uma solução completa do tipo (3.69) e a condição
det
δ
2
S
δφ
a
[m

]
δλ
b
m
= 0
for satisfeita, podemos mostrar que a inversão da relação
β
m
a
δS
δλ
a
m
,
nos fornece
φ
a
[m]
= φ
a
[m]
φ
α
[m]
, β
m
a
, λ
a
m
. (3.73)
90
Além disso, temos os momentos
p
m
a
=
δS
δφ
a
m
= p
m
a
φ
α
[m]
, λ
a
m
. (3.74)
Podemos, assim, enunciar o teorema de Jacobi:
Se existir uma solução completa (3.69) do sistema (3.67), as funções (3.73) e
(3.74) são soluções das equações características (3.70).
Para provar este teorema precisamos construir um envelope arbitrário da família de hiper-
superfícies definida pela solução completa e usar o fato de que todo envelope construído dessa
forma é também uma solução de (3.67). A prova para sistemas com uma variável indepen-
dente (r = 0), pode ser encontrada nas referências [14, 15]. Para o caso em que r > 0 devemos
ter em mente que, alternativamente, podemos descrever uma solução completa das equações
de Hamilton-Jacobi como uma função dependente de k (r + 1) funções arbitrárias de k (p 1)
parâmetros. Essas funções podem ser identificadas com as variáveis independentes φ
α
[m]
. A
generalização do procedimento torna-se imediata mas em nada acrescentaria ao ponto de vista
deste trabalho, de modo que não nos preocuparemos em apresentá-la aqui.
Esses teoremas possuem importância fundamental, ainda que a resolução analítica das
equações de Hamilton-Jacobi para uma dada teoria torne-se tarefa impossível. A importância
reside no fato de sermos capazes de encontrar contantes de movimento a partir de simples
derivação funcional de uma solução particular. No próximo capítulo, através da análise de
integrabilidade, discutiremos outras formas de encontrar constantes de movimento e, com
algum sucesso, conectar essas constantes a transformações de simetria.
91
Referências
[1] P. A. M. Dirac, Generalized Hamiltonian dynamics, Can. J. Math. 2, 129-148 (1950).
The Hamiltonian form of field dynamics, Can. J. Math. 3, 1-23 (1951).
Generalized Hamiltonian dynamics, Proc. Roy. Soc. Lond. A246, 326-332 (1958).
Lectures on quantum mechanics, Yeshiva University, New York (1964).
[2] P. G. Bergmann, Non-linear field theories, Phys. Rev. 75, 680-685 (1949).
J. Anderson & P. G. Bergmann, Constraints in covariant field theories, Phys. Rev. 83,
1018-1025 (1951).
P. G. Bergmann & R. Schiller, Classical and quantum field theories in the Lagrangian
formalism, Phys. Rev. 89, 4-16 (1953).
P. G. Bergmann & I. Goldberg, Dirac bracket transformations in phase space, Phys. Rev.
98, 531-538 (1955).
[3] A. Hanson, T. Regge & C. Teitelboin, Constrained Hamiltonian systems, Academia
Nazionale dei Licei 22 (1976).
[4] K. Sundermeyer, Constrained Dynamics, Lecture Notes in Physics 169, Springer-Verlag,
New York/Berlin (1982).
[5] D. M. Gitman & I. V. Tyutin, Quantization of fields with constraints, Springer-Verlag,
New York (1990).
[6] H. Rund, The Hamilton-Jacobi theory in the calculus of variations; its role in mathemat-
ics and physics}, Van Nostrand (1966).
[7] P. A. M. Dirac, Forms of relativistic dynamics, Rev. Mod. Phys. 21, 392-399 (1949).
[8] B. L. G. Bekker, Forms of relativistic dynamics, Lecture Notes in Physics, 572, Springer
(2001).
92
[9] R. A. Neville & F. Rohrlich, Quantum field theory of null planes, Il Nuovo Cimento A1,
625 (1971).
[10] P. J. Steinhardt, Problems of quantization in the infinite momentum frame, Ann. Phys.
128, 425-447 (1980).
[11] R. K. Sachs, On the characteristic initial value problem in gravitational theory, J. Math.
Phys. 3, 908-914 (1962).
[12] Th. Heinzl, St. Krusche & E. Werner, Spontaneous symmetry breaking in light cone quan-
tum field theory, Phys. Lett. B272, 54-60 (1991).
[13] P. P. Srivastava, Theta vacua in the light front quantized Schwinger model, arXiv:hep-
th/9610149v1 (1996).
[14] P. R. Garabedian, Partial differential equations, John Wiley & Sons (1964).
[15] C. R. Chester, Techniques in partial differential equations, McGraw-Hill Inc. (1971).
93
Capítulo 4
Integrabilidade
————————————————————————–
Introdução
Na mecânica clássica a definição de sistemas completamente integráveis envolve um cam-
po vetorial Hamiltoniano, gerador da evolução temporal, que possua um conjunto completo
de integrais de movimento. Este conjunto comuta entre si e com a Hamiltoniana canônica,
com a operação dos parênteses de Poisson, e está relacionado a transformações de simetria da
integral fundamental. Por exemplo, se um sistema mecânico é invariante por translações, os
momentos lineares, juntamente com a Hamiltoniana, são constantes do movimento. Obtendo
H e p tais que {H, H} = 0 (sistema conservativo), {p, H} = 0 (momentos são constantes de
movimento) e {p
i
, p
j
} = 0, temos um sistema integrável. Se outras simetrias forem envolvidas,
existirão também outras integrais de movimento.
No caso de teorias de campos as simetrias podem ser também locais, como vimos no caso
dos teoremas de Noether na seção 1.2. Este é o caso de simetrias de gauge locais, no qual
estamos interessados. Veremos que as condições de integrabilidade podem nos fornecer, com
a devida interpretação, a mesma definição de sistema integrável que a mecânica clássica. De
modo geral, um sistema em teorias de campos deve possuir um conjunto de geradores Φ
m
α
que feche uma álgebra de Lie com os parênteses de Poisson. Cada gerador está relacionado
a uma transformação de simetria que deixa a ação invariante, a menos de termos em Ξ.
No formalismo de Dirac-Bergmann [1] esta relação ocorre entre vínculos de primeira classe
e simetrias locais. Aqui, usando o formalismo de Hamilton-Jacobi, buscaremos estabelecer
relação equivalente.
Para cumprir essa meta, chegaremos primeiro às condições de integrabilidade de Frobe-
nius, que indicam as condições para que o sistema de equações Φ
m
α
= 0 seja completo e, con-
sequentemente, suas equações características sejam integráveis. A existência deste conjunto
completo de geradores tem diversas consequências do ponto de vista matemático que podem
ser melhor analisadas sob o ponto de vista do formalismo simplético. Também dedicaremos
espaço para tratar desse tema. Com este roteiro, seremos capazes de mostrar a relação entre
as curvas características do sistema de Hamilton-Jacobi e transformações canônicas infinite-
simais. Mostraremos que os vetores X
m
α
são geradores de transformações de simetria, desta
vez no sentido de teoria de grupos, e buscaremos a relação entre essas transformações e as
funções Φ
m
α
, nos moldes da relação existente entre vínculos de primeira classe e transfor-
mações de gauge no formalismo Hamiltoniano.
No geral, o conjunto de geradores devido à singularidade da matriz Hessiana não é com-
pletamente integrável e esta é a razão da existência dos métodos de análise de vínculos. Pelas
condições de integrabilidade de Frobenius podemos usar o formalismo de Hamilton-Jacobi
para fazer esta análise. Portanto, a última seção será dedicada a uma proposta de método
para este fim. A chave para esta questão é encontrar um conjunto de geradores que obedeçam
as condições de Frobenius, o que envolve a análise da matriz definida pelos parênteses de
Poisson entre esses geradores.
Também seremos capazes de conectar a existência de geradores não integráveis à existên-
cia de parênteses generalizados, que representam uma dinâmica modificada. Esta operação
induz à interpretação de que existe uma estrutura simplética modificada natural em sistemas
não Hessianos, que evidencia a integrabilidade. As condições de Frobenius são as únicas re-
lações necessárias para se obter esta estrutura, o que é um entendimento novo com relação ao
que se supunha possível realizar no formalismo de Hamilton-Jacobi [2, 3].
4.1 Os parênteses de Lagrange
Existem maneiras diferentes, embora equivalentes, de assegurar a integrabilidade das
equações de Hamilton-Jacobi de uma dada teoria. O ponto de vista que tomaremos diz res-
peito às condições necessárias e suficientes para que exista uma integral completa dessas
equações. Se esta solução existir, o teorema de Jacobi garante que as funções definidas em
(3.73) e (3.74) são soluções das equações características. Por consequência, condições que
garantam a integrabilidade das equações (3.67) asseguram a integrabilidade de (3.70). Com
isso podemos começar com a análise das equações características (3.70), cujas soluções, se
95
existirem, podem ser escritas como
φ
a
[m]
= φ
a
[m]
φ
α
[m]
, (4.1)
p
m
a
= p
m
a
φ
α
[m]
. (4.2)
Vamos supor que essas funções sejam pelo menos de classe C
2
nas variáveis independentes.
Se as soluções das equações características são campos geodésicos, temos uma função
S = S
φ
a
[m]
, φ
α
[m]
= S
φ
a
[m]
φ
α
[m]
, φ
α
[m]
, (4.3)
para a qual
p
m
a
=
δS
δφ
a
[m]
. (4.4)
Tomando (4.3) e (4.4), temos
δS
δφ
α
[m]
=
δS
δφ
α
[m]
+
δS
δφ
a
[m
]
δφ
a
[m
]
δφ
α
[m]
= p
m
i
δφ
i
[m
]
δφ
α
[m]
.
Derivando novamente esta relação,
δ
2
S
δφ
α
[m]
δφ
β
[m

]
=
δφ
i
[m
]
δφ
α
[m]
δp
m
i
δφ
β
[m

]
+ p
m
i
δ
2
φ
i
[m
]
δφ
α
[m]
δφ
β
[m

]
,
ou seja,
δ
2
S
δφ
α
[m]
δφ
β
[m

]
p
m
i
δ
2
φ
i
[m
]
δφ
α
[m]
δφ
β
[m

]
=
δφ
i
[m
]
δφ
α
[m]
δp
m
i
δφ
β
[m

]
,
O lado esquerdo é simétrico com relação às variáveis independentes. Isto significa que a parte
antissimétrica do termo à direita deve ser nula. Aqui, definimos os parênteses de Lagrange
das variáveis independentes com relação ao espaço de fase completo T
¯
Q:
φ
α
[m]
, φ
β
[m

]
δφ
i
[m
]
δφ
α
[m]
δp
m
i
δφ
β
[m

]
δφ
i
[m
]
δφ
β
[m

]
δp
m
i
δφ
α
[m]
. (4.5)
Portanto, se (4.1) e (4.2) são soluções das equações características referentes a um sistema
de Hamilton-Jacobi com solução (4.3), os parênteses de Lagrange das variáveis independentes
devem ser nulos, ou seja,
φ
α
[m]
, φ
β
[m
]
= 0. (4.6)
96
Assim, mostramos que (4.6) é uma condição necessária para a integrabilidade das equações
características.
Note que
φ
α
[m]
, φ
β
[m

]
=
δp
m
α
δφ
β
[m

]
δp
m

β
δφ
α
[m]
+
δφ
a
[m
]
δφ
α
[m]
δp
m
a
δφ
β
[m

]
δφ
a
[m
]
δφ
β
[m

]
δp
m
a
δφ
α
[m]
=
δφ
a
[m
]
δφ
α
[m]
δp
m
a
δφ
β
[m

]
δφ
a
[m
]
δφ
β
[m

]
δp
m
a
δφ
α
[m]
, (4.7)
visto que há a identidade
δp
m
α
δφ
β
[m

]
δp
m

β
δφ
α
[m]
= 0.
Então, a parte referente às variáveis independentes anula-se identicamente e os parênteses
de Lagrange são, na verdade, definidos no espaço de fase T
¯
Q
p
.
Podemos mostrar que (4.6) é também uma condição suficiente para a integrabilidade. Va-
mos considerar um conjunto de funções (4.1) e (4.2) tal que
δφ
a
[m
]
δφ
α
[m]
δp
m
a
δφ
β
[m

]
δφ
a
[m
]
δφ
β
[m

]
δp
m
a
δφ
α
[m]
= 0,
que podemos reescrever por
δ
δφ
β
[m

]
δφ
a
[m
]
δφ
α
[m]
p
m
a
δ
δφ
α
[m]
δφ
a
[m
]
δφ
β
[m

]
p
m
a
δ
2
φ
a
[m
]
δφ
α
[m]
δφ
β
[m

]
p
m
a
+
δ
2
φ
a
[m
]
δφ
β
[m

]
δφ
α
[m]
p
m
a
= 0.
Os dois últimos termos à esquerda se cancelam pela simetria das derivadas. Obtemos, então,
a condição
δ
δφ
β
[m

]
δφ
a
[m
]
δφ
α
[m]
p
m
a
=
δ
δφ
α
[m]
δφ
a
[m
]
δφ
β
[m

]
p
m
a
. (4.8)
Esta expressão mostra que existe uma função σ tal que
δφ
a
[m
]
δφ
α
[m]
p
m
a
=
δσ
δφ
α
[m]
. (4.9)
Por outro lado, sendo as funções (4.1) inversíveis, podemos escrever
φ
α
[m]
= φ
α
[m]
φ
a
[m]
97
e
S
φ
a
[m]
, φ
α
[m]
σ
φ
a
[m]
, φ
α
[m]
φ
a
[m]

.
A partir dessas últimas expressões é imediata a identidade
δσ
δφ
α
[m]
=
δS
δφ
a
[m
]
δφ
a
[m
]
δφ
α
[m]
. (4.10)
Como consequência, a comparação entre (4.9) e (4.10) nos mostra que
p
m
a
=
δS
δφ
a
[m]
. (4.11)
Agora, vamos derivar (4.11) com relação às variáveis independentes:
δ
δφ
α
[m
]
p
m
a
δS
δφ
a
[m]
=
δp
m
a
δφ
α
[m
]
δ
2
S
δφ
a
[m]
δφ
α
[m
]
δ
2
S
δφ
a
[m]
δφ
b
[m

]
δφ
b
[m

]
δφ
α
[m
]
= 0.
Se as variáveis dependentes obedecem as equações características, esta expressão torna-se
δΦ
m
α
δφ
a
[m]
+
δ
2
S
δφ
a
[m]
δφ
α
[m
]
+
δ
2
S
δφ
a
[m]
δφ
b
[m

]
δΦ
m
α
δp
m

b
= 0,
que pode ser colocada na forma
δ
δφ
a
[m]
Φ
m
α
φ
a
[m]
, p
m
a
, φ
α
[m]
, p
m
α
= 0.
Esta equação nos mostra que
Φ
m
α
φ
a
[m]
, p
m
a
, φ
α
[m]
, p
m
α
= F
φ
α
[m]
.
As equações de Hamilton-Jacobi
Φ
m
α
φ
a
[m]
, p
m
a
, φ
α
[m]
, p
m
α
= 0,
podem ser obtidas com a absorção de F no lado esquerdo.
Com este procedimento, mostramos que as condições (4.6) são necessárias e suficientes
para que uma função do tipo (4.3) seja uma integral completa das equações de Hamilton-
Jacobi. Entretanto, essas condições não são convenientes para possibilitar aplicações do for-
malismo, já que são necessárias as soluções das equações características. Estas soluções, em
se tratando de teorias clássicas de campos, são geralmente o objetivo do formalismo, não seu
“input” inicial.
98
Portanto, devemos nos preocupar em encontrar condições de integrabilidade mais conve-
nientes e, neste caso, mostraremos a seguir que essas condições recaem sobre os geradores
da teoria. Este resultado será de extrema importância, visto que nos permitirá reduzir o for-
malismo de Hamilton-Jacobi à procura de um conjunto completo de geradores linearmente
independentes, que podem ser naturalmente construídos a partir da densidade Lagrangiana
e das próprias condições de integrabilidade.
4.2 Condições de Frobenius
Vamos relembrar que as equações características
δξ
A
m
= δφ
α
[m
]
X
m
α
ξ
A
m
, (4.12)
podem ser escritas como um conjunto de equações canônicas da seguinte forma:
δφ
a
[m
]
δφ
α
[m]
= X
m
α
φ
a
[m
]
=
φ
a
[m
]
, Φ
m
α
, (4.13)
δp
m
a
δφ
α
[m]
= X
m
α
p
m
a
=
p
m
a
, Φ
m
α
. (4.14)
Nessas equações, estamos usando os parênteses de Poisson das funções integradas sobre uma
superfície de Cauchy. Para nos adaptar à linguagem deste capítulo, esses parênteses podem
ser escritos como
{A, B} =
δA
δφ
i
[m]
δB
δp
m
i
δB
δφ
i
[m]
δA
δp
m
i
. (4.15)
Ao substituir (4.13) e (4.14) em (4.7), obtemos
φ
α
[m]
, φ
β
[m

]
= X
m
α
φ
a
[m
]
X
m

β
p
m
a
X
m

β
φ
a
[m
]
X
m
α
p
m
a
. (4.16)
A partir da expressão à direita, vamos definir
X
m
α
, X
m

β
X
m
α
X
m

β
X
m

β
X
m
α
. (4.17)
Este objeto é conhecido como o comutador de Lie. Com (4.17), a condição (4.6) torna-se
X
m
α
, X
m

β
φ
a
[m
]
, p
m
a
= 0, (4.18)
ou seja, o comutador (4.17) aplicado em φ
a
[m
]
e p
m
a
. Esta equação nos fornece uma condição de
99
integrabilidade sobre os vetores X
m
α
. Já que φ
a
[m
]
e p
m
a
são, no geral, não nulos e as equações
canônicas devem ser não degeneradas, a igualdade será cumprida se
X
m
α
, X
m
β
= 0. (4.19)
Ainda com respeito à expressão (4.16), podemos reescrevê-la usando (4.13) e (4.14):
φ
α
[m]
, φ
β
[m

]
=
φ
a
[m
]
, Φ
m
α
p
m
a
, Φ
m

β
φ
a
[m
]
, Φ
m

β
p
m
a
, Φ
m
α
=
δΦ
m
α
δp
m
a
δΦ
m

β
δφ
a
[m
]
δΦ
m

β
δp
m
a
δΦ
m
α
δφ
a
[m
]
=
Φ
m
α
, Φ
m

β
.
Então, temos
X
m
α
, X
m

β
φ
a
[m
]
, p
m
a
=
Φ
m
α
, Φ
m

β
,
de modo que a condição de integrabilidade (4.19) é equivalente a estabelecer
Φ
m
α
, Φ
m

β
= 0 (4.20)
para todo o conjunto de geradores da teoria. As equações (4.19) e (4.20) são as condições de
integrabilidade de Frobenius.
Assim, encontramos nesta condição uma boa condição de integrabilidade para o forma-
lismo de Hamilton-Jacobi, já que os geradores são conhecidos, em tese, a partir de derivadas
da densidade Lagrangiana com relação às velocidades relativas às variáveis independentes.
A expressão “em tese”, como veremos, é apropriada. No geral, esses geradores não obede-
cem as condições de integrabilidade, o que significa que o respectivo sistema de equações de
Hamilton-Jacobi não consiste em um sistema completo de equações diferenciais linearmente
independentes.
Nossa proposta para a realização deste procedimento será discutida na seção 4.6, que
existem ainda dois tópicos que necessitam de discussão, o formalismo simplético da teoria e
transformações canônicas. Mas podemos adiantar que existe uma forma para as condições
de Frobenius ainda mais conveniente que (4.20). Note que, se (4.20) é satisfeita, a evolução
dinâmica dos geradores é dada por
δΦ
m
α
=
Φ
m
α
, Φ
m
β
δφ
β
[m
]
= 0, (4.21)
ou seja, os geradores são constantes do movimento. A condição de Frobenius é, então equiva-
lente a δΦ
m
α
= 0.
Para finalizar esta seção, vamos usar explicitamente as equações de Hamilton-Jacobi na
100
forma
Φ
m
α
= p
m
α
+ H
m
α
= 0.
Assim, temos
Φ
m
α
, Φ
m
β
=
p
m
α
, H
m
β
+
H
m
α
, p
m
β
+
H
m
α
, H
m
β
=
δH
m
β
δφ
α
[m]
δH
m
α
δφ
β
[m
]
+
H
m
α
, H
m
β
.
Contudo,
H
m
α
, H
m
β
=
δH
m
α
δφ
β
[m
]
δH
m
β
δφ
α
[m]
+
δH
m
α
δφ
a
[m

]
δH
m
β
δp
m

a
δH
m
β
δφ
a
[m

]
δH
m
α
δp
m

a
=
δH
m
α
δφ
β
[m
]
δH
m
β
δφ
α
[m]
+
H
m
α
, H
m
β
T
¯
Q
p
,
em que o último parênteses são os parênteses de Poisson definidos no espaço de fase reduzido
T
¯
Q
p
, (3.39). Na comparação das expressões anteriores:
Φ
m
α
, Φ
m
β
=
H
m
α
, H
m
β
T
¯
Q
p
.
Assim, a condição de integrabilidade de Frobenius equivale também a
H
m
α
, H
m
β
T
¯
Q
p
= 0. (4.22)
Com esta condição, temos as diferenciais
δH
m
α
=
δH
m
α
δφ
β
[m
]
δφ
β
[m
]
. (4.23)
Usaremos esta relação mais adiante.
4.3 O formalismo simplético
Assim como na mecânica clássica, este cenário pode ser compreendido através de um for-
malismo simplético, construído da seguinte forma: Seja o espaço de configuração estendido
101
definido por
¯
Q
(kn+1)
, cujas coordenadas são dadas pelas kn + 1 variáveis
φ
i
[m]
=
t, φ
a
, φ
a
[1]
, ··· , φ
a
[k1]
. (4.24)
O problema variacional é definido a partir da integral fundamental
A
x
L (x) =
t
1
t
0
L (t) dt, (4.25)
em que
L (t) =
Ξ
x
L (x) , (4.26)
ainda na qual Ξ é uma superfície de Cauchy a t constante. Os campos obedecem, a princípio
e sem perda de generalidade, as condições de serem nulos na fronteira de Ξ, para que L seja
uma função bem definida. Entretanto, outras condições de contorno podem ser empregadas
para este fim.
A partir de (4.25) podemos definir a 1-forma fundamental
θ L (t) dt. (4.27)
Uma transformação de Legendre, com a definição dos momentos (3.9) e (3.10), define um
conjunto de k (r + 1) equações diferenciais de Hamilton-Jacobi Φ
m
α
= 0, com os quais podemos
escrever (4.27) em forma canônica:
θ
c
p
m
a
δφ
a
[m]
H
m
α
δφ
α
[m]
. (4.28)
Vamos aplicar a derivada exterior na 1-forma canônica (4.28), que envolve as propriedades:
1. Se F é uma função do espaço de fase, dF = δF .
2. d
2
= 0.
3. Se α é uma s-forma, d (α β) = β (1)
s
α .
Assim, temos
c
= δp
m
a
δφ
a
[m]
δH
m
α
δφ
α
[m]
. (4.29)
Por consequência, podemos definir a 2-forma simplética
ω
c
= δφ
a
[m]
δp
m
a
δφ
α
[m]
δH
m
α
, (4.30)
que é fechada, ou seja, = 0.
102
Pela definição (4.30), está claro que
ω = ω
p
+ a, (4.31)
em que ω
p
δφ
a
[m]
δp
m
a
é uma 2-forma definida em T
¯
Q
p
. Quanto à 2-forma a, temos
a δφ
α
[m]
δH
m
α
=
δH
m
α
δφ
β
[m
]
δφ
α
[m]
δφ
β
[m
]
, (4.32)
em que usamos (4.23). Contudo,
δH
m
α
δφ
β
[m
]
=
δp
m
α
δφ
β
[m
]
=
δp
m
β
δφ
α
[m]
,
ou seja, os componentes são simétricos no índices. A 2-forma a é nula identicamente.
Portanto, ω é degenerada. Isto pode ser observado de outra forma quando escrevemos ω
como um tensor antissimétrico de segunda ordem
ω = ω
mm
IJ
δξ
I
m
δξ
J
m
, (4.33)
em que ω
mm
IJ
é a matriz
ω
mm
IJ
=
0
2p
1
2kp
0
k(r+1)
1
2kp
0 0
k(r+1)
0
k(r+1)
0
k(r+1)
a
mm
αβ
. (4.34)
Esta matriz é singular, de posto 4kp. Ou seja, existem k (r + 1) autovalores nulos. Os autove-
tores correspondentes aos modos zero de ω
mm
IJ
são dados por χ
Im
αm
, ou seja, cada vetor X
m
α
é
um vetor nulo da 2-forma simplética ω. Com isso,
i
X
m
α
ω = 0,
o que atesta a degenerescência de ω.
Contudo, ω
p
é uma 2-forma regular, dada pelos componentes
ω
mm
AB
=
0
2kp
1
2kp
1
2kp
0
2kp
. (4.35)
Ou seja, i
X
ω
p
= 0 se, e somente se, X = 0. Em particular, as equações características podem
ser escritas como
i
X
m
α
ω
p
= δH
m
α
, (4.36)
103
enquanto as condições de integrabilidade de Frobenius são equivalentes a
i
X
m
α
i
X
m
β
ω = 0. (4.37)
Um conjunto completo de vetores nulos de ω formam um espaço vetorial definido sobre o es-
paço das variáveis independentes. Esses vetores obedecem as condições de integrabilidade de
Frobenius (4.19) e formam uma base completa linearmente independente. Como bons cam-
pos vetoriais, eles são geradores de fluxos Hamiltonianos. Na próxima seção, vamos analisar
essas transformações e ver como elas afetam a dinâmica dos sistemas não Hessianos.
4.4 Fluxos Hamiltonianos e transformações canônicas
Mais uma vez vamos considerar as equações características (4.12), que são as equações que
definem os fluxos Hamiltonianos característicos da 1-forma fundamental θ
c
. Elas definem,
portanto, uma aplicação infinitesimal
g : T
¯
Q
p
T
¯
Q
p
: ξ
A
m
φ
α
m
=σ
α
m
ξ
A
m
φ
α
m
=λ
α
m
, (4.38)
tal que:
δφ
α
[m]
λ
α
m
σ
α
m
1, δξ
A
m
ξ
A
m
(λ
α
m
) ξ
A
m
(σ
α
m
) 1.
Neste caso, dizemos que g é um fluxo Hamiltoniano local.
De (4.12), temos
ξ
A
m
(λ
α
m
) = gξ
A
m
(σ
α
m
) ,
na qual temos o operador
g 1 + δφ
α
[m]
X
m
α
. (4.39)
Vamos definir a aplicação inversa
g
1
1 δφ
α
[m]
X
m
α
, (4.40)
tal que
g
1
g =
1 δφ
α
[m]
X
m
α
1 + δφ
β
[m
]
X
m
β
= 1 δφ
α
[m]
X
m
α
X
m
β
δφ
β
m
= 1 O
(δφ
α
m
)
2
1.
104
Como o comutador de Lie entre os vetores X
m
α
e X
m
β
é nulo, temos também g
1
g = gg
1
. Note
que a composição de duas transformações infinitesimais geradas por g é dada por
g
g
λ
= (1 +
α
m
X
m
α
)
1 + λ
β
m
X
m
β
= 1 + (λ
α
m
+
α
m
) X
m
α
+ O
2
g
λ+
Então, uma sequência de transformações infinitesimais é também uma transformação in-
finitesimal. As condições de Frobenius garantem que essas transformações são comutativas,
ou seja, g
g
λ
= g
λ
g
, como podemos ver de imediato.
É direto observar que, devido às condições de integrabilidade, a 2-forma ω é preservada
pela transformação (4.38):
gωg
1
= [1 + δφ
α
m
X
m
α
] ω
1 δφ
β
m
X
m
β
= ω δφ
α
m
i
X
m
α
i
X
m
β
ω
δφ
β
m
.
O termo i
X
m
α
i
X
m
β
ω é antissimétrico pela troca dos vetores, portanto, o resultado
gωg
1
= ω (4.41)
se cumpre. Por consequência, (4.38) é uma transformação canônica em T
¯
Q.
Como usual em geometria simplética, ω é uma medida de área diferencial de hiper-planos
contidos no espaço de fase. Tomemos uma superfície bidimensional E em T
¯
Q. A área dessa
superfície é dada por
I
E
=
E
ω =
E
c
.
Pelo teorema de Stokes generalizado, esta integral pode ser escrita como uma integral na
fronteira de E:
I
E
=
E
c
=
E
θ
c
,
em que E é um contorno fechado. Como a 2-forma simplética é preservada, I
E
é um inva-
riante integral e, por consequência, θ
c
também é preservado. Isto ocorre especialmente com os
fluxos característicos gerados por X
m
α
, mas vale para toda transformação canônica. Dizemos
que θ
c
é o primeiro invariante de Poincaré, enquanto ω é o segundo invariante de Poincaré.
De fato, todas as 2p-formas
ω
p
ω ω ω ··· ω

p
são invariantes diferenciais sob transformações canônicas. O teorema de Liouville segue de
imediato: a 2n-forma ω
n
é proporcional ao elemento de volume de T
¯
Q e, portanto, os fluxos
105
Hamiltonianos canônicos carregam e distorcem regiões do espaço de fase completo preser-
vando seus volumes.
Em especial, é imediato observar que a invariância de θ
c
, a menos de termos de fronteira,
reflete-se na invariância da integral fundamental (4.25). Assim, a ação
A =
p
m
a
δφ
a
[m]
H
m
α
δφ
α
[m]
=
p
m
i
δφ
i
[m]
=
θ
c
é uma integral invariante do movimento. Portanto, os fluxos Hamiltonianos característicos
são transformações de simetria da integral fundamental.
Na seção 4.3 vimos que ω é uma 2-forma degenerada, o que causa a separação do espaço de
fase em um espaço de fase reduzido caracterizado pela 2-forma ω
p
e um espaço nulo da matriz
ω
mm
IJ
isomórfico ao espaço das variáveis independentes φ
α
[m]
. De (4.41) imediatamente segue
que a 2-forma ω
p
também é preservada:
gω
p
g
1
= ω
p
. (4.42)
Neste caso, também se preserva o elemento de volume do espaço de fase T
¯
Q
p
. Em vez de apre-
sentar uma prova analítica, vamos apenas argumentar que o principal resultado da seção 4.3,
que atesta a degenerescência da 2-forma simplética ω, implica na existência de coordenadas
locais tais que a 2-forma a é nula e, portanto, o volume do subespaço formado por (φ
α
m
, p
m
α
) co-
lapsa a zero. Então, todos os resultados pertinentes ao espaço de fase T
¯
Q são imediatamente
válidos para T
¯
Q
p
.
Tendo em mãos a compreensão do formalismo simplético por trás de sistemas não Hes-
sianos a partir do ponto de vista do formalismo de Hamilton-Jacobi, torna-se oportuno lançar
mão de alguma interpretação física dessas teorias. Não diferença qualitativa entre este
quadro geométrico e aquele que encontramos na análise de sistemas regulares, a não ser o
fato de que sistemas não Hessianos são, de certa forma, uma generalização. Por exemplo,
vamos considerar o caso em que r = 0. As curvas características do sistema são fluxos Hamil-
tonianos relacionados ao vetor X
0
, que tem como componentes
ξ
I
m
, Φ
0
, sendo famílias de
soluções das equações canônicas de Hamilton. Portanto, a Hamiltoniana canônica H
c
é ge-
radora da evolução temporal com os parênteses de Poisson:
dF = {F, Φ
0
}dt =
F
t
dt + {F, H
c
}dt,
enquanto X
0
é também gerador, desta vez sob o ponto de vista da transformação infinitesimal
g = 1 + dtX
0
.
Esta consiste em uma transformação canônica que pode ser interpretada como a evolução
106
dinâmica do espaço de fase do sistema, ou seja, que descreve como este espaço de fase evolui
com o tempo.
Para sistemas não Hessianos vimos que, se o sistema é integrável, um conjunto de
k (r + 1) funções Φ
m
α
e a evolução dinâmica envolve várias variáveis independentes:
δF = {F, Φ
m
α
} δφ
α
[m]
. (4.43)
Cada variável φ
α
[m]
está relacionada a um campo vetorial X
m
α
e esses campos obedecem as
condições de Frobenius, que refletem-se também na condição
Φ
m
α
, Φ
m
β
= 0. Cada função
Φ
m
α
é geradora da dinâmica do sistema com relação à sua respectiva variável independente,
assim como os vetores X
m
α
são geradores de transformações canônicas soluções das equações
características, no sentido da definição da operação (4.39).
O ponto fundamental diz respeito à invariância da ação com respeito à transformação
(4.38). Esta invariância nos diz que X
m
α
são geradores de transformações de simetria. Note
que, se
Φ
m
α
, Φ
m
β
= 0, cada gerador é invariante pelas transformações de simetria gerada
pelos demais. Mais que isso, esses geradores são integrais do movimento, ou seja, δΦ
m
α
= 0.
Do ponto de vista matemático, todas as variáveis independentes são equivalentes. Ao
adotarmos um ponto de vista físico, contudo, a variável φ
0
= t é claramente diferenciada.
Vamos observar o sistema de relações acima sob esta ótica, ou seja, supondo que a evolução
dinâmica verdadeira do sistema seja caracterizada apenas pela evolução temporal. Neste
caso, qual é a interpretação física que podemos atribuir às transformações de simetria dos
demais geradores Φ
m
z
?
Notemos que, na separação dos geradores, inferimos de imediato que
1. {Φ
m
z
, Φ
0
} = 0, ou seja, os geradores Φ
m
z
são invariantes por evolução temporal.
2. O gerador Φ
0
é invariante pelas transformações de simetria geradas por Φ
m
z
, o que pode
ser visto usando a antissimetria dos parênteses de Poisson.
3.
Φ
m
z
, Φ
m
y
= 0, ou seja, os geradores Φ
m
z
fecham uma álgebra de Lie abeliana com os
parênteses de Poisson.
Assim, temos um conjunto completo e linearmente independente de observáveis que são in-
tegrais do movimento devido às simetrias geradas pelos seus respectivos campos vetoriais.
Este cenário é obviamente equivalente à relação “simetrias leis de conservação” estabele-
cida pelos teoremas de Noether e é também a própria definição de sistemas Hamiltonianos
completamente integráveis.
107
4.5 Transformações canônicas e simetrias de gauge
Três questões podem ser imediatamente levantadas a partir da construção da seção 4.4:
(1) sob quais condições a álgebra dos geradores implica na existência de um grupo de Lie
finito, (2) que tipo de transformação de simetria este grupo, se existir, representa e (3), o que
ocorre com a integrabilidade do sistema se a álgebra associada for uma álgebra de Lie geral,
ou seja, não comutativa?
Com relação a sistemas dinâmicos de dimensão infinita, essas questões possuem res-
postas que vêm da aplicação do formalismo Hamiltoniano. A questão (3) é, contudo, matema-
ticamente bastante complicada. Há um teorema, de Fomenko e Mishchenko [4], que garante,
com algumas condições sobre o espaço de fase, que um conjunto completo de funções Φ
m
α
tais
que
Φ
m
α
, Φ
m
β
= C
mm
γ
αβm

Φ
m

γ
, (4.44)
são suficientes para garantir a integrabilidade. Podemos ver que este é o caso apenas obser-
vando as propriedades deste conjunto de geradores. Primeiro, podemos usar a identidade de
Jacobi para mostrar que, se duas funções F e G são integrais do movimento, ou seja, se δF = 0
e δG = 0, os parênteses H = {F, G} também o são. Portanto, se um sistema de geradores F e
G não está completo, os parênteses de Poisson entre eles, H, pode fornecer outro gerador que
complete o sistema na forma da equação H = 0. Se H é um gerador, devemos ter {H, F } = 0
e {H, G} = 0 se o sistema for integrável. Se não for o caso, esses últimos parênteses podem
indicar novos geradores. Podemos, então, completar um sistema de Hamilton-Jacobi com a
análise dos parênteses de Poisson dos geradores originais. Se este processo for finito e se as
equações resultantes não forem inconsistentes entre si, o processo terminará e os parênteses
entre os geradores serão combinações lineares dos mesmos.
Contudo, na maioria dos sistemas este procedimento é um tanto ingênuo, que uma
equação de Hamilton-Jacobi resultante do parênteses entre dois geradores não raramente é
inconsistente com as equações anteriores. Para lidar com este caso, a análise de integrabili-
dade deve ser mais sutil. Na seção 4.6 apresentaremos um procedimento livre deste problema.
Por outro lado, se o processo de iteração não tiver fim, ou seja, se uma álgebra não for fechada,
o sistema obviamente não pode ser integrado. Dessa forma, podemos generalizar a condição de
Frobenius para a forma (4.44), ou seja, para o caso em que os geradores fechem uma álgebra
de Lie não abeliana com os parênteses de Poisson.
Com a resposta da questão (3), vamos analisar a questão (1) separando a evolução tempo-
ral dos demais geradores. A função Φ
0
independe das variáveis independentes (seção 3.3) e,
portanto, δΦ
0
= 0, o que resulta em {Φ
0
, Φ
m
α
} = 0 independentemente da álgebra dos outros
108
geradores. A composição de N transformações infinitesimais geradas por Φ
0
pode ser colocada
na forma
g (t t
0
) = lim
N→∞
1 +
t t
0
N
X
0
N
= exp [(t t
0
) X
0
] . (4.45)
Com os demais geradores vimos o caso em que
Φ
m
z
, Φ
m
y
= 0, o que significa que os
respectivos campos vetoriais comutam entre si e as transformações geradas por esses campos
podem ser colocadas em forma finita, que a exponenciação da álgebra é trivial. No caso mais
geral, não abeliano, a exponenciação no espaço de fase completo só é possível se as constantes
de estrutura da álgebra forem independentes dos campos do espaço de fase. Observemos que,
para uma função F de T
¯
Q,
g
g
λ
F = F +
z
m
X
m
z
F + λ
y
m
X
m
y
F +
z
m
λ
y
m
X
m
z
X
m
y
F,
g
λ
g
F = F + λ
y
m
X
m
y
F +
z
m
X
m
z
F +
z
m
λ
y
m
X
m
y
X
m
z
F,
ou seja,
[g
, g
λ
] F =
z
m
λ
y
m
X
m
z
, X
m
y
F.
Neste caso, X
m
z
F = {F, Φ
m
z
} e, portanto,
X
m
z
, X
m
y
F =

F, Φ
m
y
, Φ
m
z
{F, Φ
m
z
}, Φ
m
y
=

F, Φ
m
y
, Φ
m
z
+
{Φ
m
z
, F }, Φ
m
y
=
F,
Φ
m
y
, Φ
m
z

,
em que usamos a identidade de Jacobi. Com
Φ
m
y
, Φ
m
z
= C
m
mx
yzm

Φ
m

x
, temos
X
m
z
, X
m
y
F =
F, C
m
mx
yzm

Φ
m

x
= C
m
mx
yzm

F, Φ
m

x
+
F, C
m
mx
yzm

Φ
m

x
= C
mm
x
zym

X
m

x
F +
F, C
m
mx
yzm

Φ
m

x
. (4.46)
Do resultado (4.46), vemos imediatamente que a álgebra dos geradores não implica na obe-
diência de uma álgebra de Lie pelos vetores X
m
z
. Isto certamente ocorre no caso abeliano
C
mm
x
zym

= 0, mas caso não abeliano ocorre apenas em duas situações: se as constantes de es-
trutura forem independentes das variáveis do espaço de fase, neste caso os vetores obedecem
a uma álgebra de Lie em todo o espaço de fase completo T
¯
Q, ou se restringirmos as transfor-
mações ao espaço de fase reduzido T
¯
Q
p
, onde valem as equações de Hamilton-Jacobi Φ
m
z
= 0.
Se, no geral, a álgebra dos geradores não se reflete na álgebra nos seus respectivos cam-
pos vetoriais, as transformações definidas em (4.38) não formam, no geral, um grupo de Lie.
109
Podemos ver este fato a partir de
[g
, g
λ
] F =
z
m
λ
y
m
X
m
z
, X
m
y
F
=
z
m
C
mm
x
zym

λ
y
m
X
m

x
F +
z
m
λ
y
m
F, C
m
mx
yzm

Φ
m

x
= ω
x
m

X
m

x
F +
z
m
λ
y
m
F, C
m
mx
yzm

Φ
m

x
, (4.47)
em que definimos
ω
x
m

z
m
C
m
mx
yzm

λ
y
m
.
Assim, apenas se as funções C
mm
x
zym

forem independentes do espaço de fase, ou no caso de
restrição do grupo de transformações a atuar apenas em T
¯
Q
p
, podemos construir um grupo
de Lie a partir da álgebra dos geradores. No caso da segunda condição, não podemos esperar
reproduzir as simetrias da ação a nível Lagrangiano, que estas simetrias são válidas em
todo o espaço de configuração, não apenas no espaço reduzido de dimensão p.
Se as constantes de estrutura forem independentes dos campos, as transformações (4.38)
podem ser escritas em forma finita através do limite da composição de transformações in-
finitesimais:
g = exp
φ
α
[m]
X
m
α
= exp [∆tX
0
] exp
φ
z
[m]
X
m
z
= g
t
g
φ
z
m
. (4.48)
Observamos, assim, que a evolução temporal é efetivamente independente das demais trans-
formações de simetria. Assim, respondemos à primeira questão. Um grupo de Lie finito pode
ser construído genericamente a partir das transformações infinitesimais geradas por X
m
α
se
as constantes de estrutura forem independentes dos campos e dos momentos.
Contudo, a questão mais importante é a questão (2). Supondo a forma do operador
g
z
m
= exp
z
[m]
X
m
z
, (4.49)
em que escrevemos φ, temos de imediato que g
é uma transformação canônica e, por-
tanto, uma transformação de simetria. A integral fundamental
A =
dtL =
p
m
a
δφ
a
[m
]
H
m
α
δφ
α
[m
]
(4.50)
é invariante pela ação de g
a menos de um termo de fronteira. Agora, é mais conveniente
definir a variação
δ
F =
z
m
X
m
z
F. (4.51)
110
Como a aplicação desta transformação na ação resulta em δ
A = dΛ, chamaremos esta pelo
nome de transformação canônica.
Se esta é uma transformação de gauge no sentido das transformações discutidas no capí-
tulo 1, sabemos que ela possui uma forma bem definida quando aplicada aos campos do espaço
de configuração. Ao aplicarmos δ
nos campos φ
i
[m]
, temos
δ
φ
a
[m
]
=
z
m
X
m
z
φ
a
[m
]
=
z
m
φ
a
[m
]
, Φ
m
z
=
δΦ
m
z
δp
m
a
z
m
,
δ
φ
α
[m
]
=
z
m
X
m
z
φ
α
[m
]
=
z
m
φ
α
[m
]
, Φ
m
z
= δ
α
z
z
m
.
A segunda relação apenas nos comprova que δ
φ
z
[m]
=
z
m
. No geral, podemos comparar ambas
as equações com a equação (1.53). Obtemos, portanto, a equação
δΦ
m
z
δp
m
i
z
m
=
δφ
i
m
δΛ
r
Λ=0
Λ
r
. (4.52)
Nesta equação, os parâmetros não são necessariamente iguais aos parâmetros Λ, que
estamos comparando transformações canônicas com transformações de gauge a nível La-
grangiano, o que é uma comparação longe de ser trivial.
Um exemplo pode ser ilustrativo. Vamos tomar a teoria eletromagnética de Maxwell, dis-
cutida por exemplo em [5] pelo método Hamiltoniano. O espaço de configuração é formado
pelos campos A
µ
cujos momentos conjugados são dados por π
µ
. Este sistema é não Hessiano e
uma análise de seus geradores resulta em
Φ
1
π
0
= 0, Φ
2
=
i
π
i
= 0 (4.53)
como o conjunto completo de equações de Hamilton-Jacobi da teoria. Temos
δΦ
1
(x)
δπ
0
(y)
= δ
3
(x y) ,
δΦ
2
(x)
δπ
i
(y)
=
x
i
δ
3
(x y) ,
enquanto as demais expressões são nulas.
Por outro lado, a simetria de gauge do eletromagnetismo é a invariância pelo grupo U (1).
A transformação de gauge é dada por
A
µ
(x) = A
µ
(x) +
x
µ
Λ (x) , (4.54)
de modo que
δA
µ
(x)
δΛ (y)
=
x
µ
δ
3
(x y) .
111
Neste caso, as equações (4.52) são dadas por
δΦ
1
δπ
0
1
=
δA
0
δΛ
Λ=0
Λ,
δΦ
2
δπ
i
2
=
δA
i
δΛ
Λ=0
Λ,
que resultam em
1
=
0
Λ =
˙
Λ e
i
2
=
i
Λ. A primeira relação fixa
1
univocamente, mas a
segunda nos diz que
2
= Λ + f (t) .
Como f é uma função arbitrária do tempo, que depende das condições de contorno da teoria,
pode ser considerada nula sem perda de generalidade, de forma que podemos escrever
1
=
˙
Λ,
2
= Λ. (4.55)
Portanto, as relações (4.52) podem nos fornecer relações entre os parâmetros das trans-
formações canônicas (4.51) e os parâmetros das transformações de gauge Lagrangianas. Em
geral, uma transformação de gauge δ
g
pode ser gerada por um único gerador G tal que
δ
g
F = {F, G}. (4.56)
Comparando (4.56) com (4.51), que pode ser escrita como
δ
F =
z
m
{F, Φ
m
z
} = {F,
z
m
Φ
m
z
} {F,
z
m
} Φ
m
z
, (4.57)
vemos que em T
¯
Q
p
, onde Φ
m
z
= 0, (4.56) e (4.57) são iguais e podemos escrever
G =
z
m
Φ
m
z
. (4.58)
No caso do campo eletromagnético, podemos usar (4.55) para escrever
G =
˙
ΛΦ
1
+ ΛΦ
2
=
˙
Λπ
0
+ Λ
i
π
i
. (4.59)
A partir da equação (4.52) não podemos esperar que todos os parâmetros das transfor-
mações canônicas possuam relação com os parâmetros das transformações de gauge, o que
implica na possibilidade de alguns geradores não estarem relacionados com transformações
de gauge locais. Este fato pode ser genericamente estudado pela matriz
U
im
zm
(x, y)
φ
i
[m
]
(x) , Φ
m
z
(y)
=
δΦ
m
z
(y)
δp
m
i
(x)
.
112
Esta matriz não é, em geral, quadrada, então não podemos falar sobre sobre regularidade
ou singularidade. Contudo, podem existir casos em que o lado esquerdo de (4.52) não possua
algum subconjunto dos parâmetros . Neste caso, os geradores referentes a estes parâmetros
não são geradores de transformações de gauge, embora de fato gerem transformações canôni-
cas no espaço de fase.
Todo o formalismo que apresentamos desde as equações características, passando pela
definição dos parênteses de Poisson e da estrutura simplética, até a relação entre os gera-
dores, transformações canônicas e transformações de gauge, necessita de uma generalização
apropriada se o sistema possuir geradores que não obedeçam as condições de Frobenius (4.44).
Este será o objetivo da próxima seção.
4.6 Análise de integrabilidade
Nesta seção, apresentaremos um método para tratar sistemas não Hessianos que violem
as condições de integrabilidade. Este é o caso da maioria dos sistemas em teorias de campos,
do campo eletromagnético ao campo gravitacional. Quando um conjunto de geradores não é
integrável, é possível estabelecer um processo autoconsistente que garanta a integrabilidade
do sistema, através da análise dos autovalores da matriz dos parênteses de Poisson entre os
geradores. Este processo pode resultar em dois passos:
1. Encontrar novos geradores que completem o sistema de Hamilton-Jacobi.
2. Detectar e corrigir possível dependência linear entre os vetores X
m
α
.
A ordem de execução dessas tarefas é irrelevante, desde que o resultado final seja a obtenção
de um conjunto completo de geradores linearmente independentes.
Começamos com uma densidade Lagrangiana L
x
µ
, φ
a
[m]
(x
µ
) , φ
z
[m]
(x
µ
)
, cuja função La-
grangiana é dada por
L
t, φ
a
[m]
(t) , φ
z
[m]
(t) , φ
a
[k]
(t) , φ
z
[k]
(t)
=
Ξ
L
x
µ
, φ
a
[m]
(x
µ
) , φ
z
[m]
(x
µ
) , φ
a
[k]
(t) , φ
z
[k]
(t)
.
Nesta, m corre de zero a k 1. Como usual, definimos esta função na dinâmica instantânea.
A integração ocorre sobre uma superfície de Cauchy a t constante e os campos obedecem a
condições de fronteira apropriadas. Vamos considerar o caso em que a matriz Hessiana é sin-
gular, de posto kp. Nesta seção seremos sobrecarregados com índices, de modo que mudaremos
nossa notação: o índice a passa a correr de 1 a p. Isto significa que existem kr autovalores
nulos desta matriz, o que resulta, como vimos, em k (r + 1) equações diferenciais parciais
113
de Hamilton-Jacobi
Φ
m
α
= p
m
α
+ H
m
α
φ
a
[m]
, φ
α
[m]
, p
m
a
= 0. (4.60)
Temos p
m
α
= δSφ
α
[m]
, p
m
a
= δSφ
a
[m]
e α = 0, 1, ··· , r. Todas as quantidades acima estão
integradas sobre Ξ, de modo que existe uma densidade para cada uma delas. Embora seja
oportuno que a análise seguinte siga esta convenção, nas aplicações nos próximos capítulos
trabalharemos com as densidades. Contudo, não deve haver nenhuma confusão no procedi-
mento.
Diremos neste trabalho que as funções H
m
α
são funções Hamiltonianas, embora esta não
seja a nomenclatura utilizada normalmente com o formalismo de Hamilton-Jacobi. Em geral,
este nome é reservado às funções Φ
m
α
. Contudo, já que estamos empregando o ponto de vista
de sistemas dinâmicos, dizemos que Φ
m
α
são geradores. Obviamente, temos que calcular H
m
z
com o processo de iteração da seção 3.3. Já a Hamiltoniana canônica é calculada por
H
c
= p
m
a
φ
a
[m+1]
+ p
m
z
φ
z
[m+1]
L, (4.61)
onde devemos substituir todas as velocidades inversíveis. Como vimos, esta Hamiltoniana,
assim como as demais, não depende das velocidades φ
z
[k]
.
O processo, agora, seria o cálculo das equações características, mas este cálculo pode ser
feito se os geradores formarem um conjunto completo e linearmente independente. A condição
para tal é a condição de integrabilidade de Frobenius,
M
mm
αβ
Φ
m
α
, Φ
m
β
= 0, (4.62)
ou, na forma mais conveniente,
δΦ
m
α
=
Φ
m
α
, Φ
m
β
δφ
β
[m
]
= 0. (4.63)
Há, contudo, uma questão que pode gerar confusão. Na seção 3.5 usamos as equações ca-
racterísticas de um sistema completo para deduzir os parênteses de Poisson. Mais adiante, na
seção 4.2, voltamos a utilizar as equações canônicas para deduzir as condições de Frobenius.
Pode parecer, portanto, que tanto os parênteses definidos no espaço de fase completo T
Q
quanto as condições de integrabilidade dependem das equações características. No entanto,
isto não é verdade, como descobrimos com a análise da estrutura simplética da teoria. En-
quanto os parênteses de Poisson estão ligados à 2-forma simplética ω de maneira intrínseca,
as condições de integrabilidade são simplesmente condições sobre o espaço vetorial nulo de ω,
visto que esta é uma 2-forma degenerada. A relação com as equações características é cons-
truída a posteriori. Com esta consideração, a análise de integrabilidade precede a análise das
114
equações características do sistema de Hamilton-Jacobi.
Vamos supor que o sistema não seja integrável, ou seja, (4.60) não é um conjunto completo
e linearmente independente de equações. Neste caso, a matriz M definida em (4.62) não é
nula, como deveria ser, mas possui um posto diferente de zero. Notemos também que
M
mm
αβ
= i
X
m
β
i
X
m
α
ω.
Com isto podemos ver que se M tiver modos não nulos, ω tem posto maior que kp.
Para limpar os graus de liberdade de um sistema desse tipo, vamos usar a condição (4.63).
Contudo, a variável independente φ
0
= t será separada do conjunto, que estamos interes-
sados na dinâmica temporal do sistema de forma diferenciada. Veremos por que essa escolha
é bastante conveniente. Com a separação, (4.63) torna-se
Φ
m
α
, Φ
m
z
δφ
z
[m
]
= {Φ
m
α
, Φ
0
}dt. (4.64)
Vamos analisar o caso em que α = 0. Neste caso, o lado direito de (4.64) é nulo, enquanto
obtemos
Φ
0
, Φ
m
z
δφ
z
[m
]
= 0. (4.65)
Por enquanto, vamos salvar esta equação.
Para α = y, temos
Φ
m
y
, Φ
m
z
δφ
z
[m
]
=
Φ
m
y
, Φ
0
dt. (4.66)
Com a matriz M
mm
yz
Φ
m
y
, Φ
m
z
, podemos escrever
M
mm
yz
δφ
z
[m
]
=
Φ
m
y
, Φ
0
dt. (4.67)
Deve estar evidente a esta altura que estamos procurando dependência entre os parâmetros,
ou seja, estamos tentando escrever dt como combinações lineares de δφ
z
[m
]
. Isso dependerá
do determinante da matriz M
mm
yz
. Vamos dizer que o posto desta matriz é kP . Como sua
dimensão é kr, M
mm
yz
tem kR = k (P r) autovalores nulos. Dessa forma, existe uma matriz
M
mm
a
b
regular, cuja inversa
M
1
a
b
mm
é única e obedece a identidade
M
mm

a
c
M
1
c
b
m

m
= δ
b
a
δ
m
m
, a
, b
= 1, ··· , P. (4.68)
115
Se este for o caso, podemos dividir (4.67) em duas relações:
M
mm
a
b
δφ
b
[m
]
+ M
mm
a
z
δφ
z
[m
]
= {Φ
m
a
, Φ
0
}dt. (4.69)
M
mm
y
b
δφ
b
[m
]
+ M
mm
y
z
δφ
z
[m
]
=
Φ
m
y
, Φ
0
dt., (4.70)
y
, z
= 1, ··· , R.
Podemos escrever a equação (4.69) como
M
mm
a
b
δφ
b
[m
]
=
Φ
m
a
, Φ
m
α
δφ
α
[m
]
, (4.71)
na qual introduzimos as variáveis φ
α
[m
]
=
t, φ
z
[m
]
, com índice α
= 0, 1, ··· , R. Como M
mm
a
b
é
regular, podemos resolver esta equação algebricamente e obter
δφ
a
[m]
=
M
1
a
b
mm
Φ
m
b
, Φ
m

α
δφ
α
[m

]
. (4.72)
Estas são equações diferenciais totais para as variáveis φ
a
[m]
, que julgávamos fazer parte do
conjunto de variáveis independentes da teoria. São equações características que dizem res-
peito ao fato de a 2-forma simplética ω ter mais modos não nulos que os indicados pelo sistema
de Hamilton-Jacobi.
A dinâmica do sistema em T
¯
Q é caracterizada pela diferencial fundamental
δF = {F, Φ
m
α
} δφ
α
[m]
. (4.73)
Contudo, a separação entre as variáveis φ
a
[m]
e φ
α
[m]
resulta em
δF = {F, Φ
m
a
} δφ
a
[m]
+ {F, Φ
m
α
} δφ
α
[m]
.
Com (4.72), temos
δF = {F, Φ
m
a
}
M
1
a
b
mm
Φ
m
b
, Φ
m

α
δφ
α
[m

]
+ {F, Φ
m
α
} δφ
α
[m]
=
{F, Φ
m
α
} {F, Φ
m
a
}
M
1
a
b
mm
Φ
m
b
, Φ
m

α

δφ
α
[m

]
. (4.74)
Este é um resultado muito importante. Dado o sistema de Hamilton-Jacobi (4.60), se existir
uma matriz M
mm
a
b
=
Φ
m
a
, Φ
m
b
regular, implicando na não integrabilidade do sistema para
um subconjunto de equações Φ
m
a
= 0, a dinâmica em T
¯
Q é modificada segundo a lei (4.74).
A partir de (4.74) vamos definir o que chamaremos de parênteses generalizados:
{A, B}
{A, B} {A, Φ
m
a
}
M
1
a
b
mm
Φ
m
b
, B
. (4.75)
116
Podemos mostrar que estes parênteses são bem comportados, ou seja, obedecem as mesmas
propriedades dos parênteses de Poisson, que descrevemos na seção 3.5.
Podemos ver claramente que a definição (4.75) implica em
ω
ω
p
+ a
, (4.76)
em que a
é a parte não degenerada da 2-forma a definida em (4.31). É também evidente que
a matriz M
mm
a
b
está relacionada aos componentes do tensor antissimétrico relacionado a a
e, portanto, a
é uma genuína 2-forma simplética não degenerada. Podemos reescrever (4.74)
através de
δF = {F, Φ
m
α
}
δφ
α
[m]
. (4.77)
Como os geradores Φ
m
α
estão relacionados com seus respectivos vetores X
m
α
, é possível escrever
as equações características como
δH
m
α
= i
X
m
a
ω
, (4.78)
ou, de forma explícita,
δξ
I
m
=
ξ
I
m
, Φ
m
α
δφ
α
[m
]
, ξ
I
m
=
ξ
I
m
, φ
a
[m]
, p
m
a
. (4.79)
É imediato verificar que (4.79) reproduz (4.72).
Por consequência, temos um espaço de fase reduzido definido pela 2-forma ω
, e não mais
por ω
p
. Isto não quer dizer, contudo, que o sistema de equações Φ
m
α
= 0 seja completo e que
(4.79) sejam completamente integráveis, já que nos falta verificar as condições (4.65) e (4.70).
De (4.70), podemos escrever
Φ
m
y
, Φ
m
α
δφ
α
[m
]
+
Φ
m
y
, Φ
m
a
δφ
a
[m
]
= 0.
Usando (4.72),
Φ
m
y
, Φ
m
α
δφ
α
[m
]
Φ
m
y
, Φ
m
a
M
1
a
b
m
m

Φ
m

b
, Φ
m

α
δφ
α
[m

]
= 0,
que resulta em
Φ
m
y
, Φ
m
α
δφ
α
[m
]
= 0. (4.80)
A condição de integrabilidade (4.65) pode ser incluída em (4.80) se considerarmos a condição
Φ
m
α
, Φ
m
β
δφ
β
[m
]
= 0,
117
ou, no espírito original das condições de Frobenius,
M
mm
α
β
Φ
m
α
, Φ
m
β
= 0. (4.81)
Se os geradores Φ
m
α
forem completos e linearmente independentes, (4.80) será identica-
mente satisfeita. Contudo, veremos casos em que isso não ocorre, o que nos obrigará no-
vamente a fazer a análise na matriz M
mm
α
β
. Se ainda houver geradores que não estão em
involução com os parênteses generalizado entre as funções Φ
m
α
, uma redefinição dos parênte-
ses generalizados será necessária. É direto verificar que, depois desse procedimento, (4.81) se
resume a
{Φ
m
z
, Φ
0
}
= 0. (4.82)
Se essas condições forem satisfeitas para todos os Φ
m
z
, o sistema é completamente integrável
e nada mais pode ser feito a nível clássico. Dessa forma, dizemos que Φ
m
α
formam o conjunto
completo de geradores da teoria.
Contudo, (4.82) pode resultar ainda em expressões não nulas. Essas expressões devem
ser consistentes com as equações características, caso contrário não haverá meios de tornar o
sistema integrável. Se essas expressões forem consistentes, elas representarão novas relações
que devem ser incorporadas na teoria. Portanto, às equações de Hamilton-Jacobi restantes
devem ser acrescidas todas as relações não nulas em (4.82) e essas relações devem igualmente
respeitar as condições de integrabilidade até que todo o sistema de geradores torne-se involu-
tivo.
Existe um problema, no entanto, que devemos resolver. A regra é que cada gerador, sejam
aqueles oriundos da definição dos momentos, sejam os que surgem de (4.82), seja relacionado a
uma variável independente. Os geradores iniciais, que podemos chamar também de geradores
primários, estão relacionados com os campos φ
α
[m]
. Contudo, novos geradores não possuem
esta relação com as variáveis independentes do sistema. Por outro lado, ainda que os novos
geradores não tenham a mesma estrutura das equações de Hamilton-Jacobi originais (essas
novas equações podem assumir formas não lineares em p
m
α
, por exemplo, ou não depender dos
momentos), qualquer função do espaço de fase tem uma dada transformação a ele associada.
Como o procedimento deve garantir que esses geradores obedeçam as condições de Frobe-
nius, essas transformações são também canônicas. Tudo o que temos a fazer é expandir o
espaço de parâmetros para incluir campos arbitrários, cada um correspondente a um novo
gerador, que podemos chamar de geradores secundários. Com isso, a dinâmica pode ser es-
crita como
δF = {F, Φ
m
α
}
δφ
α
m
+ {F, Λ}
δλ,
118
em que Λ representa o conjunto de geradores secundários e λ seu respectivo conjunto de
parâmetros. Contudo, não razão para que os geradores sejam tratados separadamente,
de modo que, ao escrever
Φ
m
α
, Λ
Φ
m
α
e
φ
α
m
, λ
φ
α
m
, temos
δF = {F, Φ
m
α
}
δφ
α
m
, (4.83)
e todos os geradores em involução são computados. Com (4.83) temos acesso às equações
características do sistema completo de Hamilton-Jacobi, que agora envolve todos os possíveis
geradores. Como estes obedecem as condições de Frobenius para os parênteses generalizados,
o sistema é completamente integrável e garante a existência de soluções das equações ca-
racterísticas que sejam únicas quando condições iniciais sobre a superfície de Cauchy forem
fornecidas.
Ainda assim este procedimento, assim como outros métodos de análise de sistemas sin-
gulares baseados em variáveis canônicas, não garante compatibilidade com as equações de
Euler-Lagrange. Portanto, essa compatibilidade deve ser testada caso a caso, o que normal-
mente é negligenciado principalmente nas aplicações do formalismo de Dirac-Bergmann, em-
bora o próprio Dirac alerte sobre esta necessidade [1].
Dessa forma, o formalismo de Hamilton-Jacobi separa naturalmente geradores em in-
volução e geradores não involutivos com relação aos parênteses de Poisson. Aqueles não invo-
lutivos são tornados involutivos através da definição (4.75), que os parênteses generalizados
de qualquer observável com esses geradores são nulos identicamente:
{F, Φ
m
a
}
= {F, Φ
m
a
}
F, Φ
m
c
M
1
c
b
m
m

Φ
m

b
, Φ
m
a
= {F, Φ
m
a
} {F, Φ
m
a
} = 0,
em que usamos (4.68).
Com a nova dinâmica definida pela lei (4.77), os geradores da dinâmica da teoria passam
a ser os geradores em involução Φ
m
α
=
Φ
0
, Φ
m
z
. Se uma teoria possuir tais geradores, a
discussão que fizemos nas seções 4.4 e 4.5 se mantém. Enquanto Φ
0
é gerador da evolução
temporal, Φ
m
z
podem ser interpretados como geradores de transformações de simetria locais
da integral fundamental. Contudo, os parênteses de Poisson devem ser substituídos pelos
parênteses generalizados. Em especial, temos a matriz
U
im
zm
(x, y)
φ
i
[m
]
(x) , Φ
m
z
(y)
(4.84)
e a equação que relaciona os parâmetros das transformações canônicas ao parâmetros das
119
transformações de gauge locais deve ser substituída por
U
im
zm
z
m
=
δφ
i
m
δΛ
r
Λ=0
Λ
r
. (4.85)
Nos capítulos 5 e 6 apresentaremos duas aplicações deste programa. Começaremos com
a teoria eletromagnética de Podolsky na dinâmica do plano nulo, que é singular e possui
derivadas de segunda ordem na integral fundamental. Nas coordenadas do cone de luz a
estrutura de geradores da teoria torna-se bastante interessante, possuindo geradores involu-
tivos e não involutivos com relação aos parênteses de Poisson, o que possibilitará uso máximo
das ferramentas que apresentamos neste capítulo: os geradores não involutivos dão origem a
parênteses generalizados e os geradores em involução podem ser relacionados à simetria U (1)
característica da teoria.
No capítulo 6 trabalharemos com um exemplo aparentemente mais simples, a ação de
Einstein-Hilbert em duas dimensões. Apesar de ser uma teoria igualmente de segunda ordem,
usaremos o formalismo de Palatini, o que evitará o uso do formalismo para derivadas de
ordem superior. Contudo, teremos um número consideravelmente maior de variáveis. Este
exemplo também apresenta geradores não involutivos, os últimos dando origem a parênteses
generalizados. Veremos também a existência de geradores em involução que fecham uma
álgebra não abeliana com estes parênteses.
120
Referências
[1] P. A. M. Dirac, Lectures on quantum mechanics, Yeshiva University, New York (1964).
[2] E.M. Rabei & Y. Güler, Hamilton-Jacobi treatment of second-class constraints, Phys. Rev.
A 46, 3513 (1992).
[3] K.D. Rothe & F.G. Scholtz, On the Hamilton-Jacobi equation for second class constrained
systems, Ann. Phys. 308, 639 (2003).
[4] A. S. Mishchenko & A. T. Fomenko, A generalized method for Liouville integration of
Hamiltonian systems, Func. Anal. Appl. 12, 46-56 (1978).
A. T. Fomenko & V. V. Trofimov, Integrable systems on Lie algebras and symmetric spaces,
Advanced Studies in Contemporary Mathematics Vol. 2, Gordon and Breach Science Pub-
lishers, Amsterdam (1988).
[5] K. Sundermeyer, Constrained dynamics - Lecture notes in physics, Spring-Velag, New
York (1982).
121
Capítulo 5
Teoria eletromagnética de Podolsky
————————————————————————–
Introdução
Nesta aplicação, vamos trabalhar com a eletrodinâmica de Podolsky em 3+1 dimensões,
descrita pela densidade Lagrangiana
L =
1
4
F
µν
F
µν
+
1
2
a
2
λ
F
µλ
γ
F
µγ
, F
µν
A
ν,µ
A
µ,ν
. (5.1)
Nesta equação, utilizamos a notação A
ν,µ
µ
A
ν
, em que A
ν
são os campos fundamentais. A
Lagrangiana (5.1) é invariante sob a ação do grupo U (1). De fato, mostra-se em [1] que todas
as Lagrangianas escalares de Lorentz e invariantes por U (1) são equivalentes a (5.1) a menos
de termos de fronteira.
A teoria de Podolsky foi inicialmente desenvolvida nos trabalhos de Podolsky, Schwed e
Bopp [2, 3] na tentativa de resolver um conhecido problema da eletrodinâmica de Maxwell. A
teoria eletromagnética usual prevê um potencial eletrostático proporcional a r
1
|x x
|
1
,
de modo que a energia eletrostática necessária para se montar um sistema de cargas pontuais,
dada por
W =
1
8π
0
i,j
q
i
q
j
|x
i
x
j
|
, (5.2)
recebe contribuição infinita da auto-energia das cargas, quando i = j. Essas contribuições
devem ser retiradas do cálculo dessa energia.
Contudo, a expressão da energia envolvendo o campo eletrostático deste mesmo sistema,
W =
0
2
V
|E|
2
d
3
x, (5.3)
claramente não condiz com a expressão anterior, que esta última é sempre positiva, en-
quanto (5.2) admite contribuições negativas para cargas opostas. A expressão (5.3), contendo
a contribuição de auto-energia das partículas, é a verdadeira expressão que calcula a energia
do sistema eletrostático, enquanto (5.2) consiste apenas no trabalho necessário para montar o
sistema, sem levar em conta a energia necessária para criar as próprias cargas. Este problema
é conhecido como o problema da auto-energia do elétron. Ligados a este problema da teoria
eletromagnética clássica estão divergências relacionadas ao setor infravermelho da QED e o
problema do valor infinito da corrente de polarização no vácuo.
O termo de ordem superior acrescido à Lagrangiana de Maxwell em (5.1) resulta numa
teoria na qual o potencial eletrostático é despido da singularidade em r = 0. Neste caso,
temos a seguinte expressão análoga a (5.2):
W =
1
8π
0
i,j
q
i
q
j
|x
i
x
j
|
1 exp
|x
i
x
j
|
a
2

. (5.4)
Portanto, a contribuição da auto-energia pode ser computada e é apenas proporcional a q
2
/a
para cada carga. A teoria de Podolsky resolveria, dessa forma, os problemas relacionados à
divergência do potencial eletrostático. Ela pode ser interpretada como uma teoria efetiva para
curtas distâncias [4], em que o parâmetro a pode representar uma distância típica de validade
da teoria. Para r a a teoria tornar-se-ia indistinguível da de Maxwell.
As equações de Euler-Lagrange da densidade (5.1) são escritas por
+ m
2
γ
α
F
µα
= 0, (5.5)
em que
µ
µ
e m
γ
1/a. Essas equações são lineares e podem ser expressas em termos
dos campos fundamentais:
+ m
2
γ
[
µ
α
A
α
A
µ
] = 0.
O primeiro termo desta equação pode ser anulado por uma escolha de gauge, o gauge de
Lorenz generalizado, para o qual
µ
+ m
2
γ
α
A
α
= 0
e, portanto, analogamente à teoria de Maxwell temos uma equação de onda generalizada para
123
o potencial A
µ
:
+ m
2
γ
A
µ
= 0. (5.6)
Com uma transformada de Fourier, esta equação torna-se a equação de dispersão
p
2
p
2
m
2
γ
= 0, p
2
p
µ
p
µ
. (5.7)
Nesta, somos capazes de identificar dois tipos de fótons, ligados aos modos p
2
= 0 e p
2
= m
2
γ
respectivamente. O primeiro modo corresponde a fótons sem massa, assim como ocorre com
a eletrodinâmica de Maxwell. O segundo modo corresponde a fótons com massa igual a m
γ
, o
que podemos ver imediatamente pela equação
E
2
= p
2
+ m
2
γ
,
que é a equação relativística para a energia de uma partícula de massa m
γ
. Portanto, a teoria
de Podolsky prevê a existência de graus de liberdade massivos para o fóton.
Longe de ser uma desvantagem desse modelo, a previsão de fótons massivos permite que
a eletrodinâmica de Podolsky seja testada como teoria efetiva, ou mesmo como uma teoria
fundamental da integração eletromagnética. Ao contrário do modelo de Proca, no qual a in-
serção de massa na Lagrangiana resulta em uma quebra da simetria de gauge, a teoria de
Podolsky mantém todos os requerimentos que, assim acreditamos, devem compor uma teoria
de interação fundamental. Em particular, a preservação da simetria U (1). Portanto, apenas
os experimentos podem escolher entre a teoria de Podolsky e a de Maxwell.
Contudo, não se observam fótons com massa na natureza, sejam em processos clássicos
ou quânticos. Ainda assim tentativas de se estabelecer limites superiores para a massa
m
γ
através de diversas técnicas experimentais têm sido realizadas ao longo do tempo. As
primeiras buscaram observar desvios na lei de Coulomb. O potencial eletrostático da teoria
de Podolsky é dado por
Φ (r) =
q
r
1 e
m
γ
r
,
no qual podemos observar que o potencial de Coulomb é acrescido de um potencial do tipo
Yukawa. Dessa forma observamos que fótons com massa implicam em correções na força
eletrostática entre cargas pontuais. A melhor estimativa experimental já encontrada no teste
de desvios da lei de Coulomb é dada por Williams, Faller e Hill [5], que estima o limite superior
para a massa do fóton em m
f
= (/c) m
γ
< 1.1 × 10
47
g. Resultados de caráter indireto,
através da análise de campos magnéticos planetários, também têm sido obtidos, sendo o mais
notável a análise de Davis, Goldhaber e Nieto [6] que resulta em m
f
< 7 ×10
49
g. O resultado
124
direto de maior alcance, contudo, parece ser o obtido por Luo, Tu, Hu e Luan [7], em que
m
f
< 2.1 × 10
51
g.
5.1 Sobre a dinâmica no plano nulo
Para tratar dessa teoria no plano nulo, vamos tomar a seguinte transformação de coorde-
nadas do espaço-tempo:
y
µ
= Σ
µ
ν
x
ν
, (5.8)
tal que
Σ =
1
2
1 0 1
1 0 1
0 I
2×2
2 0
,
em que I é a matriz identidade 2×2, x
µ
é associada à quadrupla
x
0
, x
1
, x
2
, x
3
e y
µ
é associada
a
x
+
, x
, x
1
, x
2
. Com este sistema, vamos definir o eixo de evolução temporal ao longo de
x
+
= 1/
2
x
0
+ x
3
, tal que o parâmetro de evolução temporal seja definido por τ = x
+
. Neste
caso, a equação x
+
= contante define uma hiper-superfície característica ortogonal ao eixo x
+
,
o plano nulo, que representa a frente de onda eletromagnética no vácuo. As coordenadas y
µ
são chamadas coordenadas do plano nulo. Também usaremos a nomenclatura coordenadas da
frente de luz, ou coordenadas do cone de luz.
A dinâmica no plano nulo foi confundida, por algum tempo, com um processo limite co-
nhecido como referencial do momento infinito, como podemos ver no trabalho de Steinhardt
[8]. A transformação (5.8), longe de ser uma escolha de referencial, é exatamente o que diz
ser: uma transformação de coordenadas. Além disso, não é uma transformação de Lorentz,
como podemos ver pela forma das componentes da métrica de Minkowski, dada por
η
= ΣηΣ
1
=
0 1 0
1 0 0
0 0 I
2×2
. (5.9)
Com esta métrica (a partir deste ponto ignoraremos a linha em (5.9)), podemos verificar com
facilidade que a norma de um vetor deixa de ser uma forma quadrática nas componentes
temporal + e longitudinal , mas permanece quadrática nas componentes transversais 1 e 2.
Ou seja,
A
2
= η
µν
A
µ
A
ν
= 2A
+
A
A
i
2
, i = 1, 2.
125
Essa diferença com relação à forma instantânea é mais notável no operador D’Alambertiano,
que assume a forma
µ
µ
= 2
+
2
, (5.10)
em que
i
i
. Em razão desta forma, a dinâmica no plano nulo é distinta das demais
formas. Por exemplo, vamos considerar a equação de campo de Klein-Gordon-Fock
+ m
2
φ = 0,
que nas coordenadas do cone de luz se decompõe em
+
φ =
1
2
2
m
2
φ.
Esta equação é de primeira ordem com relação à coordenada temporal x
+
. Portanto, a análise
de valores iniciais não é mais uma análise de Cauchy. Para prover a equação dinâmica acima
com um conjunto de condições iniciais de modo a fixar univocamente a evolução temporal
necessitamos, para este caso, da configuração dos campos no plano x
+
= constante e de uma
segunda configuração em alguma hiper-superfície x
= constante. Isto pode ser claramente
observado se a equação dinâmica for escrita na forma
+
φ =
1
2
(
)
1
2
m
2
φ,
em que (
)
1
representa a inversa do operador
, que para ser univocamente determinada
necessita de condições de contorno em x
= constante.
No caso da Lagrangiana (5.1), as equações de campo são dadas por
1 + a
2
µ
F
µν
= 0, (5.11)
sendo, em razão de (5.10), de segunda ordem nas coordenadas do cone de luz. Devido à
análise das condições de contorno nos planos característicos, uma possível forma de fixação
da dinâmica é promover uma condição inicial, o valor dos campos A
µ
sobre a hiper-superfície
x
+
= 0, e três condições de contorno sobre uma hiper-superfície x
= constante. Por motivos
que ficarão claros no decorrer da análise, assumiremos que essas condições envolvam o valor
das derivadas
A
µ
, (
)
2
A
µ
e (
)
3
A
µ
como nulos no limite x
−∞.
126
5.2 Os geradores da teoria de Podolsky
Na seção 2.2, através da matriz Hessiana, descobrimos que a teoria de Podolsky é uma
teoria não Hessiana. Com (2.51) podemos encontrar a matriz Hessiana na dinâmica do cone
de luz, que é dada por W
µ++:ν++
W
µν
:
W
µν
= a
2
η
++
η
µν
η
++
η
µ+
η
+ν
= 0,
ou seja, a matriz Hessiana tem posto nulo com a métrica (5.9). Portanto, esperamos encontrar
um conjunto de equações de Hamilton-Jacobi para este sistema a partir da definição de seus
momentos canonicamente conjugados. Como discutimos anteriormente, as variáveis A
µ
e A
µ,+
devem ser consideradas independentes. Por questão de comodidade, vamos usar as
variáveis
¯
A
µ
A
µ,+
.
As equações (2.49) e (2.50) contêm as expressões para os momentos conjugados covariantes
do campo de Podolsky:
π
µν
= F
µν
2a
2
η
ωγ
Υ
αµ
βω
νλ
αγ
λ
ρ
F
βρ
,
π
µνλ
= 2a
2
η
ωγ
Υ
αµ
βω
νλ
αγ
ρ
F
βρ
.
Da mesma forma com que procedemos na seção 3.2 para encontrar os momentos (3.6) e (3.7),
podemos usar a forma geral da Hamiltoniana canônica. Neste caso, a função Hamiltoniana
é encontrada pela componente H
+
+
= H
+
do tensor energia momento (1.37), que pode ser
colocado na forma
H
c
H
+
+
= π
µ+
A
µ,+
+ π
µ+ν
A
µ,+ν
L
=
π
µ+
π
µ+
i
π
µ+i
A
µ,+
+ π
µ++
A
µ,++
L
p
µ
¯
A
µ
+ π
µ
¯
A
µ,+
L, (5.12)
com o uso de termos de fronteira. Nessa expressão, podemos reconhecer os momentos
p
µ
π
µ+
π
µ+
i
π
µ+i
,
π
µ
π
µ++
.
Calculando essas expressões, obtemos
π
µ
= a
2
η
µ+
ρ
F
+ρ
, (5.13)
p
µ
= F
µ+
+
+
π
µ
+ 2a
2
δ
µ
β
+
1
4
δ
+
β
µ
1
2
η
µα
+λ
αβ
λ
ρ
F
βρ
. (5.14)
127
Note que, para a 0, (5.13) se anula, enquanto (5.14) reduz-se à expressão dos momentos
canônicos para a teoria de Maxwell.
Agora, devemos abrir as expressões (5.13) e (5.14) em suas componentes no cone de luz, o
que resulta em
π
+
= 0,
π
i
= 0,
π
= a
2
ρ
F
+ρ
,
p
+
= a
2
+
ρ
F
+ρ
=
π
,
p
= F
+
+ 2a
2
+
ρ
F
ρ
,
p
i
= F
i+
+ 2a
2
+
ρ
F
i
π
.
Estes são, respectivamente, os momentos conjugados às variáveis
¯
A
+
,
¯
A
i
,
¯
A
, A
+
, A
e A
i
.
Podemos perceber de imediato que alguns desses momentos não são inversíveis. Salta à vista
que este é o caso de π
+
, π
i
e p
+
, este último absorvendo também a expressão para π
. Para
esses momentos, temos as equações
φ
1
π
+
= 0,
φ
i
2
π
i
= 0,
φ
3
p
+
π
= 0.
Podemos expressar p
em termos das variáveis A
µ
e
¯
A
µ
da seguinte forma:
p
=
1 + 2a
2
+
¯
A
1 2a
2
2
A
+
2a
2
¯
A
+
2a
2
i
¯
A
i
.
A partir desta expressão, podemos ver que
¯
A
µ,+
pode ser obtida por
¯
A
,+
=
1
2a
2
p
¯
A
+
1 2a
2
2
A
+
+ 2a
2
¯
A
+
+ 2a
2
i
¯
A
i
. (5.15)
À direita, escrevemos o operador
1
2a
2
=
2a
2
1
,
que é a função de Green do operador 2a
2
. A solução para (5.15) não é única, mas forma
uma família de soluções. Contudo, a fixação das condições de contorno no plano x
−∞
é suficiente para fixar
¯
A
,+
. A rigor, como a inversão da transformação de Legendre não é
única, a expressão para p
também é um vínculo canônico. Felizmente, como ficará evidente
logo a seguir, a expressão (5.15) não será necessária para o desenvolvimento da análise.
128
Resta analisar a expressão para p
i
, que pode ser escrita por
p
i
= F
i
+
i
π
+ 2a
2
2
¯
A
i
i
¯
A
i
A
+
+
j
F
ij
.
Esta expressão também não fornece nenhuma velocidade, de modo que ela também consiste
em uma equação diferencial parcial. Portanto, temos o conjunto de geradores
φ
1
= π
+
,
φ
i
2
= π
i
,
φ
3
= p
+
π
,
φ
i
4
= p
i
i
π
+ F
i
+ 2a
2
i
¯
A
2
¯
A
i
+
i
A
+
j
F
ij
.
O gerador de evolução temporal é dado por φ
0
p
0
+ H
c
, com a Hamiltoniana canônica
definida em (5.12). Sua expressão é dada por
H
c
= p
µ
¯
A
µ
+ π
¯
A
+
+
i
¯
A
i
2
A
+
1
2
a
2
λ
F
γ
F
+
1
4
F
µν
F
µν
. (5.16)
Note que essa densidade Hamiltoniana não depende explicitamente de nenhuma velocidade,
o que evita o uso da expressão (5.15), que os demais geradores também não possuem essa
dependência. Então, podemos escrever o conjunto de geradores da teoria de Podolsky:
φ
0
= p
0
+ H
c
, (5.17)
φ
1
= π
+
, (5.18)
φ
i
2
= π
i
, (5.19)
φ
3
= p
+
π
, (5.20)
φ
i
4
= p
i
i
π
+ F
i
+ 2a
2
i
¯
A
2
¯
A
i
+
i
A
+
j
F
ij
. (5.21)
5.3 Análise de integrabilidade e a matriz M
Precisamos verificar a integrabilidade da teoria, o que significa verificar se este conjunto
está relacionado a campos vetoriais completos e linearmente independentes. Para tal, a
condição de Frobenius nos diz que esses geradores devem estar em involução com os parên-
teses de Poisson. Primeiro, vamos estabelecer as relações fundamentais entre as variáveis
129
canônicas:
{A
µ
(x), p
ν
(y)} =
¯
A
µ
(x), π
ν
(y)
= δ
ν
µ
δ
3
(x y). (5.22)
Essas relações, como já sabemos, são tomadas a x
+
constante, de modo que
δ
3
(x y) δ(x
y
)δ
2
(x y).
Como vimos no capítulo 4 seção 4.6, devemos construir a matriz dos parênteses de Poisson
desses geradores. A evolução temporal é tratada de forma diferenciada: basta-nos analisar a
matriz M
IJ
{φ
I
(x) , φ
J
(y)}, em que φ
I
φ
1
, φ
i
2
, φ
3
, φ
i
4
. O gerador φ
1
tem parênteses nulos
com todos demais, inclusive com φ
0
. Os outros obedecem as relações
φ
i
2
(x) , φ
j
4
(y)
= 4a
2
η
ij
x
x
δ
3
(x y), (5.23)
φ
3
(x) , φ
j
4
(y)
= 4a
2
x
x
x
j
δ
3
(x y) , (5.24)
φ
i
4
(x) , φ
j
4
(y)
= 2η
ij
1 2a
2
2
x
x
δ
3
(x y) . (5.25)
Podemos construir, dessa forma, a matriz
M = 2
x
0 0 2a
2
η
ij
x
0 0 2a
2
x
x
i
2a
2
η
ij
x
2a
2
x
x
i
1 2a
2
η
ij
2
x
δ
3
(x y) . (5.26)
Esta matriz, contudo, é singular, o que indica que pelo menos uma combinação line-
ar dos geradores que está em involução com os demais, exceto possivelmente com φ
0
. Uma
análise de autovalores mostra que esta matriz tem posto quatro e que o gerador em involução
é, portanto, apenas um: está relacionado com o único modo zero de M. Um processo bastante
seguro de se encontrar esta combinação é supondo que ela toma a forma
Σ (x)
d
3
y
φ
i
2
(x) B
i
(x, y) + φ
3
(x) C (x, y) + φ
i
4
(x) D
i
(x, y)
.
Neste caso, o gerador Σ deve satisfazer
φ
i
2
(x) , Σ (y)
= {φ
3
(x) , Σ (y)} =
φ
i
4
(x) , Σ (y)
= 0,
que é um sistema de equações para os coeficientes B
i
, C e D
i
. Resolvendo este sistema, temos
que φ
3
deve ser substituido no conjunto de geradores por Σ = φ
3
i
φ
i
2
, com B
i
(x, y) =
x
i
δ
3
(x y), C (x, y) = δ
3
(x y) e D
i
= 0.
No entanto, não precisamos fazer essa redefinição dos geradores. Temos a liberdade de
130
simplesmente limitar a matriz a um subconjunto de geradores não involutivos e linearmente
independentes quaisquer, o que é um procedimento que evita o tedioso cálculo anterior. Vamos
tomar, portanto, os geradores φ
i
2
e φ
i
4
e construir a matriz
M
ij
IJ
2η
ij
0 2a
2
x
x
2a
2
x
x
x
1 2a
2
2
x
δ
3
(x y) . (5.27)
Esta matriz está relacionada a um conjunto de geradores não involutivos e, como sabe-
mos, podemos redefinir a dinâmica do sistema com a definição de parênteses generalizados
envolvendo a inversa da matriz (5.27). Vamos definir a inversa por N
IJ
ij
, tal que
d
3
zM
ij
IJ
(x, z) N
JK
jk
(z, y) = δ
i
k
δ
K
I
δ
3
(x y) . (5.28)
Nosso objetivo, agora, é encontrar uma matriz N que seja única e que obedeça (5.28).
5.4 Cálculo da inversa de M
É bastante razoável supor que a inversa de M tenha a forma
N
IJ
ij
(x, y)
1
2
η
ij
α (x, y) β (x, y)
γ (x, y) 0
. (5.29)
Assim, a condição (5.28) torna-se
0 2a
2
x
x
2a
2
x
x
1 2a
2
2
x
x
α (x, y) β (x, y)
γ (x, y) 0
=
1 0
0 1
δ
3
(x y) ,
que nos fornece o seguinte conjunto de equações diferenciais parciais para os coeficientes:
2a
2
x
x
γ (x, y) = δ
3
(x y) ,
2a
2
x
x
α (x, y) +
1 2a
2
2
x
x
γ (x, y) = 0,
2a
2
x
x
β (x, y) = δ
3
(x y) .
Resolver essas equações envolve o conhecimento da função de Green do operador
x
x
,
que obedece a equação
x
x
G (x, y) = δ
3
(x y) .
131
Portanto, as equações para os coeficientes da inversa tomam a forma
γ (x, y) =
1
2a
2
G (x, y) ,
x
x
α (x, y) =
1
4a
4
1 2a
2
2
x
x
G (x, y) ,
β (x, y) =
1
2a
2
G (x, y) .
Para encontrar G (x, y), usaremos uma transformada de Fourier
G (x, y) =
d
3
kG (k) exp [ik · (x y)] ,
δ
3
(x y) =
1
(2π)
3
d
3
k exp [ik · (x y)] .
de modo que
G (k) =
1
(2π)
3
k
2
.
Portanto, temos
G (x, y) =
d
3
k
1
(2π)
3
k
2
exp [ik · (x y)] .
A integração nas componentes transversais k
1
e k
2
é simples, resultando em
G (x, y) =
dk
1
2πk
2
exp
ik
x
y

δ
2
(x y) . (5.30)
Em (5.30), temos que resolver a integral
I
1
2π
−∞
dk
1
k
2
exp [ikx] . (5.31)
Isto pode ser feito considerando a função complexa
f (z) exp (izx) .
Neste caso, vamos utilizar a integral de Cauchy
1
2π
C
f (z)
(z a)
n
dz =
i
(n 1)!
d
n1
da
n1
f (a) ,
em que C é um contorno fechado contendo o ponto z = a.
132
Para n = 2, temos
1
2π
C
f (z)
(z a)
2
dz = i
d
da
f (a) = ∆x exp (iax) ,
com integração no sentido anti-horário. Agora, vamos escolher um contorno apropriado,
supondo C um semicírculo no plano superior com base no eixo real, de raio r. Devemos deslo-
car o polo duplo para o plano imaginário superior, o que é feito tomando-se a = i. Neste caso,
temos
1
2π
C
f (z)
(z i)
2
dz = ∆x exp (x) .
A integral em C pode ser decomposta em
C
f (z)
(z i)
2
dz =
r
r
f (k)
(k i)
2
dk +
C
1
f (z)
(z i)
2
dz,
em que C
1
é o arco de círculo de raio r centrado em z = 0 de 0 a π. A função f (z) tem limite
nulo para r , de modo que a integral em C
1
será nula neste limite. Dessa forma, temos
1
2π
−∞
f (k)
(k i)
2
dz = ∆x exp (x) .
A integral (5.31) é o limite da integral acima para 0, de modo que
I = lim
0
x exp (x) = ∆x, x > 0.
Da mesma forma, se escolhermos como contorno o semicírculo inferior, mudando a pres-
crição para o deslocamento do polo duplo para o semiplano complexo inferior, temos uma
mudança de sinal devido à mudança no sentido de integração:
I = x, x < 0.
Como o resultado não pode depender do contorno utilizado, temos o resultado geral
I = |x|,
que nos fornece a função de Green
G (x, y) =
x
y
δ
2
(x y) . (5.32)
133
A função β (x, y) em (5.30) é dada,portanto, por
β (x, y) =
1
a
2
x
y
δ
2
(x y) . (5.33)
Da mesma forma,
γ (x, y) =
1
a
2
x
y
δ
2
(x y) . (5.34)
A equação para α (x, y) contém uma derivada de γ (x, y), que envolve a derivada da função
módulo. Sabemos, no entanto, que
d
dx
|x y| = (x y) ,
em que (x y) é definida como a função sinal
(x y)
1 x > y
0 x = y
1 x < y
.
Dessa forma, precisamos resolver a equação diferencial
x
x
α (x, y) =
1
2a
4
1 2a
2
2
x
(x y) δ
2
(x y) . (5.35)
Usando novamente a função de Green (5.32),
α (x, y) =
1
4a
2
x
y
2
(x y)
1 2a
2
2
x
δ
2
(x y) . (5.36)
As soluções (5.33), (5.34) e (5.36) são definidas obviamente a menos de funções arbitrárias
independentes de x
e y
ou, na melhor das hipóteses, dependentes dessas coordenadas até
segunda ordem. Essas funções podem ser fixadas com o uso de condições de contorno apropri-
adas para os campos no plano x
= −∞. Tomaremos essas condições como
A
µ
=
2
A
µ
=
3
A
µ
= 0 neste plano. Assim, somos capazes de construir uma inversa única para a matriz
M. Sem a definição dessas condições a inversa N não será única, mas uma família de inversas
que, na construção dos parênteses generalizados, resultará em uma dinâmica degenerada. A
existência dessas funções arbitrárias está relacionada à existência de geradores em involução
que estão relacionados, por sua vez, às condições de contorno acima. Esta análise está fora do
escopo do nosso trabalho, mas pode ser encontrada em [10, 9] para o formalismo Hamiltoni-
ano.
134
5.5 Os parênteses generalizados
Assumindo as condições de contorno para que N seja única podemos tomar as soluções de
α (x, y), β (x, y) e γ (x, y) e utilizar a matriz (5.29) para construir os parênteses generalizados
{A (x) , B (y)}
= {A (x) , B (y)}
d
3
zd
3
w
A (x) , φ
i
I
(z)
N
IJ
ij
(z, w)
φ
j
J
(w) , B (y)
. (5.37)
Com esses parênteses podemos continuar a examinar a integrabilidade do sistema de gera-
dores, dentre os quais podemos eliminar φ
i
I
, em que I = 2, 4, já que a estrutura (5.37) implica
que quaisquer parênteses que envolvam esses geradores são identicamente nulos.
Podemos usar a estrutura (5.37), que pode ser mais fácil de ser manipulada em certos ca-
sos, ou utilizar as propriedades dos parênteses generalizados com o conhecimento das relações
fundamentais envolvendo as variáveis canônicas. Essas relações são dadas por
A
µ
(x) ,
¯
A
ν
(y)
=
1
2
η
µj
δ
j
ν
β (x, y) , (5.38)
{A
µ
(x) , p
ν
(y)}
= δ
ν
µ
δ
3
(x y) , (5.39)
¯
A
µ
(x) ,
¯
A
ν
(y)
=
1
2
η
µj
δ
j
ν
α (x, y) +
j
µν
x
j
β (x, y) , (5.40)
¯
A
µ
(x) , p
ν
(y)
=
1
2
δ
i
µ
δ
ν
x
i
β (x, y)
a
2
δ
i
µ
δ
ν
k
x
k
x
i
δ
ν
+
x
i
x
+ δ
ν
i
1
2a
2
2
x

x
β (x, y) (5.41)
¯
A
µ
(x) , π
ν
(y)
= δ
ν
µ
δ
3
(x y) + a
2
δ
i
µ
δ
ν
x
i
2δ
ν
i
x
x
β (x, y) . (5.42)
Todas as demais são nulas identicamente. Nessas equações, temos as soluções
β (x, y) =
1
a
2
x
y
δ
2
(x y) ,
x
β (x, y) =
1
a
2
x
y
δ
2
(x y) ,
x
x
β (x, y) =
2
a
2
δ
3
(x y) ,
α (x, y) =
1
4a
2
x
y
2
(x y)
1 2a
2
2
x
δ
2
(x y) .
Assim,
{φ
1
(x) , φ
1
(y)}
= {φ
1
(x) , φ
3
(y)}
= 0, (5.43)
{φ
0
(x) , φ
1
(y)}
= φ
3
(x) δ
3
(x y) . (5.44)
135
Contudo, temos os parênteses
{φ
0
(x) , φ
3
(y)}
=
x
p
(x) +
x
i
p
i
(x) +
x
i
φ
i
4
(x)
δ
3
(x y) . (5.45)
Portanto, a álgebra dos geradores ainda não está fechada. Para tornar o sistema integrável
temos que considerar a expressão (5.45) um novo gerador, que definiremos como
Σ (x)
x
p
(x)
x
i
p
i
(x) .
A dependência em φ
i
4
pode ser descartada, desde que os parênteses envolvendo esses gera-
dores são sempre nulos. Os parênteses generalizados de Σ com os demais resultam em
{Σ (x) , Σ (x)}
= {Σ (x) , φ
1
}
= {Σ (x) , φ
3
}
= 0,
enquanto um cálculo um pouco mais longo mostra que
{φ
0
(x) , Σ (y)}
= 0.
Por conveniência, vamos renomear o conjunto de geradores que obtivemos até agora. Eles
são dados por
Σ
0
(x) p
0
+ H
c
, (5.46)
Σ
1
(x) π
+
(x) , (5.47)
Σ
2
(x) p
+
(x)
x
π
(x) , (5.48)
Σ
3
(x)
x
p
(x)
x
i
p
i
(x) . (5.49)
O cálculo dos parênteses generalizados referentes a esses geradores mostra que eles formam
um conjunto involutivo completo e, portanto, o sistema de equações diferenciais parciais
Σ
µ
x, A, p,
¯
A, π
= 0, p
µ
=
δS
δA
µ
, π
µ
=
δS
δ
¯
A
µ
é completamente integrável. Assim, podemos buscar as equações características deste sis-
tema. A dinâmica da teoria é construída através da diferencial funcional
δF (x) =
d
3
y {F (x) , Σ
µ
(y)}
δσ
µ
(y) . (5.50)
Nesta, σ
µ
são as variáveis independentes. Sabemos que σ
0
(x) = x
+
, portanto, o gerador
Σ
0
é o gerador de evolução temporal. Da mesma forma, σ
1
e σ
2
estão relacionados com as
variáveis
¯
A
+
e A
+
respectivamente. Os geradores Σ
1
e Σ
2
, por consequência, geram transfor-
mações infinitesimais no espaço de configuração na direção dessas coordenadas. O gerador Σ
3
,
136
por outro lado, não possui uma variável independente relacionada ao espaço de configuração.
Assim, delegamos uma variável σ
3
para este trabalho, expandindo o espaço das variáveis
independentes.
5.6 As equações características
Vamos tomar a lei de evolução (5.50) e verificar as equações de campo canônicas associadas
às variáveis A
µ
,
¯
A
µ
, p
µ
e π
µ
. Vamos começar tomando F (x) = A
µ
(x):
δA
µ
(x) =
d
3
y {A
µ
(x) , Σ
ν
(y)}
δσ
ν
(y) .
Com os parênteses
{A
µ
(x) , Σ
0
(y)}
=
¯
A
µ
(y) δ
3
(x y)
1
2
η
µi
β (x, y) φ
i
4
(y) =
¯
A
µ
(y) δ
3
(x y) ,
{A
µ
(x) , Σ
1
(y)}
= 0,
{A
µ
(x) , Σ
2
(y)}
=
A
µ
(x) , p
+
(y)
= δ
+
µ
δ
3
(x y) ,
{A
µ
(x) , Σ
3
(y)}
=
A
µ
(x) ,
y
p
(y) +
y
i
p
i
(y)
=
δ
µ
x
+ δ
i
µ
x
i
δ
3
(x y) ,
temos
δA
µ
(x) =
¯
A
µ
(x) δσ
0
(x) + δ
+
µ
δσ
2
(x) +
δ
µ
x
+ δ
i
µ
x
i
δσ
3
(x) . (5.51)
Com essas equações, obtemos
δA
+
(x) =
¯
A
+
(x) δx
+
+ δσ
2
(x) ,
δA
(x) =
¯
A
(x) δx
+
+
x
δσ
3
(x) ,
δA
i
(x) =
¯
A
i
(x) δx
+
+
x
i
δσ
3
(x) ,
ou, derivando com relação a x
+
,
A
+,+
=
¯
A
+
+ ˙σ
2
, (5.52)
A
,+
=
¯
A
+
˙σ
3
, (5.53)
A
i,+
=
¯
A
i
+
i
˙σ
3
. (5.54)
Nessas, usamos a notação ˙σ
+
σ.
Essas equações são equivalentes à definição inicial A
µ,+
=
¯
A
µ
a menos de termos envol-
vendo as variáveis independentes. Desde já, para que essas equações características sejam
137
equivalentes às equações de Euler-Lagrange, devemos ter condições sobre essas variáveis. De
(5.51), temos de imediato
˙σ
2
= 0,
˙σ
3
= 0,
i
˙σ
3
= 0.
As equações características para F (x) =
¯
A
µ
(x) são calculadas usando
δ
¯
A
µ
(x) =
d
3
y
¯
A
µ
(x) , Σ
ν
(y)
δσ
ν
(y) .
Após algum cálculo, em que devemos usar as expressões φ
i
4
= 0 e Σ
3
= 0, chegamos direta-
mente aos parênteses
¯
A
µ
(x) , Σ
0
(y)
= δ
µ
y
¯
A
+
(y) +
y
j
¯
A
j
(y)
2
y
A
+
(y)
δ
3
(x y) ,
¯
A
µ
(x) , Σ
1
(y)
= δ
+
µ
δ
3
(x y) ,
¯
A
µ
(x) , Σ
2
(y)
=
δ
µ
x
+ δ
i
µ
x
i
δ
3
(x y) ,
¯
A
µ
(x) , Σ
3
(y)
= 0.
Com estes, obtemos
δ
¯
A
µ
(x) = δ
µ
x
¯
A
+
(x) +
x
j
¯
A
j
(x)
2
x
A
+
(x)
δσ
0
(x)
+δ
+
µ
δσ
1
(x) +
δ
µ
x
+ δ
i
µ
x
i
δσ
2
(x) . (5.55)
Os resultados individuais são dados por
δ
¯
A
+
(x) = δσ
1
(x) ,
δ
¯
A
(x) =
x
¯
A
+
(x) +
x
j
¯
A
j
(x)
2
x
A
+
(x)
δx
+
+
x
δσ
2
(x) ,
δ
¯
A
i
(x) =
x
i
δσ
2
(x) ,
que mostram que devemos relacionar
¯
A
+
= σ
1
e
¯
A
i
=
x
i
σ
2
. Da equação para
¯
A
, temos
¯
A
,+
=
¯
A
+,
+
¯
A
i,i
A
+,ii
+
˙σ
2
.
Usando (5.52), (5.53) e (5.54), podemos montar a relação
µ
F
µ
=
+
i
i
˙σ
3
. (5.56)
As equações características para os momentos p
µ
são obtidas da equação
δp
µ
(x) =
d
3
y {p
µ
(x) , Σ
ν
(y)}
δσ
ν
(y) .
138
Mais uma vez, com alguma manipulação e uso das relações (5.52), (5.53), (5.54) e (5.56), temos
{p
µ
(x) , Σ
0
(y)}
= δ
µ
+
y
λ
F
λ+
(y) a
2
y
i
y
y
λ
F
λi
(y)
a
2
2
y
y
λ
F
λ+
(y) +
1 + a
2
2
y
y
y
˙σ
3
(y)
δ
3
(x y)
+δ
µ
y
i
F
i
(y) +
2
y
˙σ
3
(y)
δ
3
(x y)
+δ
µ
i
y
F
i
(y) +
y
j
F
ji
(y) a
2
y
j
F
ij
(y)
y
y
i
˙σ
3
(y)
δ
3
(x y) ,
{p
µ
(x) , Σ
1
(y)}
= 0
{p
µ
(x) , Σ
2
(y)}
= 0
{p
µ
(x) , Σ
3
(y)}
= 0
Então, resultam as expressões
δp
+
=
λ
F
λ+
a
2
i
λ
F
λi
a
2
2
λ
F
λ+
+
1 + a
2
2
˙σ
3
δx
+
,
δp
=
i
F
i
+
2
˙σ
3
δx
+
,
δp
i
=
F
i
+
j
F
ji
a
2
j
F
ij
i
˙σ
3
δx
+
,
ou,
+
p
+
=
λ
F
λ+
a
2
i
λ
F
λi
a
2
2
λ
F
λ+
+
1 + a
2
2
˙σ
3
, (5.57)
+
p
=
i
F
i
+
2
˙σ
3
, (5.58)
+
p
i
=
F
i
+
j
F
ji
a
2
j
F
ij
i
˙σ
3
. (5.59)
Essas são as equações dinâmicas da teoria.
As equações características para π
µ
fornecem expressões para os momentos p
µ
. Basta
calcular os parênteses
{π
µ
(x) , Σ
0
(y)}
= δ
µ
+
φ
3
(y) δ (x y) δ
µ
i
φ
i
4
(y) δ
3
(x y) ,
+δ
µ
F
+
(y) p
(y) + a
2
y
i
y
λ
F
λi
(y)
+
y
˙σ
3
(y) a
2
y
2
y
˙σ
3
(y)
δ
3
(x y)
{π
µ
(x) , Σ
1
(y)}
= 0,
{π
µ
(x) , Σ
2
(y)}
= 0,
{π
µ
(x) , Σ
3
(y)}
= 0.
139
Assim, temos as equações
+
π
+
= φ
3
,
+
π
= F
+
p
+ a
2
i
λ
F
λi
+
1 a
2
2
˙σ
3
,
+
π
i
= φ
i
4
.
As relações referentes a π
+
e π
apenas indicam o que podemos ver diretamente a partir das
condições de integrabilidade, ou seja, φ
3
= 0 e φ
i
4
= 0 resultam das condições δφ
1
= 0 e δφ
i
2
= 0.
Usando o fato de que
+
π
+
= 0,
+
π
i
= 0 e π
= a
2
λ
F
+λ
, essas equações nos fornecem
p
+
= a
2
λ
F
+λ
, (5.60)
p
= F
+
+ a
2
λ
F
λ
+
1 a
2
2
˙σ
3
, (5.61)
p
i
= F
+i
a
2
i
+
λ
F
λ+
2a
2
+
λ
F
λi
+ 2a
2
i
¨σ
3
. (5.62)
Substituindo (5.60), (5.61) e (5.62) respectivamente em (5.57), (5.58) e (5.59), temos as
equações de campo
1 + a
2
λ
F
µλ
=
δ
µ
+
1 + a
2
+ δ
µ
a
2
+
δ
µ
i
i
1 + 2a
2
+

˙σ
3
. (5.63)
Essas equações formam uma família de equações de campo e as equações de Euler-Lagrange
(5.11) são obtidas quando o lado direito de (5.63) é nulo.
5.7 Transformações de gauge
Seguindo a ideia desenvolvida na seção 4.5, a de que geradores em involução são geradores
de transformações de simetria, vamos analisar o conjunto de equações Σ
I
= 0 formado pelos
geradores
Σ
1
= π
+
, (5.64)
Σ
2
= p
+
π
, (5.65)
Σ
3
=
p
i
p
i
. (5.66)
Com a operação dos parênteses generalizados, esses geradores fecham uma álgebra de Lie
abeliana, ou seja,
{Σ
I
(x) , Σ
J
(y)}
= 0.
Nossa análise consiste simplesmente na aplicação da equação (4.85) com a matriz (4.84), cujas
140
expressões já calculamos. São dadas por
{A
µ
(x) , Σ
1
(y)}
= 0,
{A
µ
(x) , Σ
2
(y)}
= δ
+
µ
δ
3
(x y) ,
{A
µ
(x) , Σ
3
(y)}
=
δ
µ
x
+ δ
i
µ
x
i
δ
3
(x y) ,
¯
A
µ
(x) , Σ
1
(y)
= δ
+
µ
δ
3
(x y) ,
¯
A
µ
(x) , Σ
2
(y)
=
δ
µ
x
+ δ
i
µ
x
i
δ
3
(x y) ,
¯
A
µ
(x) , Σ
3
(y)
= 0.
Portanto, o lado direito de (4.85) contém expressões para todas as variáveis independentes
da teoria. Vamos reescrever esta equação por
d
3
y {A
µ
(x) , Σ
I
(y)}
δσ
I
(y) =
d
3
y
δA
µ
(x)
δΛ
r
(y)
Λ=0
Λ
r
(y) , (5.67)
d
3
y
¯
A
µ
(x) , Σ
I
(y)
δσ
I
(y) =
d
3
y
δ
¯
A
µ
(x)
δ
¯
Λ
r
(y)
¯
Λ=0
¯
Λ
r
(y) . (5.68)
A simetria de gauge da teoria é a mesma da teoria de Maxwell. É dada pelas tranformações
A
µ
(x) = A
µ
(x) +
dΛ (x)
dx
µ
(5.69)
para uma única função arbitrária Λ (x) . Como o sistema é de segunda ordem, temos também
¯
A
µ
(x) =
¯
A
µ
(x) +
d
˙
Λ (x)
dx
µ
. (5.70)
Portanto, r = 1 e, como consequência,
d
3
y
δA
µ
(x)
δΛ (y)
Λ=0
Λ (y) =
dΛ (x)
dx
µ
=
x
µ
Λ (x) , (5.71)
d
3
y
δ
¯
A
µ
(x)
δ
˙
Λ (y)
˙
Λ=0
˙
Λ (y) =
d
˙
Λ (x)
dx
µ
=
x
µ
˙
Λ (x) . (5.72)
A equação (5.67) torna-se
δ
+
µ
δσ
2
(x) + δ
µ
x
δσ
3
(x) + δ
i
µ
x
i
δσ
3
(x) =
x
µ
Λ (x) , (5.73)
enquanto (5.68) lê-se
δ
+
µ
δσ
1
(x) + δ
µ
x
δσ
2
(x) + δ
i
µ
x
i
δσ
2
(x) =
x
µ
˙
Λ (x) . (5.74)
141
De (5.73), tomando-se µ = +, obtemos a relação
δσ
2
(x) =
x
+
Λ (x) =
˙
Λ (x) .
As demais escolhas resultam em
x
δσ
3
(x) =
x
Λ (x) ,
x
i
δσ
3
(x) =
x
i
Λ (x) .
Já a equação (5.74) tem como resultado
δσ
1
(x) =
x
+
˙
Λ (x) ,
x
δσ
2
(x) =
x
˙
Λ (x) ,
x
i
δσ
2
(x) =
x
i
˙
Λ (x) .
Assim, torna-se claro que
δσ
1
=
¨
Λ, δσ
2
=
˙
Λ, δσ
3
= Λ. (5.75)
A variável δσ
3
é definida a menos de uma função arbitrária de x
+
, que pode ser tomada nula
com condições iniciais apropriadas.
O gerador G das transformações de gauge é dado por
G = δσ
I
Σ
I
=
¨
ΛΣ
1
+
˙
ΛΣ
2
+ ΛΣ
3
. (5.76)
Para conferir, podemos calcular
{A
µ
, G}
=
¨
Λ {A
µ
, Σ
1
}
+
˙
Λ {A
µ
, Σ
2
}
+ Λ {A
µ
, Σ
3
}
= δ
+
µ
˙
Λ +
δ
µ
+ δ
i
µ
i
Λ
=
δ
+
µ
+
+ δ
µ
+ δ
i
µ
i
Λ =
µ
Λ,
¯
A
µ
, G
=
¨
Λ
¯
A
µ
, Σ
1
+
˙
Λ
¯
A
µ
, Σ
2
+ Λ
¯
A
µ
, Σ
3
= δ
+
µ
¨
Λ +
δ
µ
+ δ
i
µ
i
˙
Λ
=
δ
+
µ
+
+ δ
µ
+ δ
i
µ
i
˙
Λ =
µ
˙
Λ,
que reproduzem corretamente as transformações (5.69) e (5.70).
Neste exemplo, podemos ver que todos os geradores contribuem para a construção do gera-
dor de transformações de gauge da teoria. Este pode não ser o caso, contudo, de outras apli-
cações. A contagem de graus de liberdade é dada pela dimensão do espaço de configuração
diminuída do número de geradores da teoria, que cada gerador em involução, com exceção
a Σ
0
, corresponde a uma variável independente indeterminada. Na teoria de Podolsky o es-
paço de configuração contém oito campos
A
µ
,
¯
A
µ
e três geradores Σ
I
= 0, de modo que
existem cinco componentes dinâmicos na dinâmica do plano nulo, ainda que existam seis va-
142
riáveis dependentes
A
,
¯
A
, A
i
,
¯
A
i
. Assim como no caso do formalismo de Dirac-Bermann,
um processo de fixação das variáveis independentes deve ser implementado, processo que é
conhecido como fixação de gauge. Na teoria de Podolsky este processo é determinado pela
escolha de três condições Γ
I
= 0 tais que {Σ
I
, Γ
J
} = 0 e, portanto, obrigaria a redefinição da
dinâmica do sistema com novos parênteses generalizados. Este processo é efetuado em [10],
no contexto do formalismo canônico, com a escolha do gauge de radiação generalizado
A
+
= 0,
¯
A
+
= 0,
1 + a
2
¯
A
i
A
i
= 0.
Contudo, esta é uma discussão fora do nosso escopo. Na dinâmica instantânea, em que x
0
= t
é o parâmetro de evolução temporal, a teoria de Podolsky é analisada na ref. [11], também
pelo formalismo Hamiltoniano.
143
Referências
[1] R. R. Cuzinatto, C. A. M. de Melo, L. G. Medeiros & P. J. Pompeia, How can one probe
Podolsky Electrodynamics? arXiv:0810.4106v2 [quant-ph] (2009).
[2] F. Bopp, Ann. d. Phys. 38, 345- (1940).
[3] B. Podolsky & P. Schwed, Review of a generalized electrodynamics, Rev. Mod. Phys. 20,
40-50 (1948).
[4] J. Frenkel, 4/3 problem in classical electrodynamics, Phys. Rev. E54, 5859-5862 (1996).
[5] E. R Williams, J. E. Faller & H. A. Hill, New experimental test of Coulomb’s law: a
laboratory upper limit on the photon rest mass, Phys. Rev. Lett. 26, 721-724 (1971).
[6] L. Davis, A. S. Goldhaber & M. M. Nieto, Limit on the photon mass deduced from Pioneer-
10 observations of Jupiter’s magnetic field, Phys. Rev. Lett. 35, 1402-1405 (1975).
[7] J. Luo, L.-C. Tu, Z. K. Hu & E.-J. Luan, New experimental limit on the photon rest mass
with a rotating torsion balance, Phys. Rev. Lett. 90, 081801-1 (2003).
L.-C. Tu, J. Luo, & G. T. Gillies, The mass of the photon, Rep. Prog. Phys. 68, 77-130
(2005).
[8] P. J. Steinhardt, Problems of quantization in the infinite momentum frame, Ann. Phys.
128, 425-447 (1980).
[9] R. A. Neville & F. Rohrlich, Quantum field theory of null planes, Il Nuovo Cimento A1,
625- (1971).
[10] M. C. Bertin, B. M. Pimentel & G. E. R. Zambrano, The canonical structure of Podolsky’s
generalized electrodynamics on the Null-Plane, arXiv:0907.1078v1 [hep-th] (2009).
[11] C. A. P. Galvão & B. M. Pimentel, The canonical structure of Podolsky generalized elec-
trodynamics, Can. J. Phys. 66, 460-466 (1988).
144
Capítulo 6
Relatividade Geral em duas dimensões
————————————————————————–
Introdução
Em nossa segunda aplicação, vamos analisar a estrutura de geradores de um caso parti-
cular da teoria da Relatividade Geral, em que a hiper-superfície de Cauchy definida a t = x
0
constante é uma linha unidimensional.
O grande objetivo da física moderna no que concerne teorias de campos é a quantização do
campo gravitacional e sua possível unificação com as demais interações fundamentais da na-
tureza. No entanto, tanto a Relatividade Geral quanto outras teorias gravitacionais resistem
a este programa. Muitos dos problemas encontrados para quantizar a gravitação advêm do
fato de a Relatividade Geral não ser uma teoria de gauge, pelo menos não no sentido do
eletromagnetismo de Maxwell e das teorias de Yang-Mills-Utiyama. Um dos problemas mais
notáveis é o fato de a teoria ser não renormalizável perturbativamente, o que levanta dúvidas
com relação à existência de uma teoria quântica completa, ou não perturbativa.
A Relatividade Geral é uma teoria singular e, por isso, o conhecimento de sua estrutura
de geradores, ou estrutura de vínculos na nomenclatura de Dirac, é fundamental para o pro-
cesso de construção de uma teoria quântica [1]. O que está por trás da análise de vínculos
é a busca por um espaço de fase com estrutura simplética não degenerada e essa estrutura
depende fortemente das simetrias da integral fundamental. Infelizmente, em quatro dimen-
sões a análise de vínculos é complexa e ainda permanece um problema em aberto, mas a
análise de teorias em dimensões inferiores provou-se um excelente laboratório, em razão da
enorme simplificação que ocorre no sistema de geradores. A motivação para o estudo de teo-
rias gravitacionais em dimensões inferiores a quatro é hoje bastante extensa, mas começou
com o desejo de melhor compreender a estrutura de uma possível teoria quântica da gravidade
em quatro dimensões.
Em duas dimensões, no entanto, a Relatividade Geral torna-se uma teoria bastante pecu-
liar e a razão é a própria estrutura do espaço-tempo. Toda variedade pseudo-riemanniana em
duas dimensões é conformalmente plana, ou seja, existe sempre um referencial para o qual
g
αβ
= exp [φ] η
αβ
, em que φ é um parâmetro de escala. Além disso, a própria estrutura da
integral de Einstein-Hilbert parece carecer de estruturas não triviais: as equações de campo
são trivialmente satisfeitas e o campo gravitacional não possui graus de liberdade físicos. En-
fim, não campo gravitacional verdadeiro, o que torna a própria estrutura da Relatividade
Geral de pouco interesse para d = 2. Este fato fez com que novas estruturas fossem acres-
centadas à teoria, dando origem às teorias com dílatons [2, 3], de modo que a definição de
variáveis canônicas fosse possível. Teorias quânticas construídas a partir desses modelos são
exatamente solúveis em d = 2 [3, 4], o que suscitou imenso interesse no assunto.
Contudo, embora a Relatividade Geral em si seja trivial em duas dimensões, sua estrutura
de geradores não o é e sua análise de fato pode trazer contribuições para a compreensão da
estrutura de vínculos em quatro dimensões. Por este motivo, temos interesse nessa teoria não
só como aplicação do formalismo de Hamilton-Jacobi, mas também como um legítimo sistema
canônico que pode lançar luz na teoria em dimensões superiores.
Na seção 6.1 vamos apresentar a notação que utilizaremos no restante do capítulo. Dis-
cutiremos também sobre a trivialidade das equações de Einstein em duas dimensões. Nas
demais seções vamos proceder à análise de geradores. No entanto, usaremos a análise de
Palatini, em que métrica e conexão são consideradas variáveis independentes entre si. Este
caminho traz grande simplificação ao formalismo, que evita a necessidade de tratar a teoria
como um sistema de derivadas de ordem superior.
6.1 Notação e convenções
Trabalharemos, então, com a ação de Einstein-Hilbert
S
d
=
d
d
x
(1)
d1
gg
αβ
R
αβ
, (6.1)
em d = 2 dimensões, sem fontes e sem constante cosmológica. Em (6.1), g
µν
são as compo-
nentes contravariantes da métrica do espaço-tempo de dimensão d. A métrica é representada
pelas componentes covariantes g
µν
tais que g
µγ
g
γν
= δ
ν
µ
e g = det g
µν
. R
αβ
são os componentes
146
do tensor de Ricci
R
αβ
Γ
γ
αβ
Γ
γ
αγ
+ Γ
γ
σγ
Γ
σ
αβ
Γ
γ
σα
Γ
σ
βγ
, (6.2)
nas quais temos os componentes Γ
γ
αβ
da conexão afim, que são simétricos em seus índices
inferiores. O elemento de volume invariante escrito como d
d
x
(1)
d1
g implica na assinatura
da métrica positiva no setor temporal e negativa no setor espacial. Usaremos a vírgula para
indicar a derivada ordinária e o ponto e vírgula será empregado para a derivada covariante,
definida por
A
γ;α
α
A
γ
Γ
σ
αγ
A
σ
e (6.3)
A
γ
;α
α
A
γ
+ Γ
γ
αβ
A
β
(6.4)
no caso dos componentes de 1-formas e vetores.
Na Relatividade Geral, a métrica é covariantemente conservada, ou seja,
g
αβ;γ
=
γ
g
αβ
2∆
µν
αβ
g
µλ
Γ
λ
γν
= 0, (6.5)
em que
αβ
µν
1/2
δ
α
µ
δ
β
ν
+ δ
β
µ
δ
α
ν
. Esta condição é conhecida também como metricidade. Neste
caso, os componentes da conexão afim estão relacionados aos símbolos de Christoffel pela
expressão
Γ
γ
αβ
=
1
2
g
γσ
[g
ασ,β
+ g
βσ,α
g
αβ
] . (6.6)
Definimos também o tensor de curvatura, ou tensor de Riemann, pelos componentes
R
αβµν
= g
αλ
Γ
λ
βµ,ν
Γ
λ
βν,µ
+ Γ
λ
σµ
Γ
σ
βν
Γ
λ
σν
Γ
σ
βµ
. (6.7)
Considerando (6.2) e (6.6), podemos ver que a integral fundamental (6.1) representa uma
teoria de segunda ordem nas derivadas da métrica. A variação de (6.1) com relação à métrica
resulta diretamente nas equações de Einstein
R
αβ
1
2
g
αβ
R = 0, (6.8)
em que R g
µν
R
µν
é o escalar de curvatura. Essas equações são apenas de segunda or-
dem, embora esperemos de uma teoria de densidade Lagrangiana de segunda ordem que
suas equações de Euler-Lagrange sejam de quarta ordem. A razão é que a dependência das
derivadas de ordem superior no tensor de Ricci é linear e permite que esses termos sejam
colocados na forma de divergências totais [5].
147
Se contraídas com g
αβ
, (6.8) resultam nas condições
g
αβ
R
αβ
d
2
R = 0. (6.9)
Para d = 2 essa última equação resulta na própria definição para o escalar de curvatura.
Portanto, as equações de campo em duas dimensões são trivialmente satisfeitas.
6.2 Definição dos geradores
Consideremos a integral fundamental (6.1) na forma de Palatini
S =
d
d
x
gg
αβ
Γ
λ
αβ
Γ
λ
αλ,β
+ Γ
λ
σλ
Γ
σ
αβ
Γ
λ
σβ
Γ
σ
αλ
, (6.10)
em que d é par e diferente de zero. Nessa análise métrica e conexão são tratadas como campos
independentes, não relacionados por (6.6). Com esta escolha, contornamos o problema de
considerar o formalismo de derivadas superiores, que esta integral fundamental torna-se de
primeira ordem. Contudo, a independência entre métrica e conexão deveria vir acompanhada
da condição de metricidade, para que o sistema descrito pela ação (6.10) seja equivalente à
Relatividade Geral. Dessa forma, a condição g
αβ;µ
= 0 deve ser incluída na ação com um
multiplicador de Lagrange, mas vamos evitar essa abordagem por duas razões. A primeira
vem a ser o fato de a condição de metricidade ser um vínculo que contém derivadas da métrica,
o que tornaria a análise consideravelmente mais complicada. A segunda razão é que ela não
é realmente necessária. Veremos que a integral (6.10) dará origem a uma teoria para a qual
a Relatividade Geral é um caso especial.
A integral (6.10) é de primeira ordem nas velocidades, ou seja, a densidade Lagrangiana é
dada pela expressão
L =
αβ
γ
˙
Γ
γ
αβ
Ψ
αβ
˙g
αβ
H
0
, (6.11)
em que o ponto acima dos campos indicam derivadas temporais. Nesta aplicação, estamos
usando a dinâmica em forma instantânea, em que x
0
= t é o parâmetro de evolução temporal e
as superfícies Σ
x
0
= t
= constante, são as hiper-superfícies de Cauchy da teoria. As funções
que aparecem nesta Lagrangiana são dadas pelas expressões
Ψ
αβ
= 0, (6.12)
αβ
γ
=
g
αβ
πγ
g
0π
δ
0
γ
g
αβ
, (6.13)
H
0
=
gg
αβ
αβ
Γ
λ
ρλ,i
Γ
i
αβ,i
Γ
λ
σλ
Γ
σ
αβ
+ Γ
λ
σα
Γ
σ
βλ
, (6.14)
148
em que H
0
representa a densidade Hamiltoniana do sistema, que depende apenas dos campos
Γ
γ
µν
e de suas derivadas espaciais.
Outra maneira de proceder à análise de Hamilton-Jacobi dessa teoria é considerando a
densidade de métrica h
αβ
gg
αβ
como variável, no lugar da métrica. Para dimensão 3
ou superior ambas as abordagens são equivalentes. Contudo, observando a expressão para o
determinante,
h det h
αβ
= (g)
d2
2
, (6.15)
notamos que para d = 2 temos h = 1. A equação h = 1 é, na verdade, um vínculo entre as
variáveis h
αβ
e este vínculo reduz o número de graus de liberdade: espera-se que a métrica
em duas dimensões tenha três componentes independentes, mas a densidade de métrica deve
possuir apenas dois componentes independentes. Neste caso é impossível escrever a métrica
em função da densidade e, portanto, também os símbolos de Christoffel. A única análise
possível utilizando a densidade de métrica é a de Palatini. Vamos proceder, contudo, com as
variáveis (g
µν
, Γ
γ
µν
).
Como a Lagrangiana (6.11) é linear nas derivadas da conexão e não depende das derivadas
da métrica na descrição de Palatini, é imediato reconhecer os geradores
φ
0
(x) p
0
(x) + H
0
(x) = 0, (6.16)
φ
αβ
(x) π
αβ
(x) = 0, (6.17)
φ
αβ
γ
(x) π
αβ
γ
(x) +
αβ
γ
(x) = 0. (6.18)
Vamos recorrer à análise de integrabilidade para este conjunto.
6.3 A matriz M
A princípio, temos as relações fundamentais dos parênteses de Poisson:
{g
αβ
(x), π
µν
(y)} = ∆
αβ
µν
δ
(d1)
(x y) , (6.19)
{Γ
λ
αβ
(x), π
µν
γ
(y)} = δ
λ
γ
µν
αβ
δ
(d1)
(x y) . (6.20)
Estamos interessados na matriz que envolve os parênteses de Poisson entre os geradores
(6.17) e (6.18). Usando a identidade
δ
g =
1
2
gg
αβ
δg
αβ
, (6.21)
149
temos
{φ
αβ
(x) , φ
µν
(y)} =
φ
αβ
γ
(x) , φ
µν
λ
(y)
= 0,
φ
αβ
(x) , φ
µν
λ
(y)
=
1
2
g (x)
g
αβ
g
γτ
2∆
γτ
αβ
0σ
γτ
µν
σλ
µν
γτ
δ
0
λ
δ
n
(x y) ,
em que n = d 1. Portanto, temos a matriz
M (x, y)
0 C (x, y)
C
T
(x, y) 0
, (6.22)
com C
φ
αβ
, φ
µν
λ
.
Agora, vamos especializar o sistema para d = 2. As variáveis do espaço de configuração do
sistema serão organizadas na ordem
g
00
, g
01
, g
11
, Γ
0
00
, Γ
1
00
, Γ
0
01
, Γ
1
01
, Γ
0
11
, Γ
1
11
.
Em duas dimensões, os geradores da teoria são escritos como
φ
0
= p
0
+ H
0
,
φ
00
= π
00
,
φ
01
= π
01
,
φ
11
= π
11
,
φ
00
0
= π
00
0
,
φ
00
1
= π
00
1
,
φ
01
0
= π
01
0
1
2
gg
01
,
φ
01
1
= π
01
1
+
1
2
gg
00
,
φ
11
0
= π
11
0
gg
11
,
φ
11
1
= π
11
1
+
gg
01
.
Podemos usar a relação g
αγ
g
γβ
= δ
β
α
para manipular convenientemente os componentes. En-
tão, a matriz C torna-se
C =
1
4
g
0 0 g
00
g
01
g
00
g
00
2 2g
00
g
11
2g
00
g
01
0 0 g
00
g
00
g
01
g
00
2g
01
g
11
2g
00
g
00
0 0 g
01
g
00
g
11
g
00
4 2g
11
g
11
2g
11
g
01
δ (x y) . (6.23)
Por convenção, os objetos à esquerda de uma delta de Dirac serão tratados como aplicados
no primeiro ponto da delta, ou seja, F δ (x y) F (x) δ (x y), o que deve nos poupar algum
150
espaço.
É fácil notar que a matriz C é singular e, portanto, também o é a matriz M . Dois de seus
modos nulos estão relacionados ao fato de os geradores φ
00
0
e φ
00
1
estarem em involução. Exis-
tem, contudo, outros modos nulos, pois podemos ver que φ
01
0
e φ
11
1
não são linearmente inde-
pendentes. Em vez da matriz (6.23), vamos considerar os geradores
φ
00
, φ
01
, φ
11
, φ
01
0
, φ
01
1
, φ
11
0
,
que resultam na submatriz
M
(x, y)
1
4
g
0
3×3
B
3×3
B
T
3×3
0
3×3
δ (x y) , (6.24)
em que
B
g
00
g
01
g
00
g
00
2 2g
00
g
11
g
00
g
00
g
01
g
00
2g
01
g
11
g
01
g
00
g
11
g
00
4 2g
11
g
11
. (6.25)
Esperamos que M
seja regular e, neste caso, para o cálculo da inversa é suficiente co-
nhecer a inversa de B (x). Contudo, seu determinante é dado por
det B = 4
2 g
αβ
g
αβ
, (6.26)
que é identicamente nulo em duas dimensões, em razão da identidade g
αβ
g
αβ
= d. Temos, as-
sim, o problema da existência da relação g
αβ
g
αβ
2 = 0, que é um vínculo relacionado ao fato
de que introduzimos na teoria os componentes covariantes da métrica. Este vínculo poderia
ser integrado à ação com um multiplicador de Lagrange, mas isso não se mostra realmente
necessário. Em vez disso, vamos escolher uma submatriz mais restrita, por exemplo, con-
siderando o conjunto
φ
01
, φ
11
, φ
01
0
, φ
01
1
. A matriz dos parênteses de Poisson desse conjunto
vem a ser
M

(x, y)
0
2×2
A (x, y)
A
T
(x, y) 0
2×2
, (6.27)
em que
A =
1
4
gg
00
g
00
g
01
g
01
g
11
δ (x y) . (6.28)
Neste caso, podemos verificar que ambos A
e M

são regulares. Note que a partir de (6.28)
podemos escrever
A
αβ
=
1
4
gg
00
g
αβ
δ (x y) . (6.29)
151
6.4 A inversa de M

e os parênteses generalizados
A inversa de M

(x, y) é simples de ser obtida, requerendo apenas métodos algébricos.
Temos, portanto,
M

1
=
0
2×2
A
T
1
A
1
0
2×2
. (6.30)
Como
A
T
1
=
A
1
T
, precisamos apenas da inversa de A, que é dada por
A
1
=
4
g
1
g
00
g
00
g
01
g
01
g
11
δ (x y) . (6.31)
Assim como em (6.29), podemos denotar os componentes da matriz inversa (6.31) por
A
αβ
=
4
g
1
g
00
g
αβ
δ (x y) . (6.32)
Por uma questão de conveniência, vamos redefinir o conjunto de geradores que origem
à matriz (6.27) por
H
1
0
φ
01
, H
1
1
φ
11
, H
2
0
φ
01
0
, H
2
1
φ
01
1
.
Dessa forma, podemos reescrever
M
IJ
αβ
0
2×2
A
αβ
A
αβ
0
2×2
(6.33)
M
1
αβ
IJ
0
2×2
A
αβ
A
αβ
0
2×2
, (6.34)
com I = 1, 2 e α, β = 0, 1.
Com (6.34) definimos os parênteses generalizados
{F (x) , G (y)}
= {F (x) , G (y)}
dzdw
F (x) , H
I
α
(z)
M
−1
αβ
IJ
(z, w)
H
J
β
(w) , G (y)
. (6.35)
152
Usando a relação (6.35), podemos definir as relações fundamentais
g
αβ
, Γ
λ
µν
=
4
g
01
µν
g
00
δ
λ
0
αβ
01
g
00
+
αβ
11
g
01
+ δ
λ
1
αβ
01
g
01
+
αβ
11
g
11

δ (x y) , (6.36)
g
αβ
, π
µν
=
00
µν
g
αβ
g
00
δ (x y) , (6.37)
Γ
γ
αβ
, π
µν
λ
= δ
γ
λ
µν
αβ
δ (x y) . (6.38)
Por construção, os geradores usados na contrução de M

têm parênteses generalizados nulos
com qualquer função do espaço de fase. Contudo, devemos verificar os demais geradores. Se
forem integráveis, eles devem obedecer uma álgebra de Lie com (6.35).
Podemos mostrar que
{φ
αβ
, φ
µν
}
= 0,
φ
αβ
, φ
µν
λ
= ∆
00
αβ
g
1
d
2
g
µν
g
00
δ
0
λ
g
τ0
g
00
µν
λτ
δ (x y) = 0,
φ
αβ
γ
, φ
µν
λ
= 0.
Portanto, o sistema
φ
αβ
, φ
µν
λ
está em involução entre si para d = 2.
Os parênteses dos geradores com φ
0
, por outro lado, são dados por
{φ
αβ
, φ
0
}
=
00
αβ
g
g
µν
g
00
1
1
2
d
1ρ
µν
Γ
λ
ρλ,1
Γ
1
µν,1
Γ
λ
σλ
Γ
σ
µν
+
ρτ
µν
Γ
λ
σρ
Γ
σ
τλ
δ (x y) = 0
e
φ
11
0
, φ
0
=
1
gg
01
+
g
g
00
Γ
1
01
+ g
11
Γ
0
11

δ (x y) ,
φ
00
0
, φ
0
=
1
gg
00
g
g
00
Γ
0
01
Γ
1
11
2g
01
Γ
0
11

δ (x y) ,
φ
00
1
, φ
0
=
1
gg
11
g
g
11
Γ
0
01
Γ
1
11
+ 2g
01
Γ
1
01

δ (x y) .
Assim, φ
αβ
têm suas condições de integrabilidade satisfeitas. Contudo, as relações envolvendo
φ
µν
γ
propõem novos geradores, dados por
χ
1
1
gg
01
+
g
g
00
Γ
1
01
+ g
11
Γ
0
11
, (6.39)
χ
2
1
gg
00
g
g
00
Γ
0
01
Γ
1
11
2g
01
Γ
0
11
, (6.40)
χ
3
1
gg
11
g
g
11
Γ
0
01
Γ
1
11
+ 2g
01
Γ
1
01
. (6.41)
153
Para φ
11
1
,
φ
11
1
, φ
0
=
1
g
00
g
11
χ
1
2g
01
χ
3
δ (x y) ,
que é uma combinação linear do conjunto χ
A
(χ
1
, χ
2
, χ
3
) e não consiste em um novo gerador.
As funções χ
A
, assim como os geradores originais da teoria, devem obedecer as condições
de integrabilidade de Frobenius. Para tal, calculamos
{χ
A
, φ
αβ
}
= 0,
χ
A
, φ
µν
λ
= 0, (6.42)
e
{χ
1
, χ
2
}
= χ
2
δ (x y) , (6.43)
{χ
1
, χ
3
}
= χ
3
δ (x y) , (6.44)
{χ
2
, χ
3
}
= 2χ
1
δ (x y) . (6.45)
Ainda devemos calcular as condições de integrabilidade {χ
A
, φ
0
}
= 0. Contudo, podemos
mostrar que a densidade Hamiltoniana desse sistema é uma combinação linear desses ge-
radores:
H
0
=
Γ
1
01
Γ
0
00
χ
1
Γ
1
00
χ
2
Γ
0
01
χ
3
. (6.46)
Assim, todas as condições de integrabilidade são satisfeitas. Portanto, com a definição dos
parênteses (6.35), os geradores φ
0
, φ
αβ
, φ
αβ
γ
e χ
A
estão em involução e o sistema de Hamilton-
Jacobi da teoria é completamente integrável.
Vamos usar a transformação
σ
1
1
2
(χ
3
+ χ
2
) , σ
2
1
2
(χ
3
χ
2
) , σ
3
χ
1
, (6.47)
que resulta nas relações
{σ
1
, σ
2
}
= σ
3
, {σ
3
, σ
1
}
= σ
2
, {σ
2
, σ
3
}
= σ
1
. (6.48)
Com respeito aos parênteses generalizados, os geradores σ
A
fecham uma álgebra de Lie do
grupo SO (2, 1) com funções de estrutura constantes.
Agora, vamos considerar a densidade de métrica h
αβ
gg
αβ
e a derivada
D
γ
h
αβ
γ
h
αβ
+ 2∆
αβ
µν
h
µσ
Γ
ν
γσ
h
αβ
Γ
µ
γµ
. (6.49)
A derivada (6.49) é a derivada covariante para uma densidade tensorial de segunda ordem.
154
Por cálculo direto, podemos mostrar que as equações de Hamilton-Jacobi χ
A
= 0 podem ser
escritas como
D
1
h
αβ
= 0. (6.50)
Nos resta, agora, calcular as equações de campo da teoria.
6.5 As equações características
Para analisar as equações canônicas, usaremos a lei de evolução
δF (x) =
dy {F (x) , φ
0
(y)}
δt
+
dy {F (x) , φ
αβ
(y)}
δω
αβ
(y) +
dy
F (x) , φ
αβ
γ
(y)
δω
γ
αβ
(y)
+
dy {F (x) , χ
A
(y)}
δω
A
(y) . (6.51)
em que ω representa o conjunto de variáveis independentes. Desde já, sabemos que ω
αβ
estão
relacionados com g
αβ
, enquanto ω
γ
αβ
estão relacionados com Γ
γ
αβ
. Contudo, a necessidade
de imposição das equações χ
A
= 0 para assegurar a integrabilidade da teoria nos obriga a
expandir o espaço das variáveis independentes, com a adição das funções ω
A
. Como o conjunto
φ
01
, φ
11
, φ
01
0
, φ
01
1
não está em involução pelos parênteses de Poisson, os parênteses genera-
lizados que envolvem esses geradores é nulo por construção, mas (6.51), que envolve todos os
geradores, é conveniente para escapar de problemas referentes a simetrias dos índices.
Com o uso das relações (6.36), (6.37) e (6.38), podemos empregar (6.51). A equação para
g
00
é
δg
00
(x) = δω
00
(x) , (6.52)
o que confirma que ω
00
= g
00
a menos de uma constante de integração. Já a variável g
01
tem
equação característica
δg
01
=
g
00
Γ
1
00
+ g
01
Γ
1
01
Γ
0
00
+ g
11
Γ
0
01
2
g
01
g
00
g
01
Γ
0
01
1
g
χ
3
g
01
g
00
χ
1

δt
+
g
01
g
00
δg
00
g
01
δω
1
+ g
00
δω
2
+
1
g
00
g
11
g
00
2g
01
g
01
δω
3
. (6.53)
Obviamente, as equações χ
3
= 0 e χ
1
= 0 são válidas, de modo que a dependência com relação
a esses geradores na verdade é nula. Podemos também escrever esta equação em forma de
155
equação canônica:
0
g
01
= g
00
Γ
1
00
g
01
Γ
1
01
Γ
0
00
g
11
Γ
0
01
+ 2
g
01
g
00
g
01
Γ
0
01
+
g
01
g
00
0
g
00
g
01
˙ω
1
+ g
00
˙ω
2
+
1
g
00
g
11
g
00
2g
01
g
01
˙ω
3
, (6.54)
em que ˙ω
0
ω.
A equação que envolve g
11
é obtida por
δg
11
= 2
g
01
Γ
1
00
+ g
11
Γ
1
01
Γ
0
00
g
01
g
11
g
00
Γ
0
01
1
g
1
g
00
g
01
χ
3
g
11
χ
1
δt
+
g
11
g
00
δg
00
2g
11
δω
1
+ 2g
01
δω
2
2
g
01
g
11
g
00
δω
3
. (6.55)
Novamente, descartando termos lineares em χ
A
, temos a equação
0
g
11
= 2g
01
Γ
1
00
2g
11
Γ
1
01
Γ
0
00
+ 2
g
01
g
00
g
11
Γ
0
01
+
g
11
g
00
0
g
00
2g
11
˙ω
1
+ 2g
01
˙ω
2
2
g
01
g
11
g
00
˙ω
3
. (6.56)
As equações (6.54) e (6.56) são as equações que ditam como os campos g
01
e g
11
variam na
direção do eixo x
0
e formam uma família de equações que dependem de quatro parâmetros.
Esses parâmetros são dados pelas derivadas temporais de ω
00
e ω
A
, que são variáveis indepen-
dentes da teoria. Para que a análise seja completa, necessitamos que essas equações canônicas
sejam consistentes com as equações de campo. Neste ponto vamos fazer esta análise para as
equações (6.52), (6.54) e (6.56).
As equações de campo na descrição de Palatini referentes à integral (6.10) são encontradas
a partir de sua primeira variação com relação às variáveis g
αβ
e Γ
γ
αβ
independentemente. A
variação com relação à conexão afim [6] resulta nas equações
D
γ
h
αβ
αβ
γµ
D
λ
h
λµ
= 0. (6.57)
Partir das equações características para mostrar que elas obedecem (6.57) é uma tarefa bas-
tante árdua. Portanto, vamos fazer o caminho inverso. Para h
00
temos
D
γ
h
00
δ
0
γ
D
λ
h
λ0
= 0.
Note que para γ = 1 temos D
1
h
00
= 0. Para γ = 0, temos
D
0
h
00
D
λ
h
λ0
= D
1
h
01
= 0.
156
Vamos analisar a equação para h
01
:
D
γ
h
01
1
2
δ
0
γ
D
λ
h
λ1
1
2
δ
1
γ
D
λ
h
λ0
= 0.
Se tomarmos γ = 1, chegamos na equação
D
1
h
01
D
0
h
00
= 0.
Considerando D
1
h
01
= 0, temos D
0
h
00
= 0. Com γ = 0 temos
D
0
h
01
D
1
h
11
= 0. (6.58)
Para h
11
, podemos obter as equações
D
γ
h
11
δ
1
γ
D
λ
h
λ1
= 0,
que resultam diretamente em D
0
h
11
= 0 e D
0
h
01
= 0. Portanto, (6.58) é na verdade D
1
h
11
= 0.
De tudo isso, aprendemos simplesmente que, se
D
γ
h
αβ
= 0, (6.59)
as equações (6.57) são satisfeitas. Sabemos que D
1
h
αβ
= 0 equivalem às equações χ
A
= 0:
os geradores advindos das condições de integrabilidade equivalem a parte das equações de
campo para γ = 1. As equações restantes, D
0
h
αβ
= 0, com o uso da definição (6.49), equivalem
ao sistema
2 g
00
g
00
0
g
00
2g
01
g
00
0
g
01
g
11
g
00
0
g
11
+ 2g
00
Γ
0
00
Γ
1
01
+ 4g
01
Γ
0
01
= 0, (6.60)
g
00
g
01
0
g
00
2g
00
g
00
0
g
01
g
01
g
00
0
g
11
2g
00
Γ
1
00
2g
11
Γ
0
01
= 0, (6.61)
g
00
g
11
0
g
00
+ 2g
01
g
11
0
g
01
2 g
00
g
00
0
g
11
+ 2g
11
Γ
0
00
Γ
1
01
4g
01
Γ
1
00
= 0. (6.62)
Essas equações são de primeira ordem, o que deveria ser esperado, que a não derivadas
da métrica na ação. Se a análise que nos levou às equações (6.52), (6.54) e (6.56) for con-
sistente, devemos esperar que este sistema seja subdeterminado, ou seja, que a matriz dos
coeficientes, dada por
N
2 g
00
g
00
2g
01
g
00
g
11
g
00
g
00
g
01
2g
00
g
00
g
01
g
00
g
00
g
11
2g
00
g
01
2 g
00
g
00
,
seja singular. Este é realmente o caso, considerando-se a identidade g
αγ
g
γβ
= δ
β
α
.
157
Vamos tomar as equações (6.60) e (6.61). Podemos escrevê-las como
0
g
11
=
2 g
00
g
00
g
11
g
00
0
g
00
+ 2
g
01
g
00
0
g
01
+ 2
1
g
11
Γ
0
00
Γ
1
01
+ 4
g
01
g
11
g
00
Γ
0
01
, (6.63)
0
g
01
=
1
2
g
01
g
00
0
g
00
+
1
2
g
01
g
11
0
g
11
1
g
00
Γ
1
00
1
g
11
Γ
0
01
. (6.64)
Ao substituir uma na outra, obtemos
0
g
11
=
g
11
g
00
0
g
00
2g
01
Γ
1
00
+ 2g
11
Γ
0
00
Γ
1
01
+ 2
g
01
g
11
g
00
Γ
0
01
, (6.65)
0
g
01
=
g
01
g
00
0
g
00
g
00
Γ
1
00
+ g
01
Γ
0
00
Γ
1
01
g
11
Γ
0
01
+ 2
g
01
g
00
g
01
Γ
0
01
. (6.66)
Na comparação de (6.65) e (6.66) com (6.54) e (6.56) vemos que as equações características
são equivalentes às equações D
0
h
αβ
= 0 a menos de combinações lineares de derivadas das
variáveis independentes ω
A
. As equações D
γ
h
αβ
= 0 têm como consequência direta a não ob-
servância da condição de metricidade em duas dimensões e, portanto, não podemos relacionar
univocamente os componentes da conexão afim aos símbolos de Christoffel [6].
Dessa forma, as equações características da teoria formam uma família de equações dife-
renciais totais, das quais as equações de Euler-Lagrange (6.57) são um membro dessa família,
caracterizado pela observância das condições ˙ω
A
= 0.
Novamente a menos de combinações lineares de ˙ω
A
, as equações canônicas para Γ
λ
µν
são
dadas por
Γ
0
01,0
= Γ
0
00,1
Γ
1
01,1
+ Γ
1
11,0
+
1
00
Γ
0
11
0
01
Γ
1
01
+2
g
01
g
00
Γ
0
01,1
Γ
0
11,0
+ Γ
0
01
Γ
0
01
Γ
1
11
+ Γ
0
11
Γ
1
01
Γ
0
00

, (6.67)
Γ
1
01,0
= Γ
1
00,1
Γ
1
01
Γ
1
01
Γ
0
00
Γ
1
00
Γ
0
01
Γ
1
11
+
g
11
g
00
Γ
0
11,0
+ Γ
0
01,1
+ Γ
0
01
Γ
0
01
Γ
1
11
+ Γ
0
11
Γ
1
01
Γ
0
00

, (6.68)
assim como
δΓ
λ
00
= δω
λ
00
, δΓ
λ
11
= δω
λ
11
. (6.69)
As equações para Γ
0
01,0
e Γ
1
01,0
podem ser reescritas com o tensor de Ricci:
g
00
R
(01)
+ g
01
R
11
= 0, (6.70)
g
00
R
00
g
11
R
11
= 0, (6.71)
em que R
(αβ)
1/2 (R
αβ
+ R
βα
). Em razão do fato de o traço da conexão ser uma 1-forma
158
arbitrária em duas dimensões, o tensor de Ricci não é simétrico. A solução tensorial para este
sistema de equações possui apenas um componente independente, como esperado. Comparan-
do essas equações com as equações de Einstein sem fontes
R
µν
1
2
g
µν
R = 0, (6.72)
que são obtidas com a variação da ação com relação à conexão afim, notamos que a contração
desta equação com g
γµ
é equivalente ao sistema (6.70,6.71). As equações de campo obtidas
pelo formalismo de Hamilton-Jacobi são, portanto, equivalentes às equações de Einstein par-
cialmente contraídas na ausência de fontes, desde que as variáveis ω
A
sejam escolhidas con-
venientemente.
159
Referências
[1] P. A. M. Dirac, Fixation of coordinates in the Hamiltonian theory of gravitation, Phys.
Rev. 114, 924-930 (1958).
P. A. M. Dirac, The theory of gravitation in Hamiltonian form, Proc. R. Soc. of London A
246, 333-343 (1958).
[2] R. Jackiw, Lower dimensional gravity, Nucl. Phys. B 252, 343-356 (1985).
[3] D. Grumiller, W. Kummer & D. V. Vasilevich, Dilaton gravity in two dimensions, Phys.
Rep. 369, 327-430 (2002).
[4] E. Martinec, Soluble systems in quantum gravity, Phys. Rev. D 30, 1198-1204 (1984).
M. Henneaux, Quantum gravity in two dimensions: Exact solution of the Jackiw model,
Phys. Rev. Lett. 54, 959-962 (1985).
D. Louis-Martinez, J. Gegenberg & G. Kunstatter, Exact Dirac quantization of all 2 D
dilaton gravity theories, Phys. Lett. B 27, 193-198 (1994).
[5] L. D. Landau & E. M. Lifshitz, The classical theory of fields, Fourth revised english edi-
tion, Butterworth-Heinemann, Burlington (1975).
[6] S. Deser, Inequivalence of first and second-order formulations in D = 2 gravity models,
Found. Phys. 26, 617-621 (1996).
160
Considerações finais
Os resultados fundamentais deste trabalho sobre a teoria de Hamilton-Jacobi aplicada
a teorias de campos com derivadas de ordem superior estão basicamente concentrados nos
capítulos 3 e 4. Contudo, o caminho percorrido nos dois capítulos iniciais trouxe alguns aspec-
tos matematicamente interessantes sobre essas teorias, todos bem conhecidos, mas que não
constam em uma literatura acessível sobre o cálculo variacional. Podemos citar, por exem-
plo, o estudo das condições de fronteira do problema variacional no capítulo 1 e a formulação
completa dos teoremas de Noether. O aspecto mais intrigante talvez seja o fato de que, com
a definição da derivada de Lagrange (1.27), todas as expressões adquirem aspecto bastante
simples e tratável, de modo que a generalização dos sistemas de primeira ordem para aque-
les de ordem superior torna-se imediata. Nesse primeiro capítulo, especialmente, usamos o
problema variacional para deduzir a forma do tensor densidade de energia-momento canônico
(1.25), que tornou-se uma quantidade fundamental durante todo o trabalho. Através dele so-
mos capazes não de deduzir uma expressão para os momentos canônicos covariantes (2.30),
como também a forma da Hamiltoniana canônica (3.1) no formalismo parametrizado, no capí-
tulo 3. A cadeia de relações nos levou, também, a uma forma geral e consistente de definição
dos momentos não covariantes.
No capítulo 2 estabelecemos um bom laboratório para o estudo do formalismo de Hamil-
ton-Jacobi para campos, com a tentativa de manter a covariância explícita dessas teorias.
Este, contudo, é um programa ainda em aberto e de difícil tratamento. Vimos que a teoria de-
senvolvida nesses moldes não pode ser aplicada a sistemas relativísticos, já que a equação de
Hamilton-Jacobi torna-se uma identidade trivial. Este problema pode ser rastreado à escolha
de Weyl de integrais equivalentes, que nos garante a existência de campos geodésicos para
Lagrangianas explicitamente dependentes do ponto do espaço-tempo, mas colapsa no caso
conservativo. Contudo, a existência de outras definições para campos geodésicos em teorias
de campos poderia resolver este problema, o que pode ser um tema de pesquisa futuro. Ainda
nesse capítulo, vimos como podemos deduzir as equações características em forma covariante
e como essas equações evidenciam a existência de parênteses de Poisson. Esta linha de inves-
tigação também pode ser seguida futuramente, que um formalismo simplético completo e
autoconsistente ainda necessita ser formulado para esses sistemas.
No capítulo 3, seguindo o mesmo roteiro apresentado no capítulo anterior, escolhe-
mos uma determinada foliação do espaço-tempo que nos permitiu formular uma teoria de
Hamilton-Jacobi com duas qualidades fundamentais. Primeiro, a escolha de parametriza-
ção eliminou o problema da trivialidade da equação de Hamilton-Jacobi covariante em teo-
rias invariantes por reparametrizações. Segundo, a teoria abriga com naturalidade sistemas
singulares, ou não Hessianos. Essa formulação, em que os campos são tratados como dis-
tribuições sobre hiper-superfícies de Cauchy (ou características no caso da dinâmica no cone
de luz), mostrou-se bastante similar à teoria de Carathéodory para a mecânica clássica, as-
sim como à extensão provida por Güler para sistemas singulares. Sistemas não Hessianos
de dimensão n e posto p são, como mostrado, caracterizados por um sistema de k (r + 1)
equações funcionais (3.24) para a função S, em que r é o número de autovalores nulos da ma-
triz Hessiana. Cada equação está relacionada a uma variável independente e estas formam
um espaço de parâmetros que é um subespaço do espaço de configuração. Relacionadas às
equações de Hamilton-Jacobi estão as equações características (3.27) e (3.30), cujas soluções
são parametrizadas pelas variáveis independentes φ
α
[m]
e determinam um espaço de fase T
¯
Q
p
coberto pelas variáveis dependentes
φ
a
[m]
, p
m
a
. Através das equações características fomos
capazes de evidenciar a estrutura dos parênteses de Poisson (3.41) e de construir os campos
vetoriais Hamiltonianos (3.52) geradores dos fluxos Hamiltonianos do sistema.
No capítulo 4 estudamos o papel das equações de Hamilton-Jacobi como geradores da
dinâmica através de sua integrabilidade. Vimos que esses geradores devem fechar uma ál-
gebra de Lie abeliana com os parênteses de Poisson para que definam uma teoria integrável
e, na seção 4.5, generalizamos esta condição para o caso não abeliano, que chamamos generi-
camente de condição de Frobenius. Como geradores de uma álgebra de Lie, as funções Φ
m
α
são
também integrais de movimento. Através do estudo da estrutura simplética do formalismo
vimos que os fluxos Hamiltonianos gerados pelos vetores X
m
α
são transformações canônicas
infinitesimais. Por consequência, são também transformações de simetria. Mostramos que
sistemas não Hessianos definem naturalmente uma estrutura simplética reduzida natural,
denotada pela 2-forma ω
p
, e que os vetores X
m
α
são os autovetores nulos da 2-forma ω. Com
essa visão geométrica, fomos capazes de estudar a relação entre as transformações canônicas
geradas pelos campos Hamiltonianos e transformações de simetria a nível Lagrangiano, espe-
cialmente as transformações de gauge. Como resultado mais importante nessa investigação,
encontramos a equação (4.52), que relaciona os parâmetros das transformações canônicas aos
parâmetros das transformações de gauge locais. Na seção 4.6 apresentamos o método que
162
desenvolvemos em [1] para a análise de sistemas não Hessianos, baseado nas condições de
integrabilidade de Frobenius. A definição dos parênteses generalizados, quando da existência
de geradores não involutivos, é o resultado mais importante deste tema. Com esse método,
temos um procedimento autoconsistente para tornar integrável uma dada teoria e, por conse-
quência, encontrar todos os seus geradores.
Nos dois últimos capítulos aplicamos com sucesso esse programa. No caso da teoria de
Podolsky usamos a dinâmica do plano nulo, que é responsável pela existência de quatro ge-
radores não involutivos, eliminados pelos parênteses generalizados (5.37). A análise de inte-
grabilidade dos geradores restantes indicou a existência de um gerador secundário. Com a
expansão do espaço dos parâmetros para permitir que este gerador fosse também um gerador
da dinâmica da teoria, pudemos relacionar o conjunto completo de geradores, com a dinâmica
dos parênteses de Poisson, ao gerador das transformações de gauge do grupo U (1), através
da equação (4.85). Com isso, construímos o gerador das transformações de gauge, dado pela
equação (5.76).
No caso da ação de Einstein-Hilbert, em que trabalhamos na formulação de Palatini na
dinâmica instantânea, a aplicação do formalismo foi capaz de construir uma teoria canônica
cujas equações de campo reproduzem as equações de Einstein. Da mesma forma que a teoria
de Podolsky, geradores não involutivos foram tratados com a adoção de parênteses generaliza-
dos e os demais geradores primários deram origem a novos geradores. Contudo, a análise da
simetria de gauge dessa teoria ainda encontra-se em andamento, de modo que não pudemos
apresentá-la aqui. No caso específico dessa teoria, produzimos o preprint [2].
No campo das perspectivas futuras, consideramos que a análise das relações entre os fluxos
Hamiltonianos e as transformações de simetria Lagrangianas ainda é um campo fértil. Pre-
tendemos levar este estudo adiante em duas frentes. A primeira segue a ideia de que as
simetrias da integral fundamental de uma teoria se refletem em suas equações de Hamilton-
Jacobi. Especificamente, pretendemos buscar um método geral de reconstrução das simetrias
a partir dos geradores sem conhecimento prévio das transformações Lagrangianas. Outro
caminho é o de implementar a fixação de gauge, bem como a transformação dos geradores não
involutivos em geradores involutivos, evitando o uso dos parênteses generalizados. Ambos
os caminhos pretendem ser uma rota para a melhor compreensão do processo de quantização
não perturbativo de teorias de campos. A própria estrutura dos parênteses generalizados pode
ser melhor explorada futuramente. Sistemas descritos por esses parênteses, que possuem re-
lações de comutação fundamentais complicadas, devem poder ser descritos por coordenadas
que transformem essas relações nas mesmas relações obedecidas com os parênteses de Pois-
son. Isto depende, claro, de uma análise do teorema de Darboux para sistemas não Hessianos.
Como perspectiva imediata, estamos no término de dois trabalhos. O primeiro é uma análise
da gravitação linearizada, enquanto o segundo consiste em uma análise da teoria de Yang-
Mills topologicamente massiva.
163
Referências
[1] M. C. Bertin, B. M. Pimentel & C. E. Valcárcel, Non-Involutive constrained systems and
Hamilton-Jacobi formalism, Ann. Phys. 323, 3137–3149 (2008).
[2] M. C. Bertin, B. M. Pimentel & P. J. Pompeia, General Relativity in two dimensions: a
Hamilton-Jacobi constraint analysis, arXiv:0911.2120v1 [gr-qc] (2009).
164
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo