Download PDF
ads:
ASPECTOS COMPUTACIONAIS DE
MODELOS ESPACIAIS
Vin´ıcius Diniz Mayrink
DME - IM - UFRJ
2006
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
ASPECTOS COMPUTACIONAIS DE MODELOS
ESPACIAIS
Vin´ıcius Diniz Mayrink
Disserta¸ao submetida ao Corpo Docente do Instituto de Matem´atica - Departamento
de M´etodos Estat´ısticos da Universidade Federal do Rio de Janeiro - UFRJ, como parte
dos requisitos necess´arios `a obten¸ao do grau de Mestre em Estat´ıstica.
Aprovada por:
Prof. Dani Gamerman - Orientador.
Prof. Alexandra Mello Schmidt.
Prof. Rosˆangela Helena Loschi.
Rio de Janeiro, RJ - Brasil
2006
ii
ads:
FICHA CATALOGR
´
AFICA
Mayrink, Vin´ıcius Diniz.
Aspectos Computacionais de Modelos Espaciais./
Vin´ıcius Diniz Mayrink.
Rio de Janeiro: UFRJ, IM, DME, 2006.
Disserta¸ao - Universidade Federal do Rio de Janeiro, IM, DME.
1. Inferˆencia Bayesiana. 2. Modelos Espaciais.
3. MCMC. 4. Influˆencia da vizinhan¸ca. (Mestrado-UFRJ/IM/DME)
I. Gamerman, Dani II. Universidade Federal do Rio de Janeiro
III. T´ıtulo.
iii
Aos meus pais e Eduarda.
iv
Agradecimentos
Em primeiro lugar minha eterna gratid˜ao a Deus pela vida e pela sa´ude.
Agrade¸co a meus pais que me acompanharam na caminhada e nos tropcos, incenti-
vando e apoiando s empre.
Agrade¸co `a minha irm˜a Eduarda pelos incentivos, por sua alegria e simpatia em todos
os nossos encontros.
A meu amigo Fl´avio. Em nossa convivˆencia compartilhamos conhecimentos e uvidas,
alegrias e tristezas. Obrigado pela amizade e companheirismo!
Agrade¸co a todos os professores que contribu´ıram para o meu crescimento e forma¸ao,
em espec ial ao Dani, Rosˆangela e Alexandra. A vocˆes todo meu reconhecimento, respeito
e admira¸ao.
`
A Dona L´ucia, seus familiares e aos familiares do Fl´avio, o meu agradecimento pelo
apoio e amizade verdadeira.
Aos meus amigos do mestrado e doutorado no DME/UFRJ. Valeram as novidades, o
sorriso aberto, as trocas de experiˆencias e toda ajuda.
Finalizando agrade¸co `a CAPES pelo apoio financeiro.
v
Resumo
Este ´e um trabalho Bayesiano que envolve a aplica¸ao de m´etodos computacional-
mente intensivos para a an´alise de modelos espaciais. Um espa¸co qualquer dividido em
um n´umero finito de regi˜oes ser´a objeto de estudo. In´umeras estruturas de vizinhan¸cas
podem ser configuradas, desde estruturas contendo poucos vizinhos por regi˜ao at´e estru-
turas onde todas as regi˜oes ao vizinhas entre si. O objetivo deste trabalho ´e avaliar a
influˆencia da estrutura de vizinhan¸ca sobre os resultados obtidos por etodos de simu-
la¸ao MCMC. Estes etodos ao aplicados por trˆes esquemas, propostos na literatura,
para amostragem da distribui¸ao a posteriori conjunta dos parˆametros envolvidos na
modelagem. O crit´erio de compara¸ao ´e baseado na estrutura de autocorrela¸ao das
cadeias.
Dois modelos espaciais ser˜ao estudados, o primeiro ´e caracterizado por uma mode-
lagem simples muito aplicado em an´alises envolvendo dados de ´area espacialmente cor-
relacionados. O segundo ´e uma extens˜ao inserindo componentes de regress˜ao m´ultipla.
Trˆes estudos ser˜ao desenvolvidos. O primeiro busca verificar o desempenho dos modelos
espaciais em termos de resultados de inferˆencia. O segundo faz uma compara¸ao entre
os esquemas de amostragem tentando verificar resultados da literatura. A ´ultima an´alise
confronta os resultados obtidos com a aplica¸ao de diferentes estruturas de vizinhan¸cas.
Palavras-chave: Inferˆencia Bayesiana, Modelos espaciais, MCMC, Influˆencia da vizinhan-
¸ca.
vi
Abstract
This is a Bayesian study that involves the application of computationally intensive
methods for analysis of spatially distributed data. Any space divided in regions or sites
can be used in the analysis. A number of neighboring structures are available, from
the ones which contains few neighbors per region to structures where all the sites are
neighbors of each other. The main aim of this work is to evaluate the neighboring
influence on the results of MCMC simulation methods. These methods are used by three
schemes, proposed in the literature, for sampling from the joint posterior distribution of
the model’s parameters. The comparison criteria is based in the autocorrelation structure
of the chains.
Two spatial models will be studied. The first one is characterized by a simple model-
ling typically used in the analysis of spatially correlated areal data. The second one is an
extension inserting multiple regression components. Three analysis will be performed.
The first one tries to verify the performance of the spatial models in terms of their in-
ference results. The second one performs a comparison between the sampling schemes
taking into account results available in the literature. The last analysis confronts the
outcomes obtained by the use of different neighboring arrangements of the units.
Keywords: Bayesian inference, Spatial models, MCMC, Neighboring influence.
vii
Sum´ario
1 Introdu¸ao 1
1.1 Aspectos asicos da inferˆencia Bayesiana . . . . . . . . . . . . . . . . . . 3
1.2 Organiza¸ao da disserta¸ao . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Modelo espacial simples 9
2.1 Constru¸ao do modelo espacial simples . . . . . . . . . . . . . . . . . . . 12
2.2 Modelo para qualquer estrutura de vizinhan¸ca . . . . . . . . . . . . . . . 13
2.3 Distribui¸ao a posteriori conjunta . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 Abordagem 1: priori pr´opria . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Abordagem 2: priori impr´opria . . . . . . . . . . . . . . . . . . . 17
2.4 Propriedades do modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1 Distribui¸ao condicional completa a priori para θ
i
. . . . . . . . . 17
2.4.2 Matriz de vizinhan¸ca banda diagonal . . . . . . . . . . . . . . . . 20
2.5 Gera¸ao de dados simulados . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3 Modelo espacial de regress˜ao m´ultipla 25
3.1 Constru¸ao do modelo espacial de regress˜ao . . . . . . . . . . . . . . . . 27
3.2 Modelo para qualquer estrutura de vizinhan¸ca . . . . . . . . . . . . . . . 28
3.3 Distribui¸ao a posteriori conjunta . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Distribui¸ao condicional completa a priori para β
i
. . . . . . . . . . . . . 31
3.5 Gera¸ao de dados simulados . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
viii
4 Esquemas de amostragem 35
4.1 Algoritmos MCMC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.1 O amostrador de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2 Algoritmo Metropolis-Hastings . . . . . . . . . . . . . . . . . . . . 38
4.2 Condicionais completas a posteriori para o modelo espacial simples . . . 42
4.2.1 Condicional completa a posteriori para θ
i
. . . . . . . . . . . . . 42
4.2.2 Condicional completa a posteriori para θ . . . . . . . . . . . . . . 44
4.2.3 Condicional completa a posteriori para σ
2
e W . . . . . . . . . . 45
4.3 Condicionais completas a posteriori para o modelo espacial de regress˜ao
m´ultipla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3.1 Condicional completa a posteriori para β
i
. . . . . . . . . . . . . 47
4.3.2 Condicional completa a posteriori para β . . . . . . . . . . . . . . 47
4.3.3 Condicional completa a posteriori para σ
2
e W . . . . . . . . . . 48
4.4 Descri¸ao dos esquemas de amostragem . . . . . . . . . . . . . . . . . . . 50
4.4.1 Esquema 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.2 Esquema 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.3 Esquema 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5 Aplica¸oes e resultados dos modelos espaciais 59
5.1 Estat´ısticas para sumarizar a autocorrela¸ao das cadeias . . . . . . . . . 60
5.2 Busca das constantes sintonizadoras . . . . . . . . . . . . . . . . . . . . . 63
5.3 Inferˆencia para o modelo espacial simples . . . . . . . . . . . . . . . . . . 67
5.4 Inferˆencia para o modelo espacial de regress˜ao m´ultipla . . . . . . . . . . 74
5.5 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6 Compara¸ao dos esquemas de amostragem 83
6.1 Compara¸oes no modelo espacial simples . . . . . . . . . . . . . . . . . . 84
6.2 Compara¸oes no modelo espacial de regress˜ao m´ultipla . . . . . . . . . . 89
6.3 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
ix
7 Influˆencia da vizinhan¸ca sobre os algoritmos MCMC 95
7.1 An´alise no modelo espacial simples . . . . . . . . . . . . . . . . . . . . . 96
7.2 An´alise no modelo espacial de regress˜ao m´ultipla . . . . . . . . . . . . . . 101
7.3 Conclus˜oes do cap´ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8 Conclus˜oes 107
8.1 Modelos espaciais e esquemas de amostragem . . . . . . . . . . . . . . . 108
8.2 Conclus˜oes das aplica¸oes e resultados . . . . . . . . . . . . . . . . . . . 110
8.3 Trabalhos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Apˆendice 114
Referˆencias Bibliogr´aficas 131
x
Cap´ıtulo 1
Introdu¸ao
Nos ´ultimos tempos vem crescendo o n´umero de aplica¸oes pr´aticas realizando an´alises
de dados espacialmente distribu´ıdos. Diferentes modelagens podem ser determinadas de-
pendendo do tipo de problema que se deseja estudar. A modelagem considerada neste
trabalho leva em conta a divis˜ao do espa¸co em n regi˜oes. Para cada regi˜ao a vari´avel de
interesse y
i
´e observada sendo y = (y
1
, y
2
, ..., y
n
) o conjunto completo de observoes.
Aplica¸oes deste tipo podem ser consideradas para os casos de resposta discreta ou
cont´ınua, univariada ou multivariada. Em particular ser˜ao tratados aqui conjuntos de
dados formados por valores cont´ınuos e univariados.
A estrutura de vizinhan¸ca que estabelece a rela¸ao de dependˆencia entre as ob-
servoes ´e um aspecto importante a ser considerado. O estudo de uma erie de dados
observados objetiva modelar e analisar esta dependˆencia. Considere a seguinte con-
figura¸ao espacial: a i-´esima observao, i = 2, ..., n 1, apresenta dois vizinhos que
ao (i 1) e (i + 1). A primeira observao ´e vizinha apenas da segunda e a nesima
observao ´e vizinha apenas da observao de ordem (n 1). Este ´e um exemplo de uma
estrutura espacial onde o arranjo da vizinhan¸ca ´e simples. Casos mais complexos onde
uma observao qualquer apresenta trˆes ou mais vizinhos tamb´em podem ser considera-
dos. Para isto devem ser utilizados modelos espaciais com estrutura de vizinhan¸ca mais
geral.
´
E importante que fique claro para o leitor os tipos de estruturas espaciais que ser˜ao
utilizadas neste trabalho. As n regi˜oes nas quais o espa¸co est´a dividido ao numeradas
1
de 1 a n sem qualquer crit´erio. Esta ordena¸ao servir´a apenas para identificar as regi˜oes
e permitir que mais tarde seja definida uma matriz que represente a estrutura espacial.
Conforme foi mencionado, diversas estruturas de vizinhan¸cas podem ser estabelecidas
para um espa¸co como este. Os exemplos apresentados a seguir esquematizam casos
assumindo n = 5.
(a) (b)
Figura 1.1: Exemplo de estruturas espaciais.
A Figura 1.1 mostra a representa¸ao de duas estruturas espaciais. Para a inter-
preta¸ao destes exemplos considere que o espa¸co pertence a IR
2
, ou seja, um mapa est´a
sendo analisado. Cada quadrado numerado ´e uma regi˜ao e a vizinhan¸ca ´e definida para os
quadrados que dividem fronteira (apresentam um lado em comum).
´
E importante deixar
claro que este particular exemplo trata de espa¸cos geogr´aficos, mas qualquer outro espa¸co
pode ser usado. O crit´erio para afirmar que uma regi˜ao ´e vizinha de outra pode ser qual-
quer um, o mais importante ´e definir quais ao os vizinhos.
A estrutura (a) mostra que a numera¸ao das regi˜oes seguiu sua configura¸ao espacial
que ordena cada elemento seguindo uma reta. Os vizinhos ao exatamente as regi˜oes lado
a lado. Esta ´e uma particular estrutura onde a numera¸ao ´e conveniente para determinar
quais ao os vizinhos. A estrutura (b) mostra um caso onde existe vizinhan¸ca entre regi˜oes
cujos ´ındices ao ao valores consecutivos. Note que a regi˜ao 1 possui 3 vizinhos e entre
eles ao est´a a regi˜ao 2. O ´unico vizinho de 2 ´e a regi˜ao 5. O fato de ser estabelecida
uma numera¸ao que ordena as regi˜oes em uma sequˆencia ao implica que a an´alise sendo
desempenhada considera apenas estruturas ao longo de uma reta onde os vizinhos est˜ao
lado a lado. A id´eia que o leitor precisa ter a respeito de estrutura espacial ao deve ser
restrita `a reta (IR) ou a um espa¸co geogr´afico (IR
2
). Qualquer estrutura espacial em IR
d
,
d ZZ
+
, ´e aplic´avel nos modelos que ser˜ao definidos.
2
Levando em considera¸ao as diferentes possibilidades de especific a¸ao de uma estru-
tura espacial surge a seguinte reflex˜ao: Quando um espa¸co dividido em n regi˜oes ´e ana-
lisado pode-se ter estruturas de vizinhan¸cas mais simples onde, por exemplo, a maioria
das regi˜oes apresenta no aximo 2 vizinhos, ou estruturas mais gerais onde o n´umero de
vizinhos ´e grande como, por exemplo, o caso em que todas as regi˜oes ao vizinhas entre si.
Existiria influˆencia da quantidade de vizinhos sobre os resultados dos algoritmos MCMC
adaptados `a modelagem espacial? Se esta influˆencia existe, que comportamento pode ser
observado na compara¸ao dos resultados? Quais estruturas de vizinhan¸cas determinam
os melhores desempenhos? A busca pela resposta destas quest˜oes tornou-se o principal
objetivo que motivou o desenvolvimento deste trabalho. ao a na literatura nenhum
tipo de pesquisa anterior a esta que se prop˜oe a verificar a influˆencia da quantidade de
vizinhos nestes aspectos dos modelos espaciais.
1.1 Aspectos asicos da inferˆencia Bayesiana
Alguns conceitos asicos envolvendo a abordagem Bayesiana para a inferˆencia ser˜ao
tratados aqui. Deseja-se mostrar ao leitor os elementos necess´arios para a constru¸ao de
um modelo Bayesiano e as ecnicas usadas para extrair informa¸ao relevante do processo.
Para maiores detalhes a este respeito, ao sugeridas as seguintes referˆencias: Migon e
Gamerman (1999), O’Hagan e Forster (2004) e Bernardo e Smith (1994).
Considere que y = (y
1
, . . . , y
n
) representa uma amostra aleat´oria contendo observoes
relacionadas ao estudo que se deseja desenvolver. A fun¸ao de probabilidade, ou fun¸ao
densidade p(y | θ) descreve o qu˜ao proavel ´e esta amostra para diferentes valores do
parˆametro de interesse θ. Esta fun¸ao ´e muitas vezes denotada por l(θ | y) e conhecida
como fun¸ao de verossimilhan¸ca.
Deseja-se obter estimativas a respeito do parˆametro θ . Em uma an´alise Bayesiana
´e preciso que o pesquisador caracterize sua incerteza a respeito deste parˆametro proba-
bilisticamente. Isto ´e f eito subjetivamente, baseado nos conhecimentos pr´evios e desem-
penhado antes que os dados sejam observados. Uma fun¸ao de probabilidade ou fun¸ao
densidade p(θ) ´e determinada neste passo. Esta distribui¸ao de probabilidade referente
3
a p(θ) ´e denominada distribui¸ao a priori. Muita controersia surgiu a respeito da in-
trodu¸ao de informa¸ao diferente daquela trazida pelos dados em inf erˆencia, hoje em dia
a aceita¸ao ´e maior para este procedimento.
Entre os Bayesianos a grande discuss˜ao envolve a especifica¸ao de distribui¸oes a priori
ao informativas. Elas ao usadas quando nenhum c onhecimento pr´evio est´a dispon´ıvel
sobre o parˆametro estudado determinando que apenas a informa¸ao dos dados interfira na
an´alise. As discordˆancias ao relativas a anomalias destas distribui¸oes que ao integram
1 conforme definido na teoria de probabilidade. Quando
p(θ) = (caso cont´ınuo) ou
a soma
θ
p(θ) diverge (caso discreto) a distribui¸ao a priori escolhida ´e dita impr´opria.
Existem diferentes defini¸oes de distribui¸oes a priori ao informativas, especialmente
para casos multivariados.
O processo de Inferˆencia Bayesiana ´e baseado na distribui¸ao do parˆametro de inte-
resse θ ap´os observar y , p(θ | y). Ela ´e denominada distribui¸ao a posteriori em oposi¸ao
`a distribui¸ao a priori. O Teorema de Bayes ´e usado para sua obten¸ao:
p(θ | y) =
p(y | θ) p(θ)
p(y)
onde p(y) =
p(y | θ) p(θ) para o caso de distribui¸oes cont´ınuas e p(y) =
θ
p(y |
θ) p(θ) para distribui¸oes discretas.
O uso de especifica¸oes a priori impr´oprias pode levar ´a obten¸ao de distribui¸oes a
posteriori impr´oprias, desta forma a inferˆencia ´e inviabilizada. O mais importante para
a identifica¸ao da distribui¸ao a posteriori ´e a determina¸ao no alculo indicado pelo
Teorema de Bayes de um n´ucleo reconhec´ıvel de distribui¸ao de probabilidade. Elementos
que ao dependem de θ podem ser eliminados nas contas. Uma maneira simplificada de
expressar o uso deste teorema ´e:
p(θ | y) l(θ | y) p(θ).
Em geral, a express˜ao encontrada para o n´ucleo da fun¸ao de probabilidade ou den-
sidade da distribui¸ao a posteriori ´e bastante complexo impossibilitando a obten¸ao
anal´ıtica dessas quantidades. Este obst´aculo impediu o desenvolvimento da Inferˆencia
4
Baye siana por muito tempo. Somente nas ´ultimas d´ecadas, com a evolu¸ao da tecnologia
computacional, f oi poss´ıvel desenvolver m´etodos indiretos para amostragem destas dis-
tribui¸oes. Os principais m´etodos ao classificados como MCMC (Monte Carlo Markov
Chain) e baseiam-se na constru¸ao de uma cadeia de Markov para o parˆametro de in-
teresse. Ap´os a convergˆencia da cadeia os valores registrados ao usados para compor
uma amostra considerada proveniente da distribui¸ao a posteriori de interesse. etodos
MCMC utilizados neste trabalho ser˜ao descritos no Cap´ıtulo 4.
Uma vez obtida a amostra da distribui¸ao a posteriori a informa¸ao a respeito da
posi¸ao do parˆametro de interesse pode ser sumarizada usando a m´edia, moda e mediana.
Quanto `a variabilidade utiliza-se as seguintes medidas de dispers˜ao: variˆancia, desvio
padr˜ao, precis˜ao e c urvatura da moda.
A an´alise Bayesiana ser´a empregada neste trabalho. Tes esquemas, propostos na lite-
ratura, ser˜ao utilizados para a amostragem da distribui¸ao a posteriori dos parˆametros do
modelo. Estes esquemas, definidos mais adiante, diferem-se basicamente na estrutura de
blocagem dos parˆametros que podem ser amostrados separadamente ou conjuntamente.
O desempenho dos algoritmos MCMC utilizados para a aplica¸ao dos esquemas ser´a es-
tudado p erante as diferentes quantidades de vizinhos. Reis, Salazar e Gamerman (2006)
realizaram um estudo aplicado `a modelos dinˆamicos lineares comparando quatro esque-
mas de amostragem. Os dados analisados neste artigo foram gerados simulando diferentes
cen´arios. A compara¸ao dos esquemas baseia-se em diferentes crit´erios como o tempo de
processamento dos programas implementados e um fator de ineficiˆencia que leva em conta
a estrutura de autocorrela¸ao das cadeias. Gamerman, Moreira e Rue (2003) estudaram
o modelo espacial de regress˜ao m´ultipla. Neste caso foi feita uma compara¸ao entre trˆes
esquemas de amostragem que diferenciam-se na maneira em que formam bloc os com os
coeficientes de regress˜ao. Estes esquemas foram comparados em termos computacionais,
autocorrela¸ao das cadeias e resultados de inferˆencia. Knorr-Held e Rue (2002) desen-
volveram um estudo onde arios algoritmos, para amostragem dos parˆametros do modelo
em bloco, ao propostos. A modelagem espacial considera o contexto de mapeamento de
doen¸ca (disease mapping) e as an´alises comparativas dos diferentes algoritmos ´e feita com
base em resultados de inferˆencia a respeito dos parˆametros envolvidos. Diversos trabalhos
5
na literatura utilizam algoritmos para atualiza¸ao conjunta dos parˆametros do modelo.
Alguns deles ao: Knorr-Held (1999), Rue (2001), Knorr-Held, Raber e Becker (2002),
Fernandez e Green (2002) e Rue, Steinsland e Erland (2004). A seguir apresenta-se uma
descri¸ao da organiza¸ao deste trabalho.
1.2 Organiza¸ao da disserta¸ao
Para finalizar o Cap´ıtulo 1 desta disserta¸ao considere o seguinte resumo mostrando
os assuntos tratados em cada um dos demais cap´ıtulos. O Cap´ıtulo 2 apresentado a
seguir ir´a descrever o modelo espacial com a modelagem mais simplificada, denominado
modelo espacial simples. No primeiro passo ser´a mostrado como ´e feita a modelagem
das observoes. Distribui¸oes a priori para os parˆametros do modelo ser˜ao especifi-
cadas. Com base em uma destas distribui¸oes duas abordagens ser˜ao descritas para a
modelagem: uma com priori pr´opria e outra com priori impr´opria. Os esquemas de
amostragem propostos ser˜ao usados para amostrar da distribui¸ao a posteriori conjunta.
O n´ucleo desta densidade ser´a calculado e conforme ser´a visto ao ´e poss´ıvel reconhecer
uma distribui¸ao de probabilidade para a express˜ao obtida. Algumas propriedades do
modelo espacial simples ser˜ao apresentadas, elas fazem a correspondˆencia entre toda a
informa¸ao da estrutura es pacial e a informa¸ao herdada por regi˜ao. O Cap´ıtulo 2 ser´a
finalizado com a de scri¸ao do procedimento de gera¸ao de dados simulados.
O Cap´ıtulo 3 ir´a descrever uma extens˜ao do modelo espacial simples inserindo compo-
nentes de regress˜ao m´ultipla. A maneira como o cap´ıtulo apresenta este modelo espacial
´e semelhante `a organiza¸ao usada no Cap´ıtulo 2. A ´unica diferen¸ca a ser notada ´e que
ser´a assumida apenas a abordagem impr´opria para a distribui¸ao a priori que carrega
a informa¸ao da estrutura espacial. Um modelo contendo d 1 vari´aveis explicativas
ser´a trabalhado o que determina d coeficientes de regress˜ao por regi˜ao, d = 2, 3, 4, . . .. A
quantidade de parˆametros ´e, portanto, maior nesta modelagem.
O Cap´ıtulo 4 trata da descri¸ao de trˆes esquemas de amostragem que ser˜ao aplicados
para gerar valores da distribui¸ao a posteriori conjunta. O n´ucleo desta distribui¸ao ao
´e reconhec´ıvel mas as condicionais completas dos parˆametros do modelo podem ser todas
6
obtidas. O cap´ıtulo ´e iniciado por uma descri¸ao de algoritmos MCMC utilizados. O
principal deles ´e o amostrador de Gibbs sendo o Metropolis-Hastings tamem empregado
como um passo dentro do algoritmo Gibbs. Ap´os definir os algoritmos MCMC ser˜ao
apresentadas as condicionais completas a posteriori utilizadas por eles, e em seguida
detalhados os procedimentos de cada esquema adaptados aos modelos espaciais.
O Cap´ıtulo 5 objetiva apresentar resultados de inferˆencia para comprovar o bom
desempenho dos modelos espaciais simples e de regress˜ao m´ultipla em termos de esti-
mativas dos parˆametros. Em primeiro lugar ser´a realizado um estudo de otimiza¸ao
para as constantes sintonizadoras que indexam a distribui¸ao geradora de propostas no
Metropolis-Hastings usado por um dos esquemas. Este es tudo visa escolher as constan-
tes que determinam o menor n´ıvel de autocorrela¸ao nas cadeias obtidas. Ap´os definir
estas constantes as estimativas do modelo espacial simples usando as abordagens (priori
pr´opria e impr´opria) ser˜ao comparadas. Caso os resultados sejam parecidos, apenas a
distribui¸ao a priori impr´opria ser´a adotada nos demais estudos deste modelo. Estima-
tivas dos trˆes esquemas tamb´em ser˜ao comparadas. Espera-se observar valores muito
pr´oximos visto que as trˆes propostas amostram da mesma posteriori conjunta.
O Cap´ıtulo 6 preocupa-se em desenvolver uma compara¸ao entre os esquemas de
amostragem tomando como crit´erio a estrutura de autocorrela¸ao das cadeias obtidas
pelos m´etodos MCMC empregados. A literatura indica que o desempenho de um es-
quema que agrupa maior quantidade de parˆametros formando menos blocos ´e superior.
Deseja-se verificar este resultado para os esquemas propostos no Cap´ıtulo 4. Uma ´unica
configura¸ao de vizinhan¸ca ser´a usada nesta an´alise comparativa.
O Cap´ıtulo 7 ir´a apresentar a principal an´alise desta disserta¸ao. Diferentes con-
figura¸oes de vizinhan¸cas ser˜ao aplicadas aos modelos espaciais e as cadeias obtidas pelos
m´etodos MCMC analisadas. Cada configura¸ao assume uma quantidade diferente de
vizinhos por regi˜ao, o n´ıvel de autocorrela¸ao das cadeias ser´a comparado entre estas
configura¸oes buscando identificar um comportamento ou tendˆencia que permita afirma
para quais quantidades de vizinhos a cadeia daquele parˆametro ´e menos autocorrela-
cionada. O modelo espacial simples apesar de possuir a modelagem mais simplificada
permite avaliar caracter´ısticas comuns a todos os modelos espaciais. Sendo assim ´e e s-
7
perado que as conclus˜oes do modelo espacial de regress˜ao m´ultipla sejam parecidas.
O Cap´ıtulo 8 far´a um resumo de tudo aquilo que foi apresentado e discutido nesta
disserta¸ao. Destaque ser´a dado `as principais conclus˜oes tiradas nos estudos onde foram
realizadas aplica¸oes dos modelos espaciais. O encerramento ´e feito com algumas pro-
postas de trabalhos futuros.
8
Cap´ıtulo 2
Modelo espacial simples
Muitos aspectos importantes que ao caracter´ısticos de modelos espaciais em geral po-
dem ser estudados atrav´es da modelagem mais simples apresentada aqui. Neste cap´ıtulo
ser˜ao introduzidas as nota¸oes para os parˆametros e demais elementos que especificam
este modelo. A maioria das an´alises desenvolvidas nos demais cap´ıtulos ´e baseada na
modelagem apresentada aqui.
Objetivando facilitar a compreens˜ao dos elementos asicos, a constru¸ao do modelo
ser´a apresentada partindo de uma estrutura¸ao de vizinhan¸ca simples, onde regi˜oes est˜ao
ordenadas em uma reta (numeradas sequencialmente da esquerda para a direita) e os
vizinhos ao os 2 elementos ao lado. O modelo espacial simples utilizado neste caso
particular de configura¸ao dos dados ´e uma aplica¸ao do Modelo Dinˆamico Linear (MDL)
de primeira ordem (para maiores detalhes ver West e Harrison,1997). A adapta¸ao para
permitir a an´alise baseada em outras estruturas de vizinhan¸cas ser´a desempenhada em
seguida.
Um modelo que representa bem situa¸oes espaciais ´e baseado no campo aleat´orio
markoviano (Markov Random Field, MRF). De maneira simples o MRF pode ser definido
da seguinte forma: Uma cole¸ao de valores aleat´orios X = (X
1
, X
2
, . . . , X
n
) forma um
MRF se a distribui¸ao conjunta de X satisfaz a seguinte propriedade (X
i
| X
i
) (X
i
|
X
δ
i
), onde X
i
= (X
1
, . . . , X
i1
, X
i+1
, . . . , X
n
) e δ
i
= {j : j ´e vizinho de i}, para
i = 1, . . . , n . Uma particular estrutura de vizinhan¸ca ordenando regi˜oes em uma reta e
considerando vizinhas as regi˜oes posicionadas imediatamente ao lado permite reescrever
9
a propriedade apresentada por (X
i
| X
i
) (X
i
| X
i1
, X
i+1
), para todo i = 1, n.
Ferreira e Oliveira (2007) estudam uma classe de modelos que seguem o campo
aleat´orio markoviano considerando o caso Gaussiano (Gaussian Markov Random Field,
GMRF). Desenvolve-se no artigo uma an´alise Bayesiana onde avaliam-se dois tipos de
distribui¸ao a priori padr˜ao, a primeira baseada na regra de Jeffreys e a segunda chamada
de priori de referˆencia.
O primeiro aspec to para definir o modelo espacial simples diz respeito `as observoes.
Estabele¸ca que cada observao y
i
est´a associada a um valor θ
i
, para i = 1, ..., n. Esta
configura¸ao ´e perturbada por uma vari´avel aleat´oria v
i
. Neste trabalho ser´a considerado
que esta pe rturba¸ao aleat´oria apresenta distribui¸ao Normal com edia zero e uma
variˆancia fixa ao longo do espa¸co σ
2
. O comportamento das observoes ´e ent˜ao modelado
pela express˜ao:
y
i
= θ
i
+ v
i
, v
i
N(0, σ
2
). (2.1)
Este modelo pode ser reescrito de arias formas. Uma delas consiste em trocar θ
i
por
µ + φ
i
, onde µ representaria um intercepto a ser explicado pelo modelo. Note que µ seria
um valor constante pois ao ´e indexado pelo ´ındice i, isto ´e, ele ´e o mesmo para todas
as regi˜oes do espa¸co. A an´alise desempenhada considerando a modelagem (2.1) permite
recuperar facilmente: i) esse intercepto µ pois ele nada mais ´e que a m´edia dos θ
i
’s e ii)
cada φ
i
pois φ
i
= θ
i
µ.
A informa¸ao da estrutura espacial ´e inserida atrav´es de uma distribui¸ao a priori para
θ = (θ
1
, θ
2
, . . . , θ
n
)
. Esta nota¸ao para θ ser´a adotada em todo trabalho. Besag, York
e Molli´e (1991) sugeriram a seguinte especifica¸ao a priori considerando uma diferen¸ca
pareada (pairwise difference):
p(θ) exp
n1
j=1
n
i=j+1
Z
ij
h(θ
i
θ
j
)
. (2.2)
Estes autores propuseram em seu trabalho diversas possibilidades e interpreta¸oes
para os pesos Z
ij
e para a fun¸ao h. Uma escolha t´ıpica para os pesos, mas ao ´unica, ´e
dada por:
10
Z
ij
=
1, se i j,
0, caso contr´ario.
(2.3)
em que i j denota que a regi˜ao i ´e vizinha de j.
Em particular, considera-se h(x) =
x
2
2W
. Esta esp ecifica¸ao para a fun¸c ˜ao h permite
reescrever a express˜ao (2.2) da seguinte forma:
p(θ) exp
1
2W
n1
j=1
n
i=j+1
Z
ij
(θ
i
θ
j
)
2
. (2.4)
A distribui¸ao a priori (2.4) estabelece uma rela¸ao de dependˆencia entre vizinhos
na estrutura espacial. Os pesos Z
ij
conforme est˜ao definidos em (2.3) determinam que
o somat´orio presente em (2.4) contempla apenas as diferen¸cas entre θ
i
e seus vizinhos.
Esta distribui¸ao a priori para θ segue um MRF.
Este cap´ıtulo est´a organizado da seguinte maneira: A Se¸ao 2.1 mostra a constru¸ao
do modelo partindo da aplica¸ao empregando uma estrutura de vizinhan¸ca simples. A
Se¸ao 2.2 trata da generaliza¸ao do modelo para permitir a utiliza¸ao de outras estruturas
de vizinhan¸cas. Este ´e um estudo B ayesiano e, portando, es pecifica¸oes a priori ao
importantes para completar a modelagem. Resultados e conclus˜oes ao extra´ıdos atrav´es
da an´alise das distribui¸oes a posteriori dos parˆametros do modelo. A Se¸ao 2.3 apresenta
a distribui¸ao a posteriori conjunta para os parˆametros envolvidos. A Se¸ao 2.4 apresenta
propriedades do modelo, entre elas uma correspondˆencia entre a matriz de vizinhan¸ca e
a distribui¸ao a priori condicional completa para θ
i
. Ser´a apresentada a configura¸ao de
vizinhan¸ca utilizada nas an´alises deste modelo e sua correspondente matriz de vizinhan¸ca
do tipo banda diagonal. A Se¸ao 2.5 descreve como a gera¸ao de dados simulados ´e
realizada e, finalmente, a Se¸ao 2.6 fecha este cap´ıtulo com as principais conclus˜oes.
11
2.1 Constru¸ao do modelo espacial simples
Considere uma s´erie contendo n observoes. As equa¸oes das observoes e do sistema
para o modelo polinomial de primeira ordem ao respectivamente dadas por:
y
i
= θ
i
+ v
i
, v
i
N(0, σ
2
), (2.5)
θ
i
= θ
i1
+ w
i
, w
i
N(0, W ). (2.6)
onde y
i
´e um escalar representando a observao no instante i, i = 2, ..., n. Considere
y
1
= θ
1
+ v
1
, onde v
1
N(0, σ
2
) e a seguinte informa¸ao inicial θ
1
N(a, R).
Note de (2.5) que E(y
i
) = θ
i
, este parˆametro do modelo tamb´em ´e um escalar. Note
ainda que a equa¸ao das observoes (2.5) ´e exatamente igual aquela determinada em
(2.1) para configurar a modelagem espacial. A equa¸ao (2.6) determina a rela¸ao de
dependˆencia entre θ
i
e seus vizinhos θ
i1
e θ
i+1
, i = 2, ..., n 1. Os componentes σ
2
e
W ao denominados hiperparˆametros pois indexam a distribui¸ao de y
i
e θ
i
, respectiva-
mente. Nes te trabalho ´e assumido que os hiperparˆametros ao fixos ao longo do espa¸co,
este aspecto ´e considerado para simplificar os resultados e an´alises que ser˜ao realizadas
adiante.
Para configurar este modelo no contexto espacial o primeiro passo a ser adotado
´e determinar a distribui¸ao a priori que representa a equa¸ao do sistema (2.6). Esta
equa¸ao de evolu¸ao do sistema ser´a substitu´ıda pela distribui¸ao condicional completa
para (θ | σ
2
, W ). A densidade conjunta a priori de (θ, σ
2
, W ) pode ser fatorada da
seguinte forma:
p(θ, σ
2
, W ) = p(θ | σ
2
, W ) p(σ
2
, W ). (2.7)
Assumindo independˆencia a priori para os hiperparˆametros e levando em considera¸ao
a dependˆencia de θ
i
com seu vizinho `a esquerda θ
i1
, conforme estabelece (2.6), a ´ultima
express˜ao pode ser reescrita por:
p(θ, σ
2
, W ) = p(θ
n
| θ
n1
, W ) . . . p(θ
3
| θ
2
, W ) p(θ
2
| θ
1
, W ) p(θ
1
) p(σ
2
) p(W ). (2.8)
Considere a especifica¸ao a priori θ
1
N(a, R). Esta especifica¸ao ir´a influenciar na
modelagem determinando uma diferen¸ca baseada na escolha de a e R. Daqui por diante
12
quando for informado que a distribui¸ao a priori para θ
1
´e pr´opria, estar´a sendo adotada
uma especifica¸ao N(a, R) onde R IR
+
. Quando for mencionado que a distribui¸ao
para este parˆametro ´e impr´opria ent˜ao ser´a considerado que R ´e infinito.
Pela equa¸ao do sistema (2.6) tem-se que: (θ
i
| θ
i1
, W ) N(θ
i1
, W ), i =
2, 3, . . . , n. Para o caso dos hiperparˆametros as distribui¸oes a priori ser˜ao apresentadas
mais adiante. p(θ, σ
2
, W ) ser´a enao dada por:
p(θ, σ
2
, W ) = (2πW )
(n1)
2
exp
1
2W
n
i=2
(θ
i
θ
i1
)
2
(2.9)
×(2πR)
1
2
exp
1
2R
(θ
1
a)
2
p(σ
2
) p(W ).
Considere novamente a fatora¸ao da densidade conjunta registrada em (2.7). Perceba
que a densidade condicional completa a priori p(θ | σ
2
, W ) pode ser facilmente determi-
nada a partir de (2.9) eliminando-se aqueles elementos que ao dependem de componentes
de θ. Ent˜ao:
p(θ | σ
2
, W ) exp
1
2W
n
i=2
(θ
i
θ
i1
)
2
exp
1
2R
(θ
1
a)
2
. (2.10)
Esta ´e a densidade a priori que carrega a mesma informa¸ao trazida pela equa¸ao do sis-
tema (2.6). A informa¸ao da estrutura espacial utilizada est´a configurada aqui. Perceba
que neste caso particular a regi˜ao 1 ´e vizinha da regi˜ao 2, a regi˜ao n ´e vizinha de (n 1).
Para i {2, 3, ..., n 1} a estrutura de vizinhan¸ca estabelece que a regi˜ao i ´e vizinha de
(i 1) e (i + 1). Esta informa¸ao est´a presente na densidade a priori (2.10) atrav´es do
somat´orio envolvendo elementos de θ.
At´e este ponto o modelo foi constru´ıdo tendo como base uma estrutura espacial sim-
ples onde especificam-se 2 vizinhos para a maioria das regi˜oes. O pr´oximo passo da
modelagem diz respeito a generaliza¸ao que permitir´a o uso de estruturas espaciais onde
existem regi˜oes com 3 ou mais vizinhos.
2.2 Modelo para qualquer estrutura de vizinhan¸ca
Para que qualquer estrutura espacial de vizinhan¸ca possa ser aplicada a este modelo, o
somat´orio da express˜ao (2.10) ser´a alterado para contemplar a nova rela¸ao entre vizinhos.
13
A densidade condicional completa (2.10) ser´a reescrita por:
p(θ | σ
2
, W ) exp
1
2W
n1
j=1
n
i=j+1
Z
ij
(θ
i
θ
j
)
2
exp
1
2R
(θ
1
a)
2
. (2.11)
Perceba que nesta express˜ao a primeira fun¸ao exponencial identificada ´e exatamente
igual `a distribui¸ao a priori com diferen¸ca pareada (2.4) especificada no trabalho de
Besag, York e Molli´e (1991).
Para completar a especifica¸ao a priori nesta modelagem ´e importante expressar
a densidade condicional completa a priori (2.11) na forma matricial. Esta estrat´egia
facilitar´a a identifica¸ao da distribui¸ao de probabilidade associada. Para que isto seja
feito assuma a seguinte defini¸ao da matriz K de ordem (n × n):
K
ij
=
Z
i+
, se i = j,
Z
ij
, se i j,
0, caso contr´ario.
(2.12)
onde Z
i+
=
n
j=1
Z
ij
. Se a defini¸ao dos pesos Z
ij
´e aquela registrada em (2.3), enao
Z
i+
representa o n´umero de vizinhos da regi˜ao i, i = 1, 2, ..., n.
Esta matriz carrega a informa¸ao da estrutura espacial a ser considerada pelo modelo.
Note que a soma dos valores presentes em qualquer linha ou coluna ´e igual a zero. Este
tipo de matriz ao ´e invers´ıvel.
A matriz K permite reescrever a densidade condicional c ompleta a priori (2.11) da
seguinte forma:
p(θ | σ
2
, W ) exp
1
2W
θ
Kθ
exp
1
2R
(θ
1
a)
2
. (2.13)
Perceba que se for determinada uma distribui¸ao a priori impr´opria para θ
1
a express˜ao
(2.13) poder´a ser reescrita da seguinte forma:
p(θ | σ
2
, W ) exp
1
2W
θ
Kθ
. (2.14)
14
´
E poss´ıvel identificar, na express˜ao (2.14), o n´ucleo da distribui¸ao N
n
(
0, W K
1
), onde
0 representa o vetor nulo de ordem (n × 1). O fato da matriz K ao ser invers´ıvel torna
esta distribui¸ao a priori impr´opria.
Se a especifica¸ao a priori referente a θ
1
for dada por uma N(a, R) onde a = 0 e
R IR
+
, a express˜ao (2.13) ser´a escrita da seguinte forma:
p(θ | σ
2
, W ) exp
1
2
θ
1
W
K
θ + R
1
θ
2
1

. (2.15)
A escolha da m´edia a = 0 para a distribui¸ao Normal associada ao parˆametro θ
1
foi
baseada no fato de que a express˜ao (2.14) ´e o n´ucleo de uma Normal multivariada com
m´edia dada pelo vetor nulo. A especifica¸ao R IR
+
estabelece que a distribui¸ao a priori
(2.15) ´e pr´opria e consequentemente sua respectiva distribui¸ao a posteriori tamb´em ser´a.
2.3 Distribui¸ao a posteriori conjunta
Outro componente importante para a defini¸ao do modelo espacial simples ser´a a
obten¸ao da distribui¸ao a posteriori conjunta para θ, σ
2
e W . A espe cifica¸ao a priori
N(a, R) adotada para o parˆametro θ
1
influenciar´a na determina¸ao desta distribui¸ao.
Nesta se¸ao ser˜ao consideradas duas abordagens, a primeira ser´a determinada pela es-
pecifica¸ao a priori pr´opria (2.15) e a segunda assume a especifica¸ao a priori impr´opria
(2.14).
Antes de descrever cada uma destas abordagens citadas ´e preciso definir a densidade
da distribui¸ao Gama Inversa que ser´a adotada para representar a incerteza a priori a
respeito do hiperparˆametros.
Defini¸ao: Uma vari´avel aleat´oria tem distribui¸ao Gama Inversa com parˆametros α
e Σ, denotada por GI(α, Σ), se sua densidade ´e dada por:
p(Ω) =
Σ
α
Γ(α)
(α+1)
exp
Σ
, para > 0, (2.16)
onde α > 0 e Σ > 0.
15
2.3.1 Abordagem 1: priori pr´opria
O Teorema de Bayes estabelece que:
p(θ, σ
2
, W | y) p(y | θ, σ
2
, W ) p(θ, σ
2
, W )
n
i=1
p(y
i
| θ
i
, σ
2
) p(θ | σ
2
, W ) p(σ
2
) p(W ). (2.17)
A equa¸ao indicada e m (2.1) determina que cada componente (y
i
| θ
i
, σ
2
), obtido com
a fatora¸ao da fun¸ao de verossimilhan¸ca, tem distribui¸ao N(θ
i
, σ
2
). A distribui¸ao a
priori condicional completa p(θ | σ
2
, W ) est´a registrada em (2.15), uma independˆencia a
priori ´e assumida para os hiperparˆametros. As seguintes especifica¸oes a priori para σ
2
e W ser˜ao utilizadas neste trabalho:
σ
2
GI(n
v
, S
v
n
v
),
W GI(n
w
, S
w
n
w
),
onde n
v
, S
v
n
v
, n
w
e S
w
n
w
ao valores maiores que 0. A distribui¸ao Gama Inversa ´e
escolhida para descrever a incerteza a priori a respeito dos hiperparˆametros, pois ela
permite o desenvolvimento de uma an´alise conjugada. Conforme ser´a visto mais adiante,
as distribui¸oes a posteriori dos hiperparˆametros tamem ser˜ao Gamas I nversas. Al´em
disto esta distribui¸ao de probabilidade atribui massa de probabilidade para valores reais
maiores que zero. Portanto, ´e adequada para descrever a incerteza a respeito dos dois
hiperparˆametros que representam variˆancias no modelo.
A densidade a posteriori conjunta (2.17) poder´a ser escrita da seguinte forma:
p(θ, σ
2
, W | y)
σ
2
(
n
2
+n
v
+1
)
exp
1
2σ
2
[(y θ)
(y θ) + 2S
v
n
v
]
(2.18)
×(W )
(
n1
2
+n
w
+1
)
exp
1
2W
[θ
Kθ + 2S
w
n
w
]
× exp
1
2R
θ
2
1
.
ao ´e poss´ıvel identificar em (2.18) o n´ucleo de uma distribui¸ao de probabilidade
conhecida. etodos indiretos ao necess´arios para gerar valores desta distribui¸ao. A
seguir a Abordagem 2 ser´a apresentada considerando uma distribui¸ao a priori impr´opria
para (θ | σ
2
, W ).
16
2.3.2 Abordagem 2: priori impr´opria
Considere novamente a aplica¸ao do Teorema de Bayes em (2.17). Quando uma dis-
tribui¸ao a priori impr´opria ´e esp ecific ada para θ
1
, a distribui¸ao condicional completa
p(θ | σ
2
, W ) ser´a aquela registrada em (2.14).
´
E importante lembrar que esta distribui¸ao
a priori (2.14) ´e impr´opria. Assuma as especifica¸oes a priori Gama Inversa para os
hiperparˆametros do modelo indicadas na subse¸ao anterior. Segundo esta abordagem a
densidade a posteriori conjunta (2.17) ser´a dada por:
p(θ, σ
2
, W | y)
σ
2
(
n
2
+n
v
+1
)
exp
1
2σ
2
[(y θ)
(y θ) + 2S
v
n
v
]
(2.19)
×(W )
(
n1
2
+n
w
+1
)
exp
1
2W
[θ
Kθ + 2S
w
n
w
]
Apesar da distribui¸ao a priori para (θ | σ
2
, W ) estabelecida p ela express˜ao (2.14) ser
impr´opria, a literatura revela que esta distribui¸ao a posteriori conjunta para (θ, σ
2
, W )
´e pr´opria. Para maiores detalhes ver por exemplo o trabalho de Besag, Green, Higdon e
Mengersen (1995). Neste caso tamb´em ao ´e poss´ıvel identificar em (2.19) o n´ucleo de
uma distribui¸ao de probabilidade conhecida. M´etodos indiretos ser˜ao necess´arios caso
seja desejado amostrar da distribui¸ao referente a esta densidade.
2.4 Propriedades do modelo
Algumas propriedades deste modelo espacial ser˜ao descritas nesta se¸ao. A primeira
delas est´a relacionada `as distribui¸oes a priori condicionais completas para cada θ
i
. A
estrutura de vizinhan¸ca espacial adotada determina uma dependˆencia de cada θ
i
com
seus vizinhos. Esta rela¸ao de dependˆencia estar´a presente em cada uma destas condi-
cionais completas. Outra propriedade mencionada est´a relacionada a uma caracter´ıstica
de particulares matrizes de vizinhan¸cas (2.12) utilizadas pelo modelo.
2.4.1 Distribui¸c˜ao condicional completa a priori para θ
i
Assuma a seguinte nota¸ao θ
i
= (θ
1
, ..., θ
i1
, θ
i+1
, ..., θ
n
). A determina¸ao da dis-
tribui¸ao condicional completa a priori para cada componente do vetor θ inicia pela
17
seguinte fatora¸ao:
p(θ | σ
2
, W ) = p(θ
i
| θ
i
, σ
2
, W ) p(θ
i
| σ
2
, W ).
Suponha que δ
i
= {t
1
, t
2
, . . . , t
m
i
}, ou seja, a regi˜ao i tem m
i
vizinhos aos quais
associam-se os ´ındices t
1
, t
2
, . . . , t
m
i
. A densidade de interesse ´e p(θ
i
| θ
i
, σ
2
, W ) e ser´a
obtida a partir de (2.15) levando-se em conta apenas os termos envolvendo θ
i
.
(Caso i = 1)
A escolha da distribui¸ao a priori N(a, R) para o parˆametro θ
1
, com R IR
+
,
ir´a diferenciar a determina¸ao da condicional completa a priori para este parˆametro.
Primeiramente, vale lembrar a equivalˆencia entre a forma matricial θ
Kθ e a express˜ao
n1
j=1
n
i=j+1
Z
ij
(θ
i
θ
j
)
2
. Atrav´es da densidade condicional (2.15), levando em conta a
equivalˆencia citada, obt´em-se:
p(θ
1
| θ
δ
1
, σ
2
, W ) exp
1
2W
(θ
1
θ
t
1
)
2
+ (θ
1
θ
t
2
)
2
+ . . . + (θ
1
θ
t
m
1
)
2
× exp
1
2R
θ
2
1
.
Ap´os algumas contas o seguinte resultado pode ser exibido:
p(θ
1
| θ
δ
1
, σ
2
, W ) exp
1
2W
m
1
θ
2
1
2θ
1
θ
t
1
+ . . . + θ
t
m
1
+
θ
2
t
1
+ . . . + θ
2
t
m
1

× exp
1
2R
θ
2
1
.
Desempenhando mais alguns alculos e eliminando os termos que ao dependem de θ
1
,
a seguinte express˜ao ser´a encontrada:
p(θ
1
| θ
δ
1
, σ
2
, W ) exp
1
2
Rm
1
+ W
W R
θ
1
m
1
¯
θ
δ
1
R
Rm
1
+ W

2
.
onde
¯
θ
δ
1
=
θ
t
1
+...+θ
t
m
1
m
1
. Aqui est´a especificada o n´ucleo da distribui¸ao Normal com
m´edia m
1
¯
θ
δ
1
R
Rm
1
+W
e variˆancia
W R
Rm
1
+W
. Perceba que se for assumida uma distribui¸ao
18
impr´opria para θ
1
os seguintes limites podem ser determinados para as express˜oes da
m´edia e variˆancia:
lim
R+
m
1
¯
θ
δ
1
R
Rm
1
+ W
=
¯
θ
δ
1
e lim
R+
W R
Rm
1
+ W
=
W
m
1
.
Estes resultados ao alteram a distribui¸ao que permanece Normal. Portanto, quando
R +, (θ
1
| θ
δ
1
, σ
2
, W ) N
¯
θ
δ
1
,
W
m
1
.
(Caso i = 2,...,n)
A escolha da distribui¸ao a priori para θ
1
ao tem qualquer influˆencia sobre os
parˆametros θ
2
, . . . , θ
n
. Novamente partindo da densidade condicional (2.15) obt´em-se:
p(θ
i
| θ
δ
i
, σ
2
, W ) exp
1
2W
(θ
i
θ
t
1
)
2
+ (θ
i
θ
t
2
)
2
+ . . . + (θ
i
θ
t
m
i
)
2
.
Ap´os algumas contas, a seguinte express˜ao ser´a obtida:
p(θ
i
| θ
δ
i
, σ
2
, W ) exp
1
2W
m
i
θ
2
i
2θ
i
θ
t
1
+ . . . + θ
t
m
i
+
θ
2
t
1
+ . . . + θ
2
t
m
i

.
Procedendo com mais alguns alculos e eliminando os termos que ao dependem de θ
i
determina-se:
p(θ
i
| θ
δ
i
, σ
2
, W ) exp
m
i
2W
θ
i
¯
θ
δ
i
2
.
A express˜ao obtida ´e o n´ucleo da distribui¸ao Normal com edia
¯
θ
δ
i
=
1
Z
i+
n
j=1
Z
ij
θ
j
e
variˆancia
W
m
i
.
Concluindo este alculo o seguinte resultado pode ser anunciado levando em conta
i = 1, 2, . . . , n: Quando for e specificada a priori uma distribui¸ao impr´opria para θ
1
a
distribui¸ao a priori condicional completa (θ
i
| θ
i
, σ
2
, W ) ser´a N(
¯
θ
δ
i
,
W
Z
i+
).
A estrutura de vizinhan¸ca espacial utilizada pelo modelo determinar´a quais compo-
nentes do vetor θ ao vizinhos do parˆametro θ
i
. Estes componentes ir˜ao integrar a soma
que forma a m´edia da distribui¸ao a priori Normal para (θ
i
| θ
i
, σ
2
, W ). Quanto mais
vizinhos possuir a regi˜ao i mais elementos ir˜ao compor esta m´edia, maior ser´a a quanti-
dade de informa¸ao dispon´ıvel. Observe tamb´em que a quantidade de vizinhos da regi˜ao
i faz parte da express˜ao da variˆancia. Uma maior quantidade de vizinhos determinar´a
uma menor incerteza com rela¸ao ao valor do parˆametro θ
i
.
19
2.4.2 Matriz de vizinhan¸ca banda diagonal
A matriz de vizinhan¸ca espacial dada em (2.12) apresenta uma importante carac-
ter´ıstica, a saber, ela pode ser banda diagonal ou banda diagonaliz´avel. Quando esta
matriz ´e configurada de forma que os valores ao nulos encontram-se espalhados ou dis-
persos ao longo das c´elulas, ela ´e chamada de matriz esparsa. Existem ecnicas num´ericas
para organizar os elementos de uma matriz esparsa de forma a torn´a-la uma matriz banda
diagonal. Na matriz banda diagonal os valores diferentes de zero concentram-se ao longo
da diagonal principal formando o que ´e chamado de banda. A extens˜ao desta banda
depende da quantidade de vizinhos das regi˜oes.
O procedimento citado para organizar uma matriz esparsa ´e conhecido como banda
diagonaliza¸ao. Permuta¸oes ao realizadas entre as linhas e entre as colunas se m que a
informa¸ao matricial seja alterada. Rue (2001) apresenta um estudo em que os algoritmos
utilizados possuem como base o uso de matrizes esparsas que foram banda diagonalizadas.
Este artigo mostra que a eficiˆencia e rapidez destes algoritmos ao beneficiadas pela orga-
niza¸ao da matriz de vizinhan¸ca no formato banda diagonal. alculos matriciais, como
por exemplo a decomposi¸ao de Choleski, ao facilitados. Diversos trabalhos na litera-
tura utilizam os procedimentos num´ericos propostos por Rue (2001) em seus algoritmos.
Entre eles est˜ao Knorr-Held e Rue (2002), Rue, Steinsland e Erland (2004) e Rue (2005).
Nestes trabalhos a matriz que carrega a informa¸ao espacial ´e originalmente esparsa e
foi diagonalizada. Knorr-Held, Raber e Becker (2002) tamb´em utilizam a ecnica apre-
sentada por Rue (2001), entretanto, as matrizes usadas ao ao esparsas e desta forma
´e desnecess´ario aplicar o processo de diagonaliza¸ao. Considerando estes resultados da
literatura, nesta disserta¸ao utiliza-se a matriz de vizinhan¸ca banda diagonal para inserir
a informa¸ao espacial.
Para auxiliar a explica¸ao considere aqui as seguintes configura¸oes de estruturas de
vizinhan¸cas para um espa¸co contendo n regi˜oes e a especifica¸ao de um valor v para o
n´umero de vizinhos:
A regi˜ao i apresenta 2 vizinhos {i 1, i + 1} para i = 2, . . . , n 1.
A regi˜ao i apresenta 4 vizinhos que ao {i2, i1, i+1, i+2} para i = 3, . . . , n2.
20
Generalizando: a regi˜ao i apresenta v vizinhos que ao {i
v
2
, i
v
2
+ 1, . . . , i
2, i 1, i + 1, i + 2, . . . , i +
v
2
1, i +
v
2
} para i = 1 +
v
2
, . . . , n
v
2
.
A primeira configura¸ao equivale a um espa¸co cujas regi˜oes est˜ao ordenadas em uma
reta determinando como vizinhos os elementos imediatamente ao lado. Para dar um
exemplo de uma matriz de vizinhan¸ca seguindo esta configura¸ao, considere uma estru-
tura espacial com 4 regi˜oes onde as seguintes rela¸oes de vizinhan¸cas ao estabelecidas:
Regi˜ao 1 ´e vizinha de 2, regi˜ao 2 ´e vizinha de 1 e 3, regi˜ao 3 ´e vizinha de 2 e 4 e, final-
mente, a regi˜ao 4 ´e vizinha apenas de 3. A matriz de vizinhan¸ca para esta estrutura ´e
do tipo banda diagonal, sua representa¸ao ser´a:
1 1 0 0
1 2 1 0
0 1 2 1
0 0 1 1
Neste trabalho apenas uma quantidade par de vizinhos, denotada por v, ser´a utilizada
para que as configura¸oes listadas possam ser aplicadas. As regi˜oes indexadas por ´ındices
mais pr´oximos dos extremos 1 e n possuir˜ao uma quantidade de vizinhos menor que v, e
maior ou igual a
v
2
vizinhos.
Para estas configura¸oes de estrutura espacial a constru¸ao da matriz de vizinhan¸ca
banda diagonal come¸ca pela seguinte defini¸ao de pesos que considera i, j {1, 2, . . . , n}
Z
ij
=
1, se (i = j) e |i j|
v
2
,
0, caso contr´ario.
Perceba que se as regi˜oes i e j ao vizinhas enao o valor 1 ´e associado a Z
ij
. Definidos
os pesos a matriz de vizinhan¸ca banda diagonal ser´a dada por:
K
ij
=
Z
i+
, se i = j,
Z
ij
, se i j,
0, caso contr´ario.
21
Exemplo: Para um espa¸co com 5 regi˜oes considere v = 4. A matriz de vizinhan¸ca
constru´ıda com base nestas defini¸oes para Z
ij
e K
ij
ser´a:
2 1 1 0 0
1 3 1 1 0
1 1 4 1 1
0 1 1 3 1
0 0 1 1 2
Note que se a escolha para v for um valor pequeno em rela¸ao a n ent˜ao a maioria
das regi˜oes apresentar´a v vizinhos. Perceba que este tipo de configura¸ao de vizinhan¸ca,
implicando na matriz K banda diagonal conforme definida nesta se¸ao, estabelece um
processo markoviano onde a regi˜ao i depende de seus vizinhos `a esquerda. No caso geral
estes vizinhos seriam i
v
2
, i
v
2
+ 1, . . . , i 2, i 1. Para finalizar a descri¸ao do modelo
espacial simples a pr´oxima se¸ao ir´a mostrar como dados simulados podem ser gerados.
2.5 Gera¸ao de dados simulados
A utiliza¸ao de dados simulados ´e imp ortante neste estudo cujo principal obj etivo ´e
avaliar a influˆencia do n´umero de vizinhos. A simula¸ao de conjunto de dados permite
estabelecer diferentes cen´arios de an´alise onde a quantidade de vizinhos varia. Al´em disto
este procedimento permite que se saiba os valores reais dos parˆametros possibilitando a
verifica¸ao do desempenho dos modelos em termos de estimativas.
As an´alises desenvolvidas para o modelo espacial simples ao baseadas em dados
gerados de acordo com o procedimento descrito nesta se¸ao. Este procedimento requer
primeiramente a obten¸ao do vetor θ. Em seguida gera-se y
i
a partir da distribui¸ao
Normal com edia θ
i
e variˆancia σ
2
, conforme estabelece (2.1).
Para gerar o vetor θ ´e preciso considerar a especifica¸ao a priori θ
1
N(a, R). Se for
especificado a = 0 e R IR
+
a gera¸ao de θ segue sem problemas.
´
E acil mostrar que a
22
express˜ao determinada em (2.15) permite definir a matriz K
atrav´es de uma altera¸ao
na matriz de precis˜ao
1
W
K.
K
=
K
W
+ R
1
J, (2.20)
onde J ´e matriz de ordem (n × n) do tipo diag(1, 0, . . . , 0).
A matriz K
´e ao singular e, portanto, pode-se gerar o vetor θ a partir da distribui¸ao
N
n
0, (K
)
1
. Quanto maior o valor determinado para R, menor ser´a a altera¸ao provo-
cada na matriz de precis˜ao
1
W
K.
Quando for especificado uma distribui¸ao impr´opria para θ
1
a gera¸ao de θ deveria
ser realizada a partir da distribui¸ao N
n
(
0, W K
1
) conforme estabelece (2.14). A matriz
K conforme foi mencionado anteriormente ao ´e invers´ıvel, entretanto, a distribui¸ao
identificada ´e indexada por W K
1
. Portanto, a distribui¸ao a priori para (θ | σ
2
, W ) ´e
impr´opria e assim os dados ao p odem ser gerados. A especifica¸ao a priori impr´opria
para θ
1
ao ´e adequada para permitir a gera¸ao dos dados.
A solu¸ao para este problema ser´a utilizar um modelo que considera a priori uma
especifica¸ao impr´opria para θ
1
mas assume para a gera¸ao de θ, no processo de obten¸ao
dos dados simulados, a especifica¸ao a priori pr´opria. Ap´os gerar cada θ
i
o procedimento
de obten¸ao dos dados simulados ser´a encerrado com a determina¸ao de cada y
i
, para
isto utiliza-se (2.1).
´
E importante destacar que o procedimento apresentado nesta se¸ao, para gerar os da-
dos, utiliza uma op¸ao para tornar a distribui¸ao a priori para (θ | σ
2
, W ) pr´opria. Con-
forme foi de scrito, um valor real positivo ´e determinado para o parˆametro R e isto provoca
uma altera¸ao na matriz de precis˜ao tornando-a invers´ıvel. Existem outras op¸oes para
realizar esta tarefa. Considere, por exemplo, o trabalho desenvolvido por Ferreira, Hig-
don, Lee e West (2005) que estuda uma classe de campos aleat´orios de multi-escala.
Neste artigo a matriz de precis˜ao depende de uma parˆametro α
1
que controla o grau de
associa¸ao e ntre os componentes da estrutura espacial. O parˆametro α
1
multiplica uma
matriz identidade que depois ´e somada `a matriz de vizinhan¸ca singular. Se α
1
> 0 esta
soma garante a inversibilidade da matriz de precis˜ao. Outro aspecto interessante deste
23
artigo ´e que uma distribui¸ao a priori de referˆencia ´e atribu´ıda para α
1
. A modelagem ´e
constru´ıda com o objetivo de estimar tamb´em este parˆametro. Fernandez e Green (2002)
estudam dados espacialmente correlacionados atrav´es de misturas de modelos. Este ar-
tigo trabalha no contexto de mapeamento de doen¸cas. Um termo extra, relacionado a
todas as regi˜oes do espa¸co, ´e inclu´ıdo na express˜ao da densidade a priori para torn´a-la
uma distribui¸ao pr´opria. A pr´oxima se¸ao encerra o cap´ıtulo mostrando as principais
conclus˜oes.
2.6 Conclus˜oes do cap´ıtulo
Finaliza-se aqui a constru¸ao do modelo espacial simples. Partindo do MDL de
primeira ordem mostrou-se na Se¸ao 2.1 que a equa¸ao do sistema (2.6) pode ser re-
presentada por uma densidade a priori onde a rela¸ao de dependˆencia entre observoes
vizinhas est´a expressa por meio de um somat´orio. Uma altera¸ao neste somat´orio permi-
tiu generalizar este particular modelo espacial para outros onde a estrutura de vizinhan¸ca
´e mais geral.
A densidade a posteriori conjunta para os parˆametros do modelo foi determinada na
Se¸ao 2.3. Para isto foi considerada uma abordagem utilizando a distribui¸ao a priori
pr´opria para (θ | σ
2
, W ) e outra considerando a distribui¸ao impr´opria. ao ´e poss´ıvel
reconhecer a distribui¸ao de probabilidade associada.
Algumas propriedades do modelo foram apresentadas na Se¸ao 2.4. Foi explicada
o tipo de correspondˆencia existente entre a estrutura espacial determinada pela matriz
de vizinhan¸ca K e a distribui¸ao a priori condicional completa para θ
i
. Al´em disso
definiu-se a configura¸ao de vizinhan¸ca adotada para an´alise e a matriz de vizinhan¸ca
banda diagonal correspondente a esta configura¸ao. Um processo markoviano pode ser
identificado relacionando a regi˜ao i com seus vizinhos `a esquerda. A descri¸ao do modelo
´e encerrada com o procedimento de gera¸ao dos dados simulados na Se¸ao 2.5.
O pr´oximo cap´ıtulo ir´a tratar da apresenta¸ao de outro modelo espacial que extende
o modelo espacial simples. Componentes de regress˜ao m´ultipla ser˜ao inseridos e desta
forma um maior n´umero de parˆametros ser´a considerado.
24
Cap´ıtulo 3
Modelo espacial de r egress˜ao
m´ultipla
O Modelo espacial de regress˜ao m´ultipla ´e uma extens˜ao do modelo espacial simples
apresentado no cap´ıtulo anterior. As covari´aveis e os coeficientes ao componentes de
regress˜ao m´ultipla a serem introduzidos na modelagem. Estes elementos entram no lugar
do parˆametro θ
i
especificado na modelagem simples.
Para introduzir elementos asicos, a estrat´egia usada novamente ser´a come¸car pelo
caso mais trivial utilizando a estrutura espacial onde a maioria das regi˜oes apresenta 2
vizinhos. Ap´os apresentar este caso particular a generaliza¸ao ´e estabelecida permitindo
o uso de estruturas espaciais mais gerais.
No Cap´ıtulo 2 a ado¸ao da especifica¸ao a priori N(a, R) para o parˆametro θ
1
estabe-
leceu uma diferencia¸ao na modelagem descrita. O modelo que assume uma distribui¸ao
pr´opria apresenta diferen¸ca em rela¸ao `aquele que assume a distribui¸ao impr´opria. Neste
cap´ıtulo apenas a abordagem que considera uma especifica¸ao a priori impr´opria, para
o parˆametro correspondente deste modelo espacial, ser´a apresentada.
Suponha que ao longo do espa¸co o conjunto de valores (y
i
, x
1,i
, x
2,i
, ..., x
d1,i
) ´e obser-
vado, d = 2, 3, 4, . . .. Deseja-se modelar a rela¸ao existente entre a vari´avel resposta y
i
e
as d 1 vari´aveis explicativas (x
1,i
, x
2,i
, ..., x
d1,i
) chamadas tamem de regressores. Para
isto utiliza-se o modelo de regress˜ao m´ultipla que objetiva explicar a vari´avel resposta
25
atrav´es das covari´aveis por meio da seguinte rela¸ao:
y
i
= β
0
+ β
1
x
1,i
+ ... + β
d1
x
d1,i
+ v
i
, v
i
N(0, σ
2
).
Especificam-se para cada regi˜ao do espa¸co d coeficientes de regress˜ao. Esta modelagem
considera que a rela¸ao entre a vari´avel resposta e as covari´aveis ´e ap enas local e ao fixa
para todo conjunto de dados observados. A ´ultima express˜ao, que mostra a rela¸ao da
vari´avel resposta com as covari´aveis, pode ser reescrita da seguinte forma:
y
i
= β
i
X
i
+ v
i
, v
i
N(0, σ
2
). (3.1)
onde β
i
= (β
0,i
, β
1,i
, . . . , β
d1,i
), X
i
= (1, x
1,i
, . . . , x
d1,i
) e σ
2
´e um esc alar.
Adote a seguinte nota¸ao para trabalhar com os coefic ientes de regress˜ao inseridos
nesta modelagem: β
= (β
1
, β
2
, . . . , β
n
). Outra maneira de escrever esta mesma nota¸ao
´e atrav´es do vetor de ordem dn
β
= (β
0,1
, β
1,1
, . . . , β
d1,1
, β
0,2
, β
1,2
, . . . , β
d1,2
, . . . , β
0,n
, β
1,n
, . . . , β
d1,n
) .
A informa¸ao referente `a estrutura espacial ´e introduzida por uma distribui¸ao a
priori definida para (β | σ
2
, W ) neste caso. Existem in ´umeras propostas a priori para β
que seguem um MRF. Um exemplo interessante ´e dado pela seguinte forma multivariada:
p(β) exp
1
2
n1
j=1
n
i=j+1
Z
ij
(β
i
β
j
)
W
1
(β
i
β
j
)
. (3.2)
Esta proposta tamb´em foi usada por Assun¸ao, Gamerman e Assun¸ao (1999), como
distribui¸ao a priori para os coeficientes de regress˜ao que variam ao longo do espa¸co, e por
Moreira e Migon (1999). Express˜oes similares podem ser encontradas em Bernardinelli
et al. (1995) e Gelfand e Vounatsou (2001). A defini¸ao utilizada nesta disserta¸ao para
a vari´avel Z
ij
est´a registrada em (2.3).
A organiza¸ao deste cap´ıtulo ´e semelhante `a organiza¸ao do Cap´ıtulo 2. A Se¸ao 3.1
mostra a constru¸ao do modelo espacial partindo de uma vizinhan¸ca particular, as regi˜oes
ordenadas em uma reta possuem como vizinhos os 2 componentes ao lado. Configura-se
o MDL de regress˜ao m´ultipla neste caso. A Se¸ao 3.2 mostra as altera¸oes estabelecidas
26
para que quaisquer estruturas espaciais possam ser empregadas. A Se¸ao 3.3 apresenta
a distribui¸ao a posteriori conjunta dos parˆametros deste modelo. A correspondˆencia
entre a especifica¸ao da estrutura espacial dada pela matriz K e a distribui¸ao a priori
condicional completa para β
i
´e uma propriedade do modelo mostrada na Se¸ao 3.4. A
Se¸ao 3.5 descrever´a o procedimento de gera¸ao de dados simulados para este modelo
espacial e a Se¸ao 3.6 encerra o cap´ıtulo mostrando as principais conclus˜oes.
3.1 Constru¸ao do modelo espacial de regress˜ao
Considere uma sequˆencia de n dados observados. As equa¸oes das observoes e do
sistema ser˜ao respectivamente configuradas da seguinte forma para o MDL de regress˜ao
m´ultipla:
y
i
= β
i
X
i
+ v
i
, v
i
N(0, σ
2
), (3.3)
β
i
= β
i1
+ w
i
, w
i
N
d
(
0, W ), (3.4)
onde w
i
= (w
0,i
, w
1,i
, . . . , w
d1,i
),
0 ´e o vetor nulo de ordem d e i = 2, . . . , n. Para
o caso i = 1 considere y
1
= β
1
X
1
+ v
1
, onde v
1
N(0, σ
2
) e a seguinte informa¸ao
inicial β
1
N
d
(a, R). Outros componentes est˜ao especificados em (3.1). A matriz
de covariˆancias W ´e de ordem (d × d), em sua diagonal principal encontram-se os
elementos W
0,0
, W
1,1
, . . . , W
d1,d1
que represe ntam as variˆancias associadas aos coefi-
cientes β
0,i
, β
1,i
, . . . , β
d1,i
respectivamente. Para registrar a nota¸ao dos demais elemen-
tos desta matriz considere que W
p,q
´e a covariˆancia entre os coeficientes β
p,i
e β
q,i
para
p, q = 0, 1, . . . , d 1.
´
E preciso determinar a distribui¸ao a priori condicional completa que representa a
equa¸ao do sistema (3.4). A distribui¸ao a priori conjunta pode ser fatorada da seguinte
forma:
p(β, σ
2
, W ) = p(β | σ
2
, W ) p(σ
2
, W ). (3.5)
Assumindo independˆencia a priori entre os hiperparˆametros σ
2
e W e levando em
conta a dependˆencia entre β
i
e β
i1
estabelecida na equa¸ao do sistema (3.4), ´e poss´ıvel
27
reescrever (3.5) da seguinte maneira:
p(β, σ
2
, W ) =
n
i=2
p(β
i
| β
i1
, W ) p(β
1
) p(σ
2
) p(W ). (3.6)
Especifica¸oes a priori a respeito dos hiperparˆametros ser˜ao consideradas mais adiante.
Para prosseguir com o racioc´ınio considere a espec ifica¸ao a priori β
1
N
d
(a, R) onde a
m´edia a ´e um vetor de ordem d e R uma matriz de covariˆancias (d×d). Pela equa¸ao (3.4)
conclui-se que (β
i
| β
i1
, W ) N
d
(β
i1
, W ), i = 2, . . . , n. Considerando estas ´ultimas
informa¸oes a distribui¸ao a priori para β condicional nos hiperparˆametros pode ser
obtida de (3.6) quando se seleciona apenas os termos que dependem de algum componente
do vetor β. Ela ser´a dada por:
p(β | σ
2
, W ) exp
1
2
n
i=2
(β
i
β
i1
)
W
1
(β
i
β
i1
)
(3.7)
× exp
1
2
(β
1
a)
R
1
(β
1
a)
.
At´e este ponto considerou-se uma rela¸ao de vizinhan¸ca simples: a maioria das regi˜oes
possui apenas 2 vizinhos que ao (i 1) e (i + 1). Para generalizar este caso particular
permitindo a inser¸ao de outras estruturas espaciais, uma altera¸ao deve ser aplicada
ao somat´orio presente na express˜ao (3.7). A vari´avel Z
ij
definida em (2.3) ´e necess´aria
para tal altera¸ao. Se existir rela¸ao de vizinhan¸ca entre duas regi˜oes i e j, a diferen¸ca
β
i
β
j
dever´a ser contemplada por este somat´orio. A pr´oxima subse¸ao trata desta
generaliza¸ao.
3.2 Modelo para qualquer estrutura de vizinhan¸ca
Para estruturas de vizinhan¸cas mais gerais a distribui¸ao a priori condicional completa
(3.7) ser´a reescrita da seguinte forma:
p(β | σ
2
, W ) exp
1
2
n1
j=1
n
i=j+1
Z
ij
(β
i
β
j
)
W
1
(β
i
β
j
)
(3.8)
× exp
1
2
(β
1
a)
R
1
(β
1
a)
.
A forma multivariada para a distribui¸ao a priori de diferen¸ca pareada indicada
em (3.2) pode ser identificada na express˜ao da primeira fun¸ao exponencial em (3.8).
28
Tomando como base a defini¸ao para os pesos Z
ij
e para a matriz K, registradas res-
pectivamente em (2.3) e (2.12), uma nota¸ao matricial pode ser determinada para (3.8).
Esta densidade condicional completa a priori pode ser escrita usando nota¸ao matricial
da seguinte forma:
p(β | σ
2
, W ) exp
1
2
β
K W
1
β
exp
1
2
(β
1
a)
R
1
(β
1
a)
, (3.9)
onde K W
1
denota o produto de Kronecker entre K e W
1
.
No modelo espacial de regress˜ao m´ultipla considere uma distribui¸ao a priori impr´opria
para β
1
, isto ´e, assuma uma Normal com matriz de covariˆancias R de ordem (d × d) do
tipo diag(r, . . . , r) onde r +. Esta escolha elimina em (3.9) o termo da fun¸ao ex-
ponencial referente `a distribui¸ao a priori para β
1
. Baseando-se neste resultado observe
que a express˜ao que resta em (3.9) ´e o n´ucleo da distribui¸ao N
dn
0, (K W
1
)
1
.
Uma caracter´ıstica a mencionada a respeito da matriz de vizinhan¸ca K ´e o fato dela
ser singular, consequentemente, a matriz de covariˆancias (K W
1
)
1
que indexa a dis-
tribui¸ao Normal indicada aqui tamb´em ´e singular. Portanto, a distribui¸ao a priori para
(β | σ
2
, W ), que carrega a informa¸ao da estrutura espacial usada, ´e impr´opria.
Prosseguindo com a descri¸ao deste modelo Bayesiano a pr´oxima se¸ao ir´a mostrar
a fun¸ao densidade da distribui¸ao a posteriori conjunta dos parˆametros. Apesar da
distribui¸ao a priori para (β | σ
2
, W ) ser impr´opria, a literatura mostra que a distribui¸ao
a posteriori obtida a partir dela ser´a pr´opria.
3.3 Distribui¸ao a posteriori conjunta
A distribui¸ao a posteriori conjunta para σ
2
, W e as componentes do vetor β ´e ele-
mento importante para a modelagem Bayesiana, entretanto ao ´e poss´ıvel reconhecer
uma distribui¸ao de probabilidade para a densidade que ser´a determinada. Antes de pro-
ceder com a obten¸ao desta distribui¸ao a posteriori ´e importante definir a distribui¸ao
de probabilidade Wishart Inversa que ser´a usada para descrever a incerteza a priori a
respeito do hiperparˆametro W .
29
Defini¸ao: Uma matriz (d × d) sim´etrica e p ositiva definida tem distribui¸ao Wishart
Inversa com parˆametro Σ e α graus de liberdade se sua densidade ´e dada por:
p(Ω) =
|Σ|
α
π
d(d1)
4
d
i=1
Γ
α +
1i
2
||
α
d+1
2
exp
tr
ΣΩ
1

(3.10)
onde α >
d1
2
e Σ ´e matriz sim´etrica positiva definida (d × d). Esta distribui¸ao ser´a
denotada por W I(α, Σ).
Para determinar a distribui¸ao a posteriori conjunta considere em primeiro lugar a
seguinte aplica¸ao do Teorema de Bayes:
p(β, σ
2
, W | y) p(y | β, σ
2
, W ) p(β, σ
2
, W )
n
i=1
p(y
i
| β
i
, σ
2
) p(β | σ
2
, W ) p(σ
2
) p(W ). (3.11)
Uma indep endˆencia ´e assumida a priori para os hiperparˆametros. Considere as seguintes
especifica¸oes a priori para os hiperparˆametros do modelo:
σ
2
GI(n
v
, S
v
n
v
),
W WI(n
w
, S
w
n
w
).
onde n
v
> 0, S
v
n
v
> 0, n
w
>
d1
2
e S
w
n
w
´e matriz (d × d) sim´e trica positiva definida. As
densidades das distribui¸oes Gama Inversa e Wishart Inversa est˜ao definidas respectiva-
mente em (2.16) e (3.10).
Baseando-se na equa¸ao (3.1) o seguinte resultado ´e alido: (y
i
| β
i
, σ
2
) N(β
i
X
i
, σ
2
).
A distribui¸ao a priori N
dn
0, (K W
1
)
1
foi determinada para (β | σ
2
, W ) no in´ıcio
da Se¸ao 3.2. Esta distribui¸ao ´e impr´opria, entretanto, trabalhos como os desenvolvi-
dos por Besag, Green, Higdon e Mengersen (1995) e Gamerman, Moreira e Rue (2003)
garantem que a distribui¸ao a posteriori ´e pr´opria. Usando as especifica¸oes a priori
para os hiperparˆametros, as densidades p(y
i
| β
i
, σ
2
) e p(β | σ
2
, W ) a express˜ao (3.11)
ser´a reescrita da seguinte forma, ap´os algumas contas:
p(β, σ
2
, W | y) exp
1
2σ
2
y
y 2y
Xβ + β
X
X + σ
2
(K W
1
)
β + 2S
v
n
v
× exp
tr
S
w
n
w
W
1

σ
2
n+2n
v
+2
2
|W |
n+2n
w
+d
2
. (3.12)
30
A densidade a posteriori conjunta para os parˆametros do modelo apresenta na ormula de
sua fun¸ao densidade a express˜ao determinada em (3.12). Note que ao ´e poss´ıvel reco-
nhecer o ucleo de uma distribui¸ao de probabilidade nesta express˜ao, p ortanto, etodos
indiretos ser˜ao necess´arios para permitir a amostragem dos parˆametros a posteriori. A
seguir ser´a discutida uma propriedade do modelo espacial de regress˜ao m´ultipla.
3.4 Distribui¸ao condicional completa a priori para
β
i
A corresp ondˆencia entre a distribui¸ao a priori conjunta para (β | σ
2
, W ), que carrega
a informa¸ao da estrutura espacial utilizada, e a distribui¸ao a priori condicional com-
pleta para β
i
ser´a discutida nesta se¸ao. Considere a fatora¸ao da distribui¸ao a priori
para (β | σ
2
, W ):
p(β | σ
2
, W ) = p(β
i
| β
i
, σ
2
, W ) p(β
i
| σ
2
, W ). (3.13)
onde β
i
= {β
1
, . . . , β
i1
, β
i+1
, . . . , β
n
}. O campo aleat´orio markoviano determina que
p(β
i
| β
i
, σ
2
, W ) = p(β
i
| β
δ
i
, W ) onde δ
i
= {j : j i}.
Conforme estabelece a fatora¸ao (3.13), a densidade de interesse p(β
i
| β
δ
i
, W ) pode
ser facilmente constru´ıda levando em conta apenas os termos que dependem de β
i
na den-
sidade da distribui¸ao N
dn
0, (K W
1
)
1
determinada para (β | σ
2
, W ) na introdu¸ao
da Se¸ao 3.2.
Suponha que δ
i
= {t
1
, t
2
, . . . , t
m
i
}, ou seja, a regi˜ao i possui m
i
vizinhos (m
i
< n) aos
quais associam-se os ´ındices t
1
, . . . , t
m
i
, i = {1, . . . , n}. Lembrando da equivalˆencia entre
as express˜oes β
(K W
1
)β e
n1
j=1
n
i=j+1
Z
ij
(β
i
β
j
)
W
1
(β
i
β
j
) pode-se escrever:
p(β
i
| β
δ
i
, W ) exp
1
2
m
i
j=1
(β
i
β
t
j
)
W
1
(β
i
β
t
j
)
.
Cada componente (β
i
β
t
j
)
W
1
(β
i
β
t
j
) do somat´orio indicado dentro da fun¸ao
exponencial pode ser reescrito por β
i
W
1
β
i
β
i
W
1
β
t
j
β
t
j
W
1
β
i
+ β
t
j
W
1
β
t
j
. O
31
termo β
t
j
W
1
β
t
j
´e uma constante (n˜ao depende de β
i
) e poder´a ser eliminado durante
os alculos. Usando estes resultados obt´em-se:
p(β
i
| β
δ
i
, W ) exp
1
2
m
i
j=1
(β
i
W
1
β
i
) β
i
W
1
β
t
j
β
t
j
W
1
β
i
exp
1
2
m
i
(β
i
W
1
β
i
) β
i
W
1
m
i
j=1
β
t
j
m
i
j=1
β
t
j
W
1
β
i
Inserindo na fun¸ao exponencial a constante
m
i
j=1
β
t
j
W
1
m
i
j=1
β
t
j
a express˜ao
obtida estar´a sendo completada para que o seguinte resultado seja alcan¸cado:
p(β
i
| β
δ
i
, W ) exp
m
i
2
β
i
m
i
j=1
β
t
j
m
i
W
1
β
i
m
i
j=1
β
t
j
m
i

. (3.14)
´
E poss´ıvel reconhecer o n´ucleo da distribui¸ao N
d
¯
β
δ
i
,
W
n
j=1
Z
ij
onde
¯
β
δ
i
=
n
j=1
Z
ij
β
j
n
j=1
Z
ij
na express˜ao (3.14). A matriz de vizinhan¸ca K determina quais dentre os vetores
β
1
, β
2
, . . . , β
n
ir˜ao compor a soma que forma a express˜ao da esperan¸ca da distribui¸ao
Normal Multivariada reconhecida em (3.14). Conclui-se que quanto mais vizinhos uma
regi˜ao possuir mais informa¸ao est´a dispon´ıvel a respeito de β
i
. Note que a esperan¸ca
da distribui¸ao Normal identificada ser´a dada por uma edia calculada para um maior
n´umero de elementos e a variˆancia ser´a dividida por um n´umero maior, ou seja, a incerteza
a priori a respeito de β
i
´e menor.
Se for utilizada a matriz banda diagonal (ver Subse¸ao 2.4.2) o somat´orio presente
na esperan¸ca ser´a formado por v elementos referentes aos vizinhos da regi˜ao i que ao
β
i
v
2
, β
i
v
2
+1
, . . . , β
i2
, β
i1
, β
i+1
, β
i+2
, . . . , β
i+
v
2
1
, β
i+
v
2
, para i = 1 +
v
2
, . . . , n
v
2
. A
pr´oxima subse¸ao ir´a tratar da gera¸ao de dados simulados para o modelo espacial de
regress˜ao m´ultipla.
3.5 Gera¸ao de dados simulados
As an´alises que utilizam o modelo espacial de regress˜ao m´ultipla consideram o pro-
cedimento descrito nesta subse¸ao para gerar os dados simulados. Surge novamente um
32
problema observado para o modelo espacial simples no cap´ıtulo anterior, a matriz de
precis˜ao K W
1
ao ´e invers´ıvel. Portanto, a distribui¸ao a priori para (β | σ
2
, W ) ´e
impr´opria e assim gerar o vetor β fica inviabilizado. A especifica¸ao a priori impr´opria
adotada para β
1
ao ´e adequada neste c aso. Considere ent˜ao a seguinte altera¸ao para
esta dis tribui¸ao: β
1
N
d
(a, R) onde a ´e o vetor nulo de ordem d, pois, conforme foi
conclu´ıdo a pouco, a densidade condicional completa p(β | σ
2
, W ) ´e uma Normal ce n-
trada no vetor nulo de ordem dn. A matriz de covariˆancias R, de ordem (d × d), ´e do
tipo diag(r, . . . , r). Quanto maior for o valor r indicado na diagonal principal, menor
altera¸ao sofrer´a a matriz de precis˜ao (K W
1
).
A distribui¸ao condicional completa a priori (3.9) fica definida da seguinte maneira
com a ado¸ao desta especifica¸ao a priori pr´opria para β
1
:
p(β | σ
2
, W ) exp
1
2
β
K W
1
β + β
1
R
1
β
1
. (3.15)
A altera¸ao provocada na matriz de precis˜ao ser´a registrada em elementos contidos
na interse¸ao das d primeiras linhas com as d primeiras colunas. A partir de (3.15) ´e
poss´ıvel definir a seguinte matriz denotada por K
:
K
= K W
1
+ J R
1
, (3.16)
onde J ´e matriz (n × n) do tipo diag(1, 0, . . . , 0).
A matriz K
´e ao singular, desta forma ´e poss´ıvel gerar o vetor β a partir da
N
dn
0, (K
)
1
. Ap´os gerar β o procedimento de obten¸ao dos dados simulados ser´a
encerrado com a determina¸ao do vetor y, para isto utiliza-se a equa¸ao (3.1).
Assim como foi feito na Se¸ao 2.5, vale destacar que o procedimento adotado nesta
se¸ao para gerar os coeficientes de regress˜ao, contornando o fato de que a distribui¸ao a
priori para (β | σ
2
, W ) ´e impr´opria, ´e apenas uma das op¸oes que podem ser empregadas.
Gamerman, Moreira e Rue (2003), no estudo do modelo espacial de regress˜ao m´ultipla,
utilizam uma alternativa que gera os coeficientes independentemente. Um modelo Normal
com m´edia dada por ρ
¯
β
δ
i
´e usado. Assumindo a constante ρ = 1 a distribui¸ao a priori
para β se torna pr´opria permitindo que estes elementos sejam gerados.
33
3.6 Conclus˜oes do cap´ıtulo
A apresenta¸ao do modelo espacial de regress˜ao seguiu os mesmos crit´erios adotados
no Cap´ıtulo 2 para o modelo espacial simples. A diferen¸ca foi a utiliza¸ao de uma ´unica
abordagem onde especifica-se uma distribui¸ao a priori impr´opria para β
1
.
Primeiramente foi utilizada uma estrutura de vizinhan¸ca simples que configura a
aplica¸ao do MDL de regress˜ao m´ultipla. Mostrou-se que a equa¸ao de evolu¸ao do
sistema pode ser representada por uma condicional completa a priori, p(β | σ
2
, W ), que
carrega a informa¸ao da estrutura espacial. Estruturas espaciais mais gerais podem ser
usadas ap´os uma altera¸ao realizada nesta condicional completa a priori.
O n´ucleo da densidade a posteriori conjunta tamem foi calculado, entretanto, ao
´e poss´ıvel reconhecer a distribui¸ao de probabilidade relacionada a ele. Apesar da dis-
tribui¸ao a priori adotada para (β | σ
2
, W ) ser impr´opria existem trabalhos na literatura
que garantem que a distribui¸ao a posteriori conjunta ´e pr´opria. A correspondˆencia entre
as distribui¸oes a priori para β e β
i
foi mostrada. A estrutura espacial determina que
a esperan¸ca a priori para β
i
´e baseada em uma m´edia dos β
j
’s vizinhos. A variˆancia ´e
uma raz˜ao onde o n´umero de vizinhos faz parte do denominador, quanto mais vizinhos
menor a incerteza a priori sobre β
i
.
A utiliza¸ao da distribui¸ao a priori impr´opria para β ´e um problema para o proce-
dimento de gera¸ao de dados simulados. A solu¸ao adotada foi considerar a modelagem
espacial de regress˜ao com priori impr´opria, mas assumir uma priori pr´opria para gerar
os dados. O Cap´ıtulo 3 ´e encerrado com esta discuss˜ao.
34
Cap´ıtulo 4
Esquemas de amostragem
Neste cap´ıtulo ser˜ao especificados trˆes esquemas para amostrar da distribui¸ao a pos-
teriori conjunta de parˆametros dos modelos espaciais simples e de regress˜ao ultipla.
Nos cap´ıtulos anteriores foi mostrado que ao ´e poss´ıvel reconhecer uma distribui¸ao
de probabilidade para o n´ucleo da fun¸ao densidade calculada para esta distribui¸ao
conjunta. M´etodos MCMC ser˜ao necess´arios para viabilizar a amostragem indireta. A
algumas ecadas atr´as, quando a tecnologia dispon´ıvel impedia a aplica¸ao de m´etodos
computacionais intensivos, era imposs´ıvel realizar um estudo como este.
Os esquemas propostos diferem-se na forma em que agrupam os parˆametros do mo-
delo, estabelecendo blocos. Parˆametros pertencentes ao mesmo bloco ao amostrados
de sua distribui¸ao a posteriori conjunta. A literatura indica que o agrupamento de
parˆametros formando blocos ´e um fator que beneficia esquemas de amostragem como os
que ser˜ao apresentados neste cap´ıtulo. Liu, Wong e Kong (1994) estudaram o etodo
Gibbs Sampling considerando estrutura de correla¸ao e taxas de convergˆencia. Eles
mostraram que quando as componentes do modelo ao agrupadas em bloco, as estima-
tivas obtidas ao mais precisas que aquelas obtidas quando cada componente ´e tratada
separadamente.
O modelo espacial simples possui (n + 2) parˆametros que ao: θ
1
, θ
2
, ..., θ
n
, σ
2
e W ,
todos eles ao escalares. Considerando a existˆencia de d = 2, 3, 4, . . . vari´aveis explica-
tivas, o modelo espacial de regress˜ao ultipla ser´a composto por (dn + 1) parˆametros
do tipo escalar e 1 parˆametro dado por uma matriz (d × d). Eles p odem ser listados
35
da seguinte maneira: β
1
, β
2
, . . . , β
n
, σ
2
e W onde β
i
´e um vetor de ordem d incluindo d
coeficientes de regress˜ao para a regi˜ao i e W ´e a matriz mencionada. Esta listagem ´e
composta por (n + 2) elementos.
O primeiro esquema, denotado por Esquema 1, amostra cada parˆametro separada-
mente. Desta forma o conjunto de (n + 2) parˆametros ´e dividido em (n + 2) blo-
cos. O segundo esquema, denotado por Esquema 2, ir´a realizar a amostragem con-
junta de θ
1
, θ
2
, . . . , θ
n
no modelo espacial simples e de β
1
, β
2
, . . . , β
n
no modelo espacial
de regress˜ao. Os hiperparˆametros continuam a ser tratados separadamente. Com esta
defini¸ao formam-se 3 blocos englobando os parˆametros do modelo. O terceiro e ´ultimo
esquema a ser proposto, denotado por Esquema 3, realiza a amostragem conjunta de
todos os parˆametros do modelo formando um bloco ´unico.
Este cap´ıtulo adota a seguinte organiza¸ao: A Se¸ao 4.1 apresenta descri¸oes de
algoritmos MCMC utilizados pelos esquemas propostos. A Se ¸ao 4.2 determinar´a as
distribui¸oes condicionais completas a posteriori que ser˜ao necess´arias para a aplica¸ao
destes algoritmos considerando o modelo espacial simples. A Se¸ao 4.3 determina as dis-
tribui¸oes condicionais completas a posteriori considerando o modelo espacial de regress˜ao
m´ultipla. A Se¸ao 4.4 descrever´a os trˆes esquemas de amostragem mostrando cada passo
do procedimento para gerar uma amostra a posteriori. O cap´ıtulo ´e encerrado na Se¸ao
4.5 com as conclus˜oes e considera¸oes finais.
4.1 Algoritmos MCMC
Antes de proce der com o detalhamento dos esquemas de amostragem para os modelos
espaciais ´e necess´ario descrever os algoritmos envolvidos. Conforme mencionado a amos-
tragem direta da distribui¸ao a posteriori conjunta dos parˆametros do modelo ´e invi´avel.
Os algoritmos MCMC descritos nesta se¸ao ao necess´arios para desempenhar tal tarefa.
Ser˜ao desenvolvidas aplica¸oes para os algoritmos Gibbs Sampling e Metropolis-Hastings.
Neste trabalho o algoritmo Metropolis-Hastings ser´a aplicado como um passo dentro do
Gibbs Sampling permitindo a amostragem conjunta a posteriori dos hiperparˆametros.
36
4.1.1 O amostrador de Gibbs
Esta subse¸ao objetiva apresentar o algoritmo Gibbs Sampling que ser´a utilizado pelos
esquemas de amostragem descritos adiante. O Gibbs Sampling foi a primeira classe larga-
mente empregada de esquemas para simula¸ao estoastica usando cadeias de Markov.
Este algoritmo tem origem no contexto de proces samento de imagem e foi discutido pela
primeira vez na ´area de estat´ıstica por Geman e Geman (1984). Entretanto Gelfand e
Smith (1990) foram os autores que obtiveram sucesso em mostrar para a comunidade es-
tat´ıstica que o esquema de amostragem desenvolvido por Geman e Geman (1984) poderia
ser usado, em muitos casos, para amostrar da distribui¸ao a posteriori.
O Gibbs Sampling ´e um esquema MCMC usado para obter uma amostra da dis-
tribui¸ao de interesse π(α), onde α = (α
1
, α
2
, ..., α
d
)
, quando a amostragem direta desta
distribui¸ao ´e complicada ou imposs´ıvel. Este esquema ´e baseado em gera¸oes sucessivas
a partir de distribui¸oes condicionais completas. Portanto, uma suposi¸ao importante
para a aplica¸ao do Gibbs Sampling diz respeito `as distribui¸oes condicionais completas
representadas por π
i
(α
i
) = π(α
i
| α
i
) onde i = 1, ..., d e α
i
= (α
1
, ..., α
i1
, α
i+1
, ..., α
d
)
.
´
E necess´ario que estas distribui¸oes sejam conhecidas e que se saiba amostrar delas.
O algoritmo pode ser descrito da seguinte forma:
1. Inicializar o contador de itera¸oes para formar a cadeia (j = 1) e escolher os valores
iniciais α
(0)
= (α
(0)
1
, ..., α
(0)
d
)
;
2. Obter o novo valor α
(j)
= (α
(j)
1
, ..., α
(j)
d
)
a partir de gera¸oes sucessivas considerando
as distribui¸oes condicionais completas:
α
(j)
1
π(α
1
| α
(j1)
2
, ..., α
(j1)
d
),
α
(j)
2
π(α
2
| α
(j)
1
, α
(j1)
3
, ..., α
(j1)
d
),
.
.
.
α
(j)
d
π(α
d
| α
(j)
1
, ..., α
(j)
d1
);
3. Alterar o contador j para j + 1 e retornar ao passo 2 at´e obter-se a amostra de
tamanho desejado.
37
Conforme o n´umero de itera¸oes aumenta a cadeia aproxima-se de sua condi¸ao de
equil´ıbrio. Ap´os uma certa quantidade de itera¸oes considera-se que a cadeia convergiu
e desta forma o valor α
(j)
ser´a tratado como uma observao gerada da distribui¸ao de
interesse π.
Uma amostra de tamanho n pode ser formada pela sele¸ao sucessiva de n valores da
cadeia. Para isto ´e necess´ario realizar m + n itera¸oes sendo as m primeiras referen-
tes ao per´ıodo em que a cadeia ainda ao convergiu. Na verdade esta amostra gerada
ao ´e exatamente aleat´oria. A independˆencia dos elementos ao ´e garantida devido `a
dependˆencia existente entre os valores da cadeia. Na pr´atica, existir˜ao problemas se a
autocorrela¸ao da cadeia for muito alta. Uma amostra extra´ıda de uma cadeia muito au-
tocorrelacionada ao ser´a significativa, ou seja, mesmo que a amostra seja composta por
muito elementos a informa¸ao que ela carrega corresponder´a `a de uma amostra pequena.
Consequentemente as es timativas obtidas com base neste conjunto de dados podem ser
ruins. Este aspecto ser´a discutido mais adiante quando forem apresentadas estat´ısticas
que resumem o n´ıvel de autocorrela¸ao das cadeias.
4.1.2 Algoritmo Metropolis-Hastings
O algoritmo Metropolis-Hastings ´e um poderoso etodo MCMC para simular dis-
tribui¸oes de probabilidade complexas. Nos ´ultimos tempos boa parte da aten¸ao da
comunidade estat´ıstica interessada em utilizar a estat´ıstica Bayesiana tem se voltado
para este algoritmo, o qual foi desenvolvido por Metropolis, Rosenbluth, Rosenbluth,
Teller e Teller (1953) e posteriormente generalizado por Hastings(1970). O artigo origi-
nal de Metropolis et al. (1953) foi publicado para a ´area de f´ısica e qu´ımica, entretanto,
mostrou-se bastante ´util para a simula¸ao em estat´ıstica.
Considere uma distribui¸ao π da qual deseja-se amostrar. Um m´etodo MCMC deve
ser empregado para realizar esta tarefa caso a gera¸ao de valores da distribui¸ao π ´e cara
ou complicada. Seja q(x, y) uma fun¸ao densidade a partir da qual os valores gerados
ser˜ao candidatos a serem provenientes ou ao de π. Quando um processo est´a no ponto
x, o valor y ´e gerado de q(x, y). Um n´ucleo de transi¸ao p(x, y) precisa ser constru´ıdo de
forma que π seja a distribui¸ao de equil´ıbrio para a cadeia obtida. Um caminho simples
38
a ser tomado ´e buscar estabelecer a seguinte condi¸ao de reversibilidade:
π(x)p(x, y) = π(y)p(y, x).
Para maiores detalhes a respeito desta condi¸ao ver Gamerman e Lopes (2006). Se a
proposta q(x, y) atender `a condi¸ao de reversibilidade, ou seja,
π(x)q(x, y) = π(y)q(y, x),
a busca estar´a terminada sendo p(x, y) = q (x, y) o n´ucleo de transi¸ao que estabelece π
como a distribui¸ao de equil´ıbrio da cadeia. Entretanto, o mais prov´avel ´e que isto ao
ocorra. Por exemplo pode-se obter para um par (x, y) o seguinte resultado:
π(x)q(x, y) > π(y)q(y, x). (4.1)
Neste caso o processo se move de x para y frequentemente e de y para x raramente.
Uma maneira de corrigir esta situa¸ao ´e reduzir a frequˆencia de movimentos de x para
y introduzindo uma probabilidade α(x, y) < 1 de que um movimento deste tipo ocorra.
Portanto, uma proposta para o n´ucleo de transi¸ao ser´a:
p(x, y) = q(x, y)α(x, y),
onde x = y e α(x, y) ainda precisa ser determinada.
Considere novamente o exemplo (4.1). Essa desigualdade nos diz que um movimento
de y para x ao ´e fe ito de forma frequente o bastante. Deve-se definir para α(y, x)
um valor grande o suficie nte, respeitando o limite 1 pois α(y, x) ´e uma probabilidade.
Continuando o racioc´ınio, p(x, y) dever´a satisfazer a condi¸ao de reversibilidade, enao:
π(x)q(x, y)α(x, y) = π(y)q(y, x )α(y, x). (4.2)
Assuma que α(y, x) = 1 conforme foi discutido. Desta forma a condi¸ao (4.2) ap´os
isolar α(x, y), pode ser reescrita da seguinte maneira:
α(x, y) =
π(y)q(y, x )
π(x)q(x, y)
.
39
Para um exemplo onde a desigualdade presente em (4.1) ´e revertida basta assumir
α(x, y) = 1 e isolar α(y, x). As probabilidades α(x, y) e α(y, x) ao introduzidas para
assegurar que os dois lados da desigualdade em (4.1) estejam balanceados garantindo que
p(x, y) = q(x, y)α(x, y) satisfa¸ca a reversibilidade.
A express˜ao para a probabilidade de movimento ser´a dada por:
α(x, y) = min
1,
π(y)q(y, x )
π(x)q(x, y)
. (4.3)
Os passos do algoritmo Metropolis-Hastings iniciando com uma semente arbitr´aria
x
(0)
ao:
1. Inicializar o contador de itera¸oes: j = 1.
2. Gerar y de q(x
(j1)
, ·) e u da distribui¸ao Uniforme(0,1).
3. Se u α(x
(j1)
, y) assuma x
(j)
= y, caso contr´ario permane¸ca no mesmo estado
x
(j)
= x
(j1)
.
4. Alterar o contador de j para j + 1 e retornar ao passo 2 at´e obter a amostra de
tamanho desejado.
Assim como em qualquer etodo MCMC, as sele¸oes ao consideradas uma amostra
da densidade alvo π(·) apenas quando a cadeia atinge a convergˆencia ap´os ter superado
um est´agio de transi¸ao.
Esta explica¸ao do algoritmo Metropolis-Hastings considera a atualiza¸ao em um
bloco ´unico da quantidade de interesse x = (x
1
, ..., x
d
). Entretanto os componentes
x
1
, ..., x
d
podem ser analisados separadamente. Cada um dos n´ucleos de transi¸ao p
i
ser´a estabelecido pelo seu gerador de propostas q
i
e uma probabilidade de aceita¸ao α
i
.
Denote por π
i
a densidade condicional completa para x
i
. A probabilidade de aceita¸ao
ser´a dada por:
α
i
(x
i
, y
i
) = min
1,
π
i
(y
i
)q
i
(y
i
, x
i
)
π
i
(x
i
)q
i
(x
i
, y
i
)
. (4.4)
Cada n´ucleo de transi¸ao p
i
estabelece uma cadeia cuja distribui¸ao de equil´ıbrio ´e
a condicional completa π
i
. Esta possibilidade de an´alise individual das componentes,
40
aplicando o Metropolis-Hastings em cada uma, permite estabelecer uma combina¸ao
dos algoritmos Gibbs Sampling e Metropolis-Hastings conhecida como passo Metropolis-
Hastings dentro do Gibbs Sampling. A seguir uma breve descri¸ao desta combina¸ao ser´a
apresentada.
Amostrador deGibbs com passos do algoritmo Metropolis-Hastings
No algoritmo Metropolis-Hastings ´e natural que ao seja poss´ıvel encontrar um n´ucleo
gerador de propostas q que aproxime π(·) sem erro. Entretanto, mesmo que π(·) apre-
sente uma forma complicada que impede a amostragem direta, algumas das distribui¸oes
condicionais completas π
i
ao aceis de amostrar. Sendo assim, a escolha conveniente
para o n´ucleo de gera¸ao de propostas destas condicionais completas ser´a q
i
= π
i
, ou
seja, o valor proposto ´e gerado de q
i
= π
i
e aceito com probabilidade 1. Isto caracteriza
um passo do algoritmo Gibbs Sampling. Para as distribui¸oes π
i
de onde ao se sabe
amostrar diretamente, o procedimento de teste do Metropolis-Hastings, para aceita¸ao
ou rejei¸ao da proposta, segue conforme est´a estabelecido em (4.4).
Esta proposta foi desenvolvida por uller(1991) que estabeleceu um umero T de
itera¸oes at´e que a convergˆencia para a distribui¸ao π
i
ocorresse. Entretanto a constru¸ao
de uma subcadeia ao ´e necess´aria. O caso T = 1 ´e suficiente para o funcionamento do
algoritmo. Para maiores detalhes a este respeito ver Gamerman e Lopes (2006).
As duas pr´oximas se¸oes apresentar˜ao as distribui¸oes a posteriori condicionais com-
pletas para atualiza¸ao dos parˆametros dos modelos espaciais. Estas distribui¸oes ao de
grande importˆancia para a aplica¸ao do etodo Gibbs Sampling. Os trˆes esquemas de
amostragem propostos neste cap´ıtulo utilizam o Gibbs Sampling e, consequentemente, as
distribui¸oes apresentadas aqui. Em primeiro lugar ser˜ao apresentadas as condicionais
completas a posteriori do modelo espacial simples, em seguida do modelo espacial de
regress˜ao m´ultipla.
41
4.2 Condicionais completas a posteriori para o mo-
delo espacial simples
As distribui¸oes condicionais completas ser˜ao definidas para os parˆametros θ
1
, . . . , θ
n
,
para o vetor θ e para os hiperparˆametros σ
2
e W . As duas abordagens definidas no
Cap´ıtulo 2, onde uma distribui¸ao a priori pr´opria e outra impr´opria ao especificadas
para θ
1
, ser˜ao consideradas visto que influenciam na especifica¸ao condicional completa
a posteriori deste parˆametro.
4.2.1 Condicional completa a posteriori para θ
i
A partir de agora o procedimento para gerar cada componente do vetor θ ser´a des-
crito. A estrutura de um espa¸co aleat´orio markoviano determina a dependˆencia de um
estado qualquer em rela¸ao a seus vizinhos. Sendo assim assuma a nota¸ao a utilizada
anteriormente δ
i
= {j : j i}.
Considere a seguinte aplica¸ao do Teorema de Bayes:
p(θ
i
| θ
i
, σ
2
, W, y) p(y
i
| θ
i
, σ
2
) p(θ
i
| θ
δ
i
, σ
2
, W ). (4.5)
O seguinte resultado foi mostrado na Se¸ao 2.4 para a distribui¸ao a priori indicada
em (4.5):
(θ
1
| θ
δ
1
, σ
2
, W ) N
Z
1+
¯
θ
δ
1
R
RZ
1+
+ W
,
W R
RZ
1+
+ W
, (4.6)
(θ
i
| θ
δ
i
, σ
2
, W ) N
¯
θ
δ
i
,
W
Z
i+
,
onde
¯
θ
δ
i
= (1/Z
i+
)
n
j=1
Z
ij
θ
j
e Z
i+
=
n
j=1
Z
ij
, para i = 2, ..., n.
Iniciando pelo parˆametro θ
1
´e preciso estar atento `a especifica¸ao a priori θ
1
N(a, R). Se for definida uma distribui¸ao Normal pr´opria a gera¸ao de um valor deste
parˆametro a posteriori ter´a um tratamento diferenciado.
42
Condicional completa a posteriori para θ
1
com priori pr´opria
A fun¸ao de verossimilhan¸ca indicada na express˜ao (4.5), considerando i = 1, pode
ser substitu´ıda pela densidade da N(θ
1
, σ
2
). Este resultado ´e baseado na equa¸ao (2.1).
A distribui¸ao a priori condicional completa para θ
1
est´a dada em (4.6). A seguinte
condicional completa a posteriori p ode ser expressa:
p(θ
1
| θ
1
, σ
2
, W, y)
2πσ
2
1
2
exp
1
2σ
2
(y
1
θ
1
)
2
×(2πV
)
1
2
exp
1
2V
(θ
1
M
)
2
,
onde V
=
W R
RZ
1+
+W
e M
= Z
1+
¯
θ
δ
1
R
RZ
1+
+W
A partir deste ponto ´e poss´ıvel chegar ao seguinte n´ucleo da distribui¸ao Normal:
p(θ
1
| θ
1
, σ
2
, W, y) exp
1
2
V
+ σ
2
σ
2
V
θ
1
y
1
V
+ σ
2
M
V
+ σ
2

2
. (4.7)
Portanto, θ
1
dever´a ser gerado da distribui¸ao N
y
1
V
+σ
2
M
V
+σ
2
,
σ
2
V
V
+σ
2
onde V
e M
foram
especificados a pouco. θ
1
foi analisado em primeiro lugar uma vez que este ´e o ´unico com-
ponente do vetor θ cuja distribui¸ao a posteriori condicional completa depende da esp eci-
fica¸ao R. As distribui¸oes condicionais completas a posteriori para θ
i
, i = 2, 3, . . . , n e
assumindo uma especifica¸ao a priori pr´opria para θ
1
, ao iguais `as distribui¸oes condi-
cionais completas a posteriori apresentadas a seguir onde ´e considerada uma especifica¸ao
a priori impr´opria para θ
1
.
Condicional completa a posteriori para θ
i
com priori impr´opria para θ
1
Quando ´e determinada uma especifica¸ao a priori impr´opria para θ
1
a atualiza¸ao a
posteriori de todos os componentes de θ, incluindo θ
1
, ser´a conforme definido aqui. Para
i = 1, 2, 3, . . . , n, considere o resultado apresentado em (4.6) definido para (θ
i
| θ
δ
i
, σ
2
, W ).
Seguindo os mesmos procedimentos adotados na determina¸ao da condicional completa
a posteriori (4.7) conclui-se:
p(θ
i
| θ
i
, σ
2
, W, y) exp
1
2
W + σ
2
Z
i+
σ
2
W
θ
i
y
i
W + σ
2
Z
i+
¯
θ
δ
i
W + σ
2
Z
i+
2
. (4.8)
43
A express˜ao (4.8) ´e igual ao n´ucleo da densidade N
y
i
W +σ
2
Z
i+
¯
θ
δ
i
W +σ
2
Z
i+
,
σ
2
W
W +σ
2
Z
i+
.
´
E desta
distribui¸ao que ser´a gerado o parˆametro θ
i
para i = 1, 2, . . . , n. Perceba que a esp eran¸ca
e a variˆancia desta distribui¸ao ao dependem de R devido a especifica¸ao impr´opria que
considera R um valor infinito.
A pr´oxima subse¸ao mostrar´a a distribui¸ao a posteriori condicional completa con-
junta dos θ
i
’s. Dois dos esquemas de amostragem prop ostos utilizar˜ao esta distribui¸ao
para atualizar o vetor θ.
4.2.2 Condicional completa a posteriori para θ
Os esquemas que ser˜ao propostos diferenciam-se na maneira em que formam blocos
com os parˆametros do modelo objetivando amostrar. Os comp onentes do vetor θ poder˜ao
ser amostrados individualmente, usando as condicionais completas apresentadas na se¸ao
anterior, ou conjuntamente, usando a condicional completa definida nesta se¸ao. Con-
sidere a seguinte fatora¸ao para a densidade conjunta a posteriori:
p(θ, σ
2
, W | y) = p(θ | σ
2
, W, y) p(σ
2
, W | y).
Mais uma vez ´e preciso diferenciar os casos determinados pela escolha da especifica¸ao
a priori para θ
1
.
Condicional completa a posteriori para θ com priori pr´opria
A de nsidade de interesse, p(θ | σ
2
, W, y), ser´a constru´ıda com a incorpora¸ao dos
termos presentes em (2.18) que dependem de θ. Fazendo isto o seguinte resultado ser´a
obtido:
p(θ | σ
2
, W, y) exp
1
2σ
2
(y θ)
(y θ)
exp
1
2
θ
1
W
K
θ + R
1
θ
2
1

. (4.9)
Considere a nota¸ao definida em (2.20), Cap´ıtulo 2, para a matriz K
. Ela permite
reescrever (4.9) da seguinte forma:
p(θ | σ
2
, W, y) exp
1
2σ
2
(y θ)
(y θ)
exp
1
2
θ
K
θ
. (4.10)
44
Procedendo com alculos matriciais, eliminando-se componentes que ao dependem
de θ, a express˜ao (4.10) pode ser trabalhada at´e que se obtenha:
p(θ | σ
2
, W, y) exp
1
2σ
2
(θ µ)
Σ
1
(θ µ)
. (4.11)
onde µ = (σ
2
K
+ I
n
)
1
y e Σ = (σ
2
K
+ I
n
)
1
. Este ´e o n´ucleo da distribui¸ao Normal
Multivariada com vetor de m´edia µ e matriz de covariˆancias σ
2
Σ.
Condicional completa a posteriori para θ com priori impr´opria
Para a especifica¸ao a priori θ
1
N(0, R) impr´opria a densidade de interesse, p(θ |
σ
2
, W, y), ser´a constru´ıda com a incorpora¸ao dos termos presentes em (2.19) que depen-
dem de θ. Fazendo isto o seguinte resultado pode ser alcan¸cado:
p(θ | σ
2
, W, y) exp
1
2σ
2
(y θ)
(y θ)
exp
1
2W
θ
Kθ
. (4.12)
Desenvolvendo alculos matriciais, eliminando-se componentes que ao dependem de
θ, a partir de (4.12) pode se obter a express˜ao:
p(θ | σ
2
, W, y) exp
1
2σ
2
(θ µ)
Σ
1
(θ µ)
. (4.13)
onde µ =
σ
2
W
K + I
n
1
y e Σ =
σ
2
W
K + I
n
1
. Este ´e o n´ucleo da distribui¸ao Nor-
mal Multivariada com vetor de m´edia µ e matriz de covariˆancias σ
2
Σ. Os parˆametros
θ
1
, . . . , θ
n
podem ser gerados conjuntamente a partir desta distribui¸ao. A pr´oxima
subse¸ao ir´a tratar das distribui¸oes para atualiza¸ao dos hiperparˆametros do modelo
espacial simples.
4.2.3 Condicional completa a posteriori para σ
2
e W
A atualiza¸ao dos hiperparˆametros ao sofre influˆencia da especifica¸ao a priori para
θ
1
. Come¸cando pela determina¸ao da distribui¸ao condicional completa a posteriori para
σ
2
considere a fatora¸ao:
p(θ, σ
2
, W | y) = p(σ
2
| θ, W, y) p(θ, W | y).
45
A densidade de interesse ´e p(σ
2
| θ, W, y) e pode ser facilmente constru´ıda a partir
de (2.19) levando em conta apenas os termos que dependem de σ
2
. A seguinte express˜ao
pode ser obtida:
p(σ
2
| θ, W, y)
σ
2
(
n
2
+n
v
+1
)
exp
1
2σ
2
[(y θ)
(y θ) + 2S
v
n
v
]
. (4.14)
Este ´e o n´ucleo da distribui¸ao GI
n
2
+ n
v
,
(yθ)
(yθ)
2
+ S
v
n
v
. A atualiza¸ao para σ
2
´e
realizada a partir desta distribui¸ao.
Para o caso do hiperparˆametro W , a determina¸ao da distribui¸ao a posteriori para
atualiza¸ao segue o mesmo racioc´ınio. A distribui¸ao de interesse p(W | θ, σ
2
, y) ser´a
dada por:
p(W | θ, σ
2
, y) (W )
(
n1
2
+n
w
+1
)
exp
1
2W
[θ
Kθ + 2S
w
n
w
]
. (4.15)
Este ´e o n´ucleo da distribui¸ao GI
n1
2
+ n
w
,
θ
Kθ
2
+ S
w
n
w
. Atualiza¸oes para o hiper-
parˆametro W ao baseadas nesta distribui¸ao.
Encerra-se neste ponto a determina¸ao das distribui¸oes condicionais completas a
posteriori para o modelo espacial simples. Estas distribui¸oes ser˜ao utilizadas pelos
m´etodos MCMC para gerar amostras da distribui¸ao a posteriori conjunta de θ
1
, . . . , θ
n
,
σ
2
e W . O caso do modelo espacial de regress˜ao m´ultipla ainda precisa ser definido. A
pr´oxima se¸ao ir´a dese nvolver esta apresenta¸ao.
4.3 Condicionais completas a posteriori para o mo-
delo espacial de regress˜ao m´ultipla
Todos os alculos utilizados na determina¸ao das distribui¸oes para atualiza¸ao dos
parˆametros do modelo es pacial simples ser˜ao empregados nesta se¸ao para o modelo
espacial de regress˜ao m ´ultipla. Primeiramente, as condicionais completas a posteriori
ser˜ao determinadas para β
i
, i = 1, . . . , n. Em seguida para β e finalizando com as
condicionais completas para os hiperparˆametros.
46
4.3.1 Condicional completa a posteriori para β
i
Antes de iniciar os alculos da distribui¸ao a posteriori condicional completa ´e im-
portante lembrar que para o modelo espacial de regress˜ao m´ultipla apenas a abordagem
considerando uma distribui¸ao a priori impr´opria para (β | σ
2
, W ) ser´a trabalhada. Para
atualizar cada vetor de coeficientes β
i
usando sua distribui¸ao a posteriori condicional
completa considere a seguinte aplica¸ao do Teorema de Bayes:
p(β
i
| β
i
, σ
2
, W, y) p(y
i
| β
i
, σ
2
) p(β
i
| β
δ
i
, W )
A equa¸ao (3.1), indicada no cap´ıtulo anterior, determina que o termo referente a
fun¸ao de verossimilhan¸ca ´e dado pela densidade da distribui¸ao N(β
i
X
i
, σ
2
). A dis-
tribui¸ao a priori condicional completa para β
i
foi especificada em (3.14) no cap´ıtulo
anterior. Estas informa¸oes a respeito da verossimilhan¸ca e da distribui¸ao a priori, ap´os
alguns alculos e elimina¸ao de valores que ao dependem de β
i
, permitem escrever:
p(β
i
| β
i
, σ
2
, W, y) exp{−
1
2
(β
i
V M)
V
1
(β
i
V M)}, (4.16)
onde V
1
=
1
σ
2
X
i
X
i
+ Z
i+
W
1
e M =
y
i
σ
2
X
i
+ Z
i+
W
1
¯
β
δ
i
. Esta express˜ao representa
o n´ucleo da distribui¸ao N
d
(V M, V ) que ser´a usada para atualizar o parˆametro β
i
. A
seguir ser´a apresentada a condicional completa a posteriori para atualizar o vetor β.
4.3.2 Condicional completa a posteriori para β
A estrat´egia para calcular esta condicional completa ser´a em primeiro lugar fatorar a
distribui¸ao a posteriori conjunta indicada em (3.12).
p(β, σ
2
, W | y) p(β | σ
2
, W, y) p(σ
2
, W | y)
A distribui¸ao de interesse ´e p(β | σ
2
, W ) e poder´a ser obtida com a incorpora¸ao dos
elementos contidos em p(β, σ
2
, W | y) que dependem de β. Fazendo isto e desempenhando
algumas contas, o seguinte resultado pode ser informado:
p(β | σ
2
, W, y) exp
1
2
(β Σµ)
Σ
1
(β Σµ)
, (4.17)
47
onde Σ =
1
σ
2
X
X + (K W
1
)
1
e µ =
1
σ
2
X
y. Note que a express˜ao determinada
em (4.17) ´e o n´ucleo da distribui¸ao N
dn
µ, Σ).
´
E desta distribui¸ao que ser˜ao gerados
em conjunto todos os coe ficiente de regress˜ao que fazem parte da modelagem. A seguir
apresenta-se a distribui¸ao para atualiza¸ao dos hiperparˆametros.
4.3.3 Condicional completa a posteriori para σ
2
e W
Primeiramente ser´a descrito o procedimento para atualiza¸ao do hiperparˆametro σ
2
que no modelo espacial de regress˜ao m´ultipla ´e um escalar. A fatora¸ao da distribui¸ao
a posteriori conjunta (3.12) pode ser feita conforme est´a apresentado a seguir:
p(β, σ
2
, W | y) = p(σ
2
| β, W, y) p(β, W | y).
As vari´aveis explicativas precisam ser expressas usando uma nota¸ao matricial para
permitir sua adapta¸ao ao modelo. Conforme ser´a visto mais adiante a nota¸ao adotada
permitir´a o manuseio dos alculos de forma a obter um n´ucleo conhecido de densidade de
probabilidade. Adote a matriz X de ordem (n × dn) denotada por diag(X
1
, X
2
, ..., X
n
).
Esta ´e uma nota¸ao mais simplificada, para que fique mais claro o tipo de matriz utilizado
considere o exemplo a seguir onde ao consideradas d = 3 vari´aveis explicativas.
X =
1 x
1,1
x
2,1
0 0 0 . . . 0 0 0
0 0 0 1 x
1,2
x
2,2
. . . 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 0 . . . 1 x
1,n
x
2,n
.
A distribui¸ao de interesse ´e p(σ
2
| β, W, y) que poder´a ser constru´ıda a partir da
conjunta incorporando-se os termos dependentes de σ
2
. Pro cedendo desta maneira e
considerando a nota¸ao X para as vari´aveis explicativas, a densidade obtida ser´a:
p(σ
2
| β, W, y)
σ
2
n+2n
v
+2
2
exp
1
σ
2
y
y 2y
Xβ + β
X
Xβ + 2S
v
n
v
2

. (4.18)
Note que a express˜ao (4.18), para (σ
2
| β, W, y), ´e o n´ucleo da densidade referente a dis-
48
tribui¸ao GI
n
2
+ n
v
,
y
y2y
Xβ+β
X
Xβ+2S
v
n
v
2
. Atualiza¸oes para σ
2
ser˜ao feitas a partir
desta condicional completa a posteriori.
Agora dever´a ser tratado o procedimento de atualiza¸ao do hiperparˆametro W que
neste modelo espacial ´e uma matriz quadrada de ordem d. Em primeiro lugar considere
a fatora¸ao da distribui¸ao a posteriori conjunta:
p(β, σ
2
, W | y) = p(W | β, σ
2
, y) p(β, σ
2
| y)
A distribui¸ao de interesse neste caso ´e p(W | β, σ
2
, y) e ser´a constru´ıda a partir da
conjunta pela incorpora¸ao dos termos envolvendo W . Este procedimento leva a obten¸ao
da seguinte express˜ao:
p(W | β, σ
2
, y) |W |
n+2n
w
+d
2
exp
1
2
β
(K W
1
)β
exp
tr
S
w
n
w
W
1

(4.19)
Note que este resultado ainda precisa ser trabalhado para que se reconhe¸ca uma
distribui¸ao de probabilidade. Novamente ser´a necess´ario definir uma nova nota¸ao.
Desta vez ser´a relacionada aos coeficientes de regress˜ao. Considere a seguinte matriz B,
de ordem (n × d), englobando todos os coeficientes de regress˜ao deste modelo:
B =
β
0,1
β
1,1
. . . β
d1,1
β
0,2
β
1,2
. . . β
d1,2
β
0,3
β
1,3
. . . β
d1,3
.
.
.
.
.
.
.
.
.
β
0,n
β
1,n
. . . β
d1,n
.
Perceba que cada linha des ta matriz cont´em os d coeficientes de regress˜ao referentes
a cada observao y
i
do conjunto de dados. Na j-´esima coluna encontram-se todos os
coeficientes β
j1
, para j = 1, . . . , d. β ´e a vetoriza¸ao em coluna da matriz B.
Usando esta nota¸ao para os coeficientes ´e poss´ıvel estabelecer a correspondˆencia
β
(K W
1
)β = tr[(B
KB)W
1
]. Sendo assim a express˜ao (4.19) pode ser reescrita da
seguinte forma:
p(W | β, σ
2
, y) |W |
n+2n
w
+d
2
exp
tr
[(B
KB) + 2S
w
n
w
] W
1
2

. (4.20)
49
Aqui est´a representado o n´ucleo da fun¸ao densidade relacionada `a distribui¸ao Wishart
Inversa com parˆametro
(B
KB)+2S
w
n
w
2
e
n1
2
+ n
w
graus de liberdade. Atualiza¸oes para o
hiperparˆametro W ser˜ao obtidas a partir desta condicional completa a posteriori.
Aqui ´e enc errada a obten¸ao das distribui¸oes condicionais completas a posteriori
para parˆametros do modelo espacial de regress˜ao ultipla. Os esquemas de amostragens
ser˜ao descritos com detalhes na pr´oxima se¸ao. Eles aplicam o algoritmo Gibbs Sampling
e, consequentemente, ir˜ao fazer uso das distribui¸oes definidas nas ´ultimas se¸oes.
4.4 Descri¸ao dos esquemas de amostragem
Algumas caracter´ısticas asicas dos esquemas de amostragem propostos aqui, rela-
cionadas ao agrupamento em blocos, a foram mencionadas na introdu¸ao deste cap´ıtulo.
O agrupamento dos parˆametros do modelo formando blocos para amostragem em con-
junto ´e a principal diferen¸ca entre as trˆes propostas. Em trabalhos desempenhando
aplica¸oes de m´etodos MCMC geralmente conclui-se que a blocagem dos parˆametros ´e
fator que beneficia os resultados.
´
E importante ressaltar que diversas ao as possibilidades dispon´ıveis para se amostrar
da distribui¸ao a posteriori conjunta. Tes delas ser˜ao estudadas nesta se¸ao. Para que a
apresenta¸ao dos esquemas seja mais geral, permitindo abordar os dois modelos espaciais
estudados, neste trabalho considere a seguinte nota¸ao alida para as pr´oximas trˆes
subse¸oes:
i
= θ
i
e = θ quando o modelo espacial simples for considerado.
i
= β
i
e
= β quando se tratar do modelo espacial com componentes de regress˜ao m´ultipla. A
nota¸ao dos hiperparˆametros ´e a mesma para os dois modelos, portanto ser´a mantida.
4.4.1 Esquema 1
Este esquema amostra os parˆametros
1
, . . . ,
n
, σ
2
e W separadamente. O algoritmo
Gibbs Sampling ser´a aplicado neste caso onde ´e necess´ario realizar amostragens sucessivas
a partir de distribui¸oes condicionais completas.
O primeiro passo requer que as especifica¸oes a priori para os hiperparˆametros e para
50
1
sejam informadas. No modelo espacial simples ao duas distribui¸oes Gama Inversa
e uma Normal univariada respectivamente. Para o modelo espacial de regress˜ao ser˜ao
Gama Inversa, Wishart Inversa e Normal trivariada. Para maiores detalhes consultar os
Cap´ıtulos 2 e 3.
O segundo passo diz respeito a determina¸ao de sementes ou valores iniciais para os
hiperparˆametros (nota¸ao: σ
2
(0)
e W
(0)
) e para cada componente do vetor (nota¸ao:
(0)
1
, . . . ,
(0)
n
).
Especifica¸oes iniciais estabelecidas, o Esquema 1 seguir´a a seguinte sequˆencia de
procedimentos para amostrar:
1. fa¸ca o ´ındice j igual a 1.
2. Amostrar:
(j)
1
p(Ω
(j)
1
|
(j1)
2
,
(j1)
3
, . . . ,
(j1)
n
, σ
2
(j1)
, W
(j1)
, y),
(j)
2
p(Ω
(j)
2
|
(j)
1
,
(j1)
3
, . . . ,
(j1)
n
, σ
2
(j1)
, W
(j1)
, y),
.
.
.
(j)
i
p(Ω
(j)
i
|
(j)
1
, . . . ,
(j)
i1
,
(j1)
i+1
, . . . ,
(j1)
n
, σ
2
(j1)
, W
(j1)
, y),
.
.
.
(j)
n
p(Ω
(j)
n
|
(j)
1
,
(j)
2
, . . . ,
(j)
n1
, σ
2
(j1)
, W
(j1)
, y),
σ
2
(j)
p(σ
2
(j)
|
(j)
1
, . . . ,
(j)
n
, y),
W
(j)
p(W
(j)
|
(j)
1
, . . . ,
(j)
n
, y),
3. mudar o ´ındice j para j + 1 e retornar ao item 2 por um n´umero pr´e-definido de
itera¸oes.
As distribui¸oes a posteriori condicionais completas indicadas em cada passo do algo-
ritmo est˜ao registradas neste cap´ıtulo nas Se¸oes 4.2 e 4.3.
´
E importante lembrar que no
caso do modelo espacial simples as abordagens considerado distribui¸oes a priori pr´opria
e impr´opria determinam uma diferen¸ca na distribui¸ao a posteriori condicional completa
usada para amostrar
1
, que neste caso representa θ
1
.
51
Na modelagem dos dois modelos espaciais foi assumida uma independˆencia a priori
entre os hiperparˆametros. Note pelas Se¸oes 4.2 e 4.3 que esta independˆencia tamb´em
´e observada a posteriori. A distribui¸ao a posteriori condicional completa determinada
para σ
2
ao ´e indexada p or express˜ao contendo W , o mesmo pode ser dito a respeito das
distribui¸oes a posteriori para W com rela¸ao a σ
2
. Portanto, p(σ
2
| , W, y) = p(σ
2
|
, y) e p(W | , σ
2
, y) = p(W | , y).
Aqui ser´a finalizada a especifica¸ao do Esquema 1 que desempenha a amostragem de
cada parˆametro do modelo separadamente. A seguir ser˜ao detalhados os procedimentos
que definem a segunda proposta de esquema de amostragem denominada Esquema 2.
4.4.2 Esquema 2
Este esquema desempenha a amostragem conjunta dos parˆametros
1
, . . . ,
n
. Trˆes
blocos ao formados para amostragem: Ω, σ
2
e W . Este esquema ´e mais um caso de
aplica¸ao do algoritmo Gibbs Sampling. O vetor ser´a o primeiro a ser amostrado e desta
forma ao se faz necess´ario definir valores iniciais para cada um de seus componentes. Sua
condicional completa a posteriori ser´a usada, assim defini¸oes de sementes ao necess´arias
apenas para os hiperparˆametros: σ
2
(0)
e W
(0)
.
As distribui¸oes condicionais completas para p(Ω | σ
2
, W, Y ) est˜ao todas definidas nas
Se¸oes 4.2 e 4.3. Quando estiver sendo tratado o modelo espacial simples ´e importante
ressaltar o cuidado em rela¸ao ao tipo de distribui¸ao a priori adotado para
1
= θ
1
:
pr´opria ou impr´opria. A condicional completa p(Ω | σ
2
, W, Y ) ser´a influenciada por esta
decis˜ao, e isto foi detalhado na Se¸ao 4.2.
Os procedimentos do algoritmo de amostragem nomeado como Esquema 2 ao dados
pela seguinte sequˆencia:
1. fa¸ca o ´ındice j igual a 1.
2. Amostrar:
(j)
p(Ω
(j)
| σ
2
(j1)
, W
(j1)
, y),
σ
2
(j)
p(σ
2
(j)
|
(j)
, y),
52
W
(j)
p(W
(j)
|
(j)
, y),
3. mudar ´ındice j para j + 1 e retornar ao item 2 por um n ´umero pr´e-definido de
itera¸oes.
ao a altera¸ao no procedimento de atualiza¸ao dos hiperparˆametros em rela¸ao ao
que ´e feito no Esquema 1. Perceba que no passo 2 o primeiro requisito ser´a amostrar o
vetor a partir de uma distribui¸ao Normal Multivariada. De maneira geral para gerar
um valor da distribui¸ao N
d
(M, V ) primeiro ´e necess´ario desempenhar a decomposi¸ao
de Choleski, ou seja, determinar a matriz triangular inferior P tal que V = P
P . A raiz
quadrada da matriz de covariˆancias V ´e representada por P .
´
E necess´ario gerar uma
observao A da distribui¸ao N
d
(
0, I
d
), o que ´e uma tarefa extremamente acil. Basta
gerar d observoes independentes da distribui¸ao N(0, 1) e montar o vetor A com elas.
Um vetor aleat´orio pode ser gerado da distribui¸ao N
d
(M, V ) atrav´es do seguinte alculo:
M + (P A), para maiores detalhes ver Gamerman e Lopes (2006).
Encerrada aqui a descri¸ao do Esquema 2. A seguir a ´ultima proposta para amostrar
da distribui¸ao a posteriori conjunta ser´a apresentada. Este esquema de amostragem
ser´a nomeado por Esquema 3.
4.4.3 Esquema 3
Todos os parˆametros ao amostrados conjuntamente formando um bloco ´unico (Ω,
σ
2
, W ). A proposta apresentada aqui far´a uso dos dois m´etodos MCMC mencionados
na Se¸ao 4.1. Para que se possa explicar melhor o motivo disto considere a seguinte
fatora¸ao da distribui¸ao condicional completa a posteriori no caso geral (tanto para o
modelo espacial simples quanto para o modelo espacial de regress˜ao):
p(Ω, σ
2
, W | y) = p(Ω | σ
2
, W, y) p(σ
2
, W | y).
Os dois termos desta fatora¸ao resumem os dois principais passos a serem tomados
na aplica¸ao do Esquema 3: primeiro gerar os hiperparˆametros em conjunto a partir de
p(σ
2
, W | y) e em segundo lugar gerar o vetor de p(Ω | σ
2
, W, y). O segundo passo a
foi empregado no Esquema 2 descrito a pouco, o grande problema est´a ligado ao primeiro
53
passo. A seguir considere a determina¸ao da distribui¸ao a posteriori conjunta para os
hiperparˆametros. Os dois modelos espaciais ser˜ao abordados separadamente.
Determina¸ao de p(σ
2
, W | y) para o modelo espacial simples com priori
pr´opria
A determina¸ao da densidade a posteriori conjunta dos hiperparˆametros parte da
fatora¸ao indicada na introdu¸ao desta Subse¸ao 4.4.3. A densidade de interesse ser´a
constru´ıda a partir da express˜ao (2.18) determinada para p(θ, σ
2
, W | y). Eliminando
termos que dependem de θ e aplicando algumas contas o seguinte resultado pode ser
exibido:
p(σ
2
, W | y)
σ
2
(
n
2
+n
v
+1
)
exp
1
2σ
2
y
y µ
Σ
1
µ + 2S
v
n
v
(4.21)
×
K
+
1
σ
2
I
n
1
2
(W )
(
n1
2
+n
w
+1
)
exp
S
w
n
w
W
.
onde µ = Σy, Σ = (σ
2
K
+ I
n
)
1
e K
´e a matriz definida em (2.20).
Perceba que ao ´e poss´ıvel reconhecer uma distribui¸ao de probabilidade para p(σ
2
, W |
y). Amostrar da distribui¸ao referente a este n´ucleo de fun¸ao densidade ser´a poss´ıvel
com a aplica¸ao do algoritmo Metropolis-Hastings. Em seguida, ap´os gerar os hiper-
parˆametros, realiza-se a amostragem do vetor θ a partir de sua condicional completa a
posteriori cuja distribui¸ao ´e conhecida. Sendo assim o Esquema 3 ´e uma aplica¸ao do
Gibbs Sampling com passos dos Metropolis-Hastings.
Determina¸ao de p(σ
2
, W | y) para o modelo espacial simples com priori
impr´opria
Considere agora a densidade a posteriori conjunta registrada em (2.19). A especi-
fica¸ao a priori impr´opria para θ
1
implica na obten¸ao de uma densidade conjunta
p(σ
2
, W | y) diferente daquela obtida a pouco. Partindo de (2.19) e incorporando apenas
os elementos que dependem dos hiperparˆametros mas ao dependem de θ, ap´os alguns
alculos obt´em-se a express˜ao:
54
p(σ
2
, W | y)
σ
2
(
n
2
+n
v
+1
)
(W )
(
n1
2
+n
w
+1
)
σ
2
Σ
1
2
exp
S
v
n
v
σ
2
(4.22)
× exp
S
w
n
w
W
exp
1
2σ
2
y
y
exp
1
2σ
2
µ
Σ
1
µ
.
onde µ = Σy e Σ =
σ
2
W
K + I
n
1
.
Determina¸ao de p(σ
2
, W | y) para o modelo espacial de regress˜ao m´ultipla
Considere a densidade a posteriori conjunta apresentada em (3.12). Mais uma vez ser´a
seguido o procedimento de constru¸ao da densidade de interesse p(σ
2
, W | y) partindo
desta posteriori conjunta para todos os parˆametros. Eliminando-se os termos que ao
dependem de β e que envolvem os hiperparˆametros, ap´os alguns alculos chega-se ao
resultado:
p(σ
2
, W | y)
σ
2
(
n+2n
v
+2
2
)
(W )
(
n+2n
w
+d
2
)
exp
tr
S
w
n
w
W
1

(4.23)
×|Σ|
1
2
exp
1
2σ
2
2S
v
n
v
+ y
y σ
2
µ
Σµ
.
onde µ =
1
σ
2
X
y e Σ =
1
σ
2
X
X + (K W
1
)
1
.
Perceba neste caso que tamem ao ´e poss´ıvel reconhecer o n´ucleo de uma densidade
de probabilidade para a conjunta dos hiperparˆametros a posteriori. A seguir ser´a des-
crito cada passo do algoritmo Metropolis-Hastings adaptado para os modelos espaciais
utilizados neste trabalho. Conforme a foi discutido, ´e por meio deste etodo MCMC
que observoes ser˜ao geradas de maneira indireta da distribui¸ao de (σ
2
, W | y).
Metropolis-Hastings para gerar de p(σ
2
, W | y)
Na Se¸ao 4.1 o algoritmo Metropolis-Hastings foi discutido e seus principais aspectos
apresentados. O primeiro passo para a adapta¸ao deste m´etodo MCMC ser´a definir a
distribui¸ao de probabilidade a partir da qual propostas ser˜ao geradas para os hiper-
parˆametros e mais tarde testadas para decidir se ao provenientes ou ao da distribui¸ao
de interesse. O modelo espacial simples assume especifica¸oes a priori Gama Inversa
55
para σ
2
e W . O modelo espacial de regress˜ao assume uma Gama inversa para σ
2
e
uma Wishart Inversa para W . Sendo assim as propostas utilizadas pelo algoritmo ser˜ao
geradas destas distribui¸oes. Constantes sintonizadoras ao usadas para indexar a dis-
tribui¸ao geradora de propostas. Estas constantes ao valores inteiros positivos denotados
por K
1
e K
2
. Suas especifica¸oes influenciar˜ao na taxa de aceita¸ao do algoritmo.
No primeiro passo do algoritmo Metropolis-Hastings considere as seguintes distribui-
¸oes geradoras de propostas: Para o modelo espacial simples gerar σ
2
(prop)
a partir da
distribui¸ao GI(K
1
, K
1
σ
2
(prev)
) e W
2
(prop)
a partir da GI(K
2
, K
2
W
(prev)
). Para o modelo
espacial de regress˜ao gerar σ
2
(prop)
tamb´em a partir da GI(K
1
, K
1
σ
2
(prev)
) e W
2
(prop)
a partir
da W I(K
2
, K
2
W
(prev)
). A nota¸ao (prev) ´e usada para indicar que o valor pr´evio (do
passo anterior) ´e considerado para aquele parˆametro.
A pr´oxima etapa requer a determina¸ao da probabilidade usada no teste de aceita¸ao
ou rejei¸ao das propostas candidatas. A Se¸ao 4.1 mostrou que esta probabilidade ´e
dada por uma express˜ao, indicada em (4.4), que envolve a densidade de interesse e as
densidades geradora de propostas. Neste estudo propostas ao geradas para σ
2
e W
a partir de diferentes distribui¸oes. Considere na determina¸ao da probabilidade de
aceita¸ao o produto das respectivas densidades das distribui¸oes geradoras de propostas
destes hiperparˆametros. Nota¸ao: q [(a
1
, a
2
) (b
1
, b
2
)] ´e a proposta para gerar os valores
(b
1
, b
2
) dado pelo produto das densidades indexadas por (a
1
, a
2
).
Modelo espacial simples: q

σ
2
(prop)
, W
(prop)
σ
2
(prev)
, W
(prev)

´e o produto das
densidades GI
K
1
, K
1
σ
2
(prop)
e GI
K
2
, K
2
W
(prop)
.
Modelo espacial de regress˜ao m´ultipla: q

σ
2
(prop)
, W
(prop)
σ
2
(prev)
, W
(prev)

´e o
produto das densidades GI
K
1
, K
1
σ
2
(prop)
e W I
K
2
, K
2
W
(prop)
.
Ap´os especificar as nota¸oes necess´arias ´e poss´ıvel, com base em (4.4), estabelecer a
probabilidade de aceita¸ao ou rejei¸ao de propostas no Metropolis-Hastings por:
min
1,
p(σ
2
(prop)
, W
(prop)
| y)
p(σ
2
(prev)
, W
(prev)
| y)
q

σ
2
(prop)
, W
(prop)
σ
2
(prev)
, W
(prev)

q

σ
2
(prev)
, W
(prev)
σ
2
(prop)
, W
(prop)

. (4.24)
56
Denote a probabilidade de aceita¸ao (4.24) por α. Uma vez determinada esta proba-
bilidade, o teste que decidir´a se aceita ou rejeita as propostas para os hiperparˆametros
poder´a ser realizado. Adote valores iniciais, σ
2
(0)
e W
(0)
, para os hiperparˆametros. ao
ser´a necess´ario especificar semente para o vetor (reconsidere a nota¸ao adotada no
in´ıcio da se¸ao novamente). O esquema de amostragem denominado Esquema 3 seguir´a
os procedimentos:
1. Fca j igual a 1;
2. Assumir que σ
2
(prev)
= σ
2
(j1)
e W
(prev)
= W
(j1)
;
3. Gerar as propostas: σ
2
(prop)
e W
(prop)
;
4. Gerar um n´umero aleat´orio u da distribui¸ao Uniforme(0,1) e comparar com α:
Se u < α aceitar σ
2
(prop)
e W
(prop)
como observoes geradas da distribui¸ao de
(σ
2
, W | y). Fca σ
2
(j)
= σ
2
(prop)
e W
(j)
= W
(prop)
Caso contr´ario rejeitar as propostas: σ
2
(j)
= σ
2
(j1)
e W
(j)
= W
(j1)
5. Mudar o ´ındice j para j + 1 e retornar ao passo 2 por uma quantidade de itera¸oes
pr´e-definida.
Uma vez que o processo para gerar os hiperparˆametros est´a completado o pr´oximo
passo para finalizar o Esquema 3 ser´a amostrar o vetor a partir da condicional completa
(Ω | σ
2
, W, y). Esta distribui¸ao ´e conhecida e foi usada no Esquema 2, portanto, ao a
nenhuma dificuldade no desempenho desta tarefa do Esquema 3.
Aqui ´e encerrada a Se¸ao 4.4 onde foram descritos os procedimentos de cada um dos
esquemas de amostragem aplicados aos modelos espaciais estudados. A pr´oxima se¸ao
exp˜oe as principais conclus˜oes deste cap´ıtulo.
4.5 Conclus˜oes do cap´ıtulo
Este cap´ıtulo tinha como meta apresentar trˆes esquemas de amostragem atrav´es dos
quais os modelos espaciais ser˜ao estudados. Estes esquemas empregam algoritmos MCMC
57
e por isso a primeira se¸ao preocupou-se em descrever os aspectos asicos destes algo-
ritmos. Foi mostrado o Gibbs Sampling, que ´e um m´etodo indireto para amostrar da
distribui¸ao a posteriori baseado em distribui¸oes condicionais completas. O Metropolis-
Hastings tamem foi descrito, mas sua aplica¸ao neste trabalho se restringe a um passo
dentro do algoritmo Gibbs Sampling.
A se¸ao seguinte definiu as condicionais completas a posteriori uma vez que estas dis-
tribui¸oes ao de grande importˆancia para aplicar o Gibbs Sampling. Elas foram definidas
para
1
, . . . ,
n
, para o vetor e para pe rmitir a atualiza¸ao dos hiperparˆametros σ
2
e W . Feito isso a preocupa¸ao seguinte foi descrever os esquemas de amostragem que
servem de ferramenta para estudar o comportamento dos modelos espaciais.
Come¸cando pelo Esquema 1 mostrou-se que ele desempenha a amostragem de cada
parˆametro do modelo separadamente. Este esquema ´e uma aplica¸ao apenas do Gibbs
Sampling, assim como o Esquema 2. Este ´ultimo diferencia-se do Esquema 1 por de-
senvolver a amostragem conjunta dos
i
’s. O procedimento de atualiza¸ao dos hiper-
parˆametros ´e o mesmo nos Esquemas 1 e 2.
Na aplica¸ao do Esquema 3 mostrou-se neces s´ario empregar o algoritmo Metropolis-
Hastings para gerar a posteriori os hiperparˆametros em conjunto. Em sequˆencia o vetor
´e obtido de sua condicional completa a posteriori conhecida e a empregada no Esquema
2.
Com o encerramento deste cap´ıtulo finaliza-se tamem o trabalho de descri¸ao da
modelagem e de aspectos necess´arios para se encaminhar a obten¸ao de resultados dos mo-
delos. Os pr´oximos cap´ıtulos desempenham an´alises de resultados baseados nas cadeias
geradas pelos m´etodos computacionais empregados. Entre os estudos a serem desenvolvi-
dos est´a a an´alise da influˆencia do umero de vizinhos s obre o desempenho de algoritmos
MCMC aplicados a modelos espaciais.
58
Cap´ıtulo 5
Aplica¸oes e resultados dos modelos
espaciais
Conclu´ıda a descri¸ao dos modelos espaciais e dos trˆes esquemas de amostragem pro-
postos, este cap´ıtulo apresenta resultados que comprovam o bom desempenho destes mo-
delos em termos de inferˆencia. Al´em de mostrar estimativas obtidas para os parˆametros
desenvolve-se tamb´em uma compara¸ao entre os resultados do modelo espacial simples
considerando distribui¸ao a priori pr´opria e impr´opria para (θ | σ
2
, W ). Outra finalidade
do cap´ıtulo se r´a comparar as estimativas dos esquemas de amostragem. Visto que as trˆes
propostas amostram da mesma distribui¸ao a posteriori conjunta espera-se que os resul-
tados sejam bastante parecidos. Pequenas diferen¸cas ocorrer˜ao devido `a aleatoriedade
presente nos algoritmos.
Um estudo de otimiza¸ao ser´a desenvolvido para escolher as constantes sintonizadoras
que indexam as dis tribui¸oes geradoras de propostas no algoritmo Metropolis-Hastings
usado no Esquema 3. Esta busca procura determinar as constantes cujos valores deter-
minam cadeias com menor autocorrela¸ao.
Programas foram implementados para desempenhar os proce dimentos de cada es-
quema de amostragem aplicando os algoritmos MCMC. A linguagem de programa¸ao
Ox foi utilizada nesta implementa¸ao e possui diversas facilidades em rela¸ao a outras
op¸oes. Ox ´e uma poderosa ferramenta para aplicar m´etodos computacionalmente in-
tensivos e todas as vers˜oes deste programa ao livres para prop´ositos educacionais. O
59
editor conhecido como OxEdit foi utilizado. Para maiores informa¸oes a respeito desta
ferramenta ver Doornik e Ooms (2006).
Este cap´ıtulo est´a organizado da seguinte maneira: A Se¸ao 5.1 apresenta duas es-
tat´ısticas que levam em conta a autocorrela¸ao das cadeias. O estudo de otimiza¸ao
das constantes sintonizadoras definidas para o Esquema 3 ´e apresentado na Se¸ao 5.2 e
considera uma e stat´ıstica definida na Se¸ao 5.1. A Se¸ao 5.3 apresentar´a resultados de
inferˆencia para o modelo espacial simples e a Se¸ao 5.4 mostra estimativas obtidas via
modelo espacial de regress˜ao m´ultipla. O cap´ıtulo ser´a finalizado na Se¸ao 5.5 com as
principais conclus˜oes.
5.1 Estat´ısticas para sumarizar a autocorrela¸ao das
cadeias
Os esquemas de amostragem propostos no cap´ıtulo anterior fornecem cadeias com
diferentes caracter´ısticas. Um dos principais problemas na an´alise de uma erie de da-
dos ´e decidir se as observoes ao provenientes de um processo que considera vari´aveis
aleat´orias independentes. Na pr´atica as cadeias obtidas via MCMC apresentam estru-
tura de autocorrela¸ao, e isto determina que as amostras extra´ıdas destas cadeias ao
sejam exatamente aleat´orias. A autocorrela¸ao exerce influˆencia sobre os estimadores
prejudicando a qualidade de suas estimativas.
A autocorrela¸ao mede a dependˆencia entre observoes dentro de uma erie. Quando
uma amostra ´e extra´ıda de uma cadeia obtida via MCMC, ´ındices ao associados a
cada observao respeitando a ordena¸ao registrada na cadeia. Considere uma erie de
observoes y
1
, . . . , y
n
. A autocorrela¸ao estimada de ordem j ´e definida por:
ˆρ
j
=
n
i=j+1
(y
i
¯y) (y
ij
¯y)
n
i=1
(y
i
¯y)
2
,
onde: ¯y =
n
i=1
y
i
n
. Note que a autocorrela¸ao de ordem j = 0 estar´a medindo a de-
pendˆencia de uma observao com rela¸ao a ela mesma, ˆρ
0
´e sempre igual a 1. Valores
60
negativos podem ser obtidos atrav´es desta express˜ao.
A amostragem da distribui¸ao a posteriori pelos esquemas propostos ´e uma apro-
xima¸ao e, portanto, apresenta um erro associado. Seja f uma fun¸ao real qualquer
aplicada ao vetor α contendo todos os parˆametros de um modelo. A fun¸ao f pode ser
definida do espa¸co param´etrico a qualquer espa¸co IR
d
onde d = 1, 2, . . .. Considere α
(i)
um vetor contendo os iesimos valores registrados na cadeia de Markov gerada para cada
componente de α. O Teorema Erg´odico assegura que:
¯
f
n
q.c.
E[f(α)], conforme n ,
onde
¯
f
n
=
1
n
n
i=1
f(α
(i)
) ´e um estimador Monte Carlo e n representa o tamanho da
cadeia.
A variˆancia do estimador
¯
f
n
´e dada por:
V ar[
¯
f
n
] =
σ
2
f
n
1 + 2
n1
k=1
n k
n
ρ
k
, (5.1)
onde σ
2
f
´e a variˆancia a posteriori de f(α) e ρ
k
´e a autoc orrela¸ao de ordem k relacionada
`a cadeia de f(α). Para maiores detalhes a respeito deste resultado, ver Gamerman e
Lopes (2006).
A autocorrela¸ao tem papel de destaque na determina¸ao da eficiˆencia de estimadores
Monte Carlo obtidos de amostras da cadeia. Se a amostra obtida ´e aleat´oria, a express˜ao
(5.1) ser´a dada por
σ
2
f
n
, pois ρ
k
= 0 para todo k = 1, . . . , n 1. Para sumarizar a in-
forma¸ao relacionada a autocorrela¸ao presente nas cadeias geradas para cada parˆametro
do modelo, considere a seguinte estat´ıstica denominada fator de ineficiˆencia:
dn
eff
= 1 + 2
L
i=1
ˆρ
i
, (5.2)
onde ˆρ
i
´e a estimativa da autocorrela¸ao de ordem i = 1, . . . , L. Neste trabalho considere
L = 50. Ver Gamerman e Lopes (2006) para maiores detalhes.
Quanto mais afastado de 1 for o valor de dn
eff
, mais autocorrelacionada ser´a a cadeia
e, consequentemente, menos eficiente ser´a o esquema de amostragem que a gerou. Se as
61
autocorrela¸oes das cadeias assumirem apenas valores no intervalo [0,1], pode ser afirmado
que quanto mais autocorrelacionada for a cadeia maior ser´a a estat´ıstica dn
eff
.
Note que a express˜ao apresentada entre parˆenteses em (5.1) lembra a estat´ıstica f ator
de ineficiˆencia (5.2) para n . Quanto mais autocorrelacionada for a cadeia, maior
ser´a a variˆancia do estimador Monte Carlo e mais afastada de uma amostra aleat´oria
estar´a a amostra em quest˜ao.
Uma outra estat´ıstica que ser´a ´util para interpreta¸oes de resultados relacionados `a
estrutura de auto correla¸ao das cadeias ´e conhecida como tamanho efetivo da amostra.
Esta estat´ıstica denotada por n
eff
´e constru´ıda dividindo-se o tamanho da cadeia, deno-
tado por n, pelo fator de ineficiˆencia.
n
eff
=
n
1 + 2
L
i=1
ˆρ
i
. (5.3)
Se a amostra extra´ıda da cadeia fosse aleat´oria as autocorrela¸oes seriam todas iguais
a zero e assim a estat´ıstica n
eff
assumiria o valor que representa o tamanho da amostra
extra´ıda. Na pr´atica as autocorrela¸oes estimadas para cadeias obtidas via MCMC ao
valores que em geral encontram-se no intervalo [0,1]. Quando estimativas diferentes de
zero ao registradas para as autocorrela¸oes de uma cadeia, levando em conta o ponto
de vista pr´atico mencionado, o fator de ineficiˆencia assumir´a um valor maior que 1. Isto
determina que o tamanho efetivo da amostra ´e menor que n. Por exemplo, suponha que
este denominador seja igual a 2, o que fornece n
eff
=
n
2
. A seguinte interpreta¸ao pode
ser dada: para que a amostra obtida seja equivalente em termos de informa¸ao a uma
amostra aleat´oria de tamanho n, ser´a preciso extrair o dobro (2n) de observoes da
cadeia. Uma amostra extra´ıda de uma cadeia muito autocorrelacionada carrega pouca
informa¸ao a respeito do parˆametro de interesse. As estimativas obtidas a partir desta
amostra ao prejudicadas.
A pr´oxima se¸ao mostra um estudo de otimiza¸ao realizado para escolher as cons-
tantes sintonizadoras que indexam as distribui¸oes geradoras de propostas do algoritmo
Metropolis-Hastings presente no Esquema 3.
62
5.2 Busca das constantes sintonizadoras
O esquema de amostragem 3 conforme foi descrito no cap´ıtulo anterior aplica o al-
goritmo Metropolis-Hastings para gerar em conjunto os hiperparˆametros. As propostas
para σ
2
e W ao obtidas de distribui¸oes indexadas por constantes sintonizadoras deno-
tadas por K
1
e K
2
. A primeira constante indexa a distribui¸ao que gera a proposta para
σ
2
, a segunda faz o mesmo em rela¸ao a W .
Este estudo de otimiza¸ao ´e bastante extenso em termos computacionais e busc a cons-
tantes sintonizadoras ´otimas relacionadas a uma espec´ıfica fun¸ao geradora de propostas
no Metropolis-Hastings. Existem diversas fun¸oes que podem ser usadas com esta fina-
lidade, isto torna os resultados obtidos restritos apenas para conclus˜oes relacionadas ao
caso particular considerado no Esquema 3. Levando estas restri¸oes de abrangˆencia em
conta e, visando apresentar resultados apidos para o prosseguimento do trabalho, ser´a
considerado apenas o modelo espacial simples onde uma distribui¸ao a priori impr´opria ´e
estabelecida para (θ | σ
2
, W ). As constantes K
1
e K
2
escolhidas aqui ser˜ao tamb´em usa-
das na modelagem espacial com componentes de regress˜ao m´ultipla e no modelo simples
com priori pr´opria.
As propostas para os hiperparˆametros σ
2
e W , no modelo espacial simples, ao obtidas
respectivamente atrav´es das distribui¸oes GI(K
1
, K
1
σ
2
(prev)
) e GI(K
2
, K
2
W
(prev)
). Con-
sidere a defini¸ao da fun¸ao densidade G ama Inversa estabelecida em (2.16). A es-
peran¸ca, moda e variˆancia para a distribui¸ao geradora de propostas do hiperparˆametro
σ
2
ao respectivamente: E(σ
2
(prop)
) =
K
1
σ
2
(prev)
K
1
1
onde K
1
> 1, Moda(σ
2
(prop)
) =
K
1
σ
2
(prev)
K
1
+1
e
Var(σ
2
(prop)
) =
K
2
1
(σ
2
(prev)
)
2
(K
1
1)
2
(K
1
2)
onde K
1
> 2. Note que para valores grandes de K
1
a es-
peran¸ca e a moda indicadas ao muito pr´oximas de σ
2
(prev)
. No caso da variˆancia quanto
maior for K
1
menor ser´a a variˆancia da distribui¸ao de onde ´e gerada a proposta. Es-
tas conclus˜oes ao tiradas atrav´es do alculo do limite quando K
1
+ e podem ser
extendidas para o hiperparˆametro W visto que a esperan¸ca, moda e variˆancia de sua
distribui¸ao geradora ´e igualmente estruturada mudando apenas os parˆametros envolvi-
dos. Portanto, uma constante sintonizadora grande propicia uma distribui¸ao geradora
de propostas Gama Inversa centrada no valor pr´evio e com uma variˆancia pequena. As
63
propostas para os hip erparˆametros ao desta forma geradas com um grau de dependˆencia
maior em rela¸ao ao valor pr´evio. Em outras palavras ´e poss´ıvel afirmar que a cadeia
est´a sendo constru´ıda com uma maior autocorrela¸ao entre suas observoes.
Reis, Salazar e Gamerman (2006) desenvolveram um estudo para o caso particular
do Modelo Dinˆamico Linear de primeira ordem utilizando o Esquema 3 com as mesmas
distribui¸oes geradoras de propostas empregadas neste trabalho. Neste artigo as cons-
tantes sintonizadoras utilizadas foram K
1
= K
2
= 35. Esta escolha garante taxas de
aceita¸ao entre 50% e 70% no algoritmo Metropolis-Hastings mas tem a desvantagem de
favorecer a obten¸ao de cadeias com grande autocorrela¸ao. Isto prejudica o Esquema
3 quando ´e desenvolvida uma an´alise comparativa com os resultados dos demais esque-
mas. A corre¸ao deste problema ser´a feita pela escolha de valores menores para K
1
e K
2
baseando-se no resultado de um algoritmo de otimiza¸ao. O grande objetivo ´e buscar
pelos valores das constantes sintonizadoras no intervalo (0,35] que proporcionam cadeias
com a menor autocorrela¸ao poss´ıvel, ou seja, com o maior n
eff
.
Configura¸oes do procedimento de otimiza¸ao
Assuma um espa¸co dividido em 100 regi˜oes, ordenadas ao longo de uma reta, cuja
estrutura de vizinhan¸ca estabelece 2 vizinhos para a maioria delas. Considere o modelo
espacial simples com distribui¸ao a priori impr´opria para (θ | σ
2
, W ). Na gera¸ao de
dados simulados ´e especificada uma distribui¸ao N(0, 100) para θ
1
e os valores reais dos
hiperparˆametros ao σ
2
= W = 2. Na configura¸ao inicial da modelagem ser´a especificada
uma distribui¸ao a priori cuja moda ´e 2 (valor real) para σ
2
e W . A GI(2.1, 6.2) foi
escolhida para ambos os hiperparˆametros e apresenta esperan¸ca igual a 5.63 e variˆancia
igual a 317.68. No algoritmo MCMC empregado considere as sementes σ
2
(0)
= 2 e
W
(0)
= 2, ou seja, as cadeias para os hiperparˆametros partem dos valores reais.
Estas configura¸oes ao adaptadas ao Esquema 3 para gerar cadeias de tamanho 1500
sem descartar observoes referentes ao per´ıodo de aquecimento ”Burn in” . Para as cons-
tantes sintonizadoras ao utilizados 70 valores: 0.5, 1, 1.5, 2, . . . , 35, desta forma ´e poss´ıvel
formar 4900 pares diferentes do tipo (K
1
, K
2
). Uma aplica¸ao do Esquema 3 com 1500
64
itera¸oes do algoritmo MCMC ´e desenvolvida para cada um destes pares. Ao final de
cada aplica¸ao o tamanho efetivo da amostra ´e calculado para as cadeias dos parˆametros.
(a) (b)
(c) (d)
Figura 5.1: n
eff
vs. constantes sintonizadoras: σ
2
.
65
(a) (b)
(c) (d)
Figura 5.2: n
eff
vs. constantes sintonizadoras: W .
A Figura 5.1 mostra como se comporta o tamanho efetivo da amostra para cadeias
do hiperparˆametro σ
2
. Para um determinado valor fixado da constante K
1
´e poss´ıvel
formar 70 pares do tipo (K
1
, K
2
) variando K
2
. Para cada K
1
no eixo horizontal (gr´afico
(a)) est˜ao registrados 70 pontos representando o n
eff
, um para cada combina¸ao com
os diferentes K
2
. O gr´afico de dispers˜ao (c) faz o mesmo em rela¸ao `a constante K
2
.
`
A direita encontram-se gr´aficos baseados na mediana das amostras de 70 n
eff
’s. Nestes
gr´aficos ´e poss´ıvel observar melhor o comportamento dos pontos.
Perceba que para as cadeias de σ
2
a uma indica¸ao de que o maior tamanho ef etivo
da amostra ´e obtido para a escolha de K
1
= 5. O gr´afico para a constante K
2
indica
que seu valor deve ser alto para favorecer uma menor autocorrela¸ao na cadeia deste
66
parˆametro.
A Figura 5.2 mostra o gr´afico de dispers˜ao e a mediana do n
eff
para cadeias do
hiperparˆametro W . Nesta figura ´e poss´ıvel notar que o comportamento ´e invertido e m
rela¸ao `aquele observado na Figura 5.1. Quanto maior o valor de K
1
maior ´e o tamanho
efetivo da amostra para a cadeia de W . a uma indica¸ao no gr´afico (d) de que cadeias
com menor autocorrela¸ao ao obtidas quando K
2
= 5.
Os gr´aficos dos demais parˆametros do modelo ao fornecem informa¸oes que permitam
avaliar quais os valores das constantes sintonizadoras determinam maiores n
eff
’s. Estes
gr´aficos ao inconclusivos e, portanto, a decis˜ao de escolha das constantes ser´a restrita
`as cadeias de σ
2
e W . Objetivando f avorecer os dois hiperparˆametros a configura¸ao
escolhida ser´a K
1
= K
2
= 5 que estab elec e taxas de aceita¸ao no Metropolis-Hastings em
torno de 10%.
Aqui ´e finalizado o estudo de otimiza¸ao para as constantes sintonizadoras do esquema
de amostragem 3. Daqui para frente todos os resultados referentes ao Esquema 3 ser˜ao
produzidos considerando constantes sintonizadoras iguais a 5. A s eguir ao apresentados
resultados utilizando o modelo espacial simples.
5.3 Inferˆencia para o modelo e spacial simples
Duas abordagens para modelagem considerando o modelo espacial simples foram ado-
tadas no Cap´ıtulo 2. A primeira utiliza distribui¸ao a priori pr´opria para (θ | σ
2
, W ) e
a segunda abordagem utiliza distribui¸ao a priori impr´opria. Nesta se¸ao um dos prin-
cipais objetivos ser´a comparar o comportamento das estimativas fornecidas pelo mode lo
espacial simples diante destas duas abordagens. Outra finalidade da se¸ao ser´a mostrar
que este modelo espacial fornece boas estimativas para os parˆametros.
Neste estudo considere um espa¸co contendo 500 regi˜oes que ao ordenadas ao longo de
uma reta determinando 2 vizinhos para as regi˜oes 2, . . . , 499 e 1 vizinho para as regi˜oes
dos extremos (1 e 500). A gera¸ao de dados simulados considerou distribui¸ao a priori
θ
1
N(0, 100) e os valores reais σ
2
= 10 e W = 0.1. Esta escolha para os valores reais
determina a raz˜ao
W
σ
2
= 0.01, ou seja, a variˆancia relacionada `as edias θ
i
’s ´e 100 vezes
67
menor que a variˆancia relacionada `as observoes. Portanto, quando ´e analisado o movi-
mento de uma sequˆencia formada pelas observoes alinhadas seguindo a numera¸ao das
regi˜oes, a variabilidade das observoes ´e respons´avel por grande parte deste movimento.
Uma trajet´oria em um patamar constante ´e observada devido `a pequena variabilidade
das edias. A Figura 5.3 mostra o comportamento dos dados simulados e, tamb´em,
os componentes do vetor θ. Perceba a maior variabilidade das observoes e a menor
intensidade de movimentos para as edias.
Figura 5.3: Dados simulados (linha de cor clara) e valores reais das edias θ
i
’s (linha
em negrito).
Prosseguindo com as configura¸oes deste estudo considere na modelagem as dis-
tribui¸oes a priori: GI(5, 60) para σ
2
e GI(2.001, 0.3001) para W . A moda destas
distribui¸oes ´e justamente o valor real do hiperparˆametro. Outras informa¸oes a res-
peito destas especifica¸oes a priori ao: E(σ
2
) = 15, V ar(σ
2
) = 75, E(W ) = 0.30 e
V ar(W ) = 89.88. Quando for considerada a ab ordagem do modelo espacial simples com
distribui¸ao a priori pr´opria, assuma da mesma forma que foi feita na gera¸ao de dados
simulados a distribui¸ao θ
1
N(0, 100).
Nos algoritmos MCMC utilizados pelos esquemas de amostragem ao atribu´ıdos para
os hiperparˆametros sementes iguais a seus respectivos valores reais. O Esquema 1 exige
tamb´em a defini¸ao de sementes para cada componente do vetor θ, considere neste caso
o valor zero como ponto de partida da cadeia. Os resultados de inferˆencia indicados
mais adiante ser˜ao baseados nas cadeias que apresentam estes valores iniciais. Cadeias
68
partindo de valores diferentes dos anunciados aqui ser˜ao apresentadas apenas para uma
compara¸ao. Nenhuma amostra ser´a extra´ıda delas e avaliada para informar estimativas
dos parˆametros. As cadeias que partem de valores diferentes dos reais consideram as
seguintes sementes para os hiperparˆametros: σ
2
(0)
= 1 e W
(0)
= 1.
Um importante elemento que ser´a calculado durante a execu¸ao dos programas ´e o
logaritmo da densidade a posteriori conjunta referente ao modelo sendo utilizado. As
express˜oes (2.18) e (2.19), calculadas no Cap´ıtulo 2, mostram o que ser´a chamado aqui
de n´ucleo da densidade a posteriori conjunta. Denote por C a constante apropriada
que, ao ser multiplicada pelo n´ucleo, completa a e xpress˜ao da densidade de probabili-
dade p(θ, σ
2
, W | y). Para evitar trabalhar com valores de grande magnitude a fun¸ao
logar´ıtmica ´e utilizada. Adote a seguinte nota¸ao relacionada ao modelo espacial simples:
log(π) = log[p(θ, σ
2
, W | y)] log(C).
Em primeiro lugar ´e interessante observar o comportamento das cadeias obtidas. A
inferˆencia ´e alida apenas para amostras e xtra´ıdas ap´os a convergˆencia. Foram realiza-
das 7000 itera¸oes do algoritmo MCMC para formar as cadeias de cada parˆametro de
interesse. O per´ıodo de aquecimento foi considerado para as primeiras 2000 itera¸oes.
A amostra alida para inferˆencia ser´a composta pelas observoes registradas nas 5000
itera¸oes finais. As Figuras 5.4 e 5.5 mostram o comportamento das cadeias a partir da
itera¸ao 2000. Os gr´aficos apresentados nestas duas figuras ao referentes ao modelo e s-
pacial simples com distribui¸ao a priori impr´opria para (θ | σ
2
, W ). Note que as cadeias
que partem do valor real dos parˆametros e aquelas que partem de valores diferentes apre-
sentam comportamento similar em termos de variabilidade e convergem para o mesmo
lugar. Em todos os casos ´e poss´ıvel afirmar a ocorrˆencia da convergˆencia.
Atraes da Figura 5.4 ´e poss´ıvel notar uma diferen¸ca entre as cadeias referentes ao
Esquema 1 e as cadeias dos Esquemas 2 e 3. O procedimento de gera¸ao de θ ´e igual
para os Esquemas 2 e 3 por isso a semelhan¸ca no comportamento de suas cadeias. a
o Esquema 1 amostra cada componente de θ separadamente, isto determina uma cadeia
com um comportamento diferenciado mas com variabilidade visualmente semelhante.
A Figura 5.5 mostra uma diferen¸ca da cadeia exibida pelo Esquema 3 para σ
2
em
rela¸ao `aquelas obtidas pelos Esquemas 1 e 2. Novamente a explica¸ao deve-se ao tipo
69
de atualiza¸ao empregado. Os Esquemas 1 e 2 atualizam este hiperparˆametro usando a
mesma distribui¸ao, da´ı a semelhan¸ca. O Esquema 3 aplica o Metropolis-Hastings para
atualiza¸ao em conjunto com W . A baixa taxa de aceita¸ao no algoritmo (em torno de
10%) determina pequenos per´ıodos onde a observao ao se altera, isto reflete em um
aspecto visual menos denso da cadeia.
Esquema 1 Esquema 2 Esquema 3
Figura 5.4: Cadeias de θ
1
, θ
250
e θ
500
. (Linha cont´ınua e escura) = cadeia partindo do
valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do real.
Os comenarios e conclus˜oes referentes aos gr´aficos das Figuras 5.4 e 5.5 ao alidos
tamb´em para as cadeias obtidas atrav´es do modelo espacial simples com distribui¸ao a
70
priori pr´opria para (θ | σ
2
, W ). Para evitar uma an´alise repetitiva e extensa, os gr´aficos
de convergˆencia deste ´ultimo modelo citado est˜ao inclu´ıdos na Se¸ao A do Apˆendice.
Esquema 1 Esquema 2 Esquema 3
Figura 5.5: Cadeias de σ
2
, W e log(π). (Linha cont´ınua e escura) = cadeia partindo do
valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do real.
Uma vez que a convergˆencia das cadeias foi confirmada pela an´alise gr´afica, o pr´oximo
passo ´e verificar a qualidade das estimativas fornecidas pelo modelo para os parˆametros
envolvidos. A Tabela 5.1 informa as estimativas obtidas para os parˆametros com base
na amostra de 5000 observoes extra´ıdas da respectiva cadeia. Uma compara¸ao ´e feita
entre resultados do modelo espacial simples com distribui¸ao a priori pr´opria e impr´opria
71
para (θ | σ
2
, W ). Este ´e o ´unico aspecto que diferencia os modelos que e st˜ao s endo
confrontados. Considera-se o mesmo conjunto de dados e as configura¸oes do MCMC
fixadas. Deseja-se apenas analisar as estimativas para avaliar se elas ao precisas ou ao.
Priori pr´opria Priori impr´opria
Esquemas de σ
2
W σ
2
W
Amostragem M´edia Var. M´edia Var. M´edia Var. edia Var.
Esquema 1 10.35 0.48 0.09 0.001 10.44 0.47 0.09 0.001
Esquema 2 10.34 0.48 0.10 0.002 10.35 0.47 0.10 0.002
Esquema 3 10.32 0.48 0.10 0.002 10.41 0.51 0.09 0.002
Tabela 5.1: Estimativas do modelo espacial simples, 500 regi˜oes e 2 vizinhos.
Note que todas as estimativas, fornecidas pelas edias, aproximam-se do valor real.
O modelo espacial simples com distribui¸ao a priori impr´opria tem um bom desempenho
ao demonstrando qualquer desvantagem em rela¸ao ao modelo com priori pr´opria. Note
ainda que as estimativas obtidas por cada esquema de amostragem ao bastante pareci-
das, tanto as m´edia quanto as variˆancias. Todos os trˆes esquemas amostram da mesma
distribui¸ao a posteriori conjunta, portanto este resultado a era esperado.
Para completar a an´alise das estimativas dos parˆametros do modelo considere as
Figuras 5.6 e 5.7. Nelas est˜ao contidos gr´aficos informando o intervalo de credibilidade de
95% para o valor real dos componentes do vetor θ. Estes gr´aficos mostram tamb´em uma
linha cont´ınua representando a estimativa da edia para c ada θ
i
e pontos representando o
valor real. A Figura 5.6 diz respeito ao modelo espacial simple s com distribui¸ao a priori
pr´opria e a Figura 5.7 est´a relacionada ao modelo com distribui¸ao a priori impr´opria.
Perceba que ao ´e poss´ıvel observar qualquer grande diferen¸ca na compara¸ao das duas
figuras. Estas duas abordagens do modelo espacial simples apresentam desempenho
satisfat´orio em termos de estimativas para θ, a linha representando a m´edia acompanha
o comportamento dos valores reais e a grande maioria dos pontos caem dentro do intervalo
de credibilidade.
72
Esquema 1 Esquema 2 Esquema 3
Figura 5.6: Intervalo de credibilidade de 95% (linha pontilhada), m´edia (linha cont´ınua)
e valores reais (pontos) dos componentes do vetor θ. Distribui¸ao a priori pr´opria para
(θ | σ
2
, W ).
Esquema 1 Esquema 2 Esquema 3
Figura 5.7: Intervalo de credibilidade de 95% (linha pontilhada), m´edia (linha cont´ınua)
e valores reais (pontos) dos componentes do vetor θ. Distribui¸ao a priori impr´opria para
(θ | σ
2
, W ).
Nesta se¸ao foi poss´ıvel observar que o modelo espacial simples forneceu boas estima-
tivas para seus parˆametros. Veja que a e dia, baseada na amostra extra´ıda das cadeias,
aproxima-se bastante do valor real do respectivo parˆametro ou hiperparˆametro. Para
finalizar e sta se¸ao, uma importante decis˜ao ser´a tomada com base nos resultados com-
73
parativos. A modelagem considerando distribui¸ao a priori impr´opria para (θ | σ
2
, W )
ao est´a em desvantagem em rela¸ao `a outra abordagem que utiliza distribui¸ao a pri-
ori pr´opria. Suas estimativas foram todas satisfat´orias. Quando os dados ao gerados
especifica-se um valor R que modifica a matriz de precis˜ao tornando-a invers´ıvel. Na
modelagem espacial a informa¸ao deste parˆametro entra na distribui¸ao a priori para
θ
1
. Deve-se escolher uma variˆancia R semelhante ao valor usado na gera¸ao dos dados,
informa¸ao esta que ao est´a dispon´ıvel quando os dados ao reais. Na pr´atica ao se
conhece o R e, portanto, a op¸ao apresentada pelo modelo que assume R infinito ´e in-
teressante. Daqui para frente somente ser´a aplicado nos estudos desenvolvidos o modelo
espacial simples com distribui¸ao a priori impr´opria para (θ | σ
2
, W ).
5.4 Inferˆencia para o modelo espacial de regress˜ao
m´ultipla
Conforme abordado no Cap´ıtulo 3, a an´alise deste modelo espacial ser´a res trita ao caso
onde uma distribui¸ao a priori impr´opria ´e associada a (β | σ
2
, W ). O objetivo desta
se¸ao ser´a mostrar que o modelo espacial de regress˜ao m´ultipla fornece boas estimativas
para os parˆametro envolvidos. Uma maior quantidade de parˆametros influencia no tempo
de execu¸ao dos programas implementados, mais cadeias dever˜ao ser geradas e salvas
durante o processamento. Outro fator que tamb´em influencia no tempo de execu¸ao ´e a
quantidade de regi˜oes no espa¸co estudado. Quanto mais regi˜oes maior ordem apresentar´a
a matriz de vizinhan¸ca. Consequentemente os alculos matriciais necess´arios ser˜ao mais
demorados, como por exemplo determinantes, invers˜ao e decomposi¸ao de Choleski. O
tempo gasto pelo modelo espacial simples para uma an´alise envolvendo 500 regi˜oes ´e
bastante inferior `aquele gasto pelo modelo de regress˜ao considerando a mesma estrutura
espacial. Para facilitar a obten¸ao de resultados considere uma quantidade menor de
regi˜oes nas an´alises deste modelo.
Duas vari´aveis explicativas ser˜ao consideradas nas aplica¸oes do modelo espacial de
regress˜ao m´ultipla, consequentemente, 3 coeficientes de regress˜ao ao definidos para cada
74
regi˜ao do espa¸co. Assuma d = 3 na modelagem descrita no Cap´ıtulo 3 e nos resultados
relacionados do Cap´ıtulo 4. Esta configura¸ao ser´a usada em todos os estudos envolvendo
este modelo espacial daqui para frente. Os objetivos propostos neste trabalho ao esta-
belecem qualquer exigˆencia sobre as vari´aveis explicativas utilizadas. A distribui¸ao da
qual elas ao geradas ao interfere. Para uma padroniza¸ao da modelagem deve-se tomar
apenas o cuidado de usar os mesmos regressores em todas as configura¸oes comparadas.
Neste trabalho, os conjuntos de observoes representando as covari´aveis foram gerados
da distribui¸ao N(0, 1).
Assuma um espa¸co contendo 150 regi˜oes. A regi˜ao i possui 2 vizinhos que ao (i1) e
(i+1) para i = 2, . . . , 149. Para gerar os dados simulados foi considerada a distribui¸ao a
priori β
1
N(a, R) onde a = (0, 0, 0)
e R = diag(100, 100, 100). Al´em disto os seguintes
valores reais foram especificados para os hiperparˆametros: σ
2
= 10 e
W =
0.10 0.05 0
0.05 0.10 0.05
0 0.05 0.10
.
A Figura 5.8 mostra o comportamento dos dados simulados y
i
e tamb´em da edia
real que ´e definida por β
0,i
+ β
1,i
x
1,i
+ β
2,i
x
2,i
. Um deslocamento em um patamar apro-
ximadamente constante pode ser observado ao longo das regi˜oes. Assim como no estudo
do modelo espacial simples observa-se aqui uma variabilidade maior das observoes em
rela¸ao `a varia¸ao registrada para as edias.
Figura 5.8: Dados simulados (linha de cor clara) e m´edia real (linha em negrito).
75
Dando continuidade `as configura¸oes deste estudo leve em considera¸ao as seguintes
especifica¸oes a priori inseridas no modelo:
σ
2
GI(5, 60). Esta ´e a mesma distribui¸ao a priori atribu´ıda a este hiper-
parˆametro no estudo da Se¸ao 5.3. Sua moda ´e igual ao valor real, que continua
sendo 10 tamb´em aqui;
W W I(2, S
w
n
w
) onde S
w
n
w
=
2
15
0 0
0
2
20
0
0 0
2
15
.
Considere a defini¸ao da fun¸ao densidade Wishart Inversa registrada em (3.10) no
Cap´ıtulo 3. Os graus de lib erdade ao restritos a valores maiores que
d1
2
onde d ´e a
ordem da matriz envolvida. A matriz W possui ordem 3, portanto, deve ser usado um
grau de liberdade superior a 1. A escolha do valor 2 para este estudo est´a de acordo com
a defini¸ao.
O seguinte resultado provado na literatura pode ser usado com rela¸ao a dis tribui¸ao
de probabilidade Wishart: Seja Σ ´e uma matriz sim´etrica positiva definida de ordem
(d × d) cujos componentes ao denotados por σ
ij
, i, j = 1, 2, . . . , d. Se W (α, Σ) onde
α representa os graus de liberdade, enao
ii
Gama(α, σ
ii
). Ver Anderson (1984) para
maiores detalhes.
A escolha da matriz que indexa a Wishart Inversa atribu´ıda como distribui¸ao a priori
para W levou em considera¸ao o valor real deste parˆametro. Se W W I(2, S
w
n
w
) enao
W
1
W (2, S
w
n
w
). A inversa da matriz estabelecida como valor real para W ´e:
W
1
=
15 10 5
10 20 10
5 10 15
.
Portanto, tomando como base o resultado enunciado, ´e poss´ıvel afirmar que W
1
ii
Gama(2, S
w
n
w
ii
), onde i = 1, 2, 3. As escolhas dos elementos da diagonal principal de
S
w
n
w
foram feitas com a estrat´egia de centralizar estas distribui¸oes Gama no valor real
76
indicado na matriz W
1
. Por exemplo fa¸ca E(W
1
22
) = 20 isto implica que S
w
n
w
22
=
2
20
. Os elementos fora da diagonal principal podem ser valores tanto positivos quanto
negativos. O crit´erio usado aqui para escolha destes componentes na distribui¸ao a
priori ´e ser neutro entre estas partes, desta forma o valor zero foi atribu´ıdo.
Os valores iniciais dos hiperparˆametros, utilizados nos algoritmos MCMC, ser˜ao iguais
a seus respectivos valores reais. Particularmente, o Esquema 1 exige a defini¸ao de se-
mentes para cada componente do vetor β. Assuma neste caso, assim como foi feito para
o vetor θ no modelo espacial simples, o valor zero como ponto de partida da cadeia. No-
vamente um comenario feito na se¸ao anterior se faz necess´ario: As estimativas apresen-
tadas adiante ao referentes a amostras extra´ıdas ap´os a convergˆencia das cadeias partindo
dos valores iniciais indicados aqui. Cadeias partindo de valores diferentes ser˜ao apresen-
tadas apenas para verifica¸ao da convergˆencia. Estas cadeias consideram as seguintes
sementes para os hiperparˆametros: σ
2
(0)
= 1 e W
(0)
= diag(0.5, 0.5, 0.5).
Observe a express˜ao (3.12) indicada no Cap´ıtulo 3. Ela representa o que ser´a chamado
aqui de n´ucleo da densidade a posteriori conjunta. Denote por C a constante que ao
ser multiplicada por este n´ucleo completa a densidade de probabilidade p(β, σ
2
, W | y).
A t´ıtulo de nota¸ao, nesta extens˜ao do modelo espacial simples considere que log(π) =
log[p(β, σ
2
, W | y)] log(C).
As cadeias de cada parˆametro de interesse ao formadas por 7000 itera¸oes do algo-
ritmo MCMC. As primeiras 2000 itera¸oes foram consideradas pertencentes ao per´ıodo
de aquecimento da cadeia e por isso des cartadas. As 5000 itera¸oes finais comp˜oem a
amostra alida para inferˆencia. A Figura 5.9 mostra o comportamento da cadeia a partir
da itera¸ao 2000 para o intercepto β
0,i
onde i representa as regi˜oes 1, 75 e 150. A Figura
5.10 mostra o mesmo com rela¸ao a σ
2
, det(W ) e log(π). Para ao tornar esta an´alise
extensa os gr´aficos das cadeias dos demais coeficientes de regress˜ao e de cada componente
da matriz W podem ser analisados na Se¸ao B do Apˆendice adicionado ao final deste
trabalho.
Os coment´arios pertinentes ao comportamento das cadeias apresentadas nas Figuras
5.9 e 5.10 ao semelhantes `aqueles feitos para as cadeias mostradas na se¸ao anterior. O
grande aspecto a ser ressaltado diz respeito a caracter´ısticas dos esquemas de amostragem
77
que ao notadas nas cadeias. ao existe uvida de que a convergˆencia o c orre para to das
elas. Dado o mesmo parˆametro ´e poss´ıvel notar na compara¸ao dos trˆes esquemas que a
convergˆencia parece ocorrer para o mesmo valor.
Esquema 1 Esquema 2 Esquema 3
Figura 5.9: Cadeias de β
0,1
, β
0,75
e β
0,150
. (Linha cont´ınua e escura) = cadeia partindo
do valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do real.
Analisando as cadeias dos Esquemas 2 e 3 para o intercepto β
0,i
perceba que o com-
portamento ´e muito parecido e se diferencia daquele observado no Esquema 1. Este
resultado ´e e xplicado pelo fato destes esquemas adotarem o mesmo procedimento para
amostrar os co e ficientes de regress˜ao. A utiliza¸ao do Metropolis-Hastings pode ser no-
tada na cadeia de σ
2
referente ao Esquema 3. A pequena taxa de aceita¸ao (em torno de
78
10%) determina per´ıodos em que ao a altera¸ao no valor da cadeia, isto ´e percebido
pelo aspecto menos denso desta cadeia em compara¸ao as dos demais esquemas.
Esquema 1 Esquema 2 Esquema 3
Figura 5.10: Cadeias de σ
2
, det(W ) e log(π). (Linha cont´ınua e escura) = cadeia
partindo do valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do
real.
Ap´os confirmar a convergˆencia das cadeias e concluir que a amostra de observoes
a partir da itera¸ao 2000 ´e alida para inferˆencia, considere as estimativas indicadas na
Tabela 5.2 para σ
2
e para o determinante de W que ´e uma medida de resumo da in-
forma¸ao matricial. Os valores reais destes elementos ao respectivamente 10 e 0.0005.
Note pela tabela que as estimativas dadas pela edia e mediana se aproximam do valor
79
real mostrando que o modelo ´e satisfat´orio em termos de inferˆencia para estes compo-
nentes. Comparando os esquemas de amostragem percebe-se que suas estimativas ao
parecidas incluindo a variabilidade. Novamente vale destacar que este resultado compar-
ativo a era esperado pois os trˆes amostram da mesma distribui¸ao a posteriori conjunta.
Esquemas de σ
2
det(W )
Amostragem M´edia Mediana Var. edia Mediana Var.
Esquema 1 10.97 10.88 1.93 0.0005 0.0003 4 ×10
7
Esquema 2 10.96 10.85 1.88 0.0005 0.0003 3 ×10
7
Esquema 3 10.83 10.85 1.60 0.0005 0.0003 5 ×10
7
Tabela 5.2: Estimativas do modelo espacial de regress˜ao m´ultipla, 150 regi˜oes e 2 vizinhos.
Esquema 1 Esquema 2 Esquema 3
Figura 5.11: Intervalo de credibilidade de 95%, m´edia e valor real dos componentes do
vetor β e da matriz W .
80
Completando a an´alise do modelo considere a Figura 5.11 onde ao mostrados inter-
valos de credibilidade de 95%, a estimativa fornecida pela edia a posteriori e o valor
real do parˆametro. Entram na an´alise os coeficientes de regress˜ao referentes `as regi˜oes 1,
75 e 150 e 6 componentes da matriz W que ´e sim´etrica. Note que em todos os gr´aficos o
valor real est´a dentro do intervalo de credibilidade e al´em disto a maioria das edias se
aproxima bastante dele. Este resultado aliado `as es timativas da Tabela 5.2 confirma o
bom desempenho do modelo espacial de regress˜ao m´ultipla em termos de inferˆencia dos
parˆametros.
5.5 Conclus˜oes do cap´ıtulo
Os primeiros trˆes cap´ıtulos deste trabalho foram dedicados a apresentar os modelos
espaciais utilizados e descrever os esquemas de amostragem que aplicam m´etodos MCMC
para amostrar da distribui¸ao a posteriori conjunta. O Cap´ıtulo 5, que est´a sendo encer-
rado, veio apresentar os primeiros resultados e aplica¸oes destes modelos aliados aos
esquemas.
O primeiro passo adotado foi estudar o Esquema 3 que aplica o algoritmo Metropolis-
Hastings e precisa que constantes sintonizadoras sejam especificadas. Valores altos destas
constantes garantem taxas de aceita¸ao satisfat´orias no algoritmo, entretanto, propiciam
a gera¸ao de cadeias com grande autocorrela¸ao. Um estudo de otimiza¸ao foi desem-
penhado onde realizou-se uma busca no espa¸co IR
2
considerando valores no intervalo
(0,35] para cada constante sintonizadora. O objetivo foi determinar o par (K
1
, K
2
) que
favorecia a gera¸ao de cadeias com menor autocorrela¸ao poss´ıvel no Esquema 3. A con-
clus˜ao do estudo indicou que a configura¸ao K
1
= K
2
= 5 era a op¸ao ideal. O estudo
de otimiza¸ao evita que o Esquema 3 seja penalizado com a gera¸ao de cadeias muito
autocorrelacionadas devido a uma a escolha das constantes sintonizadoras.
O modelo espacial simples foi colocado no centro das aten¸oes ap´os o estudo de
otimiza¸ao. Uma estrutura espacial contendo 500 regi˜oes e 2 vizinhos para a maioria
delas foi estudada. Aspectos da gera¸ao de dados simulados, configura¸oes dos algoritmos
MCMC e distribui¸oes a priori foram detalhados. Uma an´alise das cadeias geradas por
81
este modelo verificou que a convergˆencia ocorre para todas elas. Todas as estimativas
obtidas aproximam-se do valor real comprovando o bom desempenho. Uma compara¸ao
foi feita entre as estimativas do modelo espacial simples com distribui¸ao a priori pr´opria
e impr´opria para (θ | σ
2
, W ). Verificou-se que o modelo com distribui¸ao impr´opria ao
tem qualquer desvantagem em termos de estima¸ao com rela¸ao `a outra abordagem.
Sendo assim decidiu-se utilizar apenas esta modelagem nos estudos desenvolvidos nos
demais cap´ıtulos.
O comportamento das estimativas do modelo espacial de regress˜ao m´ultipla tamb´em
foi avaliado. Apenas a abordagem onde uma distribui¸ao a priori impr´opria para (β |
σ
2
, W ) foi estudada. Utilizou-se uma configura¸ao contendo 150 regi˜oes ordenadas em
sequˆencia ao longo da reta: 2 vizinhos ao e stabelecidos (regi˜oes imediatamente ao lado).
Todas as cadeias geradas para os parˆametros envolvidos mostraram convergˆencia. A
an´alise das estimativas baseadas em uma amostra extra´ıda destas cadeias indicaram
tamb´em o bom desempenho desta extens˜ao do modelo espacial simples.
Todos os gr´aficos exibidos no Cap´ıtulo 5, mostrando o comportamento das cadeias
relacionadas aos parˆametros do modelo, permitem concluir que a convergˆencia foi atingida.
Algumas das cadeias relacionadas ao Esquema 3 apresentam um aspecto menos denso
onde observa-se uma linha menos concentrada. Este comportamento ´e consequˆencia do
teste de aceita¸ao ou rejei¸ao de propostas no Metropolis-Hastings. Talvez haja d´uvida,
por parte do leitor, quanto `a convergˆencia de algumas das cadeias obtidas atrav´es do Es-
quema 3. Perceba que quando comparadas as figuras correspondentes nos trˆes esquemas,
que est˜ao na mesma escala, nota-se um deslocamento da s´erie no mesmo intervalo de va-
lores, centrado no mesmo ponto e com uma variabilidade semelhante. Nestas condi¸oes,
se visualmente a convergˆencia ´e aceit´avel para as figuras relacionadas aos Esquemas 1 e
2, para o Es quema 3 tamb´em dever´a ser.
Este cap´ıtulo ´e finalizado aqui e a principal conclus˜ao a ser tirada ´e o desempenho
satisfat´orio dos modelos espaciais em termos de resultados de inferˆencia. Os pr´oximos
cap´ıtulos dese mpenham estudos considerando as autocorrela¸oes das cadeias. Primeira-
mente os esquemas de amostragem ser˜ao comparados e em seguida ser´a avaliada a in-
fluˆencia da vizinhan¸ca sobre os resultados dos algoritmos MCMC.
82
Cap´ıtulo 6
Compara¸c˜ao dos esquemas de
amostragem
O estudo desenvolvido neste cap´ıtulo ´e uma verifica¸ao de resultados a registrados
na literatura. Ao inv´es de apenas comentar estes resultados, optou-se por incluir um
nova an´alise que tenta deixar claro ao leitor a diferen¸ca dos esquemas de amostragem em
termos das cadeias obtidas no MCMC. As conclus˜oes apresentadas aqui ser˜ao de grande
relevˆancia para o estudo de vizinhan¸ca do pr´oximo cap´ıtulo.
No Cap´ıtulo 4 foi detalhada a principal diferen¸ca entre os trˆes esquemas utilizados.
Esta diferen¸ca ´e baseada no agrupamento dos parˆametros do modelo formando blocos
para amostragem em conjunto. O Esquema 1 amostra todos os parˆametros individual-
mente, o Esquema 2 realiza esta tarefa considerando 3 blocos: θ, σ
2
e W no modelo
espacial simples e β, σ
2
e W no modelo espacial de regress˜ao. O Esquema 3 amostra
todos os parˆametros conjuntamente, neste caso forma-se um bloco ´unico. Em trabalhos
de aplica¸oes de MCMC, geralmente conclui-se que a blocagem ´e fator que beneficia as
propriedades das cadeias geradas. Com base nisto a seguinte ordena¸ao pode ser feita do
pior para o melhor: Esquema 1 < Esquema 2 < Esquema 3. Nenhum resultado te´orico
a suporte a esta conclus˜ao apresentada em diversas an´alises na literatura.
Neste cap´ıtulo ser´a analisada a estrutura de autocorrela¸ao das cadeias obtidas via
MCMC. As estat´ısticas tamanho efetivo da amostra e fator de ineficiˆencia, apresentadas
no cap´ıtulo anterior, ser˜ao usadas para resumir a informa¸ao da autocorrela¸ao. Atraes
83
destas estat´ısticas ser´a feita a compara¸ao entre os resultados obtidos pelos esquemas. A
id´eia ´e que se a blocagem ´e ben´efica, enao as autocorrela¸oes das cadeias obtidas com a
aplica¸ao do Esquema 3 ser˜ao as menores.
Este estudo comparativo ser´a aplicado tanto ao modelo espacial simples quanto ao
modelo espacial de regress˜ao. A configura¸ao da estrutura espacial utilizada ser´a a mesma
informada no cap´ıtulo anterior, ou seja, 500 regi˜oes para o modelo espacial simples e 150
regi˜oes para sua extens˜ao considerando componentes de regress˜ao. Em um estudo de
modelos espaciais como estes a quantidade de regi˜oes exerce influˆencia sobre os resultados.
´
E importante notar que ao est´a sendo afirmado que a quantidade de vizinhos exerce
influˆencia, mas sim a quantidade de regi˜oes. Quanto maior o n´umero de regi˜oes mais
evidentes ser˜ao os resultados encontrados. Por isso as conclus˜oes baseadas nas an´alises do
modelo espacial simples ao as mais importantes, visto que aqui est˜ao sendo consideradas
mais regi˜oes que no estudo do modelo espacial de regress˜ao.
A organiza¸ao do cap´ıtulo ser´a feita da seguinte forma: A Se¸ao 6.1 compara a estru-
tura de autocorrela¸ao das cadeias considerando os e squemas de amostragem aplicados
ao modelo espacial simples. A Se¸ao 6.2 realiza o mesmo tipo de compara¸ao levando
em conta o modelo espacial de regress˜ao m´ultipla. A Se¸ao 6.3 fecha o cap´ıtulo com as
principais conclus˜oes.
6.1 Compara¸oes no modelo espacial simples
O ponto de partida para esta an´alise ser´a especificar os detalhes da configura¸ao
adotada com rela¸ao aos algoritmos MCMC, gera¸ao de dados simulados e distribui¸oes
a priori do modelo. Em primeiro lugar vale ressaltar a conclus˜ao tirada no Cap´ıtulo 5
com rela¸ao a este modelo espacial: somente a modelagem considerando distribui¸ao a
priori impr´opria para (θ | σ
2
, W ) ser´a usada.
As an´alises desenvolvidas neste cap´ıtulo ao objetivam comparar o comportamento
das cadeias considerando diferentes quantidades de vizinhos. Este estudo ser´a desen-
volvido mais adiante. A compara¸ao principal ´e relacionada aos esquemas de amostra-
gem empregados, portanto a estrutura e spacial ser´a a mesma utilizada no Cap´ıtulo 5.
84
Esta estrutura considera um espa¸co dividido em 500 regi˜oes onde a regi˜ao i ´e vizinha de
(i 1) e (i + 1) para i = 2, . . . , 499.
Na gera¸ao de dados simulados considere a especifica¸ao a priori θ
1
N(0, 100).
Adote para os hiperparˆametros os seguintes valores reais: σ
2
= 10 e W = 0.1. O
comportamento dos dados utilizados est´a mostrado na Figura 5.3 do cap´ıtulo anterior.
Assuma para a modelagem espacial as seguintes especifica¸oes a priori: σ
2
GI(5, 60)
e W GI(2.001, 0.3001). Estas distribui¸oes apresentam moda igual ao valor real dos
hiperparˆametros, outros detalhes ao fornecidos no Cap´ıtulo 5. Nos algoritmos MCMC
utilizados atribua para os hiperparˆametros sementes iguais a seus respectivos valores
reais. Este ao ´e um estudo de convergˆencia, portanto, ao ser˜ao consideradas sementes
diferentes destas. Assuma o valor zero como ponto de partida das cadeias referentes a
cada θ
i
no Esquema 1. A seguinte configura¸ao ´e usada: Cadeias ser˜ao formadas por
1500 itera¸oes sem de scartar qualquer observao referente ao Burn-in.
Se os m´etodos MCMC forem empregados mais de uma vez e os tamanhos efetivos
da amostra calculados e comparados para as cadeias replicadas, ser˜ao observados valores
diferentes resumindo a autocorrela¸ao. A aleatoriedade envolvida nos procedimentos
destes etodos determina esta diferen¸ca. Para estudar a autocorrela¸ao das cadeias da
maneira mais geral poss´ıvel 50 replica¸oes ser˜ao realizadas. As estat´ısticas n
eff
e dn
eff
ser˜ao calculadas f ormando assim uma amostra de 50 valores resumindo a autocorrela¸ao
das cadeias replicadas para cada parˆametro.
A Tabela 6.1 mostra uma compara¸ao entre os esquemas de amostragem considerando
a mediana calculada para a amostra de n
eff
’s relacionada a cada parˆametro do modelo.
Existem determinados casos, que ocorrem com muito pouca frequˆencia, onde o fator de
ineficiˆencia aproxima-se de 0 assumindo um valor positivo ou negativo. Quando isto
ocorre o tamanho efetivo da amostra calculado para a cadeia assume um valor muito
grande em odulo, tornando-se um outlier perante os demais na amostra de replica¸oes.
Para evitar que a estimativa da amostra seja muito influenciada por valores at´ıpicos,
adotou-se a mediana ne sta an´alise.
85
Parˆametro Esquema 1 Esquema 2 Esquema 3
θ
1
22.29 1025.55 1227.10
θ
250
27.27 1340.83 1573.74
θ
500
22.03 1550.87 1653.39
σ
2
29.41 623.97 142.98
W 21.17 29.59 45.53
log(π) 20.55 29.79 47.71
Tabela 6.1: Mediana para a amostra de n
eff
’s.
Quanto maior o valor da mediana menos autocorrelacionada ´e a cadeia. Perceba que
o pior desempenho fica por conta do Esquema 1 cujas estimativas ao as menores para
todos os parˆametros entre os trˆes esquemas. As cadeias menos autocorrelacionadas ao
na maioria geradas pelo Esquema 3. Note pela tabela que as medianas ao maiores para
este esquema em compara¸ao c om os demais. O desempenho do Esquema 3 foi inferior
ao do Esquema 2 apenas para as cadeias do hiperparˆametro σ
2
.
Os resultados observados na Tabela 6.1 podem tamb´em ser vistos atrav´es das Figuras
6.1 e 6.2. Nelas ao mostrados gr´aficos do tipo box-plot, sumarizando a informa¸ao da
amostra de tamanho 50, para o fator de ineficiˆencia e para as autocorrela¸oes de ordem
1 a 50. O tipo de box-plot constru´ıdo para as an´alises deste trabalho indicam as medidas
amostrais: 1
o
quartil, mediana e 3
o
quartil. Observoes at´ıpicas ao identificadas por
pontos.
A Figura 6.1 mostra claramente que as autocorrela¸oes das cadeias referentes aos
θ
i
’s ´e superior para o Esquema 1. Perceba que os box-plot’s est˜ao localizados em pata-
mares mais altos para es te esquema se comparado com os gr´aficos dos Esquemas 2 e
3. Esta informa¸ao de que o Esquema 1 tem pior desempe nho tamem ´e comprovada
pela compara¸ao dos box-plot’s para a amostra do fator de ineficiˆencia. Quanto maior
a autocorrela¸ao mais alta ´e a localiza¸ao do box-plot. Os Esquemas 2 e 3 adotam o
mesmo procedimento na gera¸ao do vetor θ, isto explica o comportamento parecido das
autocorrela¸oes de suas cadeias.
A Figura 6.2 sumariza a informa¸ao da amostra de tamanho 50 atrav´es de box-plot’s
86
para as autocorrela¸oes das cadeias referentes a σ
2
, W e log(π). Perceba que novamente
´e vis´ıvel a localiza¸ao dos gr´aficos em patamares mais elevados indicando cadeias mais
autocorrelacionadas para o Esquema 1. Note que no caso do parˆametro σ
2
as autocor-
rela¸oes de ordens pequenas ao altas para o Esquema 3, a o Esquema 2 manteve um
patamar sempre baixo. Isto determinou o melhor desempenho do Esquema 2 observado
na Tabela 6.1 em termos de autocorrela¸oes para as cadeias deste hipe rparˆametro.
Esquema 1 Esquema 2 Esquema 3
Figura 6.1: dn
eff
e autocorrela¸oes das cadeias: θ
1
, θ
250
e θ
500
87
Esquema 1 Esquema 2 Esquema 3
Figura 6.2: dn
eff
e autocorrela¸oes das cadeias: σ
2
, W e log(π).
Concluindo esta an´alise ´e poss´ıvel afirmar que o Esquema 1 ´e aquele que gera cadeias
mais autocorrelacionadas para os parˆametros. Na maioria dos casos o Esquema 3 ´e quem
mostrou cadeias com as menores autocorrela¸oes. O Esquema 2 superou o Esquema 3
apenas para cadeias do hiperparˆametro σ
2
. Esta conclus˜ao confirma resultados encon-
trados na literatura e permite que o seguinte ranking, ordenando do pior para o melhor,
seja informado: Esquema 1 < Esquema 2 < Esquema 3.
88
6.2 Compara¸oes no modelo espacial de regress˜ao
m´ultipla
O estudo comparativo entre os esquemas de amostragem ser´a voltado nesta se¸ao para
o modelo espacial de regress˜ao m´ultipla. Esta modelagem ´e apenas uma extens˜ao do mo-
delo espacial simples cujos resultados foram analisados a pouco, sendo assim conclus˜oes
similares ao esperadas caso a mesma configura¸ao espacial seja aplicada.
ˆ
Enfase deve
ser dada a um aspecto muito importante que influencia os resultados comparativos. A
estrutura espacial configurada neste modelo espacial cont´em 150 regi˜oes, valor este infe-
rior ao considerado para o modelo espacial simples. A menor quantidade de regi˜oes ao
propicia a obten¸ao de resultados ao evidentes quanto aqueles que podem ser obtidos
usando estruturas com mais componentes. As principais conclus˜oes deste cap´ıtulo devem
ser extra´ıdas da an´alise feita na se¸ao anterior. O e studo acrescentado aqui serve para
comprovar a influˆencia do n´umero de regi˜oes sobre os resultados e abrir caminho para a
an´alise da influˆencia da vizinhan¸ca sobre os etodos MCMC desenvolvida no pr´oximo
cap´ıtulo.
Conforme a mencionado a estrutura espacial considera 150 regi˜oes e a configura¸ao
de vizinhan¸ca determina 2 vizinhos (i1) e (i+1) para a regi˜ao i = 2, . . . , 149. Considere
a especifica¸ao a priori β
1
N(a, R) onde a = (0, 0, 0)
e R = diag(100, 100, 100) na
gera¸ao de dados simulados. Al´em dis so assuma neste passo os s eguintes valores reais
para os hiperparˆametros:
σ
2
= 10.
W =
0.10 0.05 0
0.05 0.10 0.05
0 0.05 0.10
.
O comportamento dos dados utilizados est´a mostrado na Figura (5.8). As s eguintes
distribui¸oes a priori ao especificadas para a modelagem espacial:
σ
2
GI(5, 60).
89
W W I(2, S
w
n
w
) onde S
w
n
w
=
2
15
0 0
0
2
20
0
0 0
2
15
.
Perceba que a mesma configura¸ao indicada no Cap´ıtulo 5 para o mo delo espacial de
regress˜ao est´a sendo novamente empregada. Consulte o cap´ıtulo anterior para maiores
detalhes a respeito destas configura¸oes.
Estabele¸ca no etodo MCMC que as cadeias dos hiperparˆametros partem de seus
respectivos valores reais. Particularmente, defina para o Gibbs Sampling empregado no
Esquema 1 o valor zero como ponto de partida da cadeia de θ
i
. ao solicitadas 1500
itera¸oes sem descartar elementos em um per´ıodo de Burn-in. Os programas implemen-
tados ser˜ao executados 50 vezes formando uma amostra de 50 replica¸oes das c adeias.
Para cada uma delas calculam-se as estat´ısticas n
eff
e dn
eff
.
Parˆametro Esquema 1 Esquema 2 Esquema 3
β
0,1
20.11 318.89 267.73
β
0,75
18.06 376.06 281.59
β
0,150
20.62 500.55 409.95
β
1,1
21.03 574.70 425.56
β
1,75
18.89 219.53 174.66
β
1,150
20.02 692.26 518.60
β
2,1
16.87 307.91 252.71
β
2,75
16.08 436.15 344.84
β
2,150
16.53 790.41 693.31
Tabela 6.2: Mediana para a amostra de n
eff
’s: Coeficientes de regress˜ao.
As Tabelas 6.2 e 6.3 mostram a mediana calculada para a amostra de n
eff
’s rela-
cionada a cada parˆametro. Note atraes da Tabela 6.2 que o tamanho efetivo da amostra
´e menor para as cadeias obtidas usando o Esquema 1. Isto tamb´em foi observado no
modelo espacial simples com rela¸ao aos θ
i
’s. As estimativas informadas na Tabela 6.3
90
mostram que para uma pequena quantidade de regi˜oes, os Esquemas 1 e 3 ao semelhantes
em termos de autocorrela¸ao das cadeias.
Parˆametro Esquema 1 Esquema 2 Esquema 3
σ
2
18.36 521.50 84.91
det(W ) 27.14 47.10 25.91
log(π) 20.49 37.46 24.29
W
00
23.17 36.69 22.63
W
01
22.50 34.47 22.81
W
02
22.07 37.54 24.48
W
11
23.47 38.71 22.77
W
12
22.94 40.83 24.45
W
22
22.38 41.13 25.39
Tabela 6.3: Mediana para a amostra de n
eff
’s: σ
2
, det(W ), log(π) e componentes de W .
O aspecto marcante desta an´alise ´e o fato de que o esquema de amostragem 2 ´e aquele
com melhor desempenho entre os trˆes. Veja atrav´es das duas tabelas que o tamanho
efetivo da amostra calculado para as cadeias deste esquema ao os maiores. Comparando
com a conclus˜ao da Se¸ao 6.1, o ranking de desempenho dos esquemas de amostragem
constru´ıdo aqui mant´em o Esquema 2 na frente do Esquema 1. A utiliza¸ao de uma
estrutura espacial com menos regi˜oes influenciou bastante os resultados do Esquema 3
que acabou perdendo o primeiro lugar.
As Figuras 6.3 e 6.4 proporcionam uma avalia¸ao visual da diferen¸ca entre as es-
truturas de autocorrela¸ao das cadeias obtidas com a aplica¸ao dos trˆes esquemas. Os
gr´aficos do tipo box-plot resumem a informa¸ao das amostras de 50 valores da estat´ıstica
fator de ineficiˆencia. Quanto mais alto for o posicionamento do gr´afico maior ser´a a au-
tocorrela¸ao estimada para a cadeia. Para ao extender a an´alise e evitar repeti¸oes, os
box-plot’s referentes `as amostras de autocorrela¸oes at´e ordem 50 ao mostrados na Se¸ao
C do Apˆendice localizado no fim deste trabalho. As principais conclus˜oes ao destacadas
a seguir.
91
Figura 6.3: Box-plot para o fator de ineficiˆencia dn
eff
: β
0
, β
75
e β
150
A Figura 6.3 apresenta resultados referentes aos coeficientes de regress˜ao das regi˜oes
1, 75 e 150.
´
E poss´ıvel notar o mau desempenho do Esquema 1 cujos gr´aficos est˜ao sempre
em um patamar mais alto indicando cadeias mais autocorrelacionadas. Note tamb´em que
o Esquema 3 apesar de ligeiramente pior acompanha de perto o desempenho do Esquema
2. Isto se deve ao fato de que ambos utilizam o mesmo procedimento para amostragem
do vetor β.
92
Figura 6.4: Box-plot para o fator de ineficiˆencia dn
eff
: σ
2
, det(W ), log(π) e componentes
de W .
A Figura 6.4 mostra os resultados referentes aos hip erparˆametros e a log(π). Perceba
que em todos os casos ´e evidente o melhor desempenho do Esquema 2 cujos box-plot’s
localizam-se em um patamar mais baixo, indicando menor autocorrela¸ao. O Esquema
3 supera o Esquema 1 com maior vantagem apenas para cadeias do hiperparˆametro σ
2
.
93
6.3 Conclus˜oes do cap´ıtulo
A compara¸ao entre os esquemas de amostragem foi o foco central deste cap´ıtulo que
procurou reproduzir resultados indicados na literatura. Trabalhos anteriores envolvendo
m´etodos MCMC concluem que a blocagem dos parˆametros para amostragem conjunta
´e fator que beneficia os resultados. O crit´erio de compara¸ao utilizado neste trabalho
´e a an´alise da estrutura de autocorrela¸ao das cadeias. Estat´ısticas que resumem esta
informa¸ao presente em uma s´erie de dados foram definidas no Cap´ıtulo 5 e empregadas
aqui.
O primeiro modelo analisado nesta se¸ao foi o modelo espacial simples considerando
distribui¸ao a priori impr´opria para (θ | σ
2
, W ). Uma estrutura espacial contendo 500
regi˜oes, ordenadas em uma reta, foi usada no estudo. A estrutura de vizinhan¸ca estabelece
que a regi˜ao i ´e vizinha de (i1) e (i +1). As configura¸oes relacionadas `a gera¸ao de dados
simulados, `a modelagem espacial e aos algoritmos MCMC foram as mesmas usadas no
estudo do Cap´ıtulo 5. Os resultados confirmaram as indica¸oes da literatura e o seguinte
ranking ode ser estabelecido para os esquemas: Esquema 1 < Esquema 2 < Esquema
3.
A an´alise do modelo espacial de regress˜ao considerou um espa¸co contendo menos
regi˜oes (150). A estrutura de vizinhan¸ca com 2 vizinhos, usada no modelo espacial
simples, tamb´em foi adotada aqui. A menor quantidade de regi˜oes influenciou os re-
sultados do Esquema 3 tornando suas cadeias mais autocorrelacionadas. Observou-se
uma altera¸ao no ranking de desempenho dos esquemas em rela¸ao ao estudo do modelo
espacial simples. O Esquema 2 foi aquele cujas cadeias indicaram menor autocorrela¸ao.
Aqui ´e finalizado o estudo de compara¸ao proposto no Cap´ıtulo 6. O trabalho abre
caminho para a an´alise de vizinhan¸ca realizada no pr´oximo cap´ıtulo que tamb´em utiliza
como crit´erio de compara¸ao as autocorrela¸oes das cadeias. Ao contr´ario dos resultados
analisados at´e este instante, o assunto tratado a seguir ´e novo ao havendo na literatura
registros de an´alises semelhantes.
94
Cap´ıtulo 7
Influˆencia da vizinhan¸ca sobre os
algoritmos MCMC
Diversas ao as possibilidades de configura¸oes das estruturas espaciais utilizadas na
an´alise de um modelo espacial. No Cap´ıtulo 6 foi poss´ıvel observar que o modelo espacial
simples aplicado a uma estrutura contendo 500 regi˜oes indicou as cadeias, obtidas na
adapta¸ao do Esquema 3, como as menos autocorrelacionadas. Uma estrutura contendo
150 regi˜oes foi usada no estudo do modelo espacial de regress˜ao m´ultipla. Esta menor
quantidade de divis˜oes do espa¸co determinou uma pior performance do Esquema 3 em
rela¸ao ao Esquema 2 em termos de autocorrela¸ao das cadeias.
Al´em de diferen¸cas no n´umero de regi˜oes a estrutura de vizinhan¸ca ´e outro elemento
que pode promover altera¸oes no comportamento das cadeias. O objetivo que motivou
este trabalho diz respeito a este aspecto. Um modelo espacial pode ser usado para
analisar estruturas de vizinhan¸cas simples como aquelas que estabelecem 2 vizinhos por
regi˜ao, ou estruturas onde a quantidade de vizinhos ´e maior (por exemplo todas as
regi˜oes vizinhas entre si). Deseja-se verificar quais os tipos de altera¸oes ao observados
no comportamento dos m´etodos MCMC, utilizados em cada esquema de amostragem,
diante de diferentes configura¸oes de vizinhan¸ca.
A autocorrela¸ao das cadeias ´e novamente o crit´erio de compara¸ao. No cap´ıtulo
anterior ela foi usada para confrontar os esquemas de amostragem. O foco central aqui
ser´a realizar dentro de cada esquema uma compara¸ao entre as estat´ısticas que resumem
95
a autocorrela¸ao das cadeias obtidas com o uso de dife rentes estruturas de vizinhan¸cas.
Para que o estudo apresente resultados de maior abrangˆencia ser´a usada a estrat´egia de
executar os programas 50 vezes obtendo assim amostras de replica¸oes das cadeias. Em
termos de resultados gr´aficos, box-plot’s ser˜ao usados para apresentar a informa¸ao de
cada amostra.
O trabalho desenvolvido no Cap´ıtulo 6 considerou um espa¸co onde a estrutura de
vizinhan¸ca determina 2 vizinhos (i 1) e (i + 1) para as regi˜oes i = 2, . . . , 499 no mo-
delo espacial simples e i = 2, . . . , 149 no modelo espacial de regress˜ao.
´
E importante
destacar que os resultados apresentados neste s´etimo cap´ıtulo ir˜ao abranger novos ca-
sos relacionados a outras estruturas de vizinhan¸cas, configurando de certa forma uma
extens˜ao.
Este cap´ıtulo est´a organizado da seguinte maneira: A Se¸ao 7.1 mostra o estudo da
influˆencia da vizinhan¸ca considerando o modelo espacial simples. A Se¸ao 7.2 apresenta
este mesmo estudo configurado para o modelo espacial de regress˜ao ultipla. O cap´ıtulo
ser´a finalizado na Se ¸ao 7.3 com as principais conclus˜oes extra´ıdas das an´alises.
7.1 An´alise no modelo espacial simples
Um espa¸co dividido em 500 regi˜oes ser´a analisado atrav´es do modelo espacial simples.
Diversas configura¸oes de vizinhan¸cas podem ser estudadas, em particular assuma as 9
especifica¸oes: 2, 10, 20, 50, 100, 200, 300, 400 e 499 vizinhos. A matriz banda diago-
nal apresentada na Se¸ao 2.4 do Cap´ıtulo 2 ´e levada em considera¸ao para a completa
defini¸ao das estruturas espaciais onde foram especificados valores pares para representar
a quantidade de vizinhos por regi˜ao. A t´ıtulo de exemplo considere a configura¸ao de 10
vizinhos. A matriz banda diagonal determina que os vizinhos das regi˜oes i = 6, . . . , 495
ao: (i 5), (i 4), (i 3), (i 2), (i 1), (i + 1), (i + 2), (i + 3), (i + 4), (i + 5), ou seja, as
cinco regi˜oes com valores dos ´ındices mais pr´oximos de i `a esquerda e `a direita. A ´ultima
configura¸ao adotada representa um espa¸co onde todas as regi˜oes ao vizinhas entre si.
Este caso est´a relacionado a uma matriz K cujo comprimento da banda cobre to dos os
elementos matriciais. A diagonal principal cont´em a quantidade de vizinhos e todos os
96
demais componentes ao ao nulos (iguais a - 1).
As diferentes estruturas de vizinhan¸cas exigem que um conjunto de dados simulados
seja gerado para cada uma delas. A estrat´egia para uniformizar esta obten¸ao dos dados
foi especific ar nos diferentes casos os mesmos valores reais para os hiperparˆametros (σ
2
=
10 e W = 0.1). Al´em disto a distribui¸ao a priori θ
1
N(0, 100) foi usada nas 9
configura¸oes de vizinhan¸cas para permitir a gera¸ao do vetor θ.
As cadeias dos hiperparˆametros nos algoritmos MCMC partem de seus respectivos
valores reais informados a pouco. No esquema de amostragem 1 adote para o Gibbs
Sampling cadeias partindo do valor zero para todo θ
i
. Ser˜ao realizadas 1500 itera¸oes
dos algoritmos para a forma¸ao das cadeias. Conforme a mencionado 50 replica¸oes
ser˜ao obtidas para cada uma das 9 configura¸oes de vizinhan¸cas. O modelo espacial
simples ´e composto neste caso por 502 parˆametros (componentes de θ, σ
2
e W ). Por-
tanto, uma an´alise completa exige a descri¸ao dos resultados para 503 cadeias (incluindo
aqui log(π)). Salvar cada uma delas durante a execu¸ao dos programas exige muito
da mem´oria computacional determinando uma maior lentid˜ao nas itera¸oes. Todas as
cadeias ser˜ao obtidas mas apenas 6 delas ser˜ao salvas: θ
1
, θ
250
, θ
500
, σ
2
, W e log(π).
A modelagem espacial utiliza as seguintes especifica¸oes a priori para os hiper-
parˆametros: σ
2
GI(5, 60) e W GI(2.001, 0.3001). Perceba que estas ao as mesmas
distribui¸oes usadas nas an´alises anteriores do mode lo espacial simples, suas modas ao
os respectivos valores reais atribu´ıdos na gera¸ao dos dados simulados. Vale destacar
novamente que este modelo utiliza distribui¸ao a priori impr´opria para (θ | σ
2
, W ) e
apenas esta abordagem ser´a estudada. Estas especifica¸oes ao fixadas para todas as
configura¸oes de vizinhan¸cas.
A estat´ıstica n
eff
ser´a calculada para cada replica¸ao da cadeia relacionada a um dos
parˆametros.
´
E atrav´es dela que ser´a avaliada a estrutura de auto correla¸ao das cadeias
referentes a cada configura¸ao de vizinhan¸ca. A Figura 7.1 mostra a compara¸ao de
gr´aficos box-plot’s resumindo a informa¸ao da amostra de tamanhos efetivos da amostra
para os parˆametros θ
1
, θ
250
e θ
500
. O logaritmo do n
neff
est´a sendo usado para evitar que
a magnitude dos dados prejudique a escala de compara¸ao. Note que entre os resultados
do E squema 1, os gr´aficos referentes `as configura¸oes dos extremos (2 e 499 vizinhos)
97
indicam menor autocorrela¸ao (box-plot’s mais altos, maior n
neff
). ao ´e poss´ıvel afirmar
para as demais configura¸oes de vizinhan¸cas dentro deste esquema de amostragem que
a diferen¸ca entre os n´ıveis de autocorrela¸ao.
Esquema 1 Esquema 2 Esquema 3
Figura 7.1: log n
eff
vs. quantidade de vizinhos: θ
1
, θ
250
e θ
500
.
Os Esquemas 2 e 3 aplicam o mesmo procedimento para amostrar θ. Este fato se
reflete nos n´ıveis semelhantes do tamanho efetivo da amostra. Comparando os esquemas
´e evidente o pior desempenho do Esquema 1 em termos de autocorrela¸ao das cadeias
98
para todos os 9 casos. O comp ortamento dos gr´aficos box-plot’s nos Esquemas 2 e 3
ao permite afirmar a existˆencia de qualquer diferen¸ca nas autocorrela¸oes ao longo das
configura¸oes de vizinhan¸cas.
Esquema 1 Esquema 2 Esquema 3
Figura 7.2: log n
eff
vs. quantidade de vizinhos: σ
2
, W e log(π).
A Figura 7.2 detalha informa¸oes das estruturas de autocorrela¸oes das cadeias refe-
rentes a σ
2
, W e log(π). Em primeiro lugar considere o caso referente ao hiperparˆametro
99
σ
2
dentro do Esquema 1. Este ´e o caso mais evidente de diferen¸ca no valor do tamanho
efetivo da amostra ao longo das diferentes configura¸oes de vizinhan¸cas. Perceba que
quanto maior a quantidade de vizinhos maior ´e a variabilidade existente na amostra e
menor ´e a autocorrela¸ao da cadeia. Em outras palavras, a maior quantidade de vizinhos
para as regi˜oes do espa¸co determina um melhor desempenho do Esquema 1 em termos
de obten¸ao de cadeias menos autocorrelacionadas para σ
2
. As cadeias para W e log(π)
(Esquema 1) ao indicam diferen¸ca no tamanho efetivo da amostra entre as diferentes
configura¸oes de vizinhan¸cas.
Os Esquemas 2 e 3 registram uma tendˆencia de diminui¸ao na estat´ıstica n
eff
para
os parˆametros W e log(π). Perceba nestes casos que os box-plot’s para pequenas quan-
tidades de vizinhos ao mais altos que aqueles observados para as estruturas com mais
vizinhan¸cas.
´
E poss´ıvel afirmar que o n´ıvel de autocorrela¸ao destas cadeias ´e menor para
estruturas que determinam poucas vizinhan¸cas entre as regi˜oes integrantes. Em termos
visuais estas conclus˜oes ao mais evidentes para os gr´aficos do Esquema 3.
O hiperparˆametro σ
2
parece indicar uma tendˆencia de aumento na estat´ıstica n
eff
ao longo dos diferentes casos de vizinhan¸cas dentro do Esquema 2. Maior n´umero de
vizinhos determina menor autocorrela¸ao das cadeias. Os resultados do Esquema 3 para
as cadeias deste hiperparˆametro ao demonstram influˆencia da vizinhan¸ca. Todos os
box-plot’s referentes `as cadeias de σ
2
no Esquema 3 est˜ao localizados em um patamar
mais baixo que aqueles do Esquema 2. Isto indica o melhor desempenho do Es quema
2 em termos de autocorrela¸ao, conclus˜ao que foi tirada no Cap´ıtulo 6 e confirmada
aqui para outras configura¸oes de vizinhan¸cas. Perceba no Esquema 1 que a melhora
na autocorrela¸ao das cadeias de σ
2
, promovida p elo maior n´umero de vizinhos, ´e de tal
forma que chega a ser semelhante ao desempenho do Esquema 2 e supera o Esquema 3.
Concluindo esta se¸ao ´e poss´ıvel afirmar que existe influˆencia da vizinhan¸ca sobre os
algoritmos MCMC utilizados nos diferentes esquemas de amostragem. Esta influˆencia ´e
verificada para alguns dos parˆametros envolvidos no modelo. A pr´oxima se¸ao aplica o
mesmo tipo de estudo considerando o modelo espacial com componentes de regress˜ao.
100
7.2 An´alise no modelo espacial de regress˜ao m´ultipla
Esta se¸ao pretende estudar a influˆencia da vizinhan¸ca sobre os etodos MCMC con-
siderando uma extens˜ao do modelo e spacial simples. Apesar de introduzir componentes
de regress˜ao que ao foram considerados na se¸ao anterior, espera-se que os resultados
observados sejam semelhantes.
Um espa¸co contendo 150 regi˜oes ser´a estudado por meio desta modelagem. As
seguintes configura¸oes de vizinhan¸cas ao aplicadas: 2, 10, 20, 50, 100 e 149 vizinhos.
A matriz banda diagonal (Se¸ao 2.4, Cap´ıtulo 2) define com mais detalhes estas 6 con-
figura¸oes. O caso 2 vizinhos representa uma estrutura onde as regi˜oes est˜ao ordenadas
ao longo da reta determinando (i 1) e (i + 1) como vizinhos de i = 2, . . . , 149. O caso
149 ´e aquele onde todas as regi˜oes ao vizinhas uma das outras.
Um conjunto de dados s imulados deve ser gerado para cada uma das configura¸oes
de vizinhan¸cas. Visando homogeneizar a obten¸ao destes dados os seguintes valores reais
ao especificados nos 6 procedimentos:
σ
2
= 10
W =
0.10 0.05 0
0.05 0.10 0.05
0 0.05 0.10
.
Outra caracter´ıstica fixada ´e a escolha da distribui¸ao a priori θ
1
N(a, R), onde
a = (0, 0, 0)
e R = diag(100, 100, 100), para pe rmitir a gera¸ao do vetor β.
Os algoritmos MCMC formam cadeias para os hipe rparˆametros considerando como
sementes os valores reais indicados a pouco. O Gibbs Sampling aplicado no Esquema 1
exige a especifica¸ao de valores iniciais para os componentes do vetor β. Adote o zero
como ponto de partida destas cadeias. ao solicitadas 1500 itera¸oes nos etodos MCMC.
50 replica¸oes ser˜ao obtidas de cada cadeia e uma amostra da estat´ıstica n
eff
salva para
a an´alise comparativa das 6 configura¸oes de vizinhan¸cas. Buscando uma an´alise mais
simplificada e evitando um maior custo computacional em termos de mem´oria, ser˜ao
salvas para an´alise apenas as cadeias dos coeficientes referentes `as regi˜oes 1, 75 e 150.
101
Entre os demais parˆametros do modelo considere neste estudo σ
2
, W e log(π).
Este modelo espacial adota as seguintes especifica¸oes a priori para os hiperparˆametros:
σ
2
GI(5, 60) cuja moda ´e o valor real (10).
W W I(2, S
w
n
w
) onde S
w
n
w
=
2
15
0 0
0
2
20
0
0 0
2
15
.
Estas ao as mesmas escolhas usadas nas an´alises anteriores desempenhadas para o mo-
delo espacial de regress˜ao m´ultipla. Vale destacar que as especifica¸oes a priori definidas
aqui ao fixadas para todas as configura¸oes de vizinhan¸cas avaliadas.
Os resultados comparativos obtidos para os coeficientes de regress˜ao ao muito seme-
lhantes. Sendo assim optou-se por apresentar nesta se¸ao apenas uma an´alise relacionada
ao intercepto β
0,i
. Os gr´aficos referentes aos demais coeficientes ao mostrados na Se¸ao D
do Apˆendice, devido `a semelhan¸ca nos resultados as conclus˜oes da an´alise dos interceptos
podem ser extendidas a eles.
A Figura 7.3 mostra gr´aficos box-plot’s que comparam a estrutura de autocorrela¸ao
das cadeias entre as diferentes vizinhan¸cas. Novamente utiliza-se o logaritmo da es-
tat´ıstica n
eff
para evitar dificuldades relacionadas `a escala que prejudicam a compara¸ao.
Note que ao ´e poss´ıvel observar qualquer influˆencia da vizinhan¸ca no n´ıvel de autocor-
rela¸ao das cadeias do Esquema 1. Os gr´aficos est˜ao posicionados em um patamar mais
baixo em compara¸ao com aqueles dos Esquema 2 e 3. Isto indica o pior desempenho
do Esquema 1 ao gerar cadeias mais autocorrelacionadas (menor n
eff
).
´
E poss´ıvel perce-
ber um crescimento no tamanho efetivo da amostra conforme ´e aumentado o n´umero de
vizinhos para as cadeias dos interceptos nos Esquemas 2 e 3. Os resultados destes dois
esquemas ´e semelhante pois aplicam o mesmo procedimento de gera¸ao do vetor β.
A Figura 7.4 compara o tamanho efetivo da amostra nas diferentes configura¸oes de
vizinhan¸cas para as cadeias de σ
2
, det(W) e log(π). O determinante da matriz W ´e uma
medida que resume a informa¸ao matricial e por isso apenas sua cadeia ser´a analisada
nesta se¸ao. Resultados referentes `as cadeias de cada componente desta matriz ao
mostrados na Se¸ao D do Apˆendice deste trabalho.
102
Esquema 1 Esquema 2 Esquema 3
Figura 7.3: log n
eff
vs. quantidade de vizinhos: β
0,1
, β
0,75
e β
0,150
.
Note que no caso de σ
2
associado ao Esquema 1 ´e poss´ıvel observar o mesmo compor-
tamento registrado na an´alise do modelo espacial simples. Quanto maior a quantidade
de vizinhos menos autocorrelacionada s er´a a cadeia (maior n
eff
). Para um espa¸co onde
ao definidos 149 vizinhos o tamanho efetivo da amostra do Esquema 1 chega a superar o
Esquema 3 atingindo o mesmo n´ıvel registrado no Esquema 2. As cadeias para o determi-
nante de W e para log(π) no Esquema 1 ao indicam a existˆencia de qualquer influˆencia
da estrutura de vizinhan¸ca.
103
Esquema 1 Esquema 2 Esquema 3
Figura 7.4: log n
eff
vs. quantidade de vizinhos: σ
2
, det(W ) e log(π).
Os resultados do Esquema 2 ao os mais evidentes quanto ao comportamento diferen-
ciado dos box-plot’s. Perceba que um poss´ıvel crescimento na estat´ıstica n
eff
pode ser
notado para a cadeia de σ
2
conforme ´e aumentada a quantidade de vizinhos. O deter-
minante de W e log(π) indicam, da mesma forma registrada no modelo es pacial simples,
que a menor quantidade de vizinhos favorece a gera¸ao de cadeias menos autocorrela-
cionadas (maior n
eff
). Esta caracter´ıstica tamb´em pode ser notada em rela¸ao `a cadeia
de log(π) no Esquema 3 de forma menos acentuada. ao ´e poss´ıvel afirmar, olhando
104
para os gr´aficos referentes `as cadeias de σ
2
e determinante de W no Esquema 3, que
exista influˆencia da vizinhan¸ca sobre o n´ıvel de autocorrela¸ao. Apesar da influˆencia ao
ser notada para o determinante de W observe pelas Figuras D.3 e D.4, apresentadas no
Apˆendice, que existe influˆencia da vizinhan¸ca sobre a autocorrela¸ao das cadeias dos com-
ponentes da Matriz W. Isto ´e percebido de forma pouco acentuada mas a indica¸ao de
que menores autocorrela¸oes ao determinadas p or estruturas caracterizadas por poucas
vizinhan¸cas.
Concluindo esta se¸ao ´e importante ressaltar que o estudo realizado para o modelo
de regress˜ao ultipla considerou uma estrutura espacial com menos regi˜oes em rela¸ao
`a que foi usada no modelo espacial simples. Conforme foi visto no Cap´ıtulo 6 a menor
quantidade de regi˜oes influencia os resultados do Esquema 3. Por isto a influˆencia da
vizinhan¸ca ´e percebida na autocorrela¸ao das cadeias de log(π) e W de maneira mais evi-
dente para o Esquema 3, no modelo espacial simples , do que o comportamento registrado
para log(π) e componentes de W neste esquema aplicado ao modelo de regress˜ao. Em
geral os resultados obtidos nesta an´alise registram comportamentos semelhantes `aqueles
determinados no modelo espacial simples, fato esperado.
7.3 Conclus˜oes do cap´ıtulo
Neste cap´ıtulo foi desenvolvida a an´alise mais importante deste trabalho onde a in-
fluˆencia da vizinhan¸ca sobre o desempenho dos algoritmos MCMC foi analisada. Diante
de um espa¸co contendo a mesma quantidade de regi˜oes mas considerando estruturas de
vizinhan¸cas diferentes o comportamento das cadeias foi avaliado. O crit´erio de com-
para¸ao foi a estrutura de autocorrela¸ao. Toda configura¸ao relacionada `a gera¸ao de
dados simulados, `a modelagem espacial e aos m´etodos MCMC foi fixada para que outro
fator diferente da vizinhan¸ca ao influenciasse os resultados.
A an´alise iniciou pelo modelo espacial simples. Um espa¸co contendo 500 regi˜oes foi
utilizado e diferentes estruturas de vizinhan¸cas especificadas. Todas as cadeias foram
replicadas 50 vezes e a an´alise da amostra de estat´ısticas n
eff
desenvolvida atrav´es da
compara¸ao de gr´aficos box-plot’s.
105
Foi observada a existˆencia da influˆencia da vizinhan¸ca sobre o n´ıvel de autocorrela¸ao
de arias cadeias analisadas. A diferen¸ca mais marcante ficou por conta da cadeia de
σ
2
no Esquema 1 e de W e log(π) nos Es quemas 2 e 3. No primeiro caso observou-se
uma redu¸ao na autocorrela¸ao conforme a quantidade de vizinhos aumentou. O com-
portamento observado e ntre as cadeias de W e log(π) foi o mesmo, menor autocorrela¸ao
associada a estruturas com poucos vizinhos.
A an´alise do modelo espacial de regress˜ao m´ultipla considerou um espa¸co com menos
regi˜oes e por este motivo os resultados do Esquema 3 foram influenciados tornando-se
menos evidentes. Notou-se um comportamento de decrescimento no n´ıvel de autocor-
rela¸ao das cadeias relacionas a todos os coeficientes de regress˜ao nos Esquemas 2 e 3,
maior quantidade de vizinhos maior tamanho efetivo da amostra. Em geral o mesmo
comportamento observado no modelo espacial simples foi registrado tamb´em aqui.
ao existe uma quantidade de vizinhos ideal que determina a obten¸ao de cadeias
menos autocorrelacionadas nos m´etodos MCMC. Certos casos ao permitem afirmar a
existˆencia da influˆencia da vizinhan¸ca (por exemplo log(π) no Esquema 1), e a casos
onde a influˆencia ´e marcante (por exemplo σ
2
no Esquema 1). Em termos de influˆencia
da vizinhan¸ca o comportamento registrado em todos os gr´aficos dos Esquemas 2 e 3 ao
parecidos. Quando ´e percebida a influˆencia nos dois esquemas, ela ´e na mesma dire¸ao.
O Esquema 1 se diferencia dos demais neste aspecto.
Entre todas as cadeias analisadas talvez aquela referente ao logaritmo do n´ucleo da
densidade a posteriori conjunta seja a mais imp ortante. Ela cont´em informa¸ao de todos
os parˆametros do modelo, o comportamento do n´ıvel de autocorrela¸ao diante das diferen-
tes vizinhan¸cas ´e de certa forma influenciado por todos eles. Note na an´alise do modelo
espacial simples que menores quantidades de vizinhos favorecem cadeias de log(π) menos
autocorrelacionadas. Portanto, se existir press˜ao para escolher a estrutura de vizinhan¸ca
ideal, este ´ultimo comenario deve ser levado e m conta.
106
Cap´ıtulo 8
Conclus˜oes
O estudo de observoes registradas ao longo do espa¸co pode considerar estruturas
de vizinhan¸cas mais simples (caso onde ao definidos 2 vizinhos por regi˜ao) e estruturas
mais gerais (onde por exemplo todas as regi˜oes ao vizinhas entre si). O objetivo que
motivou a realiza¸ao deste trabalho foi verificar a influˆencia da estrutura de vizinhan¸ca
sobre os resultados dos m´etodos MCMC, empregados para amostrar da distribui¸ao a
posteriori conjunta dos parˆametros envolvidos nos modelos espaciais.
Dois mode los espaciais foram usados neste trabalho. O primeiro ´e caracterizado por
uma modelagem mais simplificada, foi chamado de modelo espacial simples. O segundo
´e uma extens˜ao do primeiro incluindo componentes de regress˜ao. Suponha um espa¸co
contendo n regi˜oes, as observoes y
i
est˜ao relacionadas a uma edia que depende do tipo
de modelo espacial usado (θ
i
no modelo simples e β
i
X
i
no modelo de regress˜ao m´ultipla).
Somada a esta m´edia uma perturba¸ao ´e introduzida no modelo inserindo a variabilidade
das observoes. A distribui¸ao N(0, σ
2
) ´e definida para a perturba¸ao encaixando os
modelos analisados aqui dentro da classe dos modelos espaciais normais.
Este cap´ıtulo faz um resumo de tudo que foi feito neste trabalho dando ˆenfase `as
principais conclus˜oes tiradas em cada estudo. A seguinte organiza¸ao ´e usada nesta
finaliza¸ao da disserta¸ao: A Se¸ao 8.1 resume os principais aspectos abordados nos
primeiros cap´ıtulos onde foram detalhados os modelos espaciais utilizados e os esquemas
de amostragem adaptados a estes modelos. A Se¸c ˜ao 8.2 faz um apanhado das conclus˜oes
tiradas ap´os cada an´alise envolvendo aplica¸oes dos modelos. O encerramento ´e feito na
107
Se¸ao 8.3 com a apresenta¸ao de propostas de trabalhos futuros.
8.1 Modelos espaciais e esquemas de amostragem
A primeira providˆencia tomada para dar base ao estudo foi descrever os modelos
utilizados. O modelo espacial simples foi tratado em primeiro lugar. Atrav´es dele ´e
poss´ıvel observar diversas caracter´ısticas comuns a modelos espaciais em geral, com a
vantagem de se trabalhar usando uma modelagem mais simplificada. Em seguida veio a
descri¸ao do modelo espacial de regress˜ao m´ultipla que apresenta uma quantidade maior
de parˆametros a serem estimados. Em particular foram consideradas 2 vari´aveis explica-
tivas neste ´ultimo modelo o que determinou para cada regi˜ao do espa¸co 3 coeficientes de
regress˜ao.
Para evitar repetir informa¸oes considere a seguinte nota¸ao a utilizada anteriormente
para fazer referˆencia aos dois modelos ao mesmo tempo: = θ = (θ
1
, . . . , θ
n
)
quando se
tratar do modelo espacial simples e = β = (β
1
, . . . , β
n
)
no modelo espacial de regress˜ao
m´ultipla.
Neste trabalho Bayesiano uma dis tribui¸ao a priori condicional completa foi especi-
ficada para o vetor Ω. Duas abordagens para a modelagem poderiam ser usadas de-
pendendo da especifica¸ao a priori utilizada para Ω: distribui¸ao a priori pr´opria e
impr´opria. O modelo espacial simples levou em considera¸ao estes dois pontos de vis-
tas mas as an´alises do modelo de regress˜ao considerou apenas a distribui¸ao impr´opria.
A gera¸ao de dados simulados s ´o ´e poss´ıvel atrav´es da especifica¸ao pr´opria mas nada
impede que os dados sejam gerados desta forma enquanto que o modelo aplicado utiliza
especifica¸ao impr´opria. Resultados da literatura garantem que apesar de uma priori
impr´opria as distribui¸oes a posteriori ao pr´oprias.
Algumas propriedades dos modelos foram ressaltadas, entre elas est´a a correspondˆencia
entre a distribui¸ao a priori condicional completa para e a distribui¸ao a priori condi-
cional completa para cada
i
. Foi mostrado que dentro de toda informa¸ao espacial
contida na priori para apenas a informa¸ao dos vizinhos era relevante para
i
. A
distribui¸ao de cada componente do ve tor ´e Normal com edia dada pela m´edia dos
108
j
’s vizinhos. A variˆancia ´e igual `a variˆancia de
i
(denotada por W ) dividida pela quan-
tidade de vizinhos. Portanto, quanto mais vizinhos possuir a regi˜ao i mais informa¸ao
estar´a dispon´ıvel a respeito de seu respectivo
i
. Mais componentes formam o alculo
da edia e menor variabilidade estar´a associada.
Outro elemento importante e que foi mostrado com detalhes ´e a matriz banda diagonal
usada para representar a estrutura espacial. Toda matriz de vizinhan¸ca utilizada nos
modelos espaciais ´e banda diagonal ou poder´a ser banda diagonalizada. Uma matriz deste
tipo apresenta valores ao nulos em torno apenas da diagonal principal. O tamanho da
banda depende da quantidade de vizinhos. A t´ıtulo de exemplo, para um espa¸co contendo
(n 5) regi˜oes e v = 4 vizinhos, a matriz banda diagonal usada neste trabalho determina
que os vizinhos da regi˜ao 3 ao: 1, 2, 4 e 5, ou seja as
v
2
regi˜oes `a esquerda e `a direita
denotadas por ´ındices cujos valores ao os mais pr´oximos de i. Note que esta defini¸ao
exige o uso de estruturas de vizinhan¸cas onde um n´umero par ´e atribu´ıdo para v.
A densidade das distribui¸oes a posteriori conjunta dos parˆametros do modelo foi
calculada em todos os tipos de modelagens empregados. ao ´e poss´ıvel reconhecer o
n´ucleo de uma distribui¸ao de probabilidade em nenhum caso. Isto determina a ne-
cessidade de que etodos indiretos de amostragem sejam aplicados. Os esquemas de
amostragem apresentados no Cap´ıtulo 4 ao diferentes propostas para a realiza¸ao da
tarefa de amostrar valores da distribui¸ao a posteriori conjunta. O fator que diferencia
estes esquemas ´e a blocagem desenvolvida para o conjunto de parˆametros determinando
quais deles ser˜ao amostrados em conjunto. O Esquema 1 amostra
1
, . . . ,
n
, σ
2
e W
individualmente. O Esquema 2 forma 3 blocos para amostragem: Ω, σ
2
e W . O Esquema
3 desempenha a amostragem em bloco ´unico (Ω, σ
2
, W ).
A distribui¸ao a posteriori conjunta ao ´e conhecida mas as condicionais completas a
posteriori p odem ser todas determinadas nos modelos espaciais. Sendo assim o algoritmo
Gibbs Sampling ´e utilizado em todos os esquemas de amostragem. Uma particularidade
exige no Esquema 3 a aplica¸ao do algoritmo Metropolis-Hastings como um passo dentro
do Gibbs Sampling.
Este foi um resumo dos elementos discutidos e apresentados nos 4 primeiros cap´ıtulos
desta disserta¸ao. A seguir ser˜ao relembradas as conclus˜oes extra´ıdas de cada estudo
109
mostrado nos cap´ıtulos restantes e suas influˆencias sobre o andamento do trabalho.
8.2 Conclus˜oes das aplica¸oes e resultados
Antes que qualquer an´alise comparativa envolvendo os trˆes esquemas de amostragem
fosse realizada, era preciso decidir o valor das constantes sintonizadoras que indexam
as distribui¸oes geradoras de propostas para os hiperparˆametros (algoritmo Metropolis-
Hastings, Esquema 3). Valores muito altos foram usados na literatura e apesar de garan-
tirem taxas de aceita¸ao acima de 50% propiciam a gera¸ao de cadeias com grande
autocorrela¸ao deixando em desvantagem o Esquema 3 diante das demais propostas.
Um estudo de otimiza¸ao foi realizado para as constantes sintonizadoras desempenhando
uma busca no espa¸co (0, 35] × (0, 35]. Estat´ısticas que resumem a informa¸ao do n´ıvel de
autocorrela¸ao das cadeias foram definidas: Tamanho efetivo da amostra (n
eff
) e fator
de ineficiˆencia (dn
eff
). O objetivo do estudo de otimiza¸ao era determinar o par de cons-
tantes sintonizadoras que determinavam cadeias onde a estat´ıstica n
eff
assumia o maior
valor poss´ıvel. A configura¸ao escolhida ´e dada por constantes iguais a 5, sendo aplicada
em todas as an´alises envolvendo o Esquema 3.
Objetivando comprovar a qualidade das estimativas obtidas com o uso dos mode los
espaciais, um estudo mostrando resultados de inferˆencia foi desenvolvido. Em primeiro
lugar as cadeias, geradas pelos m´etodos MCMC adaptados a c ada esquema, foram
mostradas para a comprovao da convergˆencia. Em todos os casos foi poss´ıvel afirma
a existˆencia da convergˆencia. Eliminando 2000 itera¸oes como Burn-in uma amostra
foi extra´ıda de cada cadeia e avaliada para obten¸ao de estimativas. Uma das princi-
pais compara¸oes envolveu o modelo espacial simples considerando distribui¸ao a priori
pr´opria e impr´opria para (θ | σ
2
, W ). Os resultados comprovaram que o modelo assu-
mindo distribui¸ao impr´opria a priori ao possui nenhuma desvantagem em termos de
estima¸ao com rela¸ao ao modelo aplicando distribui¸ao a priori pr´opria. Dado esta con-
clus˜ao decidiu-se utilizar nas an´alise posteriores apenas o modelo espacial simples com
priori impr´opria para (θ | σ
2
, W ).
Outra compara¸ao feita envolveu os esquemas de amostragem. As trˆes propostas
110
amostram da mesma distribui¸ao a posteriori conjunta, portanto, as estimativas obtidas
em cada uma delas deveriam ser parecidas. Este fato foi verificado no estudo do Cap´ıtulo
5 para os dois modelos espaciais.
Uma vez que foi evidenciado o bom desempenho dos modelos em termos de inferˆencia
o estudo seguinte buscou comparar os esquemas de amostragem usando como crit´erio a
autocorrela¸ao das cadeias. 50 replica¸oes das cadeias foram usadas para formar amostras
das estat´ısticas n
eff
e dn
eff
. A mediana foi tomada para cada amostra e avaliada na
compara¸ao. 500 regi˜oes foram analisadas no modelo espacial simples e 150 no modelo
espacial de regress˜ao. O seguinte ranking ode ser estabelecido considerando resultados
do modelo espacial simples: Esquema 1 < Esquema 2 < Esquema 3, ou seja, o Esquema 1
foi quem apresentou as cadeias mais autocorrelacionadas e o Esquema 3 quem apresentou
cadeias com menor autocorrela¸ao.
A menor quantidade de regi˜oes influencia os res ultados do Esquema 3 determinando
cadeias mais autocorrelacionadas. O ranking estabelecido no modelo espacial de regress˜ao
coloca o Esquema 2 na frente dos demais. O Esquema 1 continua sendo o pior, mas em
certos casos chega a igualar o desempenho do Esquema 3. Resultados na compara¸ao
dos esquemas de amostragem ao mais evidentes quando o n´umero de regi˜oes utilizado ´e
maior, desta maneira as conclus˜oes tiradas com a an´alise do modelo espacial simples ao
as mais relevantes.
O e studo comparativo aplicando configura¸oes de vizinhan¸cas diferentes ´e o ´ultimo
realizado neste trabalho e tamb´em o mais importante. Um cuidado maior deve ser
tomado na configura¸ao dos programas que desempenham tarefas mais demoradas ob-
tendo tamb´em uma quantidade maior de cadeias a serem analisadas. O cuidado principal
´e certificar que: o procedimento de gera¸ao de dados foi uniformizado para cada amostra
referente a uma configura¸ao de vizinhan¸ca, as distribui¸oes a priori ao as mesmas
em cada execu¸ao de um programa que aplica o modelo espacial, os valores iniciais e a
quantidade de itera¸oes ao as mesmas nos algoritmos MCMC. No modelo espacial de
regress˜ao m´ultipla deve ser garantido tamb´em que as vari´aveis explicativas ao as mesmas
utilizadas e m qualquer replica¸ao. Esta padroniza¸ao garante que nenhum outro fator
influencie nos resultados comparativos a ao ser a vizinhan¸ca.
111
Novamente uma estrutura com 500 regi˜oes foi usada no modelo espacial simples e
outra contendo 150 regi˜oes analisada via modelo de regress˜ao m´ultipla. 50 replica¸oes
foram realizadas determinando a obten¸ao de amostras da estat´ıstica n
eff
que resume a
autocorrela¸ao existente nas cadeias geradas. Um amostra referente a um dos parˆametros
foi obtida para cada configura¸ao de vizinhan¸ca estudada. As informa¸oes das diferentes
amostras ao comparadas atrav´es de gr´aficos box-plots.
´
E poss´ıvel afirmar que existe influˆencia da quantidade de vizinhos sobre os resultados
dos etodos MCMC. Esta conclus˜ao ´e mais evidente, no modelo espacial simples, para
as cadeias: σ
2
obtida via Esquema 1, W e log(π) obtidas via Esquemas 2 e 3. No caso de
σ
2
nota-se que maiores quantidades de vizinhos determinam cadeias menos autocorrela-
cionadas. Quanto `as cadeias de W e log(π) comportamentos semelhantes ao registrados:
menor autocorrela¸ao para estruturas contendo poucos vizinhos. Esta ´ultima observao
´e alida para os Esquemas 2 e 3.
Os resultados referentes ao Esquema 3 ao ao ao evidentes nas an´alises do modelo
espacial de regress˜ao (utiliza¸ao de estrutura com poucas regi˜oes), mesmo assim ´e poss´ıvel
notar comportamentos semelhantes aos registrados no modelo espacial simples. Os box-
plot’s para os coeficientes de regress˜ao nos Esquema 2 e 3 indicam que a autocorrela¸ao ´e
menor para grandes quantidades de vizinhos. Isto ´e valido para todos os coeficientes. A
cadeia de σ
2
no Esquema 1 e as cadeias de det(W ) e log(π) no Esquema 2 ao influenciadas
pela quantidade de vizinhos e esta influˆencia ´e exatamente a mesma registrada no mode lo
espacial simples.
ao ´e p oss´ıvel indicar uma estrutura de vizinhan¸ca ideal, que propicia a obten¸ao de
cadeias menos autocorrelacionadas, nas an´alises envolvendo estes modelos espaciais. Para
as cadeias de certos parˆametros ao ´e poss´ıvel afirmar que existe influˆencia do n´umero de
vizinhos. Nos casos onde a influˆencia ´e verificada, comportamentos diferentes ao notados
(autocorrela¸ao pode ser menor para poucos vizinhos ou para maiores quantidades deles).
Em uma an´alise mais geral considere a influˆencia observada na cadeia do logaritmo do
n´ucleo da densidade a posteriori conjunta. Esta densidade cont´em informa¸ao de todos
os parˆametros envolvidos no mode lo, por isso ´e talvez a mais representativa. Para este
caso particular a autocorrela¸ao ´e menor quando o n´umero de vizinhos ´e menor.
112
8.3 Trabalhos futuros
Muitas propostas podem ser feitas para dar continua¸ao ao trabalho desenvolvido
aqui. Em primeiro lugar seria interessante refazer o estudo da influˆencia da vizinhan¸ca
aplicando o modelo espacial de regress˜ao ultipla para um espa¸co contendo maior quan-
tidade de regi˜oes (por exemplo 500). O objetivo seria verificar se os resultados referentes
ao Esquema 3 ao mais evidentes em rela¸ao ao estudo apresentado aqui considerando
150 regi˜oes, e tamb´em observar se o comportamento do n´ıvel da autocorrela¸ao diante
das diferentes estruturas de vizinhan¸cas ´e semelhante `aquele observado nas an´alises do
modelo espacial simples. Outra proposta ´e aplicar os modelos para an´alise de dados reais
e estudar na pr´atica os elementos que aqui foram simulados. Dificuldades extras surgem
neste tipo de trabalho pois ´e preciso lidar com componentes que ao ao controlados.
Os modelos espaciais aplicados neste estudo ao pertencentes `a classe dos Modelos
Normais. A perturba¸ao aleat´oria que modela as observoes apresenta distribui¸ao
Normal, e a distribui¸ao a priori para (Ω | σ
2
, W ) tamb´em ´e Normal. Existem na
literatura diversas aplica¸oes envolvendo modelos espaciais como estes aliados a outras
distribui¸oes, por exemplo estudos empregando a distribui¸ao Poisson para an´alise de
dados que representam contagens no espa¸co. Muitos destes estudos ao relacionados ao
mapeamento de doen¸cas (disease mapping). Uma regi˜ao espacial ´e dividida em n ´areas
e em cada uma delas observa-se o umero de casos ou mortes por uma certa doen¸c a.
Estuda-se c om isto o comportamento espacial da incidˆencia da doen¸ca em quest˜ao. Ver
por exemplo Knorr-Held e Rue (2002) e Fernandez e Green (2002). In´umeros trabalhos
empregam distribui¸oes ao normais por isso a extens˜ao imediata deste estudo ´e analisar
a influˆencia da estrutura de vizinhan¸ca sobre os etodos MCMC considerando modelos
espaciais ao-normais. Outra proposta ´e realizar uma extens˜ao para modelos espa¸co-
temporais.
113
Apˆendice
114
A Cadeias do modelo espacial simples
As Figuras apresentadas a seguir mostram o comportamento das cadeias obtidas para
os parˆametros do modelo espacial simples. A modelagem utilizada considera distribui¸ao
a priori pr´opria para (θ | σ
2
, W ). ao 7000 itera¸oes sendo as 2000 primeiras descartadas
como Burn in. Detalhes a respeito da configura¸ao adotada em rela¸ao a gera¸ao de dados
simulados e especifica¸oes a priori ao informados na Se¸c ˜ao 5.3, Cap´ıtulo 5. Nos algo-
ritmos MCMC foram especificados como sementes dos hiperparˆametros seus respectivos
valores reais.
Esquema 1 Esquema 2 Esquema 3
Figura A.1: Cadeias de θ
1
, θ
250
e θ
500
.
115
Esquema 1 Esquema 2 Esquema 3
Figura A.2: Cadeias de σ
2
, W e log(π).
116
B Cadeias do modelo espacial de regress˜ao m´ultipla
Considere as informa¸oes da Se¸ao 5.4 quanto as configura¸oes adotadas para o modelo
espacial de regress˜ao m´ultipla, para gera¸ao dos dados simulados e para os algoritmos
MCMC. As cadeias mostradas aqui completam a an´alise desenvolvida no Cap´ıtulo 5.
Esquema 1 Esquema 2 Esquema 3
Figura B.1: Cadeias de β
1,1
, β
1,75
e β
1,150
. (Linha cont´ınua e escura) = cadeia partindo
do valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do real.
117
Esquema 1 Esquema 2 Esquema 3
Figura B.2: Cadeias de β
2,1
, β
2,75
e β
2,150
. (Linha cont´ınua e escura) = cadeia partindo
do valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do real.
118
Esquema 1 Esquema 2 Esquema 3
Figura B.3: Cadeias dos elementos da diagonal principal da matriz W : W
00
, W
11
e
W
22
. (Linha cont´ınua e escura) = cadeia partindo do valor real, (linha pontilhada clara)
= cadeia partindo de valor diferente do real.
119
Esquema 1 Esquema 2 Esquema 3
Figura B.4: Cadeias de W
01
, W
02
e W
12
. (Linha cont´ınua e escura) = cadeia partindo
do valor real, (linha pontilhada clara) = cadeia partindo de valor diferente do real.
120
C Fator de ineficiˆencia e autocorrela¸oes das cade ias
Os gr´aficos do tipo box-plot apresentados nesta se¸ao do apˆendice completam a in-
forma¸ao das Figuras 6.3 e 6.4 mostrando o comportamento das amostras de autocor-
rela¸oes referentes aos parˆametros do modelo espacial de regress˜ao m ´ultipla. Os mesmos
box-plot’s para o fator de ineficiˆencia, indicados na Se¸ao 6.2, est˜ao posicionados ao lado
de cada gr´afico de autocorrela¸ao.
Esquema 1 Esquema 2 Esquema 3
Figura C.1: dn
eff
e autocorrela¸oes das cadeias: β
0,1
, β
0,75
e β
0,150
.
121
Esquema 1 Esquema 2 Esquema 3
Figura C.2: dn
eff
e autocorrela¸oes das cadeias: β
1,1
, β
1,75
e β
1,150
.
122
Esquema 1 Esquema 2 Esquema 3
Figura C.3: dn
eff
e autocorrela¸oes das cadeias: β
2,1
, β
2,75
e β
2,150
.
123
Esquema 1 Esquema 2 Esquema 3
Figura C.4: dn
eff
e autocorrela¸oes das cadeias: σ
2
, det(W ) e log(π).
124
Esquema 1 Esquema 2 Esquema 3
Figura C.5: dn
eff
e autocorrela¸oes das cadeias: W
00
, W
11
e W
22
.
125
Esquema 1 Esquema 2 Esquema 3
Figura C.6: dn
eff
e autocorrela¸oes das cadeias: W
01
, W
02
e W
12
.
126
D Outras compara¸oes no estudo da influˆencia da
vizinhan¸ca, mode lo espacial de regress˜ao m´ultipla
A an´alise comparativa para a estrutura de autocorrela¸ao das cadeias ao longo das
diferentes configura¸oes de vizinhan¸cas ´e completada no modelo espacial de regress˜ao
m´ultipla pelas figuras mostradas aqui. Os resultados ao referentes aos c oeficientes β
1,1
,
β
1,75
, β
1,150
, β
2,1
, β
2,75
, β
2,150
e aos componentes da matriz W .
Esquema 1 Esquema 2 Esquema 3
Figura D.1: log n
eff
vs. quantidade de vizinhos: β
1,1
, β
1,75
e β
1,150
.
127
Esquema 1 Esquema 2 Esquema 3
Figura D.2: log n
eff
vs. quantidade de vizinhos: β
2,1
, β
2,75
e β
2,150
.
128
Esquema 1 Esquema 2 Esquema 3
Figura D.3: log n
eff
vs. quantidade de vizinhos: W
00
, W
11
e W
22
.
129
Esquema 1 Esquema 2 Esquema 3
Figura D.4: log n
eff
vs. quantidade de vizinhos: W
01
, W
02
e W
12
.
130
Referˆencias Bibliogr´aficas
[1] Anderson, T. W. (1984) An introduction to multivariate statistical analysis, John
Wiley & Sons, New York.
[2] Assun¸ao, J. J., Gamerman, D., Assun¸ao, R. M. (1999) Regional differences in
factor pro ductivities of brazilian agriculture: a space varying parameter approach.
Proceedings of the XV Latin American Meeting of the Econometric Society.
[3] Bernardinelli, L., Clayton, D., Pascutto, C., Montomoli, C., Ghislandi, M., Songini,
M. (1995) Bayesian analysis of space-time variation in disease risk. Statist. Med.,
14, 2433-2443.
[4] Bernardo, J. M., Smith, A. F. M. (1994) Bayesian Theory, Wiley, New York.
[5] Besag, J., Green, P., Higdon, D., Mengersen, K . (1995) Bayesian computation and
stochastic system. Statistical Science, 10, 1, 3-66.
[6] Besag, J., York, J., Molli´e, A. (1991) Bayesian image restoration, with two appli-
cations in spatial statistics (with discussion). Annals of the Institute of Statistical
Mathematics, 43, 1-59.
[7] Carter, C. K., Kohn, R. (1994) On gibbs sampling for state space models.
Biometrika, 81, 541-553.
[8] Doornik, J. A., Ooms, M. (2006) Introduction to Ox: An Object-Oriented Matrix
Language, Timberlake Consultants Press, London.
[9] Fernandez, C., Green, P. (2002) Modelling spatially correlated data via mixtures: a
Baye sian approach. Journal of the Royal Statistical Society, B, 64, 805-826.
131
[10] Ferreira, M. A. R., Higdon, D., Lee, H. K. H., West, M. (2005) Multi-scale random
field models. Technical Report 186, Departamento de etodos estat´ısticos, Univer-
sidade Federal do Rio de Janeiro, Rio de Janeiro.
[11] Ferreira, M. A. R., Oliveira, V. (2007) Bayesian reference analysis for Gaussian
Markov random fields. Journal of Multivariate Analysis, to appear.
[12] Fuhwirth-Schnatter, S. (1994) Data augmentation and dynamic linear models. Jour-
nal of Time Series Analysis, 15, 183-202.
[13] Gamerman, D., Lopes, H. F. (2006) Markov Chain Monte Carlo: Stochastic Simu-
lation for Bayesian Inference, Chapman & Hall/CRC, London.
[14] Gamerman, D., Moreira, A. R. B., Rue, H. (2003) Space varying regression models:
specifications and simulation. Computational Statistics & Data Analysis, 42, 513-
533.
[15] Geman, S., Geman, D. (1984) Stochastic relaxation, gibbs distributions and the
Baye sian restoration of imagens. IEEE Transactions on Patterns Analysis and Ma-
chine Intelligence, 6, 721-741.
[16] Gelfand, A. E., Smith, A. F. M. (1990) Sampling-based approaches to calculating
marginal densities. Journal of the American Statistical Association, 85, 398-409.
[17] Gelfand, A. E., Vounatsou, P. (2001) Proper multivariate conditional autoregressive
models for spatial data analysis, Mimeo, Research Report 301-315, University of
Connecticut.
[18] Hastings, W. K. (1970) Monte carlo sampling methods using markov chains and
their applications. Biometrika, 57 , 97-109.
[19] Knorr-Held, L. (1999) Conditional prior proposals in dynamic models. Scandinavian
Journal of Statistics, Blackwell Publishers Ltd., 26, 129-144.
[20] Knorr-Held, L., Raber, G., Becker, N. (2002) Disease mapping of stage-specific
cancer incidence data. Biometrics, 58, 492-501.
132
[21] Knorr-Held, L., Rue, H. (2002) On block updating in Markov random field models
for desease mapping. Scandinavian Journal of Statistics, Blackwell Publishers Ltd.,
29, 597-614.
[22] Liu, J. S., Wong, W. H., Kong, A. (1994) Correlation structure and convergence rate
of the gibbs sampler: applications to the comparison of estimators and augmentation
schemes. Biometrika, 81, 27-40.
[23] Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., Teller, E.
(1953) Equations of state calculations by fast computing machines. Journal of Che-
mical Physics, 21 , 1087-1092.
[24] Migon, H., Gamerman, D. (1999) Statistical Inference: an Integrated Approach,
Arnold, London.
[25] Moreira, A. R. B., Migon, H.S. (1999) Spatial heterogeneity of the agricultural
productivity: Brazil - 1970 - 1996. Proceedings of the XXI Brazilian Meeting on
Econometrics, Brazilian Econometrics Society, Rio de Janeiro.
[26] M¨uller, P., (1991) Metropolis based posterior integration schemes. Technical Report,
Statistics Department, Purpue University.
[27] O’Hagan, A., Forster, J. (2004) Bayesian Inference, Volume 2B of Kendall’s Ad-
vanced Theory os Statistics, 2nd edn, Edward Arnold, London.
[28] Reis, E. A., Salazar, E., Gamerman, D. (2006) Comparison of sampling schemes for
dynamic linear models. International Statistical Review, 74, 2, 203-214.
[29] Rue, H. (2001) Fast sampling of Gaussian Markov random fields. Journal of the
Royal Statistical Society, B, 63, 2, 325-338.
[30] Rue, H. (2005) Marginal variances for Gaussian Markov random fields, Statistics
Report 1, Department of Mathematical Sciences, Norwegian University of Sciences
and Technology, Trondheim.
133
[31] Rue, H., Steinsland, I., Sveinung, E. (2004) Approximating hidden Gaussian Markov
random fields. Journal of the Royal Statistical Society, B, 66, 4, 877-892.
[32] West, M., Harrison, P. J. (1997) Bayesian forecasting and dynamic models. Springer
Series in Statistics, Springer, New York.
134
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo