Download PDF
ads:
Universidade Federal de Minas Gerais
Instituto de Ciências Exatas
Departamento de Estatística
Análise de Covariância
Não-paramétrica
Dissertação de Mestrado
Gabriel Vinícius Araújo Fonseca
Orientador: Gregorio Saravia Atuncar
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
1
Agradecimentos
Agradeço primeiramente a Deus pela ajuda espiritual durante este trabalho.
Ao professor Gregorio que soube me orientar nas horas em que mais precisei.
Aos meus amigos e familiares que de forma direta e indireta me apoiaram nas horas mais
difíceis.
Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) pelo apoio
financeiro.
E por fim à minha namorada Bárbara que por dias e horas soube esperar e apoiar sempre e
sempre.
ads:
2
Sumário
Agradecimentos ............................................................................................................................ 1
Sumário ......................................................................................................................................... 2
1. Introdução e Revisão da Literatura ........................................................................................... 4
2. Regressão Não-paramétrica ...................................................................................................... 7
2.1. Método de Nadaraya-Watson (1964) ................................................................................ 7
2.2. Regressão Polinomial Local .............................................................................................. 10
3. Análise de Covariância Não-paramétrica ................................................................................ 11
3.1. Comparação de Dois Grupos ............................................................................................ 11
3.2. Comparação de
k
Grupos ............................................................................................... 14
3.3. Comparação com o teste de Hall e Hart (1990) ............................................................... 19
4. Métodos de Seleção Automática da Janela ............................................................................ 22
4.1. Método 1 – Ruppert, Sheather e Wand (1995)................................................................ 22
4.2. Método 2 – Fan e Gijbels (1995) ...................................................................................... 26
5. Wild Bootstrap ........................................................................................................................ 29
6. Análise Prática ......................................................................................................................... 32
6.1. Simulações ........................................................................................................................ 32
6.2. Comparação entre as estatísticas
N
T
e
N
S
..................................................................... 34
6.3. Aplicações ......................................................................................................................... 36
7. Conclusões e Trabalhos Futuros .............................................................................................. 42
Referências .................................................................................................................................. 44
3
Resumo
Neste trabalho, apresentaremos uma estatística de teste sobre a igualdade entre curvas
i
f
de
regressão não-paramétrica, quando temos tanto ruído homogêneo quanto o homogêneo e
ruído heterocedástico, ou seja, quando a variância depende do regressor e é diferente para
cada grupo. Tal teste é desenvolvido por Munk, Neumeyer e Scholz (2006).
A abordagem que será apresentada é muito natural, pois ela substitui as estatísticas de
máxima verossimilhança de uma análise de covariância paramétrica por estatísticas não-
paramétricas. Neste caso, é usado o núcleo-estimador para substituir essas estatísticas.
Para finalidades práticas, uma variação bootstrap é sugerida, mais conhecida como “wild
bootstrap”. Essa técnica visa uma melhor estimativa da distribuição dos erros e assim obter um
valor mais coerente da estatística de teste. Foram feitas simulações para verificar o nível e o
poder do teste para alguns modelos. Faremos ainda uma comparação entre o teste de Hall e
Hart (1990) e o de Munk, Neumeyer e Scholz (2006), através do vel e o poder do teste, a
título de curiosidade. Por fim, algumas aplicações com dados reais serão descritas.
4
1. Introdução e Revisão da Literatura
Ao longo dos últimos anos, a estatística não-paramétrica vem ocupando um lugar de destaque
na área científica da estatística. A estimação funcional pelo método do núcleo ou
simplesmente núcleo-estimador é uma opção para estimativas não-paramétricas. Essa técnica
vem sendo aplicada em funções de densidade, intensidade, distribuição e também de
regressão.
Uma questão crucial na aplicação deste método é a determinação do parâmetro de suavização
ou janela, normalmente denotado por
h
, que controla a quantidade de suavização a ser feita.
Se
h
é muito pequeno, admite-se demasiado ruído amostral, e se
h
é muito grande, omite-se
as características da curva. Existem vários métodos para a estimação desse parâmetro, como a
validação cruzada e o plug-in, os mais difundidos.
No caso da função de regressão, temos diferentes métodos de estimação, sendo os mais
difundidos na atualidade o de Nadaraya-Watson (Nadaraya, 1964 e Watson, 1964) e a
regressão polinomial local. Contudo a regressão polinomial local possui uma forma direta
(automática) para a seleção da janela ótima, ou seja, existe um critério de erro de estimação
envolvido na escolha da janela, como erro quadrado médio (MSE, em inglês). Assim
apresentaremos dois métodos: o primeiro utiliza o plug-in para obter a estimativa da janela
ótima assintótica, desenvolvido por Ruppert, Sheather e Wand (1995) e o segundo encontra a
estimativa da janela ótima através da minimização da soma do quadrado dos resíduos
integrado, o qual foi desenvolvido por Fan e Gijbels (1995).
Existe ainda uma forma de se obter a estimativa da função regressão para efeitos fixos
(igualmente espaçados), dado por Priestley e Chao (1972), uma variação do Nadaraya-Watson
(1964). Porém, mesmo com a suposição que
(
,
X Y
são vetores aleatórios, a regressão
estimada através dos métodos polinomial local e Nadaraya-Watson estimam muito bem para o
caso em que temos efeitos fixos.
No estudo de análise de covariância, Hall e Hart (1990) desenvolveram um teste bootstrap
para comparar duas curvas de regressão. Porém, o estudo realizado por eles foi apenas para
amostras de tamanhos iguais
(
1 2
n n
=
e para os mesmos pontos para a variável preditora, ou
seja, são dados da seguinte forma
(
{
}
, , ,1
i i i
x Y Z i n
.
5
Em Dette e Neumeyer (2001) foram discutidos três testes estatísticos usando estimadores não-
paramétricos. Dado o modelo
(
(
, 1, , e 1, , ;
ij i ij i ij ij i
Y f t t i k j n
σ ε
= + = =
as hipóteses para o teste são:
0 1 1
: vs. , para algum .
k i j
H f f H f f i j
= = =
As estatísticas de teste são:
( )
( )
( )
( )
2 2
(1)
1 1 1 1
1 1
ˆ ˆ
i i
n n
k k
N ij ij ij i ij
i j i j
T Y f t Y f t
N N
= = = =
=
( ) ( )
( )
2
(2)
1 1
1
ˆ ˆ
i
n
k
N ij i ij
i j
T f t f t
N
= =
=
( ) ( )
( )
( )
1
2
1
(3)
0
1 1
ˆ ˆ
k i
N i j ij
i j
T f t f t w t dt
= =
=
onde
ˆ
f
é o estimador de regressão das amostras em conjunto (sob
0
H
),
ˆ
i
f
é estimador da
regressão para cada conjunto (sob
1
H
),
(
ij
w
são funções peso positivos que satisfazem
ij ji
w w
=
,
1
j i k
<
e
ij
t
são valores fixos e igualmente espaçados dado pela amostra.
Porém, todas as três estatísticas de teste não incorporam a função
(
i ij
t
σ
, ou seja, não
possuem boa aplicabilidade quando temos dependência da variância com a variável preditora
e variâncias diferentes entre os grupos. Note que neste caso não mais as suposições feita
em Hall e Hart (1990) e assim garantindo melhor aplicação em dados reais.
Contudo, em Munk, Neumeyer e Scholz (2006), uma proposta de um novo teste,
semelhante ao
(1)
N
T
de Dette e Neumeyer (2001). Para isso, é usada a estatística de máxima
verossimilhança de uma análise de covariância paramétrica heterocedástica para uma entrada
e depois a transferindo para o contexto não-paramétrico. Mas em Munk, Neumeyer e Scholz
(2006) foi utilizado o estimador de Nadaraya-Watson para a estimação da função de regressão,
o qual não possui uma forma direta de se obter a janela ótima. Assim substituímos o estimador
de Nadaraya-Watson pelo polinomial local e utilizamos uma das formas diretas para a escolha
da janela.
6
Contudo a convergência desse método é lenta e o uso somente do teste estatístico não nos
permite fazer uma boa decisão em cima das hipóteses. Assim é construída uma variação
bootstrap para refinar os erros heterocedásticos e assim obter um valor crítico para a
estatística de teste. Proposto, inicialmente, por Wu (1986) e Beran (1986) e finalizado
posteriormente por Liu (1988), esse mecanismo é conhecido na literatura por Wild
Bootstrap”.
Assim, o objetivo central deste trabalho é a abordagem da análise de covariância não-
paramétrica desenvolvida por Munk, Neumeyer e Scholz (2006), utilizando a regressão
polinomial local e suas formas diretas de se obter a janela ótima.
Dessa forma, este trabalho compõe-se das seguintes partes: no segundo capítulo,
descreveremos o procedimento da regressão não-paramétrica, tanto para efeitos fixos quanto
para efeitos aleatórios. No capítulo 3, apresentamos os testes estatísticos de Munk, Neumeyer
e Scholz (2006) e Hall e Hart (1990), sendo o primeiro para os casos com dois grupos ou mais, e
para o segundo somente para o caso com dois grupos. O capítulo quatro contém os dois
métodos automáticos para a escolha da janela ótima. No quinto capítulo é descrito o
procedimento wild bootstrap” e as condições para a sua aplicação. No capítulo 6, são
apresentadas as simulações e duas aplicações em dados reais. A primeira aplicação é referente
à produção de cebolas em duas regiões da Austrália. a segunda é referente ao fluxo líquido
de carbono na atmosfera produzido através de mudanças no uso do solo, como
desmatamento para uso agropecuário. No capítulo 7 são apresentadas as conclusões e a
proposta de trabalhos futuros.
7
2. Regressão Não-paramétrica
Uma técnica estatística extensamente usada, em geral, é a regressão (linear). Os modelos de
regressão são ferramentas poderosas para se modelar a variável
Y
como função da variável
preditora
X
, permitindo a predição de valores futuros de
Y
e a construção de testes e
estimativas intervalares para as predições e parâmetros.
Modelos de regressão são também suscetíveis a alguns problemas como em outros modelos
paramétricos. Considere um simples modelo de regressão linear,
0 1
, 1, , ,
i i i
Y X i n
β β ε
= + + =
(1)
com os erros
i
ε
geralmente dados como variáveis aleatórias identicamente e
independentemente distribuídas de acordo com uma normal com média zero e variância
2
σ
.
Se esse modelo é uma boa representação da realidade, as estimativas de mínimos quadrados
(também chamados de Estimadores de Máxima Verossimilhança) de
β
podem ser calculadas
e por fim utilizá-las para uma previsão depois da construção do modelo.
Mas, às vezes, ajustar uma relação funcional paramétrica envolvendo o modelo (1) pode trazer
inferências equivocadas, quando os dados não seguem as suposições necessárias. Logo
podemos utilizar os métodos de regressão não-paramétrica, baseados em núcleos-
estimadores, para estimar o modelo. Assim, nas duas seções subseqüentes, iremos apresentar
duas técnicas muito difundidas para se obter a estimativa do modelo não-paramétrico.
2.1. Método de Nadaraya-Watson (1964)
Uma alternativa mais geral para (1), é um modelo de regressão não-paramétrico
(
,
i i i
Y m X
ε
= +
(2)
onde os
'
i
s
ε
são
. . .
ii d
. Se
(
, , 1, ,
i i
X Y i n
=
são observações de um vetor
(
,
X Y
, a curva
de regressão
( )
m x
é a esperança condicional
(
( ) |
m x E Y X x
= =
com
(
| 0
E X x
ε
= =
, e
(
2
| ( )
V X x x
ε σ
= =
não necessariamente constante.
Note que, se
( ) ( | ),
m x E Y X x
= =
(3)
8
tem-se que
( ) ( | )
( , )
,
( )
X
m x yf y x dy
f x y
y dy
f x
=
=
(4)
onde
( )
X
f x
,
( , )
f x y
, e
( | )
f y x
são a densidade marginal de
X
, a densidade conjunta de
(
,
X Y
, e a densidade condicional de
Y
dado
X x
=
, respectivamente. Uma estimativa pelo
método do núcleo para
( , )
f x y
é
1
1
ˆ
( , ) ,
n
i i
x y
i
x y x y
x X y Y
f x y K K
nh h h h
=
=
enquanto uma estimativa para
( )
X
f x
é
1
1
ˆ
( ) .
n
i
X x
i
x x
x X
f x K
nh h
=
=
Substituindo em (4), as estimativas acima, temos
( )
( )
( )
1
1
1
1
1
1
ˆ
.
.
n
i i
x y x y
i
x y
n
i
x x
i
x
n
i i
x y
i
y x y
n
i
x
i
x
x X y Y
y nh h K K
h h
m x dy
x X
nh K
h
x X y Y
y
K K dy
h h h
x X
K
h
=
=
=
=
=
=
Note que substituindo
(
i y
u y Y h
=
,
( ) 1
y
K u du
=
,
( ) 0
y
uK u du
=
e assumindo que
K
é simétrica em torno do zero, temos
( )
( )
( )
1
1
ˆ
n
i
i y x y
i
x
n
i
x
i
x
x X
Y uh K K u du
h
m x
x X
K
h
=
=
+
=
9
( )
( )
1
1
.
n
i
x i y y
i
x
n
i
x
i
x
x X
K Y uh K u du
h
x X
K
h
=
=
+
=
Logo, obtemos o núcleo-estimador de Nadaraya-Watson,
1
1
1
ˆ
( ) ,
n
i
i
i
n
x
NW i i
n
i
i
i
x
x X
K Y
h
m x wY
x X
K
h
=
=
=
=
(5)
uma função linear de
Y
com pesos
1
( ) .
ˆ
( )
i
i
X
x X
K
h
w nh
f x
=
O núcleo estimador de Nadaraya-Watson é mais natural para modelos de efeitos aleatórios,
como em (2). Se
X
f
é conhecido, um peso alternativo óbvio é
1
( ) .
( )
i
i
X
x X
K
h
w nh
f x
=
Se os pontos da amostra
(
1
,...,
n
x x
são fixos, devemos considerar uma forma diferente para
o núcleo-estimador da função de densidade, pois a intuição de (4) estaria perdida. Assim uma
forma diferente para a função densidade” seria
( )
1
1
ˆ
( ) .
X i
i i
f x
n x x
=
Neste caso, temos o estimador de Priestley-Chao (Priestley e Chao, 1972) para a função de
regressão (trocando
(
X
f x
por
(
X i
f x
) será
( )
1
1
1
ˆ
( ) .
n
i
PC i i i
i
x x
m x h x x K Y
h
=
=
(6)
10
Existem outros estimadores na literatura para o caso de efeitos fixos, como o de Gasser e
Müller (1984), que não serão adotados aqui, pois fogem do objetivo principal do trabalho.
Mais informações podem ser obtidas em Simonoff (1996) e Bowman e Azzalini (1997).
2.2. Regressão Polinomial Local
Supondo o mesmo modelo (2), agora o interesse é estimar a função de regressão
( ) ( | )
m x E Y X x
= =
e suas derivadas usando uma amostra aleatória de
(
,
X Y
. Essa forma
de se obter a estimativa da função de regressão é a polinomial local. Então, se as
p
primeiras
derivadas de
( )
m x
no ponto
0
x
existem, nós podemos aproximar a função
( )
m x
por um
polinômio de ordem
p
, dado por:
( )
0 0 0 0 0
( ) ( ) ( )( ) ( )( ) / !
p p
m x m x m x x x m x x x p
+ + +
onde
0
x
é um ponto vizinho a
x
. Assim devemos obter o valor de
0
ˆ
ˆ
( ; , )m x h p
β
=
através dos
mínimos quadrados de:
( )
2
0
0 0
1 0
ˆ ˆ
( , , ) argmin ,
p
n
j
T
i
p i j i
i j
X x
Y X x K
h
β
β β β
= =
=
(7)
onde
K
é a função densidade simétrica conhecida como função núcleo e
h
é a janela.
Seja
Χ
uma matriz dada da seguinte forma:
( )
( )
1 1
1
1
p
p
n n
X x X x
X
X x X x
=
assim como
1
( , , )
T
n
Y Y Y
=
e
(
{
}
(
{
}
1
, ,
n
W diag K X x h K X x h
=
. Logo
temos que
(
1
0
ˆ ˆ
( , , )
T T T
p
X WX X WY
β β
=
é a solução dos mínimos quadrados para (7) e assim definimos
0
ˆ
ˆ
( )m x
β
=
.
11
3. Análise de Covariância Não-paramétrica
3.1. Comparação de Dois Grupos
Um tema clássico na análise estatística é a comparação de dois ou mais grupos. Para
simplificar a notação, iremos restringir, por um momento, ao caso de dois grupos. A extensão
para três ou mais grupos será apresentada em 3.2.
No contexto de regressões, considere o seguinte modelo
(
(
, 1, , , 1,2,
ij i ij i ij ij i
Y f t t j n i
σ ε
= + = =
(8)
onde
ij
t
são valores fixos das medidas,
i
f
denotam as funções de regressões desconhecidas,
(
i ij ij
f t E Y
=
e
2
i
σ
as funções de variância desconhecidas,
(
2
i ij ij
t Var Y
σ
=
da
observação j-ésima
(
1, ,
i
j n
=
no i-ésimo grupo
(
1,2
i =
. Os erros
ij
ε
são assumidos
como variáveis independentes e identicamente distribuídos com média 0 e variância 1. Nosso
objetivo é testar a igualdade das funções de regressão
1
f
e
2
f
.
Sob a suposição paramétrica sobre os erros
ij
ε
e as funções
i
f
e
2
i
σ
, temos a comum análise
de covariância. Sem essas suposições, em particular quando a forma da função
i
f
não é
especificada, temos a análise de covariância não-paramétrica, que vem recebendo bastante
atenção na literatura.
Muitos testes para
0 1 2 1 1 2
: versus :
H f f H f f
=
(9)
não podem ser aplicados para o modelo em geral (8), pois assumem que os grupos têm o
mesmo tamanho amostral, os regressores seguem a mesma distribuição entre as populações,
ou que existe um erro homocedástico, por exemplo, as variâncias
2
i
σ
são independentes do
regressor
t
.
O teste apresentado neste trabalho é baseado na idéia de comparar um estimador de
“mínimos quadrados” ponderado sob a suposição de igualdade das curvas de regressão com
um estimador que é baseado nos estimadores não-paramétricos
ˆ
i
f
para
i
f
(sob a hipótese
alternativa), exatamente como na análise de covariância paramétrica.
12
Para motivar o procedimento assuma, por um momento, que as funções de regressão são
constantes
( )
i i
f t
µ
, as funções de variância são constantes e conhecidas
2 2
( )
i i
t
σ σ
=
e os
erros
ij
ε
são normalmente distribuídos. Em outras palavras, considere o teste de igualdade de
médias
0 1 2
:H
µ µ
=
para duas amostras
( )
. .
2
~ , , 1, , , 1,2.
i i d
ij i i i
Y N j n i
µ σ
= =
O método de máxima verossimilhança nos leva a estimar
1
1
ˆ
i
n
i ij
j
i
Y
n
µ
=
=
na amostra
individual
(
1,2
i =
, e
( )
2
1 1
1 2
2 2
1 1 2 2
ˆ ˆ ˆ
1 , onde ,
n
a a a
n n
σ
µ µ µ
σ σ
= + =
+
na amostra conjunta (sob
0
H
). Considerando
Y
ɶ
como toda a amostra, no teste da razão de
verossimilhança temos
( )
(
( )
( )
( )
( )
( )
1 2
2
1
2 2
2
1 1
2
1
2
2
2
1 1
ˆ
|
ˆ ˆ
, |
ˆ
2 exp
2
ˆ
2 exp
2
i
i
n
ij
i
i j
i
n
ij i
i
i j
i
L Y
Y
L Y
y
y
µ
λ
µ µ
µ
πσ
σ
µ
πσ
σ
= =
= =
=
=
ɶ
ɶ
ɶ
( )
(
(
2
2 2
1 1
ˆ ˆ
exp .
2 2
i
n
ij ij i
i j
i i
y y
Y
µ µ
λ
σ σ
= =
= +
ɶ
O logaritmo da razão de verossimilhança tem a seguinte forma
(
(
( ) ( )
2 2
2 2
2 2
1 1 1 1
2ln
1 1
ˆ ˆ
,
i i
n n
ij i ij i i
i j i j
Y
Y Y
N N N
λ
µ σ µ σ
= = = =
=
ɶ
(10)
onde
1 2
N n n
= +
denota o tamanho total da amostra.
Considere no modelo de regressão a classe dos estimadores comuns
13
(
(
(
(
(
(
1 2
ˆ ˆ
1 ,
f x a x f x a x f x
= +
ɶ
(11)
onde
ˆ
i
f
denota o estimador pelo método do núcleo da função de regressão
i
f
(
1,2
i =
.
Nessa classe, é minimizado o erro quadrado médio assintótico de
f
ɶ
( )
2
2
2 2
2
2
1
1 1 2 2
1 ( ) ( )
( ) ( )
( ) ,
( ) ( )
a x x
a x x
AMSE f K u du
n hr x n hr x
σ
σ
= +
ɶ
onde
h
denota o parâmetro de suavização e
K
a função núcleo. Logo encontramos o peso
2
1 1 1
2 2
1 1 1 2 2 2
( ) ( )
( ) ,
( ) ( ) ( ) ( )
x n r x
a x
x n r x x n r x
σ
σ σ
=
+
que minimiza o
AMSE f
ɶ
, onde
i
r
denota a função densidade da i-ésima amostra. Agora,
substituímos
2
i
σ
e
i
r
pelos apropriados núcleo-estimadores
2
ˆ
i
σ
,
ˆ
i
r
para
1,2
i
=
, e denote por
ˆ
f
o resultado do estimador conjunto de
f
ɶ
. Assim, como a estatística de teste para a
hipótese (9), analogamente a (10), temos:
( )
( )
( ) ( )
( )
( )
2 2
2 2
2 2
1 1 1 1
1 1
ˆ ˆ
ˆ ˆ
.
i i
n n
N ij ij i ij ij i ij i ij
i j i j
T Y f t t Y f t t
N N
σ σ
= = = =
=
(12)
Todos os estimadores serão apresentados na próxima seção, onde reapresentaremos a
estatística de teste (12) para o caso geral. Em Munk, Neumeyer e Scholz (2006), foi mostrado
que sob a hipótese nula a estatística de teste padronizada
N
C
N h T
Nh
é assintoticamente normal com média zero e variância assintótica
2
τ
, onde
C
e
2
τ
dependem somente da função núcleo
K
, e são definidos por
2
2 (0) ( ) e
C K K u du
=
( )
2
2
2 2 ( ) ,
K K K u du
τ
=
14
onde
denota a convolução de
K
com ela mesma. Feito os cálculos para
(
0,1
K N
,
encontramos
0,516
C
=
e
2
0,813
τ
=
. A seguir iremos apresentar o teste para k grupos e
apresentaremos as propriedades e suposições para a convergência da estatística de teste.
3.2. Comparação de
k
Grupos
Nesta seção, iremos apresentar a extensão da estatística
N
T
definida em (12) para o caso de
k
amostras, ou seja, trabalharemos com o seguinte modelo
( ) ( ) , 1, , , 1, , ,
ij i ij i ij ij i
Y f t t j n i k
σ ε
= + = =
(13)
e as hipóteses seriam
0 1 1
: versus : para algum .
k i j
H f f H f f i j
= =
(14)
Adicionalmente algumas notações e suposições devem ser levadas em considerações para
garantir a convergência da estatística de teste. Logo assuma que os tamanhos amostrais são
1
, 1, , ,
i
i
n
O i k
N N
κ
= + =
(15)
onde
(
0,1
i
κ
e
1
k
i
i
N n
=
=
é o tamanho total amostral, ou seja, tamanho das amostras
muito discrepantes entre uma e outra pode comprometer os resultados. Os pontos fixados
ij
t
podem ser modelados por uma densidade
i
r
tal que
0
( ) , 1, , , 1, , .
ij
t
i i
i
j
r t dt j n i k
n
= = =
(16)
Isso garante que a probabilidade de termos um ponto em cada intervalo entre os
ij
t
são iguais.
Detalhes podem ser vistos em Sacks e Ylvisaker (1970). Posteriormente, assumiremos que as
densidades
i
r
e as funções de variância
2
i
σ
poderão ser limitadas acima de zero, ou seja,
2
[0,1] [0,1]
inf ( ) 0, inf ( ) 0, 1, , .
i i
t t
r t t i k
σ
> > =
(17)
Asssume-se que as funções de densidade, regressão e variância são d-vezes continuamente
diferenciáveis, isto é,
15
(
, , 0,1 , 1, , ,
d
i i i
r f C i k
σ
=
(18)
onde
2
d
.
Como mencionado na seção anterior, o teste estatístico é baseado nos núcleo-estimadores de
i
f
e
i
σ
. Para esse fim, é necessário um núcleo simétrico
: ,
K
com um suporte
compacto e de ordem d (mais detalhes em Gasser et al., 1985), ou seja,
( )
2
1, 0
1
( ) 0, 1 1, ( ) .
!
0,
j
j
d
j
K u u du j d K u du
j
k j d
=
= <
=
(19)
Assuma que a janela
N
h h
=
satisfaz as seguintes condições
( )
2
2 2
0 e log para .
d
Nh Nh h N
(20)
A seguir, apresentaremos os estimadores para
, e
i i i
r f
σ
, onde
ˆ
ˆ
e
i i
f
σ
são baseados nos
estimadores de Nadaraya-Watson ou pelo estimador de regressão polinomial local. Para se
estimar as densidades
i
r
usaremos
1
1
ˆ
( ) .
i
n
ij
i
j
i
x t
r x K
n h h
=
=
(21)
O estimador de
i
f
é definido por
1
1 1
ˆ
( ) , 1, , .
ˆ
( )
i
n
ij
i ij
j
i i
x t
f x K Y i k
n h h r x
=
= =
(22)
Seguindo a mesma idéia da seção anterior, tem-se a generalização da estatística de teste (12)
para
k
amostras
( )
( )
( ) ( )
( )
( )
2 2
2 2
1 1 1 1
1 1
ˆ ˆ
ˆ ˆ
,
i i
n n
k k
N ij ij i ij ij i ij i ij
i j i j
T Y f t t Y f t t
N N
σ σ
= = = =
=
(23)
onde o estimador comum de
f
é obtido como (sob a hipótese nula),
16
( )
( )
2
1 1
2
1 1
ˆ
ˆ
( ) .
ˆ
i
i
k n
ij
ij i ij
i j
k n
ij
i ij
i j
x t
K Y t
h
f x
x t
K t
h
σ
σ
= =
= =
=
(24)
Finalmente, as variâncias
2
i
σ
têm que ser estimadas por um método não-paramétrico em
geral. Esse estimador foi proposto com um espírito similar aos estimadores de Ruppert et al.
(1997), Fan e Yao (1998) e Härdle & Tsybakov (1997). Assim, neste contexto, define-se
( )
2
2
1
1 1
ˆ
ˆ
( ) ( ) , 1, , .
ˆ
( )
i
n
ij
i ij i ij
j
i i
x t
x K Y f t i k
n h h r x
σ
=
= =
(25)
Figura 1: Gráfico para a função variância.
-2 -1 0 1 2
0.05 0.15
Malha de X
Função Variância
Estimador de Fan
Estimador de Munk
Modelo sin(2*x)+2*exp(-16*x^2)+.3*rnorm(n,0,1),
Janela de Ruppert = 0,10 e n = 200
-2 -1 0 1 2
0.05 0.15
Malha de X
Função Variância
Estimador de Fan
Estimador de Munk
Modelo sin(2*x)+2*exp(-16*x^2)+.3*rnorm(n,0,1),
Janela de Fan = 0,05 e n = 200
17
Outro estimador é o de Fan e Gijbels (1995) que será apresentado na seção 4.2 em (38).
Ambos apresentam valores bem próximos, sendo que a variância dada em (38) é sempre maior
que em (25), como podemos ver na figura 1. Isso devido ao denominador da função variância
de Fan ser menor que a de Munk em (25). O comportamento diferente das funções variâncias
para cada gráfico se deve ao valor da janela ótima. O primeiro foi escolhido pelo método de
Ruppert (seção 4.1) onde o valor encontrado é igual a 0,11 e o segundo pelo de Fan (seção 4.2)
igual a 0,05. Logo, com uma janela menor, a curva tem o comportamento mais suavizado.
Outros estimadores de
2
ˆ
i
σ
estão sendo estudados por Atuncar (2009).
O Teorema 1 fornece a distribuição assintótica da estatística de teste
N
T
.
Teorema 1
Assuma o modelo (13), onde os erros
ij
ε
são variáveis aleatórias com variância
(
var 1
ij
ε
=
e
4
,
ij
E M i j
ε
< ∞
. Então sob as suposições (15)-(20) e sob a hipótese nula, com
N
T
definida em (24), temos que
( )
2
0, ,
D
N N
N
C
U N h T
Nh
τ
→∞
= Ν
onde
( )
2
2
2( 1) 2 ( ) ,
k K K K u du
τ
=
e
denota a convolução de K com ela mesma. A constante C é definida como
2
2 (0) ( )
C K K u du
=
.
Para o teste de hipótese (14), rejeitamos
0
H
com um nível
α
quando
1
,
N
C
N h T
Nh
u
α
τ
>
(26)
onde
1
1
(1 )
u
α
α
= Φ
denota o quantil
(
1
α
de uma distribuição normal padrão. Note que
C e
2
τ
são constantes conhecidas. A consistência do procedimento de teste (26) para a
hipótese alternativa
1
H
segue do próximo resultado.
18
Teorema 2
Assuma que
i j
f f
, sob
1
H
, em um conjunto de probabilidade positivo na reta para algum
i
e
j
em
{
}
1, ,
k
. Sob as suposições do Teorema 1, temos
(
(
2
0, ,
D
N N
N
R N T
µ γ
= Ν
(27)
onde as constantes são definidas como
( )
( )
(
(
(
(
( ) ( )
2 2
2
2
2
1 1
1
e 4 .
k k
l l l j j j
j l
k
j l
l l l
l
l j
x r x x r x
f f x dx
x r x
σ κ σ κ
µ γ µ
σ κ
= =
=
<
= =
(28)
As provas dos Teoremas 1 e 2 podem ser encontradas no apêndice do artigo de Munk,
Neumeyer e Scholz (2006).
O Teorema 2 pode ser utilizado em vários caminhos. Primeiro, uma aproximação do poder
pode ser obtida via
( )
( )
1
1
1
1
1 .
N
H
C
N h T
u
N C
Nh
P u o
Nh Nh
N o
α
α
τ
µ
τ γ
γ γ
µ
γ
> = Φ +
= Φ +
(29)
Segundo, um simples intervalo de confiança
(
1
α
unilateral para a medida de discrepância,
µ
em (28) entre as funções
i
f
(
1, ,
i k
=
é obtida como
2
1
0,
4 2
N N
c c
CI T T c
α
= + + +
(30)
onde
( )
2
1 2
4
c u N
α
=
e para
:0 0,5
α α
< <
.
A convergência de
N
U
para a distribuição normal é lenta para tamanhos amostrais finitos,
assim Munk, Neumeyer e Scholz (2006) fazem um estudo usando Wild Bootstrap”. Tal
método será descrito no capítulo 5.
19
Na próxima seção descreveremos o procedimento bootstrap adotado por Hall a Hart (1990)
para a comparação entre duas médias em um foco não-paramétrico.
3.3. Comparação com o teste de Hall e Hart (1990)
Antes de trabalharmos com Dette e Neumeyer (2001) e Munk, Neumeyer e Scholz (2006),
trabalhamos com teste de comparação entre médias em regressão não-paramétrica, mais
simples que o apresentado na seção anterior. Assim, iremos apresentar somente o teste para
duas amostras e mais detalhes sobre o caso geral pode ser encontrado em Hall e Hart (1990).
Assuma que os dados seguem a seguinte forma
(
{
}
, , ,1
i i i
x Y Z i n
, e são estruturados de
acordo com os modelos
(
(
, , 1 ,
i i i i i i
Y f x Z g x i n
ε η
= + = +
(31)
onde
1
, ,
n
ε ε
e
1
, ,
n
η η
denotam os erros aleatórios independentes, sendo que os
i
s
ε
possuem uma distribuição e os
i
s
η
possuem outra. As hipóteses do teste são
0 1
: versus : .
H f g H f g
=
(32)
Seja
(
2
var
i
σ ε
=
e
(
2
var
i
τ η
=
. Neste caso os pontos
i
x s
são fixos, e sem perda de
generalidade, definidos em um intervalo
(
0,1
, embora essa suposição possa ser removida.
Defina
i i i
D Y Z
=
para
1
i n
, e seja
i i n
D D
=
para
1
n i n m
+ +
, onde
[
]
m np
=
, a
parte inteira de
np
, com
0 1
p
< <
fixo. Assim a estatística de teste é dada como
( )
1
2
2
1 1
1
0 1 1
.
2
j m
n n
i i
n i
j i j i
D D
S D n
+
+
= = + =
=
(33)
O valor de
n
S
tende a ser moderado quando a hipótese nula em (31) é verdadeira, e grande
quando ela é falsa. O quanto “grande” será o valor da estatística de teste será determinado ou
por uma aproximação assintótica ou por uma aproximação bootstrap, os quais ambos serão
apresentados a seguir.
20
Considere que
(
{
}
,0 1
W t t
denota um Movimento Browniano, e estenda
W
para o
intervalo
(
0,2
definindo
(
(
(
1 1
W t W t W= +
para
1 2
t
< <
. A distribuição assintótica
da estatística
n
S
, sobre a hipótese nula, é dada por
( ) ( )
1
2
0
n
S S W t p W t dt
= +
(34)
sendo a convergência em distribuição (
n
) e relembrando que
p
é fixado no intervalo
(
0,1
.
Para explicar o comportamento de
n
S
sob a hipótese alternativa
1
H
, defina, para cada
n
e
1, ,
i n
=
,
i
x
como o quantil
i n
de uma distribuição com densidade
r
. Estendendo
f
para o intervalo
[0,2)
, e o mesmo para
g
e
r
, e se
f
e
g
são limitados e contínuos no
intervalo
(
0,1
, temos que
(
(
1 2 2
, ,
n
n S s f g
σ τ
+
(35)
quase certamente, onde
( ) ( ) ( ) ( )
2
2
1
1
3
0 1
0
, ,
t p
j m
n
i
j i j
t
n D s f g f u g u r u du dt
+
+
= = +
=
(36)
com probabilidade 1 quando
n
. Mais detalhes podem ser encontrados em Hall e Hart
(1990).
A fórmula (34) descreve o limite
S
de
n
S
sob a hipótese nula. Em princípio, um nível
assintótico α do teste pode ser obtido usando esse resultado. Por integração numérica ou
métodos Monte Carlo, calcule
u
tal que
(
Pr S u
α
> =
, e rejeita-se
0
H
quando
n
S u
>
. O
erro do nível para esse teste é da ordem de
1
n
. Entretanto, o bootstrap fornece um erro para
o nível do teste da ordem de
2
n
e não é mais trabalhoso para ser aplicado do que o teste
assintótico. O teste bootstrap possui uma aproximação exata do quantil
n
u
tal que, sob a
hipótese nula,
(
Pr
n n
S u
α
> =
.
21
O método bootstrap funciona da seguinte maneira. Seja
( )
1
1
n
i i
i
Y Z n Y Z
=
=
e
(
i i i
d Y Z Y Z
=
. Do conjunto
{
}
1
, ,
n
d d
, retiramos aleatoriamente e com reposição
uma reamostra
{
}
* *
1
, ,
n
d d
. Logo defina
( )
1
2
2
* *
1 1
1
* *
0 1 1
2
j m
n n
i i
n i
j i j i
d d
S d n
+
+
= = + =
=
(37)
o qual é idêntico ao definido em (33), exceto que
i
D
é substituído por
*
i
d
. Repetindo a
reamostragem, calcule
ˆ
n
u
tal que
(
*
ˆ
Pr |
n n
S u
α
> =
, onde
(
{
}
, , ,1
i i i
x Y Z i n
Ω =
denota a amostra. O teste bootstrap rejeita
0
H
em favor de
1
H
se
ˆ
n n
S u
>
.
Quando
0
H
é verdadeira, a distribuição empírica
ˆ
F
de
{
}
1
, ,
n
d d
é uma boa aproximação
para a distribuição nula de
i
D
, e assim o teste bootstrap é uma boa aproximação para o teste
exato. Se
1
H
é verdadeira, os dados
{
}
1
, ,
n
d d
não garantirão que
ˆ
F
se aproxima bem da
distribuição nula de
i
D
, mas garantirão que o bootstrap proporcione uma boa aproximação
para o teste em grandes amostras. Mais detalhes sobre as provas e a generalização do teste
para mais de duas regressões, podem ser obtidas em Hall e Hart (1990).
22
4. Métodos de Seleção Automática da Janela
4.1. Método 1 – Ruppert, Sheather e Wand (1995)
Seja
ˆ
(; , )
m h p
o estimador de
( )
m x
dado por uma determinada janela
h
e por uma
regressão polinomial de ordem
p
. Assim temos que o erro quadrado médio integrado de
ˆ
(; , )
m h p
dada a amostra
1
, ,
n
X X
é igual a:
( )
{ }
( )
{ }
( )
2
1 1
ˆ ˆ
MISE ; , | , , ; ( ) | , , .
n n
m h p X X E m x b m x f x dx X X
=
Usando a seguinte notação
(
(
l
l
L u L u du
µ
=
e
( ) ( )
2
R L L u du
=
, onde
L
é uma
função qualquer e que ambas integrais convergem, podemos reescrever o erro quadrado
médio integrado de
( )
m x
da seguinte forma, para
p
ímpar (ver o teorema 4.1 de Ruppert e
Wand, 1994):
(
{
}
(
(
( ) ( )
{ }
( )
( ) ( )
( )
1 1 2
1
2
2
1
2 2
1
1 1 2 2
ˆ
MISE ; , | , ,
1 !
,
n p
S
p
p
p
p
p
m x h p X X n h R K x dx
h K p m x f x dx
o n h h
σ
µ
+
+
+
+
=
+ +
+ +
onde
S
é suporte da variável aleatória
X
e
p
K
é função núcleo de ordem
1
p
+
, onde
0,
p p
K K
=
. Para isso definimos
{
}
, ,
( ) ! ( ) ( )
r p r p p
K u r M u N K u
=
onde
p
N
é uma matriz
(
(
1 1
p p
+ × +
tendo os elementos
(
,
i j
iguais a
2
( )
i j
u K u du
+
e
,
( )
r p
M u
igual a
p
N
,
exceto na linha
(
1
r
+
que é substituída por
(
1, , ,
p
u u
.
A aproximação do
(
{
}
ˆ
MISE ; ,
m x h p
quando
p
não é ímpar, contém complicações nas
contas para a janela ótima, por isso optamos por considerar o valor de
p
ímpar. Assim o valor
assintótico da janela ótima aproximada é igual a:
( )
(
)
1 2 3
2 2
1
2 2
1
( 1)( !) ( ) ( )
.
2 ( ) ( ) ( )
p
p
S
MISE
p
p p
S
p p R K x dx
h
n K m x f x dx
σ
µ
+
+
+
+
23
A estratégia adotada por Ruppert, Sheather e Wand (1995) é utilizar a técnica plug-in para
substituir as integrais desconhecidas. Assim iremos restringir os valores de
3
p
=
e
2
r
=
(
2
s
=
, o qual aparecerá mais a frente) e no caso de
2 2
( )x
σ σ
=
, ou seja, erros
homocedásticos. Por simplicidade, definimos o suporte de
X
igual a
[ , ]
S a b
=
. Toda parte
assintótica será omitida, pois foge do objetivo do nosso trabalho e para não deixá-lo muito
extenso. Assim mais detalhes podem ser encontrados em Ruppert, Sheather e Wand (1995).
Considere que, a janela ótima assintótica, pode ser escrita como:
( )
1
2
5
1
22
( ) ,
AMISE
b a
h C K
n
σ
θ
=
onde
1
( )
C K
é uma constante que depende somente da função núcleo e que
( ) ( )
( ) ( ) ( ) , , 0, par.
r s
rs
m x m x f x dx r s r s
θ
= +
Um estimador do tipo núcleo de
rs
θ
é dado por:
1 ( ) ( )
1
ˆ
ˆ ˆ
( ) ( ; ) ( ; ),
n
r s
rs i i
i
g n m X g m X g
θ
=
=
porém necessitamos do valor de g. Assim, um valor assintótico para ele será
1
7
2
2
24
( )
( ) ,
AMSE
b a
g C K
n
σ
θ
=
onde
2
( )
C K
é também uma constante que depende somente da função núcleo. Em
AMISE
h
,
temos que substituir
2
σ
por um estimador, igual a
( )
{ }
2
2 1
1
ˆ ˆ
( ) ; , ,
n
p i i
i
Y m X p
σ λ ν λ
=
=
sendo
2
2
ii ij
i ij
n w w
ν
= +
e
(
1
1
T T T
ij j
w e X WX X We
=
, onde
j
e
é um vetor
contento 1 na posição
j
e zeros nas demais posições. Contudo, temos que encontrar o valor
de
λ
, o qual pode ser aproximado assintoticamente por
24
1
(4 5)
4
3
2 2
1, 1
( )
( ) .
p
AMSE
p p
b a
C K
n
σ
λ
θ
+
+ +
=
Para
2
ˆ
( )
p
σ λ
devemos usar um valor de
p
menor ou igual a três (o valor escolhido antes) e
também ímpar, ou seja,
1
p
=
. Assim temos que
1
4 9
3
2 2
22
( )
( ) ,
AMSE
b a
C K
n
σ
λ
θ
=
onde
3
( )
C K
é uma constante.
Note que tanto em
AMSE
g
quanto em
AMSE
λ
aparecem valores também desconhecidos (
2
σ
e
rs
θ
). Se continuarmos a utilizar a mesma regra que usamos em
AMISE
h
, o processo ficará
indefinido. Então, seguindo Härdle e Marron (1993), dividi-se a amplitude de
X
em
M
blocos e ajusta-se um modelo para cada bloco. Essa divisão pode ser em blocos de mesmo
tamanho ou em blocos igualmente espaçados. A opção usada neste trabalho será a primeira,
pois tem a vantagem de adaptar melhor os dados de forma não uniforme e diminuir a chance
de superestimação.
Seja
M
o número de sub-amostras e seja
j
χ
a j-ésima sub-amostra dos
'
i
X s
. Se
M
divide
n
e
t n M
=
, então
( )
{
}
( )
( 1) 1
, ,
j jt
j t
X X
χ
+
=
. Agora seja
ˆ
( )
Q
j
m x
o estimador de mínimos
quadrados quártico obtido através dos valores de
i
X
da sub-amostra
j
χ
. Assim temos o
estimador para
rs
θ
igual a
( )
( )
( )
( )
{ }
( ) ( )
1
1 1
ˆ
ˆ ˆ
( ) 1 .
i j
n M
r s
Q Q Q
rs j i j i
X
i j
M n m X m X
χ
θ
= =
=
Similarmente, o estimador para
2
σ
é dado por
( ) ( )
{ }
{ }
2
1
2
1 1
ˆ ˆ
( ) 5 1 .
i j
n M
Q
Q i j i
X
i j
M n M Y m X
χ
σ
= =
=
Esses estimadores requerem uma regra para a escolha de
M
. A regra de
p
C
de Mallows
(1973) foi adequada para resolver o problema. A escolha de
ˆ
M
vem do conjunto
{
}
max
1,2, ,M
, o qual deve minimizar
25
(
{
}
(
max max
( ) ( ) ( ) 5 10 ,
p
C M RSS M RSS M n M n M
=
onde
( )
RSS M
é a soma do quadrado dos resíduos baseado no ajuste dos blocos sobre
M
blocos. Para reduzir as chances de superestimação, defini-se
max
M
da seguinte forma
[
]
(
{
}
*
max
max min 20 , ,1
M n M=
para algum
*
M
inteiro positivo. A escolha de
*
M
para funções de regressão não influi muito
nos resultados e baseado em estudos anteriores, opta-se por
*
5
M
=
.
Uma forma opcional para obter
rs
θ
é o truncamento dos dados em
100 %
α
nas fronteiras,
para
α
pequeno. A razão para isso é que a regressão polinomial local com derivadas de alta
ordem pode conter estimativas que variam muito, próximo das fronteiras. Logo, no caso em
que o suporte dos
'
i
X s
está no intervalo
[
]
,
a b
, temos que
ˆ
( )
rs
g
θ
pode ser substituído por
( ) ( )
{ }
1 ( ) ( )
1 1
1
ˆ
( ) ( ) ( )1 .
i
n
r s
rs i i
a b X a b
i
g n m X m X
α
α α α α
θ
+ < < +
=
=
Assim, a seleção da janela automática através do plug-in direto segue a seguinte ordem:
1. Encontre os valores para
24
ˆ
ˆ
( )
Q
M
θ
e
2
ˆ
ˆ
( )
Q
M
σ
baseados nos ajustes dos blocos
quárticos onde
ˆ
M
é encontrado através da técnica de Mallows (1973).
2. Estime
22
θ
usando
(
0,05
22
ˆ
ˆ
AMSE
g
θ
, onde
1
7
2
2
24
ˆ
ˆ
( )( )
ˆ
( )
ˆ
ˆ
( )
Q
AMSE
Q
M b a
g C K
M n
σ
θ
=
e estime
2
ˆ
σ
usando
(
2
1
ˆ
ˆ
AMSE
σ λ
, onde
( )
1
9
4
3
2
0,05 2
22
ˆ
ˆ
( )( )
ˆ
( )
ˆ
ˆ
Q
AMSE
AMSE
M b a
C K
g n
σ
λ
θ
=
3. A janela selecionada é
26
( )
( )
( )
1
5
2
1
1
0,05
22
ˆ
ˆ
ˆ
( ) .
ˆ
ˆ
AMSE
DPI
AMSE
b a
h C K
g n
σ λ
θ
=
São fornecidos na Tabela 1 os valores das constantes
1
( )
C K
,
2
( )
C K
e
3
( )
C K
para as
funções núcleo Normal padrão, Epanechnikov e Biponderada. A constante
2
( )
C K
é igual a
2
( )
I
C K
, quando
24
0
θ
<
e igual a
2
( )
II
C K
, quando
24
0
θ
>
. As distribuições de Epanechnikov
e Biponderada são dadas por, respectivamente:
(
[ ]
2
1,1
( ) 0,75 1 ( ),
K x x I x
=
( )
{ }
2
2
1
15
( ) 1 ( ).
16
x
K x x I x
=
Tabela 1: Valores das constantes que dependem da função núcleo.
Constantes
Normal Padrão
Epanechnikov
Biponderada
1
( )
C K
(
{
}
1 5
1 2
π
1/5
15
1/5
35
2
( )
I
C K
(
{
}
1 7
3 8
π
1/7
315
( )
1/7
8505 /13
2
( )
II
C K
(
{
}
1 7
15 16
π
( )
1/7
1575/ 2
( )
1/7
42525 / 26
3
( )
C K
( )
(
{
}
1 9
4 1 2 2 2 4 3 3 2
π
+
1/9
4725
( )
1/9
322665/ 32
O mais interessante desse método é o gasto computacional que é pequeno e, além disso, ele
pode ser encontrado nos pacotes do programa R®, chamado de “KernSmooth”. Um método
alternativo é apresentado em Fan e Gijbels (1995), descrito a seguir.
4.2. Método 2 – Fan e Gijbels (1995)
Para o método apresentado por Fan e Gijbels (1995), usaremos o MSE (erro quadrado médio)
da estimativa de
( )
m x
. Logo o valor da janela que minimiza o MSE é dado por
( )
( )
( ) ( )
(
)
1 2 3
2
0 0
0
2 2
0 1 0
,
2 1
p
MSE
p X
a x
h x
p b nf x
σ
β
+
+
=
+
27
onde
0
a
é o primeiro elemento da diagonal da matriz
1 * 1
S S S
, onde
S
e
*
S
são matrizes
(
(
1 1
p p
+ × +
com os elementos
(
,
i j
iguais a
2
i j
s
+
e
2
i j
v
+
, respectivamente, onde
(
j
j
s u K u du
=
e
(
2j
j
v u K u du
=
. Agora,
0
b
é o primeiro elemento do vetor
1
p
+
dado por
(
1
1 2 1
, ,
T
p p
S s s
+ +
.
Como no caso em Ruppert, Wand e Sheather (1995), existem valores que são desconhecidos e
usando o método plug-in para substituir esses valores, temos uma estimativa semelhante ao
primeiro caso apresentado. Contudo, usaremos um método de minimização da função de
soma do quadrado dos resíduos dada por:
(
(
(
{
}
2
0 0
ˆ
; 1 1 ,
RSC x h x p V
σ
= + +
onde
V
é o primeiro elemento da diagonal da matriz
1 * 1
n n n
S S S
, com
T
n
S X WX
=
e
* 2T
n
S X W X
=
. Já o estimador para
(
2
x
σ
é dado por:
( )
( )
{ }
( )
2
2
0
0
1
1
1
ˆ
ˆ
,
n
i
i i
T T
i
X x
x Y Y K
h
tr W WX X WX X W
σ
=
=
(38)
com
(
1
ˆ
ˆ ˆ
, ,
n
Y Y X
β
=
. A Intuição por trás da função RSC é que quando
h
é muito pequeno, o
valor de
V
é alto, pois representa a variância. quando
h
é muito grande, tanto o vício
quanto a soma dos quadrados dos resíduos de
(
2
0
ˆ
x
σ
também terá o seu valor alto. Logo, o
RSC sofre alterações bruscas para ambos os extremos de
h
.
Assim, a janela ótima, dada a amostra
(
1
,
n
X X
no intervalo
[
]
,
c d
, é o valor que minimiza
a versão integrada do RSC:
(
[ , ]
( ) ; .
c d
IRSC h RSC y h dy
=
Em simulações realizadas anteriormente por Fan e Gijbels (1995), é mostrado que esse
procedimento é bom, porém a sua taxa de convergência é lenta. Então é feito um processo
com dois estágios, sendo que o primeiro é para a escolha da janela piloto e o segundo para a
janela ótima. Contudo, optamos por fazer somente o primeiro estágio devido ao seu alto custo
computacional, pois agregando os dois passos, demandaríamos de mais tempo para este
28
trabalho. Em projetos no futuro, pretendemos utilizar os dois estágios e tentar de alguma
forma minimizar o custo computacional.
29
5. Wild Bootstrap
Nesta seção será apresentado um método boostrap para a estatística de teste
N
T
(23). O uso
do teste assintoticamente
(
N
U
não trás bons resultados nem para pequenas amostras
quanto para grandes amostras, como pode ser observado na figura 2, em 1000 simulações
numa amostra de tamanho
100
n
=
. Isso ocorre devido à convergência lenta e assim um
procedimento boostrap é realizado para se obter a distribuição da estatística
N
T
.
Figura 2: Estudo da convergência da estatística de teste
N
U
.
Conhecido na literatura como wild bootstrap, desenvolvido por Liu (1988) seguindo uma
sugestão de Wu (1986) e Beran (1986), é um método bem difundido e que promove um
Histograma Un para a Hipótese Alternativa para o modelo (42)
Un
Frequency
-10 0 10 20 30 40 50
0 100 200 300 400 500
30
refinamento dos erros heterocedásticos em modelos de regressão. Sob a hipótese nula,
considere o seguinte erro estimado:
(
ˆ
ˆ
, 1,..., , 1,2,
ij ij ij i
Y f t j n i
ε
= = =
onde
ˆ
f
é o estimador da regressão comum (assumindo que
1 2
f f
=
). Agora defina uma
variável aleatória
ij
V
. . .
ii d
e independente da amostra
{
}
ij
Y
, com as seguintes esperanças:
0,
ij
E V
=
(39)
2
1 e
ij
E V
=
(40)
3
1.
ij
E V
=
(41)
Somente as condições (39) e (40) já garantem a consistência do bootstrap para os estimadores
(para mais detalhes vide Liu, 1988 e Mammem, 1993). Mas usando a condição chave (41),
garantimos as propriedades de segunda ordem do bootstrap desenvolvido por Wu (1986).
Então o terceiro momento de
N
U
e todos três primeiros momentos de
N
C
N h T
Nh
τ
serão estimados corretamente para um
(
1
O N
por esse bootstrap.
Uma das formas possíveis de se encontrar a distribuição da variável
ij
V
é assumirmos que é
dada da seguinte forma:
, com probabilidade
, com probabilidade 1 .
ij
a p
V
b p
=
Outras formas de se obter a distribuição de
ij
V
pode ser encontrada em Liu (1998). Logo,
teremos um sistema de equações com três equações e três incógnitas, dadas por
(
( )
( )
2 2
3 3
1 0
1 1.
1 1
ap b p
a p b p
a p b p
+ =
+ =
+ =
Resolvendo esse sistema, obtemos a seguinte distribuição para
ij
V
31
(
(
( ) ( )
1 5 5 1
, com probabilidade
2
2 5
1 5 5 1
, com probabilidade
2
2 5
ij
V
+
=
+
Assim define-se a observação bootstrap como
(
*
ˆ
ˆ
, 1,..., , 1,2,
ij ij ij ij i
Y f t V j n i
ε
= + = =
e denote por
*
N
T
a estatística de teste definida em (23), mas baseada na amostra bootstrap
{
}
*
ij
Y
. Um teste assintótico com nível
α
rejeitará a hipótese nula sempre que a estatística
N
T
(baseada na amostra original
{
}
ij
Y
) é maior que o quantil
(
1
α
da distribuição de
*
N
T
condicionada à amostra
{
}
ij
Y
. Mais detalhes sobre esse procedimento pode ser obtido em
Mammen (1993) e Härdle e Mammen (1990).
32
6. Análise Prática
Neste capítulo apresentaremos alguns resultados das simulações feitas para o nível e o poder
da estatística de teste
N
T
. Baseados nos artigos que trabalhamos, foram geradas 1000
amostras de tamanhos 10, 20, 50 e 100 e para cada amostra, foram geradas 200 reamostras
bootstrap. Para efeito de comparação, fizemos simulações para o teste de Munk, Neumeyer e
Scholz (2006) e para o teste bootstrap de Hall e Hart (1990). Salientamos que essa comparação
se deve somente a título de motivação, ou seja, como já havíamos trabalhado com a estatística
n
S
anteriormente, optamos por compará-la com a estatística
N
T
.
Ainda foi feita uma re-análise de um experimento retirado de Ratkowsky (1983), que consiste
em obter uma relação entre rendimento por cebola (peso por cebola) e a densidade da
plantação (cebolas por m
2
). Em Houghton (1999), retiramos as informações de um estudo
sobre o fluxo líquido de carbono na atmosfera devido às mudanças no solo para a utilização na
agropecuária e comparamos esse fluxo entre as diferentes regiões.
6.1. Simulações
Nesta seção faremos uma avaliação do teste aqui apresentado, usando a idéia principal de
Munk, Neumeyer e Scholz (2006), utilizando a escolha da janela de Ruppert, Sheather e Wand
(1995) e a regressão polinomial local. Em simulações, percebemos que o gasto computacional
com o método do Fan e Gijbels (1995) era muito grande e que a variância do estimador da
janela ótima também era maior que no método de Ruppert, Sheather e Wand (1995), na
maioria dos casos. Lembrando que utilizamos apenas o primeiro estágio. Mas reafirmamos que
o gasto computacional é muito grande, logo se usarmos mais de um estágio para a escolha de
janela, esse custo será maior ainda.
Para avaliarmos o poder e o nível do teste, simulamos 1000 amostras e em cada uma delas
foram reamostradas 200 vezes para a utilização da técnica wild boostrap. Optamos por utilizar
modelos que vinham sendo utilizados na literatura aqui trabalhada. Além disso, fixamos o
valor do desvio padrão, devido ao uso do método de Ruppert, Sheather e Wand (1995) para a
estimação da janela ótima, apesar de que, a nossa intenção era de fazer o uso de modelos não
homogêneos. Assim, os modelos escolhidos foram:
Caso 1:
1 2
( ) 0,04 1 ( ), 0,015
f x x f x
σ
= + = =
(42)
33
Caso 2:
2
1 2
( ) (2 ) 2exp( 16 ) ( ), 0,3
f x seno x x f x
σ
= + = =
(43)
Caso 3:
1 2
( ) (2 ) ( ), 0,1
f x seno x f x
π σ
= = =
(44)
Caso 4:
1 2
( ) exp( ) ( ), 0,05
f x x f x
σ
= = =
(45)
Os gráficos dessas funções podem ser vistos na figura 3. Em (42) e (43),
x
foi gerado
aleatoriamente através de uma Uniforme no intervalo (-2,2) e em (44) e (45) através de uma
Uniforme no intervalo (0,1). Em todos os casos, os erros aleatórios foram gerados através de
um Normal padrão. Na tabela 2 temos os resultados dessas simulações para o nível e
percebemos que o teste possui um nível bom, próximo do
0,05
α
=
.
Figura 3: Modelos para as simulações para o teste
N
T
.
-2 -1 0 1 2
0.95 1.00 1.05
X
y = .04*x+1
-2 -1 0 1 2
-1.0 0.0 0.5 1.0 1.5 2.0
X
y = sin(2*x)+2*exp(-16*x^2)
0.0 0.2 0.4 0.6 0.8 1.0
-1.0 -0.5 0.0 0.5 1.0
X
y = sin(2*pi*x)
0.0 0.2 0.4 0.6 0.8 1.0
1.0 1.5 2.0 2.5
X
y = exp(x)
34
1 2
( , )
n n
Caso 1 (42)
Caso 2 (43)
Caso 3 (44)
Caso 4 (45)
(10,10)
0,040
0,052
0,039
0,048
(20,20)
0,040
0,033
0,021
0,036
(25,50)
0,042
0,056
0,035
0,045
(50,50)
0,058
0,059
0,045
0,065
(100,100)
0,068
0,060
0,060
0,051
Tabela 2: Avaliação do nível do teste
N
T
.
Agora as funções para o poder do teste foram as seguintes:
Caso 5:
1 2
( ) 0,1 0,04 , ( ) 0,04 , 0,015
f x x f x x
σ
= + = =
(46)
Caso 6:
2
1 2
( ) (2 ) 2exp( 16 ), ( ) (2 ), 0,3
f x seno x x f x seno x
σ
= + = =
(47)
Caso 7:
1 2
( ) (2 ), ( ) (2 ) , 0,1
f x seno x f x seno x x
π π σ
= = =
(48)
Caso 8:
1 2
( ) exp( ) (4 ), ( ) exp( ), 0,0
5
f x x seno x f x x
π σ
= + = =
(49)
Em (46) e (47),
x
foi gerado aleatoriamente através de uma Uniforme no intervalo (-2,2) e em
(48) e (49) através de uma Uniforme no intervalo (0,1) e o
α
foi fixado em 0,05. Na Tabela 3
temos os resultados das simulações onde percebemos que o poder do teste cresce conforme
aumentamos o tamanho das amostras e em amostras pequenas, temos um poder
razoavelmente bom. Os tempos para cada simulação variaram de 3 horas (
1 2
10
n n
= =
) a dois
dias (
1 2
100
n n
= =
), dependendo também do conjunto de dados e modelo gerado.
1 2
( , )
n n
Caso 5 (46)
Caso 6 (47)
Caso 7 (48)
Caso 8 (49)
(10,10)
0,061
0,048
0,
152
0,
224
(20,20)
0,760
0,215
0,800
0,
845
(25
,50)
0,9
7
6
0,
631
0,972
0,981
5
0
,5
0)
0,997
0,
896
0,998
0,999
Tabela 3: Avaliação do poder do teste
N
T
.
6.2. Comparação entre as estatísticas
N
T
e
N
S
Em primeiro lugar, no caso do procedimento de Hall e Hart (1990), o parâmetro de suavização
é o
m
como pode ser visto em (33). Para a escolha desse parâmetro, foi usada a função risco
de Rice (1984), dada por
35
( )
( )
2
1
ˆ
n
ki i
i
R k E
n
µ µ
=
=
onde
(
R k
é uma aproximação discreta do erro quadrado médio integrado. Assim, considere
1
, ,
n
u u
as observações do modelo
(
i i i
U
µ γ
= +
,
1, ,
i n
=
, onde os
i
s
µ
são constantes
e os
i
s
γ
são variáveis aleatórias não correlacionadas com
(
0
i
E
γ
=
e
(
(
2
var , 1, ,
i
i n
γ
γ σ
= =
. Logo defina
( )
( )
( )
1
, 1 ,
ˆ
2 1 , 1 ,
1 , 1 ,
i k
j
j
i k
ki j
j i k
n
j
j i k
u i k i k
u k k i n k
u n i k n k i n
µ
+
=
+
=
=
+
= + +
+ + +
(50)
e
( ) ( ) ( )
2 1
2
1
1
1 2 2
ˆ ˆ
; , , 1 1 2 ,
n
n i ki k
i
k
R k u u u k T
n n n
γ
µ σ
=
= + + +
onde
( )
1
2
2
1 1
2
ˆ
2 6
n
i i i
i
u u u n
γ
σ
+
=
= +
e
( )
1
1
k
k
i
T k i
=
= +
. A função
(
1
; ,
n
R k u u
estima a função
(
R k
e então o valor de
ˆ
k
é o que minimiza a função risco definida acima.
Assim, considere
1
, ,
n
D D
uma amostra de tamanho
n
. Então uma estimativa
ˆ
m
é dada por
ˆ
2 1
k
+
, onde
ˆ
k
é valor que minimiza a função
(
1
; , ,
n
R k D D
e que
ˆ
m
é usado para
construir a estatística
n
S
. Já no teste bootstrap, optou-se por usar uma nova estimativa de
m
para cada reamostra bootstrap, ou seja, para cada uma das 500 simulações, teremos um valor
*
ˆ
k
, onde o valor final
* *
ˆ
ˆ
2 1,
m k
= +
sendo esta usada na estimativa da estatística
*
n
S
.
Para avaliar o poder do teste estatístico, geramos 1000 amostras de tamanho 15 e 30 com as
seguintes funções
(
(
(
(
1 2
exp , exp ,
f x x f x x cx
= = +
(51)
onde
c
é uma constante pré-definida (ver Tabela 4). Neste caso
i
x s
são fixos e definimos
, 1, ,
i
x i n i n
= =
. Foi utilizado a regressão polinomial local e o todo de Ruppert para
36
estimarmos a função regressão e a janela ótima, respectivamente, para cada simulação e
fixamos
0,05
α
=
.
Na Tabela 4, percebemos que
n
S
possui um poder maior quando temos uma pequena
diferença entre as funções (c = 1). Porém o teste
N
T
é mais poderoso quando a diferença é
maior (c = 5), para amostras de tamanho igual a 30.
(
0,05
N
T
α
=
(
)
0,05
n
S
α
=
1 2
15
n n
= =
1 2
30
n n
= =
1 2
15
n n
= =
1 2
30
n n
= =
1
c
=
0,086
0,224
0,184
0,236
2
c
=
0,179
0,732
0,464
0,452
5
c
=
0,771
1,000
0,968
0,926
Tabela 4: Análise do poder das estatísticas de teste
N
T
e
n
S
.
Agora, para avaliarmos o nível do teste, geramos amostras de tamanhos 10, 20 e 30 com
funções
(
(
(
1 2
exp
f x x f x
= =
(52)
sendo
x
definido igual ao caso (51) e os mesmos estimadores utilizados para avaliarmos o
poder da estatística de teste. Foram avaliados os níveis para
0,05
α
=
e para
0,10
α
=
, tanto
para a estatística
N
T
quanto para
n
S
, como pode ser visto na Tabela 5. Notamos que o nível
para
N
T
está muito próximo da estatística de teste
n
S
e que encontramos uma boa
aproximação do nível para as duas estatísticas de teste.
N
T
n
S
0,05
α
=
0,10
α
=
0,05
α
=
0,10
α
=
1 2
10
n n
= =
0,048
0,086
0,048
0,095
1 2
20
n n
= =
0,048
0,102
0,055
0,103
1 2
30
n n
= =
0,063
0,110
0,053
0,098
Tabela 5: Análise do nível das estatísticas de teste
N
T
e
n
S
.
6.3. Aplicações
37
Nesta seção iremos trabalhar com dois bancos de dados. O primeiro deles contém observações
fornecidas por Ian Rogers do Ministério da Agricultura Sul Australiano, onde temos duas
regiões diferentes para a plantação de cebolas do tipo Imperial Espanhola Branca. As
localidades são Purnong Landing e Virginia, e para cada um temos a variável
X
, densidade
(plantas/m
2
) e a variável
Y
, rendimento (g/planta). Mais detalhes sobre os dados ver em
Ratkowsky (1983).
Na Figura 4 temos os pontos para as duas localidades e suas respectivas regressões, feitas
através do estimador Polinomial Linear Local. Para a estimação da janela
h
para cada grupo,
foi usado o método de Ruppert, Sheather e Wand (1995). Num total de 42 observações para
cada localidade, antes tivemos que retirar a primeira observação da região de Virginia, pois era
um dado discrepante. Sem a retirada dessa observação, não era possível obter as estimativas
da regressão polinomial. O valor da estatística de teste
N
T
foi igual a 26090,06 e o quantil de
95% do wild bootstrap, realizado com 200 reamostras, ficou em 34,11. Logo, rejeitamos a
hipótese nula e dizemos que
1 2
f f
, ou seja, uma diferença entre as duas localidades e
cada uma deve ser analisada separadamente. Neste caso, não foi possível fazer o uso da
estatística
n
S
, pois os dados possuem amostras de tamanhos diferentes e a variável preditora
assume valores diferentes para cada localidade.
Para a próxima análise, os dados foram retirados do artigo de Houghton (1999). Trata-se do
fluxo líquido anual de carbono na atmosfera derivada das mudanças geradas pelo uso da terra
de 1850 a 1990 (141 observações). Essas mudanças são provocadas pelo desmatamento de
florestas para o uso em plantações e entre outros motivos. Esses dados estão divididos em
nove grandes regiões do mundo. Podemos ver na Tabela 6 que somente a América do Sul e
Central juntamente com o Sul e Sudeste da Ásia englobam 56,09% da quantidade de carbono
no mundo inteiro, sendo que toda a região tropical do mundo engloba 63,8%. Isto também
pode ser percebido na Figura 5.
Assim vamos testar se a quantidade de carbono na região da América do Sul e Central e a
região do Sul e Sudeste da Ásia são iguais. Na Figura 6 temos o gráfico com somente as duas
regiões.
38
Região
Fluxo Líquido Total
1850-1990
Percentual
(%)
Sul e Sudeste da Ásia
38,6
31,33
América do Sul e Central
30,5
24,76
África Tropical
9,5
7,71
Subtotal Tropical
78,6
63,80
América do Norte
12,7
10,31
Europa
4,9
3,98
Antiga União Soviética
10,4
8,44
China
9,4
7,63
Região desenvolvida do Pacífico
4,1
3,33
Norte e Médio Oriente da África
3,1
2,51
Subtotal Não Tropical
44,6
36,20
Total Global
123,2
100,00
Tabela 6: Fluxo líquido total de carbono na atmosfera das alterações na terra para o cultivo.
Figura 4: Regressões envolvendo rendimento de plantações de cebola para as duas localidades
do sul da Austrália.
º
º
º º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
50 100 150
50 100 150 200
plantas/m2
g/plantas
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
50 100 150
50 100 150 200
º
*
Purnong Landing
Virginia
Regressão para Purnong Landing
Regressão para Virginia
Plantação de cebola na Austrália
39
Figura 5: Fluxo líquido total de carbono na atmosfera, derivada das alterações na terra para o
cultivo, em diferentes regiões do mundo.
Para os dados da América do Sul e Central, a janela foi igual a 1,375 e para Sul e Sudeste da
Ásia igual a 1,858. Assim temos que o teste
N
T
, dada a amostra, ficou em 101315 e o ponto
crítico dado pelo quantil de 95% das 200 reamostras bootstrap ficou em
*
[0,95]
0,423
N
T =
. Logo
rejeitamos a hipótese nula e dizemos que as duas regiões possuem comportamentos
diferentes.
1860 1880 1900 1920 1940 1960 1980
0.0 0.2 0.4 0.6 0.8 1.0 1.2
Ano
Fluxo Líquido de Carbono (Pg = 10^12 gramas)
América do Norte
América do Sul e Central
Europa
Norte e Médio Oriente da África
África Tropical
Antiga União Soviética
China
Sul e Sudeste da Ásia
Região Desenvolvida do Pafico
40
Figura 6: Fluxo líquido total de carbono na atmosfera, derivada das alterações na terra para o
cultivo, nas regiões da América do Sul e Central e do Sul e Sudeste da Ásia.
Como há um aumento súbito, a partir de 1960, do fluxo líquido de carbono no Sul e Sudeste da
Ásia, resolvemos refazer o teste de comparação entre as regiões Sul e Sudeste da Ásia com a
América do Sul e Central, porém entre os anos de 1850 a 1960. Na Figura 7 temos a regressão
para essas duas regiões. O valor da estatística de teste
N
T
igual a 466761,2 e
*
[0,95]
0,432
N
T =
.
Logo rejeitamos a hipótese nula e dizemos que diferença entre as duas funções de
regressão, ou seja, o fluxo líquido de carbono entre os anos de 1850 e 1960 para a América do
Sul e Central é diferente da região Sul e Sudeste da Ásia.
**********
*
*
*
*
*
**
****
*
**
*
****
**
*
*
*
*
*
*
*
**
*
*
*
*
*
**
****
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
**
***
*
*
*
*
*
*
*
**
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
***
*
*
***
*
*
*
*
*
*
*
1860 1880 1900 1920 1940 1960 1980
0.0 0.2 0.4 0.6 0.8 1.0 1.2
Ano
Fluxo Líquido de Carbono (Pg = 10^12 gramas)
1860 1880 1900 1920 1940 1960 1980
0.0 0.2 0.4 0.6 0.8 1.0 1.2
Ano
Fluxo Líquido de Carbono (Pg = 10^12 gramas)
América do Sul e Central
Sul e Sudeste da Ásia
41
Figura 7: Fluxo líquido total de carbono na atmosfera, derivada das alterações na terra para o
cultivo, nas regiões da América do Sul e Central e do Sul e Sudeste da Ásia a 1960.
**
***
*****
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
**
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
**
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
1860 1880 1900 1920 1940 1960
0.05 0.10 0.15 0.20 0.25 0.30 0.35
Ano
Fluxo Líquido de Carbono (Pg = 10^12 gramas)
ººººººº
ººººººº
ººººººº
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ºººº
º
º
º
º
º
º
º
º
ºº
ººº
ºº
º
º
º
º
º
ºº
º
º
º
º
ººº
ºººººº
º
ººººººº
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ºº
º
América do Sul e Central
Sul e Sudeste da Ásia
42
7. Conclusões e Trabalhos Futuros
Neste trabalho avaliamos uma proposta para análise de covariância envolvendo métodos não-
paramétricos. Vimos que a sua generalização é natural, vinda do procedimento paramétrico. A
convergência assintótica da estatística envolvida para uma distribuição normal é lenta, porém
as constantes
C
e
2
τ
, da distribuição assintótica, dependem somente da função núcleo
K
.
Vimos também que o método wild bootstrapmelhora o desempenho do teste estatístico,
corrigindo esse problema.
Em Munk, Neumeyer e Scholz (2006), é mostrada a influência da janela no nível e poder da
estatística de teste
N
T
. Para o nível pouca alteração, porém para o poder, percebe-se uma
redução dos valores, quando aumentamos o valor da janela. Logo concluímos que a escolha da
janela é de fundamental importância para se obter uma boa decisão no teste e que tanto o
método 1 (Ruppert, Sheather e Wand, 1995) quanto o método 2 (Fan e Gijbels, 1995) são
muito bons.
Contudo salientamos que o método 1 é mais rápido que o método 2, pois não envolve a
minimização de uma função. Mas, apesar de não termos simulado para erros não
homogêneos, sabemos que o método 1 não garante sua boa aplicação nestes casos. Ruppert,
Sheather e Wand (1995) propõem a substituição do termo
2
( )
b a
σ
por
( )
b
a
v x dx
, onde
( )
v x
seria estimado por
ˆ
(; )
v
λ
, dada a janela
λ
. Neste caso usaríamos o núcleo-estimador
para encontrar
ˆ
(; )
v
λ
e a mesma regra para encontrar a estimativa de
AMSE
λ
. Outro ponto a
ser levado em consideração é que o método 1 já possui a sua implementação no programa R®,
versão gratuita do S-plus®.
Na parte das simulações, comparamos a estatística
N
T
com o teste de Hall e Hart (1990), e
observamos que o seu desempenho é melhor quando temos amostras de tamanhos maiores e
também maiores diferenças entre as funções. Ainda verificamos que o nível do teste ficou
próximo do valor fixado, o que também foi observado para o teste
n
S
. Mas salientamos que o
teste boostrap
n
S
limita-se ao seu uso caso tenhamos amostras de mesmo tamanho e da
seguinte forma
(
{
}
, , ,1
i i i
x Y Z i n
. Contudo no procedimento de Munk, Neumeyer e
Scholz (2006), não há essa limitação na forma do conjunto amostral e também pode ser
aplicado quando temos amostras de tamanhos diferentes.
43
Percebemos ainda que o nível da estatística de teste
N
T
é bom, mesmo quando temos
amostras de tamanhos diferentes, o que não é possível de se obter com a estatística
N
S
.
em relação ao poder do teste, obtivemos valores muito bons, sendo que com amostras de
tamanho
50
n
=
, o poder já estava próximo de um em todos os modelos avaliados.
Para projetos no futuro, mais estudos envolvendo simulações para o poder e o nível do teste
aqui apresentado, como para amostras de tamanhos diferentes e erros não homogêneos.
Avaliaremos situações diferentes para as funções de regressão, onde os erros poderão ser
correlacionados. Aplicar novos métodos para a estimação da função variância, pois com isso
podemos ter melhores resultados para a estatística de teste em modelos com alta
heterocedasticidade.
44
Referências
Atuncar, G. S. (2009). Estimadores da Variância do Núcleo Estimador de uma Função de
Regressão (em andamento).
Beran, R. (1986). Comentários em “Jackkinfe, bootstrap and other resampling methods in
regression analysis” por C. F. J. Wu. Ann. Stat., 14, 1295-1298.
Bowman, A. W. e Azzalini, A. (1997). Applied Smoothing Techniques for Data Analysis. Oxford
Statistical Science Series, 18.
Dette, H. e Neumeyer, N. (2001). Nonparametric analysis of covariance. Ann. Stat., 20, 2071-
2086.
Fan, J. e Gijbels, I. (1995). Data-driven bandwidth selection in local polynomial fitting: variable
bandwidth and spatial adaptation. J. Roy. Stat. Soc., Ser. B. 57, 371-394.
Fan, J. e Yao, Q. (1998). Efficient estimation of conditional variance functions in stochastic
regression. Biometrika, 85, 645-660.
Fan, J., Zhang, C. e Zhang, J. (2001). Generalized likelihood ratio statistics and Wilks
phenomenon. Ann. Stat., 29, 153-193.
Gasse, T. e Müller, H.-G. (1984). Estimating regression functions and their derivatives by the
kernel method. Scand. J. Stat., 11, 171-185.
Gasser, T., Müller, H.-G. e Mammitzsch, V. (1985). Kernels for nonparametric curve estimation.
J. Roy. Stat. Ser. B, 47, 238-252.
Hall, P. e Hart, J. W. (1990). Bootstrap test for difference between means in nonparametric
regression. J. Amer. Stat. Assoc., 85, 1039-1049.
Härdle, W. e Mammen, E. (1990). Comparing nonparametric versus parametric regression fits.
Pré-impresso SFB 123, Univ. Heidelberg.
Härdle, W. e Marron, J. S. (1993). Fast and simple scatterplot smoothing. CORE discussion
paper No. 9143, Univ. Catholique de Louvain.
Härdle, W. e Tsybakov, A. (1997). Local polynomial estimators of the volatility function in
nonparametric auto regression. J. Econometrics, 81, 223-242.
45
Houghton, R. A. (1999). The annual net flux of carbon to the atmosphere from changes in land
use 1850-1990. Tellus, 51B, 298-313.
Liu, R. Y. (1988). Bootstrap procedures under some non i.i.d. models. Ann. Stat., 16, 1696-
1708.
Mallows, C. L. (1973). Some comments on
p
C
. Technometrics, 15, 661-675.
Mammen, E. (1993). Bootstrap and wild bootstrap for high dimensional linear models. Ann.
Stat., 21, 255-285.
Munk A., Neumeyer, N. e Scholz, A. (2006). Nonparametric analysis of covariance – The case of
inhomogeneous and heteroscedastic Noise. Scand. J. Stat., 34, 511-534.
Nadaraya, E. A. (1964). On estimating regression. Theory Probab. Appl., 10, 186-190.
Priestley, M. B. e Chao, M. T. (1972). Nonparametric function fitting. J. Roy. Stat. Soc., Ser. B,
34, 385-392.
Ratkowsky, D. A. (1983). Nonlinear regression modeling. Dekker, New York.
Rice, J. (1984). Bandwidth choice for nonparametric regression. Ann. Stat., 12, 1215-1230.
Ruppert, D. e Wand, M. P. (1994). Multivariate locally weighted least squares regression. Ann.
Stat., 22, 1346-1370.
Ruppert, D., Wand, M. P., Holst, U. e Hössjer, O. (1997). Local polynomial variance-function
estimation. Technometrics, 39, 262-273.
Ruppert, D., Sheather, S. J. e Wand, M. P. (1995). An effective bandwidth selector for local
least squares regression. J. Amer. Stat. Assoc., 90, 1257-1270.
Sacks, J. e Ylvisaker, D. (1970). Designs for regression problems for correlated errors. Ann.
Math. Sat., 41, 2057-2074.
Simonoff, J. S. (1996). Smoothing Methods in Statistics. Springer Series in Statistics.
Watson G. S. (1964). Smooth regression analysis. Sankhyā, Ser. A, 26, 359-372.
Wu, C. F. J. (1986). Jackkinfe, bootstrap and other resampling methods in regression analysis.
Ann. Stat., 14, 1261-1295.
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo