Download PDF
ads:
COMPARAÇÕES MÚLTIPLAS
PARA PARÂMETROS BINOMIAIS
UTILIZANDO BOOTSTRAP
NÁDIA GIARETTA BIASE
2006
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
Nádia Giaretta Biase
COMPARAÇÕES MÚLTIPLAS PARA PARÂMETROS
BINOMIAIS UTILIZANDO BOOTSTRAP
Dissertação apresentada à Universidade Fede-
ral de Lavras como parte das exigências do
Curso de Mestrado em Agronômia, área de
concentração em Estatística e Experimentação
Agropecuária, para a obtenção do título de
"Mestre".
Orientador
Prof. Dr. Daniel Furtado Ferreira
LAVRAS
MINAS GERAIS-BRASIL
2006
ads:
Ficha Catalográfica Preparada pela Divisão de Processos
Técnicos da Biblioteca Central da UFLA
Biase, Nádia Giaretta.
Comparações múltiplas para parâmetros binomiais utilizando
bootstrap/ Nádia Giaretta Biase. - Lavras: UFLA, 2006.
68p. : il.
Orientador: Daniel Furtado Ferreira.
Dissertação (Mestrado) - UFLA.
Bibliografia.
1. Proporção binomial. 2. Método Monte Carlo. 3. Bootstrap.
I. Universidade Federal de Lavras. II.Título.
CDD-519.282
-519.52
Nádia Giaretta Biase
COMPARAÇÕES MÚLTIPLAS PARA PARÂMETROS
BINOMIAIS UTILIZANDO BOOTSTRAP
Dissertação apresentada à Universidade Fede-
ral de Lavras como parte das exigências do
Curso de Mestrado em Agronômia, área de
concentração em Estatística e Experimentação
Agropecuária, para a obtenção do título de
"Mestre".
APROVADA em 15 de fevereiro de 2006
Prof. Dr. Ednaldo Carvalho Guimarães UFU
Prof. Dr. Augusto Ramalho de Morais UFLA
Prof. Dr. Júlio Silvio de Sousa Bueno Filho UFLA
Prof. Dr. Daniel Furtado Ferreira
UFLA
(Orientador)
LAVRAS
MINAS GERAIS-BRASIL
“A alegria está na luta, na tentativa,
no sofrimento envolvido.
Não na vitória propriamente dita.”
(Mahatma Gandhi)
Dedico esta vitória:
Aos meus pais, José Luiz e Elisa, pelos inúmeros bons
exemplos que propiciaram e que não pouparam esforços
para minha formação e pelo infinito amor. Por tudo
que sou, expresso minha gratidão e incondicional amor!
A minha irmã, Érica,
exemplo de determinação e coragem!
A minha irmã, Adriele,
exemplo de paciência e dedicação!
AGRADECIMENTOS
A Deus, força maior de todo ser humano, pela saúde, serenidade e
força de vontade a mim concedidas para concluir mais uma etapa de
estudo.
A Universidade Federal de Lavras, em especial ao Departamento de
Ciências Exatas (DEX), pela oportunidade de realizar o mestrado.
À CAPES, pela concessão de bolsa de estudos.
Aos meus pais, José Luiz e Elisa, pelo grande apoio, incentivo, con-
fiança e por se fazerem presentes nos momentos difíceis.
As minhas irmãs, Érica e Adriele, pelo amor e ternura, motivação e
conselhos que me deram durante estes anos.
Ao professor Daniel Furtado Ferreira, pelos ensinamentos, dedicação
e responsabilidade com que me orientou e, principalmente, pela amizade
e disponibilidade em auxiliar-me a qualquer momento.
Ao professor Heyder Diniz Silva, da Universidade Federal de Uber-
lândia, pela amizade e orientação na iniciação científica, pelo incentivo
inicial e por me fazer acreditar que era possível concretizar este sonho.
Aos professores do Departamento de Ciências Exatas, pelas condições
que propiciaram para a realização do mestrado e aos funcionários do
(DEX), pela eficiência e atenção prestadas.
A todos os meus colegas do curso, em especial às colegas Lívia e Verô-
nica, pela amizade, companheirismo, troca de conhecimentos e atenção
recebida durante estes anos.
À minha amiga, Maria Imaculada que, desde a graduação, tem de-
monstrado muito carinho, compreensão e preocupação comigo. Obrigada
pela força e disposição em sempre me ajudar.
Ao meu amigo e futuro cunhado, Edivânio, que, por diversas vezes,
foi tão prestativo, pelo carinho e amizade.
Às amigas de república, Gisele, Samantha, Andressa e Carla, pela
amizade, paciência e alegria proporcionadas no convívio diário.
Aos amigos do Grupo Partilha e Perseverança (GPP), pelos inúmeros
momentos de oração e alegrias compartilhadas e a todos os amigos de La-
vras, em especial ao Itamar, Márcia, Muriel e Fabrícia, pela inesquecível
convivência.
Ao meu namorado, Leonardo, pela paciência, apoio e compreensão
no decorrer destes anos.
A todos os meus familiares que acreditaram e colaboraram pelo meu
sucesso profissional.
A todos aqueles que, de forma direta ou indireta, contribuíram para
a realização desta etapa difícil, mas importante de minha vida, o meu
sincero agradecimento.
Sumário
RESUMO i
ABSTRACT ii
1 INTRODUÇÃO 1
2 REFERENCIAL TEÓRICO 3
2.1 Procedimentos de comparações múltiplas . . . . . . . . . . 3
2.2 Simulação pelo método de Monte Carlo . . . . . . . . . . 12
2.3 Tipos de erro e poder do teste . . . . . . . . . . . . . . . . 13
2.4 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5 Distribuições . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5.1 Distribuição Bernoulli . . . . . . . . . . . . . . . . 16
2.5.2 Distribuição binomial . . . . . . . . . . . . . . . . 17
2.6 Estimação . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6.1 Estimador de máxima verossimilhança . . . . . . . 19
2.6.2 Estimador de Pan para o parâmetro binomial . . . 21
3 METODOLOGIA 23
4 RESULTADOS E DISCUSSÃO 27
4.1 Erro tipo I . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.1 Erro tipo I sob H
0
completa . . . . . . . . . . . . 27
4.1.2 Erro tipo I sob H
0
parcial . . . . . . . . . . . . . . 30
4.2 Poder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Poder sob H
1
. . . . . . . . . . . . . . . . . . . . . 37
4.2.2 Poder sob H
0
parcial . . . . . . . . . . . . . . . . . 43
4.3 Considerações finais . . . . . . . . . . . . . . . . . . . . . 49
5 CONCLUSÕES 51
6 REFERÊNCIAS BIBLIOGRÁFICAS 52
ANEXOS 55
RESUMO
BIASE, Nádia Giaretta. Comparações múltiplas para parâmetros
binomiais utilizando bootstrap. Lavras: UFLA, 2006. 68 p. Disser-
tação (Mestrado em Agronomia / Estatística e Experimentação Agrope-
cuária) - Universidade Federal de Lavras, Lavras, MG.
*
A aplicação dos métodos de comparações múltiplas e a análise de va-
riância não são alternativas viáveis para se comparar duas ou mais pro-
porções binomiais, quando os experimentos são realizados considerando
apenas repetições do evento de Bernoulli. Essa comparação pode ser feita
por meio das técnicas de computação intensiva que utilizam bootstrap
infinito. Este trabalho teve por objetivo avaliar a performance de dois
testes de bootstrap envolvendo proporções binomiais, computando o erro
tipo I por experimento e o poder. Esses dois testes de bootstrap infinito
se diferenciam pelos estimadores de p
i
utilizados. Em um dos testes foi
considerado o estimador de máxima verossimilhança (MV) e, no outro,
o estimador de Pan (Pan, 2002) que foram avaliados em diferentes con-
figurações envolvendo número de populações e valores dos parâmetros
n
i
e p
i
. O método de Monte Carlo foi utilizado para simular os ex-
perimentos, gerando-se 2.000 amostras para cada uma de duas etapas
consideradas. Na primeira etapa, foram avaliadas as taxas de erro tipo
I por experimento sob H
0
completa e parcial. As simulações sob a hipó-
tese H
0
completa foram feitas para as combinações entre os valores dos
parâmetros p = 0, 1; 0, 5 e 0, 9, números de populações k = 2, 5 e 10 e
tamanhos amostrais n = 10, 30 e 100. Também foi avaliado o erro tipo I
por experimento sob H
0
parcial, considerando uma diferença entre os
valores de p de dois grupos distintos. Numa segunda etapa, avaliou-se o
poder dos testes sob H
0
parcial e sob H
1
. Em ambas as etapas, as simu-
lações foram realizadas adotando-se o valor nominal de significância de
1% e 5%. Os dois testes de bootstrap Pan e MV apresentaram excelentes
performances, controlando o erro tipo I por experimento em níveis iguais
ou inferiores aos valores nominais de significância e elevados valores de
poder. Pelo fato de possuir uma performance melhor nas situações em
que as proporções binomiais se afastam de 1/2 e os tamanhos amostrais
são pequenos (n 10), recomenda-se a utilização do teste bootstrap de
Pan.
*
Comitê Orientador: Daniel Furtado Ferreira - UFLA. (Orientador)
i
ABSTRACT
BIASE, Nádia Giaretta. Multiple comparison for binomial pa-
rameters using bootstrap. Lavras: UFLA, 2006. 68 p. Dissertation
(Master in Agronomy / Statistics and Agricultural Experimentation) -
Federal University of Lavras, Lavras, MG.
*
The multiple comparisons methods and the analysis of variance are
not reliable alternatives for comparing two or more binomial proportions,
when the experiments have only Bernoulli trails. Although, this compa-
rison can be made using the intensive computational techniques named
infinite bootstrap. This work aimed to evaluate the performance of two
binomial proportions bootstrap tests computing the experimentwise type
I error rates and the power. These two infinite bootstrap tests distin-
guished on the estimators of p
i
. One of these tests considered the maxi-
mum likelihood estimator (ML) and the other the Pan’s estimator (Pan,
2002) and they were evaluated in different configurations considering
the number of populations and the parameters values, resultant of 2000
Monte Carlo simulations. In the first stage the experimentwise type I
error rates were evaluated under complete null and partial H
0
hypothe-
ses. The simulations under complete (H
0
) were done in all combinations
between parameters values p = 0.1; 0.5 and 0.9, number of populations
k = 2, 5 and 10 and sample sizes n = 10, 30 and 100. The experimentwise
type I error rate was also evaluated under partial H
0
considering a diffe-
rence of between values of p of distinct groups. In a second stage the
powers of the tests were evaluated under partial H
0
and alternative hy-
potheses. Both simulations were done using 1% and 5% significance level.
Pan´s and ML bootstrap tests showed excellent performance, because ex-
perimentwise error rate were always under their nominal levels. Powers
of both procedures were high and they know best performance with ex-
treme proportions (p = 0.5) and small sample sizes n < 10, when Pan´s
bootstrap test is preferable.
*
Guidance Committee: Daniel Furtado Ferreira - UFLA. (Adviser)
ii
1 INTRODUÇÃO
Em várias situações reais, o pesquisador se depara com a necessidade
de comparar duas ou mais proporções binomiais. A estratégia utilizada
consiste em realizar estimação para a diferença das proporções das po-
pulações tomadas duas a duas ou em aplicar algum tipo de teste de hi-
pótese. Quando o número de populações é maior do que dois, a segunda
alternativa é, geralmente, aplicada por meio de uma análise de variação,
principalmente se forem utilizadas repetições experimentais em delinea-
mentos simples ou complexos. Inicialmente, é aplicado um teste F para a
igualdade de todas as proporções e, posteriormente, se condicionada a re-
jeição dessa hipótese, é comum aplicar testes de comparações múltiplas,
como, por exemplo, Tukey, Duncan, Sheffé e Student-Newman-Keuls
(SNK).
A validade destes testes depende de algumas pressuposições, tais
como normalidade dos resíduos, homogeneidade de variâncias e inde-
pendência das observações. Em geral, a independência é garantida pela
casualização e, mesmo que isso não tenha ocorrido, o teste ainda conti-
nua válido. Para o caso de testes sobre proporções binomiais não existe
normalidade, a não ser de forma aproximada. Finalmente, pode-se cons-
tatar que a homogeneidade de variâncias também é um dos pressupostos
não atendidos. Para as populações binomiais é bem conhecido o fato de
a variância ser uma função da média. Assim, espera-se que as variâncias
das diversas populações sejam, em geral, heterogêneas.
Uma das alternativas existentes para solucionar este problema são os
modelos lineares generalizados. A inferência bayesiana é outra aborda-
gem que vem sendo largamente empregada. Os modelos lineares gene-
ralizados constituem-se em uma generalização dos modelos lineares clás-
sicos, em que a variável resposta possui distribuição de probabilidade
pertencente à família exponencial. A inferência bayesiana depende de
escolhas de modelos probabilísticos, baseados no conhecimento a priori
dos pesquisadores sobre os parâmetros.
Por outro lado, testes de hipóteses e estimativas de parâmetros têm
1
sido realizados por meio de técnicas computacionais intensivas. Entre
estas técnicas, o método de bootstrap tem se destacado, uma vez que
possibilita obter a estimativa do parâmetro sem a necessidade de pressu-
por a distribuição do estimador. Conlon e Thomas (1990) introduziram
uma técnica conhecida como bootstrap infinito, que possibilita realizar
testes de hipóteses e estimar, por intervalo, parâmetros da binomial ou
funções desses parâmetros que sejam de interesse.
Quando os experimentos sobre as populações binomiais são realiza-
dos sem considerar repetições experimentais, mas considerando apenas
repetições do evento de Bernoulli, a análise de variância e os testes de
comparações múltiplas ficam inviabilizados. Assim, as técnicas de com-
putação intensiva que utilizam bootstrap infinito se tornam relevantes.
Particularmente no caso de proporções nas quais os dados seguem dis-
tribuição binomial, dois estimadores do parâmetro de interesse podem
ser utilizados, quais sejam, o estimador de máxima verossimilhança e o
estimador de Pan (2002). Esse último tem como característica a utiliza-
ção de quatro pseudo-observações, sendo duas delas consideradas como
sucessos do evento de interesse.
O presente trabalho teve por objetivo realizar comparações múltiplas
em populações binomiais utilizando bootstrap infinito e avaliar a sua per-
formance computando-se o erro tipo I por experimento e o poder. Adici-
onalmente, o método de bootstrap infinito será avaliado considerando os
estimadores de máxima verossimilhança e de Pan (2002) em diferentes
configurações envolvendo número de populações e valores dos parâmetros
n
i
e p
i
(tamanho da amostra e proporção da i-ésima população).
2
2 REFERENCIAL TEÓRICO
2.1 Procedimentos de comparações múltiplas
Os procedimentos de comparações múltiplas são largamente utiliza-
dos em diversas áreas da ciência. O assunto é tão vasto e importante
que existem livros completos sobre estes métodos, inúmeras revistas ci-
entíficas contendo artigos que abordam direta ou indiretamente o tema
e, ainda, existe uma grande quantidade de trabalhos que citam estes
procedimentos.
O objetivo principal em uma análise estatística de dados, em ex-
perimentos agronômicos, é estabelecer o maior número possível de in-
formações sobre os tratamentos aplicados nas unidades experimentais
(Petersen, 1977). A aplicação dos procedimentos de comparações múl-
tiplas depende da natureza dos efeitos dos fatores em estudo. Quando
os níveis destes fatores são quantitativos, a utilização de uma metolo-
dogia de regressão é mais conveniente e, se os fatores são qualitativos
com uma estruturação, é mais apropriado estabelecer comparações en-
tre os níveis de um dos fatores por meio de contrastes, seguidas de um
teste específico. No entanto, se os níveis dos fatores são qualitativos e
não são estruturados, devem-se aplicar os procedimentos de comparações
múltiplas (Machado et al., 2005).
Segundo Hochberg & Tanhane (1987), as comparações múltiplas en-
tre efeitos de tratamentos são utilizadas na prática somente quando, na
análise de variância, o teste F para a igualdade dos efeitos de trata-
mento é significativo. Os testes de comparações múltiplas servem como
um complemento do teste F , para detectar possíveis diferenças entre os
tratamentos (Banzatto & Kronka, 1989).
Quando os testes de comparações múltiplas são utilizados de maneira
incoerente, pode haver perda de informações e redução da eficiência se
procedimentos mais apropriados forem avaliados (Petersen, 1977). O
freqüente uso inapropriado de comparações múltiplas deve-se ao ensi-
namento incorreto e, também, à resistência de não estatísticos em se
3
aventurarem no território desconhecido da especificação de contrastes
(Pearce, 1993).
Uma situação em que se deve ter cuidado ao utilizar os procedimentos
de comparações múltiplas é o caso de análises de ensaios fatoriais que
freqüentemente têm aplicado estas comparações de maneira incorreta.
Em experimentos deste tipo, independente dos fatores envolvidos serem
quantitativos ou qualitativos, devem, em primeiro lugar, ser testada a
significância dos efeitos dos fatores principais e das interações. Se os
efeitos das interações são não significativos, então, toda a informação
está contida nos efeitos dos fatores principais e, neste caso, as médias de
cada nível de um fator em todos os níveis dos outros fatores podem ser
comparados recorrendo-se a métodos de comparações múltiplas. Agora,
se as interações forem significativas, existe dependência entre os efeitos
dos fatores principais e, asssim sendo, não se podem estudar os efeitos
principais isoladamente. Deve-se proceder o estudo dos efeitos de um dos
fatores em cada nível do outro fator, por meio de contrastes ortogonais
ou testes de comparações múltiplas (Petersen, 1977).
Apesar da facilidade de aplicação dos testes de comparações múl-
tiplas, um aspecto a ser considerado quando se aplica esses testes é a
ambigüidade dos seus resultados. Essa ambigüidade é um complicador
adicional nas interpretações e nas decisões a serem tomadas pelo experi-
mentador e decorre da possibilidade de que dois tratamentos, considera-
dos como iguais a um terceiro, podem ser considerados diferentes entre
si (Ramalho et al., 2000).
Qualquer que seja o procedimento de comparações múltiplas utili-
zado, a diferença observada entre quaisquer duas médias é comparada
com um valor crítico apropriado em cada procedimento. Se essa diferença
observada exceder o valor crítico, as duas médias são consideradas signifi-
cativamente diferentes, caso contrário, não significativamente diferentes.
Uma vez que as magnitudes dos valores críticos variam de procedimento
para procedimento, resultados obtidos da aplicação de um procedimento
a um grupo de dados irão diferir dos resultados obtidos se um outro
procedimento é aplicado aos mesmos dados (Carmer & Swanson, 1973).
4
Os testes de comparações múltiplas mais utilizados na literatura são
os de t de Student, Tukey, Student-Newman-Keuls, Duncan, Sheffé e
outros que podem ser encontrados em vários livros voltados para a es-
tatística experimental como os de Pimentel Gomes (1985), Banzatto e
Kronka (1989) e Steel & Torrie (1980), entre outros.
O teste t de Student, conhecido também como critério da Diferença
Mínima Significativa (LSD do inglês Least Square Difference) é realizado
por meio da estatística:
LSD = t
(ν, α/2)
2QME
r
em que t
(ν, α/2)
é o quantil superior 100(α/2)% da distribuição t de
Student com ν números de graus de liberdade; QME é o quadrado médio
do resíduo e r é o número de repetições.
Este teste controla apenas o erro por comparação em um nível no-
minal máximo igual a α e, por este motivo, muitos pesquisadores reco-
mendam o seu uso somente para realizar comparações planejadas ini-
cialmente (Machado et al., 2005). Além disso, este teste apresenta a
inconveniência de possuir a maior taxa de erro por experimento em rela-
ção aos demais testes de comparações múltiplas, como o teste de Tukey,
Duncan e Student-Newman-Keuls (SNK)(Ramalho et al., 2000).
Um procedimento aplicado para preservar a taxa de erro por expe-
rimento consiste em utilizar o teste t protegido por Fisher. Este teste
exige o cálculo do teste preliminar da hipótese nula global, baseado no
valor observado da razão F obtida pelo quociente entre o quadrado mé-
dio do tratamento e o quadrado médio do erro, antes de se usar o teste
LSD. Se o valor de F é significativo, então, o teste LSD pode ser aplicado
normalmente e significa existir pelo menos uma diferença entre os trata-
mentos. Agora, se o valor de F é não significativo, nenhuma comparação
de médias deve ser efetuada, eliminando a possibilidade de cometer o
erro tipo I (Carmer & Swanson, 1973).
No entanto, o teste t protegido por Fisher não garante resultados
satisfatórios, uma vez que, na maioria das situações reais, a hipótese H
0
é apenas parcialmente verdadeira, isto é, pelo menos um dos tratamen-
5
tos difere dos demais. Assim, o teste F terá significância com muita
frequência nestas situações reais e a taxa de erro por experimento, in-
cluindo comparações de médias homogêneas, não será controlada tendo
valor superior ao nível de significância nominal adotado (Machado et al.,
2005).
Para contornar este problema, existe outra alternativa para preservar
a taxa de erro por experimento baseada na desigualdade de Bonferroni.
Este procedimento consiste em alterar o nível nominal de significância α
para a determinação do valor tabelado de t, dividindo-se o nível nominal
de significância pelo número de comparações que serão realizadas. No
caso de se realizarem todas as comparações múltiplas duas a duas, o
nível de significância será:
α
p
=
2α
k(k 1)
em que p é o número de médias ordenadas abrangidas pelo contraste e
k é igual ao número de níveis do fator que se deseja comparar.
Dessa forma, o valor crítico do teste de Bonferroni é:
LSDB = t
(ν, α
p
/2)
2QME
r
em que t
(ν, α
p
/2)
representa o quantil superior 100 (α
p
/2) % da distri-
buição t de Student com ν números de graus de liberdade do resíduo.
Verifica-se que o teste LSD protege apenas contra o erro tipo I por
comparação, o teste LSD protegido por Fisher controla o erro tipo I
por comparação em todos os casos e o erro tipo I por experimento sob
H
0
completa, mas não controla o erro tipo I sob H
0
parcial. Finalmente,
o teste LSDB controla o erro tipo I por comparação e por experimento
com limite máximo das taxas iguais ao valor nomimal (Machado et al.,
2005).
Ainda existe um outro método, conhecido como false discorery rate
(FDR), proposto por Benjamim & Hochberg (1995), que estima taxas
de erro tipo I em experimentos que envolvem comparações múltiplas. A
FDR é definida pela esperança matemática da razão entre o número de
erro tipo I cometido e o número total de hípoteses nulas rejeitadas. Este
6
procedimento estatístico é relativamente novo e limita o número de erros
cometidos ao executar estas comparações. Estes autores recomendam a
utilização deste método, pois ele garante valores de poder mais elevados
do que o método de Bonferroni. O método de Bonferroni procura con-
trolar a possibilidade de uma única rejeição da hipótese nula verdadeira
entre todos os testes executados. o método que utiliza a FDR controla
a proporção dos erros entre aqueles testes cuja a hipótese nula foi rejei-
tada. É um método rápido e fácil de computar e pode ser trivialmente
adaptado a trabalhos com dados correlacionados.
O método de Tukey requer que todos os níveis de tratamento tenham
o mesmo número de repetições e que as inferências de interesse sejam
todo o conjunto de comparações duas a duas, ou seja, todos os pares de
estimativas (Ramalho et al., 2000). A diferença mínima significativa (∆)
do teste é dada por:
= q
(α, k, ν)
1
2
ˆ
V (D) = q
(α, k, ν)
QMR
r
em que:
q
(k, ν, α)
é o valor tabelado da amplitude estudentizada, no qual k repre-
senta o número de tratamentos, ν o número de graus de liberdade do erro
e α o valor nominal de significância;
ˆ
V (D) é o estimador da variância de
D, em que D é a diferença entre duas médias de tratamentos dada por:
D = Y
i.
Y
j.
; QME é o quadrado médio do resíduo e r é o número de
repetições de cada tratamento.
Assim, todos os valores de D que superarem o valor de serão con-
siderados estatisticamente significativos e a hipótese H
0
: µ
i
µ
j
= 0
deve ser rejeitada a α de significância, estabelecida em favor da hipótese
alternativa H
1
. O teste de Tukey é exato para testar a maior diferença
entre as médias dos tratamentos e, nos demais casos, é considerado con-
servativo (Perecin e Malheiros, 1989). Para um mesmo valor de α e para
k > 2, o valor de é maior do que a estatística do teste LSD. Desse
modo, o teste de Tukey é um procedimento que apresenta resultados mais
conservativos do que o teste t de Student (Carmer & Swanson, 1973).
Este teste é útil em situações em que se deseja obter informações
7
preliminares no uso do experimento como um todo, na determinação de
diferenças significativas ou para determinar intervalos de confiança para
diferenças de médias populacionais. Em um programa de melhoramento
vegetal, quando muitas variedades, esse teste pode ser usado nas fases
preliminares, quando o material é muito heterogêneo, para eliminar as
piores ou selecionar as melhores (Perecin e Malheiros, 1989).
Segundo Ramalho et al. (2000), para o caso em que os tratamen-
tos são desbalanceados, é recomendável, no lugar de r, usar a média
harmônica, r
h
, do número de repetições de cada tratamento dada por:
r
h
=
1
1
k
k
i=1
1
r
i
em que r
i
é o número de repetições do tratamento i.
A finalidade do teste de Tukey é controlar a taxa de erro por ex-
perimento, sendo este teste bastante conservativo em relação à taxa de
erro por comparação. O poder deste teste é baixo quando comparado
com os demais testes de comparações múltiplas e apresenta uma redução
drástica com o aumento do número de níveis dos tratamentos (Ramalho
et al., 2000).
Enquanto os testes t de Student e de Tukey, exigem o cálculo de um
único valor crítico, o teste de Student-Newman-Keuls (SNK) necessita
do cálculo de (k 1) valores críticos (Carmer & Swanson, 1973). O teste
de Student-Newman-Keuls é um procedimento seqüencial baseado na
amplitude estudentizada, válido para a totalidade dos contrastes de duas
médias e, a princípio, exige a condição de balanceamento dos tratamentos
(Perecin e Malheiros, 1989).
A diferença mínima significativa para o teste de SNK é definida por:
SNK
p
= q
(α, p, ν)
QME
r
em que :
q
(α, p, ν)
são os valores tabelados da distribuição da amplitude estuden-
tizada e dependem do nível α de significância, das p = 2, 3, . . . , k médias
envolvidas pelo contraste e dos ν números de graus de liberdade do erro.
8
Um outro teste de comparação múltipla é o teste de Scheffé. Este
teste pode ser aplicado a qualquer contraste de médias e, apesar de ser
um teste mais conservativo que o teste t de Student, ele também é mais
flexível, pois não exige a condição de ortogonalidade entre os contras-
tes e nem que estes sejam estabelecidos antes de se examinar os dados
(Banzatto & Kronka, 1989). O seu valor crítico é calculado por:
S =
(k 1)
k
i=1
c
2
i
r
F
(α, k1, ν)
QME
em que: k é o número de tratamentos do experimento; c
i
são os coeficien-
tes das médias do contraste em questão com i = 1, 2, . . . , k ; F
(α, k1, ν)
é o quantil superior 100α% da distribuição F com k 1 e ν números de
graus de liberdade do resíduo. Se, ao comparar o dulo da estimativa
do contraste (
ˆ
Y ) com a estatística do teste, verificar-se que |
ˆ
Y | > S,
deve-se concluir que o contraste é significativo a α de significância, indi-
cando que os grupos de médias confrontados no contraste diferem entre
si.
O teste de Duncan tem as mesmas características que o teste de Tu-
key no que se refere às pressuposições exigidas para sua aplicação. A
principal diferença entre estes testes é que, no teste de Duncan, o nível
α de significância é alterado em função do número de médias abrangi-
das pelo contraste. Por essa razão, somente os contrastes entre médias
ordenadas são considerados neste teste (Ramalho et al., 2000).
Para um contraste que abrange p médias ordenadas, o valor do nível
de significância, proposto por Duncan (1955), considerado em cada passo
da aplicação do teste, é dado por:
α
p
= 1 (1 α)
p1
(2 p k)
Esse nível de significância proposto por Duncan (1955) fornece uma
proteção separada para cada comparação par a par, em um nível nomi-
nal de significância α. Isso implica que o teste controla a taxa de erro
por comparação, mas, não controla a taxa de erro por experimento (Ra-
malho et al., 2000). Este teste fornece resultados com maior poder de
9
discriminação que os do teste de Tukey, além de ser menos conservativo
(Banzatto & Kronka,1989).
A diferença mínima (D
p
) de Duncan é:
D
p
= q
(α
p
, p, v)
QME
r
cujos termos foram todos especificados anteriormente. Os valores de
q podem ser encontrados em tabelas apropriadas em textos clássicos de
estatística experimental (Steel & Torrie, 1980).
Observe-se que a expressão é semelhante ao teste de SNK. A diferença
é que o nível de significância α do teste SNK é constante e, em ambos os
testes, o número de médias abrangidas (p) varia em cada comparação.
Para muitas médias, como ocorre em programas de melhoramento,
não um procedimento ideal. Testes como Tukey, Bonferroni ou Scheffé
tornam-se extremamente conservativos, ou seja, o nível de significância
real para a maioria dos contrastes é muito mais baixo que o valor nominal.
O inverso ocorre com os testes de Duncan e t de Student. O teste de
Student-Newman-Keuls (SNK), embora muito trabalhoso, pode ser uma
solução (Perecin & Malheiros, 1989).
O procedimento de Scott e Knott (SK) utiliza a razão de verossimi-
lhança para testar a hipótese de que k tratamentos podem ser dividi-
dos em dois grupos que maximizam a soma de quadrados entre grupos.
Quando o número (k) de tratamentos é grande, o número de grupos
cresce exponencialmente, dificultando a aplicação do teste. É impor-
tante salientar que existem 2
k1
1 partições possíveis das k médias em
dois grupos distintos (Ramalho et al., 2000). Para contornar este pro-
blema, deve-se ordenar as médias dos tratamentos e, com isso, o número
de partições possíveis passa a ser obtido por k 1.
Para aplicar-se o método de Scott e Knott, deve-se proceder da se-
guinte maneira:
i- ordenar as k médias e dividir os tratamentos em dois grupos, para
todas as k 1 partições possíveis dos valores médios ordenados;
ii- determinar a soma de quadrados máxima entre dois grupos. Essa
soma de quadrados será definida por B
0
e será estimada da seguinte
10
maneira:
B
0
=
T
2
1
K
1
+
T
2
2
K
2
(T
1
+ T
2
)
2
K
1
+ K
2
sendo T
1
e T
2
os totais dos dois grupos, com K
1
e K
2
tratamentos
em cada um, isto é:
T
1
=
k
1
i=1
Y
(i)
e T
2
=
k
i=k
1
+1
Y
(i)
em que Y
(i)
é a média do tratamento da posição ordenada i;
iii- determinar o valor da estatística λ da seguinte forma:
λ =
π
2(π 2)
×
B
0
ˆσ
2
0
em que:
π é uma constante que equivale a 3,141593;
B
0
é o valor da soma de quadrados máxima entre dois grupos
tomados sobre todas as (k 1) partições possíveis, com k número
de tratamentos envolvidos no grupo de médias considerado;
σ
2
0
é o estimador de máxima verossimilhança de σ
2
Y
dado por:
σ
2
0
=
1
k + ν
k
i=1
(Y
(i)
Y )
2
+ νs
2
Y
sendo:
Y
(i)
a média do tratamento i ordenada;
Y a média geral do experimento;
s
2
Y
=
QME
r
a variância da média;
ν o número de graus de liberdade associados a este estimador;
iv- se λ χ
2
(α; k/(π2))
, rejeita-se a hipótese de que os dois grupos são
idênticos em favor da hipótese alternativa de que os dois grupos
diferem;
v- no caso de rejeitar essa hipótese, os dois subgrupos formados serão
independentemente submetidos aos passos (i) a (iii), fazendo, res-
pectivamente, n = K
1
e n = K
2
. O processo em cada subgrupo se
encerra ao aceitar H
0
no passo (iv) ou se cada subgrupo contiver
apenas uma média.
11
2.2 Simulação pelo método de Monte Carlo
A simulação é um processo que tenta reproduzir, por meio de pro-
gramas de computadores, o comportamento de um sistema real, com
a finalidade de estudar seu funcionamento sob condições alternativas
(Dachs, 1988).
Para estudar ou avaliar um teste estatístico, muitas vezes, torna-se
bastante difícil obter, analiticamente, informações sobre o poder e taxas
de erro tipo I. Uma maneira de se obter as informações desejadas é por
meio de simulações (Cecchetti, 1999).
Em grande parte dos trabalhos que envolvem simulação, sempre está
associado o termo “método de Monte Carlo”, que se refere ao uso de téc-
nicas computacionais que geram amostras de acordo com determinadas
distribuições de probabilidades, visando estudar novos comportamentos
de diferentes técnicas estatísticas que poderiam ser empregadas num pro-
blema específico (Dachs, 1988).
O nome Monte Carlo está relacionado com a cidade de mesmo nome,
no Principado de Mônaco, onde ocorriam jogos de azar. Assim, o uso
atual do nome Monte Carlo envolve todos os mecanismos de simulação
que utilizam variáveis aleatórias em seu sistema ou modelo. Essas va-
riáveis aleatórias eram geradas manualmente ou mecanicamente. Atual-
mente, usam-se computadores para gerá-las (Bussab e Moretttin, 2004).
Com o crescente avanço dos computadores, torna-se mais fácil a prática
de simulação de variáveis aleátorias ou de amostras baseadas em modelos
estatísticos apropriados com parâmetros conhecidos, com o objetivo de
verificar a adequação de determinada metodologia ou na realização de
comparações entre métodos (Dachs, 1988).
Em síntese, o método de simulação Monte Carlo consiste em simular
dados a partir de uma seqüência de números aleatórios, com a finali-
dade de se obter uma amostra da população. Admite-se também que
todo processo simulado que contém um componente aleatório de qual-
quer distribuição faz parte deste método (Carari, 2004).
12
2.3 Tipos de erro e poder do teste
Quando se realiza um teste de hipóteses, o interesse maior está na
tomada de decisões a partir da aceitação ou não da hipótese referente ao
parâmetro populacional (Steel & Torrie, 1980).
É preciso ter sempre a consciência de que toda inferência realizada
está sujeita a erros. Esses erros podem ser classificados em três catego-
rias. A primeira delas é conhecida como erro tipo I e ocorre, por defini-
ção, quando rejeita-se a hipótese nula sendo ela verdadeira, com uma pro-
babilidade α, isto é, α = P (erro tipo I) = P (rejeitar H
0
|H
0
´e verda-
deira) (Bussab & Morettin, 2004). De modo geral, a probabilidade α
de se cometer um erro do tipo I é um valor arbitrário e recebe o nome
de valor nominal de significância e esse é o único tipo de erro sob con-
trole do pesquisador. Alternativamente, comete-se o erro tipo II quando
não se rejeita a hipótese nula dado que ela é falsa e a probabilidade
de cometê-lo é representado por β, ou seja, β = P (erro tipo II) =
P (n˜ao rejeitar H
0
|H
0
´e falsa). Esse erro não pode ser controlado di-
retamente.
Esses dois tipos de erros estão de tal forma associados que se a pro-
babilidade de ocorrência de um deles diminuir, automaticamente a pro-
babilidade de ocorrência do outro aumenta (Banzatto & Kronka, 1989).
Assim, manter controle conservativo da taxa de erro tipo I causa um au-
mento na probabilidade de ocorrência do erro tipo II. Portanto, é preciso
tomar algumas precauções, de modo que não se deve aplicar um teste
a um nível muito baixo de probabilidade para não aumentar exagerada-
mente a probabilidade de ocorrência do erro tipo II. Usualmente não se
conhecem valores fixos para o parâmetro sob a hipótese alternativa, o
que dificulta a determinação do valor de β (Bussab & Morettin, 2004).
São muitas as dificuldades em se avaliar o erro tipo I nos testes de
comparações múltiplas e, em grande parte destes testes, a atenção está
centrada nesse tipo de erro. Entre outras, existem duas formas de medir
esse erro (Steel e Torrie, 1980). A razão entre o número de erro tipo I
(concluindo que µ
i
= µ
j
quando µ
i
= µ
j
) e o número total de compara-
13
ções realizadas é definida como taxa de erro por comparação, chamada
de “comparisonwise error rate” . Em outras palavras, é a probabilidade
de se rejeitar uma hipótese verdadeira em todas as possíveis combinações
de médias de tratamentos tomadas duas a duas, ou seja:
N ´umero de decis˜oes erradas
N ´umero total de decis˜oes
.
e a razão entre o número de experimentos com um ou mais erros tipo
I e o número total de experimentos é definida como a taxa de erro por
experimento, chamada de “experimentwise error rate” , isto é:
N ´umero de experimentos com pelo menos uma decis˜ao errada
N ´umero total de experimentos
.
Ao aplicar procedimentos de comparações múltiplas, o pesquisador
pode ter interesse na probabilidade de se cometer pelo menos um erro do
tipo I em uma série de k comparações. Se os k testes forem todos inde-
pendentes, a expressão que representa a probabilidade de não cometer o
erro do tipo I em nenhum dos testes é (1 α)
k
. E 1 (1 α)
k
expressa a
probabilidade de não haver erro do tipo I em, pelo menos, um dos testes.
Portanto, esta é a probabilidade máxima, numa seqüência de testes, de
cometer pelo menos um erro do tipo I (Machado et al., 2005)
O terceiro e último tipo de erro, conhecido como erro tipo III, refere-
se à probabilidade de classificar um nível de tratamento como superior
ao outro, quando, na verdade, o segundo nível supera o primeiro, isto é,
rejeita-se corretamente a hipótese nula, dado que ela é falsa, a favor de
uma hipótese alternativa errada (Ramalho et al., 2000).
O poder de um teste é definido pela probabilidade de se rejeitar a
hipótese nula H
0
quando, na verdade, ela é falsa e é dada por (1 β)
(Mood et al., 1974). O controle da taxa de erro tipo I real, de forma a
garantir que o nível de probabilidade desejado em um conjunto de várias
comparações seja alcançado, leva a uma redução do poder dos testes. Os
métodos que se baseiam nesse tipo de controle são considerados conser-
vativos por garantirem proteção excessiva. Em um teste conservativo, a
probabilidade de se encontrar um resultado significativo falso (erro tipo
I) é inferior ao valor α estabelecido (Snedecor & Cochran, 1980). De
14
preferência, devem-se estabelecer amostras com tamanhos relativamente
grandes para poder reduzir a probabilidade de se cometer o erro tipo II,
fixando um baixo risco α para a probabilidade de se cometer o erro tipo
I (Guerra & Donaire, 1982).
2.4 Bootstrap
O bootstrap é um método computacional desenvolvido recentemente
e é usado para obter estimativas de parâmetros (Efron & Tibshirani,
1993).
A técnica de bootstrap consiste em reamostrar a amostra baseada na
premissa de que, na ausência de qualquer outro conhecimento da popu-
lação, os valores encontrados em uma amostra aleatória de tamanho n
são os melhores guias da distribuição da população. A única diferença
que existe entre bootstrap e teste de permutação ou aleatorização é que
no bootstrap a amostragem é feita com reposição (Manly, 1998). Se-
gundo Crowley (1992), esta técnica baseia-se na reamostragem de dados
reais para mostrar algum padrão neles existente, possibilitando assim o
cálculo da precisão das estimativas por meio de limites de confiança ou
probabilidades.
A partir de uma amostra aleatória de tamanho n de uma popula-
ção, é obtida, com reposição, uma nova amostra de tamanho n dessa
amostra. Cada amostra obtida por reamostragem é uma amostra boots-
trap. O processo de bootstrap é executado inúmeras vezes, de modo que
as estimativas dos parâmetros sejam obtidas e essas estimativas geram
uma distribuição denominada distribuição de bootstrap. Em alguns ca-
sos, a estimativa do parâmetro de interesse obtida na amostra original
é utilizada como parâmetro da função de densidade da variável alea-
tória correspondente. Essa densidade é uma estimativa da verdadeira
densidade populacional. Por meio dela são realizadas amostragens e em
cada etapa é obtida uma estimativa do parâmetro de interesse. Repetido
esse processo milhares de vezes, pode-se gerar a distribuição de bootstrap
que, nesse caso particular, é denominada de bootstrap infinito (Conlon
15
& Thomas, 1990). Esses autores apresentaram este procedimento para
a distribuição binomial, que é o foco de interesse deste trabalho.
O fato das medidas de precisão serem obtidas diretamente dos dados,
não dependendo completamente do Teorema do Limite Central (TLC),
favorece o método do bootstrap em suas aplicações (Efron & Tibshirani,
1993).
2.5 Distribuições
2.5.1 Distribuição Bernoulli
Quando é necessário descrever uma determinada população, os pes-
quisadores utilizam famílias de distribuições caracterizadas por parâme-
tros. Essas distribuições, dependendo da situação, podem ser discretas
ou contínuas. Uma das mais simples distribuições de variáveis aleatórias
discretas é a distribuição Bernoulli.
Nos experimentos em que o espaço amostral tem apenas dois resulta-
dos possíveis, sucesso ou fracasso, e a cada resposta está associada uma
determinada probabilidade, usa-se a distribuição Bernoulli para repre-
sentar o fenômeno (Ferreira, 2005). Como exemplo de variáveis com este
tipo de distribuição, tem-se que o sexo do primeiro filho de um casal
será feminino ou masculino, que uma determinada semente germinará
ou não ou que, no lançamento de uma moeda, o resultado será cara ou
coroa. Nestes casos, associando uma variável aleatória Y aos possíveis
resultados, define-se que Y assumirá o valor 1 se ocorrer o sucesso e 0 se
ocorrer o fracasso.
Assim, uma variável aleatória Y é definida como tendo uma distri-
buição Bernoulli se a função de probabilidade é dada por:
P (Y = y) =
p
y
(1 p)
1y
para y=0 ou y=1
0 caso contrário
em que o parâmetro p representa a probabilidade de ocorrer o sucesso e
q = (1 p) a probabilidade de ocorrer o fracasso (Mood et al., 1974).
16
Se Y tem uma distribuição Bernoulli, então, a esperança matemática
de Y é E(Y ) = p e a variância de Y é V ar(Y ) = pq = p (1 p).
Os experimentos que resultam numa variável Bernoulli são chamados
ensaios de Bernoulli. Se um ensaio for realizado n vezes, de modo que
o resultado de um ensaio não tenha influência alguma sobre o outro, e
ainda, se a probabilidade p de obter o sucesso for constante para cada
ensaio, origina-se uma nova distribuição, conhecida como distribuição
Binomial (Mood et al., 1974).
2.5.2 Distribuição binomial
Considere uma população em que a probabilidade de elementos por-
tadores de uma certa característica (sucesso) é p e a probabilidade de
não ocorrência (fracasso) é q = 1 p. Desta população retire, com repo-
sição, todas as amostras aleatórias simples (AAS) possíveis de tamanho
n. Se Y representa o número de sucessos obtidos nas n tentativas inde-
pendentes, então, a variável aleatória Y terá uma distribuição binomial,
ou seja, Y B(n, p) (Steel e Torrie, 1980).
A distribuição de uma variável aleátoria Y é definida por Mood
et al. (1974) como uma distribuição binomial se a função probabilidade
de Y é dada por:
P (Y = y) =
n
y
p
y
q
ny
para y = 0, 1, 2 . . . , n
0 caso contrário
=
n
y
p
y
q
ny
I
{0,1,..., n}
(y)
em que o parâmetro p satisfaz 0 p 1 , q = 1 p,
n
y
=
n!
y!(n y)!
e I() é a função indicadora.
A aplicação da distribuição binomial, que é considerada uma das
mais importantes distribuições discretas, não é limitada à modelagem
probabilística de certos fenômenos e abrange uma série de procedimentos
de estimação e inferência (Ferreira, 2005).
17
Assim, quando deseja-se fazer inferência sobre uma amostra de tama-
nho n, a proporção de indivíduos portadores da característica na amostra
é dada por: ˆp =
y
n
, em que y indica o total de sucessos na amostra de
tamanho n . Com isso, a média e a variância da distribuição amostral
das proporções, com parâmetros n e p, são dadas respectivamente por:
µ
ˆp
= p e σ
2
ˆp
=
p q
n
=
p (1 p)
n
Quando a probabilidade de sucesso em cada experimento amostral
é constante e as tentativas são independentes, a distribuição amostral
de ˆp =
y
n
atende às condições da distribuição binomial. Além disso, de
acordo com o Teorema do Limite Central (T LC), para n grande (n > 30),
pode-se considerar a distribuição amostral de ˆp como aproximadamente
normal, principalmente se p
1
2
(Bussab & Morettin, 2004).
2.6 Estimação
A estimação tem por finalidade utilizar dados amostrais para esti-
mar parâmetros populacionais desconhecidos (Bussab & Morettin, 2004).
Esta estimação pode ser feita de duas maneiras. A primeira, conhecida
como estimação pontual, retorna uma única estimativa do parâmetro θ
desconhecido, a partir de uma amostra aleatória. Mas, se o processo de
estimação consiste em criar um intervalo de possíveis valores, admitindo-
se que o valor real de um parâmetro θ desconhecido tem uma probabili-
dade específica de pertencer a este intervalo, então, define-se a estimação
intevalar (Mood et al., 1974).
A partir de uma amostra Y
1
, Y
2
, . . . , Y
n
, de uma população que apre-
senta alguma característica de interesse, podem-se obter estimativas dos
parâmetros populacionais, como, por exemplo, a média e a variância.
Estimador de um parâmetro θ é qualquer função das observações da
amostra e é representado por
ˆ
θ; a estimativa é o valor assumido pelo
estimador na amostra. Neste caso, tem-se que, se µ é a média popula-
cional, Y =
1
n
n
i=1
Y
i
é um estimador da média µ e y é uma estimativa de
18
µ. Várias amostras podem ser retiradas de uma mesma população, con-
seqüentemente podem-se obter inúmeras estimativas para o estimador.
Em função da existência de vários métodos e critérios para estimar
parâmetros, pode ser difícil escolher, entre vários estimadores, aquele
que melhor representa um mesmo parâmetro. Existem certas proprieda-
des que um estimador pode ou não possuir e que permitem decidir se é
melhor ou não do que outro (Mood et al., 1974). Dentre estas proprie-
dades, Ferreira (2005) define as que são mais desejáveis no processo de
inferência:
i- um estimador
ˆ
θ é considerado um estimador não viesado do parâ-
metro θ se E(
ˆ
θ) = θ;
ii- estimador eficiente (
ˆ
θ) é aquele, dentre os estimadores não viesados
de θ, que possui a menor variância;
iii- um estimador
ˆ
θ de um parâmetro θ de uma população é consistente
quando sua distribuição se torna mais concentrada à medida que n
tende a infinito. Um estimador
ˆ
θ com consistência simples é aquele
que converge em probabilidade para o parâmetro à medida que n
tende a infinito, isto é, além de não ser viesado, sua variância tende
a zero com o aumento da amostra n.
2.6.1 Estimador de máxima verossimilhança
Dentre os métodos de estimação pontual existentes, o mais impor-
tante e de grande aplicação na teoria estatística é o da máxima verossi-
milhança (MV). Ele foi introduzido por Fisher, em 1922 e consiste em
se obter valores do parâmetro desconhecido que maximizam a função
de densidade de uma amostra particular observada (Bussab & Morettin,
2004).
A função de verossimilhança de uma amostra aleatória com n variá-
veis Y
1
, Y
2
, . . . , Y
n
, denotada por L(θ), é definida como sendo a densidade
19
conjunta de n variáveis, ou seja, f(y
1
, y
2
, . . . , y
n
; θ), e deve ser conside-
rada como uma função de θ (Mood et al., 1974). Em razão dos valores
amostrais Y
1
, Y
2
, . . . , Y
n
serem independentes, é possível definir a densi-
dade conjunta ou função de verossimilhança, L(θ), pelo produtório das
densidades de cada Y
i
(i = 1, 2, . . . , n). Assim, a função de verossimi-
lhança L(θ), é definida por:
L(θ) = f(y
1
; θ)f(y
2
; θ) . . . f(y
n
; θ) =
n
i=1
f(y
i
; θ)
O estimador de máxima verossimilhança de θ é o valor de
ˆ
θ que
maximiza L(θ). Para se obter o estimador de máxima verossimilhança
ˆ
θ, deve-se tomar a primeira derivada de L(θ) em relação ao parâmetro
θ, igualar a zero e resolver para θ. A solução é o estimador de máxima
verossimilhança (MV) (Ferreira, 2005).
Os estimadores de máxima verossimilhança possuem, dentre as pro-
priedades citadas anteriormente, uma outra propriedade que permite ob-
ter estimadores para funções de parâmetros. Essa propriedade é conhe-
cida como propriedade da invariância e é definida por: seja
ˆ
θ um estima-
dor de máxima verossimilhança de θ, com função densidade f (y; θ), em
que θ é um vetor unidimensional. Se τ () é uma função de θ que possui
um único valor estimado, então, o estimador de τ(θ) é τ(
ˆ
θ) (Mood et al.,
1974).
Por meio desta propriedade é possível obter estimadores de máxima
verossimilhança para funções importantes. Particularmente, quando
têm-se proporções binomiais, o estimador de máxima verossimilhança
do parâmetro p
i
, obtido a partir de uma amostra aleatória de tamanho
n
i
, é dado por:
ˆp
i
=
y
i
n
i
em que y
i
representa o número de sucessos do evento na amostra n
i
,
i = 1, 2, . . . , k .
20
2.6.2 Estimador de Pan para o parâmetro binomial
Em inferência, é muito comum construir intervalo de confiança para
o parâmetro binomial p, utilizando o intervalo de Wald. O intervalo
de Wald para a proporção p de uma amostra de tamanho n é um mé-
todo de estimação intervalar que baseia-se na aproximação assintótica
normal e apresenta, como parâmetro estimado, o estimador de máxima
verossimilhança obtido anteriormente, é e dado por:
IC
(1α)
(p
i
) : ˆp ± z
α
2
V (ˆp, n)
em que z
α
2
é o quantil superior 100(α/2)% da distribuição normal padrão
e V (ˆp, n) =
ˆp(1ˆp)
n
.
Em estudo envolvendo estimação intervalar com proporções binomi-
ais, Agresti & Coull (1998) verificaram que o intervalo de Wald não apre-
sentava resultados razoáveis para determinado tamanho de amostras e
como alternativa para melhorar sua performance, propuseram uma modi-
ficação no estimador de p, obtendo, assim, um novo estimador conhecido
como add-4. O estimador modificado de p proposto por estes autores
consiste em adicionar quatro pseudo-observações na amostra da popula-
ção, das quais, duas são consideradas como sucesso e duas como fracasso
do evento de interesse, e é dado por:
˜p =
y + 2
n + 4
Substituindo o estimador ˜p no lugar do estimador ˆp no intervalo de
Wald, obtém-se o intervalo add-4:
IC
(1α)
(p) : ˜p ± z
α
2
V (˜p, n + 4)
em que: V (˜p, n + 4) =
˜p(1 ˜p)
n + 4
.
Apesar deste método ser simples e de performance extremamente
satisfatória, Pan (2002) notou que ainda poderia existir progresso na
performance do método de estimação intervalar add-4. Verificou que
um teste t é melhor do que um teste z quando tem-se a média de uma
21
distribuição normal com variância desconhecida e que o teste t é mais
conservativo do que o teste z, isto é, que o teste t seria mais indicado para
manter o erro tipo I dentro do nível nominal específicado. Além disso,
observou que, no intervalo de Wald, a variância de ˆp é substituída por
sua estimativa V (ˆp, n) no lugar de V (p, n). Com isso, Pan (2002) sugeriu
aproximar a distribuição de ˜p por uma distribuição t de Student com ν
número de graus de liberdade corrigidos pelo método de Satterthwaite
(1941), dados por:
ν =
2V (˜p, n + 4)
2
Ω(˜p, n + 4)
em que Ω(˜p, n+4) equivale a var[V (˜p, n+4)], que é obtida calculando-se
os quatro primeiros momentos de X. Esta expressão pode ser encontrada
em Carari (2004).
Assim, o intervalo de confiança sugerido por Pan (2002) é:
IC
(1α)
(p) : ˜p ± t
(ν,
α
2
)
V (˜p, n + 4)
em que t
(ν,
α
2
)
refere-se ao quantil superior 100(α/2)% da distribuição t
de Student com ν números de graus de liberdade.
Após avaliar este método por simulação, Pan (2002) comprovou suas
idéias. O intervalo de confiança, obtido por meio do estimador ˜p e do
teste t, apresentou performance um pouco melhor do que o intervalo
add-4. Essa melhora ocorreu principalmente nos casos em que os valores
de ˜p eram próximos de 0 ou de 1 e os valores de n eram pequenos.
22
3 METODOLOGIA
Para a realização deste trabalho foram feitas simulações Monte Carlo
com o intuito de avaliar as taxas de erro tipo I e poder do teste para
k populações binomiais, com parâmetros p
i
e n
i
, referentes à i-ésima
população. As simulações foram realizadas gerando 2.000 amostras para
diferentes situações de duas etapas consideradas.
Em uma primeira etapa, foram avaliadas as taxas de erro tipo I
por experimento considerando hipóteses H
0
completa: H
0
: p
1
= p
2
=
. . . = p
k
e hipóteses H
0
parcial: p
1
= p
2
= . . . = p
i
= p
i+1
=
p
i+2
= . . . = p
k
. As simulações foram feitas considerando-se os va-
lores dos parâmetros p = 0, 1; 0, 5 e 0, 9 para H
0
completa. Para a
hipótese H
0
parcial, considerou-se uma diferença entre os parâmetros
p
1
= p
2
= . . . = p
i
e p
i+1
= p
i+2
= . . . = p
k
, denominada de , estipu-
lada por = 0, 01; 0, 05; 0, 1; 0, 2; 0, 3; 0, 4; 0, 5; 0, 6; 0, 7; 0, 8 e 0, 9.
Para a realização destas simulações considerou-se que o valor do parâme-
tro p dentro de um dos grupos foi de 0,01 e foram feitas as combinações
entre os valores de , número de populações binomiais k = 2, 5 e 10,
tamanho das amostras n = 10, 30 e 100, e valor nominal de significância
α igual a 5% e a 1%. Foram simuladas também, algumas situações em
que os valores de p se aproximavam de 0,5. Para estes casos, conside-
raram se os valores de = 0, 01; 0,1 e 0,4, e admitiu-se que os valores
de p no primeiro grupo foram de 0,30; 0,45 e 0,5. Foram realizadas
2.000 simulações para cada uma das 102 situações, num total de 204.000
experimentos simulados nesta primeira etapa.
Na segunda etapa, o mesmo procedimento de simulação foi reali-
zado para medir o poder sob a hipótese H
0
parcial, e sob a hipótese H
1
(p
1
= p
2
= p
3
= . . . = p
k
). Em cada simulação realizada para avaliar o
poder sob a hipótese H
1
, foi feita a combinação entre os mesmos números
de populações binomiais (k), tamanhos amostrais (n), diferença entre p
k
e p
1
dado por () e valor nominal de significância (α). Admitiu-se tam-
bém que a diferença entre quaisquer duas proporções, p
i
s consecutivas é
dada por: δ = /(k 1).
23
Para avaliar o poder ao considerar a hipótese H
0
parcial, estabele-
ceu-se a formação de dois grupos dististos, G
1
e G
2
. Nas situações em
que o número de populações binomiais foi igual a 5 (k = 5), o grupo G
1
foi constituído pelas proporções binomias p
1
, p
2
, e p
3
e o grupo G
2
pelas
proporções binomiais restantes p
4
e p
5
. No caso de k = 10, definiu-se
que as cinco primeiras proporções binomiais pertenceriam ao primeiro
grupo e as demais ao segundo grupo. O número de comparações, nestas
situações específicas, foi dado pela multiplicação do total de proporções
pertencentes ao grupo G
1
, com o número total de proporções do grupo
G
2
. Foram considerados os mesmos números de populações binomiais,
tamanhos amostrais e valor nominal de significância da primeira etapa
e os mesmos valores de estabelecidos na segunda etapa sob H
1
. Com
isso, chegou-se ao total de 348.000 simulações (174 situações x 2.000
experimentos).
Em uma amostra aleatória Y
1
, Y
2
, . . . , Y
k
, em que y
i
representa o
número de sucessos observados na i-ésima população de tamanho n
i
, o
estimador para p
i
de Pan (2002) que foi utilizado é dado por:
˜p
i
=
y
i
+ 2
n
i
+ 4
(1)
e o estimador de máxima verossimilhança é:
ˆp
i
=
y
i
n
i
. (2)
Foram consideradas todas as m comparações múltiplas da família de
testes de hipóteses definidos de forma geral para a l-ésima comparação
por:
H
(l)
0
: p
i
= p
h
1 h = i k (3)
sendo l = 1, 2, . . . , m e m =
k(k1)
2
.
Para o par de proporções (p
(j)
i
, p
(j)
h
) a seguinte estatística foi definida:
q
(j)
ih
=
max(p
(j)
i
, p
(j)
h
) min(p
(j)
i
, p
(j)
h
)
ˆ
V (p
(j)
i
, n
(j)
i
) +
ˆ
V (p
(j)
h
, n
(j)
h
)
(4)
24
em que p
(j)
i
é dado pelo estimador da equação (1), quando j = 1 e p
(j)
i
é
dado pelo estimador da equação (2), quando j = 2; n
(j)
i
= n
i
+2 se j = 1
ou n
(j)
i
= n
i
se j = 2; e
ˆ
V
(
p
(j)
i
, n
(j)
i
) =
p
(j)
i
(1 p
(j)
i
)
n
(j)
i
(5)
O valor da equação (4) foi obtido em cada simulação realizada e
para cada par de proporções (i, h). Para impor a hipótese nula H
0
de
igualdade das k proporções, foi obtido um único estimador combinando
os k estimadores p
(j)
i
e aplicado o método de bootstrap infinito. Para
isso, foi considerada a função de probabilidade conjunta estimada das k
populações binomiais independentes por:
ˆ
P
(j)
(Y
1
= y
1
, Y
2
= y
2
, . . . , Y
k
= y
k
) =
k
i=1
n
i
y
i
p
(j)y
i
(1 p
(j)
)
n
i
y
i
(6)
Ao impor a hipótese nula H
0
, determinou-se um estimador comum
dos p
i
s que, sob H
0
, é dado pelo parâmetro p, sendo obtido pela média
ponderada:
p
(j)
=
k
i=1
p
(j)
i
(n
i
1)
n k
(7)
em que p
(j)
i
refere-se ao estimador da equação (1) quando j = 1 e p
(j)
i
ao
estimador da equação (2) quando j = 2 e n =
k
i=1
n
i
.
Dessa densidade foram realizadas B amostras aleatórias de bootstrap.
A b-ésima amostra é dada por: y
1b
, y
2b
, . . . , y
kb
. Nesta amostra, ao par
i e h é aplicada a expressão (4) e o valor resultante é representado por
q
(j)
ihb
.
Para todos os m pares na b-ésima amostra de bootstrap, foi conside-
rada a estatística:
(j)
b
= max{q
(j)
12b
, q
(j)
13b
, . . . , q
(j)
(k1)kb
}
e formado o conjunto:
25
(j)
= {
(j)
1
,
(j)
2
, . . . ,
(j)
B
} =
B
b=1
(j)
b
(8)
Os p-valores denominados ajustados (Ferreira et al., 2005) são dados
por:
P
(j)
ih,g
=
1
B
B
b=1
I(Ω
(j)
b
q
(j)
ih
) (9)
em que I() é uma função indicadora.
Os p-valores de cada par de populações foram comparados com os
p-valores nominais (α) de 1% e 5%. Para os casos em que o p-valor
foi menor ou igual a α, então, a hipótese nula (H
(l)
0
) correspondente foi
rejeitada. Assim, o erro tipo I ou o poder foram computados em um
número M de simulações Monte Carlo realizadas em cada configuração.
A proporção de experimentos com pelo menos uma rejeição de al-
guma das m hipóteses nulas verdadeiras nas M simulações realizadas é
a taxa de erro tipo I por experimento e a proporção de rejeições corretas
das hipóteses nulas falsas é o poder. Para determinar se as taxas de
erro tipo I estavam próximas aos valores nominais estabelecidos, foram
calculados um limite superior e um limite inferior, para que estes valores
pudessem assumir. Os intervalos de 99% confiança para o níveis nomi-
nais de significância 1% e 5%, em porcentagem, foram, respectivamente,
de [0,5188; 1,727] e [3,8282; 6,3914], obtidos por meio do intervalo de
confiança exato para proporções (Leemis & Trivedi, 1996). Dessa forma,
aqueles valores que não pertenceram a esse intervalo foram considerados
diferentes dos níveis nominais de significância.
Os resultados obtidos foram utilizados para comparar o desempenho
dos testes de bootstrap utilizando os estimadores de máxima verossimi-
lhanca (MV) e de Pan (Pan, 2002).
26
4 RESULTADOS E DISCUSSÃO
4.1 Erro tipo I
Os dois testes de bootstrap utilizados neste trabalho foram incial-
mente avaliados para o erro tipo I por experimento. Essencialmente,
estes testes se diferenciam pelos estimadores de p
i
utilizados. Em um
deles, foi considerado o estimador de máxima verossimilhança e, no ou-
tro, o estimador de Pan (Pan, 2002). Também foram avaliadas duas
formas de computar o erro tipo I: uma sob H
0
completa e a outra sob
H
0
parcial.
4.1.1 Erro tipo I sob H
0
completa
Na Tabela 1 são apresentadas as taxas, em porcentagem de erro tipo I
por experimento sob H
0
completa dos dois testes de bootstrap, em função
do número de populações (k), do tamanho da amostra (n) e dos valores
dos parâmetros (p), considerando o valor nominal de significância de 5%.
Os dois testes foram identificados por Pan e MV, fazendo referência aos
estimadores de p que os diferencia. Todos os resultados são médias de
2.000 simulações Monte Carlo com 2.000 reamostragens de bootstrap em
cada uma delas.
Pode-se observar, de maneira geral, que houve controle do erro tipo I
por experimento, pois nenhum valor superou significativamente (P<0,01)
o nível nominal de 5%. Em muitos casos, o que ocorreu foram taxas
significativamente (P<0,01) menores do que 5%, indicando que os tes-
tes eram conservativos nestas situações. Houve tendências de os testes
apresentarem melhores resultados, ou seja, taxas de erro tipo I iguais
ao valor nominal, para valores de p próximos a 0,5, mesmo para tama-
nhos de amostras pequenos. Houve também uma melhor performance
do teste bootstrap de MV, pois ocorreram menos casos em que o teste foi
conservativo quando comparado com o teste bootstrap de Pan.
27
Tabela 1: Erro tipo I por experimento (%) sob H
0
completa, para di-
ferentes números de populações (k), diferentes tamanhos de
amostras (n) e diferentes valores do parâmetro (p) para os es-
timadores de Pan (Pan, 2002) e máxima verossimilhança (MV)
ao valor nominal de 0, 05.
p = 0, 1 p = 0, 5 p = 0, 9
k n Pan MV Pan MV Pan MV
2 10 1, 00
1, 00
4,10 4,05 0, 65
0, 65
2 30 2, 35
3,95 5,10 4,90 2, 30
3,95
2 100 5,55 5,85 5,05 4,90 5,10 5,20
5 10 0, 00
0, 15
3, 35
3, 30
1, 50
1, 00
5 30 2, 40
3,90 5,25 5,15 2, 50
4,20
5 100 4,00 4,55 5,15 5,25 4,20 4,30
10 10 0, 00
1, 35
2, 55
2, 55
0, 00
0, 80
10 30 1, 05
3, 15
4,40 4,20 0, 70
3, 00
10 100 4,45 5,20 5,20 5,20 3, 50
4,35
significativamente (P<0,01) inferior a 5%
O teste bootstrap de Pan foi conservativo com k = 2, 5 e 10 para
n = 10 e 30 com p = 0, 1 ou p = 0, 9. Para p = 0, 5, este teste foi
conservativo para k = 5 e 10 com n = 10. Com n = 100, somente
para k = 10 e p = 0, 9 o teste em questão foi conservativo. Em todas as
demais situações, o tamanho do teste foi não significativamente diferente
do valor nominal de 5%.
Estes resultados são surpreendentes, uma vez que não houve casos em
que as taxas de erro tipo I tenham superado significativamente o valor
nominal de significância de 5%. Este fato mostra um controle do erro tipo
I, embora, em amostras pequenas (10 ou 30) e para p
i
s afastados de 0,5,
apresente excesso de conservadorismo, isto é, taxas significativamente
inferiores ao valor nominal. Isso, provavelmente, pode afetar de maneira
indesejável o poder, ou seja, causando a sua redução.
Para grandes amostras (n = 100), praticamente os dois testes tiveram
tamanho não diferente significativamente do valor nominal, exceto com
maior número de populações (k = 10) com p = 0, 9 para o teste de Pan.
28
Assim, se p afasta-se 0,5 e k é grande, o tamanho da amostra deve ser
bem maior para que o teste de Pan tenha tamanho igual ao nominal.
Para o valor nominal de significância de 1%, os resultados da taxa
de erro tipo I por experimento foram bastante similares aos observados
para 5%. Assim, todos os resultados ou não diferiram significativamente
(P>0,01) do valor nominal de 1% ou foram significativamente (P<0,01)
inferiores.
Nas Figuras 1 (a) e (b) e 2 (a) e (b) são apresentados alguns destes
resultados. Para p = 0, 1 e k = 2 e 10, pode-se observar, na Figura 1,
(a) e (b), que o teste bootstrap de Pan foi significativamente conservativo
quando n 30 e apresentou tamanho não significativamente (P>0,01)
diferente do nominal quando n = 100. O teste bootstrap de MV para
n = 10 e k = 2 e também para k = 10 e n = 10 e 30 foi conservativo e,
nos demais casos, apresentou tamanho não significativamente (P>0,01)
diferente do valor nominal de significância de 1%.
(a) (b)
Figura 1: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n) e número
de populações iguais (a) k = 2 e (b) k = 10, com p = 0, 1 e
para α = 1%, considerando a hipótese H
0
completa.
Para p = 0, 5 (Figura 2), somente o teste bootstrap de Pan na situação
de k = 10 e n = 10 foi conservativo. Todas as demais situações de ambos
os testes apresentaram taxas não diferentes significativamente (P>0,01)
do valor nominal de 1%.
29
(a) (b)
Figura 2: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n) e número
de populações iguais (a) k = 2 e (b) k = 10, com p = 0, 5 e
para α = 1%, considerando a hipótese H
0
completa.
4.1.2 Erro tipo I sob H
0
parcial
Nas Tabelas 2 e 3, os erros tipo I por experimento sob H
0
parcial
foram apresentados em função de k, n e para α = 5%. Na Tabela 2
estão os valores de inferiores a 0,5 e na Tabela 3 os demais valores
de . O que se observa, de maneira geral, é que houve controle do erro
tipo I em todos os casos, tendo, na grande maioria, ambos os testes de
bootstrap sido conservativos. Os casos em que os testes tiveram erros
tipo I não significativamente (p>0,01) diferentes do valor nominal foram
com k = 10, n = 30, = 0, 05 e 0,1 para o teste de bootstrap MV,
k = 10, n = 10, = 0, 2; 0,3 e 0,4 para o teste de MV.
É conveniente salientar que, para garantir que o espaço paramétrico
de p
i
s não fosse violado, utilizou-se a estratégia de fixar os valores de p
em 0,01 no primeiro grupo e de 0, 01+ no segundo. Assim, quando é
pequeno (0,01 e 0,05), os valores de p em ambos os grupos estão afastados
de 0,5 e espera-se, como aconteceu sob H
0
completa, que os testes sejam
mais conservativos. Isso realmente foi constatado nas Tabelas 2 e 3.
Os testes bootstrap de Pan e MV apresentaram comportamentos si-
milares em relação ao controle do erro tipo I, sendo classificados como
conservativos em quase todas as situações simultaneamente. Se forem
comparados com as taxas de erro observadas, verifica-se uma pequena
30
vantagem para o teste de bootstrap MV, cujos valores estavam mais pró-
ximos de α = 5% e, em alguns poucos casos, não significativamente
(p>0,01) diferentes de α = 5%.
Tabela 2: Erro tipo I, por experimento (%), sob H
0
parcial para dife-
rentes números de populações (k), tamanhos de amostras (n)
e diferenças entre os parâmetros p de cada grupo (∆), para
os estimadores de Pan (Pan, 2002) e máxima verossimilhança
(MV) ao valor nominal de 0, 05.
= 0, 01 = 0, 05 = 0, 1
k n Pan MV Pan MV Pan MV
5 10 0, 00
0, 00
0, 00
0, 10
0, 05
1, 15
5 30 0, 00
0, 25
0, 10
1, 30
0, 60
2, 20
5 100 0, 00
0, 85
0, 90
1, 25
0, 95
0, 90
10 10 0, 00
0, 15
0, 00
1, 10
0, 05
3, 40
10 30 0, 00
1, 15
0, 10
4,95 0, 75
5,15
10 100 0, 05
2, 40
1, 15
2, 05
1, 90
1, 75
= 0, 2 = 0, 3 = 0, 4
k n Pan MV Pan MV Pan MV
5 10 0, 20
0, 20
0, 50
3, 40
0, 95
2, 70
5 30 1, 45
2, 10
0, 70
0, 45
1, 00
0, 75
5 100 1, 50
1, 30
0, 80
0, 65
0, 65
0, 65
10 10 0, 30
6,15 0, 85
5,95 2, 25
5,35
10 30 2, 70
3, 25
2, 45
1, 60
2, 05
1, 75
10 100 2, 20
1, 75
1, 65
1, 50
1, 95
1, 85
significativamente (P<0,01) inferior a 5%
Para o valor nominal de significância de 1%, observou-se o mesmo
comportamento geral dos testes obtidos para α = 5%. Na Figura 3 (a) e
(b) estão apresentadas as taxas de erros observadas para os testes boots-
trap de Pan e MV, considerando = 0, 05, em função de n para k = 5
e 10, respectivamente. Conforme comentado para α = 5%, o teste de
bootstrap MV apresentou performance um pouco superior, pois os níveis
de significância foram superiores aos do teste de Pan, mas inferiores (con-
31
servativo) ou iguais (ideal) ao nível nomimal. Com um número menor
de populações, os testes de bootstrap foram mais conservativos se fixado
um mesmo tamanho de amostra, neste caso com p
i
s pequenos (próximos
0,01) e pequeno (0,05).
Tabela 3: Erro tipo I, por experimento (%), sob H
0
parcial para dife-
rentes números de populações (k), tamanhos de amostras (n)
e diferenças entre os parâmetros p de cada grupo (∆), para
os estimadores de Pan (Pan, 2002) e Máxima Verossimilhança
(MV) ao valor nominal de 0, 05.
= 0, 5 = 0, 6 = 0, 7
k n Pan MV Pan MV Pan MV
5 10 1, 20
1, 80
0, 90
1, 50
0, 55
0, 70
5 30 0, 75
0, 55
1, 05
1, 00
1, 00
1, 10
5 100 0, 95
0, 75
0, 55
0, 55
0, 45
0, 45
10 10 2, 00
2, 95
1, 70
2, 20
0, 70
0, 80
10 30 2, 05
1, 60
1, 80
1, 70
1, 20
1, 65
10 100 1, 60
1, 35
1, 40
1, 30
1, 15
1, 35
= 0, 8 = 0, 9
k n Pan MV Pan MV
5 10 0, 10
0, 10
0, 00
0, 00
5 30 0, 35
0, 50
0, 05
0, 15
5 100 0, 55
0, 65
0, 20
0, 55
10 10 0, 15
0, 15
0, 00
0, 00
10 30 0, 65
0, 95
0, 05
0, 15
10 100 0, 85
0, 95
0, 40
2, 00
significativamente (P<0,01) inferior a 5%
Na Figura 4 (a) e (b) são apresentados os erros tipo I, por experi-
mento, dos dois testes, para = 0, 5 e k = 5 e 10. Nesta situação, ambos
os testes foram conservativos, independente do tamanho amostral e do
número de populações. Somente para pequenas amostras é que houve
uma performance um pouco melhor do teste MV em relação ao de Pan.
Para grandes amostras, tanto para k = 5 quanto para k = 10, os testes
32
(a) (b)
Figura 3: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n) e número
de populações iguais (a) k = 5 e (b) k = 10, com = 0, 05 e
para α = 1%, considerando a hipótese H
0
parcial.
tenderam a se igualar com relação às taxas observadas de erro tipo I, por
experimento.
(a) (b)
Figura 4: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n) e número
de populações iguais (a) k = 5 e (b) k = 10, com = 0, 5 e
para α = 1%, considerando a hipótese H
0
parcial.
Na Figura 5 (a) e (b) estão apresentadas as taxas de erro tipo I, por
experimento, sob H
0
parcial dos dois testes para = 0, 9 e com k = 5
e 10. Novamente, em todas as situações de n, os testes de bootstrap
apresentaram-se conservativos. Este caso particular foi o mais conser-
vativo de todos, provavelmente, por causa de um dos grupos possuir
33
p
(1)
= 0, 01 e o outro p
(2)
= 0, 91. Valores afastados de 0,5 geram situa-
ções em que os testes binomiais são mais pernósticos. O teste bootstrap
MV mostrou-se um pouco superior ao teste de bootstrap de Pan.
(a) (b)
Figura 5: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n) e número
de populações iguais (a) k = 5 e (b) k = 10, com = 0, 9 e
para α = 1%, considerando a hipótese H
0
parcial.
Procurando avaliar situações em que os valores de p se aproximavam
de 0, 5, ainda sob H
0
parcial, foram feitas simulações adicionais, nas
quais se avaliou o erro tipo I por experimento, considerando os dois
níveis nominais de significância de 1% e 5%.
Na Figura 6 (a) e (b) são apresentados os erros tipo I, por experi-
mento, sob H
0
parcial, em que um dos grupos possuía valores de p iguais
a 0, 5 e o outro, valores iguais a 0, 51 para α = 1% e 5%, respectiva-
mente. Para α = 1%, todos os erros tipo I dos testes foram não signifi-
cativamente (P>0,01) diferentes do valor nominal, exceto para o teste de
bootstrap MV, com n = 100, que, neste caso, foi um pouco conservativo.
Este resultado é diferente daqueles observados em casos semelhantes, em
que os p
i
s de um dos grupos se afastavam grandemente de 0, 5, sendo,
em geral, menos conservativo ou, até mesmo, não conservativo.
Para α = 5% (Figura 6 (b)), os resultados foram todos conservativos,
embora menos conservativos do que os casos semelhantes sob H
0
parcial,
com um dos grupos apresentando valores de p afastados de 0, 5. Verificou-
se que o tamanho da amostra quase não influenciou as taxas de erro
34
tipo I, por experimento. Com o aumento do tamanho das amostras
de 10 para 30, houve um pequeno aumento das taxas de erro tipo I,
por experimento, em ambos os testes e, para grandes amostras (n 30),
essas taxas permaneceram constantes. Os testes MV e Pan apresentaram
resultados bastante parecidos.
(a) (b)
Figura 6: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n), com k =
10, = 0, 01; p
(1)
= 0, 50 e valores nominais de significância
iguais (a) α = 1% e (b) α = 5%, considerando a hipótese H
0
parcial.
Para a diferença entre os dois grupos um pouco maior (∆ = 0, 1) e
valores de p de um dos grupos iguais a 0,45 e do outro 0,55, as taxas de
erro tipo I por experimento foram apresentadas na Figura 7 (a) e (b),
para α = 1% e 5%, respectivamente. Em ambos os casos (α = 1% ou
5%), os testes apresentaram resultados parecidos e conservativos, exceto
o teste bootstrap de Pan com α = 1% e n = 30, que não diferiu signifi-
cativamente (P>0,01) do valor nominal de 1%. Em ambos os casos, os
testes foram menos conservativos do que quando aplicados em situações
semelhantes com pelo menos um dos grupos com valores de p afastados
de 0,5. Houve melhorias nas taxas, ou seja, estas aproximaram-se mais
dos respectivos valores de α, com o aumento de n de 10 para 30. De 30
para 100, em alguns casos, houve até certa redução das taxas.
Finalmente, para = 0, 4, com valores de p de um dos grupos iguais
a 0,3, as taxas de erros para α = 1% e 5% foram apresentadas na Figura
35
8 (a) e (b).
(a) (b)
Figura 7: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n), com k =
10, = 0, 1; p
(1)
= 0, 45 e valores nominais de significância
iguais (a) α = 1% e (b) α = 5%, considerando a hipótese H
0
parcial.
(a) (b)
Figura 8: Taxas de erro tipo I, por experimento, dos testes de bootstrap
Pan e MV, em função dos tamanhos amostrais (n) com k = 10,
= 0, 4; p
(1)
= 0, 3 e valores nominais de significância iguais
(a) α = 1% e (b) α = 5%, considerando a hipótese H
0
parcial.
Novamente, os testes apresentaram valores bem parecidos de taxas de
erro tipo I, por experimento e foram conservativos, exceto para α = 1%
e n = 100, em ambos os testes (Figura 8 (a)). Nesse caso, o tamanho
das amostras teve uma maior influência nas taxas de erro tipo I, por
experimento, dos dois testes de bootstrap, principalmente para n = 100,
36
considerando α = 1%, em que as taxas de ambos os testes não diferiram
significativamente do valor nominal de 1%.
De maneira geral, os testes foram menos conservativos para α =
1%. Quando a diferença foi maior (∆ = 0, 4) entre grupos, o teste
MV foi ligeiramente menos conservativo, principalmente para amostras
intermediárias (n = 30) e α = 5% e uniformemente menos conservativo
em relação a n quando a significância nominal é de 1%.
4.2 Poder
Várias avaliações dos testes de bootstrap de MV e Pan foram rea-
lizadas para mensurar o poder. Nestas avaliações, foram considerados
vários tamanhos de amostras (n), número de populações (k) e várias di-
ferenças entre a maior e a menor proporção binomial das k populações
(∆). Foi simulada também uma situação em que dois grupos possuiam os
mesmos valores de p internamente e que diferiam entre si por uma quan-
tidade (∆) específica. Esta última situação foi chamada de H
0
parcial.
As comparações entre populações de grupos diferentes foram utilizadas
para avaliar o poder. Estas duas situações são discutidas separadamente
nas subseções 4.2.1 e 4.2.2.
4.2.1 Poder sob H
1
Na Tabela 4 são apresentados os valores de poder dos testes de boots-
trap Pan e MV, em função de k, n e para α = 5%, sendo a diferença
a ser detectada entre os valores de p de duas populações distintas. Se o
valor de for muito pequeno (∆ = 0, 01), os valores de poder dos testes
são menores ou iguais ao nível nominal de significância adotado, mesmo
para amostras grandes (n = 100).
Para valores pequenos e moderados de (∆ 0, 3), quando n é
pequeno (n = 10), o poder, em alguns casos, pode ser igual ou inferior
ao valor nominal α = 0, 05. Isso aconteceu para = 0, 1 e n = 10, com
37
todos os valores de k dos testes estudados e para = 0, 3, n = 10, k = 5,
com o teste de Pan e = 0, 3, n = 10, k = 10, com ambos os testes.
Tabela 4: Poder sob H
1
, para diferentes números de populações (k), ta-
manhos de amostras (n) e diferenças entre a maior e a menor
proporção binomial (∆), para os estimadores de Pan (Pan,
2002) e máxima verossimilhança (MV), a 0, 05 de nível nomi-
nal.
= 0, 01 = 0, 1 = 0, 3
k n Pan MV Pan MV Pan MV
2 10 0,00 0,00 1,25 1,25 33,50 33,60
2 30 0,10 0,15 19,80 35,30 93,90 95,05
2 100 2,05 5,25 88,15 89,70 100,00 100,00
5 10 0,00 0,00 0,00 0,70 5,15 9,90
5 30 0,00 0,00 2,85 8,30 69,90 77,60
5 100 0,05 0,70 61,70 66,85 100,00 100,00
10 10 0,00 0,00 0,00 0,55 1,35 5,50
10 30 0,00 0,20 0,90 4,05 53,65 62,35
10 100 0,00 0,30 42,80 50,80 100,00 100,00
= 0, 5 = 0, 7 = 0, 9
k n Pan MV Pan MV Pan MV
2 10 81,45 81,45 97,90 95,20 100,00 64,35
2 30 100,00 100,00 100,00 100,00 100,00 95,45
2 100 100,00 100,00 100,00 100,00 100,00 100,00
5 10 37,50 39,15 82,60 79,85 99,50 65,65
5 30 99,25 99,85 100,00 100,00 100,00 95,65
5 100 100,00 100,00 100,00 100,00 100,00 100,00
10 10 17,80 19,35 63,15 60,45 97,00 59,80
10 30 97,55 98,40 100,00 100,00 100,00 95,85
10 100 100,00 100,00 100,00 100,00 100,00 100,00
Pode-se observar também que, para = 0, 1, os valores de poder de
ambos os testes foram baixos, mesmo quando o tamanho das amostras
era grande (n 30). Isso ocorreu em ambos os testes de bootstrap, com
n = 30 e 100, para todos os valores de k. Para = 0, 3, verificou-se
38
que os valores de poder dos testes de bootstrap Pan e MV foram baixos
apenas para tamanhos amostrais iguais a 30, considerando k = 5 e 10.
Para grandes amostras (n = 100), a performance dos testes se igualou e
se aproximou de 100%.
Para pequenas ou moderadas diferenças , o poder aumenta consi-
deravelmente com o aumento de n de 10 para 30 ou para 100. Também
pode-se observar um grande efeito do número de populações no sentido
de reduzir o poder. Assim, fixado um tamanho de amostra, um valor
de e o teste, o aumento de k provoca grandes reduções no valor do
poder, principalmente se é moderado ou pequeno. Esta redução é
consideravelmente menor, em geral, se o valor de n é maior.
Assim, é importante aumentar os tamanhos das amostras se o pes-
quisador tem a intenção de comparar um maior número de populações.
O que ocorre, na prática, é o contrário, ou seja, o aumento do número
de níveis de tratamento em geral é acompanhado de reduções no número
de repetições.
O teste bootstrap de MV foi quase sempre superior ao teste bootstrap
de Pan em relação ao poder. Eles tendem a igualar as performances
quando n aumenta. Quando os eram grandes (∆ 0, 5), em ge-
ral, os testes também tenderam a igualar a performance. No entanto,
quando as diferenças foram muito grandes (∆ = 0, 9), uma das popula-
ções aproximava-se de 0 e a outra de 1, houve uma inversão de perfor-
mances, o teste Pan tornou-se superior ao teste de MV. Isso provavel-
mente ocorre devido ao fato apontado por outros pesquisadores (Agresti
& Coull, 1998; Pan, 2002) que o estimador das proporções add-4 possui
melhores propriedades do que o estimador de máxima verossimilhança
quando p afasta-se de 0,5 e o valor de n não é muito grande.
Se os valores de (∆) são grandes ou muito grandes (∆ 0, 5), os
valores de poder aproximam-se de 100%, principalmente se n 30. Para
o caso de n = 10 e k 5, conforme foi salientado, uma considerável
redução de poder. Se o pesquisador almeja detectar pequenas diferenças
(∆ 0, 1), é recomendável utilizar tamanhos amostrais maiores de que
100, principalmente se o valor de k for superior a 2. Essa recomendação
39
é fundamentada no pressuposto de que haverá um maior poder para
detectar tais diferenças entre os parâmetros binomiais.
Na Figura 9 (a) e (b), estão apresentados os valores de poder em
função de n para α = 1% e = 0, 1 com k = 2 e 10, respectivamente.
A comparação do poder dos testes Pan e MV mostra a superioridade do
teste MV. O aumento de n provoca aumentos consideráveis de poder,
principalmente se k é pequeno (k = 2). A comparação dos valores de
poder para k = 2 (Figura 9 (a)) com k = 10 (Figura 9 (b)) mostra que
uma redução expressiva do poder dos testes fixado um mesmo valor
de n. Estes resultados são basicamente similares aos observados para
α = 5%.
(a) (b)
Figura 9: Poder, sob H
1
, dos testes de bootstrap Pan e MV, em função
dos tamanhos amostrais (n), diferença = 0, 1 e número de
populações iguais (a) k = 2 e (b) k = 10, para α = 1%.
Como houve uma semelhança muito grande entre os resultados de
α = 1% com os de α = 5%, apenas mais uma situação foi apresentada
na Figura 10 (a) e (b). Este caso ilustra com clareza o efeito no poder
de uma situação em que o valor de p de uma das populações se aproxima
de 0 e o valor de p da outra, de 1. Assim como havia ocorrido para
α = 5%, o teste Pan foi superior ao teste de MV para n 30, em ambos
os casos (k = 2) e (k = 10). Na Figura 10 (b) pode-se observar uma
redução expressiva de poder com o aumento de k = 2 (Figura 10 (a))
para k = 10, em ambos os testes com n 30.
40
(a) (b)
Figura 10: Poder, sob H
1
, dos testes de bootstrap Pan e MV, em função
dos tamanhos amostrais (n), diferença = 0, 9 e número de
populações iguais (a) k = 2 e (b) k = 10, para α = 1%.
Uma outra situação retratada para α = 1% refere-se ao poder dos
testes expresso em função da diferença . Na Figura 11 (a) e (b) são
apresentadas situações para k = 2 e n = 10 e 100, respectivamente. Em
ambos os casos, um incremento do poder com aumento , o que é
esperado pela teoria (Mood et al., 1974).
O teste MV para n = 10 (Figura 11 (a)) apresentou redução no
poder a partir de = 0, 8, contrariando o que é esperado pela teoria,
em função da baixa qualidade do estimador, quando os valores de p se
aproximam de 0 ou 1 e as amostras são pequenas. O teste Pan nesta
mesma situação apresentou curva de poder estimada condizente com o
esperado, ou seja, monótona crescente.
Para amostras grandes (Figura 11 (b)), os valores de poder foram
similares nos dois testes e atingiram 100% rapidamente para 0, 2.
Se forem comparadas as curvas de poder da Figura 11 (a) e (b) percebe-se
que uma taxa de crescimento maior quando n é maior. Por exemplo,
com n = 10 e = 0, 2, os valores de poder são próximos de zero nos dois
testes e com n = 100 e mesmo valor de , os valores de poder são iguais
a 100%. O teste MV teve seu problema de queda de poder eliminado
com n = 100, mostrando que o tamanho de amostra tem um importante
papel na qualidade do estimador e, portanto, na performance do teste.
41
(a) (b)
Figura 11: Poder, sob H
1
, dos testes de bootstrap Pan e MV, em função
da diferença , com k = 2 e tamanhos amostrais iguais (a)
n = 10 e (b) n = 100, para α = 1%.
(a) (b)
Figura 12: Poder, sob H
1
, dos testes de bootstrap Pan e MV, em função
da diferença , com k = 10 e tamanhos amostrais iguais (a)
n = 10 e (b) n = 100, para α = 1%.
Na Figura 12 (a) e (b) estão as curvas de poder estabelecidas, em
função de para os dois testes, considerando α = 1%, k = 10 e n = 10 e
100, respectivamente. O que se percebe é um comportamento semelhante
ao relatado para o caso de k = 2 (Figura 11 (a) e (b)). No entanto, se
forem comparadas as curvas de poder para um dado teste sendo fixados
e n, o que se verifica é que uma redução de poder com o aumento
de k. Quando n e são grandes, os valores de poder atingem 100% e
esse efeito não existe mais. Novamente, com n = 10 e > 0, 7, o teste
42
MV apresentou as mesmas deficiências relatadas anteriormente, sendo
superado pelo teste de Pan.
4.2.2 Poder sob H
0
parcial
Devido à grande similaridade entre os comportamentos dos testes
simulados para o valor nominal de significância de 1 e 5%, foram apre-
sentados apenas os resultados para α = 1%. Na Figura 13 (a) e (b) são
apresentados os valores de poder, sob H
0
parcial, para os testes bootstrap
de Pan e MV, considerando = 0, 1, em função de n e com k = 5 e
10, respectivamente, para α = 1%. Para avaliar o poder sob a hipótese
H
0
parcial, considerou-se a formação de dois grupos, tendo, no primeiro
grupo, os valores de p sido fixados em 0,01 e, no segundo, os valores das
proporções binomiais p foram dados por 0, 01 + que, neste caso, são
iguais a 0,11.
Pode-se observar, na Figura 13 (a) e (b), que os valores de poder do
teste bootstrap de MV foram sempre superiores aos valores de poder do
teste bootstrap de Pan, independente do tamanho amostral e do número
de populações. Com o aumento dos valores de n houve um crescimento
expressivo do poder de ambos os testes, tendo este crescimento sido maior
para k = 5.
Comparando-se os valores de poder dos testes Pan e MV na Figura
13 (a) e (b) para um valor fixo de n, o que se observa é uma grande
redução do poder com o aumento de k = 5 (Figura 13 (a)) para k = 10
(Figura 13 (b)). Este comportamento foi semelhante ao observado para
os valores de poder sob a hipótese H
1
. Se os valores de poder dos testes
Pan e MV, sob a hipótese H
0
parcial, forem comparados aos valores de
poder dos mesmos testes sob a hipótese H
1
, fixado um valor de n, um α
e um teste, verifica-se que o poder dos testes sob a hipótese H
0
parcial
é superior ao poder dos testes sob a hipótese H
1
.
Na Figura 14 (a) e (b) são apresentados os valores de poder para a
diferença = 0, 5 entre os dois grupos, em função de n e para α = 1%,
com número de populações k = 5 e 10, respectivamente. Nesta situação,
43
(a) (b)
Figura 13: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV,
em função dos tamanhos amostrais (n), diferença = 0, 1 e
número de populações iguais (a) k = 5 e (b) k = 10, para
α = 1%.
os valores de p de um dos grupos eram próximos a 0,5 e os outros valores
de p próximos a 0. Em ambos os casos (k = 5 e k = 10), os testes
apresentaram resultados parecidos e somente para k = 5 e n 30, o
teste bootstrap de MV foi superior ao teste de Pan, embora a diferença
seja muito pequena.
Na Figura 14 (b) pode-se observar que a performance dos dois testes
tendeu a se igualar para todos os valores de n e houve uma redução
considerável para n 30 dos valores de poder dos testes, com o aumento
do número de populações de k = 5 para k = 10.
Para o valor de p do primeiro grupo próximo a 0, p
(1)
= 0, 01 e o valor
de p do segundo grupo próximo a 1, p
(2)
= 0, 91, os valores de poder são
apresentados na Figura 15 (a) e (b), para k = 5 e 10, respectivamente,
com α = 1%. Neste caso, o teste Pan foi superior ao teste MV para
n 30, tanto para k = 5 como para k = 10. Pode-se verificar, para
n 30, uma pequena redução do poder dos testes ao aumentar o número
de populações de k = 5 (Figura 15 (a)) para k = 10 (Figura 15 (b)). Sob
H
0
parcial, foi observado o mesmo padrão de resposta ocorrido sob H
1
,
em que os valores de poder, se a diferença entre os valores de p é grande
( = 0, 9), têm tendência de se aproximarem de 100%, se n 30.
Pode-se observar, de maneira geral, que o poder dos testes, sob a
44
(a) (b)
Figura 14: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV,
em função dos tamanhos amostrais (n), diferença = 0, 5 e
número de populações iguais (a)
k
= 5
e (b)
k
= 10
, para
α = 1%.
hipótese H
0
parcial, foi superior ao poder sob a hipótese H
1
, principal-
mente para números de populações intermediários (k = 5) e α = 1%.
(a) (b)
Figura 15: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV,
em função dos tamanhos amostrais (n), diferença = 0, 9 e
número de populações iguais (a) k = 5 e (b) k = 10, para
α = 1%.
Como os testes de hipóteses sobre proporções binomiais que utili-
zam o estimador de máxima verossimilhança são pouco eficientes quando
p 0 ou p 1 e n é pequeno, poderia ser questionada a validade dos
procedimentos utilizados. Também poderia se pensar que o estimador
de Pan pudesse ser beneficiado e os resultados de poder do teste base-
45
ado neste estimador pudessem ser resultantes deste fato, pois, foi fixado,
para o primeiro grupo, o valor de p em 0,01. Assim, buscou-se simular
situações de H
0
parcial em que algumas das diferenças utilizadas an-
teriormente fossem adotadas mas que os valores p
(1)
e p
(2)
estivessem o
mais próximo de 0,5 quanto fosse possível.
Na Figura 16 (a) e (b) são apresentados os valores de poder em
que um dos grupos possuía p
(1)
= 0, 45 e o outro, p
(2)
= 0, 55, para
α = 1% e 5%, respectivamente. Nesta situação, o que se observa é que
ambos os testes tiveram comportamentos semelhantes. Em ambos os
casos (α = 1% e α = 5%), os dois testes apresentaram valores de poder
iguais e próximos de 0 para n 30. Com o aumento do tamanho das
amostras, os valores de poder dos testes teve um pequeno acréscimo. Se
forem comparados estes resultados com aqueles da Figura 13 (b), pode-se
observar que houve uma drástica redução de poder se for fixado o mesmo
valor de n.
(a) (b)
Figura 16: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV, em
função dos tamanhos amostrais (n), k = 10, = 0, 1; p
(1)
=
0, 45 e valores nominais de significância iguais (a) α = 1% e
(b) α = 5%.
Na Figura 17 (a) e (b), foram apresentados os valores de poder para
α = 1% e 5%, respectivamente, em função de n para = 0, 4. No-
vamente, para todos os valores de n, os dois testes apresentaram per-
formance similar para valores de p próximos a 0,5 nas duas situações
(α = 1% e α = 5%). Houve um crescimento considerável dos valores
46
de poder de ambos os testes com o aumento do tamanho das amostras,
principalmente se n 30. No entanto, se forem comparados os valores
de poder dos testes Pan e MV, sendo fixados os valores de n e α, o que
se observa é um crescimento considerável do poder ao aumentar o valor
de = 0, 1 para = 0, 4.
(a) (b)
Figura 17: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV, em
função dos tamanhos amostrais (n), k = 10, = 0, 4; p
(1)
=
0, 30 e valores nominais de significância iguais (a) α = 1% e
(b) α = 5%.
Na Figura 18 (a) e (b) são apresentadas as curvas de poder, em função
de , para α = 1%, k = 5 e n = 10 e 100, respectivamente. Os dois
testes avaliados apresentaram um crescimento do poder com o aumento
de . Para diferenças maiores entre os valores de p dos dois grupos
avaliados ( 0, 8), com n = 10, observou-se um decréscimo do poder
do teste MV. Na Figura 18 (b), é possível vizualizar o efeito do tamanho
das amostras. Mesmo com valores de pequeno ( 0, 2), o poder dos
testes foi superior aos valores de poder observados para n = 10 (Figura
18 (a)), se for fixado um teste e um valor de .
Além disso, para grandes amostras, o teste de MV não apresentou
redução do poder e as performances de ambos os testes aproximaram-
se de 100% para > 0, 2. A possível causa da redução do poder do
teste MV com n = 10 e 0, 8 foi atribuída à proximidade de 0 ou
de 1 dos parâmetros p
(1)
e p
(2)
, respectivamente. A deficiência desse
estimador, quando p 0 ou p 1 e n é pequeno, refletiu no poder do
47
teste associado, como havia sido preconizado.
(a) (b)
Figura 18: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV,
em função da diferença , com k = 5 e tamanhos amostrais
iguais (a) n = 10 e (b) n = 100 para α = 1%.
Finalmente, para k = 10, na Figura 19 (a) e (b) são apresentados os
valores de poder para α = 1%, em função de e com n = 10 e 100,
respectivamente. Novamente, os testes apresentaram curvas de poder
estimadas bem parecidas, se comparadas a Figura 18 (a) e (b) com a
Figura 19 (a) e (b). Estes resultados também foram condizentes com os
apresentados na Figura 12 (a) e (b), sob a hipótese H
1
.
(a) (b)
Figura 19: Poder, sob H
0
parcial, dos testes de bootstrap Pan e MV,
em função da diferença , com k = 10 e tamanhos amostrais
iguais (a) n = 10 e (b) n = 100 para α = 1%.
De maneira geral, o teste bootstrap de MV apresentou uma redução
48
no poder para diferenças entre grupos de proporções binomiais, maiores
do que 0,8, com n = 10 e em todos os valores de k (k = 2, 5 e 10).
Para n = 10, o poder dos testes Pan apresentou curva monótona não
decrescente, sob as hipóteses H
0
parcial e H
1
, de acordo com o esperado
pela teoria. Quando o tamanho das amostras é grande (n = 100) e
0, 2, os valores de poder dos testes Pan e MV atingiram 100% e
verificou-se uma redução do poder de ambos os testes com o aumento de
k, se fixado o teste, o valor de n e de .
4.3 Considerações finais
A performance de dois testes de comparações múltiplas de proporções
binomiais foi comparada por simulação Monte Carlo. Os dois testes se
diferenciaram basicamente no estimador das proporções, sendo um deles
o estimador de máxima verossimilhança e o outro o estimador add-4 de
Pan (Pan, 2002). Avaliaram-se as taxas de erro tipo I por experimento
e o poder dos testes em diferentes situações que contemplavam os tama-
nhos amostrais, o número de populações, os valores de p e os níveis de
significância nominais.
O erro tipo I por experimento foi controlado em nível inferior ou,
no máximo, igual ao valor nominal α adotado em ambos os testes. Em
nenhuma situação, houve comportamento liberal (erro tipo I superior
a α) de ambos os testes. O teste bootstrap Pan foi, em geral, mais
conservativo e esperava-se que o seu poder fosse inferior ao poder do
teste bootstrap MV. Isso não ocorreu ou, quando ocorreu, as diferenças
observadas no poder a favor do teste bootstrap MV foram quase sempre
inexpressivas. Este comportamento foi o mesmo, tanto para α = 5%
quanto para α = 1%.
O erro tipo I por experimento também foi avaliado sob H
0
parcial
nas comparações intragrupos. Os testes apresentaram taxas de erro tipo
I quase sempre inferiores ao valor nominal α adotado e em nenhuma
configuração houve resultados que classificassem os testes como liberais.
Nestes casos, o que ocorreu foi uma acentuada redução das taxas de
erro tipo I dos testes quando estes eram comparados com a situação de
49
H
0
completa. O poder, nesta mesma situação de H
0
parcial medido
nas comparações intergrupos, foi até maior que o observado sob H
1
,
contrariando novamente a expectativa.
O poder dos dois testes mostrou, via de regra, uma pequena supe-
rioridade do teste bootstrap MV, embora nas situações em que o teste
bootstrap Pan foi superior, esta superioridade tenha sido muito expres-
siva. Isso ocorreu quando os valores de eram grandes (∆ 0, 8) e
n menores (n 30), mas, a causa foi atribuída ao afastamento de p
do valor
1
2
, em que a normal não se ajusta adequadamente à binomial.
Estes fatos ocorreram tanto sob H
1
quanto sob H
0
parcial. Se o valor de
n é grande (n = 100), os valores de poder de ambos os testes se igualam,
mesmo para grandes valores de (∆ 0, 8).
É importante enfatizar que os valores de poder de ambos os testes são
relativamente baixos se as amostras são pequenas (n 30). Nos expe-
rimentos de avaliação de sementes quanto ao vigor e poder germinativo
são utilizadas quatro repetições com 25 sementes para cada tratamento.
Assim, os tamanhos amostrais são iguais a 100 para cada população (tra-
tamento), não havendo nenhum problema com o poder dos testes.
no caso de ensaios com insetos, os tamanhos amostrais são, em geral,
limitados em valores iguais ou inferiores a 30, o que causa uma redu-
ção no poder dos testes em detectar diferenças significativas entre os
tratamentos.
Um outro interessante fato constatado refere-se ao efeito do número
k de populações no poder dos testes. Verificou-se que o aumento de k
provocava uma expressiva redução no poder, fixados os demais fatores es-
tudados. Esta redução é cada vez menor à medida que o valor n cresce.
Em geral, os pesquisadores, ao aumentarem o número de populações
(tratamentos), tendem a reduzir o número de repetições para manter
o mesmo número de parcelas no experimento. Portanto, o efeito pode
ser indesejado quando os testes bootstrap para proporções forem utili-
zados. Assim, deve-se atentar para este fato antes de se realizar algum
tipo de planejamento de experimento em que serão avaliadas proporções
binomiais.
50
5 CONCLUSÕES
Os testes de comparações múltiplas em populações binomiais apre-
sentaram excelentes performances, controlando o erro tipo I, por experi-
mento, em níveis iguais ou inferiores aos valores de significância e curvas
de poder com padrão correspondente ao esperado pela teoria.
Nas diferentes configurações avaliadas recomenda-se a utilização do
teste bootstrap de Pan em conseqüência da melhor performance em rela-
ção ao poder nas situações em que as proporções binomiais se afastam
de 1/2 e os tamanhos amostrais são pequenos (n 10).
51
6 REFERÊNCIAS BIBLIOGRÁFICAS
AGRESTI, A.; COULL, B. A. Approximate is better than “exact” for
interval estimation of binomial proportions. American Statistician,
Alexandria, v. 52, n. 2, p. 119-126, May 1998.
BANZATO, D. A.; KRONKA, S. N. Experimentação Agrícola. Ja-
boticabal: FUNEP, 1989. 247 p.
BENJAMINI, Y.; HOCHBERG, Y. Controlling the false discovery rate:
a practical and powerful approach to multiple testing. Journal of the
Royal Statistical Society Serie B - Methodological, oxford, v. 57,
n. 1, p. 289-300, 1995.
BUSSAB, W. O.; MORETTIN, P. A. Estatística Básica. 5. ed. São
Paulo: Saraiva, 2004. 526 p.
CARMER, S. G.; SWANSON, M. R. An evaluation of ten pairwise mul-
tiple comparison procedures by Monte Carlo methods. Journal Ame-
rican Statistical Association, Washington, v. 68, n. 341, p. 66-74,
Mar.1973.
CARARI, M. L. Intervalo de confiança para a diferença de duas
proporções binomiais utilizando Bootstrap infinito. 2004. 66 p.
Dissertação ( Mestrado em Agronomia) - Universidade Federal de La-
vras, Lavras, MG.
CECCHETTI, D. Poder e taxas de erro tipo I de quatro critérios
multivariados para o teste de igualdade de efeitos de tratamen-
tos avaliados por meio do método de Monte Carlo. 1999. 56 p.
Dissertação (Mestrado em Agronomia) - Universidade Federal de Lavras,
Lavras, MG.
CROWLEY, P. H. Resampling methods for computation-intensive data
analysis in ecology and evolution. Annual Review of Ecology and
Systematics, Palo Alto, v.23, p.405 - 447, 1992.
CONLON, M.; THOMAS, R.G. A new confidence interval for the diffe-
rence of two binomial proportions. Computational Statistics & Data
Analysis, Amsterdam, v. 9, n. 2, p. 237-241, Mar. 1990.
52
DACHS, J. N. Estatística computacional: uma introdução em turbo
Pascal. Rio de Janeiro: Livros Técnicos e Científicos Editora Ltda.,
1988. 236p.
DUNCAN, D. B. Multiple range and multiple F test. Biometrics, Was-
hington, v. 11, n. 1, p. 1-41, Mar. 1955.
EFRON, B.; TIBSHIRANI, R. An introduction to the bootstrap.
New York: Chapmam & Hall, 1993. 436 p.
FERREIRA, D. F.; DEMÉTRIO, C. G. B.; MANLY, B. F. J.; MACHA-
DO, A. A. Aplicações dos métodos de bootstrap nos procedimentos de
comparações múltiplas. In: REUNIÃO ANUAL DA REGIÃO BRASI-
LEIRA DA SOCIEDADE INTERNACIONAL DE BIOMETRIA, 50.;
SIMPÓSIO DE ESTATÍSTICA APLICADA À EXPERIMENTAÇÃO
AGRONÔMICA, 11., Londrina, 2005. Anais... Londrina: ISBN, 2005.
p. 136.
FERREIRA, D. F. Estatística Básica 1. ed. Lavras: UFLA, 2005.
664 p.
GUERRA, M. J.; DONAIRE, D. Estatística indutiva: teoria e exer-
cícios. 2. ed. São Paulo: Liv. Ciência e Tecnologia, 1982. 311 p.
HOCHBERG, Y.; TANHANE, A. C. Multiple comparison precedu-
res. New York: J. Wiley & Sons, 1987. 450 p.
LEEMIS, L. M.; TRIVED, K. S. A comparison of approximate interval
estimators for the Bernoulli parameter. The American Statistician,
Alexandria, v. 50, n. 1, p. 63-68, Feb. 1996.
MACHADO, A. A.; DEMÉTRIO, C. G. B.; FERREIRA, D. F.; SILVA,
J. G. C. Estatística experimental: uma abordagem fundamentada no
planejamento e no uso de recursos computacionais. In: REUNIÃO
ANUAL DA REGIÃO BRASILEIRA DA SOCIEDADE INTERNACI-
ONAL DE BIOMETRIA, 50.; SIMPÓSIO DE ESTATÍSTICA APLI-
CADA À EXPERIMENTAÇÃO AGRONÔMICA, 11., Londrina, 2005.
Curso... Londrina: ISBN, 2005. 290 p.
MANLY, B. F. J. Randomization, bootstrap and Monte Carlo
53
methods in biology. 2. ed. London: Chapman-Hall, 1998. 399 p.
MOOD, A. M.; GRAYBILL, F. A.; BOES, D. C. Introduction to the
theory of statistics. 3. ed. New York: Jonh Wiley & Sons, 1974. 564
p.
PAN, W. Approximate confidence intervals for one proportion and two
proportions. Computational Statistics & Data Analysis, Amster-
dam, v. 40, n. 1, p. 143-157, July 2002.
PEARCE, S. C. Data analysis in agricultural experimentation III. Mul-
tiple comparisons. Experimental Agriculture, Cambridge, v. 29, n.
1, p. 1-8, Jan. 1993.
PERECIN, D.; MALHEIROS, E. B. Curso: Procedimentos para com-
parações múltiplas. In: SIMPÓSIO DE ESTATÍSTICA APLICADA
À EXPERIMENTAÇÃO AGRONÔNICA, 3; REUNIÃO ANUAL DA
REGIÃO BRASILEIRA DA SOCIEDADE INTERNACIONAL DE BI-
OMETRIA, 34, Lavras, 1989. Curso... Lavras: ESAL, 1989. 67 p.
PETERSEN, R. G. Use and misure of multiple comparison procedures.
Agronomy Journal, Madison, v. 69, p. 205-208, Mar./Apr. 1977.
PIMENTEL GOMES, F. Curso de estatística experimental. 11. ed.
Piracicaba: Livraria Nobel, 1985. 468 p.
RAMALHO, M. A. P.; FERREIRA D. F.; OLIVEIRA, A. C. Expe-
rimentação em genética e melhoramento de plantas. Lavras:
UFLA, 2000. 303 p.
SAS INSTITUTE SAS/STAT. SAS/IML Software: usage and refe-
rence, version 6. Cary, 1990. 501 p.
SATTERTWAITE, F. F. Synthesis of variance. Psychometrika, Dover,
v. 6, p. 309-316, 1941.
SNEDCOR, G. W.; COCHRAN, W. G. Statistical methods. Iwoa:
University of Ames, 1980. 507 p.
STEEL, R. G. D.; TORRIE, J. H. Principles and procedures of sta-
tistics. 2. ed. New York: McGraw-Hill Book, 1980. 633 p.
54
ANEXOS
ANEXO 1: Programa para computar o erro tipo I, por experimento, dos
testes de bootstrap Pan e MV, sob H
0
completa . . . . . . . . . . . . . 56
ANEXO 2: Programa para computar o poder dos testes de bootstrap
Pan e MV, sob H
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
ANEXO 3: Programa para computar o erro tipo I, por experimento e o
poder dos testes de bootstrap Pan e MV, sob H
0
parcial . . . . . . . 63
55
ANEXO 1: Programa ulilizado para computar o erro tipo I por expe-
rimento dos testes de bootstrap Pan e MV, sob H
0
completa.
proc iml;
/*Definir parâmetros para a simulação*/
k=2;M=2000;B=2000;
ni=j(k,1,10);
n = sum(ni);
print k M B;
print ni;
yi=j(k,1,0);
yib1=j(k,1,0);
yib2=j(k,1,0);
pi=j(k,1,0.5);
*pi[k]=0.9;
print pi;
pi1 = j(k,1,0);
pi2 = j(k,1,0);
pi1b = j(k,1,0);
pi2b = j(k,1,0);
qih = j(k,k,0);/* acima da diagonal qih1 e abaixo qih2*/
nsig = j(4,1,0); /* nsig[1]= est 1, alpha = 0.05, nsig[2]= est 1,
alpha = 0.01, nsig[3]= est 2, alpha = 0.05,
nsig[4]= est 2, alpha =0.01*/
alpha5 = 0.05;alpha1=0.01;
/*Iniciar simulação Monte Carlo*/
do i=1 to M;
/*Gerar as amostras populacionais e estimação dos pi´s*/
do pop = 1 to k;
yi[pop] = RANBIN(0,ni[pop],pi[pop]);
pi1[pop] = (yi[pop]+2)/(ni[pop]+4);
pi2[pop] = yi[pop]/ni[pop];
end;
print yi pi1 pi2;
56
/*obter qih na amostra original*/
do ii = 1 to k-1;
do iii = ii + 1 to k;
v11 = pi1[ii]*(1-pi1[ii])/(ni[ii]+2);
v12 = pi1[iii]*(1-pi1[iii])/(ni[iii]+2);
qih1 = (max(pi1[ii],pi1[iii])-
min(pi1[ii],pi1[iii]))/(v11+v12)**0.5;
*print qih1 v11 v12;
v21 = pi2[ii]*(1-pi2[ii])/ni[ii];
v22 = pi2[iii]*(1-pi2[iii])/ni[iii];
if (v21=0 & v22=0) then qih2 = (max(pi2[ii],pi2[iii])-
min(pi2[ii],pi2[iii]));
else qih2 = (max(pi2[ii],pi2[iii])-
min(pi2[ii],pi2[iii]))/(v21+v22)**0.5;
*print qih2 v21 v22;
qih[ii,iii] = qih1;
qih[iii,ii] = qih2;
end;
end;
print qih;
/* Reamostragem infinita das k amostras impondo H
0
com
estimativas iguais dos pi´s */
pi1m = 0;
pi2m = 0;
do pop = 1 to k;
pi1m = pi1m + pi1[pop]*(ni[pop]-1)/(n - k);
pi2m = pi2m + pi2[pop]*(ni[pop]-1)/(n - k);
end;
do pop = 1 to k;
yib1[pop] = RANBIN(0,ni[pop],pi1m);
if pi2m = 0 then yib2[pop] = 0;
else if pi2m = 1 then yib2[pop] = ni[pop];
else yib2[pop] = RANBIN(0,ni[pop],pi2m);
57
pi1b[pop] = (yib1[pop]+2)/(ni[pop]+4);
pi2b[pop] = yib2[pop]/ni[pop];
end;
print pi1m pi2m yib1 yib2 pi1b pi2b;
/* obter qihb na amostra de bootstrap */
omeg1=-1;
omeg2=-1;
do ii = 1 to k-1;
do iii = ii + 1 to k;
v11b = pi1b[ii]*(1-pi1b[ii])/(ni[ii]+2);
v12b = pi1b[iii]*(1-pi1b[iii])/(ni[iii]+2);
qih1b = (max(pi1b[ii],pi1b[iii])-
min(pi1b[ii],pi1b[iii]))/(v11b+v12b)**0.5;
*print qih1b v11b v12b;
v21b = pi2b[ii]*(1-pi2b[ii])/ni[ii];
v22b = pi2b[iii]*(1-pi2b[iii])/ni[iii];
if (v21b=0 & v22b=0) then qih2b =
(max(pi2b[ii],pi2b[iii]) -
min(pi2b[ii],pi2b[iii]));
else qih2b = (max(pi2b[ii],pi2b[iii])-
min(pi2b[ii],pi2b[iii]))/(v21b+v22b)**0.5;
*print qih2b v21b v22b;
if qih1b>omeg1 then omeg1=qih1b;
if qih2b>omeg2 then omeg2=qih2b;
end;
end;
do ii = 1 to k-1;
do iii = ii + 1 to k;
if omeg1>=qih[ii,iii] then pvalb[ii,iii]=
pvalb[ii,iii]+1/B;
if omeg2>=qih[iii,ii] then pvalb[iii,ii]=
pvalb[iii,ii]+1/B;
end;
58
end;
print omeg1 omeg2 pvalb;
end;/*fim do bootstrap*/
achou5m1=1;
achou1m1=1;
achou5m2=1;
achou1m2=1;
do ii = 1 to k-1;
do iii = ii + 1 to k;
if pvalb[ii,iii]<=alpha5 then achou5m1 = 0;
if pvalb[ii,iii]<=alpha1 then achou1m1 = 0;
if pvalb[iii,ii]<=alpha5 then achou5m2 = 0;
if pvalb[iii,ii]<=alpha1 then achou1m2 = 0;
end;
end;
if achou5m1 = 0 then nsig[1]=nsig[1]+1/M;
if achou1m1 = 0 then nsig[2]=nsig[2]+1/M;
if achou5m2 = 0 then nsig[3]=nsig[3]+1/M;
if achou1m2 = 0 then nsig[4]=nsig[4]+1/M;
end;/*fim da Monte Carlo*/
*print achou5m1 achou1m1 achou5m2 achou1m2;
print nsig;
quit;
ANEXO 2: Programa ulilizado para computar o poder dos testes de
bootstrap Pan e MV, sob H
1
.
proc iml;
/*Definir parâmetros para a simulação*/
k=2;M=2000;B=2000;delta=0.01;
ni=j(k,1,10);
n = sum(ni);
print k M B;
59
print ni;
yi=j(k,1,0);
yib1=j(k,1,0);
yib2=j(k,1,0);
pi=j(k,1,0.01);
diff=delta/(k-1);
do i=2 to k;
pi[i]=pi[i-1]+diff;
end;
print delta diff;
print pi;
pi1 = j(k,1,0);
pi2 = j(k,1,0);
pi1b = j(k,1,0);
pi2b = j(k,1,0);
qih = j(k,k,0);/* acima da diagonal qih1 e abaixo qih2*/
nsig = j(4,1,0);/* nsig[1]= est 1, alpha = 0.05, nsig[2]= est 1,
alpha = 0.01, nsig[3]= est 2, alpha = 0.05,
nsig[4]= est 2, alpha = 0.01*/
alpha5 = 0.05;alpha1=0.01;
/*Iniciar simulação Monte Carlo*/
do i=1 to M;
/*Gerar as amostras populacionais e estimação dos pi´s*/
do pop = 1 to k;
yi[pop] = RANBIN(0,ni[pop],pi[pop]);
pi1[pop] = (yi[pop]+2)/(ni[pop]+4);
pi2[pop] = yi[pop]/ni[pop];
end;
*print yi pi1 pi2;
/*obter qih na amostra original*/
do ii = 1 to k-1;
do iii = ii + 1 to k;
v11 = pi1[ii]*(1-pi1[ii])/(ni[ii]+2);
60
v12 = pi1[iii]*(1-pi1[iii])/(ni[iii]+2);
qih1 = (max(pi1[ii],pi1[iii]) -
min(pi1[ii],pi1[iii]))/(v11+v12)**0.5;
*print qih1 v11 v12;
v21 = pi2[ii]*(1-pi2[ii])/ni[ii];
v22 = pi2[iii]*(1-pi2[iii])/ni[iii];
if (v21=0 & v22=0) then qih2 = (max(pi2[ii],pi2[iii]) -
min(pi2[ii],pi2[iii]));
else qih2 = (max(pi2[ii],pi2[iii]) -
min(pi2[ii],pi2[iii]))/(v21+v22)**0.5;
*print qih2 v21 v22;
qih[ii,iii] = qih1;
qih[iii,ii] = qih2;
end;
end;
print qih;
/* Reamostragem infinita das k amostras impondo H
0
com estimativas iguais dos pi´s */
pi1m = 0;
pi2m = 0;
do pop = 1 to k;
pi1m = pi1m + pi1[pop]*(ni[pop]-1)/(n - k);
pi2m = pi2m + pi2[pop]*(ni[pop]-1)/(n - k);
end;
do pop = 1 to k;
yib1[pop] = RANBIN(0,ni[pop],pi1m);
if pi2m = 0 then yib2[pop] = 0;
else if pi2m = 1 then yib2[pop] = ni[pop];
else yib2[pop] = RANBIN(0,ni[pop],pi2m);
pi1b[pop] = (yib1[pop]+2)/(ni[pop]+4);
pi2b[pop] = yib2[pop]/ni[pop];
end;
print pi1m pi2m yib1 yib2 pi1b pi2b;
61
/* obter qihb na amostra de bootstrap */
omeg1=-1;
omeg2=-1;
do ii = 1 to k-1;
do iii = ii + 1 to k;
v11b = pi1b[ii]*(1-pi1b[ii])/(ni[ii]+2);
v12b = pi1b[iii]*(1-pi1b[iii])/(ni[iii]+2);
qih1b = (max(pi1b[ii],pi1b[iii]) -
min(pi1b[ii],pi1b[iii]))/(v11b+v12b)**0.5;
print qih1b v11b v12b;
v21b = pi2b[ii]*(1-pi2b[ii])/ni[ii];
v22b = pi2b[iii]*(1-pi2b[iii])/ni[iii];
if (v21b=0 & v22b=0) then qih2b =
(max(pi2b[ii],pi2b[iii])- min(pi2b[ii],pi2b[iii]));
else qih2b = (max(pi2b[ii],pi2b[iii]) -
min(pi2b[ii],pi2b[iii]))/(v21b+v22b)**0.5;
print qih2b v21b v22b;
if qih1b>omeg1 then omeg1=qih1b;
if qih2b>omeg2 then omeg2=qih2b;
end;
end;
do ii = 1 to k-1;
do iii = ii + 1 to k;
if omeg1>=qih[ii,iii] then pvalb[ii,iii] =
pvalb[ii,iii]+1/B;
if omeg2>=qih[iii,ii] then pvalb[iii,ii] =
pvalb[iii,ii]+1/B;
end;
end;
end;/*fim do bootstrap*/
print omeg1 omeg2 ;
achou5m1=1;
achou1m1=1;
62
achou5m2=1;
achou1m2=1;
print pvalb;
do ii = 1 to 1;
do iii = k to k;
if pvalb[ii,iii]<=alpha5 then achou5m1 = 0;
if pvalb[ii,iii]<=alpha1 then achou1m1 = 0;
if pvalb[iii,ii]<=alpha5 then achou5m2 = 0;
if pvalb[iii,ii]<=alpha1 then achou1m2 = 0;
end;
end;
if achou5m1 = 0 then nsig[1]=nsig[1]+1/M;
if achou1m1 = 0 then nsig[2]=nsig[2]+1/M;
if achou5m2 = 0 then nsig[3]=nsig[3]+1/M;
if achou1m2 = 0 then nsig[4]=nsig[4]+1/M;
end;/*fim da Monte Carlo*/
print nsig;
quit;
ANEXO 3: Programa ulilizado para computar o erro tipo I, por expe-
rimento, e o poder dos testes de bootstrap Pan e MV, sob H
0
parcial.
proc iml;
/*Definir parâmetros para a simulação*/
k=5;M=2000;B=2000;delta=0.01;g=2;
*ccont=0;
ni=j(k,1,10);
n = sum(ni);
print k M B;
print ni;
yi=j(k,1,0);
yib1=j(k,1,0);
yib2=j(k,1,0);
63
pi=j(k,1,0.01);
gr=j(k,1,1);
if k=5 then
do;
g1=3;
g2=2;
ncomp=g1*g2;
end;
else if k=10 then
do;
g1=5;g2=5;
ncomp=g1*g2;
end;/*específicos*/
diff=delta/(k-1);
do i=2 to k;
if i<=g1 then pi[i]=pi[i-1];
else if i=g1+1 then pi[i]=pi[i-1]+delta;
else if i>g1+1 then pi[i]=pi[i-1];
if i>g1 then gr[i]=2;
print i;
end;
print gr;
print delta diff ;
print pi;
pi1 = j(k,1,0);
pi2 = j(k,1,0);
pi1b = j(k,1,0);
pi2b = j(k,1,0);
qih = j(k,k,0);/* acima da diagonal qih1 e abaixo qih2*/
nsig = j(4,1,0); /* nsig[1]= est 1, alpha = 0.05, nsig[2]= est 1,
alpha = 0.01, nsig[3]= est 2, alpha = 0.05,
nsig[4]= est 2, alpha = 0.01*/
nsigpod = j(4,1,0); /* nsig[1]= est 1, alpha = 0.05, nsig[2]= est 1,
64
alpha = 0.01, nsig[3]= est 2, alpha = 0.05,
nsig[4]= est 2, alpha = 0.01*/
alpha5 = 0.05;alpha1=0.01;
/*Iniciar simulação Monte Carlo*/
do i=1 to M;
/*Gerar as amostras populacionais e estimação dos pi´s*/
do pop = 1 to k;
yi[pop] = RANBIN(0,ni[pop],pi[pop]);
pi1[pop] = (yi[pop]+2)/(ni[pop]+4);
pi2[pop] = yi[pop]/ni[pop];
end;
*print yi pi1 pi2;
/*obter qih na amostra original*/
do ii = 1 to k-1;
do iii = ii + 1 to k;
v11 = pi1[ii]*(1-pi1[ii])/(ni[ii]+2);
v12 = pi1[iii]*(1-pi1[iii])/(ni[iii]+2);
qih1 = (max(pi1[ii],pi1[iii]) -
min(pi1[ii],pi1[iii]))/(v11+v12)**0.5;
*print qih1 v11 v12;
v21 = pi2[ii]*(1-pi2[ii])/ni[ii];
v22 = pi2[iii]*(1-pi2[iii])/ni[iii];
if (v21=0 & v22=0) then qih2 = (max(pi2[ii],pi2[iii]) -
min(pi2[ii],pi2[iii]));
else qih2 = (max(pi2[ii],pi2[iii]) -
min(pi2[ii],pi2[iii]))/(v21+v22)**0.5;
*print qih2 v21 v22;
qih[ii,iii] = qih1;
qih[iii,ii] = qih2;
end;
end;
*print qih;
/* Reamostragem infinita das k amostras impondo H
0
65
com estimativas iguais dos pi´s*/
pi1m = 0;
pi2m = 0;
do pop = 1 to k;
pi1m = pi1m + pi1[pop]*(ni[pop]-1)/(n - k);
pi2m = pi2m + pi2[pop]*(ni[pop]-1)/(n - k);
end;
do pop = 1 to k;
yib1[pop] = RANBIN(0,ni[pop],pi1m);
if pi2m = 0 then yib2[pop] = 0;
else if pi2m = 1 then yib2[pop] = ni[pop];
else yib2[pop] = RANBIN(0,ni[pop],pi2m);
pi1b[pop] = (yib1[pop]+2)/(ni[pop]+4);
pi2b[pop] = yib2[pop]/ni[pop];
end;
/* obter qihb na amostra de bootstrap */
omeg1=-1;
omeg2=-1;
do ii = 1 to k-1;
do iii = ii + 1 to k;
v11b = pi1b[ii]*(1-pi1b[ii])/(ni[ii]+2);
v12b = pi1b[iii]*(1-pi1b[iii])/(ni[iii]+2);
qih1b = (max(pi1b[ii],pi1b[iii]) -
min(pi1b[ii],pi1b[iii]))/(v11b+v12b)**0.5;
*print qih1b v11b v12b;
v21b = pi2b[ii]*(1-pi2b[ii])/ni[ii];
v22b = pi2b[iii]*(1-pi2b[iii])/ni[iii];
if (v21b=0 & v22b=0) then qih2b =
(max(pi2b[ii],pi2b[iii]) - min(pi2b[ii],pi2b[iii]));
else qih2b = (max(pi2b[ii],pi2b[iii]) -
min(pi2b[ii],pi2b[iii]))/(v21b+v22b)**0.5;
*print qih2b v21b v22b;
if qih1b>omeg1 then omeg1=qih1b;
66
if qih2b>omeg2 then omeg2=qih2b;
end;
end;
do ii = 1 to k-1;
do iii = ii + 1 to k;
if omeg1>=qih[ii,iii] then pvalb[ii,iii] = pvalb[ii,iii]+1/B;
if omeg2>=qih[iii,ii] then pvalb[iii,ii] = pvalb[iii,ii]+1/B;
end;
end;
end;/*fim do bootstrap*/
achou5m1=1;
achou1m1=1;
achou5m2=1;
achou1m2=1;
*print pvalb;
do ii = 1 to k-1;
do iii = ii+1 to k;
if (pvalb[ii,iii]<=alpha5) & (gr[ii]=gr[iii]) then achou5m1 = 0;
if (pvalb[ii,iii]<=alpha1) & (gr[ii]=gr[iii]) then achou1m1 = 0;
if (pvalb[iii,ii]<=alpha5) & (gr[ii]=gr[iii]) then achou5m2 = 0;
if (pvalb[iii,ii]<=alpha1) & (gr[ii]=gr[iii]) then achou1m2 = 0;
/*poder*/
if abs(gr[iii] - gr[ii])>1e-5 then
do;
*ccont=ccont+1;
*tt=gr[ii];
*ttt=gr[iii];
*print tt ttt;
if (pvalb[ii,iii]<=alpha5) then
nsigpod[1]=nsigpod[1]+1/(M*ncomp);
if (pvalb[ii,iii]<=alpha5) then
nsigpod[2]=nsigpod[2]+1/(M*ncomp);
if (pvalb[iii,ii]<=alpha5) then
67
nsigpod[3]=nsigpod[3]+1/(M*ncomp);
if (pvalb[iii,ii]<=alpha5) then
nsigpod[4]=nsigpod[4]+1/(M*ncomp);
end;
end;
end;
if achou5m1 = 0 then nsig[1]=nsig[1]+1/M;
if achou1m1 = 0 then nsig[2]=nsig[2]+1/M;
if achou5m2 = 0 then nsig[3]=nsig[3]+1/M;
if achou1m2 = 0 then nsig[4]=nsig[4]+1/M;
end;/*fim da Monte Carlo*/
*print nsig nsigpod ccont ncomp M;
print nsig nsigpod;
quit;
68
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo