Download PDF
ads:
PREVISÃO DE VENDAS TOP-DOWN OU BOTTOM-UP?
UM ESTUDO DE CASO
Leonardo Gonçalves Siqueira
Universidade Federal do Rio de Janeiro
Instituto COPPEAD de Administração
Mestrado em Administração
Orientador: Prof. Peter Wanke, D.Sc.
Rio de Janeiro
2008
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
ii
PREVISÃO DE VENDAS TOP-DOWN OU BOTTOM-UP?
UM ESTUDO DE CASO
Leonardo Gonçalves Siqueira
Dissertação submetida ao corpo docente do Instituto de Pós Graduação e
Pesquisa em Administração de Empresas (COPPEAD) da Universidade Federal
do Rio de Janeiro como parte dos requisitos necessários para a obtenção do grau
de Mestre.
Aprovada por:
_________________________________
Prof. Peter Fernandes Wanke, D.Sc. (COPPEAD/UFRJ) - Orientador
_________________________________
Prof. Eduardo Saliby, Ph.D. (COPPEAD/UFRJ)
_________________________________
Prof. Rafael Garcia Barbastefano, D. Sc. (CEFET-RJ)
Rio de Janeiro, RJ
2008
ads:
iii
Siqueira, Leonardo Gonçalves.
Previsão de vendas top-down ou bottom-up? Um estudo de caso /
Leonardo Gonçalves Siqueira. – Rio de Janeiro, 2008.
ix, 70 f.: il
Dissertação (Mestrado em Administração) – Universidade Federal do
Rio de Janeiro – UFRJ, Instituto COPPEAD de Administração, 2008.
Orientador: Peter Wanke.
1. Previsão de Vendas 2. Gerência de Operações 3. Administração –
Teses. I. Wanke, Peter (Orient.). II. Universidade Federal do Rio de
Janeiro. Instituto COPPEAD de Administração. III. Previsão de vendas top-
down ou bottom-up? Um estudo de caso.
iv
AGRADECIMENTOS
Agradeço a Deus por ter me guiado em momentos difíceis.
Aos meus queridos pais, Celso e Vera, minhas irmãs, Michelle e Giselle e minhas
quase irmãs, Ilcéia e Tatiana por terem me dado o suporte necessário nos 2 anos
de Mestrado.
À Mariana, por ter apoiado minhas escolhas, pela ajuda e por ter caminhado junto
comigo nestes 2 anos.
Aos queridos Luiz Carlos e Suely pela presteza e força dada.
Ao meu orientador, Peter Fernandes Wanke, pelo empenho e profissionalismo
demonstrado, pelo esforço para melhoria do meu desempenho acadêmico e pelas
prontas respostas dadas aos meus questionamentos.
Aos professores Eduardo Saliby e Rafael Garcia Barbastefano por aceitarem
participar da banca de defesa desta dissertação.
Aos professores do Coppead, que são figuras importantíssimas na formação dos
alunos que passam por esta instituição.
Aos amigos da Turma 2006, pessoas que ficarão marcadas na minha vida pelos
momentos passados juntos.
Aos funcionários do Coppead, em especial Cida, Lucianita, Simone e Elza, que
são sinônimos de presteza.
Ao CNPq, pela bolsa de estudo que apoiou parte da minha caminhada.
E à sociedade brasileira, por manter, através dos impostos pagos, instituições de
ensino públicas de excelência, como é o Coppead e a UFRJ.
v
RESUMO
SIQUEIRA, Leonardo Gonçalves. Previsão de vendas top-down ou bottom-up?
Análise de um estudo de caso. Orientador: Peter Wanke. Dissertação (Mestrado
em Administração) – Instituto COPPEAD de Administração, Universidade Federal
do Rio de Janeiro, 2008.
Com a crescente complexidade na diferenciação dos produtos, a previsão de
vendas mostra-se um tema cada vez mais importante para o gerenciamento de
estoque e para as operações das empresas. No entanto, ainda não existe uma
conclusão na literatura de previsão de vendas sobre a melhor abordagem a ser
utilizada: se top-down (previsão dos dados agregados e posterior quebra em
dados individuais) ou bottom-up (previsão dos dados individuais e posterior
consolidação em dados agrupados).
Neste cenário, o presente estudo utiliza o modelo apresentado em Wanke e
Saliby (2007), que ajuda a decidir de antemão a melhor abordagem para cada
produto com amortecimento exponencial simples. Para tanto, o objetivo principal
foi verificar se o modelo responde satisfatoriamente, quando testado frente a
séries reais reamostradas de vendas de uma indústria de lubrificantes
automotivos. Já o objetivo secundário foi testar se os erros (média e variância)
são influenciados pelas características das séries.
Os resultados apontaram que o modelo também se aplica às séries reais de
vendas, desde que sejam respeitadas características das séries que favoreçam a
utilização do amortecimento exponencial simples. Bem como as características
das séries reais confirmaram o impacto nos erros obtidos e cerca de 80% das
séries retornaram abordagens reais iguais às definidas de antemão pelo modelo.
Os impactos gerenciais também foram apresentados.
vi
ABSTRACT
SIQUEIRA, Leonardo Gonçalves. Previsão de vendas top-down ou bottom-up?
Análise de um estudo de caso. Orientador: Peter Wanke. Dissertação (Mestrado
em Administração) – Instituto COPPEAD de Administração, Universidade Federal
do Rio de Janeiro 2008.
With increasing in products complexity and differentiation, sales forecasts reveal
itself in a subject even more important to inventory management and company’s
operations. Although, there is not a conclusion in academic literature about the
best sales forecast approach: if top-down (aggregated data followed by individual
data break) or bottom-up (individual data later aggregated in groups).
In this context, this study uses model presented by Wanke and Saliby (2007) that
helps to decide beforehand which is the best approach using simple exponential
smoothing for each product. So, the main objective was to verify if this model
answers adequately when tested with actual data series rearranged obtained from
an automotive lubricants company. The secondary objective was to test if forecast
errors (average and variance) are influenced by series profiles.
Results showed that model is applied to actual data series when series
characteristics are favorable to simple exponential smoothing. Series
characteristics also confirmed their impacts on forecasts errors and approximately
80% of real better approach was the same as outputted in Wanke and Saliby
model (2007). The management impacts are also shown.
vii
SUMÁRIO
1. Introdução ......................................................................................................... 1
2. Revisão de literatura ......................................................................................... 5
2.1 As abordagens de previsão de vendas ..................................................... 5
2.2 Top-down ................................................................................................... 6
2.3 Bottom-up .................................................................................................. 7
2.4 As vantagens e desvantagens das abordagens ....................................... 9
2.5 Como escolher a melhor abordagem ...................................................... 13
2.6 O modelo Wanke e Saliby ....................................................................... 15
2.7 O que ainda não foi explorado na literatura: teste com dados reais....... 20
3. Objetivos e metodologia ................................................................................. 21
3.1 Objetivos .................................................................................................. 21
3.2 Organização das atividades .................................................................... 21
3.3 A técnica de reamostragem univariada usada: bootstrap....................... 23
3.4 As séries de vendas geradas por reamostragem.................................... 26
3.5 As análises utilizadas .............................................................................. 27
4. Análise dos dados........................................................................................... 29
4.1 A série de vendas original ....................................................................... 31
4.1.1 A série de vendas de 100 períodos.................................................. 33
4.1.2 A série de vendas de 500 períodos.................................................. 36
4.1.3 A série de vendas de 1.000 períodos .............................................. 38
4.2 As previsões top-down e bottom-up sobre as séries geradas ................ 41
4.3 Os erros medidos .................................................................................... 42
4.4
Os valores de f e
ρ
obtidos.................................................................. 45
4.5 Testes com regressões lineares.............................................................. 47
4.5.1 Regressão linear das variáveis
f e
ρ
com o erro médio observado
..........................................................................................................48
4.5.2 Regressão linear das variáveis
f
e
ρ
com o k ............................. 53
4.6 Teste com regressão logística................................................................. 55
4.7 Capacidade preditiva do modelo ............................................................. 58
4.8 Características de séries que não se adequam ao modelo .................... 60
5. Discussão........................................................................................................ 61
6. Conclusões ..................................................................................................... 65
7. Referências ..................................................................................................... 68
viii
LISTA DE GRÁFICOS
Gráfico 4.1 – Participação de cada família nas vendas totais............................... 29
Gráfico 4.2 –Distribuição de freqüência das observações da série original.......... 32
Gráfico 4.3 – Distribuição de freqüência das observações da série gerada com
100 períodos........................................................................................................... 34
Gráfico 4.4 – Distribuição de freqüência das observações da série gerada com
500 períodos........................................................................................................... 37
Gráfico 4.5 – Distribuição de freqüência das observações da série gerada com
1.000 períodos ....................................................................................................... 39
Gráfico 4.6 – Coeficientes padronizados ............................................................... 58
LISTA DE FIGURAS
Figura 2.1 – Exemplo de abordagem top-down....................................................... 7
Figura 2.2 – Exemplo de abordagem bottom-up ..................................................... 9
Figura 2.3 – Linhas de indiferença entre top-down e bottom-up........................... 19
LISTA DE TABELAS
Tabela 3.1 - Número de SKUs por família............................................................. 22
Tabela 4.1 – Resumo da série original .................................................................. 31
Tabela 4.2 – Resumo da classificação ABC da série original ............................... 31
Tabela 4.3 – Estatísticas descritivas da série original por família ......................... 33
Tabela 4.4 – Estatísticas descritivas da série original por classificação ABC....... 33
Tabela 4.5 – Quantidade de SKUs por classe....................................................... 34
Tabela 4.6 – Estatísticas descritivas da série de 100 períodos por família........... 35
Tabela 4.7 – Estatísticas descritivas da série de 100 períodos por classificação
ABC ........................................................................................................................ 35
Tabela 4.8 – Quantidade de SKUs por classe....................................................... 36
Tabela 4.9 – Estatísticas descritivas da série de 500 períodos por família........... 37
Tabela 4.10 – Estatísticas descritivas da rie de 500 períodos por família ........ 38
Tabela 4.11 – Quantidade de SKUs por classe..................................................... 39
Tabela 4.12 – Estatísticas descritivas da série de 1.000 períodos por família ..... 40
Tabela 4.13 – Estatísticas descritivas da série de 1.000 períodos por classificação
ABC ........................................................................................................................ 40
Tabela 4.14 – Erros medidos contra a previsão bottom-up................................... 43
Tabela 4.15 – Erros medidos contra a previsão top-down (previsto por família).. 44
Tabela 4.16 – Erros medidos contra a previsão top-down (previsto por classe
ABC) ....................................................................................................................... 44
Tabela 4.17 – Freqüência de participação dos SKUs por família ......................... 45
Tabela 4.18 – Freqüência de participação dos SKUs por classificação ABC ....... 46
ix
Tabela 4.19 – Freqüência de correlação dos SKUs por família e por classe ABC47
Tabela 4.20 – Resumo de SKUs analisados por tamanho de série...................... 50
Tabela 4.21 – Estatísticas de regressão linear por família – 100 períodos........... 50
Tabela 4.22 – Estatísticas de regressão linear por família – 500 períodos........... 51
Tabela 4.23 – Estatísticas de regressão linear por família – 1.000 períodos ....... 51
Tabela 4.24 – Estatísticas de regressão linear por classe ABC – 100 períodos .. 52
Tabela 4.25 – Estatísticas de regressão linear por classe ABC – 500 períodos .. 52
Tabela 4.26 – Estatísticas de regressão linear por classe ABC – 1.000 períodos 52
Tabela 4.27 – Regressão para k como variável dependente – 100 períodos....... 54
Tabela 4.28 – Regressão para k como variável dependente – 500 períodos...... 54
Tabela 4.29 – Regressão para k como variável dependente – 1.000 períodos.... 54
Tabela 4.30 – Parâmetros do modelo (variável viável) ......................................... 56
Tabela 4.31 – Coeficientes padronizados (variável viável) ................................... 57
Tabela 4.32 – Resumo do acerto do
crítico k
....................................................... 59
1
1. Introdução
No contexto atual de maior integração de diferentes operações, maior
complexidade nas características e maior quantidade de produtos, a previsão
de vendas vem sendo cada vez mais importante para a geração de ganhos na
cadeia de suprimentos.
No entanto, a importância de processos preditivos sempre foi ressaltada
pela literatura acadêmica, como na citação de Fayol (1916 apud Makridakis,
1996), que diz ser “...verdade que, se a previsão não é tudo na administração,
é pelo menos uma parte essencial dela”.
Em diversos elos da cadeia de suprimentos, os erros de previsão causam
vendas perdidas e excesso de estoque, entre outros problemas organizacionais
que só aumentam a insatisfação do comprador. E, na atual conjuntura de
incertezas, a previsão de vendas deixou de ser uma atividade vista como
aquela que ninguém quer assumir e que é delegada a qualquer área, para a
simples geração de um número (Tecnologística, março/2006).
As perdas proporcionadas pelas falhas nas previsões atingem distintos
setores, como o setor varejista (ECR Brasil, 2001) e o setor produtor de bens
de consumo. Até mesmo setores como os de mídia (Tecnologística,
março/2004) são impactados por previsões mal feitas. Isso só demonstra que
este é um assunto de grande valor nos negócios, atualmente.
Neste cenário, uma importante decisão para a realização de previsões
apresenta-se antes mesmo do início do processo. As previsões de vendas
podem ser preparadas utilizando-se dois tipos de abordagens: top-down
(previsões feitas sobre os dados consolidados e desmembradas nos itens
2
individuais) ou bottom-up (previsões sobre os itens individuais e com posterior
consolidação).
A literatura ainda apresenta conflitos sobre qual seria a melhor abordagem.
Algumas pesquisas antecedentes fundamentaram suas análises acerca de
previsões de vendas através da utilização do amortecimento exponencial
simples, que é o modelo mais comumente usado para determinar uma previsão
de séries temporais (Gijbels, Pope e Wand, 1999).
A participação de um SKU (unidade mínima de diferenciação de um
produto em estoque) dentro da série agregada de vendas, a correlação deste
com os demais SKUs e a variância das vendas estão entre as características
das séries que afetam a abordagem que apresenta o menor erro. Estudos
demonstraram que quanto menor a variância das vendas, mais propícia é a
abordagem top-down. A correlação positiva entre os itens é outro ponto que
favorece a abordagem top-down.
No entanto, como definir a abordagem a ser adotada? Para isso, Wanke e
Saliby (2007) apresentaram um modelo que responde de antemão qual seria a
melhor abordagem. Este estudo utilizou-se das características da série que
afetam a escolha e foi testado através da geração aleatória de dados para
estas características.
No presente estudo utilizou-se as séries de vendas reais de uma empresa
de lubrificantes automotivos, com o objetivo de avaliar se o modelo de Wanke e
Saliby (2007), que ajuda a responder de antemão a melhor abordagem, é
adequado também para séries reais.
3
Em função da limitação do número de dados originais, as séries reais de
vendas obtidas foram reamostradas, para a geração de séries mais extensas
de dados.
A partir das séries artificialmente geradas, mas com características das
originais, o modelo foi testado e a resposta foi satisfatória. Testes estatísticos
mostram que o modelo é altamente explicado pelas variáveis de participação
do item nos dados agregados e na correlação de determinado item com os
demais. Sendo assim, o modelo também comprova sua efetividade quando
examinado frente a dados reais.
Por fim, através da comparação entre os erros obtidos nas previsões top-
down e bottom-up e a abordagem sugerida em cada caso, comprovou-se que,
para cerca de 80% dos casos, a abordagem recomendada pelo modelo se
confirma na prática, o que poupa tempo e esforços no processo de previsão.
A organização do presente estudo está estruturada em seis capítulos, que
são apresentados, a seguir.
Neste primeiro capítulo, é feita uma breve apresentação do tema
estudado. A partir de então, é demonstrado o objetivo que este trabalho busca
atingir. Corrobora-se a relevância do tema com exemplos de como os mundos
acadêmico e corporativo o vêem atualmente.
O segundo capítulo trata da revisão de literatura, mostrando com maior
detalhamento as abordagens bottom-up e top-down, os objetivos e as
características de cada uma delas, os prós e contras levantados por outros
pesquisadores e em que ocasiões devem ser escolhidas. O capítulo apresenta,
4
ainda, o detalhamento do modelo que será utilizado, de Wanke e Saliby (2007),
e seus principais achados.
O terceiro capítulo aborda a metodologia da pesquisa adotada,
apresentando as perguntas da mesma. Apontam-se, também, os métodos para
a geração e para a análise dos dados.
O quarto capítulo apresenta o tratamento e a análise dos dados. Mostra
as características da base de dados original e da base de dados gerada para a
pesquisa, as previsões criadas e seus respectivos erros e as variáveis que
influenciam a variância do erro. Em seguida, são testadas as capacidades
preditivas, através de regressões lineares múltiplas (comparando o
comportamento das variáveis independentes com o padrão dos erros e com a
variância dos erros) e de regressão logística (comparando as variáveis
independentes com a variável binária definida para o modelo).
O quinto capítulo mostra as discussões sobre as análises feitas
anteriormente.
Por fim, o sexto capítulo traz um resumo do estudo, as conclusões e
limitações do mesmo e sugestões para futuras pesquisas.
5
2. Revisão de literatura
O presente estudo envolve o teste da capacidade preditiva de um
modelo, para apontar a melhor abordagem de previsão de vendas, utilizando
séries reais de dados.
Para tanto, buscou-se apresentar a revisão das literaturas prévias sobre
os principais temas que impactam o estudo, divididas nos seguintes tópicos:
As abordagens de previsão de vendas;
O que são;
Vantagens e desvantagens de cada abordagem;
Como escolher;
O modelo de Wanke e Saliby; e
O que ainda não foi explorado na literatura: teste com dados reais.
2.1 As abordagens de previsão de vendas
O problema da previsão para estoque é caracterizado pela necessidade
de se prever a demanda para uma grande quantidade de itens, em um
ambiente econômico volátil (Schwarzkopf, Tersine e Morris, 1988). Segundo os
autores, duas abordagens foram, então, sugeridas para desenvolver as
previsões: as denominadas top-down e bottom-up.
Top-down e bottom-upo abordagens largamente difundidas e
estudadas na literatura de previsão de vendas. Para Gordon, Morris e
Dangerfield (1997), elas são sugeridas a fim de que se prepare previsões para
6
itens individuais em uma família. Ao longo desta seção, são descritas as
características de cada uma e as principais diferenças entre as duas.
2.2 Top-down
A abordagem top-down em previsão de vendas pode ser entendida
como uma previsão feita para um grupo, sendo posteriormente quebrada para
os itens que compõem este grupo (Lapide, 1998). Para Kahn (1998), a
abordagem top-down define-se a partir do momento em que a previsão de uma
marca é feita e proporcionalmente reduzida aos produtos individuais, por meio
de previsões locais. Anteriormente, Jain (1995), por sua vez, definiu a previsão
de vendas com abordagem top-down como sendo aquela em que o previsor
prepara primeiramente uma previsão total para, em seguida, desagregá-la em
regiões, categorias e SKUs.
Segundo Gordon, Morris e Dangerfield (1997), na abordagem top-down,
os dados existentes (histórico de vendas) da família são usados para que se
desenvolva uma previsão para a família, que, então, é desagregada em
previsões individuais, baseadas em seus percentuais históricos de vendas.
Lapide (2006) reforça que a obtenção da previsão na abordagem top-down é
feita a partir do desdobramento das previsões calculadas de modo agrupado.
Para Ferreira (2006), a abordagem top-down consiste na realização de
previsões baseadas na série de vendas consolidadas, ou seja, quando se faz a
previsão baseada em uma série agregada de vários SKUs ou de diversas
regiões. O autor sugere a Figura 2.1, a seguir, como demonstração de uma
abordagem top-down:
7
Figura 2.1 – Exemplo de abordagem top-down
Fonte: Ferreira (2006).
2.3 Bottom-up
Segundo Ferreira (2006), a abordagem bottom-up em previsão de
vendas pode ser definida como a previsão que é realizada diretamente para
cada SKU ou localidade, sendo, a seguir, agregada em níveis superiores como,
por exemplo, famílias, grupos de produtos ou regiões.
Por sua vez, Lapide (1998 e 2006) define a abordagem bottom-up como
sendo a previsão que é feita individualmente para cada item e, então, somada,
para que se obtenha a previsão para um determinado grupo. O autor sugere,
ainda, alguns dos níveis para os quais as previsões agrupadas podem ser a
soma de previsões individuais desagregadas. O autor nomeia estes de níveis
ou dimensões e destaca cinco, a saber:
- Por unidade de negócios: a empresa é organizada em divisões ou
unidades de negócios;
Centro de
distribuição #1
Previsão (25.000)
Centro de
distribuição #2
Previsão (35.000)
Centro de
distribuição #3
Previsão (40.000)
Percentual
histórico
25%
35% 40%
Fábrica
Previsão consolidada
(100.000 unidades)
Centro de
distribuição #1
Previsão (25.000)
Centro de
distribuição #2
Previsão (35.000)
Centro de
distribuição #3
Previsão (40.000)
Percentual
histórico
25%
35% 40%
Fábrica
Previsão consolidada
(100.000 unidades)
8
- Por produtos: uma marca ou um grupo de produtos tem como
componentes itens individuais, produtos ou SKUs;
- Por geografia: a previsão nacional é composta das previsões
regionais, distritais ou territoriais;
- Por operação de planta/distribuição: os centros são compostos por
localizações para embarque e distribuição; e
- Tempo: ano composto por trimestres, meses, semanas e dias.
Gordon, Morris e Dangerfield (1997) definem a abordagem bottom-up
como sendo aquela em que uma previsão de vendas é aplicada a cada
membro da família de produtos. Para exemplificar a utilização da abordagem
bottom-up, Jain (1995) relata que, em algumas empresas, o previsor (o
profissional de previsões de vendas) obtém previsões de pessoas da força de
vendas por regiões e no nível de SKU, fazendo, a partir daí, a agregação
destes dados, para conseguir uma previsão por família ou por algum nível
superior desejado.
Para Kahn (1998), a abordagem bottom-up pode ser apontada como a
previsão local por itens, a fim de que seja, então, somada, para criar uma
previsão agregada de uma marca nacional. Gelly (1999) utiliza uma explicação
similar, sendo, para o autor, a abordagem na qual os previsores preparam suas
previsões baseados nos menores níveis disponíveis (que, em geral, são por
clientes ou por regiões) e freqüentemente contam com o auxílio do pessoal da
força de vendas.
9
Ferreira (2006) sugere a Figura 2.2, a seguir, como ilustração para uma
abordagem bottom-up de previsão de vendas:
Figura 2.2 – Exemplo de abordagem bottom-up
Fonte: Ferreira (2006).
2.4 As vantagens e desvantagens das abordagens
Para Lapide (1998), poucos artigos publicados tratam da questão de
qual abordagem é preferível e em qual situação. Para o autor, a resposta a
esta questão seria simples: iniciar com a abordagem bottom-up, seguida pela
top-down, usando, às vezes, uma abordagem middle-up and down, que seria o
meio termo entre as duas abordagens.
Um dos pontos que influencia as escolhas de métodos são questões
relativas aos custos de cada um. Ferreira (2006) levanta a questão acerca dos
custos atrelados a cada uma das abordagens. Para analisar os custos, o autor
utilizou o amortecimento exponencial simples, um dos métodos mais
comumente utilizados nas empresas. De acordo com o autor, o custo total para
Centro de
distribuição #1
Previsão (23.570)
Centro de
distribuição #2
Previsão (37.300)
Centro de
distribuição #3
Previsão (41.512)
Fábrica
Previsão total
(102.392 unidades)
Centro de
distribuição #1
Previsão (23.570)
Centro de
distribuição #2
Previsão (37.300)
Centro de
distribuição #3
Previsão (41.512)
Fábrica
Previsão total
(102.392 unidades)
10
o armazenamento de dados é o custo de se manter os dados armazenados
fisicamente (atualmente, seria a capacidade de armazenamento
computacional) e, também, o custo das atividades de atualização destes
dados. Este custo poderia ser em tempo, em salário de quem manipula os
dados ou ainda em outros custos. O autor defende que as atividades
relacionadas à atualização dos dados são mais importantes do que a
armazenagem dos mesmos, uma vez que estas atividades envolvem sistemas
e pessoas.
Ferreira (2006) analisa que em relação ao espaço necessário de
armazenagem de dados, a abordagem top-down leva certa desvantagem em
relação à abordagem bottom-up. Isto porque a abordagem top-down precisa da
série histórica de vendas dos itens individuais, da previsão de vendas
agregadas do último período (para o caso analisado, baseado no
amortecimento exponencial simples) e do percentual que este representou na
família, para que sejam feitas as posteriores desagregações.
Já para a abordagem bottom-up, bastaria que existisse a armazenagem
dos itens individuais, pois deles seriam geradas as séries previstas. No
entanto, o chamado custo de armazenamento de dados não se resume aos
dados armazenados, mas à necessidade de atualização destes. Para atualizá-
los, a abordagem top-down, em geral, gera menos custos.
Uma vez que as séries de vendas reais têm os percentuais históricos de
participação dos itens individuais nos itens agregados razoavelmente estáveis,
a abordagem top-down demanda que apenas as informações de vendas totais
e por itens agregados sejam atualizadas. Já na abordagem bottom-up, precisa-
se atualizar todas as informações em todos os períodos nos níveis individuais,
11
para que seja possível a realização de novas previsões. Apenas em casos de
séries muito instáveis, em que se fariam necessárias constantes atualizações
dos índices percentuais dos itens individuais nos agrupados é que o esforço de
atualização seria indiferente entre as abordagens, pois a falta de segurança na
representatividade do item individual faria com que a revisão ocorresse em
períodos mais curtos.
Segundo Ferreira (2006), um ponto importante a ser avaliado é a
utilização de recursos computacionais. Esta seria, segundo o autor, uma
medida de difícil mensuração, uma vez que precisaria ser avaliado o número
de vezes em que o disco rígido é acessado. Como o autor sugeriu nos demais
tópicos relacionados aos custos para obter previsões, a abordagem bottom-up
requer maiores recursos computacionais. No entanto, dado que os custos com
recursos computacionais estão ficando cada vez menores, o autor sugere que
a diferença entre os custos das abordagens seria insignificante e não poderia
ser considerada relevante e decisiva no processo de escolha da abordagem.
Ele defende que outros aspectos devem ser levados em consideração na hora
de se escolher a abordagem.
Dado o ponto anteriormente apresentado, Gelly (1999) analisa que as
dificuldades da abordagem top-down estão relacionadas aos fatores que uma
série agregada pode omitir ou esconder. Como exemplo, ele cita que qualquer
promoção regional por produto ou uma promoção para algum determinado
cliente traria problemas e impactaria a série prevista, por funcionar como um
estímulo fora do padrão. Como este cliente ou esta região “recebe” suas
previsões dos seus percentuais históricos de participação na família da qual
fazem parte, uma ação, ainda que direta, nos componentes individuais da
12
família, mexeria pouco na previsão agregada e, ainda assim, seria distribuída
para os outros itens individuais que compõem a família.
Para Gelly (1999), a abordagem top-down tem uma melhor aderência a
produtos que não são intensamente promovidos através de ações de marketing
e que apresentem padrões de vendas estáveis ao longo do tempo, no nível
regional. O autor sustenta, ainda, que pressões políticas dentro da organização
podem influenciar as previsões que utilizam a abordagem top-down. E ressalta
que isso é ainda mais perigoso quando a área comercial precisa atingir uma
meta de vendas. A preocupação reside no fato de que como a previsão é
agregada a pressão pode vir para mudar o percentual de participação de
determinado item individual, para que ocorra algum benefício para a área
comercial como, por exemplo, o aumento de um item que tenha uma meta mais
facilmente alcançável ou, ainda, que tenha uma rentabilidade ou receita maior,
proporcionando à empresa a mesma receita ou lucro. O problema é que o
estímulo à demanda estará sendo forçado e será artificial, podendo não ser
sustentável no longo prazo, uma vez que o percentual de participação ao longo
do tempo já absorve as oscilações normais de uma série, como sazonalidade e
ciclos econômicos.
As limitações da abordagem bottom-up também são apontadas pelo
autor. Para Gelly (1999), o processo de previsão de vendas que utiliza a
abordagem bottom-up geralmente necessita da integração entre previsores e
pessoal de campo. Esta necessidade, em geral, gera uma maior complexidade
ao processo, que, muitas vezes, é atrapalhado pela restrição de tempo para
geração e troca de informação acerca das previsões dentro da organização. A
vantagem, para o autor, é que a abordagem bottom-up permite que os itens
13
sejam trabalhados nos níveis mais desagregados possíveis (em geral, os
SKUs), permitindo, assim, ações específicas e localizadas. É útil, também, para
auxiliar na gestão de transportes, da armazenagem e na produção, já que atua
em um nível de detalhamento bastante significativo. Outro ponto levantado é
que as informações e dados para os menores níveis de agregação são mais
escassos. Isto, ainda que reduzido nos grandes varejistas, continua sendo um
forte limitador da utilização da abordagem bottom-up. Por fim, o autor acredita
que, depois de feitas as previsões, é preciso agregá-las em níveis nacionais
e/ou por categoria, para que as informações circulem dentro da organização.
Ainda que estas restrições tenham sido feitas pelo autor, cabe o
questionamento sobre até que ponto as ações de marketing influenciam mais
uma ou outra abordagem, uma vez que o impacto destas ações serão sentidos,
não importa se de modo diluído ou condensado.
O que se percebe é que determinada empresa não conseguiria definir, a
priori, qual a melhor abordagem a ser utilizada e, para tanto, precisaria fazer as
previsões de vendas utilizando as duas abordagens, para se obter aquela na
qual se teria a menor variância do erro. Isto geraria alta complexidade no
processo, tomando tempo e gerando retrabalhos, em um ambiente tão
dinâmico como o atual.
2.5 Como escolher a melhor abordagem
Para Ferreira (2006), existe espaço para a utilização de ambas as
abordagens. O autor sugere que elas podem ser usadas em um modelo
híbrido, não sendo, assim, propostas excludentes. O autor acredita que a
14
abordagem top-down tende a ser mais precisa, mas que a abordagem bottom-
up, por ser individual, ajuda a identificar padrões da demanda que podem estar
obscurecidos pela série agregada.
O autor acredita que para decisões estratégicas e orçamentárias, a
previsão top-down tende a ser preferida, pois facilita a visualização do macro-
ambiente. No entanto, para planejamentos operacionais, o autor acredita que a
abordagem bottom-up tenha mais chances de ser sugerida. Assim, Ferreira
(2006) acredita que muito da escolha estará relacionada ao uso que a empresa
fará da previsão e não somente ao comportamento dos dados.
Já Gordon, Morris e Dangerfield (1997) fizeram uma pesquisa com 96
previsores, na qual enviaram uma série histórica para avaliar o desempenho de
indivíduos e compará-los com os dados produzidos em computadores,
utilizando o amortecimento exponencial simples. Dos 96 previsores, 44%
reportaram já ter tido treinamentos em previsões de vendas e,
aproximadamente, 7,7 anos de experiência em previsão, orçamentação ou
planejamento. Através desta pesquisa, os autores sugerem que o modelo de
previsão de vendas baseado na abordagem bottom-up foi significativamente
melhor do que o modelo baseado na abordagem top-down. Com a base de
dados utilizada (criada artificialmente), a abordagem bottom-up superou a
abordagem top-down nas seis famílias hipotéticas. Nesta pesquisa, quando os
itens dos dados históricos eram positivamente correlacionados, os previsores
eram capazes de fazer melhores previsões com a abordagem bottom-up. Já no
caso contrário, quando os itens dos dados históricos eram negativamente
correlacionados, as previsões geradas através da abordagem top-down
proporcionavam melhores resultados. E, em famílias com pouca correlação
15
com os itens que a compõem, os resultados foram divididos. Quando os itens
dentro da família tinham a mesma proporção, a abordagem top-down
proporcionou melhores resultados, já quando as proporções dos itens dentro
das famílias eram distintas, foi a abordagem bottom-up que apresentou
melhores resultados.
2.6 O modelo Wanke e Saliby
Wanke e Saliby (2007) apresentaram um modelo para que a abordagem
de previsão seja escolhida de antemão. Os autores tratam a escolha da
abordagem de previsão por meio deste modelo, que considera as seguintes
variáveis: a participação do SKU em estudo sobre a classe agregada, a
correlação entre a série de vendas do mesmo SKU com as séries agregadas
dos demais e a relação entre a variância da série de vendas do SKU em
análise e a variância das séries agragadas dos demais.
Para a definição do modelo que torna indiferente a escolha da abordagem
de previsão de vendas, os autores deduzem uma série de fórmulas. Para a
abordagem bottom-up, a variância do erro total da previsão durante o tempo de
resposta, considerando as vendas como um processo constante e o uso do
amortecimento exponencial simples, é dada pela fórmula abaixo:
()
+
+=
2
LT
2
LTLT
2
AA
2
)LTE(V
σμ
α
α
μσ
, (1)
onde:
A
são as vendas do produto
A
;
16
LT
é o tempo de resposta, assumido constante;
)LTE(V
A
é a variância da previsão de vendas de
A
, durante o tempo de
resposta;
2
A
σ
é a variância de
A
;
LT
é o valor esperado do tempo de resposta;
α
é a constante de amortecimento; e
2
LT
σ
é a variância do tempo de resposta.
Já para a abordagem top-down, após algumas deduções, os autores
apresentam a seguinte fórmula para a variância do erro de previsão:
()
+
++
+=
2
LT
2
LT
AB
2
2
LT
2
AA
k
2
k
1
1
2
f
)LTE(V
σμ
ρ
α
α
μσ
, (2)
onde:
A
são as vendas do produto
A
;
B
são as vendas dos demais produtos (excluindo
A
);
L
T
é o tempo de resposta, assumido constante;
)LTE(V
A
é a variância da previsão de vendas de
A
, durante o tempo de
resposta;
2
A
σ
é a variância de
A
;
17
LT
μ
é o valor esperado do tempo de resposta;
f
é a participação histórica do produto
A
no total das vendas agregadas;
α
é a constante de amortecimento;
k é a razão entre os desvios-padrão de
A
e B ;
AB
ρ
é o coeficiente de correlação entre
A
e
B
; e
2
LT
σ
é a variância do tempo de resposta.
Conforme Wanke e Saliby (2007) apontam, diversos autores tentaram
demonstrar a adequação das abordagens top-down e bottom-up a diferentes
características de uma série, principalmente à correlação entre as vendas do
SKU em estudo e as vendas agregadas dos demais itens (
ρ
), ao percentual de
participação das vendas do item em estudo sobre a série total (
f
) e à relação
entre a variância da série de vendas do SKU em estudo sobre a variância da
série dos demais itens (
2
k ).
A fórmula de
2
k
demonstrada por Wanke (2006) considera a variância de
um determinado SKU (
2
1
s ), dividido pela variância dos demais SKUs (que
compõem o nível de agregação no qual se baseia a abordagem top-down, por
exemplo, a família de produtos) (
2
2
s ).
2
2
2
1
2
s
s
k =
. (3)
18
O autor prova analiticamente, para o amortecimento exponencial
simples, que o valor de
k , que torna ambas as abordagens (top-down e
bottom-up) indiferentes, é o valor dado pela fórmula a seguir:
2
22
crítico
f1
)1)1(ff(f
k
++
=
ρρ
, (4)
onde:
k é o valor que iguala a variância dos erros de previsão nas abordagens top-
down e bottom-up;
f é o percentual de participação do SKU nas vendas agregadas da família ou
classe; e
ρ
é a correlação da série de vendas de um SKU com os demais itens da
mesma família ou classe.
Para valores de
α
entre zero e um, o valor de k ( crítico k ) dependerá
das variáveis
f e
ρ
, para determinar o valor que igualará as abordagens
bottom-up e top-down. Segundo Wanke e Saliby (2007), se
crític
o
kk >
, a
abordagem top-down deve ser a escolhida, caso
crítico
kk
<
, a abordagem a ser
escolhida deve ser a bottom-up.
No amortecimento exponencial simples, o valor de
k será comparado ao
de
crítico k , para que defina, através da comparação, qual abordagem deverá
ser utilizada, não sendo necessário, para tanto, fazer previsões com as duas
19
abordagens a fim de se saber qual retornará o menor erro. Este fato confirma-
se com constantes de amortecimentos iguais para as duas abordagens, uma
vez que esta não entra no modelo.
A Figura 2.3, a seguir, apresenta as linhas que tornam indiferentes as
escolhas entre as abordagens top-down e bottom-up para valores distintos de
f ,
ρ
e k .
Figura 2.3 – Linhas de indiferença entre top-down e bottom-up
0
2
4
6
8
-1 -0.8 -0.6
-0.4 -0.2 0 0.2 0.4 0.6 0.8 1
ρ
AB
E(f) = 0.10
E(f) = 0.25
E(f) = 0.50
E(f) = 0.75
E(f) = 0.90
Top-down: k > k
crítico
Bottom-up: k < k
crítico
k
crítico
0
2
4
6
8
-1 -0.8 -0.6
-0.4 -0.2 0 0.2 0.4 0.6 0.8 1
ρ
AB
E(f) = 0.10
E(f) = 0.25
E(f) = 0.50
E(f) = 0.75
E(f) = 0.90
Top-down: k > k
crítico
Bottom-up: k < k
crítico
k
crítico
Fonte: Wanke e Saliby (2007).
20
Wanke (2006) aponta que, de acordo com o demonstrado na Figura 2.3,
baixos valores de
f e
ρ
suportam a escolha da abordagem top-down, pois
esta minimiza a variância do erro de previsão no amortecimento exponencial
simples. É possível notar que, ainda que
f e
ρ
possuam valores maiores, a
abordagem top-down pode se mostrar a melhor opção (apresentando a menor
variância do erro de previsão), caso o valor de
k seja alto. A abordagem top-
down pode ser a melhor opção, também, para o caso de a razão da variância
do item em estudo e dos demais ser suficientemente alta.
2.7 O que ainda não foi explorado na literatura: teste com
dados reais
Em resumo, percebe-se que o modelo teórico desenvolvido por Wanke e
Saliby (2007) teve um alto desempenho para responder antecipadamente qual
a melhor abordagem de previsão a ser utilizada. Para tanto, foram utilizados
dados gerados aleatoriamente.
Torna-se relevante, a partir daí, que testes com dados reais sejam
realizados, para verificar a capacidade de adequação do modelo. Será
demonstrado, na seção a seguir, como foi testado o modelo Wanke e Saliby
(2007) frente a séries reais de vendas.
21
3. Objetivos e metodologia
3.1 Objetivos
O objetivo da pesquisa é testar o modelo de Wanke e Saliby (2007), para
a escolha da melhor abordagem de previsão de vendas (top-down ou bottom-
up), por meio de um estudo de caso prático. Este objetivo principal desdobra-se
na seguinte pergunta:
1. O modelo demonstrado por Wanke e Saliby (2007) responde
satisfatoriamente quando testado frente a séries de vendas
artificiais reamostradas a partir de uma série real?
Já o objetivo secundário da pesquisa é entender a relação do erro
(média e variância) frente às diferentes características de uma série de vendas,
como a correlação do item em estudo com os demais (
ρ
) e o percentual de
participação do item em estudo nas vendas totais (
f ). Para tanto, foi formulada
a seguinte pergunta:
2. Os erros (média e variância) das previsões geradas sobre as séries
de vendas artificialmente criadas são influenciados pelas
características que as compõem (
f e
ρ
)?
3.2 Organização das atividades
A abordagem inicial consistiu na análise da base de dados das séries de
vendas de um fabricante de lubrificantes. Esta base de dados possuía o
22
histórico de vendas de 33 meses, de junho do ano de 2002 até o mês de
fevereiro de 2005. A série de vendas continha 497 SKUs, distribuídos em 10
famílias de produtos. A base de dados original segue o perfil apresentado
abaixo:
Tabela 3.1 - Número de SKUs por família.
Família Número de SKUs
1 49
2 26
3 61
4 47
5 66
6 32
7 139
8 16
9 26
10 35
O ponto de partida para testar o modelo demonstrado por Wanke e
Saliby (2007) foi baseado nestas séries de vendas com 33 períodos. A partir da
série real, foram geradas novas séries artificiais com 100, 500 e 1.000
períodos. Através da técnica de reamostragem com reposição, conhecida como
bootstrap, foram criadas novas bases de dados, mantendo as características
da série original.
23
3.3 A técnica de reamostragem univariada usada: bootstrap
As técnicas de reamostragens são técnicas nas quais é possível obter
dados reamostrados a partir de séries reais e que, em geral, são chamados de
procedimentos de reamostragem (Chernick, 1999). O autor cita que as técnicas
de reamostragem vêm de muito tempo e os computadores são utilizados para
fazer simulações desde os primeiros tempos da computação, que datam do fim
da década de 40.
Chernick (1999) indica que foi Efron (1979) quem unificou as idéias e
elaborou o simples bootstrap não-paramétrico, uma das técnicas conhecidas
que faz a reamostragem dos dados com reposição. Foi apenas após os artigos
do próprio Efron (1982), Diaconis e Efron (1983), Efron e Gong (1983) e Efron e
Tibshirani (1986) que as comunidades científica e estatística começaram a
conhecer melhor as idéias e reconhecer a sua importância.
Chernick (1999) relata que, apesar de a primeira versão de Efron de
bootstrap ter sido introduzida em 1977, em uma nota técnica do Departamento
de Estatística da Universidade de Stanford, demorou um tempo para que o
procedimento ganhasse força. Muitas das aplicações surgiram e começaram a
ser discutidas apenas a partir da década de 90.
A idéia de se utilizar reamostragem com reposição de uma base de
dados empírica não começou com Efron. Anteriormente, havia poucas técnicas
relacionadas a reamostragens, porém muitas destas, atualmente, são definidas
como técnicas de reamostragem. Mas é certo que o método passou a ser
largamente utilizado somente após o trabalho de Efron (1979).
24
Por reamostragem com reposição entende-se, segundo Hesterberg et al.
(2002), que após uma observação ser retirada de uma amostra original, ela é
novamente colocada na amostra para que seja retirada uma segunda
observação, que voltará novamente à amostra original, e assim
sucessivamente. Ou seja, como exemplo pode-se dizer que, supondo um
conjunto de amostras com os seguintes valores:
(
)
Z,Y,X,W
. Deste conjunto,
retira-se aleatoriamente uma das amostras e registra-se seu valor. Após este
procedimento, a amostra retirada retorna para o conjunto original, de onde se
retira mais uma que é registrada e devolvida ao conjunto original. Este
procedimento é repetido
N vezes, obtendo-se um novo conjunto similar ao
abaixo:
W) W, Z,Y, Y, Y, Z,X, W, X, Y, (Z, .
Para Politis e Romano (1994), o bootstrap criado por Efron provou ser
uma poderosa ferramenta não-paramétrica para aproximar uma distribuição
amostral baseada em variáveis aleatórias independentes. No entanto, Chernick
(1999) ressalta que, em função da generalidade do bootstrap, este pode ser
aplicado em um número maior de problemas do que somente naqueles
levantados por Efron em seu estudo seminal.
Segundo Chernick (1999), o bootstrap tem sido aplicado em diferentes
tipos de problemas, como análise discriminante, regressão logística, análise de
cluster e em diferentes áreas de conhecimento, desde áreas de ciências
médicas, como medicina, genética, biologia, até em áreas como geologia,
ecologia, econometria, física, química, engenharia e contabilidade.
25
O bootstrap funciona, de forma geral, da seguinte maneira: deseja-se
estimar uma amostra e tem-se uma distribuição empírica dos dados de
tamanho
n . A distribuição empírica é a distribuição de probabilidade que
possui probabilidade de
n1
para cada um dos valores da distribuição empírica.
A idéia do bootstrap é simplesmente a de substituir uma distribuição não
conhecida por valores conhecidos da distribuição empírica.
Aplicações práticas da técnica geralmente fazem com que seja
necessária a geração de amostras e reamostras (como, por exemplo, séries
obtidas por amostragens com reposição da distribuição empírica). O
procedimento é a geração de uma amostra de tamanho
n, com reposição da
distribuão empírica.
Um ponto importante levantado por Chernick (1999) é que uma amostra
típica gerada pelo procedimento de bootstrap pode diferir das observações
originais, em função do número de vezes que determinada observação
aparecerá na amostra gerada. Determinada observação pode aparecer
diferentes vezes na nova série, enquanto que outras observações podem não
aparecer.
Politis e Romano (1994) chamam de bootstrap estacionário o
procedimento que envolve a reamostragem dos dados originais, para se obter
uma pseudo série temporal, que é construída para se conseguir uma
aproximação das estatísticas da amostra original.
26
3.4 As séries de vendas geradas por reamostragem
Foi gerada uma única vez para cada um dos SKUs uma série de vendas
com 1.000 dados, a partir das séries de vendas originais, para depois serem
analisados até o centésimo dado, até o qüingentésimo dado e, por fim, até o
milésimo dado.
Esta geração foi executada através de reamostragem série a série com
reposição programada em VBA do MS-Excel 2003, ou seja, foi utilizada uma
abordagem univariada.
As séries originais apresentavam oscilações que se repetiam nos
mesmos períodos, caracterizando assim um fator sazonal. Para evitar que o
componente sazonal deixasse de ser replicado nas séries reamostradas (uma
vez que estas são retiradas aleatórias das séries originais) e para uma maior
similaridade às séries originais, foi feito um cálculo de índice sazonal de cada
período mensal por SKU. Para isso, foi calculado o fator sazonal de cada mês
por SKU e, posteriormente, o índice sazonal do mês conforme demonstrado
por Brito, Campos e Leonardo (2006):
n
mês
IS
n
1k
mês
FS
k
=
= , (5)
onde,
mês
IS é o índice sazonal do mês em análise;
=
n
1k
FS
mês
k
é a soma dos fatores sazonais do mês em análise;
27
n
é o número de vezes que o mês se repete.
Posteriormente, foi feita a reamostragem com reposição destas séries
dessazonalizadas, gerando, assim, uma série de 1.000 dados. Em seguida,
voltou-se com a sazonalidade, para ter a série completa. Este procedimento foi
feito SKU a SKU e gerou uma nova base de dados com os mesmos 497 SKUs
com dados de vendas de 1.000 períodos consecutivos.
3.5 As análises utilizadas
Finalmente, com as novas séries de vendas e previsões devidamente
geradas, foi testada a robustez do modelo e o quanto as variáveis que o
compõem (
f
e
ρ
) o explicam. Para tanto, foi realizada uma análise de
regressão linear, para avaliar se os erros obtidos na série de vendas são
explicados pela variação de
f
e
ρ
. Desta forma, para cada SKU, um par de
f
e
ρ
foi associado, além do respectivo erro médio de previsão para o período.
Assim, foi possível testar, através da análise de regressão linear múltipla, a
relação entre o par de
f
e
ρ
e o erro médio. O par de
f
e
ρ
também foi
testado comparativamente aos valores de
k , para ver o quanto este pode ser
explicado pelas variáveis.
Outro teste feito teve o objetivo de avaliar a capacidade preditiva do
modelo. Para tanto, utilizou-se a regressão logística binomial, com
f
e
ρ
como variáveis independentes. Como variável dependente, definida para o
valor de zero ou um, foi utilizada a mesma premissa do modelo de Wanke
28
(2006), ou seja, para os valores de
k
que se encontraram acima de um, a
abordagem top-down foi definida como “viável”, caso contrário, foi definida
como “inviável”. Isto se deve ao fato de ser um evento incomum encontrar um
SKU com variância das vendas superior à variância das vendas dos demais
itens agregados.
29
4. Análise dos dados
A base de dados original obtida possuía um histórico de vendas do
período compreendido entre junho de 2002 e fevereiro de 2005, totalizando 33
meses consecutivos. Os 497 SKUs seguiam diferentes padrões de demanda,
mas não eram fortemente sazonais, sendo, portanto, adequados ao
amortecimento exponencial simples. As vendas realizadas nos 33 meses,
acumuladas por família, seguiram a seguinte proporção do total de vendas:
Gráfico 4.1 – Participação de cada família nas vendas totais
Família 2; 0,7%
Família 3; 35,5%
Família 4; 1,0%
Família 5; 10,3%
Família 6; 0,1%
Família 7; 22,0%
Família 8; 0,1%
Família 9; 10,9%
Família 10; 5,4%
Família 1; 14,0%
Conforme descrito anteriormente, as séries originais foram utilizadas
como base para a geração de novas séries de dados, com 100, 500 e 1.000
períodos consecutivos. Estas foram geradas através de reamostragem com
reposição, utilizando o Visual Basic do MS Excel 2003, SKU a SKU.
30
Assim, passou-se a ter séries maiores do que as originais para a
validação da fórmula do
crítico k e testes dos erros obtidos através da previsão
com amortecimento exponencial simples e da comparação de
f
e
ρ
em
diferentes períodos históricos.
A partir da nova base de dados existente foram criadas as previsões
com abordagens reais (top-down e bottom-up), para 100, 500 e 1.000 dados e,
também, as abordagens previstas, obtidas através do modelo do
crítico k . As
previsões das abordagens reais foram feitas no MS Excel 2007, pois este
possui capacidade para bases de dados maiores.
A abordagem bottom-up foi feita, obviamente, de forma individual para
todos os SKUs. Já na abordagem top-down, foram utilizados dois tipos para
níveis de agregação dos dados: famílias de produtos e classificação de vendas
ABC. Para o nível de agregação em famílias, foram utilizadas as mesmas das
séries originais (10 famílias). Para a classificação ABC de vendas, o nível de
agregação dos SKUs foi definido em função do perfil de vendas dentro da série
total (A, B ou C). Ambas as previsões reais (bottom-up e top-down) foram feitas
utilizando o amortecimento exponencial simples, sem nenhum tratamento, com
constante de amortecimento (
α
) igual a 0,10.
A partir destas previsões foi gerada uma nova base, na qual se
relacionou, por SKU, as informações necessárias para as análises. Constou
como a melhor abordagem real (retornada a partir dos erros medidos, sendo
menor erro igual a melhor abordagem) e a abordagem prevista através do
modelo do
crítico k . Constavam, também, as informações de
f
e
ρ
e os
valores obtidos dos erros, para as diferentes abordagens (top-down e bottom-
31
up) por família ou por classificação ABC do produto. Posteriormente, foram
geradas variáveis binárias para tratamento via regressão logística.
4.1 A série de vendas original
A série de vendas original foi apresentada anteriormente. Trata-se de uma
série histórica original com as seguintes características:
Tabela 4.1 – Resumo da série original
Resumo da série original
SKUs 497
Famílias 10
Períodos 33
Observações 16.401
A separação dos SKUs por famílias segue o padrão já apresentado
anteriormente. Já a distribuição dos SKUs pelas classes ABC de vendas,
segue o seguinte padrão:
Tabela 4.2 – Resumo da classificação ABC da série original
Classificação Quantidade Participação (%)
A6814%
B9920%
C33066%
Resumo classificação ABC
Para a tabela acima, é possível perceber que, diferentemente do
conceito largamente difundido de um padrão de percentuais de itens por classe
32
(aproximadamente 20% de itens A, 30% de itens B e 50% de itens C), esta
série apresenta um número significativamente maior de itens C. Isto pode ser
observado em função das séries originais de vendas obtidas estarem um pouco
“poluídas”, contendo SKUs que foram descontinuados e SKUs que foram
lançados durante os 33 períodos.
As observações (497 SKUs analisados, durante 33 meses) apresentam
16.401 dados, mostrados na distribuição de freqüência a seguir:
Gráfico 4.2 –Distribuição de freqüência das observações da série original
36,9%
10,4%
5,8%
11,6%
9,1%
24,6%
1,0%
0,4%
0,0%
0
1000
2000
3000
4000
5000
6000
7000
merodeobse rvaçõesporfaixa
Per c e ntualdeobse rvaçõesporfaixasobreototal
Percebe-se uma alta quantidade de observações com valor zero. Isto
ocorre porque alguns SKUs foram lançados e/ou descontinuados durante o
período disponibilizado. Outro ponto é que valores negativos de vendas, por se
tratarem de estorno de vendas, foram tratados como venda igual a zero.
A análise por famílias consolidadas apresenta, família a família, as
seguintes estatísticas descritivas:
33
Tabela 4.3 – Estatísticas descritivas da série original por família
Família Total vendas % sobre total Média Desvio-padrão Mínimo Máximo N (SKUs) Coef. de variação
1 47.552.069 14,0% 1.440.972 237.341 978.977 2.030.776 49 16%
2 2.514.368 0,7% 76.193 32.257 12.696 134.448 26 42%
3 120.439.075 35,5% 3.649.669 756.291 2.133.992 5.615.067 61 21%
4 3.294.552 1,0% 99.835 19.112 65.187 141.201 47 19%
5 34.884.257 10,3% 1.057.099 209.201 634.309 1.546.571 66 20%
6 392.396 0,1% 11.891 5.632 1.640 22.292 32 47%
7 74.503.928 22,0% 2.257.695 419.691 1.145.797 3.131.899 139 19%
8 302.300 0,1% 9.161 5.433 2.000 29.100 16 59%
9 36.844.122 10,9% 1.116.489 210.777 744.065 1.700.686 26 19%
10 18.370.553 5,4% 556.683 95.670 337.149 779.220 35 17%
Existem famílias com baixa participação no total vendido (famílias 2, 4, 6
e 8), que possuem poucos SKUs (exceto a família 4).
O mesmo modelo de tabela, mas apresentado por classificação de
vendas, retorna as seguintes informações:
Tabela 4.4 – Estatísticas descritivas da série original por classificação ABC
Classe Total vendas % sobre total Média Desvio-padrão Mínimo Máximo N (SKUs) Coef. de variação
A 270.984.882 80% 8.211.663 1.351.922 5.397.308 11.319.041 68 16%
B 51.157.437 15% 1.550.225 284.186 872.815 2.118.543 99 18%
C 16.981.879 5% 514.602 94.956 322.470 737.199 330 18%
Obviamente, nesta, os valores acompanham as classificações. Vale
destacar a pouca quantidade de SKUs classificados como A, o que mostra que
existe uma certa concentração de vendas em poucos SKUs.
4.1.1 A série de vendas de 100 períodos
A série de vendas de 100 períodos possui o mesmo número de SKUs e
de famílias da série original. O número de períodos é de 100 e o número de
observações total é de 49.700 observações.
34
Apesar da pouca diferença, houve uma pequena variação no número de
SKUs classificados como A, B e C, conforme é demonstrado na tabela a seguir:
Tabela 4.5 – Quantidade de SKUs por classe
Classificação Quantidade Participação (%)
A6713%
B9319%
C33768%
Resumo classificação ABC
O aumento de itens C, que ocasiona a redução de itens A e B, pode ser
explicado pela potencialização dos itens sem vendas ou com vendas muito
instáveis, na série original.
As 49.700 observações da série com 100 períodos gerados
artificialmente são distribuídas com a seguinte distribuição de freqüência:
Gráfico 4.3 – Distribuição de freqüência das observações da série gerada com 100
períodos
39,7%
9,3%
5,4%
10,9%
8,7%
24,3%
1,2%
0,4%
0,0%
0
5000
10000
15000
20000
25000
0 1.000 2.000 5.000 10.000 250.000 500.000 1.000.000 10.000.000
merodeobservaçõe sporfaixa
Per c e ntualdeobservaçõe spor faixasobreototal
35
O padrão das observações da série gerada segue o padrão da série
original. As análises descritivas das famílias consolidadas na série de 100
dados seguem as da base de dados originais, conforme pode ser verificado
abaixo.
Tabela 4.6 – Estatísticas descritivas da série de 100 períodos por família
Família Total vendas % sobre total Média Desvio-padrão Mínimo Máximo N (SKUs) Coef. de variação
1 141.689.148 13,9% 1.416.891 319.231,31 702.527 2.201.209 49 23%
2 7.417.170 0,7% 74.172 29.990,30 21.972 193.109 26 40%
3 366.078.827 35,9% 3.660.788 920.610,71 1.939.768 5.601.378 61 25%
4 9.896.444 1,0% 98.964 30.300,06 29.136 171.725 47 31%
5 105.967.368 10,4% 1.059.674 227.807,27 607.478 1.600.202 66 21%
6 1.075.124 0,1% 10.751 4.463,52 2.161 22.863 32 42%
7 221.599.760 21,7% 2.215.998 422.771,88 1.502.028 3.252.164 139 19%
8 819.639 0,1% 8.196 3.574,64 1.707 17.472 16 44%
9 111.171.899 10,9% 1.111.719 256.934,52 562.887 1.616.333 26 23%
10 54.870.247 5,4% 548.702 103.283,43 366.567 805.647 35 19%
Percebe-se que os padrões originais das famílias são muito
proximamente seguidos na série para 100 dados gerada artificialmente.
Através do detalhamento das estatísticas descritivas das classificações ABC,
estes também apresentam padrões similares aos das séries originais.
Tabela 4.7 – Estatísticas descritivas da série de 100 períodos por classificação ABC
Classe
Total vendas % sobre total Média Desvio-padrão Mínimo Máximo
N (SKUs) Coef. de variação
A 815.044.784 80% 8.150.448 1.659.107 4.682.220 12.072.456 67 20%
B 154.116.632 15% 1.541.166 295.934 975.290 2.256.111 93 19%
C 51.424.210 5% 514.242 93.997 319.549 685.076 337 18%
Apesar das séries de A e B terem tido médias um pouco abaixo das
originais, o desvio-padrão foi levemente maior nestes grupos. Isto pode ser
explicado pelo procedimento de reamostragem considerar a reposição e ter
36
sido dessazonalizado e depois de reamostrado ter contado com a volta da
sazonalidade.
4.1.2 A série de vendas de 500 períodos
A série de vendas de 500 períodos mantém a estrutura da série original
(SKUs e famílias), no entanto o número de observações é de 248.500.
Apesar da pequena diferença frente à série real, houve uma variação no
número de SKUs classificados como A, B e C. Mesmo sendo bastante similar à
série com 100 dados, possui a diferença de um SKU a mais, classificado como
B, e de um a menos, classificado como C.
Tabela 4.8 – Quantidade de SKUs por classe
Classificação Quantidade Participação (%)
A6713%
B9419%
C33668%
Resumo classificação ABC
A distribuição de freqüência da série com 500 dados apresenta a seguinte
distribuição:
37
Gráfico 4.4 – Distribuição de freqüência das observações da série gerada com 500
períodos
39,6%
9,3%
5,5%
10,9%
8,8%
24,4%
1,1%
0,4%
0,1%
0
20000
40000
60000
80000
100000
120000
0 1.000 2.000 5.000 10.000 250.000 500.000 1.000.000 10.000.000
merodeobservaçõesporfaixa
Per c e ntualdeobservaçõe spor faixasobreototal
É possível perceber que a série segue comportamento semelhante ao
da série original, relativo às características das observações.
As estatísticas descritivas das famílias obtidas na série gerada com 500
períodos têm as seguintes características:
Tabela 4.9 – Estatísticas descritivas da série de 500 períodos por família
Família Total vendas % sobre total Média Desvio-padrão Mínimo Máximo N (SKUs) Coef. de variação
1 713.000.235 13,9% 1.426.000 306.572,83 653.059 2.452.838 49 21%
2 37.271.840 0,7% 74.544 31.939,75 15.114 193.109 26 43%
3 1.825.631.108 35,6% 3.651.262 908.482,90 1.860.788 6.023.520 61 25%
4 47.923.305 0,9% 95.847 29.460,33 29.136 178.100 47 31%
5 529.732.602 10,3% 1.059.465 236.529,77 575.482 1.667.827 66 22%
6 5.531.262 0,1% 11.063 4.806,79 937 28.316 32 43%
7 1.129.400.342 22,0% 2.258.801 434.595,58 1.454.712 3.674.346 139 19%
8 4.310.872 0,1% 8.622 4.468,74 1.207 32.597 16 52%
9 551.677.264 10,8% 1.103.355 274.670,41 441.423 1.965.641 26 25%
10 277.931.285 5,4% 555.863 102.975,97 329.859 947.407 35 19%
De um modo geral, o comportamento da série com 500 períodos é
similar ao da série original. Vale destacar que o aumento do desvio-padrão das
famílias 1, 4 e 9 se dá pelo aumento da amplitude das mesmas, ou seja, os
38
valores máximos aumentaram e os mínimos diminuíram mais
significativamente.
Os SKUs classificados em cada uma das categorias A, B e C
apresentaram, na série de 500 períodos, as seguintes estatísticas descritivas:
Tabela 4.10 – Estatísticas descritivas da série de 500 períodos por família
Classe
Total vendas % sobre total Média Desvio-padrão Mínimo Máximo
N (SKUs) Coef. de variação
A 4.097.327.346 80% 8.194.655 1.652.383 4.685.494 12.428.804 67 20%
B 766.107.139 15% 1.532.214 304.323 955.127 2.343.866 94 20%
C 258.975.630 5% 517.951 99.679 290.954 796.978 336 19%
O comportamento também é similar ao da série original, com uma
diferença um pouco maior no desvio-padrão da categoria A, que foi também a
que teve a maior variação da amplitude.
O aumento dos desvios-padrão pode ser explicado pelo incremento de
períodos utilizando a reamostragem de dados. Ou seja, apesar de ser
proximamente similar às séries originais, o aumento de períodos acrescenta
um pouco de aleatoriedade na série.
4.1.3 A série de vendas de 1.000 períodos
A série de vendas com 1.000 períodos possui 497.000 observações,
mantendo a estrutura da série original. Comparativamente à série com 500
períodos, possui um SKU a menos, classificado como A, e um a mais,
classificado como B.
39
Tabela 4.11 – Quantidade de SKUs por classe
Classificação Quantidade Participação (%)
A6613%
B9519%
C33668%
Resumo classificação ABC
A apresentação das observações de todos os SKUs nesta série de
vendas segue a seguinte distribuição:
Gráfico 4.5 – Distribuição de freqüência das observações da série gerada com 1.000
períodos
39,5%
9,3%
5,5%
11,0%
8,7%
24,4%
1,1%
0,4%
0,1%
0
50000
100000
150000
200000
250000
0 1.000 2.000 5.000 10.000 250.000 500.000 1.000.000 10.000.000
merodeobservaçõe sporfaixa
Perc entualde obse rvaçõesporfaixasobreototal
Esta distribuição, do mesmo modo das séries de 100 períodos e de 500
períodos, é muito similar à da série original, tendo como principal diferença
apenas o aumento das séries observadas como zero. Mas isso se deve,
principalmente, ao alto percentual de itens C, que possuem vendas
esporádicas.
40
Para a análise do comportamento das famílias nas séries geradas com
1.000 períodos, apresentam-se as seguintes estatísticas descritivas:
Tabela 4.12 – Estatísticas descritivas da série de 1.000 períodos por família
Família Total vendas % sobre total Média Desvio-padrão Mínimo Máximo N (SKUs) Coef. de variação
1 1.427.402.739 13,9% 1.427.403 311.817,70 638.096 2.495.201 49 22%
2 74.584.042 0,7% 74.584 32.252,48 15.114 206.502 26 43%
3 3.666.854.577 35,8% 3.666.855 928.869,72 1.837.647 6.658.697 61 25%
4 97.447.132 1,0% 97.447 29.865,21 29.136 184.111 47 31%
5 1.054.919.976 10,3% 1.054.920 235.530,31 548.815 1.667.827 66 22%
6 11.089.346 0,1% 11.089 4.877,33 937 29.117 32 44%
7 2.253.337.443 22,0% 2.253.337 434.858,53 1.432.782 3.674.346 139 19%
8 8.848.982 0,1% 8.849 4.653,49 277 33.167 16 53%
9 1.106.615.305 10,8% 1.106.615 285.765,30 367.362 1.975.350 26 26%
10 553.892.879 5,4% 553.893 103.162,80 299.915 947.407 35 19%
O comportamento das famílias segue o da série de vendas original, com
algumas variações nos desvios-padrão das famílias 1, 4 e 9, em função,
também, do aumento da amplitude.
Já para as categorias A, B e C, a série de vendas apresenta as seguintes
características:
Tabela 4.13 – Estatísticas descritivas da série de 1.000 períodos por classificação ABC
Classe
Total vendas % sobre total Média Desvio-padrão Mínimo Máximo
N (SKUs) Coef. de variação
A 8.169.278.477 80% 8.169.278 1.691.541 4.549.405 12.794.655 66 21%
B 1.566.934.756 15% 1.566.935 304.921 990.873 2.392.165 95 19%
C 518.779.188 5% 518.779 99.411 286.036 803.767 336 19%
Também para as séries com 1.000 períodos a variação maior do desvio-
padrão da categoria A se dá pelo aumento da amplitude da mesma. Isto ocorre
em função das vendas oscilarem mais, quanto mais longas forem as séries de
dados. Isto é o reflexo, no mundo real, de situações como rupturas de estoque,
ciclos econômicos, aumento ou diminuição de concorrência, entre outros.
41
4.2 As previsões top-down e bottom-up sobre as séries
geradas
As previsões foram desenvolvidas baseadas na fórmula do
amortecimento exponencial simples:
1t1tt
PX)a1(aXPX
+= . (6)
onde,
t
PX é a previsão de X para o próximo período (período
t
);
a é a constante de amortecimento, com valores entre 0 e 1;
1t
X é o valor real do período anterior ao atual ( 1
t ); e
1t
PX é a previsão de X do período anterior ao atual ( 1
t ).
Este cálculo foi aplicado diretamente à série original a ser prevista, sem
que esta passasse por nenhum tipo de tratamento, ou seja, sem que tenha
sofrido nenhuma decomposição antes de se realizar a previsão de vendas. O
α
escolhido como constante de amortecimento do modelo foi 0,10, conforme
sugerido por Silver e Peterson (1985).
Não houve nenhuma diferença para que fossem feitas as previsões de
vendas dos diferentes períodos, exceto quanto à classificação ABC de alguns
SKUs, quando esta mudou de série para série.
A diferença que pode ser apontada para a apuração das previsões de
venda entre as abordagens é a base sobre a qual a previsão é feita. Para as
42
previsões bottom-up, o cálculo foi realizado diretamente sobre os SKUs. Já
para as abordagens top-down, foram adotados dois passos. Primeiramente, foi
necessário criar as séries de vendas consolidadas das famílias e das
categorias A, B e C para, posteriormente, calcular as previsões consolidadas
nos mesmos níveis. Somente após o cálculo das previsões das séries
consolidadas, o valor foi ponderado, de acordo com a participação do SKU na
família ou na classificação ABC, para se chegar ao valor da previsão de cada
SKU.
4.3 Os erros medidos
Três medidas de erro foram calculadas por previsão feita neste trabalho.
São elas: MAPE, MPE e o erro médio. A diferença entre o MAPE e o MPE é
que o MPE é o erro médio percentual e o MAPE é a média percentual dos
valores absolutos, ou seja, sem valores negativos, sendo esta uma medida de
erro mais comumente conhecida e utilizada. Já o MPE é importante para se
testar as relações entre o erro e as outras variáveis do modelo avaliadas neste
estudo. O erro médio é o valor médio dos desvios da previsão, medidos por
período para o valor real.
O MAPE é obtido através do cálculo da média percentual absoluta do erro
de cada período. A fórmula pode ser escrita conforme a equação a seguir:
×
=
=
n
1i
i
ii
100|
X
FX
|
n
1
MAPE
, (7)
onde:
M
AP
E
(mean absolute percentual error) é o erro médio percentual absoluto;
43
n
é o número de períodos medidos para o erro;
i
X é o dado real da série de vendas; e
i
F é o dado previsto da série de vendas.
Já o MPE é obtido através do cálculo da média percentual do erro de
cada período. A fórmula pode ser escrita conforme a equação a seguir:
×
=
=
n
1i
i
ii
100
X
FX
n
1
MPE
, (8)
onde:
M
P
E
(mean percentual error) é o erro médio percentual;
n é o número de períodos medidos para o erro;
i
X é o dado real da série de vendas; e
i
F é o dado previsto da série de vendas.
Os erros foram, então, medidos e são apresentados nas tabelas das
diferentes séries a seguir.
Tabela 4.14 – Erros medidos contra a previsão bottom-up
100 500 1.000
Erro médio (219,71) (43,47) (23,00)
MPE -163,1% -147,4% -143,6%
MAPE 186,1% 170,3% 166,4%
44
Tabela 4.15 – Erros medidos contra a previsão top-down (previsto por família)
100 500 1.000
Erro médio (219,24) (42,74) (22,16)
MPE -155,2% -146,2% -143,0%
MAPE 176,7% 168,0% 164,9%
Tabela 4.16 – Erros medidos contra a previsão top-down (previsto por classe ABC)
100 500 1.000
Erro médio (219,24) (42,74) (22,16)
MPE -154,1% -145,7% -142,7%
MAPE 175,3% 167,5% 164,5%
Os valores percentuais dos erros ficaram altos, em função de alguns
pontos extremos verificados na série. Este fato se deve, sobretudo, ao fato da
reamostragem ter sido aplicada na totalidade dos dados disponíveis. Ou seja,
alguns itens nas séries reamostradas possuem vendas em um mês e no
seguinte não possuem. Esta situação ocorre para um produto lançado e
terminado. Na reamostragem, como o número de SKUs não se alterou, este
“relançamento” ocorreu nas séries dos mesmos SKUs “descontinuados”. Estes
fatores fizeram alguns SKUs carregarem elevados valores de erro e
distorcerem um pouco a média final.
Ainda assim, nota-se que o erro médio cai significativamente das séries
de 100 períodos para as séries de 500 períodos. Já das séries de 500 períodos
para as séries de 1.000 períodos, o ganho em relação à redução do erro não é
tão significativo.
45
4.4 Os valores de
f
e
ρ
obtidos
Estas duas variáveis são importantes para a análise do valor de k
encontrado e com o qual é possível determinar, a priori, a melhor abordagem a
ser utilizada. Os valores de
f
podiam assumir um valor entre zero e um e os
valores para
ρ
podiam estar no intervalo entre -1 e +1.
Foram obtidos dois
f
por SKU para cada tamanho de série, um referente
a participação do SKU na família e o segundo referente a participação do SKU
na classificação ABC. O
ρ
, ou seja, a correlação entre o SKU analisado com
os demais SKUs do grupo (família ou classificação ABC), também foi obtido
duas vezes para cada SKU por tamanho da série.
Entre as variáveis, foi possível perceber alguns comportamentos
interessantes. As duas tabelas a seguir mostram a quantidade de SKUs por
faixa de participação percentual (
f ) dentro das famílias e das classificações
ABC, respectivamente.
Tabela 4.17 – Freqüência de participação dos SKUs por família
Faixa 100 períodos 500 períodos 1000 períodos
0% 44 24 13
1% 313 334 344
2% 33 33 33
3% 31 29 31
4% 15 19 17
5% 15 11 11
6% 7 6 7
7% 7 8 7
8% 4 5 6
9% 3 3 3
10% 3 2 2
20% 12 12 12
30% 6 7 7
40% 0 0 0
Acima de 40% 4 4 4
46
Dentro das famílias, para todas as séries analisadas, somente quatro
SKUs respondiam por mais de 40% de determinada família. A grande maioria
dos SKUs (357 – séries de 100 e 1.000 períodos – e 358 – séries de 500
períodos) possuia até 1% de participação por família.
Tabela 4.18 – Freqüência de participação dos SKUs por classificação ABC
Faixa 100 períodos 500 períodos 1000 períodos
0% 44 24 13
1% 354 374 385
2% 77 78 78
3% 14 14 13
4% 5 4 5
5% 0 0 0
6% 1 1 1
Acima de 6% 2 2 2
Para a participação de cada SKU dentro das classificações de vendas
ABC, é ainda menor a participação individual de cada item. Assim, somente
três SKUs possuem percentuais acima de 6% dentro de uma classe. Os três
SKUs são classe A, o que pode ser entendido devido a grande quantidade de
itens classificados como B e C e a pequena participação destes nas vendas
totais, ou seja, dentro destas outras classes, as vendas ficam pulverizadas em
um maior número de SKUs.
As correlações entre determinado SKU e os demais que compõem a
mesma família ou classe (
ρ
) apresentam as seguintes características:
47
Tabela 4.19 – Freqüência de correlação dos SKUs por família e por classe ABC
Faixa 100 períodos 500 períodos 1000 períodos 100 períodos 500 períodos 1000 períodos
-0,3021 143 1
-0,103219 162018 16
0,00 92 76 75 82 61 75
0,05 33 57 55 30 51 55
0,10 47 57 69 51 61 69
0,15 50 56 44 60 65 44
0,20 55 44 51 43 46 51
0,25 22 32 29 37 29 29
0,30 30 28 31 39 29 31
0,50 77 78 80 73 85 80
0,70 54 48 44 56 47 44
0,9031 222 2
1,0000 000 0
SKUs categorizados em família SKUs categorizados em ABC
Assim, entende-se que poucos itens individualmente possuem
correlação alta com os demais itens da mesma família ou classe quando
excluídos. Isto é reforçado por baixos
f nas famílias e classes e pelo fato de
que, quando excluídos, não “puxavam” as vendas dos demais.
4.5 Testes com regressões lineares
McClave, Benson e Sincich (1998) afirmam que os modelos de regressão
múltiplos são melhores e se adequam mais à realidade do que o modelo de
regressão simples. As complexidades do mundo real são mais bem refletidas
quando o modelo incorpora mais de uma variável independente para melhorar
a resposta deste.
Para testar o modelo do
crítico k utilizado neste estudo, a análise da
regressão múltipla foi utilizada para os diferentes tamanhos de séries previstas
(100, 500 e 1.000 períodos) e a variável dependente y foi testada tanto sendo
48
considerada o erro quanto sendo considerada o valor de
k
. Assim, estas
análises têm por objetivo responder a pergunta secundária do estudo:
2. Os erros (média e variância) das previsões geradas sobre as séries
de vendas artificialmente criadas são influenciados pelas
características que as compõem (
f e
ρ
)?
As variáveis independentes escolhidas para o teste do modelo foram
f
(percentual relativo à participação de determinado SKU no total da família ou
classe correspondente) e
ρ
(correlação entre a série de vendas de
determinado SKU e a série de vendas da família ou classe da qual aquele SKU
faz parte, excluindo a série do SKU em estudo), que compõem o modelo do
crítico k . O teste considerou como variáveis dependentes os erros obtidos,
sendo testados para os erros médios e o valor de
k em um segundo teste.
4.5.1 Regressão linear das variáveis f e
ρ
com o erro médio
observado
Segundo Hair et al. (1998), análise de regressão é uma técnica
estatística usada, que tem por objetivo examinar as relações entre uma variável
dependente, a partir de uma ou mais variáveis independentes. As aplicações
da regressão múltipla são divididas em duas grandes classes de problemas de
pesquisa: a predição e a explicação, que não são mutuamente exclusivas.
49
A medida de erro utilizada como variável dependente (y) do modelo foi o
erro percentual médio. Este foi calculado como o desvio entre as vendas reais
de determinado SKU para dado período e a previsão de vendas obtida a partir
das famílias e das classes na curva ABC de vendas. O cálculo considerou a
média simples das observações.
O modelo foi testado para cada bloco, ou seja, por cada família ou
classe, isto porque o modelo é aplicado utilizando como referência esta
classificação. Caso contrário, o modelo poderia se mostrar aparentemente mais
fraco, por contar, por exemplo, em determinada família com um SKU com alto
f (maior do que 0,5) e com os demais SKUs com baixa participação. Em outra
família, o
f poderia ter tido um comportamento mais próximo entre os SKUs.
Segundo Tabachnick & Fidell (1989), como premissa para a regressão, o
modelo deve contar com, no mínimo, cinco casos para cada variável
independente. O modelo apresentado atendeu a esta relação tanto nas
distribuições por família quanto nas distribuições por classe.
Foram excluídos da análise os SKUs que apresentaram valor zero para
todas as observações, ou seja, SKUs nos quais a soma de vendas foi zero, ao
fim dos períodos analisados. Com isso, a análise da regressão considerou a
seguinte quantidade de SKUs por série:
50
Tabela 4.20 – Resumo de SKUs analisados por tamanho de série
100 períodos 500 períodos 1.000 períodos
SKUs considerados 453 473 484
SKUs descartados
(valor total = 0)
44 24 13
SKUs totais 497 497 497
As hipóteses do modelo testadas para as diferentes abordagens são as
seguintes:
H
0
: Não existe relação linear entre as variáveis; e
H
1
: Existe relação linear entre as variáveis.
As tabelas com o resumo dos dados obtidos através da regressão por
família aparecem a seguir.
Tabela 4.21 – Estatísticas de regressão linear por família – 100 períodos
Família F F de significância SKUs analisados Estatística T
1 0,974 840,5 < 0 48 -0,168
2 0,978 481,5 < 0 25 -0,304
3 0,911 283,1 < 0 58 -0,710
4 0,057 1,1 0,35 39 0,257
5 0,931 422,6 < 0 66 0,602
6 0,601 19,6 < 0 29 0,684
7 0,891 480,0 < 0 120 -1,371
8 0,944 67,8 < 0 11 -2,395
9 0,938 143,5 < 0 22 -0,805
10 0,990 1558,9 < 0 35 2,900
51
Tabela 4.22 – Estatísticas de regressão linear por família – 500 períodos
Família F F de significância SKUs analisados Estatística T
1 0,968 680,0 < 0 48 0,276
2 0,984 716,1 < 0 26 -0,611
3 0,937 405,9 < 0 58 -0,127
4 0,986 1377,8 < 0 43 0,154
5 0,912 325,4 < 0 66 -0,117
6 0,586 20,5 < 0 32 1,119
7 0,840 328,5 < 0 128 -1,055
8 0,992 629,5 < 0 13 -0,420
9 0,956 226,2 < 0 24 -0,666
10 0,972 551,3 < 0 35 1,544
Tabela 4.23 – Estatísticas de regressão linear por família – 1.000 períodos
Família F F de significância SKUs analisados Estatística T
1 0,977 965,3 < 0 48 0,592
2 0,953 231,2 < 0 26 -0,548
3 0,898 247,5 < 0 59 0,345
4 0,138 3,5 0,04 47 0,330
5 0,914 332,7 < 0 66 0,124
6 0,694 32,9 < 0 32 1,074
7 0,821 289,4 < 0 129 -1,020
8 0,472 5,8 0,02 16 -0,411
9 0,970 377,9 < 0 26 -0,455
10 0,973 576,1 < 0 35 1,507
Com as informações das tabelas acima, nota-se que as variáveis
independentes têm alto poder de explicação dos erros médios obtidos. Em
nove das 10 famílias, o valor de R² é alto, ou seja, significa que as variáveis
independentes (
f e
ρ
) têm alto poder de explicação para o erro médio
encontrado. Apenas na família 4 as variáveis não têm alto poder de explicação
do erro médio medido. Analisando o motivo, foi possível verificar que a média
dos erros da família 4 é próxima a zero para as séries de 100 e de 1.000
períodos e os erros médios oscilam para cima e para baixo, sem muito padrão.
No entanto, para a série de 500 períodos, apesar de a média do erro ser
pequena, ela existe, o que faz com que o modelo tenha alto poder de
explicação através das variáveis independentes.
52
Ao se obter o valor F para que fosse testada a acuracidade do modelo,
percebe-se que os valores apurados de F são muito superiores ao F de
significância, o que garante a acuracidade do modelo, exceto para a família 4
das séries de 100 e 1.000 períodos. Este dado analisado por família mostra-se
importante para determinar em que características de série o modelo é
aplicável e em qual não é o mais indicado. Ou seja, para séries em que o erro
médio é zero ou muito próximo a zero, as variáveis
f e
ρ
não têm alto poder
de explicação e o modelo tem pouca acurácia.
Para o teste do modelo baseado nas classificações ABC, apresentam-se
as seguintes tabelas com os testes por classe:
Tabela 4.24 – Estatísticas de regressão linear por classe ABC – 100 períodos
Classe F F de significância SKUs analisados Estatística T
A
0,863 201,4 <067 1,303
B
0,006 0,3 0,77 93 0,430
C
0,799 575,8 <0 293 0,916
Tabela 4.25 – Estatísticas de regressão linear por classe ABC – 500 períodos
Classe F F de significância SKUs analisados Estatística T
A
0,864 202,8 <067 1,268
B
0,176 9,7 apro x.094 0,297
C
0,601 232,3 <0 312 1,243
Tabela 4.26 – Estatísticas de regressão linear por classe ABC – 1.000 períodos
Classe F F de significância SKUs analisados Estatística T
A
0,866 204,4 <066 0,953
B
0,199 11,4 <095 0,023
C
0,579 220,0 <0 323 0,831
53
O teste aplicado por classe ABC dos SKUs mostra que as variáveis
f e
ρ
também têm alto poder de explicação do erro médio obtido, exceto para a
classe B, na qual as variáveis independentes explicam fracamente os erros
obtidos para a série de 100 períodos. No entanto, para as séries de 500 e
1.000 períodos as variáveis independentes aumentam o seu poder explicativo.
O teste F para as séries de 500 e 1.000 períodos mostra que o modelo possui
uma boa acuracidade.
4.5.2 Regressão linear das variáveis f e
ρ
com o k
Após o teste do modelo para explicação dos erros, onde foi possível
verificar que as variáveis independentes da série (
f e
ρ
) explicam fortemente
o modelo para os erros médios aferidos, testou-se linearmente o quão
explicativo é o modelo para o valor de
k .
As variáveis independentes são as mesmas do teste anterior (
f e
ρ
) e a
variável dependente, neste teste, passou a ser
k . A quantidade de SKUs sob
análise permaneceu o mesmo da análise para os erros, por cada tamanho de
série.
As hipóteses do modelo, testadas para as diferentes abordagens, são as
seguintes:
H
0
: Não existe relação linear entre as variáveis; e
H
1
: Existe relação linear entre as variáveis.
54
As tabelas apresentadas a seguir mostram os valores obtidos na
regressão do modelo.
Tabela 4.27 – Regressão para k como variável dependente – 100 períodos
F F de significância
f,p,kporfamília 0,894 1900,4 <0
f,p,kporABC 0,420 162,7 <0
Tabela 4.28 – Regressão para k como variável dependente – 500 períodos
F F de significância
f,p,kporfamília 0,872 1599,2 <0
f,p,kporABC 0,431 177,9 <0
Tabela 4.29 – Regressão para k como variável dependente – 1.000 períodos
F F de significância
f,p,kporfamília 0,867 1570,1 <0
f,p,kporABC 0,433 183,5 <0
A partir da análise dos dados apresentados nas tabelas, é possível
perceber que as variáveis
f e
ρ
têm alto poder de explicação da variável k
para a análise das variáveis geradas por família. Ainda assim, as variáveis
analisadas por classificação ABC explicam moderadamente o modelo. Isto
pode ser entendido por haver maior proximidade do padrão de vendas de
determinado SKU dentro de sua família de produtos do que em produtos de
diferentes famílias, mas com volume de vendas similar. O valor F também
mostra que o modelo é preciso para predizer os valores de
k . Ou seja, além do
crítico k , obtido diretamente com os valores de
f
e
ρ
, é possível que se
obtenham também os valores de
k
, através dos valores f e
ρ
. Assim, a
55
melhor abordagem pode ser definida sem que sejam testadas repetidamente
ambas para todos os SKUs.
4.6 Teste com regressão logística
A regressão logística é um modelo que deve ser escolhido quando a
variável dependente possui apenas dois grupos, segundo Hair et al. (1998). É
ainda uma ferramenta estatística muito utilizada por pesquisadores, por ser
similar à regressão linear.
O teste utilizando a regressão logística teve como objetivo responder à
principal pergunta do estudo:
1. O modelo demonstrado por Wanke e Saliby (2007) responde
satisfatoriamente quando testado frente a séries de vendas
artificiais reamostradas a partir de uma série real?
O teste do modelo utilizando a regressão logística se deu utilizando a
regressão logística binomial, na qual as variáveis independentes continuam
sendo
f e
ρ
. A variável dependente foi definida para o valor de zero ou um,
baseado no modelo de Wanke e Saliby (2007), ou seja, para os valores de
k
que se encontraram entre zero e um, a abordagem top-down foi definida como
“viável”, caso contrário, foi definida como “inviável”. Esta parametrização,
sugerida pelos autores, se dá em função de ser um evento raro encontrar um
56
SKU com variância das vendas superior à variância das vendas dos demais
itens agregados.
Todos os valores de
f e
ρ
foram modelados para os respectivos valores
binários de zero e um, com 10.000 iterações no processo de regressão
logística. Para a realização da regressão logística, foi utilizada a ferramenta
XLSTAT 2008, um suplemento que roda em MS Excel 2007.
Da série analisada, 99,8% dos valores retornaram valores de
k entre
zero e um. Conforme Hair et al. (1998) apresentam, a partir de 0,50 o modelo
tem boa capacidade de predição. Ou seja, conclui-se que o modelo é viável e
possui uma boa capacidade preditiva. Já o R² de Nagelkerke retornou 0,786 e
pode ser considerado significativo, uma vez que, de acordo com Hair et al.
(1998), este valor pode ser analisado de maneira similar a um modelo de
regressão linear, isto é, o valor encontrado demonstra que as variáveis
dependentes são altamente correlacionadas às variáveis independentes. Estes
pontos corroboram o modelo como viável, do mesmo modo que definido por
Wanke (2006). Assim, mesmo que testado em séries reais de vendas
reamostradas o modelo de Wanke e Saliby (2007) pode ser apontado como
satisfatório para responder de antemão a melhor abordagem a ser utilizada
com o amortecimento exponencial simples.
Tabela 4.30 – Parâmetros do modelo (variável viável)
Fonte Valor Erro padrão Qui-quadrado de Wald Pr > Qui² Wald Limite inf. (95%) Wald Limite sup. (95%)
Intercepto 12,485 4,079 9,368 0,002 4,490 20,479
f -21,704 6,361 11,640 0,001 -34,172 -9,236
ρ -6,082 6,198 0,963 0,326 -18,230 6,066
57
Este modelo fica de acordo com o ilustrado por Gordon, Morris e
Dangerfield (1997) e Kahn (1998), em que a ocorrência de um menor
ρ
significa que a abordagem top-down é preferencial para o caso. E conforme
apresentado em Wanke (2006), os sinais negativos de
f e
ρ
apontam que
quanto menor a participação do SKU na série agregada de vendas e quanto
menor a correlação, mais provável é que a abordagem top-down minimize o
erro de previsão.
Na tabela abaixo são mostrados os coeficientes
f e
ρ
padronizados.
Tabela 4.31 – Coeficientes padronizados (variável viável)
Fonte Valor Erro padrão Qui-quadrado de Wald Pr > Qui²
f -0,509 0,149 11,640 0,001
ρ -0,696 0,710 0,963 0,326
Quando o valor padronizado de uma variável é próximo a zero, denota
que a variável não possui um peso significativo no modelo. Para o modelo
analisado, percebe-se que ambos os valores são importantes. Por fim, a
representação gráfica abaixo mostra os valores padronizados e os respectivos
intervalos de confiança a 95%.
58
Gráfico 4.6 – Coeficientes padronizados
f;‐0,509
ρ;‐0,696
2,5
2
1,5
1
0,5
0
0,5
1
Coeficientes padronizados
Variável
Viável / Coeficientes padronizados
(Int. de conf. 95%)
4.7 Capacidade preditiva do modelo
Os resultados obtidos nesta pesquisa corroboram a pesquisa feita por
Wanke e Saliby (2007), com uma série aleatória de dados. Naquela, os autores
acharam resultados similares aos encontrados por esta pesquisa e que
reforçam a capacidade preditiva do modelo do
crítico k .
Para este estudo, a abordagem top-down foi preferível à abordagem
bottom-up, em conformidade ao apontado por Gordon, Morris e Dangerfield
(1997) e Kahn (1998), já que para menores valores de
f e
ρ
, a melhor opção
é a abordagem top-down. No estudo de Wanke e Saliby (2007), os autores
também identificam que menores valores de
f
e
ρ
têm maiores chances de
retornar a abordagem top-down como preferencial.
59
Outro ponto que reforça os resultados obtidos no estudo é o efeito
portfólio, que, segundo Wanke (2006), é explicado pela pequena participação
no percentual das vendas aliada à correlação negativa com os demais itens
agregados.
Para corroborar na prática a real medida do modelo, foi testada a
condição em que o modelo do
crítico k retornava a melhor abordagem
baseada nas variáveis independentes
f
e
ρ
. Foi, então, medida para cada
previsão realizada, a comparação entre o erro da abordagem top-down
(baseada na previsão da família e da classificação ABC) e da abordagem
bottom-up. Com esta informação, sabia-se qual de fato era a melhor
abordagem para determinado SKU. Comparou-se, então, com a abordagem
sugerida do modelo do
crítico k . A tabela abaixo resume os resultados:
Tabela 4.32 – Resumo do acerto do crítico k
100 500 1.000
Família 76,16% 81,82% 80,99%
ABC 74,83% 79,92% 82,02%
Ou seja, para estes percentuais que oscilam em cerca de 80% dos SKUs
analisados, a abordagem indicada pelo modelo do
crítico k retorna a melhor
abordagem real do SKU. Isto indica que para casos em que o teste seja muito
custoso e a adequação do modelo leve algum tempo, o modelo do
crítico k
tem
uma confiabilidade satisfatória para responder à escolha da abordagem. Assim,
o previsor não precisaria fazer testes com ambas as abordagens para defini-la.
Bastaria medir o
f
e
ρ
do SKU e aplicar o modelo.
60
Além disso, o modelo, por já proporcionar a medição dos valores de
f e
ρ
, pode ser também utilizado para que se tente apurar valores do erro que
possivelmente venha a ocorrer com certa confiabilidade. Isto faria com que os
ajustes no modelo fossem feitos ao longo do processo e este erro fosse
reduzido.
Percebe-se, então, que a aplicação do modelo do
crítico k
pelas empresas,
sendo utilizado o amortecimento exponencial simples para preparar suas
previsões de vendas, pode trazer diversos benefícios e bastaria a aplicação
das características da série histórica de vendas da empresa. Assim, um modelo
de fácil utilização poderia resolver diversos problemas concernentes ao
processo de previsão de uma organização.
4.8 Características de séries que não se adequam ao modelo
As famílias e classes que não se adequaram ao modelo foram as que
apresentaram erro absoluto médio próximo a zero. Isto porque as séries
oscilaram ao redor de zero, sem muito padrão e assim, não eram
correlacionadas às características de participação nas vendas totais e às
vendas de um produto com as vendas agregadas dos demais. Portanto, a
minimização do erro de previsão é buscada, mas deve-se tomar cuidado com o
comportamento da série consolidada analisada. Se o erro de previsão do grupo
for, em média, próximo a zero, o modelo deve ser reconsiderado e alguns
testes adicionais são necessários para que se teste sua aplicabilidade.
61
5. Discussão
Os resultados obtidos neste estudo envolvem um modelo para responder
previamente que abordagem de previsão de vendas deve ser escolhida quando
da utilização de amortecimento exponencial simples. Este modelo já havia sido
analisado anteriormente em Wanke e Saliby (2007), com um teste que utilizou
valores aleatoriamente gerados. No entanto, a aplicabilidade do modelo em
séries reais de vendas ainda não havia sido testada. Portanto, esta seção
discutirá, primeiramente, os resultados com antecedentes na literatura
apresentada, para, em seguida, tratar dos novos resultados obtidos.
O primeiro ponto que deve ser observado é quanto ao índice de acerto do
modelo Wanke e Saliby (2007). De acordo com a tabela 4.30, comparando os
erros MAPE apurados nas abordagens top-down e bottom-up (para
identificação da que retorna o menor MAPE) e as abordagens que foram
apontadas pelo modelo Wanke e Saliby (2007), verifica-se que o acerto do
modelo para as séries de vendas de uma empresa de lubrificantes automotivos
girou em torno de 80%.
Neste sentido, o modelo traz claramente um ganho em relação à escolha
da abordagem pelo método de comparação um a um. Ou seja, ele evita o
método de tentativa e erro para que a melhor abordagem seja definida.
Conforme foi apresentado por Gelly (1999), o desenho do processo de previsão
precisa ser muito bem definido antes de sua implantação, para evitar, segundo
o autor, uma mudança posterior no processo. Mudança esta que seria de difícil
implantação, consumiria um tempo significativo e teria um alto custo. Além
62
disso, necessitaria tanto de ajustes em softwares quanto de ajustes na
estrutura organizacional.
Como teste do modelo em si, optou-se por análises semelhantes às
realizadas por Wanke e Saliby (2007). Primeiramente, foram feitas análises de
regressões lineares para testar a correlação entre as características das séries
e os erros gerados a partir das previsões. As tabelas 4.19, 4.20, 4.21, 4.22,
4.23 e 4.24 mostram que o modelo foi estatisticamente significativo no nível de
0,05 para as variáveis independentes
f
e
ρ
que o compõem. Ou seja, a partir
das variáveis independentes, pode-se estimar o erro médio de determinada
série. Esta informação é extremamente útil para que ações gerenciais sejam
tomadas para redução do erro. Obviamente, a partir de ações que modifiquem
o perfil de determinada série, o modelo precisa ser reconsiderado para
corroborar a abordagem anteriormente definida.
As tabelas 4.25, 4.26 e 4.27 mostram que a razão das variâncias de uma
série de determinado SKU sobre a série agregada dos demais SKUs (variável
k ) possui relação com as variáveis independentes
f
e
ρ
. Isto reafirma o
apresentado no modelo, uma vez que a variável
k pode ser estatisticamente
explicada pelas variáveis independentes, no nível de significância de 0,05, e o
valor de
crítico k
é diretamente calculado de
f
e
ρ
. Assim, reforça-se o
apresentado em Wanke e Saliby (2007), de que a variável
k
pode ser utilizada
para a comparação com o
crítico k para, então, responder qual a melhor
abordagem.
As tabelas 4.28 e 4.29 resumem a análise da variável dependente binária
definida para o estudo. Percebe-se que o modelo testado com as séries reais
63
de dados reforça o que havia sido anteriormente apurado em Wanke (2006),
com a geração aleatória de dados. Do processo de 10.000 iterações, mais de
99% dos valores de
k ficaram entre zero e um, o que define o modelo como
“viável”. Além disso, as séries em geral tinham um comportamento que
favoreceu a abordagem top-down, o que é corroborado por Wanke e Saliby
(2007), Gordon, Morris e Dangerfield (1997) e Kahn (1998).
Como implicações práticas da utilização do modelo Wanke e Saliby (2007),
há uma menor necessidade de capacidade computacional de processamento,
pois ao evitar o método de tentativa e erro, o modelo proporciona que o esforço
de cálculo seja feito para uma única abordagem. Pode, ainda, facilitar o
desenho, a modelagem e a busca prévia por um software.
Portanto, para as condições de menor participação nas vendas totais e
menor correlação das vendas de um produto com as vendas agregadas dos
demais, a abordagem top-down mostra-se preferível, conforme também
demonstrado em Wanke (2008). No entanto, esta conclusão se contrapõe ao
citado por Lapide (1998), de que à questão da escolha da melhor abordagem
seria simples, ao se iniciar com uma abordagem bottom-up e passar a uma
abordagem top-down.
Assim, para a maior parte dos SKUs das séries reais apuradas a
abordagem top-down foi preferível, por atender estas condições. Estas
condições favorecem na maior parte, nas séries de dados analisadas, a
abordagem top-down.
64
Outra grande vantagem do modelo é o fim do conflito entre as áreas na
escolha de uma ou de outra abordagem que favoreça determinado número. A
escolha da abordagem passaria a ser feita sem influências subjetivas.
A restrição ao modelo é devido ao fato de que foi possível perceber,
através das séries reais analisadas, que, em casos onde o erro médio oscila
próximo a zero, este não é muito bem explicado pelas características da série
(
f
e
ρ
). Ou seja, o modelo é o ideal para que se reduza o patamar de erro
através da escolha da abordagem, mas ao se aproximar de zero, ele pode
deixar de ter a precisão necessária. Isto não deve ser um grande problema,
porque dificilmente uma classe ou família consegue manter-se com este erro
durante um tempo significativo, sem lançamentos ou descontinuações, que
sempre trazem complexidade e tendem a aumentar o erro das previsões.
65
6. Conclusões
Este estudo teve por objetivo responder se é possível, através da
aplicação de um modelo teórico, definir de antemão a melhor abordagem a ser
utilizada em previsão de vendas. Para que este objetivo fosse atendido,
formularam-se, então, duas perguntas para o estudo:
1. O modelo demonstrado por Wanke e Saliby (2007) responde
satisfatoriamente quando testado frente a séries de vendas
artificiais reamostradas a partir de uma série real?
2. Os erros (média e variância) das previsões geradas sobre as séries
de vendas artificialmente criadas são influenciados pelas
características que as compõem (
f e
ρ
)?
A partir das definições do estudo, foi realizada uma revisão de literatura,
de modo que se cobrissem os temas anteriormente estudados e fossem
esclarecidos os principais pontos que a pesquisa poderia explorar.
Assim, os resultados das análises auxiliaram nas respostas às perguntas
da pesquisa. Quanto à primeira, o modelo respondeu sim, satisfatoriamente,
com as séries reamostradas a partir de uma série de dados original. Através da
análise utilizando a regressão logística, os achados em Wanke e Saliby (2007)
são corroborados, pois a maior parte das séries analisadas retornou top-down
como melhor abordagem de previsão e através da análise somente dos valores
de
k frente aos valores de f e
ρ
esta também foi apontada a melhor
abordagem. Esta visão é compartilhada com Gordon, Morris e Dangerfield
(1997) e Kahn (1998), que apontam que valores de
ρ
negativos suportam a
escolha da abordagem top-down.
66
Para a segunda pergunta, as demais análises feitas sobre as séries de
vendas geradas artificialmente respondem que os erros e as variâncias dos
mesmos são influenciados sim pelas variáveis
f e
ρ
. Para praticamente a
totalidade das classes e famílias, as respostas do erro e das variâncias
demonstraram a força da relação com as variáveis. Apenas para séries
agregadas, cujo valor médio do erro seja próximo a zero, é que as variáveis
não devem ser utilizadas para prever o erro.
Por fim, a escolha da abordagem de previsão de vendas é um dos
pontos mais nevrálgicos de um processo de previsão. Muito utilizado, o
amortecimento exponencial simples é um procedimento largamente difundido,
mas, ao se optar por este procedimento, depara-se com a questão da escolha
da abordagem. Frente a uma série de vendas, o previsor enfrenta um problema
que pode consumir tempo de processamento e de adequação do modelo e,
principalmente, custos elevados, em função de mau dimensionamento de
estoques. Ou seja, os estoques podem não ser suficientes para atender à
demanda ou podem ser super-dimensionados, gerando problemas financeiros
e operacionais. Desta forma, sugere-se que o modelo do
crítico k , apresentado
por Wanke e Saliby (2007), seja utilizado para que se defina, a priori, qual
abordagem deve ser utilizada.
Com relações às limitações do método, a base de dados amostral inicial
foi obtida por conveniência, devido a fácil disponibilidade de acesso do
pesquisador a esta. Não é possível afirmar que esta amostra tenha
características similares a outras indústrias para que sejam feitas
generalizações.
67
Cabe ponderar que a série tratada foi reamostrada e gerou séries de
vendas artificiais, com periodicidades maiores, mas que estes dados não eram
empíricos. Ou seja, por mais que a técnica de reamostragem aproxime os
valores gerados da série real, não é possível afirmar que a série real exibiria as
mesmas características.
Outra limitação é que a utilização da previsão de vendas baseada no
método de amortecimento exponencial simples pode não se traduzir na prática
adotada em determinada empresa ou, ainda, como padrão de determinada
indústria. E a validação do modelo Wanke e Saliby (2007) se dá frente ao
emprego de séries com amortecimento exponencial simples sem tratamento.
Finalmente, como sugestões para futuros trabalhos ficam (1) o teste do
modelo para outras indústrias, mas que possuam séries de vendas que
favoreçam o uso do amortecimento exponencial simples; (2) a utilização de
uma série real de longo período com dados empíricos coletados, ao invés de
dados reamostrados artificialmente; e (3) o impacto nos custos de estoque,
dada a escolha antecipada da abordagem de previsão.
68
7. Referências
BRITO, V.; CAMPOS, A; LEONARDO, B. Ténicas quantitativas de previsão
de demanda. In: WANKE, P.; JULIANELLI, L. (Org.). Previsão de vendas:
processos organizacionais e métodos quantitativos e qualitativos. São Paulo:
Atlas, 2006. Cap.4, p. 66-99.
CHERNICK, Michael R. Bootstrap methods: a practioner’s guide. New York:
Wiley, 1999.
ECR BRASIL. Por falhas na previsão, supermercados perdem até 50% das
vendas. ECR Notícias. Disponível em:
<http://www.ecrbrasil.com.br/ecrbrasil/page/noticias_detalhe.asp?id=21
>.
Acesso em: 24 ago. 2008.
FERREIRA, Leonardo Julianelli. Comparação entre as abordagens top-down
e bottom-up para previsão de vendas. In: WANKE, P.; JULIANELLI, L.
(Org.). Previsão de vendas: processos organizacionais e métodos quantitativos
e qualitativos. São Paulo: Atlas, 2006. Cap.6, p. 154-166.
GELLY, Paul. Managing bottom-up and top-down approaching: ocean spray's
experience. The Journal of Business Forecasting Methods & Systems, v.
18, n. 4, p. 3-6, winter 1999/2000.
GIJBELS, I.; POPE, A.; WAND, M.P. Understanding exponential smoothing via
kernel regression. Journal of the Royal Statistical Society: Series B
(Statistical Methodology). v. 61, n. 1, p. 39-50, 1999.
GORDON, T.P.; MORRIS, J.S.; DANGERFIELD B.J. Top-down or bottom-up:
which is the best approach to forecasting? The Journal of Business
Forecasting Methods & Systems, v. 16, n. 3, p. 13-16, fall 1997.
HAIR, J.F et al. Multivariate Data Analysis. 5 ed. New Jersey: Prentice-Hall,
1998.
HESTERBERG et al. Bootstrap methods and permutation tests. In: MOORE,
D.S.; McCABE, G.P. Introduction to the practice of statistics. 5.ed.
Freeman, 2002.
69
JAIN, Chaman L. How to determine the approach to forecasting. The Journal
of Business Forecasting Methods & Systems, v. 14, n. 2, p. 2-28, summer
1995.
KAHN, Kenneth B. Revisiting top-down versus bottom-up forecasting. The
Journal of Business Forecasting Methods & Systems, v. 17, n. 2, p. 14-19,
summer 1998.
LAPIDE, Larry. New developments in business forecasting. The Journal of
Business Forecasting Methods & Systems, v. 17, n. 2, p. 28-29, summer
1998.
______. Top-down and bottom-up forecasting in S&OP. The Journal of
Business Forecasting, v.25, n. 2, p. 14-16, summer 2006.
MAKRIDAKIS, Spyros. Forecasting: its role and value for planning and strategy.
International Journal of Forecasting, v.12, n.4, p. 513-537, dez. 1996.
POLITIS, D.M.; ROMANO, J.P. The stationary bootstrap. Journal of the
American Statistical Association, v.89, n. 428, p. 1303-1313, dez. 1994.
REESTRUTURAÇÃO. Much more than feelings. Revista Tecnologística. v. 9,
n. 100, mar. 2004.
SILVER, E. A.; PETERSON, R. Decisions systems for inventory
management and production planning. 2.ed. New York: Wiley, 1985.
SCHWARZKOPF, A.B.; TERSINE, R.J.; MORRIS, J.S. Top-down versus
bottom-up forecasting strategies. International Journal of Production
Research. v. 26, n. 11, p. 1833-1843, 1988.
TABACHNICK, B.G.; FIDELL, L.S. Using multivariate statistics. 2ed. New
York: HarperCollins, 1989.
VIEIRA, D.R.; NETO, M.L. Previsão de vendas na cadeia de suprimentos.
Revista Tecnologística. v. 11, n. 124, mar. 2006.
WANKE, Peter. Impactos das abordagens top-down e bottom-up na
variância do erro de previsão com amortecimento exponencial simples. In:
WANKE, P.; JULIANELLI, L. (Org.). Previsão de vendas: processos
organizacionais e métodos quantitativos e qualitativos. São Paulo: Atlas, 2006.
Cap.7, p. 167-185.
70
______. Previsão top-down ou bottom-up? Impacto nos níveis de erro e de
estoque de segurança. Gestão & Produção. v. 15, n. 2, maio-ago, 2008.
WANKE, Peter; SALIBY, Eduardo. Top-down or bottom-up forecasting?
Pesquisa Operacional. v. 27, n.3, p.591-605, set/dez 2007.
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo