Download PDF
ads:
UNIVERSIDADE FEDERAL DE ITAJUBÁ
Celso Francisco de Moraes
ESTUDO DA UTILIZAÇÃO DO GRÁFICO DE
CONTROLE INDIVIDUAL E DO ÍNDICE DE
CAPABILIDADE SIGMA PARA DADOS NÃO
NORMAIS
Dissertação submetida ao Programa de Pós-Graduação em
Engenharia de Produção como requisito parcial à obtenção
do título de Mestre em Engenharia de Produção
Orientador: Prof. João Roberto Ferreira, Dr.
Co-Orientador: Anderson Paulo de Paiva, MSc.
Itajubá
Abril de 2006
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
UNIVERSIDADE FEDERAL DE ITAJUBÁ
Celso Francisco de Moraes
ESTUDO DA UTILIZAÇÃO DO GRÁFICO DE
CONTROLE INDIVIDUAL E DO ÍNDICE DE
CAPABILIDADE SIGMA PARA DADOS NÃO
NORMAIS
Dissertação aprovada por banca examinadora em 26 de abril de 2006,
conferindo ao autor o título de Mestre em Engenharia de Produção
Banca Examinadora:
Prof. Messias Borges Silva, Dr.
Prof. João Batista Turrioni, Dr.
Anderson Paulo de Paiva, MSc. (Co-Orientador)
Prof. João Roberto Ferreira, Dr. (Orientador)
Itajubá
Abril de 2006
ads:
Tópicos Preliminares iii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
.
Dedico este trabalho às minhas filhas Amanda e Renata.
Tópicos Preliminares iv
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
AGRADECIMENTOS
Primeiramente agradeço a Deus pelo privilégio de possuir a saúde, a motivação e os
recursos materiais necessários para a continuidade desta importante caminhada educativa. À
minha família, Patrícia, Amanda e Renata, pela base emocional, convívio afetivo e
compreensão, fundamentais para consecução de qualquer desafio.
Particular agradecimento aos orientadores acadêmicos, Prof. Dr. João Roberto
Ferreira, pela supervisão das atividades relativas à elaboração da dissertação; ao MSc.
Anderson Paulo de Paiva pelas críticas e sugestões apresentadas, determinantes para o
direcionamento do trabalho; e ao Prof. Dr. Pedro Paulo Balestrassi, pela assistência na
definição do projeto de pesquisa.
Ao diretor do Instituto de Engenharia de Produção e Gestão da UNIFEI Prof. PhD.
Luiz Gonzaga Mariano de Souza, ao coordenador do Programa de Pós-Graduação em
Engenharia de Produção Prof. Dr. Carlos Eduardo Sanches da Silva e aos demais docentes do
curso, em especial ao Prof. Dr. Carlos Henrique Pereira Mello, ao Prof. Dr. João Batista
Turrioni e ao Prof. Dr. Renato da Silva Lima, que também contribuíram através de orientação
e avaliação dos artigos produzidos a partir do desenvolvimento do tema em questão durante
os seminários de dissertação.
Também devo considerações aos funcionários da secretaria, biblioteca, administração,
manutenção e demais setores do campus pela importante colaboração direta ou indireta. Aos
mestrandos do Programa de Pós-Graduação em Engenharia de Produção da UNIFEI, em
especial aos matriculados a partir de 2004, que dividiram comigo suas experiências pessoais,
profissionais e estudantis. Ao colega Juliano Dias Calderaro pela troca de informações e
fornecimento dos dados reais utilizados na pesquisa.
Sou grato aos meus amigos e aos colegas de trabalho pelo apoio e incentivo
demonstrados, destacadamente Celso Pereira Cobra e Ediraldo Bernardi Carvalho, que
aprovaram e avalizaram esta empreitada acadêmica.
Especial e sincero agradecimento à Laura Maria Anselmo Rodrigues e Raquel
Aparecida Anselmo pelo maior presente que se pode receber em toda uma vida: o acesso à
educação.
Tópicos Preliminares v
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
.
“Suponho que todas as coisas que podem ser abrangidas pelo conhecimento humano estão
interligadas, como na Matemática”.
René Descartes (1596-1650)
Tópicos Preliminares vi
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
SUMÁRIO
Dedicatória.................................................................................................................................iii
Agradecimentos.........................................................................................................................iv
Epígrafe ......................................................................................................................................v
Sumário......................................................................................................................................vi
Lista de Figuras .......................................................................................................................viii
Lista de Tabelas........................................................................................................................xii
Lista de Quadros......................................................................................................................xiii
Lista de Abreviaturas e Siglas .................................................................................................xiv
Lista de Símbolos .....................................................................................................................xv
Resumo...................................................................................................................................xvii
Abstract..................................................................................................................................xviii
1. INTRODUÇÃO....................................................................................................................1
1.1. Considerações Iniciais ..............................................................................................1
1.2. Descrição do Problema.............................................................................................3
1.3. Objetivos................................................................................................................... 4
1.4. Metodologia Adotada ...............................................................................................5
1.5. Estrutura do Trabalho ...............................................................................................7
2. FUNDAMENTAÇÃO TEÓRICA .......................................................................................9
2.1. Visão Conceitual da Qualidade ................................................................................ 9
2.2. Métodos Estatísticos Aplicados à Qualidade ......................................................... 12
2.3. Análise e Tratamento de Dados.............................................................................. 14
2.3.1. Aspectos Gerais ......................................................................................................14
2.3.2. Distribuição de Freqüências ................................................................................... 16
2.3.3. A Distribuição Normal ...........................................................................................19
2.4. Controle Estatístico de Processo ............................................................................ 22
2.4.1. Definição e Conceitos Básicos ...............................................................................22
2.4.2. Características Gerais .............................................................................................24
2.4.3. Gráficos de Controle............................................................................................... 26
2.4.4. Índices de Capabilidade..........................................................................................33
2.5. Metodologia Seis Sigma.........................................................................................38
2.5.1. Definição e Conceitos Básicos ...............................................................................38
2.5.2. Origens da Metodologia Seis Sigma ...................................................................... 39
2.5.3. Características Gerais .............................................................................................40
2.5.4. Determinação do Nível Sigma................................................................................ 43
3. ESTUDO DA NÃO NORMALIDADE ............................................................................. 48
3.1. Análise de Normalidade .........................................................................................48
3.2. Efeitos da Não Normalidade .................................................................................. 50
3.3. Não Normalidade, Gráficos de Controle e Capabilidade ....................................... 53
3.4. Transformação de Dados........................................................................................55
3.4.1. Aspectos Gerais ......................................................................................................55
3.4.2. Transformação de Box-Cox.................................................................................... 56
3.4.3. Transformação de Johnson .....................................................................................62
Tópicos Preliminares vii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4. APLICAÇÃO DA METODOLOGIA................................................................................64
4.1. Considerações Gerais .............................................................................................64
4.1.1. Aspectos Metodológicos ........................................................................................ 64
4.1.2. Caracterização dos Cenários da Pesquisa............................................................... 65
4.2. Investigação Experimental Através de Simulação de Dados ................................. 68
4.2.1. Análise de Dados Modelados pela Distribuição Gamma ....................................... 68
4.2.2. Transformação de Dados Modelados pela Distribuição Gamma ........................... 70
4.2.3. Gráficos de Controle Individuais – Distribuição Gamma ...................................... 75
4.2.4. Avaliação de Capabilidade – Distribuição Gamma................................................ 79
4.2.5. Análise de Dados Modelados pela Distribuição Beta ............................................84
4.2.6. Transformação de Dados Modelados pela Distribuição Beta ................................86
4.2.7. Gráficos de Controle Individuais – Distribuição Beta ........................................... 88
4.2.8. Avaliação de Capabilidade – Distribuição Beta..................................................... 91
4.3. Pesquisa Exploratória Através de Estudo de Caso .................................................94
4.3.1. Análise de Dados Reais – Furos 3/4” .....................................................................94
4.3.2. Transformação de Dados Reais – Furos 3/4” .........................................................99
4.3.3. Cálculo de Capabilidade de Dados Reais – Furos 3/4”........................................103
4.3.4. Análise de Dados Reais – Furos 5/8” ...................................................................108
4.3.5. Transformação de Dados Reais – Furos 5/8” .......................................................111
4.3.6. Cálculo de Capabilidade de Dados Reais – Furos 5/8”........................................116
5. DISCUSSÃO DOS RESULTADOS................................................................................122
5.1. Análise de Resultados na Investigação Experimental ..........................................122
5.1.1. Análise dos Gráficos de Controle – Distribuição Gamma ...................................122
5.1.2. Análise dos Gráficos de Controle – Distribuição Beta......................................... 123
5.1.3. Considerações sobre Normalidade e Gráficos de Controle na Simulação ........... 124
5.1.4. Análise do Cálculo de Capabilidade – Distribuição Gamma ............................... 125
5.1.5. Análise do Cálculo de Capabilidade – Distribuição Beta..................................... 126
5.1.6. Considerações sobre Normalidade e Capabilidade na Simulão........................127
5.2. Análise de Resultados na Pesquisa Exploratória..................................................128
5.2.1. Análise do Cálculo de Capabilidade – Dados Reais “3/4AE”.............................. 128
5.2.2. Análise do Cálculo de Capabilidade – Dados Reais “3/4AD” ............................. 129
5.2.3. Análise do Cálculo de Capabilidade – Dados Reais “5/8TE”.............................. 130
5.2.4. Análise do Cálculo de Capabilidade – Dados Reais “5/8TD”.............................. 130
5.2.5. Considerações sobre Normalidade e Capabilidade no Estudo de Caso................ 131
6. CONCLUSÃO..................................................................................................................133
6.1. Conclusão do Trabalho.........................................................................................133
6.2. Considerações Finais e Recomendações .............................................................. 134
APÊNDICE A – Dados Simulados – Distribuição Gamma................................................... 137
APÊNDICE B – Dados Simulados – Distribuição Beta......................................................... 138
APÊNDICE CDados Reais – Furos 3/4”............................................................................ 139
APÊNDICE D – Dados Reais – Furos 5/8” ........................................................................... 140
REFERÊNCIAS BIBLIOGRÁFICAS ...................................................................................141
BIBLIOGRAFIA COMPLEMENTAR CONSULTADA...................................................... 148
ANEXO ATabela das Áreas sob a Curva Normal Padronizada......................................... 151
ANEXO BFatores para Construção de Gráficos de Controle ............................................153
ANEXO C Tabela de Referência entre Índice Sigma e PPM.............................................. 154
ANEXO D Publicação XII SIMPEP – Bauru, SP, Brasil, Novembro de 2005 .................. 155
Tópicos Preliminares viii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
LISTA DE FIGURAS
Figura 1.1 – Distribuições diferentes com mesma localização e dispersão................................ 3
Figura 2.1 – Representação de um processo produtivo............................................................ 12
Figura 2.2 – Diagrama de utilização dos métodos para garantia da qualidade ........................14
Figura 2.3 – Exemplo de um diagrama de caixa (Box Plot) ....................................................15
Figura 2.4 – Exemplo de uma distribuição de freqüências com histograma............................ 17
Figura 2.5 – Principais aspectos da curva correspondente à distribuição Normal ................... 19
Figura 2.6 – Curva normal reduzida ou padronizada ............................................................... 20
Figura 2.7 – Estratégia para melhorias em Controle Estatístico de Processo........................... 26
Figura 2.8 – Exemplo típico de um gráfico de controle ...........................................................27
Figura 2.9 – Fluxograma para escolha do tipo de gráfico de controle ..................................... 33
Figura 2.10 – Exemplo de avaliação de capabilidade de um processo com histograma.......... 34
Figura 2.11 – A curva normal e os limites de especificação .................................................... 40
Figura 2.12 – Deslocamento da média do processo em 1,5 sigma........................................... 41
Figura 2.13 – Esquema simplificado para cálculo do nível sigma ........................................... 45
Figura 2.14 – Fluxograma geral para determinação do índice de capacidade seis sigma ........ 47
Figura 3.1 – Limites de controle em termos de percentis para distribuições não normais....... 53
Figura 3.2 – Exemplo de análise de dados não normais........................................................... 59
Figura 3.3 – Exemplo de um gráfico relativo à transformação de Box-Cox............................ 60
Figura 3.4 – Exemplo de análise dos dados após transformação de Box-Cox......................... 61
Figura 3.5 – Exemplo de um gráfico relativo à transformação de Johnson ............................. 63
Figura 4.1 – Fluxograma das atividades da pesquisa experimental .........................................66
Figura 4.2 – Fluxograma das atividades da pesquisa exploratória........................................... 67
Figura 4.3 – Análise dos dados para “Gamma 220”................................................................. 69
Figura 4.4 – Análise dos dados para “Gamma 220” sem outliers............................................ 69
Figura 4.5 – Avaliação melhor distribuição aplicável aos dados “Gamma 220” sem outliers 70
Figura 4.6 – Transformação de Box-Cox para os dados em “Gamma 220” ............................ 71
Figura 4.7 – Análise dos dados transformados por Box-Cox em “Gamma 220”..................... 71
Figura 4.8 – Transformação de Box-Cox para os dados em “Gamma 220” sem outliers .......72
Figura 4.9 – Análise dos dados transformados por Box-Cox em “Gamma 220” sem outliers 72
Figura 4.10 – Transformação de Johnson para os dados em “Gamma 220”............................ 73
Figura 4.11 – Análise dos dados transformados por Johnson em “Gamma 220” ....................73
Figura 4.12 – Transformação de Johnson para os dados em “Gamma 220” sem outliers ....... 74
Tópicos Preliminares ix
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.13 – Análise dos dados transformados (Johnson) em “Gamma 220” sem outliers ...74
Figura 4.14 – Gráfico de controle para “Gamma 220” considerando distribuição Normal ..... 75
Figura 4.15 – Gráfico de controle “Gamma 220” sem outliers assumindo normalidade......... 76
Figura 4.16 – Gráfico de controle “Gamma 220” com limites de controle em percentis ........76
Figura 4.17 – Gráfico de controle “Gamma 220” sem outliers com limites em percentis.......77
Figura 4.18 – Gráfico de controle para “Gamma 220” após transformação de Box-Cox........ 77
Figura 4.19 – Gráfico de controle para “Gamma 220” sem outliers após Box-Cox................78
Figura 4.20 – Gráfico de controle para “Gamma 220” após transformação de Johnson ......... 78
Figura 4.21 – Gráfico de controle para “Gamma 220” sem outliers após Johnson ................. 79
Figura 4.22 – Índices de capabilidade para “Gamma 220” considerando distribuição Normal80
Figura 4.23 – Índices de capabilidade “Gamma 220” sem outliers assumindo normalidade .. 80
Figura 4.24 – Índices de capabilidade de “Gamma 220” considerando distribuição Gamma . 81
Figura 4.25 – Índices de capabilidade de “Gamma 220” sem outliers (distribuição Weibull) 81
Figura 4.26 – Índices de capabilidade de “Gamma 220” após transformação de Box-Cox.....82
Figura 4.27 – Índices de capabilidade de “Gamma 220” sem outliers após Box-Cox............. 82
Figura 4.28 – Índices de capabilidade de “Gamma 220” após transformação de Johnson......83
Figura 4.29 – Índices de capabilidade de “Gamma 220” sem outliers após Johnson .............. 83
Figura 4.30 – Análise dos dados para “Beta 2550”.................................................................. 85
Figura 4.31 – Análise dos dados para “Beta 2550” sem outliers ............................................. 85
Figura 4.32 – Transformação de Box-Cox para os dados em “Beta 2550”.............................. 86
Figura 4.33 – Análise dos dados transformados por Box-Cox em “Beta 2550”......................86
Figura 4.34 – Transformação de Johnson para os dados em “Beta 2550” ............................... 87
Figura 4.35 – Análise dos dados transformados por Johnson em “Beta 2550”........................ 87
Figura 4.36 – Gráfico de controle para “Beta 2550” considerando distribuição Normal ........88
Figura 4.37 – Gráfico de controle “Beta 2550” sem outliers assumindo distribuição Normal 89
Figura 4.38 – Gráfico de controle “Beta 2550” com limites de controle em percentis............89
Figura 4.39 – Gráfico de controle para “Beta 2550” após transformação de Box-Cox ........... 90
Figura 4.40 – Gráfico de controle para “Beta 2550” após transformação de Johnson............. 90
Figura 4.41 – Índices de capabilidade de “Beta 2550” considerando distribuição Normal ..... 91
Figura 4.42 – Índices de capabilidade de “Beta 2550” sem outliers assumindo normalidade. 92
Figura 4.43 – Índices de capabilidade de “Beta 2550” considerando distribuição Weibull ....92
Figura 4.44 – Índices de capabilidade de “Beta 2550” após transformação de Box-Cox........ 93
Figura 4.45 – Índices de capabilidade de “Beta 2550” após transformação de Johnson ......... 93
Figura 4.46 – Análise do conjunto de dados originais “3/4AE” ..............................................95
Figura 4.47 – Análise do conjunto de dados “3/4AE” sem outliers......................................... 95
Tópicos Preliminares x
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.48 – Avaliação da melhor distribuição aplicável ao conjunto de dados “3/4AE” ..... 96
Figura 4.49 – Análise do conjunto de dados originais “3/4AD”.............................................. 97
Figura 4.50 – Análise do conjunto de dados “3/4AD” sem outliers ........................................ 97
Figura 4.51 – Avaliação da melhor distribuição aplicável ao conjunto de dados “3/4AD”..... 98
Figura 4.52 – Avaliação distribuição aplicável ao conjunto de dados “3/4AD” sem outliers . 98
Figura 4.53 – Transformação de Box-Cox para o conjunto de dados “3/4AE” ....................... 99
Figura 4.54 – Análise do conjunto de dados “3/4AE” transformados por Box-Cox ...............99
Figura 4.55 – Transformação de Johnson para o conjunto de dados “3/4AE”....................... 100
Figura 4.56 – Transformação de Box-Cox para o conjunto de dados “3/4AD”..................... 100
Figura 4.57 – Análise do conjunto de dados “3/4AD” transformados por Box-Cox.............101
Figura 4.58 – Transformação de Johnson para o conjunto de dados “3/4AD” ...................... 101
Figura 4.59 – Transformação de Box-Cox para o conjunto de dados “3/4AD” sem outliers 102
Figura 4.60 – Transformação de Johnson para o conjunto de dados “3/4AD” sem outliers..102
Figura 4.61 – Índices de capabilidade do conjunto de dados originais “3/4AE” ................... 103
Figura 4.62 – Índices de capabilidade dados “3/4AE” baseados na distribuição Loglogistic 104
Figura 4.63 – Índices de capabilidade dos dados “3/4AE” transformados por Johnson........104
Figura 4.64 – Índices de capabilidade do conjunto de dados “3/4AE” sem outliers .............105
Figura 4.65 – Índices de capabilidade do conjunto de dados originais “3/4AD”................... 105
Figura 4.66 – Índices de capabilidade dados “3/4AD” baseados na distribuição Logistic .... 106
Figura 4.67 – Índices de capabilidade do conjunto de dados “3/4AD” sem outliers ............. 106
Figura 4.68 – Índices capabilidade dados “3/4AD” sem outliers (distribuição Lognormal) . 107
Figura 4.69 – Análise do conjunto de dados originais “5/8TE”............................................. 108
Figura 4.70 – Avaliação da melhor distribuição aplicável ao conjunto de dados “5/8TE”.... 109
Figura 4.71 – Análise do conjunto de dados originais “5/8TD” ............................................109
Figura 4.72 – Análise do conjunto de dados “5/8TD” sem outliers....................................... 110
Figura 4.73 – Avaliação da melhor distribuição aplicável ao conjunto de dados “5/8TD” ... 110
Figura 4.74 – Avaliação de distribuição aplicável ao conjunto dados “5/8TD” sem outliers 111
Figura 4.75 – Transformação de Box-Cox para o conjunto de dados “5/8TE”...................... 112
Figura 4.76 – Análise do conjunto de dados “5/8TE” transformados por Box-Cox.............. 112
Figura 4.77 – Transformação de Johnson para o conjunto de dados “5/8TE” ....................... 113
Figura 4.78 – Transformação de Box-Cox para o conjunto de dados “5/8TD” ..................... 113
Figura 4.79 – Análise do conjunto de dados “5/8TD” transformados por Box-Cox .............114
Figura 4.80 – Transformação de Johnson para o conjunto de dados “5/8TD”....................... 114
Figura 4.81 – Transformação de Box-Cox para o conjunto de dados “5/8TD” sem outliers 115
Figura 4.82 – Transformação de Johnson para o conjunto de dados “5/8TD” sem outliers..115
Tópicos Preliminares xi
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.83 – Índices de capabilidade do conjunto de dados originais “5/8TE”.................... 116
Figura 4.84 – Índices de capabilidade dados “5/8TE” baseados na distribuição Lognormal 117
Figura 4.85 – Índices de capabilidade dos dados “5/8TE” transformados por Johnson ........117
Figura 4.86 – Índices de capabilidade dos dados originais “5/8TD” ..................................... 118
Figura 4.87 – Índices de capabilidade dados “5/8TD” baseados na distribuição Lognormal 118
Figura 4.88 – Índices de capabilidade dos dados “5/8TD” transformados por Johnson........119
Figura 4.89 – Índices de capabilidade do conjunto de dados “5/8TD” sem outliers .............119
Figura 4.90 – Índices capabilidade dados “5/8TD” sem outliers (distribuição Lognormal)..120
Figura 4.91 – Índices de capabilidade dos dados “5/8TD” sem outliers (transf. Johnson).... 120
Tópicos Preliminares xii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
LISTA DE TABELAS
Tabela 2.1 – Referências para o nível sigma............................................................................ 38
Tabela 2.2 – Referências entre nível sigma e PPM (com e sem desvio).................................. 41
Tabela 3.1 – Comparação da proporção de itens não conformes em distribuições diferentes. 52
Tabela 3.2 – Exemplos típicos da transformação de Box-Cox................................................. 58
Tabela 3.3 – Exemplo de um conjunto de dados não normais ................................................. 59
Tabela 3.4 – Fórmulas associadas com as famílias da transformação de Johnson................... 62
Tabela 4.1 – Cálculos comparativos do nível sigma para “Gamma 220” ................................ 84
Tabela 4.2 – Cálculos comparativos do nível sigma para “Beta 2550” ...................................94
Tabela 4.3 – Cálculos comparativos do nível sigma para “3/4AE” e “3/4AD” ..................... 107
Tabela 4.4 – Cálculos comparativos do nível sigma para “5/8TE” e “5/8TD”...................... 121
Tabela 5.1 – Interpretação dos gráficos de controle individuais - dados simulados .............. 124
Tabela 5.2 – Determinação do nível sigma - dados simulados ..............................................127
Tabela 5.3 – Determinação do nível sigma - dados reais ....................................................... 132
Tópicos Preliminares xiii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
LISTA DE QUADROS
Quadro 1.1 – Conseqüências da suposição incorreta de normalidade........................................ 4
Quadro 1.2 – Resumo da metodologia adotada..........................................................................6
Quadro 2.1 – Evolução da Inspeção à Garantia da Qualidade ................................................. 11
Quadro 2.2 – Campos de aplicação de algumas distribuições estatísticas ............................... 18
Quadro 2.3 – Fórmulas dos tipos mais comuns de gráficos de controle para variáveis........... 30
Quadro 2.4 – Fórmulas dos tipos de gráficos de controle para atributos ................................. 31
Quadro 2.5 – Classificação de processos a partir do índice C
P
................................................ 37
Quadro 2.6 – Visão geral do DMAIC....................................................................................... 42
Quadro 2.7 – Papéis desempenhados na Metodologia Seis Sigma .......................................... 43
Quadro 2.8 – Definição de conceitos para atributos na Metodologia Seis Sigma.................... 46
Quadro 4.1 – Resumo dos aspectos gerais da pesquisa............................................................ 64
Tópicos Preliminares xiv
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
LISTA DE ABREVIATURAS E SIGLAS
ANOVA – Analysis of Variance
ASQC – American Societ for Quality Control
BB – Black Belt
CEP – Controle Estatístico de Processo
CI – Confidence Interval
CTQ – Critical to Quality
DMAIC – Define, Measure, Analyze, Improve, Control
DOE – Design of Experiment
DPMO – Defeitos por Milhão de Oportunidades
DPO – Defeitos por Oportunidade
DPU – Defeitos por Unidade
GB – Green Belt
IQR – intervalo interquartil
ISO – International Organization for Standardization
LB – Lower Bound
LCL – Lower Control Limit
LIC – Limite Inferior de Controle
LIE – Limite Inferior de Especificação
LM – Linha Média
Lower CL – Lower Confidence Limit
LSC – Limite Superior de Controle
LSE – Limite Superior de Especificação
LSXY – Least Squares Method
MBB – Master Black Belt
PDCA – Plan, Do, Check, Act
PPM – Partes por Milhão
psi – pound square inch
StDev – Standard Deviation
UB – Upper Bound
UCL – Upper Control Limit
Upper CL – Upper Confidence Limit
Tópicos Preliminares xv
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
LISTA DE SÍMBOLOS
A
2
– constante para definição dos limites de controle das médias no gráfico
X
-R
A
3
– constante para definição dos limites de controle das médias no gráficos
X
-S
B
3
– constante para definição do limite de controle inferior do desvio-padrão no gráfico
X
-S
B
4
– constante para definição do limite de controle superior do desvio-padrão no gráfico
X
-S
c – número total de defeitos em todas as unidades da amostra em estudo
c
4
– constante para definição da linha média no gráfico de controle para desvios-padrão
C
P
– índice de capabilidade potencial do processo
C
PK
– índice de capabilidade real do processo
d – número de peças defeituosas da amostra em estudo
d
2
– constante para definição da linha média no gráfico de controle para amplitudes
D
3
– constante para definição do limite de controle inferior da amplitude no gráfico
X
-R
D
4
– constante para definição do limite de controle superior da amplitude no gráfico
X
-R
e – constante equivalente ao número irracional 2,7182...
E
2
– constante para definição dos limites de controle no gráfico de valores individuais
(
)
yE
– valor esperado de uma variável dependente
(
)
θ
,xf
– função resposta da variável dependente
H
0
– hipótese nula
H
1
– hipótese alternativa
m – número de amostras em estudo
n – tamanho da amostra em estudo
P
P
– índice de desempenho potencial do processo
P
PK
– índice de desempenho real do processo
Q
1
– 1° quartil do conjunto de dados em estudo
Q
3
– 3° quartil do conjunto de dados em estudo
R – amplitude da amostra em estudo
R
– média das amplitudes das amostras em estudo
S – desvio-padrão da amostra em estudo
S
– média dos desvios-padrão das amostras em estudo
S
B
– família bounded (limitada) da transformação de Johnson
S
L
– família Lognormal da transformação de Johnson
S
U
– família unbounded (ilimitada) da transformação de Johnson
Tópicos Preliminares xvi
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
x
– variável aleatória em estudo
X
– média da amostra em estudo
u
y
– variável dependente em estudo
y
(λ)
– variável dependente após a transformação de Box-Cox
z
– variável aleatória normal padrão ou escore padronizado
z
bench
– escore padronizado (referência no cálculo do índice de capabilidade seis sigma)
z
LT
– escore padronizado de longo prazo (long term)
z
shift
– desvio da média do processo ao longo do tempo
z
ST
– escore padronizado de curto prazo (short term)
α
– probabilidade de cometer erro tipo I em um teste de hipóteses
γ
– parâmetro que define a transformação de Johnson
u
ε
– erros observados na função resposta da variável dependente
η
– parâmetro que define a transformação de Johnson
θ
– conjunto de parâmetros que afetam a função resposta da variável dependente
λ
– parâmetro que define a transformação de Box-Cox
µ
– média da população em estudo
µ
ˆ
– estimativa da média do processo em estudo
π
– constante equivalente ao número irracional 3,1415...
σ
– desvio-padrão da população em estudo
σ
ˆ
– estimativa do desvio-padrão do processo em estudo
2
σ
– variância da população em estudo
)(z
Φ
– função de distribuição cumulativa de uma variável aleatória normal padrão
Ψ
(λ, x)
– função de transformação para a condição de normalidade
Tópicos Preliminares xvii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
RESUMO
Esta dissertação apresenta uma análise crítica da utilização de alguns métodos
estatísticos aplicados à Qualidade nos casos em que os dados coletados não se apresentam
normalmente distribuídos. O problema geral aqui identificado diz respeito à ocorrência de
decisões questionáveis tomadas a partir da interpretação de dados considerados normais. A
justificativa primordial para este estudo reside na relevância da análise dos dados durante sua
coleta e tratamento na prática industrial e em trabalhos científicos nos mais variados níveis.
Os principais objetivos deste trabalho são: apresentar algumas situações de utilização de
gráficos de controle e índices de capabilidade seis sigma que possam induzir a conclusões
duvidosas devido à adoção incorreta de normalidade; propor revisão crítica efetuando as
transformações de Box-Cox e/ou Johnson; e, finalmente, discutir as conclusões e decisões
estabelecidas através da comparação entre os dados brutos originalmente coletados, os dados
previamente analisados e processados e os dados transformados. A abordagem metodológica
combina pesquisa experimental através da análise de dados simulados gerados a partir de um
software estatístico bem como pesquisa exploratória na forma de estudo de caso em um
processo industrial de medição de furos de precisão.
Palavras chave: Dados não normais, Gráfico de controle individual, Índice de capabilidade
sigma, Transformação de dados.
Tópicos Preliminares xviii
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ABSTRACT
This dissertation presents a critical analysis regarding the use of some statistical
methods applied to Quality in cases in which the collected data are not normally distributed.
The general problem refers to the occurrence of questionable decision takings starting from
the interpretation of data considered normally distributed. The primordial justification for
this study is the relevance of the data analysis during its collection and handling in the
industrial practice and in scientific works in the most varied levels. The main objectives of
this work are: to present some examples related to the usage of control charts and six sigma
capability index that may induce to doubtful conclusions due to the incorrect assumption of
normality; to propose critical review proceeding to the Box-Cox and/or Johnson
transformations; and, finally, to discuss the conclusions and decisions established through the
comparison among the gross data originally collected, the data previously analyzed and
processed and the transformed data. The methodological approach combines experimental
research through the analysis of simulate data generated starting from a statistical software
as well as exploratory research with case study in an industrial process of precision hole
measurement.
Key Words: Individual control chart, Data transformation, Non-normal data, Sigma
capability index.
Capítulo1: Introdução 1
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
1. INTRODUÇÃO
1.1 Considerações Iniciais
Em muitas oportunidades a realização de uma pesquisa de cunho científico contribui
para a descoberta de novos conhecimentos, para o desenvolvimento de novas teorias ou para a
confirmação experimental da aplicação de tecnologias inovadoras; em outras situações pode
proporcionar o estabelecimento de fronteiras entre áreas de conhecimento afins, motivando
debates que podem introduzir desafios ou questões para as quais nem sempre respostas
imediatas; também é possível que determinadas investigações científicas complementem ou
até mesmo superem teorias e doutrinas anteriormente consagradas.
A proposta desta dissertação em analisar a aplicação de alguns métodos estatísticos
está inserida em um contexto amplo que se refere ao Controle Estatístico da Qualidade e aos
aspectos básicos que devem ser observados pelas organizações que buscam a plena satisfação
de seus clientes. O tema da pesquisa diz respeito à análise crítica da utilização de conceitos e
técnicas relativas ao Controle Estatístico de Processo (CEP) e à Metodologia Seis Sigma,
especificamente nos casos em que os dados originalmente coletados não apresentam uma
forma de distribuição que seja modelada pela distribuição Normal. Esta investigação tem
importância no contexto acadêmico e principalmente na prática dos processos operacionais
dos mais variados tipos de organizações, e se justifica, pois é de extrema relevância a correta
análise dos dados durante sua coleta e tratamento.
A aplicação adequada de técnicas estatísticas em atividades industriais e empresariais
contribui de maneira decisiva para a otimização dos processos produtivos, com conseqüente
redução de custos e melhoria da qualidade. Segundo Liberatore (2001), no âmbito industrial a
pesquisa estatística visa fornecer respostas para algumas questões importantes, como as que se
seguem:
a) Existe relação entre a variável “A” e a variável “B” em processos de fabricação ou
de prestação de serviços?
b) Qual é o melhor ajuste das máquinas e dispositivos empregados no processo?
c) Qual dentre os diversos métodos de processamento disponíveis é superior?
d) Que parte da variação observada nos processos pode ser atribuída à variação
inerente ao sistema de medição?
e) Os programas de treinamento e desenvolvimento atingem o resultado esperado?
Capítulo1: Introdução 2
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Diversos autores destacam a crescente utilização de técnicas estatísticas para melhoria
da qualidade em produtos e serviços, entretanto nem sempre os cuidados necessários para a
implementação de tais técnicas são adequadamente observados. Como exemplo, Balestrassi
(2000) cita um trabalho de Alwan & Roberts no qual foi avaliada a utilização dos gráficos de
controle em uma amostragem de 235 (duzentas e trinta e cinco) situações reais e,
surpreendentemente, identificou-se violação a conceitos estatísticos básicos em 86% dos
casos. Desconhecimento de conceitos estatísticos básicos pode conduzir a suposições
incorretas, como, por exemplo, acreditar que os dados coletados em qualquer processo
observado na prática sempre sejam perfeitamente representados pela distribuição Normal.
O cálculo de qualquer medida estatística de desempenho requer uma suposição acerca
da forma da distribuição de probabilidades da característica da qualidade analisada. Woodall
(2000) descreve que muitos estudos teóricos, bem como simulações em Controle Estatístico
de Processo, baseiam-se na premissa de normalidade da distribuição e independência das
amostras ao longo do tempo. Considerando tal afirmação, é recomendável cautela na
aplicação e na análise de métodos estatísticos, pois em muitas situações reais a suposição de
normalidade não se confirma na prática, o que implica em especial atenção em relação aos
dados coletados.
Recentemente as aplicações estatísticas com base nos programas de melhoria Seis
Sigma têm sido muito difundidas nos mais variados tipos de organizações e, de acordo com
Hoerl (2001), embora esta metodologia demande a utilização de ferramentas estatísticas, a
mesma não deve ser encarada simplesmente como uma coletânea de dispositivos e
ferramentas. Esta distinção advém da constatação de que um dos papéis fundamentais
desempenhados pelos principais personagens envolvidos na implementação da metodologia é,
justamente, a garantia da correta utilização das técnicas estatísticas que, por não serem novas,
merecem uma abordagem diferenciada.
No desenvolvimento deste trabalho pretende-se analisar a utilização de gráficos de
controle individuais em CEP e a avaliação de capabilidade na Metodologia Seis Sigma, com
enfoque na correta interpretação dos dados coletados, especificamente no que se refere à
suposição de normalidade, com revisão crítica através de transformações matemáticas de
variáveis. As conclusões e decisões estabelecidas devem ser discutidas por meio de
comparação entre os dados brutos originalmente coletados, os dados previamente tratados e os
dados transformados para uma nova condição modelada pela distribuição Normal.
Capítulo1: Introdução 3
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
1.2 Descrição do Problema
Segundo Bayeux (2001) uma condição relevante na análise estatística de processos é
que esses tenham comportamento modelado pela distribuição Normal, ou pelo menos que a
distribuição, embora o normal, seja conhecida. Na verdade, em boa parte dos casos
práticos, a condição de normalidade absoluta e estável é um evento raro sendo comum
algumas situações de não-normalidade, tais como assimetria unilateral, distribuição com
ramos mais densos, uniformidade na freqüência dos valores observados, entre outras.
A Figura 1.1 apresenta uma comparação entre a distribuição Normal e outros tipos de
distribuições observadas em situações reais. Nota-se que, embora as distribuições mostradas
possuam a mesma localização e mesma dispersão dos dados em relação à distribuição
Normal, existe uma sensível diferença entre as áreas delimitadas pelos limites de
especificação inferior e superior. Tal fato altera, por exemplo, os cálculos relativos à taxa
esperada de produtos o-conformes na saída do processo e conseqüentemente os índices de
capabilidade ou capacidade, além de outros indicadores úteis em análise estatística.
Figura 1.1 – Distribuições diferentes com mesma localização e dispersão
Fonte: Adaptado de Bayeux (2001)
O problema que motivou a pesquisa referente a esta dissertação é a ocorrência de
decisões questionáveis tomadas a partir da análise de dados considerados normalmente
distribuídos sem a devida confirmação de tal suposição. O Quadro 1.1 mostra um resumo das
LIE
(Limite Inferior de Especificação)
LSE
(Limite Superior de Especificação)
6 desvios-padrão
média
Distribuição
χ
-Quadrado
Distribuição
Normal
Distribuição
Uniforme
Distribuição
t
-Student
Devido ao formato característico de cada curva, as 4 áreas delimitadas por LIE e LSE são diferentes.
Capítulo1: Introdução 4
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
conseqüências na aplicação de alguns métodos estatísticos quando se assume normalidade
para dados que na realidade não apresentam distribuição Normal.
MÉTODO ESTATÍSTICO CONSEQÜÊNCIA DA NÃO NORMALIDADE
Controle Estatístico de Processo Falsas causas especiais nos gráficos de controle individuais
Metodologia Seis Sigma Cálculo incorreto do nível sigma
Teste de Hipóteses Conclusões incorretas sobre diferenças entre grupos
Análise de Regressão Identificação equivocada de fatores e erros em predições
Planejamento de Experimentos Conclusões incorretas sobre importância e efeito de fatores
Quadro 1.1 – Conseqüências da suposição incorreta de normalidade
Fonte: Adaptado de Rath & Strong Management Consultants (2000)
As principais questões a serem investigadas, com base na definição do problema e
compreensão de suas conseqüências, são as seguintes:
a) Identificação de falsas causas especiais de variação na análise dos gráficos de
controle individuais em CEP;
b) Cálculo incorreto do nível sigma na avaliação de capabilidade na Metodologia Seis
Sigma.
1.3 Objetivos
O objetivo geral desta pesquisa é efetuar um aprofundamento dos aspectos relativos
aos efeitos da não normalidade de dados na aplicação de métodos estatísticos, bem como das
técnicas de transformação matemática de variáveis e sua comparação com outros métodos, de
modo a destacar a relevância da correta análise de dados.
De forma complementar e garantindo que objetivo proposto seja alcançado, os
seguintes objetivos específicos foram estabelecidos:
a) Discutir a utilização de gráficos de controle individuais em alguns exemplos
simulados em situações que possam induzir a conclusões duvidosas devido à
adoção incorreta de normalidade dos dados;
b) Avaliar a determinação do índice de capabilidade sigma em alguns exemplos reais
e simulados em situações que possam induzir a conclusões duvidosas devido à
adoção incorreta de normalidade dos dados.
Capítulo1: Introdução 5
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
1.4 Metodologia Adotada
A classificação dos tipos de pesquisa científica apresenta diversos critérios que variam
de acordo com o contexto geral do estudo e com o enfoque adotado. Esta diversidade está
relacionada, por exemplo, aos objetivos, objetos de estudo, procedimentos e condições de
pesquisa. Por este motivo, antes de caracterizar a metodologia adotada, é interessante
apresentar algumas definições em relação aos tipos e métodos de pesquisa para um melhor
entendimento do cenário que originou o planejamento desta dissertação.
Severino (2002) destaca que os métodos e as técnicas empíricas de pesquisa
possibilitam a existência de diversas formas de investigação científica, tais como, pesquisa
experimental, pesquisa bibliográfica, pesquisa de campo, pesquisa documental, pesquisa
histórica, pesquisa fenomenológica, pesquisa clínica, pesquisa lingüística, entre outras.
No que tange aos objetivos, Gil (1991) classifica os tipos de pesquisa científica da
seguinte maneira:
a) Pesquisas exploratórias proporcionam maior familiaridade com determinado
tema e, quanto aos procedimentos técnicos utilizados, podem ser divididas em
pesquisa bibliográfica e estudo de caso;
b) Pesquisas descritivas possibilitam descrição detalhada de características de
grupos e, em termos de procedimentos técnicos, assumem a forma de
levantamento através de censo ou amostragem;
c) Pesquisas explicativas identificam os fatores que causam ou contribuem para
ocorrência de determinados fenômenos e, quanto aos procedimentos técnicos
utilizados, caracterizam-se como pesquisa experimental.
Em termos de metodologias que utilizam simulação e modelagem, Bertrand &
Fransoo (2002) classificam as pesquisas de Gestão de Operações em duas categorias:
a) Pesquisa axiomática tipicamente normativa, a investigação é orientada por
modelos idealizados, onde o objetivo primário do pesquisador é obter soluções no
modelo definido e garantir que tais soluções forneçam as descobertas na estrutura
do problema;
b) Pesquisa empírica podendo ser normativa ou descritiva, este tipo de pesquisa é
orientada por resultados e medições empíricas e está interessada na criação de
modelos que adequadamente descrevam as relações causais existentes em
processos reais e que conduzam a um melhor entendimento destes processos.
Capítulo1: Introdução 6
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Segundo Severino (2002), diretamente relacionado com o tipo de pesquisa estão os
métodos e as técnicas a serem adotados. Entende-se por métodos os procedimentos mais
amplos de raciocínio, enquanto técnicas são procedimentos mais restritos que
operacionalizam os métodos, mediante emprego de instrumentos adequados.
Com base nas referências citadas, a presente pesquisa pode ser caracterizada como
uma combinação de dois métodos distintos, definidos como pesquisa experimental e pesquisa
exploratória, associados a duas técnicas diferentes, respectivamente simulação e estudo de
caso. O Quadro 1.2 apresenta um resumo da categorização e da proposta deste trabalho.
MÉTODO TÉCNICA PROPOSTA COLETA DE DADOS
Pesquisa
Experimental
Simulação
Investigar interpretação de dados
não normais simulados em
gráficos de controle individuais e
na determinação do nível sigma
Dados gerados através
do software de
aplicações estatísticas
Minitab
Pesquisa
Exploratória
Estudo de
Caso
Investigar interpretação de dados
reais não normais na determinação
do índice de capabilidade e nível
sigma do processo
Dados obtidos em um
processo industrial de
furação de precisão
Quadro 1.2 – Resumo da metodologia adotada
Neste trabalho a investigação experimental consiste em efetuar análise crítica da
interpretação de gráficos de controle individuais e da avaliação de capabilidade através da
determinação do nível sigma a partir de dados não normais gerados com auxílio do software
estatístico Minitab. Dois conjuntos de dados simulados, propositalmente não normais,
foram analisados quanto ao seu comportamento em relação à suposição de normalidade em
aplicações de interpretação de gráficos de controle individuais e cálculo do índice de
capabilidade seis sigma.
Através da pesquisa exploratória foi efetuado um aprofundamento dos aspectos
relativos aos efeitos da não normalidade de dados no cálculo de capabilidade e determinação
do nível sigma de qualidade, além da discussão acerca da aplicabilidade da estratégia de
transformação matemática de variáveis pelo método de Box-Cox e de Johnson. Para
consecução desta tarefa foi adotada a técnica de estudo de caso em um processo industrial de
furação de precisão em uma empresa do interior do estado de São Paulo.
Capítulo1: Introdução 7
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
1.5 Estrutura do Trabalho
Esta dissertação é o resultado final de um projeto de pesquisa relativo à investigação
da aplicação de métodos estatísticos em processos ou estudos científicos nos quais não existe
a confirmação da premissa de normalidade dos dados. Em uma abordagem inicial, pretendia-
se realizar uma pesquisa que possibilitasse tal investigação em diversos métodos estatísticos
sensíveis à suposição de normalidade. Posteriormente, quando da delimitação do tema, optou-
se pela definição de uma análise restrita a apenas dois métodos bem conhecidos e difundidos
nas esferas acadêmica e industrial, os gráficos de controle e a avaliação de capabilidade.
Neste capítulo introdutório da dissertação já foram apresentados, pela ordem, a
relevância do tema no contexto da Engenharia de Produção, a descrição do problema e as
questões a serem investigadas, a determinação dos objetivos e a definição da metodologia de
pesquisa adotada. Os comentários a seguir visam promover um entendimento mais abrangente
da estrutura pela qual o trabalho foi organizado e orientar a sua leitura, interpretação e
avaliação crítica.
O capítulo 2 trata da fundamentação teórica, que reflete a revisão da literatura iniciada
logo após a definição do tema e que se estendeu por quase todo período de pesquisa. Nos
tópicos iniciais são abordados vários aspectos conceituais, tais como a importância da
qualidade nos contextos industrial e empresarial, além do valor da utilização de métodos e
técnicas estatísticas para melhoria da qualidade de produtos e serviços. Também são
apresentados resumos sobre a Análise de Dados, com ênfase nos principais aspectos da
distribuição Normal, o Controle Estatístico de Processo, com destaque para os gráficos de
controle e índices de capacidade, e a Metodologia Seis Sigma, ressaltando as fórmulas para o
cálculo do índice de capacidade através do nível sigma de qualidade.
Para a revisão bibliográfica relativa ao tema central da pesquisa, que aborda as
considerações gerais acerca de não normalidade e aplicação de métodos estatísticos, foi
reservada uma parte específica na dissertação: o capítulo 3. Primeiramente são apresentadas
algumas definições necessárias ao entendimento da análise de normalidade das amostras em
estudo, tais como, amostragem, intervalos de confiança e teste de hipóteses. Em seguida, são
comentados alguns efeitos da condição de não normalidade em estudos estatísticos e algumas
técnicas utilizadas para contornar esta situação, como, por exemplo, as transformações de
variáveis, destacadamente as transformações de Box-Cox e Johnson.
No capítulo 4, que discorre sobre o desenvolvimento da pesquisa, é apresentada
inicialmente uma visão geral sobre os aspectos metodológicos e os dois tipos de pesquisa
Capítulo1: Introdução 8
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
utilizados de acordo com os cenários definidos. Em um primeiro cenário, os dados simulados
utilizados na investigação experimental são analisados, tratados e discutidos em relação à
interpretação dos gráficos de controle e ao cálculo do nível sigma. No segundo cenário
referente à pesquisa exploratória, os dados reais obtidos em um processo industrial também
são analisados, tratados e discutidos em relação ao cálculo do índice sigma de capacidade. Os
cálculos e análises gráficas foram efetuados por meio do software estatístico Minitab
.
A discussão detalhada dos resultados obtidos no desenvolvimento deste estudo é
apresentada no capítulo 5, que foi divido em dois tópicos principais: análise dos resultados
decorrentes da investigação experimental e análise dos resultados obtidos por meio da
pesquisa exploratória. O capítulo 6, que é de conclusão, encerra a argumentação apresentada
neste trabalho através das considerações finais advindas da análise dos resultados obtidos nos
cenários estabelecidos em comparação com as proposições teóricas referenciadas. Também
são indicadas algumas sugestões para pesquisas futuras, provenientes, tanto das limitações
encontradas durante o desenvolvimento do trabalho, quanto das possibilidades, inicialmente
não vislumbradas, que emergiram pela revisão da literatura e aplicação da metodologia.
Nos Apêndices A e B estão disponíveis para consulta, os conjuntos de dados
simulados utilizados durante a pesquisa experimental e nos Apêndices C e D podem ser
visualizados os dados reais da pesquisa exploratória, complementando assim a argumentação
apresentada ao longo dos capítulos. Logo após as Referências Bibliográficas há uma lista com
a Bibliografia Complementar Consultada que, mesmo sem citação direta, influenciou o
entendimento do tema, a condução da pesquisa e a realização deste trabalho.
E por último, ilustrando os diversos aspectos abordados, os Anexos que incluem, na
seqüência, a tabela com as diversas áreas sob a curva correspondente à distribuição normal
padronizada (Anexo A), os fatores utilizados para cálculo dos limites nos gráficos de controle
(Anexo B) e uma tabela com alguns valores de equivalência entre nível sigma e proporção de
defeitos expressa em partes por milhão (Anexo C). O Anexo D é um artigo elaborado durante
o desenvolvimento desta pesquisa, que foi submetido, aprovado e apresentado no XII
Simpósio de Engenharia de Produção (SIMPEP) realizado em novembro de 2005 na
Universidade Estadual Paulista (UNESP) em Bauru. Este mesmo artigo foi selecionado para
compor o próximo número da revista GEPROS (Gestão da Produção, Operações e Sistemas)
editada pelo Departamento de Engenharia de Produção da Faculdade de Engenharia de Bauru.
Capítulo 2: Fundamentação Teórica 9
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
2. FUNDAMENTAÇÃO TEÓRICA
2.1 Visão Conceitual da Qualidade
Constantemente utilizado de maneira informal, o termo qualidade provoca
contradições em relação a sua correta conceituação, pois os aspectos técnicos associados
podem ser os mais diversos possíveis, desde características esperadas em processos de
produção ou de serviços até situações que dizem respeito às mais complexas estratégias
empresariais. Dos conceitos propostos por diversos especialistas para o termo qualidade,
Prazeres (1997) destaca os seguintes:
- “Qualidade é a satisfação do cliente” e “melhoria contínua” (William E. Deming).
- “O nível de satisfação alcançado por um determinado produto no atendimento aos
objetivos do usuário, durante seu uso, é chamado de adequação ao uso. Este conceito de
adequação ao uso, popularmente conhecido por alguns nomes, tal como qualidade, é um
conceito universal aplicável a qualquer tipo de bem ou serviço” (Joseph M. Juran).
- “Qualidade é a composição total das características de marketing, engenharia,
fabricação e manutenção de um produto ou serviço, através das quais o mesmo produto ou
serviço, em uso, atenderá as expectativas do cliente” (Armand Feigenbaum).
- “Qualidade é conformidade com os requisitos” (Philip B. Crosby).
- “Qualidade é a totalidade de requisitos e características de um produto ou serviço
que estabelece a sua capacidade de satisfazer determinadas necessidades” (ASQCAmerican
Society for Quality Control).
- “Qualidade é a totalidade de características de uma entidade que lhe confere a
capacidade de satisfazer as necessidades explícitas e implícitas” (ISO International
Organization for Standardization).
De acordo com Garvin (1984) o termo qualidade possui um aspecto dinâmico e seu
conceito pode sofrer alterações que conduzem a cinco abordagens gerais de definição:
a) Abordagem transcendental considera a qualidade como sinônimo de excelência
inata, uma característica, propriedade ou estado que torna um produto ou serviço
aceitável plenamente, embora tal aceitação seja derivada não de análise e estudos
efetuados, mas da constatação prática, proveniente, em muitas das vezes, da
experiência;
b) Abordagem baseada no produto entende a qualidade como um conjunto
mensurável e preciso de características requeridas para satisfazer o consumidor;
Capítulo 2: Fundamentação Teórica 10
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
c) Abordagem baseada em valor define a qualidade em termos de custo e preço,
considerando que produto ou serviço é de boa qualidade quando apresenta o
melhor desempenho a um preço aceitável;
d) Abordagem baseada em manufatura considera produtos ou serviços que estejam
livres de erros, relacionando-se ao esforço produtivo no sentido de produzir o item
em conformidade com as suas especificações básicas.
e) Abordagem baseada no usuário assegura que o produto ou serviço está adequado
a seu propósito, sendo o usuário a fonte da avaliação sobre a qualidade, ou seja,
não se pode pensar em qualidade sem antes identificar o desejo do consumidor.
Na visão de Campos (1992) um produto ou serviço de qualidade é aquele que atende
perfeitamente, de forma confiável, de forma acessível, de forma segura e no tempo certo às
necessidades do cliente. Segundo Montgomery (1985) dois aspectos gerais de qualidade:
qualidade de projeto e qualidade de conformidade. Todos os bens e serviços são produzidos
em vários graus ou níveis de qualidade e quando estas variações são intencionais o termo
técnico apropriado é qualidade de projeto. A qualidade de conformidade é o nível de
adequação do produto em relação às especificações e tolerâncias requeridas pelo projeto.
Slack et al. (1999) preconizam que o sucesso das organizações depende de sua
vantagem competitiva baseada em produção, que está associada a cinco objetivos de
desempenho: qualidade, rapidez, confiabilidade, flexibilidade e custo. A qualidade é um
objetivo de desempenho particularmente importante, pois afeta diretamente consumidores
internos e externos, além de possibilitar redução de custos, aumento de confiabilidade e
conseqüentemente a satisfação dos clientes. De acordo com Paladini (1990) esta importância
atribuída à qualidade é decorrente de sua profunda ligação com o objetivo básico de qualquer
empresa que, em um contexto mais amplo, é sobreviver de forma a manter sua faixa de
atuação no mercado.
Os diversos aspectos conceituais e as várias abordagens do termo qualidade, bem
como a enorme quantidade de estudos científicos associados ao tema, evidenciam a sua
importância e relevância nos mais variados cenários, sendo classificada como uma disciplina
associada à Engenharia de Produção, merecendo assim uma denominação específica de
campo de estudo, neste caso grafada pelo substantivo próprio Qualidade.
Um breve histórico da evolução da Qualidade nas organizações, baseado em Slack et
al. (1999), destaca que originalmente a qualidade dos produtos era atingida por inspeção, com
separação dos defeitos antes de serem percebidos pelos consumidores. Em seguida o conceito
Capítulo 2: Fundamentação Teórica 11
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
de Controle da Qualidade desenvolveu uma abordagem mais sistemática, não apenas para
detectar, mas também para tratar dos problemas de qualidade. A Garantia da Qualidade
ampliou a responsabilidade da qualidade ao incluir outras funções, além das operações diretas
e introduzindo o uso de técnicas estatísticas mais sofisticadas. O Quadro 2.1 sintetiza alguns
aspectos da evolução da Inspeção até a Garantia da Qualidade.
ETAPA DO MOVIMENTO DA QUALIDADE
IDENTIFICAÇÃO
DE
CARACTERÍSTICAS
Inspeção
Controle Estatístico
da Qualidade
Garantia da
Qualidade
Preocupação básica Verificação Controle Coordenação
Visão da Qualidade
Um problema a ser
resolvido
Um problema a ser
resolvido
Um problema a ser
resolvido, mas enfrentado
proativamente
Ênfase
Uniformidade dos
produtos
Uniformidade dos produtos
com menos inspeção
Contribuição de todos os
grupos funcionais para
prevenir falhas da
qualidade
Métodos
Aparelhos de medida e
mensuração
Instrumentos e técnicas
estatísticas
Programas e sistemas
Papel dos profissionais
da Qualidade
Inspeção, classificação,
contagem e avaliação
Solução de problemas e
aplicação de métodos
estatísticos
Mensuração da qualidade,
planejamento da
qualidade e projeto de
programas
Responsável pela
Qualidade
Departamento de
Inspeção
Departamentos de
Fabricação e Engenharia
Todos os departamentos
Orientação e
abordagem
“inspeção” da qualidade “controle” da qualidade “construção” da qualidade
Quadro 2.1 – Evolução da Inspeção à Garantia da Qualidade
Fonte: Garvin (2002)
Para Slack et al. (1999) a Administração da Qualidade pode ser vista como uma
evolução natural das abordagens anteriores e, em resumo, envolve os seguintes aspectos:
a) Atendimento das necessidades e expectativas dos consumidores;
b) Inclusão de todas as partes da organização;
c) Inclusão de todas as pessoas da organização;
d) Exame de todos os custos relacionados com qualidade;
e) Construção da qualidade desde o projeto ao invés de apenas inspecionar;
f) Desenvolvimento de sistemas e procedimentos que apóiem qualidade e melhoria;
g) Desenvolvimento de um processo de melhoria contínua.
Capítulo 2: Fundamentação Teórica 12
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
2.2 Métodos Estatísticos Aplicados à Qualidade
Estatística pode ser definida como uma ciência que trata da organização, descrição,
análise e interpretação de dados experimentais. De acordo com Feigenbaum (1994) a
Estatística desempenha papel importante nos programas de Controle da Qualidade Total, pois
ao longo dos anos suas técnicas e metodologias tornaram-se cada vez mais amplamente
utilizadas e aceitas nas organizações. A Figura 2.1 representa o papel que as técnicas
estatísticas desempenham na avaliação e controle de um processo produtivo esquematizado
em um conjunto de entradas, fatores controláveis e incontroláveis e saídas.
Figura 2.1 – Representação de um processo produtivo
Fonte: Montgomery (1985)
Conforme resumo apresentado por Montgomery (1985), Juran & Godfrey (1999) e
Garvin (2002) a história de utilização de técnicas estatísticas em fabricação e garantia da
qualidade teve início em 1924 com Walter A. Shewhart da Bell Telephone Laboratories com
o desenvolvimento do conceito de gráficos de controle estatístico. Ainda na década de 1920
Harold F. Dodge e Harold G. Romig, também da Bell Telephone Laboratories,
desenvolveram a aceitação por amostragem estatisticamente baseada como alternativa à
inspeção 100%. Em meados da década de 1930 métodos de controle estatístico da qualidade
foram amplamente utilizados na Western Eletric. Durante a Segunda Guerra Mundial o uso de
conceitos estatísticos de aceitação e controle de qualidade nas indústrias tornaram-se mais
difundidos e posteriormente as demais organizações perceberam que as técnicas de controle
da qualidade poderiam ser úteis em todos os tipos de produtos e serviços. Nas décadas de
1950 e 1960 houve desenvolvimento tanto em garantia da qualidade como em custos da
Processo
...
...
Z
1
Z
2
Zq
Fatores Incontroláveis
Fatores Controláveis
X
1
X
2
Xp
Entrada
matéria-prima,
componentes e
subc
onjuntos
Saída (Produto)
Y = característica
da qualidade
Avaliação
Controle
Capítulo 2: Fundamentação Teórica 13
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
qualidade, confiabilidade e o surgimento de uma forma de gerenciamento das organizações
sob o ponto de vista da qualidade. Mais recentemente o desenvolvimento em garantia da
qualidade também se relaciona às questões comportamentais, tais como motivação de
funcionários e responsabilidade do produto.
Atualmente é inquestionável o papel fundamental que os métodos estatísticos
desempenham na melhoria da qualidade. Montgomery & Runger (2003) destacam algumas de
suas aplicações:
a) Planejamento e desenvolvimento de produtos podem ser utilizados experimentos
planejados para comparar, por exemplo, diferentes materiais, componentes ou
ingredientes e auxiliar na determinão das tolerâncias com redução significativa
de custo e tempo de desenvolvimento;
b) Determinação da capacidade de um processo de fabricação – o Controle Estatístico
de Processo pode ser usado para melhorar sistematicamente um processo pela
redução da variabilidade;
c) Investigação de melhorias no processo técnicas de Planejamento de
Experimentos podem promover melhorias que conduzem a rendimentos maiores e
menores custos de fabricação;
d) Fornecimento de dados de desempenho e confiabilidade do produto testes de
vida podem conduzir a novos e melhores projetos e produtos que possuam vidas
úteis mais longas e menores custos operacionais e de manutenção.
De acordo com Juran & Godfrey (1999) as ferramentas e os métodos estatísticos têm
contribuído de modo determinante para o planejamento e melhoria da qualidade e, em alguns
casos específicos tais ferramentas são mais do que úteis, pois os problemas de qualidade
simplesmente não podem ser solucionados por completo sem a sua adequada aplicação.
Estas ferramentas estatísticas, que são essenciais nas atividades de melhoria da
qualidade em produtos e serviços, quando agrupadas de modo organizado, constituem o
Controle Estatístico da Qualidade. Segundo Sarkadi & Vincze (1974) há duas formas
principais de Controle Estatístico da Qualidade: aceitação por amostragem e cnicas de
controle estatístico de processo.
Na visão de Montgomery (1985) o objetivo primário do Controle Estatístico da
Qualidade é a redução sistemática da variabilidade nas características-chave do produto. A
Figura 2.2 ilustra a forma como isso ocorre ao longo do tempo:
Capítulo 2: Fundamentação Teórica 14
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
a) Nos estágios iniciais, quando a aceitação por amostragem é a cnica mais
utilizada, as falhas no processo ou os itens em desacordo com as especificações,
constituem alta percentagem das saídas do processo;
b) A introdução de técnicas de controle estatístico de processo permite a estabilização
do processo e redução da variabilidade;
c) Finalmente, a adoção de experimentos planejados, empregados em conjunto com o
controle de processo, pode minimizar ainda mais a variabilidade, resultando em
um processo produtivo virtualmente livre de defeitos.
Figura 2.2 – Diagrama de utilização dos métodos para garantia da qualidade
Fonte: Montgomery (1985)
A argumentação até aqui exposta, confirma o entendimento de que os métodos
estatísticos aplicados à qualidade fornecem as ferramentas necessárias para avaliação e
melhoria de projetos, processos, produtos e serviços de forma robusta e abrangente.
2.3 Análise e Tratamento de Dados
2.3.1 Aspectos Gerais
A análise de dados é parte fundamental em aplicações que envolvem o uso da
Estatística. Na visão de Onishi (2002), o papel da análise de dados é possibilitar que os dados
coletados revelem a sua verdade, mas infelizmente isso não é tão simples, pois para tanto é
Planejamento de
Experimentos
Controle de
Processo
Aceitação por
Amostragem
TEMPO
PERCENTUAL DE APLICAÇÃO
0
100
Capítulo 2: Fundamentação Teórica 15
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
necessário estabelecer e manter condições adequadas. Para Kume (1993) os dados são os
guias das ações, pois a partir deles apreendem-se os fatos pertinentes e tomam-se as
providências de maneira embasada.
A atividade que precede a etapa de análise é a coleta de dados e, para que sua
execução ocorra de maneira adequada, são necessários alguns cuidados, dentre os quais
segundo Soares (2003), destacam-se os seguintes:
a) A precisão dos instrumentos;
b) As normas de medição observadas e padronizadas;
c) O treinamento do pessoal responsável pela coleta
Segundo Montgomery & Runger (2003) sumários e apresentações de dados bem
constituídos são essenciais para o bom julgamento estatístico, pois permitem a visualização de
características importantes e sua correta interpretação. Um exemplo de organização de dados
através de um diagrama de caixa (Box Plot) é mostrado através da Figura 2.3.
Figura 2.3 – Exemplo de um diagrama de caixa (Box Plot)
Fonte: Adaptado de Montgomery & Runger (2003)
O diagrama de caixa (Box Plot), que pode ter alinhamento vertical ou horizontal, é
uma apresentação gráfica que descreve simultaneamente várias características importantes de
um conjunto de dados, tais como quartis, mediana, dispersão, desvio de simetria e
identificação das observações que estão muito distantes do restante dos dados. Estas
observações que não seguem o padrão da distribuição são também chamadas de outliers.
IQR = Q
3
– Q
1
Intervalo
Interquartil
Q
2
= 2º Quartil = 50º Percentil = 50% = Mediana
Q
1
= 1º Quartil = 25º Percentil = 25%
Observação Mínima
Q
3
= 3º Quartil = 75º Percentil = 75%
Observação Máxima
Outliers
(além da distância Q
3
+ 1,5.IQR)
Capítulo 2: Fundamentação Teórica 16
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Os outliers podem refletir uma propriedade típica de um fenômeno subjacente ou
podem ser originados por erros de medição ou outras anomalias resultantes da coleta de
dados. No diagrama de caixa os outliers são representados por pontos individuais além da
faixa de 1,5 interquartil em relação ao 1° quartil ou em relação ao quartil, podendo ser
calculado conforme indicado nas Equações 2.1 e 2.2 (MONTGOMERY & RUNGER, 2003):
Outlier =
{
}
IQRQxx < 5,1/
1
(2.1)
ou
Outlier =
{
}
IQRQxx +> 5,1/
3
(2.2)
Onde:
x = valor observado
Q
1
= 1° Quartil
Q
3
= 3° Quartil
IQR = Intervalo Interquartil = Q
3
- Q
1
2.3.2 Distribuição de Freqüências
De acordo com Feigenbaum (1994) a distribuição de freqüências pode ser definida
como tabulação ou registro do número de vezes que uma medição de uma dada característica
da qualidade ocorre na amostra do produto sob verificação. As distribuições estatísticas
representam uma população que é a coleção de todas as observações potenciais acerca de um
determinado fenômeno. O conjunto de dados efetivamente observado ou extraído constitui a
amostra desta população, sendo que um parâmetro está para a população assim como uma
estatística está para a amostra.
Para construir uma distribuição de freqüências deve-se dividir a faixa de dados em
intervalos de classe ou células. A quantidade de intervalos depende da quantidade total de
observações e da dispersão dos dados. Como regra ptica pode-se utilizar um número de
intervalos de classe aproximadamente igual à raiz quadrada do número de observações. A
distribuição de freqüências pode ser apresentada graficamente através de histogramas, que são
de fácil interpretação, principalmente quando os intervalos de classe possuem a mesma
largura.
A Figura 2.4 apresenta um exemplo de distribuição de freqüências com histograma
relacionado à medição da resistência à compressão de um determinado corpo-de-prova.
Capítulo 2: Fundamentação Teórica 17
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 2.4 – Exemplo de uma distribuição de freqüências com histograma
Fonte: Montgomery & Runger (2003)
As distribuições podem estar associadas a variáveis aleatórias discretas ou contínuas.
Uma variável aleatória é dita discreta quando possui uma faixa finita ou uma faixa infinita
contável, tais como, contagem de peças defeituosas em um determinado lote, proporção de
defeituosos, número de produtos vendidos, etc. São exemplos de distribuições discretas:
a) Distribuição Binomial;
b) Distribuição de Poisson;
c) Distribuição Geométrica;
d) Distribuição de Pascal;
e) Distribuição Multinomial;
f) Distribuição Hipergeométrica.
Uma variável aleatória contínua é uma variável aleatória com um intervalo finito ou
infinito de números reais para sua faixa, tais como corrente elétrica, comprimento, pressão,
temperatura, peso, etc. São exemplos de distribuições contínuas:
a) Distribuição Normal;
b) Distribuição Uniforme;
c) Distribuição Chi-Quadrado;
d) Distribuição F de Fisher;
e) Distribuição t de Student;
f) Distribuição Beta;
70 90 110 130 150 170 190 210 230 250
5
10
15
20
Resistência à compressão (psi)
Freqüência
25
Intervalo
de Classe
(psi)
Freqüência
9070 x
2
11090 x
3
130110 x
6
150130 x
14
170150 x
22
190170 x
17
210190 x
10
230210 x
4
250230 x
2
Capítulo 2: Fundamentação Teórica 18
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
g) Distribuição Cauchy;
h) Distribuição Exponencial;
i) Distribuição Gamma;
j) Distribuição Laplace,
k) Distribuição Lognormal;
l) Distribuição Weibull.
O Quadro 2.2 apresenta exemplos de aplicação de algumas distribuições estatísticas.
DISTRIBUIÇÃO
ESTATÍSTICA
CAMPOS DE APLICAÇÃO
Normal
Diversas propriedades físicas, mecânicas, elétricas, químicas, etc.
Lognormal
Fenômenos de ciclo de vida; situações assimétricas onde as ocorrências
são concentradas na cauda da distribuição, nas quais diferenças em
observações são de grande ordem de magnitude.
Weibull
(2 parâmetros)
Mesmos casos da Lognormal e também em situações onde as ocorrências
(por exemplo, taxa de falhas) podem diminuir, aumentar ou permanecerem
constantes com o aumento da característica medida.
Weibull
(3 parâmetros)
Mesmos casos da Weibull (2 parâmetros) e, em adição, diversas
propriedades físicas, mecânicas, elétricas, químicas, exceto aquelas
caracterizadas pela distribuição Normal.
Exponencial
Ciclo de vida de sistemas, conjuntos, etc. Para componentes e situações
onde as falhas ocorrem ao acaso isoladamente e não dependem do tempo
em serviço.
Binomial
Número de defeitos em um tamanho de amostra “n” tomada de um grande
lote tendo a fração “p” de defeituosos; situações envolvendo tipos de
observações “passa/não passa” e “bom/ruim”. Proporção do lote não se
altera apreciavelmente como resultado da escolha da amostra.
Hipergeometrica
Inspeção de peças mecânicas, elétricas de um pequeno lote tendo
percentual conhecido de defeituosos. Mesmos casos da Binomial, com a
diferença que a proporção do lote pode se alterar como resultado da
escolha da amostra.
Poisson
Situação onde o mero de vezes que um evento ocorre pode ser
observado, mas não o número de vezes que o evento não ocorre. Aplicável
aos eventos aleatórios distribuídos no tempo.
Quadro 2.2 – Campos de aplicação de algumas distribuições estatísticas
Fonte: Adaptado de Lipson & Sheth (1973)
Capítulo 2: Fundamentação Teórica 19
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
2.3.3 A Distribuição Normal
Em diversos fenômenos observados na natureza, bem como em processos
experimentais, de produção e de prestação de serviços existem repetidas observações que
diferem entre si e que variam em torno de um valor central em uma distribuição
aproximadamente simétrica na qual os pequenos desvios ocorrem com muito mais freqüência
do que os grandes desvios. Para Box et al. (1978) uma distribuição contínua que se destaca
por representar tal situação e ocupa uma importante posição no estudo da Estatística é a
distribuição Normal ou Gaussiana. A função densidade de probabilidade para uma
distribuição Normal é dada através da Equação 2.3 (MONTGOMERY, 1984).
f(x) =
e
x
2
2
2
)(
2
1
σ
µ
πσ
para
- < x <
(2.3)
Onde:
x = variável aleatória em estudo
µ = média da distribuição (- < µ < )
σ = desvio-padrão da distribuição (σ > 0)
A curva correspondente à distribuição Normal, também conhecida como curva
normal, curva do sino (Bell Curve) ou curva de Gauss é representada através da Figura 2.5.
Figura 2.5 – Principais aspectos da curva correspondente à distribuição Normal
Fonte: Adaptado de Montgomery (1985) e Kume (1993)
x
µ
σ
µ
σ
µ
2
σ
µ
3
σ
µ
+
σ
µ
2
+
σ
µ
3
+
68,27 %
95,45 %
99,73 %
Ponto de Inflexão
1 desvio
-
padrão
(média)
Capítulo 2: Fundamentação Teórica 20
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Segundo Lipson & Sheth (1973), a distribuição Normal que é a mais conhecida e a
mais amplamente utilizada das distribuições estatísticas, teve seus conceitos desenvolvidos no
século XVIII, de forma independente, através dos trabalhos de Gauss, Laplace e De Moivre.
Esta distribuição apresenta algumas características marcantes, dentre as quais destacam-se:
a) A curva é simétrica em relação à média e esta coincide com a moda e a mediana;
b) A notação N(
µ; σ
2
) indica uma distribuição Normal com média µ e variância σ
2
;
c) Apresenta coeficiente de assimetria igual a zero e de curtose igual a três;
d) O desvio padrão σ indica a distância da média µ ao ponto de inflexão da curva;
e) 68,27% dos dados encontram-se na faixa entre
±
1 σ (desvio padrão) da média;
f) 95,45% dos dados encontram-se na faixa entre
±
2 σ (desvios padrão) da média;
g) 99,73% dos dados encontram-se na faixa entre
±
3 σ (desvios padrão) da média.
Cálculos de probabilidade em relação à distribuição Normal podem ser efetuados a
partir da curva normal reduzida ou padronizada N(0;1), que é uma distribuição Normal com
média µ = 0 e variância σ
2
= 1 (Anexo A). A variável pertencente a esta distribuição é
denominada variável aleatória normal padrão e é denotada por z. A variável z representa a
distância de x a partir de sua média em termos de desvios padrão e é, portanto, fundamental
para cálculo de probabilidades para uma variável aleatória normal arbitrária x. A Figura 2.6
ilustra uma curva normal reduzida ou padronizada.
Figura 2.6 – Curva normal padronizada
Fonte: Adaptado de Montgomery (1985)
µ
2
σ
= 1
z
x
0
1
2
3
-
1
-
2
-
3
σµ
σµ
2
σµ
3
σµ
+
σµ
2
+
σµ
3
+
Z: N(0;1)
X: N(
µ
;
2
σ
)
µ
= 0
Capítulo 2: Fundamentação Teórica 21
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
O cálculo da variável
z
, também chamada de escore padronizado, é dado pela fórmula
indicada através da Equação 2.4 (MONTGOMERY, 1985).
z
=
σ
µ
x
(2.4)
Onde:
z = variável aleatória normal padrão ou escore padronizado
x = variável aleatória em estudo
σ = desvio-padrão da distribuição (σ > 0)
TEOREMA CENTRAL DO LIMITE:
O Teorema Central do Limite (Equação 2.5), considerado um dos mais úteis teoremas
da Estatística, estabelece que a soma e, conseqüentemente, a média de um grande número de
variáveis aleatórias independentes apresenta uma distribuição aproximadamente normal,
indiferentemente do tipo de distribuição de probabilidade dos valores individuais. Esta
aproximação da condição de normalidade melhora à medida que a quantidade de variáveis
independentes aumenta (MONTGOMERY, 1985).
z
n
=
)1;0(~
1
2
1
N
y
n
i
i
n
i
i
=
=
σ
µ
(2.5)
Onde:
x
i
= variáveis aleatórias independentes
y
= x
1
+ x
2
+ x
3
+ ... + x
n
z
n
= escore padronizado
i
µ
= média de x
i
2
i
σ
= variância de x
i
As condições acima mencionadas são freqüentemente observadas em diversos
métodos estatísticos aplicados à Qualidade. De acordo com Montgomery & Runger (2003),
como conseqüência do Teorema Central do Limite, sempre que ocorrerem replicações de um
experimento aleatório, a variável aleatória que for igual ao resultado médio das réplicas
tenderá a ter uma distribuição Normal, à medida que o número de réplicas se torne grande.
Capítulo 2: Fundamentação Teórica 22
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
2.4 Controle Estatístico de Processo
2.4.1 Definição e Conceitos Básicos
De acordo com Woodall (2000) o Controle Estatístico de Processo (CEP) é uma
subárea do Controle Estatístico da Qualidade e consiste em métodos para o entendimento, o
monitoramento e a melhoria do desempenho de processos ao longo do tempo, priorizando a
compreensão da variação das características da qualidade como sendo de fundamental
importância para o controle do processo. Segundo Silva (1999) o Controle Estatístico de
Processo é o ramo do Controle de Qualidade que consiste na coleta, análise e interpretação de
dados, estabelecimento de padrões, comparação de desempenhos e verificação de desvios para
utilização em atividades de melhoria e controle da qualidade de produtos e serviços. Na visão
de Campos (1992) o CEP é parte integrante dos programas de Qualidade Total adotados por
inúmeras empresas como estratégia habilitadora de sua permanência e expansão nos mercados
globalizados.
Galuch (2002) afirma que o movimento originado pelo CEP resultou no treinamento
de muitos supervisores e operadores em ferramentas estatísticas básicas, capacitando-os a
entender melhor o comportamento de processos e produtos e muitos deles aprenderam que
decisões baseadas na coleta e análise de dados superam as decisões baseadas no empirismo.
Entretanto, Soares (2001) salienta que o CEP é um sistema de decisão e não um substituto da
experiência, ou seja, os métodos estatísticos auxiliam a detecção e isolamento de desarranjos
em processos, indicando suas causas; com isso a gerência e a equipe técnica podem indicar e
aplicar as ações necessárias.
Em linhas gerais o Controle Estatístico de Processo pode ser definido como um
conjunto de ferramentas que tem o propósito de indicar se um processo está funcionando de
maneira ideal, quando apenas causas comuns de variação estão presentes, ou se este processo
está fora de controle e necessita de algum tipo de ação corretiva, ou seja, quando existem
causas especiais de variação. Para um completo entendimento deste conceito é necessário
estabelecer algumas definições que sustentam o Controle Estatístico de Processo, tais como,
processo, variabilidade, causas de variação e capacidade.
PROCESSO:
Com base na norma NBR ISO 9000:2000, define-se processo como um conjunto de
atividades inter-relacionadas ou interativas que transformam insumos (entradas) em produtos
(saídas). Toledo (2005) também define processo como um conjunto de transformações que
Capítulo 2: Fundamentação Teórica 23
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
determinado produto sofre em função de suas entradas, fatores controláveis e fatores que não
podem ser controlados (ruídos), resultando em uma determinada saída.
Segundo Harrington (1993) existem dois tipos de processo: o empresarial e o
produtivo. Um processo empresarial consiste em um grupo de tarefas interligadas logicamente
que fazem uso de recursos da organização para gerar resultados definidos em apoio aos
objetivos da organização. Para Soares (2001) o processo produtivo é o que melhor se
identifica nas indústrias, pois envolve a manufatura, isto é, envolve contato direto com o
produto ou serviço que será fornecido ao cliente externo.
VARIABILIDADE:
O estudo da variabilidade é de grande importância na aplicação de métodos
estatísticos, pois é algo inerente a todo processo produtivo. Para Montgomery (1985) a
variabilidade devido à aleatoriedade inerente à natureza, torna praticamente impossível a
produção de dois produtos ou serviços idênticos. Se essa variabilidade for pequena, ou seja, se
não causar impacto perceptível para o consumidor, é tolerável, caso contrário será indesejável
ou mesmo inaceitável.
Na visão de Reis (2001) o conceito de variabilidade é absolutamente crucial para a
compreensão de todas as técnicas não somente de Controle Estatístico de Processo, mas de
qualquer método estatístico e, não são raros os casos em que os envolvidos na aplicação das
técnicas de CEP não dispõem de uma clara idéia a respeito.
CAUSAS DE VARIAÇÃO:
Conforme definido por diversos autores as causas de variação em um processo podem
ser classificadas como causas especiais e causas comuns, sendo que, de acordo com
Montgomery & Runger (2003), os termos inicialmente utilizados por Walter A. Shewhart
eram causas atribuídas e causas casuais, respectivamente. Deming (1986) afirma que as
causas especiais correspondem a 6% dos problemas e as causas comuns relacionam-se a 94%
das situações observadas nos processos.
As causas especiais também chamadas de causas assinaláveis indicam que o processo
não está sob controle estatístico. Normalmente, causas especiais são as que realmente afetam
a qualidade do produto e na maioria das oportunidades faz-se necessário o seu entendimento e
eliminação, para que o processo se mantenha estável e sob controle. As causas especiais
podem ser causas esporádicas, como por exemplo, condições ambientais passageiras, avarias
ou problemas no equipamento de produção, ferramenta inadequada, lote isolado de matéria-
prima com defeito e mão-de-obra. Segundo Pires (2000) o monitoramento e a ação corretiva
Capítulo 2: Fundamentação Teórica 24
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
sobre as causas especiais é de responsabilidade da área operacional da empresa e, uma vez
identificadas, pode-se atuar sobre as mesmas, buscando a estabilização do processo.
As causas comuns também denominadas causas sistêmicas, são causas inerentes ao
processo produtivo, pertencendo assim ao próprio sistema, não afetando de maneira incisiva a
qualidade do produto, caracterizando um processo sob controle estatístico. A influência de
algumas destas causas pode ser removida ou detectada com iniciativas gerenciais. De
acordo com Souza (2003) quando apenas as causas comuns estão atuando no processo, a
variabilidade se mantém em uma faixa estável, conhecida como faixa característica do
processo. Alguns exemplos de causas comuns são treinamento inadequado dos operadores,
utilização de equipamentos cronicamente imprecisos, manutenção deficiente, falta de
normalização, falta de documentação, aquisição sistemática de matéria-prima de baixa
qualidade, entre outros. Para Grant & Leavenworth (1972) a atuação sobre as causas comuns
normalmente requer investimentos na melhoria de equipamentos e troca de matérias-primas e,
uma vez mantidas em níveis razoáveis, as mesmas não afetam de maneira nociva a qualidade
dos itens manufaturados.
CAPACIDADE:
Conforme norma NBR ISO 9000:2000 capacidade é definida como a aptidão de uma
organização, sistema ou processo de realizar um produto que irá atender aos requisitos
especificados para este produto. Para Prazeres (1997) a capacidade de um processo pode ser
definida como a habilidade intrínseca de um processo em desempenhar suas funções nas
condições de trabalho, satisfazendo certas especificações e tolerâncias, sendo uma medida de
uniformidade inerente ao processo. Aspectos gerais em relação aos índices de capacidade ou
capabilidade serão discutidos posteriormente.
2.4.2 Características Gerais
De acordo com Montgomery & Runger (2003) o Controle Estatístico de Processo
(CEP) é um poderoso recurso a ser utilizado em tempo real (on line) para avaliar a condição
de estabilidade de um processo e para melhorar sua capacidade através da redução da
variabilidade. Costuma-se entender o CEP como um conjunto de ferramentas para resolver
problemas, aplicável a qualquer processo. Segundo Montgomery & Runger (2003) as
ferramentas mais importantes do CEP são as seguintes:
Capítulo 2: Fundamentação Teórica 25
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
a) Histograma apresentação gráfica de uma distribuição de freqüências ou série de
distribuições quantitativas por meio de retângulos justapostos de modo a revelar a
quantidade de variação existente dentro de um processo;
b) Gráfico de Pareto representação gráfica do princípio enunciado pelo economista
italiano Vilfredo Pareto em 1897, sobre desigualdade na distribuição de renda,
adaptado aos problemas de qualidade, ou seja, as melhorias podem ser obtidas se a
atenção estiver concentrada primeiramente na direção dos poucos problemas vitais
e em seguida na direção de suas poucas causas vitais;
c) Diagrama de causa e efeito – conhecido como Diagrama de Ishikawa ou Diagrama
de Espinha de Peixe, é uma cnica visual que interliga os efeitos com as
respectivas causas, possibilitando uma visualização das variáveis do processo;
d) Diagrama de defeito-concentração esquema ou desenho de produto com
identificação e localizão dos defeitos de maior ocorrência;
e) Gráfico de controle – a mais poderosa ferramenta do CEP, é utilizada para mostrar
a variação do processo em relação aos limites de controle estipulados;
f) Diagrama de dispersão representação gráfica para investigar possível correlação
entre duas variáveis e para provar possível relação entre causa e efeito;
g) Folha de verificação formulário no qual os dados podem ser coletados e
registrados de maneira ordenada, permitindo pida interpretação de resultados.
Na opinião de Reis (2001) o CEP permite o monitoramento contínuo do processo,
possibilitando uma ação imediata no momento em que um problema é detectado, sustentando
a filosofia que preconiza a construção da Qualidade dentro do processo e a prevenção de
problemas. Segundo Silva (1999) os gráficos de controle ou cartas de controle, utilizados no
CEP, são normalmente aplicados em processos contínuos e semi-contínuos onde uma
dimensão ou característica do produto é medida em uma amostra aleatória tirada sob um
determinado período de tempo com o objetivo de avaliar a estabilidade ou estado de controle
estatístico de um processo.
Para Montgomery & Runger (2003) além das ferramentas citadas também existem os
aspectos comportamentais envolvidos na implementação do CEP, isto é, a atitude voltada para
a melhoria contínua na qualidade e na produtividade através da redução sistemática da
variabilidade, que afinal de contas é o objetivo principal do Controle Estatístico de Processo.
Capítulo 2: Fundamentação Teórica 26
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 2.7 apresenta a identificação das etapas envolvidas na operacionalização do
CEP e a utilização de informações provenientes dos gráficos de controle para auxiliar a
tomada de decisões sobre ações de melhoria.
Figura 2.7 – Estratégia para melhorias em Controle Estatístico de Processo
Fonte: Adaptado de Schissatti (1998)
2.4.3 Gráficos de Controle
Conforme mencionado anteriormente a principal e mais poderosa ferramenta do CEP é
o gráfico de controle que foi introduzido por Walter A. Shewhart da Bell Telephone
Laboratories em 1924 como mecanismo de distinção entre as chamadas causas comuns
(casuais) e causas especiais (atribuídas) de variação de um processo. Segundo Almeida
(2003), devido ao fato de os gráficos de controle serem ferramentas extremamente úteis para
identificação de variações observadas em um processo em decorrência de causas comuns ou
especiais, sua utilização é amplamente difundida em Controle Estatístico de Processo. Pode-se
dizer que tais gráficos são comparações do desempenho do processo, que pode ser avaliado
por meio de qualquer característica da qualidade que seja de interesse, como por exemplo, a
Capítulo 2: Fundamentação Teórica 27
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
média de determinado comprimento, os valores de diâmetros de furos, o número de itens
faltantes, dentre outros.
De acordo com Montgomery & Runger (2003) existe forte conexão entre gficos de
controle e teste de hipóteses. Essencialmente o gráfico de controle é um teste da hipótese nula
de que o processo está em um estado de controle estatístico e pode ser definido da seguinte
maneira:
H
0
: O processo está sob controle estatístico (hipótese nula)
H
1
: O processo não está sob controle estatístico (hipótese alternativa)
Através da determinação dos limites de controle pode-se avaliar se o processo
encontra-se sob controle estatístico, verificando as características dos pontos registrados no
gráfico. Se os mesmos distribuem-se de acordo com padrões aleatórios, indicam processo sob
controle estatístico, pois somente causas comuns estão presentes no mesmo; porém se o
gráfico apresenta padrões não aleatórios, tais como pontos além dos limites de controle,
significa que o processo pode estar sendo influenciado por causas especiais de variação. Neste
caso deve ser efetuada uma análise cuidadosa do processo para possibilitar o diagnóstico do
problema e a tomada de ações para que o processo retorne à condição anterior. Um gráfico de
controle típico é mostrado através da Figura 2.8:
Figura 2.8 – Exemplo de um gráfico de controle
Fonte: Adaptado de Montgomery & Runger (2003)
2,85
2,90
2,95
3,00
3,05
3,10
3,15
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
Média
Limite Superior
de Controle
Limite Inferior
de Controle
(LSC)
(LM)
(LIC)
x
n
Capítulo 2: Fundamentação Teórica 28
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Segundo Reis (2001), de maneira geral, o procedimento utilizado para a construção de
gráficos de controle baseia-se na coleta de amostras de tamanhos fixos em intervalos
amostrais, sendo que seu registro deve respeitar a ordem cronológica para que seja possível
identificar quais são as causas de variação não aleatórias. Através dos valores amostrais
coletados são obtidas estimativas para a média e dispersão do processo e, a partir de então,
são determinados os limites de controle inferior e superior e a linha central do gráfico.
Para Montgomery & Runger (2003) os gráficos de controle têm uma longa história de
utilização industrial e há, no mínimo, cinco razões para sua popularidade:
a) Gráficos de controle são comprovadamente úteis para melhoria da qualidade;
b) Gráficos de controle são efetivos na prevenção de defeitos;
c) Gráficos de controle podem previr ajustes desnecessários no processo;
d) Gráficos de controle fornecem informação sobre diagnóstico;
e) Gráficos de controle fornecem informação sobre a capacidade do processo.
Além disso, nos últimos anos a moderna tecnologia computacional simplificou a
coleta de dados e a implementação de gráficos de controle em qualquer tipo de processo,
possibilitando que a análise possa ser efetuada em um microcomputador ou em um terminal
de rede em tempo real no próprio local de trabalho.
Na visão de Reis (2001) o conceito de processo sob controle estatístico é
extremamente importante, pois é através deste que se evidencia a presença de padrões não
aleatórios. inúmeros padrões não aleatórios que podem ser encontrados nos gráficos de
controle e para permitir sua correta identificação os seguintes critérios foram estabelecidos
(ASQC/AIAG, 1992):
a) Existência de pontos além dos limites superior ou inferior de controle;
b) Ocorrência de um padrão, uma tendência ou um ciclo que obviamente não se
mostre aleatório;
c) Regra da seqüência de oito: existência de oito pontos consecutivos, todos acima ou
todos abaixo da linha central;
d) Seis pontos consecutivos, todos crescentes ou todos decrescentes;
e) Catorze pontos consecutivos se alternado para cima e para baixo;
f) Dois ou três pontos consecutivos além dos limites de controle fixados à distância
de dois desvios-padrão a contar da linha central;
g) Quatro dentre cinco pontos consecutivos fora dos limites de controle fixados à
distância de um desvio padrão a contar da linha central.
Capítulo 2: Fundamentação Teórica 29
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para utilizão dos gráficos de controle alguns aspectos importantes merecem atenção
especial para que não ocorram análises incorretas em função da falta de entendimento de suas
peculiaridades e características. De acordo com Alwan & Roberts (1995) algumas suposições
precisam ser satisfeitas para que, independentemente do tipo do gráfico de controle
empregado, os resultados sejam válidos:
a) É necessário que as observações sejam independentes e identicamente distribuídas,
ou seja, que as amostras sejam retiradas de forma aleatória e que o processo que as
gerou esteja sob controle estatístico;
b) Que as observações sigam alguma distribuição de probabilidade específica, tais
como a normal, binomial ou Poisson.
As suposições apresentadas acima são extremamente importantes, pois segundo Reis
(2001) os limites de controle calculados e as regras para identificação da presença de padrões
não aleatórios pressupõem que estas suposições sejam satisfeitas, caso contrário o valor
encontrado nestes gráficos seria no mínimo questionável.
Existem diversos critérios para classificação dos tipos de gráficos de controle
conforme argumentação de Ramos (2003). Quanto à característica de controle, por exemplo,
os gráficos de controle distinguem-se em entre gráficos de controle para variáveis, isto é
medidas em geral e gráficos de controle para atributos, ou seja, dados contáveis.
De acordo com Montgomery (1985) os principais gráficos de controle para variáveis
são os seguintes:
a) Gráfico
X
ou X-bar – É conhecido como gráfico das médias e apresenta o registro
das médias da característica da qualidade em estudo, de modo a controlar o valor
médio da característica de interesse. Na construção deste gráfico supõe-se a
condição de normalidade das médias amostrais.
b) Gráfico S É o gráfico de desvio padrão, onde os desvios-padrão da característica
da qualidade em estudo são registrados de moda a controlar a variabilidade da
característica de interesse. Na construção deste gráfico também se supõe a
normalidade dos dados amostrais e, geralmente é preferido em relação ao gráfico
de intervalos ou das amplitudes.
c) Gráfico R É o gráfico de intervalo ou das amplitudes, no qual as amplitudes da
característica da qualidade em estudo são registradas de forma a controlar a
variabilidade da característica de interesse.
Capítulo 2: Fundamentação Teórica 30
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Na prática a utilização conjunta dos gráficos X-bar-R ou X-bar-S é muito comum, pois
ambos permitem um melhor acompanhamento e controle da característica da qualidade em
estudo, sendo que este último é preferível para amostras de maior tamanho.
As fórmulas para definição dos limites de controle dos tipos mais comuns de gráficos
de controle para variáveis são apresentadas no Quadro 2.3. As constantes A
2
, A
3
, B
3
, B
4
, D
3
,
D
4
e E
2
, que permitem a estimativa de
σ
µ
3
±
, variam em função do tamanho das amostras
(Anexo B) e encontram-se disponíveis em referências tais como Montgomery (1985),
Feigenbaum (1994), Juran & Godfrey (1999), Montgomery & Runger (2003), entre outros.
LIMITES DE CONTROLE
TIPO DE GRÁFICO
Gráfico Fórmulas
Média
LSC
X
=
X
+ A
2
.
R
LM
X
=
X
LIC
X
=
X
- A
2
.
R
X
e R
Amplitude
LSC
R
= D
4
.
R
LM
R
=
R
LIC
R
= D
3
.
R
Média
LSC
X
=
X
+ A
3
.
S
LM
X
=
X
LIC
X
=
X
- A
3
.
S
X
e S
Desvio-Padrão
LSC
S
= B
4
.
R
LM
S
=
S
LIC
S
= B
3
.
S
Mediana
LSC
X
~
=
X
~
+ A
2
.
R
LM
X
~
=
X
~
LIC
X
~
=
X
~
- A
2
.
R
X
~
e R
Amplitude
LSC
R
= D
4
.
R
LM
R
=
R
LIC
R
= D
3
.
R
Individuais (X)
LSC
Xi
=
X
+ E
2
.
mR
LM
Xi
=
X
LIC
Xi
=
X
- E
2
.
mR
i
X
e R
Amplitude
LSC
R
= D
4
.
mR
LM
R
=
mR
LIC
R
= D
3
.
mR
Quadro 2.3 – Fórmulas dos tipos mais comuns de gráficos de controle para variáveis
Fonte: Galuch (2002)
Capítulo 2: Fundamentação Teórica 31
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Segundo Montgomery (1985) os principais gráficos de controle para atributos são:
a) Gráfico p – Registro das frações de itens defeituosos da amostra, isto é, do número
de itens defeituosos dividido pelo número total de itens da amostra. A distribuição
de probabilidades da fração defeituosa é binomial. É um gráfico utilizado para
atributos do tipo classificação
b) Gráfico np Similar ao anterior, este gráfico apresenta o registro do mero de
itens da amostra que foram classificados como defeituosos.
c) Gráfico c Atributos do tipo contagem devem ser controlados por este tipo de
gráfico, que registra o número total de defeitos ou não-conformidades de cada
amostra inspecionada. A distribuição de probabilidade é a de Poisson e é
necessário que as amostras tenham sempre o mesmo tamanho.
d) Gráfico u Este gráfico registra o número de defeitos dividido pelo número de
unidades inspecionadas, ou seja, a taxa de defeitos (atributos do tipo contagem). A
distribuição de probabilidade também é de Poisson, mas não é necessário que as
amostras tenham sempre o mesmo tamanho.
O Quadro 2.4 apresenta as fórmulas para definição dos limites de controle dos gráficos
de controle para atributos. Os termos indicados nas fórmulas possuem o seguinte significado:
n = tamanho da amostra;
m = número de amostras;
c = número total de defeitos em todas as unidades da amostra;
d = número de peças defeituosas.
FÓRMULAS
TIPOS DE GRÁFICOS
Linha Média Limites de Controle
p
(proporção de defeituosos)
p
=
n
d
n
pp
p
)1(
.3
±
np
(número total de defeituosos)
n
p
n
)1(.3 ppnp ±
c
(número de defeitos da amostra)
c
=
m
c
cc .3±
u
(defeitos por unidade)
u
=
n
c
n
u
u
.3±
Quadro 2.4 – Fórmulas dos tipos de gráficos de controle para atributos
Fonte: Galuch (2002)
Capítulo 2: Fundamentação Teórica 32
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
No projeto de um gráfico de controle é necessário especificar o tamanho da amostra a
ser utilizada, bem como a freqüência de amostragem. Montgomery (1985) destaca que a
largura dos limites de controle é inversamente proporcional ao tamanho
n
da amostra para um
determinado múltiplo do valor do desvio-padrão. Uma idéia fundamental no uso de gráficos
de controle é coletar dados de acordo com o que Walter A. Shewhart chamou de subgrupo
racional. Na visão de Montgomery & Runger (2003) este conceito significa que subgrupos ou
amostras devem ser selecionados de modo que a variabilidade das observações, dentro de um
subgrupo, inclua toda variabilidade casual ou natural. Desta forma, os limites de controle
representarão fronteiras para toda variabilidade natural e as causas especiais tenderão a gerar
pontos além dos limites de controle estabelecidos.
As formas mais utilizadas de gráficos de controle são os gráficos
X
-R e os gráficos
individuais, sendo que uma importante desvantagem destes gráficos é a sua relativa
insensibilidade em detectar pequenas mudanças no processo, como algo da ordem de 1,5
σ
ou
menos. Segundo Bower (2000) dois tipos de gráficos são primariamente utilizados para
detectar pequenos desvios: CUSUM e EWMA.
O gráfico CUSUM (
Cumulative Sum
) ou gráfico da soma cumulativa foi desenvolvido
em 1954 por E.S. Page e é construído através do registro da soma cumulativa dos desvios dos
valores amostrais em relão a um valor alvo. De acordo com Montgomery & Runger (2003)
os gráficos de soma cumulativa são indicados para detectar pequenos desvios, pois combinam
informação proveniente de várias amostras. Por este motivo, o gráfico de controle da soma
cumulativa é um bom candidato para uso em indústrias químicas e de processos, onde
subgrupos racionais são freqüentemente de tamanho igual a 1.
Uma técnica alternativa para detectar pequenas mudanças no processo é o uso do
gráfico EWMA (
Exponentially Weighted Moving Average
) ou gráfico com média móvel
exponencialmente ponderada, desenvolvido por S.W. Roberts em 1959. Bower (2000) afirma
que este tipo de gráfico possui algumas propriedades particularmente atrativas, tais como:
a) Diferentemente dos gráficos de Shewhart, todos os dados coletados ao longo do
tempo podem ser usados para determinar a situação de controle do processo;
b) É freqüentemente superior ao gráfico CUSUM para detectar grandes desvios;
c) Pode ser aplicado para monitorar desvios-padrão em adição à média do processo;
d) Possibilidade de uso de EWMA na previsão de valores de média do processo;
e) A metodologia EWMA é insensível à suposição de normalidade.
Capítulo 2: Fundamentação Teórica 33
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Escolher a ferramenta adequada para execução das atividades de monitoramento de
um processo pode parecer uma tarefa complexa devido à existência de inúmeros gráficos de
controle. Contudo, a escolha do tipo de gráfico mais adequado em função dos diferentes tipos
de dados pode ser auxiliada por meio do fluxograma apresentado na Figura 2.9.
Figura 2.9 – Fluxograma para escolha do tipo de gráfico de controle
Fonte: ASQC/AIAG (1992)
2.4.4 Índices de Capabilidade
Os gráficos de controle têm por objetivo avaliar a estabilidade do processo estudado,
monitorando seus parâmetros ao longo do tempo; ao passo que o estudo de capacidade visa
definir se um processo, cujo comportamento seja conhecido, é capaz de produzir itens ou
prestar serviços conforme as especificações estabelecidas pelo cliente. Almas (2003) ressalta
que o fato de um processo estar dentro dos limites de controle estatístico não significa que os
produtos resultantes atendem às especificações de qualidade exigidas.
Segundo Pires (2000), o estudo da capacidade dos processos é um procedimento que
evolui a partir do estudo dos gráficos de controle e, somente após a eliminação das causas
Capítulo 2: Fundamentação Teórica 34
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
especiais, pode-se avaliar se um processo é capaz de atender as especificações de uma
determinada característica da qualidade. Para Kotz & Johnson (2002) os índices de
capacidade ou capabilidade fornecem uma estimativa sobre o potencial do processo ao invés
de expressar a real situação na qual o mesmo se encontra.
Os termos capacidade, capabilidade, aptidão e desempenho de processo possuem o
mesmo significado segundo Toledo (2005), pois todos representam medidas estatísticas que
indicam a taxa de variação existente no processo em relação às especificações dos clientes.
Um exemplo de avalião da capabilidade em um processo de fabricação de rotores é
representado através da Figura 2.10. Neste exemplo a avaliação é efetuada por meio de
comparação do histograma dos valores das medidas de interesse com os seus limites de
especificação.
Figura 2.10 – Exemplo de avaliação de capabilidade de um processo com histograma
Fonte:Montgomery & Runger (2003)
Montgomery (1985) estabelece que as principais aplicações da análise de capabilidade
de um processo são as seguintes:
a) Prever como o processo se manterá dentro das tolerâncias;
b) Auxiliar na seleção ou modificação do processo;
c) Auxiliar no estabelecimento de um intervalo entre as amostragens no processo;
d) Especificar requisitos de desempenho para novos equipamentos;
e) Auxiliar na escolha entre fornecedores;
18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
LIE
LSE
5
10
15
20
dimensão
nominal
Capítulo 2: Fundamentação Teórica 35
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
f) Planejar a seqüência dos processos produtivos quando há interação entre estes
processos e as tolerâncias;
g) Reduzir a variabilidade em um processo produtivo;
h) Aferir o sistema de obtenção de medidas.
De acordo com Roth (2005) os índices de capabilidade são calculados a partir de
dados do processo em estudo, mas os valores são afetados pelo fato de o processo estar sob
controle estatístico e ter um desvio-padrão aumentado. Portanto, os seguintes cuidados devem
ser observados para que o cálculo dos índices seja adequado:
a) O processo deve produzir uma distribuição Normal;
b) O processo deve estar sob controle estatístico;
c) O tamanho da amostra deve permitir que o cálculo do desvio-padrão seja racional.
Para avaliar a capabilidade do processo é necessário conhecer a distribuição de
probabilidade da variável de interesse e estimar a média e a variabilidade dos valores
individuais, para então determinar os limites naturais do processo. Se a variável de interesse
seguir uma distribuição Normal seus limites naturais podem ser calculados como seis desvios-
padrão. Para Roth (2005) os índices de capabilidade possibilitam, através de rápida
observação, determinar se o processo é capaz de atender as especificações, sendo definidos
como uma taxa da amplitude das tolerâncias em relação à dispersão do processo, da seguinte
forma (Equação 2.6):
real
esperado
índice =
(2.6)
A dispersão do processo pode ser calculada a partir da estimativa do desvio-padrão,
que no caso dos gráficos de controle para
X
-R e
X
-S é obtida da seguinte maneira:
2
ˆ
d
R
=
σ
(2.7) ou
4
ˆ
C
S
=
σ
(2.8)
Onde:
σ
ˆ
= estimativa do desvio-padrão do processo em estudo
R
= média das amplitudes das amostras em estudo
S
= média dos desvios-padrão das amostras em estudo
4
C
,
2
d
= constantes tabeladas que variam em função do tamanho das amostras
Capítulo 2: Fundamentação Teórica 36
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Existem diversos índices de capabilidade e cada um deles apresenta diferentes
informações, por este motivo é de fundamental importância o perfeito entendimento de seu
significado de modo a possibilitar correta interpretação e adequada tomada de ações. Os
índices de capabilidade, fundamentados nas suposições de normalidade dos dados e de
controle estatístico do processo são comumente conhecidos como C
P
e C
PK
. Em processos
onde as amostras são relativamente pequenas ou para os quais não se tenha certeza de sua
estabilidade são utilizados os índices P
P
e P
PK
. A seguir são apresentadas as fórmulas de
alguns índices de capabilidade de acordo com Roth (2005):
a) Índice C
P
(Equão 2.9) – Fornece uma medida indireta da habilidade potencial do
processo em atender às especificações da característica da qualidade de interesse,
considerando o processo centrado na média das especificações.
C
P
=
σ
ˆ
6
LIELSE
(2.9)
Onde:
C
P
= índice de capabilidade potencial do processo
LSE = limite superior de especificação
LIE = limite inferior de especificação
σ
ˆ
= estimativa do desvio-padrão do processo
b) Índice C
PK
(Equação 2.10) Fornece uma medida da habilidade real do processo
em atender às especificações, pois quantifica a capabilidade em função da pior
metade dos dados; não considera o processo centrado na média das especificações.
C
PK
= min.
σ
µ
σ
µ
ˆ
3
ˆ
,
ˆ
3
ˆ
LIELSE
(2.10)
Onde:
C
PK
= índice de capabilidade real do processo
µ
ˆ
= estimativa da média do processo
c) Índice P
P
(Equação 2.11) – Fornece uma medida do desempenho potencial, mas ao
invés da estimativa
σ
ˆ
para o desvio-padrão do processo, utiliza o desvio-padrão
S
da amostra em estudo, considerando o processo centrado na média das
especificações.
Capítulo 2: Fundamentação Teórica 37
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
P
P
=
S
LIELSE
6
(2.11)
Onde:
P
P
= índice de desempenho potencial do processo
S = desvio padrão da amostra em estudo
d) Índice P
PK
(Equação 2.12) Fornece uma medida do desempenho real através do
desvio-padrão S da amostra em estudo e não considera o processo centrado na
média das especificações, pois o índice é calculado em função da pior metade dos
dados.
P
PK
= min.
S
LIE
S
LSE
3
,
3
µµ
(2.12)
Onde:
P
PK
= índice de desempenho real do processo
O Quadro 2.5 mostra uma regra geral baseada em Werkema (1995) e Ramos (2003),
que pode ser utilizada para análise, classificação e interpretação do índice C
P
de capacidade
ou capabilidade do processo a partir de um código de identificação por cores.
ÍNDICE
C
P
CLASSIFICAÇÃO INTERPRETAÇÃO
C
P
< 1,00
Processo “vermelho”
(incapaz)
A capacidade do processo é inadequada à especificação exigida.
Nesta situação o responsável pela produção deverá tentar
diminuir a variabilidade do processo ou realizar o trabalho em
outro processo que atenda as especificações.
1,00
C
P
1,33
Processo “amarelo”
(razoável)
A capacidade do processo está dentro da especificação exigida.
Nesta situação o responsável pela produção deverá tentar
diminuir a variabilidade do processo. Gráficos de controle são
úteis para manter o processo sob controle estatístico, evitando a
produção de unidades não conformes.
C
P
> 1,33
Processo “verde”
(capaz)
A capacidade do processo é adequada à especificação exigida.
Nesta situação o responsável pela produção não necessita de
maiores preocupações com o processo, a menos que se queira
reduzir a variabilidade para aumentar a qualidade dos produtos.
Quadro 2.5 – Classificação de processos a partir do índice C
P
Fonte: Adaptado de Werkema (1995) e Ramos (2003)
Capítulo 2: Fundamentação Teórica 38
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
2.5 Metodologia Seis Sigma
2.5.1 Definição e Conceitos Básicos
Seis Sigma é uma metodologia de melhoria em processos fundamentada em métodos
estatísticos com o objetivo de reduzir os erros através da identificação e eliminação das causas
de variação nos diversos processos empresariais. Segundo Linderman et al. (2003) Seis Sigma
é um método sistemático e organizado para melhoria de processos, novos produtos e
desenvolvimento de serviços que se baseia em métodos estatísticos e científicos para efetuar
uma drástica redução nas taxas de defeitos definidas pelos clientes. Harry (1998) afirma que a
aplicação da metodologia permite às organizações incrementar seus lucros por meio da
otimização das operações, melhoria da qualidade e eliminação de defeitos, erros e falhas e,
por este motivo, tem sido adotada por diversas empresas ao redor do mundo.
Para Hoerl (2001) a iniciativa de melhoria através da metodologia Seis Sigma tem se
tornado extremamente popular nos últimos anos e está conduzindo a uma série de discussões
e aplicações relacionadas aos diversos métodos estatísticos. Segundo Rotondaro (2002), as
ferramentas utilizadas e os métodos aplicados são bem conhecidos dos profissionais da
Qualidade, mas a estruturação do programa e o foco na redução da variabilidade do processo
tornam a Metodologia Seis Sigma extremamente eficaz.
De acordo com Harry & Schroeder (2000) o conceito sigma foi criado na década de
1980 como uma forma de desenvolver uma métrica universal de qualidade para mensuração
de processos, independentemente de sua complexidade. A metodologia Seis Sigma está
associada à redução da variação e o desvio-padrão, representado pela letra
σ
do alfabeto
grego, quantifica a variabilidade em um processo. A Tabela 2.1 mostra uma relação do nível
sigma com a proporção de defeitos definida em partes por milhão (PPM).
NÍVEL
SIGMA
PPM
(partes por milhão)
CUSTO DA NÃO
QUALIDADE
CATEGORIA
6 3,4 < 10 % das vendas Empresa de classe mundial
5 233 10-15 % das vendas
4 6.210 15-20 % das vendas
3 66.807 20-30 % das vendas
Empresa comum
2 308.537 30-40 % das vendas
1 690.000 -
Empresa não competitiva
Tabela 2.1 – Referências para o nível sigma
Fonte: Harry (1998)
Capítulo 2: Fundamentação Teórica 39
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Quanto maior o valor na escala sigma, menor é a probabilidade de um processo
produzir defeitos e, como resultado, há a redução da necessidade de testes e inspeções, os
ciclos e os custos diminuem e a satisfação dos clientes aumenta, atingindo assim elevados
níveis de excelência operacional e de competitividade.
Segundo Harry (2003) a Metodologia Seis Sigma pode apresentar diversas aplicações
práticas e benefícios econômicos em uma empresa, dentre os quais destacam-se:
a) Benchmark e metas de qualidade;
b) Medida de desempenho;
c) Filosofia de melhoria;
d) Caracterização e otimização de parâmetros;
e) Projeto de novos sistemas;
f) Simulação de processos e de produção;
g) Análise de confiabilidade.
2.5.2 Origens da Metodologia Seis Sigma
Conforme relatado por Perez-Wilson (1998), Harry & Schroeder (2000), Harry (2003)
e sintetizado por Souza (2002), Reis (2003) e Toledo (2005), a Metodologia Seis Sigma
nasceu e se desenvolveu em meados da década de 1980 na empresa Motorola, com o objetivo
de torná-la capaz de enfrentar os concorrentes estrangeiros, que estavam fabricando produtos
de melhor qualidade com menores custos. A empresa passou a direcionar esforços no sentido
de reduzir a variação dos processos de manufatura, administrativos e demais atividades na
organização, tanto que, após quatro anos de sua implantação, havia economizado
aproximadamente US$ 2,2 bilhões (dois bilhões e duzentos milhões de dólares).
Após a divulgação destes primeiros resultados, empresas como Asea Brown Boveri,
Allied Signal, General Electric e Sony, também passaram a utilizar a nova metodologia. A
Asea Brown Boveri implantou Seis Sigma em sua unidade de negócios de transformadores,
conseguindo uma redução de 30% nos custos dos produtos e 68% nos níveis de defeitos, o
que resultou em uma economia de US$ 898 milhões (oitocentos e noventa e oito milhões de
dólares) em um período de dois anos. Em seguida, Jack Welch, então CEO (Chief Executive
Office) da General Electric, aplicou o programa em sua organização com grande sucesso, pois
evoluiu de uma abordagem de solução de problemas para uma visão mais ampla de estratégia
de negócio, fazendo com que a Metodologia Seis Sigma obtivesse uma repercussão notável
em termos mundiais.
Capítulo 2: Fundamentação Teórica 40
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
2.5.3 Características Gerais
Em um processo que apresenta uma variação de 3
σ
entre a média e cada um dos
limites de especificação, a área sob a curva normal indica uma proporção de itens não
conformes de 1350 PPM em cada uma das duas caudas da distribuição. Considerando os dois
lados, a fração de itens não conformes é de 2700 PPM. Por outro lado, um processo com 6
σ
entre a média e cada um dos limites de especificação apresenta 0,001 PPM em cada lado da
distribuição, ou seja, a fração total de itens não conformes é da ordem de 0,002 PPM. A
Figura 2.11 ilustra esta situação.
Figura 2.11 – A curva normal e os limites de especificação
Fonte: Adaptado de Reis (2003)
Entretanto, dificilmente um processo permanece centralizado ao longo do tempo e é
esperado que apresente um desvio (shift) em relação ao valor nominal. A empresa Motorola
adotou mais ou menos 1,5
σ
como valor representativo para este desvio. Com isso, um
processo operando com a Metodologia Seis Sigma apresenta 3,4 DPMO (defeitos por milhão
de oportunidades). Segundo Reis (2003) a maior parte das empresas adota o critério
estabelecido pela Motorola, embora existam questionamentos em relação ao valor de 1,5
σ
.
De acordo com Harry (2003) o desvio de 1,5 sigma está associado a uma correção
estatisticamente embasada para compensar a degradação do desempenho a longo prazo,
atribuída unicamente à influência de erros aleatórios inerentes ao processo. A Figura 2.12
apresenta o deslocamento da média do processo em relação à curva normal.
média
σ
3
±
σ
6
±
1350
PPM
0,001
PPM
Distribuição Normal Centrada
LSE
Limite Superior de Especificação
LIE
Limite Inferior de Especificação
Capítulo 2: Fundamentação Teórica 41
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 2.12 – Deslocamento da média do processo em 1,5 sigma
Fonte: Adaptado de Montgomery & Runger (2003)
A quantidade de itens além dos limites de especificação para alguns valores de
desvios-padrão em um processo centralizado, assim como em um processo não centralizado,
com desvio de 1,5 sigma, é mostrada na Tabela 2.2.
PPM (partes por milhão)
NÍVEL SIGMA
Sem Shift Com Shift
±
1 sigma
317300 697700
±
2 sigma
45500 308700
±
3 sigma
2700 66810
±
4 sigma
63 6210
±
5 sigma
0,57 233
±
6 sigma
0,002 3,4
Tabela 2.2 – Referências entre nível sigma e PPM (com e sem desvio)
Fonte: Adaptado de Reis (2003)
A Metodologia Seis Sigma é baseada em um sistema de acompanhamento conhecido
como DMAIC, sigla que denota as seguintes etapas: Definir (Define), Medir (Measure),
Analisar (Analyze), Melhorar (Improve) e Controlar (Control). O Quadro 2.6 apresenta uma
visão geral dos passos associados ao modelo DMAIC.
média
LIE
Limite Inferior de Especificação
LSE
Limite Superior de Especificação
3,4 PPM
Desvio de 1,5 sigma
Capítulo 2: Fundamentação Teórica 42
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ETAPA DESCRIÇÃO
Identificar CTQs (
itens críticos para qualidade na visão do cliente
)
Desenvolver escopo de atuação da equipe de trabalho
DEFINIÇÃO
Definir mapa do processo
Selecionar característica do CTQ
Definir padrão de desempenho
MEDIÇÃO
Analisar o sistema de medição e coleta de dados
Estabelecer a capabilidade do processo
Definir objetivos de desempenho
ANÁLISE
Identificar origens de variação
Filtrar causas potenciais de variação
Descobrir relações entre as varáveis e propor soluções
MELHORIA
Estabelecer tolerâncias operacionais e solução piloto
Validar o sistema de medição
Determinar a capabilidade do processo
CONTROLE
Implementar sistema de controle do processo
Quadro 2.6 – Visão geral do DMAIC
Fonte: Adaptado de Harry (1998)
Para Rotondaro (2002) a abordagem DMAIC é na realidade uma evolução do método
introduzido por W.E. Deming, o ciclo PDCA (Plan, Do, Check, Act), que é um dos exemplos
mais populares de metodologia que tem sido utilizada para a melhoria dos processos.
A Metodologia Seis Sigma necessita de pessoal especializado para sua aplicação e,
segundo Harry (1998), os principais papéis são desempenhados pelos seguintes elementos:
a) Comitê de Liderança;
b) Patrocinadores (Champions);
c) Especialista Máster (Master Black Belt);
d) Especialista em Seis Sigma (Black Belt);
e) Participantes das Equipes (Green Belts).
Os termos Black Belt e Green Belt são uma analogia aos especialistas em artes
marciais. As principais atribuições deste grupo incluem:
a) Estabelecimento das funções nos programas;
b) Definição e fornecimento de infra-estrutura e recursos;
c) Seleção de projetos específicos;
d) Revisão regular do andamento dos projetos;
e) Atuação como patrocinadores dos projetos;
f) Remoção de obstáculos ao trabalho dos grupos.
Capítulo 2: Fundamentação Teórica 43
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
O Quadro 2.7 apresenta a comparação dos papéis na aplicação da Metodologia Seis
Sigma, assim como uma apresentão sucinta das necessidades de treinamento.
Champion Master Black Belt Black Belt Green Belt
Qualificações
Familiaridade com
ferramentas
estatísticas básicas e
avançadas.
Executivos seniores e
gerentes.
Recomendável
formação técnica.
Domínio de
ferramentas estatísticas
básicas e avançadas.
Um MBB poderia ser,
por exemplo, um
gerente ou engenheiro
chefe.
Recomendável
formação ou
orientação técnica.
Domínio de
ferramentas
estatísticas básicas.
Um BB poderia ser
engenheiro ou
profissional com 5
ou mais anos de
experiência.
Base e suporte
técnico.
Familiaridade com
as ferramentas
estatísticas básicas.
Sua posição deve
estar associada com
o problema que está
sendo resolvido.
Treinamento
3 a 5 dias de
treinamento específico
Aproximadamente 200
horas de treinamento e
desenvolvimento de
projetos
Aproximadamente
160 horas de
treinamento e
desenvolvimento de
projetos
Aproximadamente
80 horas de
treinamento e
desenvolvimento de
projetos
Número de
Pessoas
Treinadas
1 Champion por
unidade de negócio
1 MBB para cada 20-
30 BB
1 BB para cada 50-
100 pessoas
1 GB para cada 10-
20 pessoas
Quadro 2.7 – Papéis desempenhados na Metodologia Seis Sigma
Fonte: Adaptado de Harry & Schroeder (2000)
2.5.4 Determinação do Nível Sigma
Como forma de estimar o desempenho das atividades desenvolvidas, as organizações
estabelecem medidores de desempenho claros, tais como partes por milhão (PPM), índices de
capabilidade de processo, custos da qualidade, entre outros. De acordo com Carvalho (2002) o
índice de capabilidade seis sigma apresenta algumas diferenças em relação às métricas
tradicionais e, dentre as métricas mais utilizadas, as que mais se assemelham ao referido
índice são C
PK
e P
PK
(Equações 2.10 e 2.12).
Em um processo cuja média esteja eqüidistante dos limites de especificação e o índice
de capacidade seja igual a 1 (C
PK
= 1), os limites de especificação distam 3 desvios-padrão da
média. Caso a média não esteja centralizada em relação aos limites de especificação, adota-se
a pior capacidade, ou seja, utiliza-se o limite de especificação mais próximo. Para um
processo com padrão seis sigma o índice C
PK
deve ser igual a 2, isto é, o processo é
considerado capaz se a sua média estiver a 6 desvios-padrão dos limites de especificação.
Capítulo 2: Fundamentação Teórica 44
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
O índice utilizado para determinar a capacidade seis sigma mede a distância da média
à especificação mais próxima (LIE ou LSE) em quantidades de desvios-padrão (sigmas),
utilizando como referência a curva normal padronizada N(0;1). Através de uma tabela de
distribuição Normal Padrão e conforme mostrado na Figura 2.11, pode-se verificar que o nível
seis sigma corresponde a aproximadamente 0,002 PPM, ou seja, 2 (dois) defeitos por bilhão
de oportunidades. A quantidade de 3,4 partes por milhão, definida como padrão seis sigma,
relaciona-se ao valor
z
igual a 4,5. Esta diferença de 1,5 sigma, segundo estudos da Motorola
relatados por Harry (2003), advém da variação e mudanças do processo ao longo do tempo
conforme anteriormente representado através da Figura 2.12.
De acordo com resumo efetuado por Almas (2003), os dados coletados em um
intervalo de tempo pequeno e, portanto, sem causas especiais de variação, representam o
índice
z
ST
de curto prazo (short term). Os dados obtidos em intervalos de tempo maiores, com
causas comuns e especiais de variação, equivalem ao índice
z
LT
de longo prazo (long term).
Como no índice de curto prazo os dados utilizados não contêm causas especiais de variação,
normalmente seu valor é maior que os índices utilizados com os dados de longo prazo.
A referência para a determinação do nível sigma é o índice conhecido como
z
bench
que
é obtido através da verificação da proporção de defeitos ou partes por milhão de acordo com
os limites de especificação inferior e superior da distribuição ou do processo em estudo
(Equações 2.13 e 2.14), que somadas resultam na proporção total de defeitos (Equação 2.15).
z
LIE
=
LIE
PPM
S
LIEX
(2.13)
z
LSE
=
LSE
PPM
S
XLSE
(2.14)
LSELIETOTAL
PPMPPMPPM += (2.15)
Onde:
z
LIE
= coordenada correspondente ao limite inferior de especificação da distribuição em estudo
z
LSE
= coordenada correspondente ao limite superior de especificação da distribuição em estudo
X
= média da amostra do processo em estudo
PPM
LIE
= fração não conforme abaixo do limite inferior de especificação (partes por milhão)
PPM
LSE
= fração não conforme acima do limite superior de especificação (partes por milhão)
PPM
TOTAL
= fração não conforme total em partes por milhão
Capítulo 2: Fundamentação Teórica 45
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Com a proporção total de defeitos do processo em estudo obtém-se, através da tabela
de distribuição Normal Padrão, a estatística
z
bench
, que corresponde ao escore padronizado da
curva normal reduzida N(0;1). Esta estatística equivale ao índice
z
LT
, pois refere-se ao
z
bench
de longo prazo conforme mencionado anteriormente. Em seguida, obtém-se o valor do índice
de curto prazo
z
ST
, que é a capacidade potencial do processo conforme Equação 2.16.
Z
bench(ST)
= Z
bench(LT)
+ Z
shift
(2.16)
Onde:
Z
bench(ST)
= índice de curto prazo equivalente ao nível sigma
Z
bench(LT)
= índice de longo prazo
Z
shift
= desvio da média do processo ao longo do tempo
Adotando-se o valor de 1,5 sigma para Z
shift
, a Equação 2.16 também pode ser
expressa de modo simplificado de acordo com Equação 2.17:
Nível Sigma = Z
bench(LT)
+ 1,5
(2.17)
Através da Figura 2.13 é apresentado um esquema extremamente simplificado que
possibilita a visualização e compreensão da lógica utilizada na determinação do índice ou
nível sigma de capabilidade.
Figura 2.13 – Esquema simplificado para cálculo do nível sigma
PPM
LIE
PPM
LSE
NÍVEL SIGMA = Z
BENCH (LT)
+ 1,5
Normal
Reduzida
N(0;1)
0
Z
bench
2
σ
=1
LIE Alvo LSE
Distribuição
em análise
PPM
TOTAL
Z
LIE
PPM
LIE
Z
LSE
PPM
LSE
PPM
LIE
+ PPM
LSE
= PPM
TOTAL
Proporção total de defeitos
da distribuição analisada
PPM
TOTAL
Z
BENCH
Z
BENCH
Equivalência da proporção total de defeitos com
a Normal Reduzida (escore padronizado)
Z
BENCH (ST)
=
Z
BENCH (LT)
+
Z
SHIFT
O Nível Sigma de Qualidade leva em conta o
desvio de 1,5 (Z
SHIFT
) no cálculo do índice
Capítulo 2: Fundamentação Teórica 46
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como método alternativo as seguintes aproximações, indicadas através das Equações
2.18 e 2.19, ainda podem ser utilizadas no cálculo do nível sigma (BREYFOGLE, 1999):
Nível Sigma
3.P
PK
+ 1,5 (2.18)
Nível Sigma
)ln(.221,237,298406,0 ppm+
(2.19)
A relação entre nível sigma e a proporção de defeitos em partes por milhão (PPM) é
definida em função da curva normal reduzida N(0;1), podendo ser obtida através das tabelas
da distribuição Normal Padrão (Anexo A), disponíveis em livros de Estatística e Controle
Estatístico de Processo ou ainda por meio de softwares estatísticos. Uma tabela de conversão
em PPM para alguns valores de
z
bench
está disponível no Anexo C desta dissertação.
Para o cálculo do nível sigma nos casos onde a variável em estudo é do tipo atributo,
percorre-se o caminho inverso, isto é, a partir da proporção de defeitos determinam-se os
índices de longo e curto prazo respectivamente. Segundo Carvalho (2002) a empresa
Motorola introduziu uma forma de ajustar as medidas em função da complexidade do que está
sendo avaliado, ou seja, o número de defeitos por milhão de oportunidades (DPMO). Essa
abordagem permite que sejam comparados os desempenhos de diferentes produtos e serviços,
fato que amplia o leque de possibilidades de utilização da Metodologia Seis Sigma. Uma
síntese dos conceitos básicos para atributos é mostrada no Quadro 2.8.
CONCEITO DEFINIÇÃO
Defeito Qualquer não conformidade às especificações
Defeituoso Unidade que apresenta um ou mais defeitos
Unidade Saída do processo que será avaliada segundo a presea de defeitos
Oportunidade
Formas nas quais o processo pode se desviar do que é especificado
para cada unidade, gerando não conformidade
Defeitos por unidade
DPU =
unidadesdenúmero
defeitosdenúmero
Defeitos por oportunidades
DPO =
unidadesdenúmerodesoportunidadenúmero
defeitosdenúmero
×
Defeitos por milhão de
oportunidades
DPMO =
6
10×
× unidadesdenúmerodesoportunidadenúmero
defeitosdenúmero
Quadro 2.8 – Definição de conceitos para atributos na Metodologia Seis Sigma
Fonte: Adaptado de Carvalho (2002)
Capítulo 2: Fundamentação Teórica 47
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Um fluxograma geral resumido para determinação do índice de capacidade seis sigma
é apresentado através da Figura 2.14.
Figura 2.14 – Fluxograma geral para determinação do índice de capacidade seis sigma
Fonte: Adaptado de Carvalho (2002)
Capítulo 3: Estudo da Não Normalidade 48
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
3. ESTUDO DA NÃO NORMALIDADE
3.1 Análise de Normalidade
A distribuição Normal ou Gaussiana é importante em diversos estudos, pois este tipo
de distribuição representa de maneira bem aproximada o comportamento de várias situações
reais. Além disso, a distribuição de muitos dos testes estatísticos é normal ou apresenta uma
forma derivada da distribuição Normal. Soares (2003) relembra que alguns anos atrás
existiam estatísticos que afirmavam com convicção que se um processo não fosse distribuído
normalmente, poderia haver algo de errado ou o mesmo estaria fora de controle. Sob este
ponto de vista, o gráfico de controle seria apenas uma ferramenta para determinar a não
normalidade de um processo com vistas a possibilitar sua correção. Atualmente reconhece-se
que o uso dos gráficos de controle provém, principalmente, de sua simplicidade.
A normalidade pode ser verificada na forma gráfica ou por meio de técnicas
estatísticas como teste de hipóteses. Segundo Miranda (2005) a forma gráfica pode ser, por
exemplo, através de histograma pela observação da existência de assimetria dos dados, ou
gráfico normal de probabilidade pela comparação do valor esperado nominal com o valor
ordenado das observações, esperando-se uma relação linear quando existir normalidade.
Para que haja um completo entendimento da verificação de normalidade efetuada por
meio de testes estatísticos é necessário estabelecer alguns conceitos que os sustentam, tais
como, amostragem, intervalo de confiança, teste de hipóteses, nível de significância estatística
e valor P (p-value).
AMOSTRAGEM:
De acordo com Prazeres (1997) uma amostra é uma parte ou porção representativa de
um conjunto ou população a ser medida, analisada ou ensaiada. Um dos principais objetivos
da amostragem é a redução de custos na determinação de algum parâmetro da população que
se deseja analisar. Em processos produtivos é possível determinar tais parâmetros por meio de
algumas amostras e o risco de errar, que depende do tamanho da amostra, também tem um
custo associado e pode ser calculado.
INTERVALO DE CONFIANÇA:
Quando se deseja estimar parâmetros de uma população a partir de amostras, não se
tem certeza sobre o verdadeiro valor do parâmetro em questão. O intervalo de confiança de
uma determinada estatística da amostra indica a amplitude ou faixa de valores na qual o
verdadeiro valor do parâmetro está contido com certa probabilidade.
Capítulo 3: Estudo da Não Normalidade 49
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
TESTE DE HIPÓTESES:
Conforme definição de Prazeres (1997) o teste de hipóteses é um procedimento
estatístico para testar hipóteses sobre um parâmetro populacional a partir de uma distribuição
amostral conhecida. Consideram-se duas hipóteses: a hipótese nula (H
0
), que é a suposição
que se pretende testar, e a hipótese alternativa (H
1
). Os testes podem ser unilaterais ou
bilaterais de acordo com a formulação da hipótese alternativa. Existem dois erros que podem
ser cometidos quando se testa uma hipótese: erro tipo I, que ocorre quando se rejeita uma
hipótese nula senda a mesma verdadeira, e o erro tipo II quando se aceita a hipótese nula
sendo ela falsa.
NÍVEL DE SIGNIFICÂNCIA ESTATÍSTICA:
O nível de significância estatística de um resultado é uma medida estimada do grau no
qual este resultado é verdadeiro, no sentido de ser representativo da população. Este
parâmetro representa o índice decrescente de confiabilidade de um resultado, isto é, quanto
maior o nível de significância, menor a possibilidade de que a relação observada entre
variáveis da amostra seja um indicador confiável da relação entre as respectivas variáveis da
população. Segundo Montgomery & Runger (2003) a probabilidade
α
de cometer o erro tipo
I também é chamada de nível de significância ou tamanho do teste. Um nível de significância
igual a 0,05 indica que uma probabilidade de 5% de que a relação entre variáveis
encontrada na amostra seja apenas coincidência ou acidental. Em muitas áreas de pesquisa
utiliza-se o nível de significância estatística de 0,05 como um limite de erro aceitável.
VALOR P OU P-VALUE:
De acordo com Montgomery & Runger (2003) o valor P ou p-value é o menor nível de
significância que conduz à rejeição da hipótese nula com os dados fornecidos. Em outras
palavras, p-value é a probabilidade de que a estatística de teste assuma um valor, no nimo,
tão extremo quanto o valor observado da estatística para que a hipótese nula seja considerada
verdadeira. Se z
0
for o valor calculado da estatística de teste, o valor P pode ser definido
conforme Equação 3.1:
P =
)inf
)sup
(
(
)(
)(
)(1
)](1.[2
0
0
0
erior
erior
unilateralteste
unilateralteste
bilateralteste
z
z
z
Φ
Φ
Φ
(3.1)
Onde:
)(z
Φ
= função de distribuição cumulativa de uma variável aleatória normal padrão
Capítulo 3: Estudo da Não Normalidade 50
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Existem diversos testes de normalidade disponíveis, que são conduzidos por meio da
avaliação de determinados parâmetros específicos. Os testes de Anderson-Darling,
Kolmogorov-Smirnov, Shapiro-Wilk e Ryan-Joiner são exemplos de testes que podem ser
utilizados para confirmação de normalidade. No desenvolvimento da pesquisa que originou a
presente dissertação foi utilizada a opção de teste de normalidade Anderson-Darling através
do software estatístico Minitab®.
Pelo procedimento de teste de Anderson-Darling efetua-se a comparação de uma
função de distribuição cumulativa observada com uma função de distribuição cumulativa
esperada. Rejeita-se a hipótese nula de que a distribuição seja de uma forma específica se a
estatística de teste A
2
for maior do que um valor crítico; sendo que estes valores críticos são
tabelados para determinados tamanhos de amostra.
As análises de normalidade discutidas durante a pesquisa em questão foram efetuadas
considerando o conceito de significância estatística no teste de Anderson-Darling da seguinte
maneira:
H
0
(hipótese nula): Os dados seguem a distribuição normal.
H
1
(hipótese alternativa): Os dados não seguem a distribuição normal.
A abordagem utilizada nesta pesquisa compara o valor P (p-value) associado à
estatística de teste A
2
com um nível de significância
α
arbitrado para aceitação da hipótese
nula de normalidade. Em todas as análises efetuadas foi adotado
α
= 0,05, ou seja, ao longo
desta dissertação, sempre que p-value apresentar valor maior que 0,05 a distribuição será
considerada normal.
3.2 Efeitos da Não Normalidade
Os métodos estatísticos discutidos nesta dissertação pressupõem que os dados em
estudo sigam uma distribuição de probabilidade conhecida. A análise e as conclusões que
resultam da aplicação da metodologia são válidas apenas nos casos onde a suposição da
distribuição se confirme verdadeira.
Castagliola & Tsung (2005) ressaltam que devido às modernas tecnologias de medição
e inspeção é bastante comum uma coleta rotineira de grande quantidade de dados de unidades
individuais em um intervalo de tempo muito curto; e tais medições contínuas podem resultar
em dados que tendem a apresentar auto-correlação e distribuição não normal. Lipson & Sheth
(1973) indicam que na falta de alguma evidência em contrário, pode-se assumir, em uma
primeira abordagem, que os dados utilizados em métodos estatísticos sejam normalmente
Capítulo 3: Estudo da Não Normalidade 51
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
distribuídos. Contudo, Montgomery (1985) alerta que em muitas situações práticas existem
razões para se duvidar da validade da suposição de normalidade, o que implica em especial
atenção na análise dos dados. De acordo com Spedding & Rawlings (1994), em produção
contínua a suposição de normalidade é freqüentemente justificada, mas a distribuição da
variação do processo é mais crítica quando são considerados pequenos lotes de fabricação.
Segundo Alwan (2001) muitos dos procedimentos estatísticos são derivados de um
conjunto de suposições específicas acerca da origem dos dados e, por este motivo, diversas
investigações são conduzidas para determinar quão sensíveis são as conclusões tiradas em
situações de desvio de tais premissas, pois as conseqüências da violação destas premissas nas
inferências efetuadas podem ser sérias.
Em sentido oposto, Sall (2005) recomenda bom senso, pois não há motivo para o que
ele chama de medo irracional da não normalidade, visto que em grandes amostras a sua
detecção é simples, mas neste caso sua influência não é tão danosa e em pequenas amostras a
não normalidade pode ser significativa, entretanto não se pode detectá-la facilmente.
Visto que existem situações onde a distribuição de dados não corresponde a uma
distribuição Normal, então para estes casos tanto a suposição de normalidade quanto
utilização da curva normal como referência certamente se revelarão inadequadas. Na
realidade a existência de não normalidade em distribuição de dados é bastante comum,
principalmente quando o número de observações não é muito grande. Conforme apresentado
no tópico 1.2, a suposição incorreta de normalidade dos dados pode acarretar algumas das
seguintes conseqüências:
a) Falsos alarmes na análise de gráficos de controle individuais;
b) Cálculo incorreto de índices de capabilidade;
c) Conclusões incorretas sobre diferenças entre grupos em Teste de Hipóteses;
d) Erros em predições na Análise de Regressão;
e) Conclusões incorretas sobre importância e efeito de fatores em Planejamento de
Experimentos (DOE).
Para Castagliola & Tsung (2005), muitas das técnicas existentes em Controle
Estatístico de Processo não foram concebidas para atender tais situações, visto que as técnicas
de CEP são afetadas por dados auto-correlacionados e assimétricos. Sob o ponto de vista
destes autores, muitos estudos foram efetuados para investigar os efeitos da não normalidade
dos dados e, mesmo que as conclusões apresentem algumas contradições de acordo com o
Capítulo 3: Estudo da Não Normalidade 52
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ponto de vista adotado, parece muito claro que os impactos de assimetria no desempenho dos
gráficos de controle podem ser substanciais.
Por outro lado, Borror et al. (1999) alegam que diversos autores defendem o
argumento de que a não normalidade na aplicação de gráficos de controle não é tão relevante,
quando se trabalha com amostras utilizando subgrupos de tamanho n > 1. Uma observação
importante de um estudo efetuado por Alwan (2001) indica que o efeito da não normalidade
diminui à medida que aumenta o tamanho da amostra por grupo e este efeito aumenta com o
aumento do número de grupos ou subgrupos.
Com relação à avaliação de capabilidade, Kotz & Johnson (2002) alertam que a
ausência de normalidade indica necessidade de muita atenção no uso dos índices para
julgamento adequado da qualidade do processo em estudo. Como exemplo, Miranda (2005)
cita um estudo efetuado por M. Deleryd no qual são apontados alguns efeitos de distribuições
não normais na estimação do número de defeituosos, considerando três processos com
distribuições diferentes em comparação com a distribuição normal. A Tabela 3.1 indica que as
quantidades de itens não conformes nas três distribuições são bem diferentes entre si e em
relação à distribuição normal. Portanto, caso a normalidade fosse considerada nos três
primeiros processos, ocorreria um erro grosseiro na determinação da quantidade de itens
defeituosos e conseqüentemente dos respectivos índices de capabilidade.
TIPO DE DISTRIBUIÇÃO
FRAÇÃO NÃO CONFORME
(considerando limites de
σ
3
±
)
Chi-Quadrado com 4,5 graus de liberdade 14000 PPM
t
-Student com 8 graus de liberdade 4000 PPM
Uniforme 0
Normal 2700 PPM
Tabela 3.1 – Comparação da proporção de itens não conformes em distribuições diferentes
Fonte: Baseado em Miranda (2005)
Tais fatos demonstram a importância do rigor metodológico na coleta e no tratamento
dos dados, pois conclusões e definições questionáveis podem ocorrer devido à incorreta
suposição de aderência à distribuição Normal. Para evitar este problema é necessário efetuar
uma análise cuidadosa e o teste de normalidade dos dados antes de se aplicar os
procedimentos metodológicos descritos.
Capítulo 3: Estudo da Não Normalidade 53
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
3.3 Não Normalidade, Gráficos de Controle e Capabilidade
Conforme argumentação enfatizada no tópico 2.4.3, a aplicação de CEP pressupõe que
as observações do processo em estudo sejam independentes e identicamente distribuídas, além
de seguirem uma distribuição de probabilidade específica. Juran & Gryna (1992)
estabeleceram alguns critérios para abordagem dos dados em caso de não normalidade:
a) Examinar os dados para verificar se alguma explicação não estatística para o
padrão distribucional não convencional;
b) Analisar os dados em termos de médias ao invés de valores individuais, pois
médias de amostra seguem de perto uma distribuição de probabilidade normal,
mesmo quando a população de valores individuais não é distribuída normalmente
(Teorema Central do Limite);
c) Utilizar como referência outro tipo de distribuição que se enquadre mais
adequadamente ao conjunto de dados coletados;
d) Efetuar transformação matemática da característica original para uma nova
característica que se aproxime de uma distribuição Normal.
Quando os dados seguem uma distribuição não normal conhecida, as análises devem
ser efetuadas considerando as propriedades características deste conjunto de dados. Uma
alternativa para a construção de gráficos de controle nestes casos é demonstrada através da
Figura 3.1.
Figura 3.1 – Limites de controle em termos de percentis para distribuições não normais
Até esta linha estão contidas
99,865% das observações
(percentil 99,865)
LSC
Limite Superior de Controle
LIC
Limite Inferior de Controle
Até esta linha estão contidas
0,135% das observações
(percentil 0,135)
Até esta linha estão contidas
50% das observações
(percentil 50)
LM
Linha Média
percentil 50 (mediana)
0,50000.(área sob a curva)
percentil
0,135
0,00135.(área sob a curva)
percentil
99,865
0,99865.(área sob a curva)
n
x
σ
3Md
σ
3+Md
Gráfico com Limites de Controle Definidos
em Percentis (Distribuições Não Normais)
Curva Assimétrica
Md
Capítulo 3: Estudo da Não Normalidade 54
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Com base em Levinson (2000), conhecendo-se a função densidade de probabilidade
da distribuição não normal em questão, é possível determinar o limite inferior de controle, a
linha média e o limite superior de controle através dos valores coletados correspondentes aos
percentis 0,135, 50 e 99,865, respectivamente, da seguinte forma:
LIC =
σ
µ
3
(corresponde a 0,135% da área sob a curva da distribuição)
LM =
µ
(corresponde a 50% da área sob a curva da distribuição)
LSC =
σ
µ
3
+
(corresponde a 99,865% da área sob a curva da distribuição)
Com relação ao cálculo de capabilidade a mesma abordagem pode ser adotada quando
a distribuição não normal em estudo é bem conhecida, determinando-se a taxa de defeituosos
por meio dos parâmetros da distribuição em questão. De acordo com Miranda (2005), o
seguinte método de cálculo do índice de capabilidade através de percentis desenvolvido por
J.A. Clements em 1989 pode ser convenientemente aplicado (Equações 3.2 e 3.3):
C
P(q)
=
00135,099865,0
xx
LIELSE
(3.2)
C
PK(q)
= min.
00135,050000,0
50000,0
50000,099865,0
50000,0
,
xx
LIEx
xx
xLSE
(3.3)
Onde:
C
P(q)
= índice de capabilidade potencial do processo com percentis
C
PK(q)
= índice de capabilidade real do processo com percentis
LSE = limite superior de especificação
LIE = limite inferior de especificação
00135,0
x
= percentil 0,135 correspondente ao valor
σ
µ
3
da distribuição normal
50000,0
x
= percentil 50 correspondente à média
µ
da distribuição normal
99865,0
x
= percentil 99,865 correspondente ao valor
σ
µ
3
+
da distribuição normal
00135,099865,0
xx
= amplitude correspondente ao valor
σ
6
da distribuição normal
Uma outra possibilidade de avaliação em processos definidos por dados modelados
por distribuições não normais, a transformação matemática das variáveis, é apresentada com
maiores detalhes no próximo tópico.
Capítulo 3: Estudo da Não Normalidade 55
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
3.4 Transformação de Dados
3.4.1 Aspectos Gerais
As técnicas de transformação de variáveis dependentes e independentes em modelos
estatísticos podem ser úteis para melhorar a interpretão dos dados e a sua aderência em
modelos hipotéticos. Box & Tidwell (1962) afirmam que para representar as relações entre
uma resposta e um mero de variáveis independentes, é preferível sempre que possível,
trabalhar com um modelo simples com variáveis transformadas do que com modelos mais
complexos na forma original das variáveis. Segundo estes autores muita pesquisa
experimental diz respeito ao estudo de uma função resposta do tipo
(
)
yE
=
(
)
θ
,
xf
, onde x
representa o nível das variáveis e
θ
, o conjunto de parâmetros que afetam a resposta. Nestes
casos o objetivo usualmente é:
a) Verificar a adequação da forma funcional assumida;
b) Estimar os valores dos parâmetros
θ
e, conseqüentemente a resposta
(
)
yE
;
c) Obter medidas de precisão das estimativas.
Supondo que n observações sejam efetuadas; então a u-ésima observação y
u
em um
nível conhecido das variáveis x
u
= x
u1
, x
u2
, ..., x
u
k
é dado por meio da Equação 3.4:
(
)
uuu
xfy
ε
θ
+
=
,
(3.4)
Onde:
θ
= conjunto de p parâmetros
1
θ
,
2
θ
, ...,
p
θ
que afetam a função resposta
u
ε
= erros observados na função resposta da variável dependente
A premissa básica de uma transformação de variáveis independentes é que os erros
u
ε
na variável dependente sejam normalmente e independentemente distribuídos com variância
2
σ
constante, de modo a converter a função destas variáveis transformadas em uma forma
mais simples quanto possível. A transformação de variáveis dependentes é freqüentemente
aplicada para encontrar as suposições necessárias para certos modelos nos quais os resíduos
sejam normalmente distribuídos com variância constante. Para ilustrar, se em uma
distribuição a dispersão dos resíduos aumenta com valores maiores da variável dependente,
uma transformação com raiz-quadrada da variável dependente estabilizaria a variância e, além
disso, se necessário, poderia ao mesmo tempo normalizar os resíduos.
Capítulo 3: Estudo da Não Normalidade 56
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Embora modelos de regressão usualmente não necessitem de suposições acerca da
distribuição de variáveis independentes, uma variável independente pode ser transformada
para melhor adequão ou para tornar esta distribuição mais simétrica e aliviar a excessiva
influência de um valor fora do padrão (outlier). As transformações podem ser aplicadas às
variáveis dependentes e/ou independentes para converter um modelo de regressão não linear
em linear. Por exemplo, uma transformação logarítmica da variável dependente mudaria um
modelo de crescimento exponencial em uma regressão linear, simplificando, deste modo, os
procedimentos de estimação.
Como as transformações têm múltiplos efeitos, seu uso requer alguns cuidados. Por
exemplo, quando se transforma uma variável para encontrar a suposição de normalidade e
variância constante dos resíduos, pode-se omitir o fato de que esta transformação poderia
alterar as relões existentes entre as variáveis originais. Uma análise de resíduos poderia ser
usada extensivamente para avaliar a adequação da transformação específica. As
transformações também afetam os coeficientes dos modelos obtidos. Se desejado, para
algumas transformações, uma função inversa pode ser aplicada para obter coeficientes que
permitam interpretação nas unidades originais.
De acordo com Chen et al. (2003) muitos testes estatísticos são baseados na suposição
de normalidade; quando os dados se afastam desta condição, uma transformação adequada
pode freqüentemente produzir um conjunto de dados que sigam de forma aproximada a
distribuição Normal. Para Box & Tidwell (1962) um dos mais simples tipos de transformação
que pode ser empregado em diversas aplicações é a transformação de potência (power
transformation), que inclui muitas das formas comumente utilizadas, tais como,
transformação inversa e transformação com raiz quadrada. No tópico seguinte é abordado um
tipo muito útil de transformação de potência, a transformação de Box-Cox.
3.4.2 Transformação de Box-Cox
As técnicas para análise de modelos lineares, exemplificados pela Análise de
Variância e pela Análise de Regressão, são baseadas nas seguintes premissas de acordo com
Box & Cox (1964):
a) Simplicidade da estrutura para
(
)
yE
;
b) Variância constante;
c) Normalidade da distribuição;
d) Independência das observações.
Capítulo 3: Estudo da Não Normalidade 57
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Conforme previamente comentado, a estratégia para fazer com que dados não normais
se aproximem de uma distribuição Normal através de transformação das variáveis em estudo
também deve ser considerada. Entretanto a escolha do tipo adequado de transformação não
parece ser uma tarefa óbvia, pois em termos matemáticos existem inúmeras possibilidades e
apenas o método de “tentativa e erro” nem sempre é o mais recomendado. A transformação
linear, por exemplo, altera a escala da distribuição, mas em alguns casos não altera sua forma;
já a transformação de potência é mais eficiente para este propósito.
Box & Cox (1964) efetuaram um estudo detalhado em análise de dados, com ênfase na
transformação de variáveis dependentes, onde a idéia principal era dedicar atenção em
transformações indexadas por um parâmetro
λ
desconhecido e a partir de então estimar os
outros parâmetros do modelo através de métodos convencionais de inferência. O resultado
mais importante deste estudo foi a definição da seguinte família de transformão de potência
da variável y para y
(λ)
(Equação 3.5):
y
(
λ
)
=
y
y
ln
1
λ
λ
)0(
)
0
(
=
λ
λ
(3.5)
Onde:
y
(λ)
= variável dependente após a transformação
y = variável dependente antes da transformação
λ
= parâmetro que define a transformão
Segundo Box & Cox (1964) esta transformação é definida somente para variáveis com
valores positivos (x > 0) e o parâmetro
λ
é o elemento que define a transformação específica
e que, com freqüência, resulta em normalidade. Como existem transformações lineares que
não afetam a análise de variância, na prática a Equação 3.5 pode ser simplificada para a
seguinte forma (Equação 3.6):
y
(
λ
)
=
y
y
ln
λ
)0(
)
0
(
=
λ
λ
(3.6)
Capítulo 3: Estudo da Não Normalidade 58
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Em outras palavras, a transformação de Box-Cox indica o valor do parâmetro
λ
que
minimiza o erro quadrático (e conseqüentemente o desvio-padrão) da variável transformada,
sendo a transformação resultante igual a
λ
y quando
λ
é diferente de zero e ln
y
quando
λ
é
igual a zero.
A aplicação da transformão de Box-Cox através do
software
estatístico Minitab
está estruturada na pesquisa dos valores de
λ
no intervalo e -5 até 5, de modo que quando a
transformação é solicitada, o
software
apresenta um gráfico com as seguintes características:
a) A melhor estimativa de
λ
para a transformação pretendida;
b) Dois valores concorrentes para o verdadeiro valor de
λ
;
c) Um intervalo com 95% de confiança para o verdadeiro valor de
λ
.
Alguns exemplos típicos de transformação e o seu correspondente significado para
valores de
λ
variando entre -2 e 2 são apresentados na Tabela 3.2.
VALOR DE
λ
TRANSFORMAÇÃO
y
(λ)
= y’
DENOMINAÇÃO COMUM
2 y’ = y
2
Quadrado
1
y’ = y
Não Há Transformação
0,5
y’ =
y
Raiz Quadrada
0
y’ = ln
y
Logaritmo Natural
-0,5
y’ =
y
1
Inverso da Raiz Quadrada
-1
y’ =
y
1
Inverso
-2
y’ =
2
1
y
Inverso do Quadrado
Tabela 3.2 – Exemplos típicos da transformação de Box-Cox
De acordo com Box & Cox (1964) após a adequada transformação da variável y para
y
(λ)
, pode-se presumir que os valores esperados das observações transformadas apresentem as
seguintes características:
a) Sejam descritos por um modelo de estrutura simples;
b) A variância seja constante;
c) As observações sejam normalmente distribuídas.
Capítulo 3: Estudo da Não Normalidade 59
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para exemplificar as técnicas de transformação de variáveis, um conjunto de dados
não normais contendo 48 (quarenta e oito) observações é apresentado através da Tabela 3.3.
EXEMPLO COM 48 OBSERVAÇÕES NÃO NORMAIS
0,31 0,82 0,43 0,45
0,45 1,10 0,45 0,71
0,46 0,88 0,63 0,66
0,43 0,72 0,76 0,62
0,36 0,92 0,44 0,56
0,29 0,61 0,35 1,02
0,40 0,49 0,31 0,71
0,23 1,24 0,40 0,38
0,22 0,30 0,23 0,30
0,21 0,37 0,25 0,36
0,18 0,38 0,24 0,31
0,23 0,29 0,22 0,33
Tabela 3.3 – Exemplo de um conjunto de dados não normais
A Figura 3.2 apresenta o resultado da análise da distribuição referente ao conjunto de
dados da Tabela 3.3. A condição de não normalidade é confirmada, pois o valor P (
p-value
)
mostrou-se inferior a 0,05 no teste de normalidade de Anderson-Darling.
Figura 3.2 – Exemplo de análise de dados não normais
1,21,00,80,60,40,2
Median
Mean
0,550,500,450,400,35
A nderson-Darling Normality Test
V ariance 0,06394
Skew ness 1,22913
Kurtosis 1,00710
N 48
Minimum 0,18000
A -Squared
1st Q uartile 0,30000
Median 0,40000
3rd Q uartile 0,62750
Maximum 1,24000
95% C onfidence Interv al for M ean
0,40595
1,94
0,55280
95% C onfidence Interv al for M edian
0,34599 0,45200
95% C onfidence Interv al for StDev
0,21050 0,31673
P-V alue < 0,005
Mean 0,47938
StDev 0,25286
95% Confidence Intervals
Resumo dos Dados - EXEMPLO
Capítulo 3: Estudo da Não Normalidade 60
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para este mesmo exemplo, após a aplicação da transformação de Box-Cox pode-se
avaliar a validade da transformação através do diagrama representado pela Figura 3.3.
Figura 3.3 – Exemplo de um gráfico relativo à transformação de Box-Cox
Através deste diagrama, podem ser visualizados na parte superior direita, o valor
estimado (-0,59117) e o melhor valor (-0,50000) para
λ
, sendo que o melhor valor é aquele
efetivamente utilizado na transformação. Além disso, são indicados os valores limítrofes
inferior (-1,21193) e superior (-0,01985), destacados pelas linhas verticais. O intervalo com
95% de confiança inclui todos os valores de
λ
que produzem dados transformados com
desvio-padrão menor ou igual à linha horizontal, sendo que um valor de
λ
muito próximo a 1
não resultaria em transformação útil.
Em situações de aplicação prática é preferível que este valor corresponda a
transformações que possam ser facilmente entendidas, tais como raiz quadrada (
λ
= 0,5) ou
logaritmo natural (
λ
= 0). Neste exemplo a escolha razoável é -0,5 (inverso da raiz quadrada),
pois além de representar uma transformação explicável, a mesma está contida no intervalo de
95% de confiança.
Após a transformação de Box-Cox com utilização do parâmetro
λ
igual a -0,5 é
possível efetuar uma nova verificação em relação à condição de normalidade dos dados. A
Figura 3.4 mostra a análise dos dados transformados com destaque para o teste de
normalidade de Anderson-Darling, que apresenta
p-value
igual a 0,519; logo a distribuição
transformada deve ser considerada normal.
Lambda
StDev
5,02,50,0-2,5-5,0
1,6
1,4
1,2
1,0
0,8
0,6
0,4
0,2
0,0
Lower CL Upper C L
Limit
Lambda
-0,50000
(using 95,0% confidence)
Estimate -0,59117
Lower CL -1,21193
Upper CL -0,01985
Best Value
Transformação de Box-Cox - EXEMPLO
Capítulo 3: Estudo da Não Normalidade 61
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 3.4 – Exemplo de análise dos dados após transformação de Box-Cox
De acordo com Yeo & Johnson (2000) a contribuição de Box & Cox foi o maior passo
na determinação de uma maneira objetiva de se efetuar transformação de dados. Entretanto,
como a transformação de Box-Cox é válida apenas para valores positivos, havia espaço para
algum tipo de melhoria. Embora seja possível efetuar uma troca de parâmetros em caso de
valores negativos para utilização da transformação de Box-Cox, existe o inconveniente de tal
ação afetar a teoria que suporta a definição do intervalo de confiança de
λ
.
Yeo & Johnson (2000) propuseram uma nova família de transformação de dados,
válida tanto para valores positivos como para valores negativos. Sua fórmula, definida como
uma função ψ: R X R R, é apresentada através da Equação 3.7.
Ψ
(
λ
, x)
=
{
}
{ }
+
+
+
+
)1log(
2
1)1(
)1log(
1)1(
2
x
x
x
x
λ
λ
λ
λ
)2,0(
)2,0(
)0,0(
)0,0(
=<
<
=
λ
λ
λ
λ
x
x
x
x
(3.7)
2,42,11,81,51,20,9
Median
Mean
1,701,651,601,551,50
A nderson-Darling Normality Test
V ariance 0,1359
Skew ness 0,065131
Kurtosis -0,801735
N 48
M inimum 0,8980
A -Squared
1st Q uartile 1,2624
M edian 1,5811
3rd Q uartile 1,8257
M aximum 2,3570
95% C onfidence Interv al for Mean
1,4707
0,32
1,6848
95% C onfidence Interv al for Median
1,4874 1,7004
95% C onfidence Interv al for StDev
0,3069 0,4617
P-V alue 0,519
M ean 1,5778
StD ev 0,3686
95% Confidence Intervals
Resumo dos Dados Transformados por Box-Cox
Capítulo 3: Estudo da Não Normalidade 62
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
3.4.3 Transformação de Johnson
Um outro método que pode ser empregado, conhecido como transformação de
Johnson desenvolvido em 1949 por Norman L. Johnson, consiste em converter uma variável x
para a distribuição normal padronizada. A transformão inclui três famílias de distribuição:
a) Família S
B
(onde o índice B provém de bounded ou limitado);
b) Família S
L
(onde o índice L significa Lognormal);
c) Família S
U
(onde o índice U provém de unbounded ou ilimitado).
Segundo Johnson (1949) a transformação é definida por uma das três fórmulas a partir
da determinação dos parâmetros
γ
,
η
,
ε
e
λ
. As ts fórmulas de transformação para a
normal reduzida são mostradas na Tabela 3.4.
FAMÍLIA
TRANSFORMAÇÃO PARÂMETROS
S
B
+
+
x
x
ελ
ε
ηγ
ln.
η, λ > 0,
-
< γ <
-
< ε <
ε < x < ε + λ
S
L
(
)
ε
η
γ
+
xln.
η > 0,
-
< γ <
-
< ε <
ε < x
S
U
+
λ
ε
ηγ
x
Sinh
1
.
η, λ > 0,
-
< γ <
-
< ε <
ε < x < ε + λ
Tabela 3.4 – Fórmulas associadas com as famílias da transformação de Johnson
Fonte: Adaptado de Johnson (1949)
A aplicação da transformação de Johnson através do software estatístico Minitab
está estruturada de modo que o algoritmo execute as seguintes etapas:
a) Considera as funções potenciais do sistema de Johnson;
b) Estabelece a estimativa dos parâmetros
γ
,
η
,
ε
e
λ
;
c) Executa a transformação dos dados através da função de transformação;
d) Efetua o teste de normalidade de Anderson-Darling para os dados transformados;
e) Seleciona a função de transformação que apresente o maior p-value.
Caso o valor P (p-value) seja inferior ao valor
α
pré-estabelecido não se obtém
transformação que resulte em normalidade.
Capítulo 3: Estudo da Não Normalidade 63
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados não normais da Tabela 3.3 também foi efetuada aplicação da
transformação de Johnson com as suas características destacadas na Figura 3.5.
Figura 3.5 – Exemplo de um gráfico relativo à transformação de Johnson
A análise do diagrama acima, correspondente à transformação de Johnson, permite a
discussão dos seguintes aspectos:
a) Comparação entre os dados antes e depois da transformação através do gráfico
normal de probabilidade. No exemplo, como se sabia, os dados originais
apresentam p-value menor que 0,05 (não normais), ao passo que os dados
transformados possuem p-value igual a 0,855, caracterizando a adequada
normalização dos dados;
b) O diagrama de dispersão de p-value versus z-value em uma faixa de 0,25 a 1,25
indica a melhor função de transformação a ser selecionada para
z igual a 0,67;
c) O gráfico também mostra a função de transformação selecionada (família S
B
) com
os seus parâmetros correspondentes.
Observa-se através deste exemplo que, a probabilidade de 85,5% de que a distribuição
transformada por Johnson seja Normal é bem maior do que aquela referente à distribuição
resultante da transformação de Box-Cox (51,9%), ou seja, a transformação através do método
de Johnson mostrou-se mais efetiva.
Percent
1,20,80,40,0
99
90
50
10
1
N 48
AD 1,945
P-Value <0,005
Percent
20-2
99
90
50
10
1
N 48
AD 0,209
P-Value 0,855
Z Value
P-Value for AD test
1,21,00,80,60,40,2
0,8
0,6
0,4
0,2
0,0
0,67
Ref P
P-V alue for Best Fit: 0,854883
Z for Best F it: 0,67
Best Transformation Ty pe: SB
Transformation function equals
1,41148 + 0,900175 * Log( ( X - 0,163993 ) / ( 1,67335 - X ) )
Probability Plot for Or iginal Data
Pr obability Plot for T ransfor med Data
Select a T ransformation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - EXEMPLO
Capítulo 4: Aplicação da Metodologia 64
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4. APLICAÇÃO DA METODOLOGIA
4.1 Considerações Gerais
4.1.1 Aspectos Metodológicos
A presente dissertação apresenta a questão referente à ocorrência de decisões
questionáveis na aplicação de métodos estatísticos devido à interpretação inadequada dos
dados coletados. Este é um problema para o qual se obteve solução a partir de outras
pesquisas, algumas delas mencionadas neste trabalho; entretanto, o que realmente motiva a
abordagem deste tema é a necessidade de se destacar a relevância do rigor metodológico
durante coleta e tratamento de dados estatísticos e promover uma maior divulgação das
técnicas de transformação de variáveis.
Conforme definido no capítulo 1, este trabalho combina investigação experimental e
pesquisa exploratória. Para permitir uma visualização completa dos aspectos gerais da
pesquisa um resumo é apresentado através do Quadro 4.1. Na investigação experimental
foram analisados os dados modelados pelas distribuições não normais Gamma (Apêndice A) e
Beta (Apêndice B) em relação à interpretação dos gráficos de controle individuais e cálculo
do nível sigma através da comparação das técnicas de transformação com a determinação dos
percentis a partir da função densidade de probabilidade das distribuições. Na pesquisa
exploratória foram investigados quatro conjuntos de dados reais não normais (Apêndices C e
D) em relação ao cálculo de capabilidade com utilização das técnicas de transformação de
variáveis em comparação ao ajuste da melhor distribuição aplicável aos dados (Best Fitting).
Quadro 4.1 – Resumo dos aspectos gerais da pesquisa
TIPO DE PESQUISA DADOS NÃO NORMAIS LIMITES
MÉTODO TÉCNICA
CONJUNTO
DE DADOS
ORIGEM DOS
DADOS
QUESTÕES A
INVESTIGAR
LIE LSE
OBJETIVOS
ESPECÍFICOS
Gamma 220
(Apêndice A)
-
12
Pesquisa
Experimental
Simulação
Beta 2550
(Apêndice B)
Software
Minitab
Gráfico de
Controle
Individual e
Nível Sigma
8,20 8,50
Comparar dados
originais e análise de
percentis
c/ dados
transformados
3/4AE e 3/4AD
(Apêndice C)
19,124 19,151
Pesquisa
Exploratória
Estudo de
Caso
5/8TE e 5/8TD
(Apêndice D)
Processo
Industrial
Cálculo de
Capabilidade e
Nível Sigma 15,950 15,977
Comparar dados
originais
e distribuição
adotada c/ dados
transformados
Capítulo 4: Aplicação da Metodologia 65
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.1.2 Caracterização dos Cenários da Pesquisa
Segundo Kotz & Johnson (2002) o rápido desenvolvimento científico no final do
século XX, incluindo pesquisa em operações e estatística, foi verdadeiramente assombroso, de
tal forma que muitos trabalhos efetuados pouco mais de uma década hoje são classificados
como obsoletos. Entretanto, devido à lacuna percebida entre teoria e prática, é pertinente a
realização de um estudo exploratório para o caso relativo à aplicação de alguns métodos
estatísticos de interesse acadêmico e industrial.
Para compor o contexto ilustrativo dos métodos estatísticos analisados no
desenvolvimento da pesquisa foi elaborada uma investigação experimental baseada na
utilização de construtos relacionados ao estudo de dados não normais simulados, modelados
pelas distribuições Gamma e Beta, respectivamente. Para facilitar sua identificação, deste
ponto em diante, os dados modelados pela distribuição Gamma serão chamados de “Gamma
220” e, sob a óptica de um contexto fictício, poderiam estar relacionados, por exemplo, à
coleta do tempo médio diário de permanência em fila em uma empresa de prestação de
serviços nos dias trabalhados ao longo de um ano. Neste contexto o tempo médio não deve
exceder 12 minutos (limite superior de especificação). Estes dados, que podem ser
consultados no Apêndice A, foram gerados através do software estatístico Minitab da
seguinte maneira:
Função: Calc / Set Base = 0
Função: Calc / Random Data/ Gamma / Generate = 302 / Shape = 2 / Scale =2
Ou seja, foram gerados 302 valores seguindo a distribuição Gamma com parâmetros
shape igual a 2, scale igual a 2 e base para geração de dados igual a 0.
A mesma abordagem vale para os dados modelados pela distribuição Beta que serão
denominados simplesmente como “Beta 2550”. No mesmo contexto fictício estes dados
poderiam estar relacionados, por exemplo, à medição do diâmetro de peças usinadas. A
medida do diâmetro desta peça usinada, neste cenário, deve ser 8,35
±
0,15 mm, ou seja, deve
estar situada entre 8,20 mm (limite inferior de especificação) e 8,50 mm (limite superior de
especificação). Os dados brutos, detalhados no Apêndice B, foram gerados através do
software estatístico Minitab da seguinte maneira:
Função: Calc / Set Base = 0
Função: Calc / Random Data / Beta / Generate = 200 / First Shape Parameter = 25
/ Second Shape Parameter =5
Adição da constante 7,5 a cada um dos valores obtidos
Capítulo 4: Aplicação da Metodologia 66
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Ou seja, foram gerados 200 valores seguindo a distribuição Beta com primeiro
parâmetro shape igual a 25, segundo parâmetro shape igual a 5 e base para geração de dados
igual a 0, com posterior transformação linear através do acréscimo da constante 7,5.
Os passos estabelecidos para a condução desta investigação experimental e os
correspondentes tópicos dos capítulos da dissertação são mostrados na Figura 4.1.
Figura 4.1 – Fluxograma das atividades da pesquisa experimental
A pesquisa exploratória, sob a forma de estudo de caso, teve o propósito de efetuar um
exame detalhado em um processo específico de furação de precisão em uma empresa
localizada no interior do estado de São Paulo. Os passos estabelecidos para a condução desta
pesquisa exploratória e os correspondentes tópicos dos capítulos são mostrados na Figura 4.2.
Capítulo 4: Aplicação da Metodologia 67
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.2 – Fluxograma das atividades da pesquisa exploratória
Devido a uma demanda específica do setor de Engenharia e Projeto da empresa, houve
a necessidade de se determinar a capabilidade do referido processo. Após coleta dos dados
obtidos em um determinado período, os mesmos foram divididos em dois conjuntos de acordo
com a medida nominal do diâmetro do furo e o tipo de material do componente a ser furado.
Os dados brutos do primeiro conjunto, que podem ser consultados através do
Apêndice C, são relativos a dois grupos de medições de diâmetro de furos em um componente
estrutural de alumínio para fixação de parafusos com diâmetro de 3/4 de polegada. No
desenvolvimento do trabalho estes grupos de medições serão denominados simplesmente por:
“3/4AE” – medições de furos na parte esquerda do componente de alumínio; e
“3/4AD” – medições de furos na parte direita do componente de alumínio.
Capítulo 4: Aplicação da Metodologia 68
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
As tolerâncias de projeto especificadas para estes furos são as seguintes:
LIE (Limite Inferior de Especificação) = 19,124 mm
LSE (Limite Superior de Especificação) = 19,151 mm
Os dados do segundo conjunto estão detalhados no Apêndice D e referem-se aos
valores de dois grupos de medições de diâmetro de furos em um componente estrutural de
titânio para fixação de parafusos com diâmetro de 5/8 de polegada. São eles:
“5/8TE” – medições de furos na parte esquerda do componente de titânio; e
“5/8TD” – medições de furos na parte direita do componente de titânio.
As tolerâncias de projeto especificadas para estes furos são as seguintes:
LIE (Limite Inferior de Especificação) = 15,950 mm
LSE (Limite Superior de Especificação) = 15,977 mm
4.2 Investigação Experimental Através de Simulação de Dados
4.2.1 Análise de Dados Modelados pela Distribuição Gamma
De acordo com as considerações apresentadas no capítulo 1 as principais questões a
serem investigadas através da pesquisa experimental são:
a) Identificação de falsas causas especiais de variação nos gráficos de controle
individuais em Controle Estatístico de Processo;
b) Cálculo incorreto do nível sigma na avaliação de capabilidade utilizando a
Metodologia Seis Sigma.
Antes da aplicação dos métodos estatísticos citados foi necessário efetuar uma análise
dos dados disponíveis em “Gamma 220quanto a sua aderência à distribuição Normal. A
partir dos dados simulados relativos ao tempo médio de fila em “Gamma 220” (Apêndice A)
foram efetuados a análise da distribuição e o teste de normalidade de Anderson-Darling
utilizando o programa estatístico.
Conforme argumentação indicada no capítulo 3, a verificação de normalidade das
distribuições estudadas nesta pesquisa baseou-se na análise do valor P (p-value) associado à
estatística A
2
do teste de normalidade de Anderson-Darling. Visto que para “Gamma 220” o
valor P de 0,005 mostrou-se menor que o nível de significância arbitrado (
α
= 0,05), a
hipótese nula de normalidade foi rejeitada e, obviamente a distribuição em questão não pôde
ser considerada normalmente distribuída. A Figura 4.3 apresenta o resultado da análise dos
dados em “Gamma 220”.
Capítulo 4: Aplicação da Metodologia 69
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.3 – Análise dos dados para “Gamma 220”
A análise do conjunto de dados “Gamma 220” também indicou a existência de alguns
pontos extremos fora do padrão seguido pelo restante dos dados, isto é, de acordo com os
conceitos apresentados no tópico 2.3.1, tais pontos foram caracterizados como outliers.
Através da análise do conjunto de dados “Gamma 220” sem a presença dos outliers,
apresentada na Figura 4.4 como “Gamma 220*”, concluiu-se que a distribuição resultante não
era normal, pois o valor de p-value permaneceu inferior a 0,05.
Figura 4.4 – Análise dos dados para “Gamma 220” sem outliers
12,09,67,24,82,40,0
Median
Mean
4,24,03,83,63,43,23,0
A nderson-Darling Normality Test
V ariance 7,3045
Skew ness 0,951654
Kurtosis 0,376689
N 302
M inimum 0,1167
A -Squared
1st Q uartile 1,8485
M edian 3,3539
3rd Q uartile 5,4893
M aximum 12,7573
95% C onfidence Interv al for M ean
3,6496
6,51
4,2617
95% C onfidence I nterv al for M edian
2,9526 3,6943
95% C onfidence Interv al for S tDev
2,5029 2,9373
P -V alue < 0,005
M ean 3,9556
StD ev 2,7027
95% Confidence Intervals
Resumo dos Dados - Gamma 220
10,59,07,56,04,53,01,50,0
Median
Mean
4,24,03,83,63,43,23,0
A nderson-Darling N ormality Test
V ariance 6,0568
Skew ness 0,784786
Kurtosis -0,103677
N 295
Minimum 0,1167
A -Squared
1st Q uartile 1,8198
Median 3,1975
3rd Q uartile 5,3798
Maximum 10,5915
95% C onfidence Interv al for M ean
3,4933
5,31
4,0573
95% C onfidence Interv al for M edian
2,9104 3,5979
95% C onfidence Interv al for S tD ev
2,2772 2,6775
P-V alue < 0,005
Mean 3,7753
StDev 2,4610
95% Confidence Intervals
Resumo dos Dados - Gamma 220*
Capítulo 4: Aplicação da Metodologia 70
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como o conjunto de dados “Gamma 220” sem outliers também não seguia a
distribuição Normal, foi efetuada a verificação da distribuição que melhor representasse estes
dados por meio das técnicas de análise de correlação. Conforme mostrado na Figura 4.5, a
distribuição Weibull com 3 parâmetros foi a melhor opção encontrada, pois indicou o maior
coeficiente de correlação (0,998) entre as distribuições analisadas para um intervalo de 95%
de confiança.
Figura 4.5 – Avaliação da melhor distribuição aplicável aos dados “Gamma 220” sem outliers
4.2.2 Transformação de Dados Modelados pela Distribuição Gamma
Para o conjunto de dados “Gamma 220” (Apêndice A) foi efetuada aplicação da
transformação de Box-Cox. As características da transformação, com destaque para
determinação do parâmetro
λ
= 0,27, estimado com 95% de confiança, são mostradas na
Figura 4.6.
Após transformação de Box-Cox, admitindo
α
= 0,05, os dados obtidos puderam ser
representados por uma distribuição Normal, visto que p-value (0,476) resultou maior que
0,05. Em outras palavras, havia uma probabilidade de 47,6% de que a distribuição fosse
normalmente distribuída. A Figura 4.7 apresenta a análise gráfica da distribuição resultante da
transformação de Box-Cox.
Gamma 220*
Percent
10,01,00,1
99,9
99
90
80
70
60
50
40
30
20
10
5
3
2
1
0,1
Table of S tatistics
StD ev 2,47839
Median 3,30794
IQ R 3,28743
F ailure 295
C ensor 0
Shape
A D * 0,411
C orrelation 0,998
1,54157
Scale 4,15948
Thres 0,0286191
Mean 3,77181
Gráfico de Probabilidade - Gamma 220*
Complete Data - LSXY Estimates
3-Parameter Weibull - 95% CI
Capítulo 4: Aplicação da Metodologia 71
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.6 – Transformação de Box-Cox para os dados em “Gamma 220”
Figura 4.7 – Análise dos dados transformados por Box-Cox em “Gamma 220”
Para complementar a análise, foi efetuada aplicação da transformação de Box-Cox
para o conjunto de dados “Gamma 220” sem outliers (ou “Gamma 220*”). As características
da transformação, com destaque para determinação do parâmetro
λ
= 0,31, estimado com 95%
de confiança, são mostradas na Figura 4.8.
Lambda
StDev
543210-1-2
50
40
30
20
10
0
Lower CL Upper CL
Limit
Lambda
0,270481
(using 95,0% confidence)
Estimate 0,270481
Lower CL 0,129694
Upper CL 0,423620
Best Value
Transformação de Box-Cox - Gamma 220
1,81,51,20,90,6
Median
Mean
1,421,401,381,361,34
A nderson-Darling Normality Test
V ariance 0,0804
Skew ness -0,189949
Kurtosis -0,316086
N 302
Minimum 0,5593
A -Squared
1st Q uartile 1,1808
Median 1,3872
3rd Q uartile 1,5850
Maximum 1,9911
95% C onfidence Interv al for Mean
1,3462
0,35
1,4104
95% C onfidence Interv al for M edian
1,3402 1,4240
95% C onfidence Interv al for S tD ev
0,2625 0,3081
P-V alue 0,476
Mean 1,3783
StDev 0,2835
95% Confidence Intervals
Resumo dos Dados Gamma 220 Transformados por Box-Cox
Capítulo 4: Aplicação da Metodologia 72
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.8 – Transformação de Box-Cox para os dados em “Gamma 220” sem outliers
Após transformação de Box-Cox, admitindo
α
= 0,05, os dados obtidos puderam ser
representados por uma distribuição Normal, visto que p-value (0,233) resultou maior que
0,05. A Figura 4.9 apresenta a análise gráfica da distribuição resultante da transformão de
Box-Cox.
Figura 4.9 – Análise dos dados transformados por Box-Cox em “Gamma 220” sem outliers
Lambda
StDev
543210-1-2
35
30
25
20
15
10
5
0
Lower CL Upper CL
Limit
Lambda
0,310777
(using 95,0% confidence)
Estimate 0,310777
Lower CL 0,159309
Upper CL 0,456810
Best Value
Transformação de Box-Cox - Gamma 220*
2,11,81,51,20,90,6
Median
Mean
1,501,481,461,441,421,40
A nderson-D arling Normality Test
V ariance 0,1067
Skew ness -0,201499
Kurtosis -0,409347
N 295
M inimum 0,5129
A -Squared
1st Q uartile 1,2045
M edian 1,4351
3rd Q uartile 1,6870
M aximum 2,0823
95% C onfidence Interv al for M ean
1,3974
0,48
1,4723
95% C onfidence Interval for M edian
1,3937 1,4887
95% C onfidence Interv al for S tDev
0,3022 0,3553
P-V alue 0,233
M ean 1,4348
StD ev 0,3266
95% Confidence Intervals
Resumo dos Dados Gamma 220* Transformados por Box-Cox
Capítulo 4: Aplicação da Metodologia 73
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados “Gamma 220” também foi efetuada a transformação de
Johnson. As características desta transformação, com destaque para determinação da família
de transformação e a correspondente equação, são apresentadas na Figura 4.10.
Figura 4.10 – Transformação de Johnson para os dados em “Gamma 220”
Após transformação de Johnson, admitindo
α
= 0,05, os dados foram considerados
como sendo normais (p-value igual a 0,950) conforme mostrado na Figura 4.11.
Figura 4.11 – Análise dos dados transformados por Johnson em “Gamma 220”
Percent
1050-5
99,9
99
90
50
10
1
0,1
N 302
AD 6,515
P-Value <0,005
Percent
420-2
99,9
99
90
50
10
1
0,1
N 302
AD 0,159
P-Value 0,950
Z Value
P-Value for A D test
1,21,00,80,60,40,2
1,00
0,75
0,50
0,25
0,00
0,32
Ref P
P -V alue for Best F it: 0,950434
Z for Best F it: 0,32
Best Transformation Ty pe: S B
Transformation function equals
1,50964 + 1,05836 * Log( ( X + 0,177547 ) / ( 17,5569 - X ) )
P robability P lot for O riginal Data
Pr obability P lot for T r ansformed Data
Select a T r ansformation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - Gamma 220
2,251,500,750,00-0,75-1,50-2,25
Median
Mean
0,150,100,050,00-0,05-0,10
A nderson-Darling N ormality Test
V ariance 1,00575
Skew ness -0,073593
Kurtosis -0,139455
N 302
Minimum -2,81068
A -Squared
1st Q uartile -0,65798
Median 0,03668
3rd Q uartile 0,70963
Maximum 2,55889
95% C onfidence Interv al for Mean
-0,08987
0,16
0,13725
95% C onfidence Interv al for Median
-0,12047 0,15973
95% C onfidence Interv al for StD ev
0,92876 1,08994
P-V alue 0,950
Mean 0,02369
StD ev 1,00287
95% Confidence Intervals
Resumo dos Dados Gamma 220 Transformados por Johnson
Capítulo 4: Aplicação da Metodologia 74
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A análise foi complementada através da transformão de Johnson para o conjunto de
dados “Gamma 220” sem outliers (ou “Gamma 220*”). As características da transformação
são apresentadas na Figura 4.12.
Figura 4.12 – Transformação de Johnson para os dados em “Gamma 220” sem outliers
Após transformação de Johnson, admitindo
α
= 0,05, os dados foram considerados
como sendo normais (p-value igual a 0,892) conforme mostrado na Figura 4.13.
Figura 4.13 – Análise dos dados transformados (Johnson) em “Gamma 220” sem outliers
Percent
1050-5
99,9
99
90
50
10
1
0,1
N 295
AD 5,308
P-Value <0,005
Percent
420-2
99,9
99
90
50
10
1
0,1
N 295
AD 0,194
P-Value 0,892
Z Value
P-Value for AD test
1,21,00,80,60,40,2
0,8
0,6
0,4
0,2
0,0
0,36
Ref P
P -V alue for Best F it: 0,891536
Z for Best F it: 0,36
Best Transformation T y pe: S B
Transformation function equals
1,26615 + 1,04864 * Log( ( X + 0,172357 ) / ( 14,4896 - X ) )
Pr obability P lot for Or iginal Data
Pr obability P lot for T r ansfor med Data
Select a T r ansfor mation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - Gamma 220*
2,251,500,750,00-0,75-1,50-2,25
Median
Mean
0,150,100,050,00-0,05-0,10
A nderson-Darling N ormality Test
V ariance 1,02796
Skew ness -0,086976
Kurtosis -0,213973
N 295
Minimum -2,83032
A -Squared
1st Q uartile -0,67384
Median -0,00188
3rd Q uartile 0,74689
Maximum 2,33124
95% C onfidence Interv al for Mean
-0,09748
0,19
0,13487
95% C onfidence Interv al for Median
-0,12161 0,15370
95% C onfidence Interv al for StD ev
0,93814 1,10304
P-V alue 0,892
Mean 0,01870
StDev 1,01389
95% Confidence Intervals
Resumo dos Dados Gamma 220* Transformados por Johnson
Capítulo 4: Aplicação da Metodologia 75
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.2.3 Gráficos de Controle Individuais – Distribuição Gamma
Algumas formas distintas de utilização de gráfico de controle para avaliação do
processo em termos de tempo médio de fila em “Gamma 220” são discutidas a seguir. Em
uma primeira abordagem, representada pela Figura 4.14, os dados originais foram inseridos
para análise no programa estatístico sem a preocupação de testar a aderência dos mesmos à
distribuição Normal, ou seja, admitindo incorretamente uma condição de normalidade dos
dados.
Analisando o gráfico da Figura 4.14 em relação ao primeiro critério de identificação
de padrões não aleatórios, estabelecido anteriormente no pico 2.4.3, também conhecido
como “teste 1”, que avalia a ocorrência de pontos além dos limites de controle estipulados,
observou-se a existência de 2 (dois) pontos localizados acima do limite superior de controle.
Este fato denotaria a presença de duas causas especiais de variação, caso a suposição de
normalidade estivesse correta.
Figura 4.14 – Gráfico de controle para “Gamma 220” considerando distribuição Normal
No entanto, conforme mencionado anteriormente, o conjunto de dados “Gamma 220”
apresentava algumas observações consideradas fora do padrão distribucional, isto é, alguns
pontos caracterizavam-se como outliers. Por este motivo, também foi construído o gráfico de
controle individual do conjunto de dados “Gamma 220” sem a presença dos outliers (ou
“Gamma 220*”) e assumindo normalidade dos dados. Conforme demonstrado através da
Figura 4.15 não mais se visualizaram pontos além dos limites de controle.
Observation
Individual Value
3002702402101801501209060301
15
10
5
0
-5
_
X=3,96
UCL=11,92
LCL=-4,01
1
1
Gráfico de Controle Individual - Gamma 220
Capítulo 4: Aplicação da Metodologia 76
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.15 – Gráfico de controle “Gamma 220” sem outliers assumindo distribuição Normal
Uma segunda abordagem quanto à avaliação da estabilidade dos dados em “Gamma
220” foi adotada conforme critérios apresentados no tópico 3.3, ou seja, foram estabelecidos
limites de controle por meio do percentil 0,135 (0,105767) para LIC, percentil 50 ou mediana
(3,356690) para a LM e percentil 99,865 (17,8004) para LSC. A Figura 4.16 indica que para
esta situação não foram encontrados pontos fora dos limites de controle.
Figura 4.16 – Gráfico de controle “Gamma 220” com limites de controle em percentis
Observation
Individual Value
2902612322031741451168758291
12,5
10,0
7,5
5,0
2,5
0,0
-2,5
-5,0
_
X=3,78
UCL=11,14
LCL=-3,59
Gráfico de Controle Individual - Gamma 220*
Observation
Individual Value
3002702402101801501209060301
20
15
10
5
0
_
X=3,36
UB=17,80
LB=0,11
1
1
1
Gráfico de Controle Individual - Gamma 220 (percentis)
Capítulo 4: Aplicação da Metodologia 77
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.17 apresenta a mesma análise para “Gamma 220” sem os outliers e,
nesta situação, também não se verificaram pontos além dos limites de controle.
Figura 4.17 – Gráfico de controle “Gamma 220” sem outliers com limites em percentis
Com relação à terceira abordagem, mostrada na Figura 4.18, o gráfico de controle
individual, que foi obtido após prévia transformação dos dados originais para a condição de
normalidade via transformação de Box-Cox, não indicou pontos além dos limites de controle.
Figura 4.18 – Gráfico de controle para “Gamma 220” após transformação de Box-Cox
Observation
Individual Value
3002702402101801501209060301
2,25
2,00
1,75
1,50
1,25
1,00
0,75
0,50
_
X=1,378
UCL=2,236
LCL=0,520
Using Box-Cox Transformation With Lambda = 0,27
Gráfico de Controle Individual - Gamma 220
Observation
Individual Value
2902612322031741451168758291
20
15
10
5
0
_
X=3,36
UB=17,80
LB=0,11
Gráfico de Controle Individual - Gamma 220* (percentis)
Capítulo 4: Aplicação da Metodologia 78
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.19 mostra que os dados de “Gamma 220” transformados por Box-Cox sem
os outliers (“Gamma 220*”) também não apresentaram pontos além dos limites de controle.
Figura 4.19 – Gráfico de controle para “Gamma 220” sem outliers após Box-Cox
Na quarta abordagem, a análise do gráfico de controle individual após a transformação
de Johnson, mostrada na Figura 4.20, não indicou pontos fora dos limites de controle, assim
como nos dados transformados por Box-Cox.
Figura 4.20 – Gráfico de controle para “Gamma 220” após transformação de Johnson
Observation
Individual Value
3002702402101801501209060301
3
2
1
0
-1
-2
-3
_
X=0,024
UCL=3,042
LCL=-2,995
Gráfico de Controle Individual - Gamma 220 (Johnson)
Observation
Individual Value
2902612322031741451168758291
2,5
2,0
1,5
1,0
0,5
_
X=1,435
UCL=2,428
LCL=0,441
Using Box-Cox Transformation With Lambda = 0,31
Gráfico de Controle Individual - Gamma 220*
Capítulo 4: Aplicação da Metodologia 79
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.21 indica que os dados de “Gamma 220” transformados por Johnson sem
os outliers (“Gamma 220*”) também não apresentaram pontos além dos limites de controle.
Figura 4.21 – Gráfico de controle para “Gamma 220” sem outliers após Johnson
4.2.4 Avaliação de Capabilidade – Distribuição Gamma
A avaliação de capabilidade para o conjunto de dados “Gamma 220” teve como
requisito um limite superior de especificação de 12 minutos. Foram calculados diversos
índices de capabilidade z
bench
(z
LT
e z
ST
) diferentes:
a) Em uma primeira abordagem o cálculo foi efetuado com os dados originais e os
dados tratados (sem outliers) como se fossem normalmente distribuídos;
b) No segundo caso a condição assimétrica da distribuição foi considerada no
cálculo, tanto para os dados originais quanto para os dados sem outliers.
c) Na terceira abordagem os dados originais e sem outliers foram previamente
transformados por meio da transformação de Box-Cox;
d) Na quarta situação foi utilizada a transformação de Johnson.
A Figura 4.22 apresenta os resultados do cálculo de capabilidade considerando os
dados originais “Gamma 220” como se fossem normalmente distribuídos. A Figura 4.23
apresenta os resultados considerando os dados originais “Gamma 220” sem a presença de
outliers (“Gamma 220*”) como se fossem normalmente distribuídos.
Observation
Individual Value
2902612322031741451168758291
3
2
1
0
-1
-2
-3
_
X=0,019
UCL=3,083
LCL=-3,045
Gráfico de Controle Individual - Gamma 220* (Johnson)
Capítulo 4: Aplicação da Metodologia 80
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.22 – Índices de capabilidade de “Gamma 220” considerando distribuição Normal
Figura 4.23 – Índices de capabilidade de “Gamma 220” sem outliers assumindo normalidade
Como o conjunto de dados “Gamma 220”, de fato, não era modelado pela distribuição
Normal e sim pela distribuição Gamma, o cálculo de capabilidade foi refeito levando em
conta os parâmetros da função densidade de probabilidade da distribuição Gamma, conforme
demonstrado através da Figura 4.24.
121086420-2
USL
Process Data
Sample N 295
StD ev (Within) 2,45378
StD ev (O v erall) 2,46314
LS L *
Target *
U SL 12,00000
Sample Mean 3,77530
P otential (Within) C apability
C C pk 1,12
O v erall C apability
Z.Bench 3,34
Z.LSL *
Z.U SL 3,34
Ppk
Z.Bench
1,11
C pm *
3,35
Z.LSL *
Z.U SL 3,35
C pk 1,12
O bserv ed Performance
PP M < LSL *
PP M > U SL 0,00
PP M Total 0,00
Exp. Within Performance
PP M < LSL *
PP M > U SL 401,36
PP M Total 401,36
Exp. O v erall P erformance
PP M < LSL *
PP M > U SL 420,24
PP M Total 420,24
Within
Overall
Avaliação de Capabilidade - Gamma 220*
12,09,67,24,82,40,0-2,4
USL
P rocess D ata
S ample N 302
S tD ev (Within) 2,65392
S tD ev (O v erall) 2,70492
LSL *
Target *
U SL 12,00000
S ample M ean 3,95564
P otential (Within) C apability
C C pk 1,01
O v erall C apability
Z.Bench 2,97
Z.LS L *
Z.US L 2,97
P pk
Z.Bench
0,99
C pm *
3,03
Z.LS L *
Z.US L 3,03
C pk 1,01
O bserv ed P erformance
P P M < LS L *
P P M > U S L 6622,52
P P M T otal 6622,52
E xp. Within Performance
P P M < LS L *
P P M > U S L 1218,21
P P M T otal 1218,21
E xp. O v erall P erformance
P P M < LS L *
P P M > U S L 1469,87
P P M T otal 1469,87
W ithin
Ov erall
Avaliação de Capabilidade - Gamma 220
Capítulo 4: Aplicação da Metodologia 81
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.24 – Índices de capabilidade de “Gamma 220” considerando distribuição Gamma
A eliminação dos outliers do conjunto de dados “Gamma 220” resultou em um padrão
diferente da distribuição Gamma. Portanto, antes do cálculo de capabilidade foi verificado
que a distribuição Weibull com 3 parâmetros, representaria o melhor ajuste para os dados de
“Gamma 220” sem a presença de outliers (“Gamma 220*”), para um intervalo de 95% de
confiança. Os resultados nesta situação são apresentados através da Figura 4.25.
Figura 4.25 – Índices de capabilidade de “Gamma 220” sem outliers (distribuição Weibull)
12,09,67,24,82,40,0
USL
P rocess D ata
Sample N 302
Shape 1,97204
Scale 2,00587
LSL *
Target *
U SL 12,00000
Sample M ean 3,95564
O v erall C apability
Z.B ench 2,12
Z.LSL *
Z.U S L 1,81
P pk 0,60
O bserv ed Performance
P P M < LS L *
P P M > US L 6622,52
P P M Total 6622,52
Exp. O v erall P erformance
P P M < LSL *
P P M > U SL 16872,3
P P M Total 16872,3
Avaliação de Capabilidade - Gamma 220
Calculations Based on Gamma Distribution Model
121086420
USL
P rocess D ata
Sample N 295
Shape 1,52086
Scale 4,10639
Threshold 0,07210
LSL *
Target *
U SL 12,00000
Sample M ean 3,77530
O v erall C apability
Z.B ench 2,49
Z.LSL *
Z.U S L 2,38
P pk 0,79
O bserv ed P erformance
P P M < LSL *
P P M > U SL 0
P P M Total 0
Exp. O v erall P erformance
P P M < LSL *
P P M > U SL 6333,34
P P M Total 6333,34
Avaliação de Capabilidade - Gamma 220*
Calculations Based on Weibull Distribution Model
Capítulo 4: Aplicação da Metodologia 82
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.26 apresenta os resultados do cálculo de capabilidade do processo após
aplicação da transformação de Box-Cox no conjunto de dados originais “Gamma 220”.
Figura 4.26 – Índices de capabilidade de “Gamma 220” após transformação de Box-Cox
O cálculo de capabilidade após a transformação de Box-Cox também foi efetuado para
o conjunto de dados “Gamma 220” sem a presença de outliers (“Gamma 220*”) e os
resultados deste cálculo estão evidenciados na Figura 4.27.
Figura 4.27 – Índices de capabilidade de “Gamma 220” sem outliers após Box-Cox
3,22,82,42,01,61,20,80,4
U SL*
transformed data
P rocess Data
Sample N 295
StD ev (Within) 2,45378
StD ev (O v erall) 2,46314
A fter Transformation
LSL* *
Target*
LSL
*
U SL* 3,46410
Sample M ean* 1,83342
StD ev (Within)* 0,65746
StD ev (O v erall)* 0,64496
*
Target *
U SL 12,00000
Sample M ean 3,77530
P otential (Within) C apability
C C pk 0,83
O v erall C apability
Z.B ench 2,53
Z.LSL *
Z.U S L 2,53
P pk
Z.B ench
0,84
C pm *
2,48
Z.LSL *
Z.U S L 2,48
C pk 0,83
O bserv ed P erformance
P P M < LSL *
P P M > U SL 0,00
P P M Total 0,00
Exp. Within P erformance
P P M < LSL* *
P P M > U SL* 6563,93
P P M Total 6563,93
Exp. O v erall P erformance
P P M < LSL* *
P P M > U SL* 5730,01
P P M Total 5730,01
Within
O v erall
Avaliação de Capabilidade - Gamma 220*
Using Box-Cox Transformation With Lambda = 0,5
2,42,11,81,51,20,90,6
US L*
transformed data
Process D ata
Sample N 302
StD ev (Within) 2,65392
StD ev (O v erall) 2,70492
A fter Transformation
LS L* *
Target*
LS L
*
U S L* 2,36251
Sample Mean* 1,51904
StD ev (Within)* 0,39804
StD ev (O v erall)* 0,39338
*
Target *
U S L 12,00000
Sample Mean 3,95564
P otential (Within) C apability
C C pk 0,71
O v erall C apability
Z.Bench 2,14
Z.LSL *
Z.U SL 2,14
Ppk
Z.Bench
0,71
C pm *
2,12
Z.LSL *
Z.U SL 2,12
C pk 0,71
O bserv ed Performance
P P M < LSL *
P P M > U SL 6622,52
P P M Total 6622,52
Exp. Within P erformance
P P M < LSL* *
P P M > U SL* 17043,44
P P M Total 17043,44
Exp. O v erall Performance
PP M < LSL* *
PP M > U SL* 16010,26
PP M Total 16010,26
Within
O v erall
Avaliação de Capabilidade - Gamma 220
Using Box-Cox Transformation With Lambda = 0,345979
Capítulo 4: Aplicação da Metodologia 83
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.28 apresenta os resultados do cálculo de capabilidade do processo após
utilização da transformação de Johnson no conjunto de dados originais “Gamma 220”.
Figura 4.28 – Índices de capabilidade de “Gamma 220” após transformação de Johnson
O cálculo de capabilidade após a transformação de Johnson também foi efetuado para
o conjunto de dados “Gamma 220” sem a presença de outliers (“Gamma 220*”) e os
resultados deste cálculo são mostrados na Figura 4.29.
Figura 4.29 – Índices de capabilidade de “Gamma 220” sem outliers após Johnson
3,002,251,500,750,00-0,75-1,50-2,25
US L*
transformed data
Process D ata
Sample N 295
StDev 2,46105
Shape1 1,26615
Shape2 1,04864
Location -0,17236
LSL
Scale 14,66197
A fter Transformation
LSL* *
Target* *
US L* 2,93038
Sample Mean*
*
0,01870
StDev * 1,01389
Target *
US L 12,00000
Sample Mean 3,77530
O v erall C apability
Z.Bench 2,87
Z.LSL *
Z.U SL 2,87
Ppk 0,96
O bserv ed P erformance
PP M < LSL *
PP M > U SL 0
PP M T otal 0
Exp. O v erall P erformance
PP M < LSL *
PP M > U SL 2040,66
PP M T otal 2040,66
Avaliação de Capabilidade - Gamma 220*
Johnson Transformation with SB Distribution Type
1,266 + 1,049 * Log( ( X + 0,172 ) / ( 14,490 - X ) )
2,251,500,750,00-0,75-1,50-2,25
U S L*
transformed data
P rocess Data
Sample N 302
StD ev 2,70268
Shape1 1,50964
Shape2 1,05836
Location -0,17755
LS L
Scale 17,73440
A fter Transformation
LS L* *
Target* *
U S L* 2,33999
Sample M ean*
*
0,02369
StD ev * 1,00287
Target *
U S L 12,00000
Sample M ean 3,95564
O v erall C apability
Z.B ench 2,31
Z.LSL *
Z.U S L 2,31
P pk 0,77
O bserv ed Performance
P P M < LS L *
P P M > U S L 6622,52
P P M Total 6622,52
Exp. O v erall Performance
P P M < LS L *
P P M > U S L 10453,3
P P M Total 10453,3
Avaliação de Capabilidade - Gamma 220
Johnson Transformation with SB Distribution Type
1,510 + 1,058 * Log( ( X + 0,178 ) / ( 17,557 - X ) )
Capítulo 4: Aplicação da Metodologia 84
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Tabela 4.1 apresenta a comparação dos valores obtidos nas diversas situações
apresentadas, com o correspondente lculo do nível sigma e a fração não conforme em partes
por milhão para o conjunto de dados “Gamma 220”, considerando
z
shift
igual a 1,5 sigma.
PREMISSA ADOTADA PARA CÁLCULO
LSE
(min)
ÍNDICE
Z
LT
NÍVEL
SIGMA
(Z
LT
+1,5)
PPM
Dados originais considerados normalmente distribuídos 12 2,97 4,47 1470
Dados sem
outliers
considerados normalmente distribuídos 12 3,34 4,84 420
Dados originais considerando distribuição Gamma 12 2,12 3,62 16872
Dados sem
outliers
considerando distribuição Weibull 12 2,49 3,99 6333
Dados originais não normais transformados por Box-Cox 12 2,14 3,64 16010
Dados sem
outliers
transformados por Box-Cox 12 2,53 4,03 5730
Dados originais transformados por Johnson 12 2,31 3,81 10453
Dados sem
outliers
transformados por Johnson 12 2,87 4,37 2041
Tabela 4.1 – Cálculos comparativos do nível sigma para “Gamma 220”
4.2.5 Análise de Dados Modelados pela Distribuição Beta
Antes da aplicação dos métodos estatísticos citados foi necessário efetuar uma análise
dos dados disponíveis em “Beta 2550” quanto a sua aderência à distribuição Normal. A partir
dos dados simulados relativos aos valores de diâmetro de pino especial em “Beta 2550”
(Apêndice B) foram efetuados a análise da distribuição e o teste de normalidade utilizando o
programa estatístico, sendo que a verificação de normalidade das distribuições estudadas
nesta pesquisa baseou-se na análise do valor P (p-value) associado à estatística A
2
do teste de
normalidade de Anderson-Darling.
A Figura 4.30 apresenta o resultado da análise dos dados em “Beta 2550”. Admitindo
α
= 0,05, a distribuição em questão foi considerada não normal visto que o p-value obtido
(0,023) resultou menor que 0,05. Assim sendo, como a hipótese nula de normalidade foi
rejeitada, obviamente a distribuição em questão não pôde ser considerada normalmente
distribuída.
A análise do conjunto de dados “Beta 2550também indicou a existência de alguns
pontos extremos fora do padrão seguido pelo restante dos dados, isto é, de acordo com os
conceitos apresentados no tópico 2.3.1, tais pontos foram caracterizados como outliers.
Capítulo 4: Aplicação da Metodologia 85
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Através da análise do conjunto de dados “Beta 2550” sem a presença dos outliers, apresentada
na Figura 4.31 como Beta 2550*”, concluiu-se que a distribuição resultante poderia ser bem
representada pela distribuião normal, pois o p-value encontrado (0,582) resultou superior a
0,05. Como a hipótese nula de normalidade foi aceita, obviamente o conjunto de dados “Beta
2550” pôde ser considerado normalmente distribuído.
Figura 4.30 – Análise dos dados para “Beta 2550”
Figura 4.31 – Análise dos dados para “Beta 2550” sem outliers
8,458,408,358,308,258,208,15
Median
Mean
8,3508,3458,3408,3358,3308,325
A nderson-Darling N ormality Test
V ariance 0,0037
Skew ness -0,460973
Kurtosis 0,401052
N 200
M inimum 8,1589
A -Squared
1st Q uartile 8,2972
M edian 8,3408
3rd Q uartile 8,3722
M aximum 8,4581
95% C onfidence Interv al for Mean
8,3252
0,88
8,3422
95% C onfidence Interv al for M edian
8,3265 8,3478
95% C onfidence Interv al for StD ev
0,0556 0,0677
P -V alue 0,023
M ean 8,3337
StD ev 0,0611
95% Confidence Intervals
Resumo dos Dados - Beta 2550
8,448,408,368,328,288,248,20
Median
Mean
8,3508,3458,3408,3358,330
A nderson-D arling Normality Test
V ariance 0,0030
Skewness -0,089736
Kurtosis -0,149386
N 194
Minimum 8,2005
A -Squared
1st Q uartile 8,3020
Median 8,3425
3rd Q uartile 8,3734
Maximum 8,4581
95% C onfidence Interv al for Mean
8,3310
0,30
8,3465
95% C onfidence Interv al for Median
8,3315 8,3505
95% C onfidence Interv al for StDev
0,0496 0,0606
P-Value 0,582
Mean 8,3388
StDev 0,0546
95% Confidence Intervals
Resumo dos Dados - Beta 2550*
Capítulo 4: Aplicação da Metodologia 86
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.2.6 Transformação de Dados Modelados pela Distribuição Beta
Para o conjunto de dados “Beta 2550” (Apêndice B) foi efetuada a transformação de
Box-Cox. As características desta transformação são mostradas através da Figura 4.32 e a
análise gráfica da distribuição Normal resultante, com p-value igual a 0,065, é apresentada na
Figura 4.33.
Figura 4.32 – Transformação de Box-Cox para os dados em “Beta 2550”
Figura 4.33 – Análise dos dados transformados por Box-Cox em “Beta 2550”
Lambda
StDev
5,02,50,0-2,5-5,0
0,0586
0,0585
0,0584
0,0583
0,0582
0,0581
0,0580
0,0579
Lambda
5,00000
(using 95,0% confidence)
Estimate 5,00000
Lower CL *
Upper CL *
Best Value
Transformação de Box-Cox - Beta 2550
435004200040500390003750036000
Median
Mean
40600405004040040300402004010040000
A nderson-Darling Normality Test
V ariance 2141491
Skew ness -0,366395
Kurtosis 0,284776
N 200
M inimum 36155
A -Squared
1st Q uartile 39323
M edian 40367
3rd Q uartile 41134
M aximum 43287
95% C onfidence Interv al for M ean
40014
0,70
40422
95% C onfidence Interv al for M edian
40023 40539
95% C onfidence Interv al for S tDev
1333 1623
P -V alue 0,065
M ean 40218
StDev 1463
95% Confidence Intervals
Resumo dos Dados Beta 2550 Transformados por Box-Cox
Capítulo 4: Aplicação da Metodologia 87
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados “Beta 2550” também foi efetuada aplicação da
transformação de Johnson. As características desta transformação, a determinação da família
de transformação e a correspondente equação são apresentadas na Figura 4.34.
Figura 4.34 – Transformação de Johnson para os dados em “Beta 2550”
Após transformação de Johnson os dados passaram a ser descritos adequadamente pela
distribuição Normal (p-value igual a 0,666) conforme mostra a Figura 4.35.
Figura 4.35 – Análise dos dados transformados por Johnson em “Beta 2550”
Percent
8,68,48,2
99,9
99
90
50
10
1
0,1
N 200
AD 0,883
P-Value 0,023
Percent
420-2
99,9
99
90
50
10
1
0,1
N 200
AD 0,273
P-Value 0,666
Z Value
P-Value for AD test
1,21,00,80,60,40,2
0,60
0,45
0,30
0,15
0,00
0,73
Ref P
P -V alue for Best F it: 0,665676
Z for Best Fit: 0,73
Best T ransformation Ty pe: S U
Transformation function equals
0,751175 + 1,98922 * A sinh( ( X - 8,37523 ) / 0,0982355 )
Pr obability Plot for O riginal Data
Pr obability Plot for T r ansformed Data
Select a T r ansformation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - Beta 2550
2,251,500,750,00-0,75-1,50-2,25
Median
Mean
0,20,10,0-0,1-0,2
A nderson-Darling Normality Test
V ariance 1,05360
S kew ness 0,035299
Kurtosis -0,330369
N 200
Minimum -2,29303
A -Squared
1st Q uartile -0,69791
Median 0,06676
3rd Q uartile 0,69024
Maximum 2,27513
95% C onfidence Interval for M ean
-0,11492
0,27
0,17133
95% C onfidence Interv al for Median
-0,19911 0,20346
95% C onfidence Interval for S tD ev
0,93475 1,13826
P -V alue 0,666
Mean 0,02821
S tD ev 1,02645
95% Confidence Intervals
Resumo dos dados Beta 2550 Transformados por Johnson
Capítulo 4: Aplicação da Metodologia 88
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como a análise do conjunto de dados “Beta 2550” sem a presença de outliers indicou
que o mesmo passou a ser bem representado pela distribuição Normal, não foram necessárias
as transformações de Box-Cox ou Johnson para esta condição.
4.2.7 Gráficos de Controle Individuais – Distribuição Beta
Durante avaliação dos dados em “Beta 2550” algumas formas de utilização de gráfico
de controle para avaliação do processo em termos de medida do diâmetro do pino especial
foram discutidas. Na primeira situação, representada pela Figura 4.36, os dados foram
inseridos para análise no programa estatístico sem a preocupação de testar a adencia dos
mesmos à distribuição Normal.
Analisando o gráfico da Figura 4.36 em relação ao primeiro critério de identificação
de padrões não aleatórios, estabelecido no tópico 2.4.3, também conhecido como “teste 1”,
que avalia a ocorrência de pontos além dos limites de controle estipulados, observou-se a
existência de 1 (um) ponto localizado abaixo do limite inferior de controle. Este fato denotaria
a presença de uma causa especial de variação, caso a suposição de normalidade estivesse
correta.
Figura 4.36 – Gráfico de controle para “Beta 2550” considerando distribuição Normal
Por outro lado, a análise do gráfico de controle individual para os dados em “Beta
2550” sem outliers (ou “Beta 2550*”) assumindo distribuição Normal, conforme demonstrado
Observation
Individual Value
200180160140120100806040201
8,55
8,50
8,45
8,40
8,35
8,30
8,25
8,20
8,15
_
X=8,3337
UCL=8,5082
LCL=8,1592
1
Gráfico de Controle Individual - Beta 2550
Capítulo 4: Aplicação da Metodologia 89
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
na Figura 4.37, não indicou a existência de pontos além dos limites de controle. Importante
ressaltar que neste caso a suposição de normalidade correspondia à realidade dos dados.
Figura 4.37 – Gráfico de controle “Beta 2550” sem outliers assumindo distribuição Normal
Na segunda forma de avaliar a condição de estabilidade dos dados em “Beta 2550”
foram considerados percentil 0,135 (8,085346) para LIC, percentil 50 ou mediana (8,340784)
para a LM e percentil 99,865 (8,471053) para LSC conforme indicado na Figura 4.38.
Figura 4.38 – Gráfico de controle “Beta 2550” com limites de controle em percentis
Observation
Individual Value
200180160140120100806040201
8,5
8,4
8,3
8,2
8,1
_
X=8,3408
UB=8,4711
LB=8,0853
1
1
Gráfico de Controle Individual - Beta 2550 (percentis)
Observation
Individual Value
19017115213311495765738191
8,50
8,45
8,40
8,35
8,30
8,25
8,20
_
X=8,3388
UCL=8,4975
LCL=8,1800
Gráfico de Controle Individual - Beta 2550*
Capítulo 4: Aplicação da Metodologia 90
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Na terceira abordagem o gráfico de controle individual foi obtido após prévia
transformação dos dados utilizando a transformão de Box-Cox conforme mostrado na
Figura 4.39. Neste caso não foram observados pontos além dos limites de controle.
Figura 4.39 – Gráfico de controle para “Beta 2550” após transformação de Box-Cox
A quarta situação de análise com o gráfico de controle individual após a transformação
de Johnson, também não apresentou pontos além dos limites estipulados (Figura 4.40).
Figura 4.40 – Gráfico de controle para “Beta 2550” após transformação de Johnson
Observation
Individual Value
200180160140120100806040201
45000
44000
43000
42000
41000
40000
39000
38000
37000
36000
_
X=40218
UCL=44412
LCL=36024
Using Box-Cox Transformation With Lambda = 5,00
Gráfico de Controle Individual - Beta 2550
Observation
Individual Value
200180160140120100806040201
4
3
2
1
0
-1
-2
-3
_
X=0,246
UCL=3,243
LCL=-2,751
Gráfico de Controle Individual - Beta 2550 (Johnson)
Capítulo 4: Aplicação da Metodologia 91
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como a análise do conjunto de dados “Beta 2550” sem a presença de outliers (“Beta
2550*”) indicou que o mesmo passou a ser bem representado pela distribuição Normal, não
foram necessárias as verificações dos gráficos de controle individuais após as transformações
de Box-Cox ou Johnson para esta condição.
4.2.8 Avaliação de Capabilidade – Distribuição Beta
A avaliação de capabilidade em “Beta 2550” teve como requisito um limite inferior de
especificação de 8,20 mm e um limite superior de especificação de 8,50 mm para a medida do
diâmetro do pino especial. Foram calculados diversos índices de capabilidade z
bench
(z
LT
e
z
ST
) diferentes:
a) Em uma primeira abordagem o cálculo foi efetuado com os dados originais e os
dados tratados (sem outliers) como se fossem normalmente distribuídos;
b) No segundo caso a condição assimétrica da distribuição foi considerada no cálculo
dos dados originais.
c) Na terceira abordagem os dados originais foram previamente transformados por
meio da transformação de Box-Cox;
d) Na quarta situação foi utilizada a transformação de Johnson.
A Figura 4.41 apresenta os resultados do cálculo de capabilidade para “Beta 2550
considerando os dados normalmente distribuídos.
Figura 4.41 – Índices de capabilidade de “Beta 2550” considerando distribuição Normal
8,508,458,408,358,308,258,208,15
LSL USL
P rocess D a ta
S ample N 200
S tD ev (Within) 0,05817
S tD ev (O v erall) 0,06113
LS L 8,20000
T arget *
U S L 8,50000
S ample M ean 8,33369
P otential (Within) C apability
C C pk 0,86
O v erall C apability
Z.B ench 2,11
Z.LS L 2,19
Z.U S L 2,72
P pk
Z.B ench
0,73
C pm *
2,23
Z.LS L 2,30
Z.U S L 2,86
C pk 0,77
O bserv ed P e rform ance
P P M < LSL 30000,00
P P M > U S L 0,00
P P M T otal 30000,00
E xp. Within P erformance
P P M < LSL 10766,72
P P M > U S L 2123,90
P P M T otal 12890,62
E xp. O v erall P e rform ance
P P M < LSL 14366,88
P P M > U S L 3258,15
P P M T otal 17625,03
W ithin
O v erall
Avalião de Capabilidade - Beta 2550
Capítulo 4: Aplicação da Metodologia 92
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.42 apresenta os resultados com os dados originais “Beta 2550” sem a
presença de outliers, considerando distribuição Normal, suposição que se mostrou verdadeira.
Figura 4.42 – Índices de capabilidade de “Beta 2550” sem outliers assumindo normalidade
Por não seguir a distribuição Normal, o cálculo de capabilidade dos dados em “Beta
2550” foi efetuado considerando a distribuição Weibull com 3 parâmetros (Figura 4.43), pois
não havia a opção de cálculo com distribuição Beta no programa estatístico utilizado.
Figura 4.43 – Índices de capabilidade de “Beta 2550” considerando distribuição Weibull
8,488,448,408,368,328,288,248,20
LSL USL
Process Data
Sample N 194
StDev (Within) 0,05292
StDev (O v erall) 0,05465
LSL 8,20000
Target *
US L 8,50000
Sample Mean 8,33877
Potential (Within) C apability
C C pk 0,94
O v erall C apability
Z.Bench 2,45
Z.LSL 2,54
Z.U SL 2,95
Ppk
Z.Bench
0,85
C pm *
2,54
Z.LSL 2,62
Z.U SL 3,05
C pk 0,87
O bserv ed P erformance
PP M < LSL 0,00
PP M > U SL 0,00
PP M Total 0,00
Exp. Within P erformance
PP M < LSL 4369,07
PP M > US L 1157,03
PP M Total 5526,10
Exp. O v erall Performance
PP M < LSL 5557,09
PP M > U SL 1588,04
PP M Total 7145,13
Within
Overall
Avaliação de Capabilidade - Beta 2550*
8,508,458,408,358,308,258,208,15
LSL USL
Process Data
Sample N 200
Shape 6,35364
Scale 0,35651
Threshold 8,00177
LSL 8,20000
Target *
US L 8,50000
Sample Mean 8,33369
O v erall C apability
Z.Bench 1,98
Z.LSL 1,97
Z.U SL 3,38
Ppk 0,66
O bserv ed Performance
P PM < LS L 30000
P PM > USL 0
P PM Total 30000
Exp. O v erall Performance
PP M < LSL 23724,6
PP M > USL 228,1
PP M Total 23952,8
Avaliação de Capabilidade - Beta 2550
Calculations Based on Weibull Distribution Model
Capítulo 4: Aplicação da Metodologia 93
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Não foi necessária a verificação de capabilidade após adequação de outra distribuição
aos dados “Beta 2550” sem outliers, pois os mesmos já eram normalmente distribuídos.
A Figura 4.44 apresenta os resultados do cálculo de capabilidade do processo após
utilização da transformação de Box-Cox e a Figura 4.45 apresenta os mesmos resultados após
utilização da transformação de Johnson.
Figura 4.44 – Índices de capabilidade de “Beta 2550” após transformação de Box-Cox
Figura 4.45 – Índices de capabilidade de “Beta 2550” após transformação de Johnson
435004200040500390003750036000
LSL* U SL*
transformed data
P rocess Data
S ample N 200
S tD ev (Within) 0,05817
S tD ev (O v erall) 0,06113
A fter Transformation
LSL* 37073,99212
Target*
LSL
*
U SL* 44370,54074
S ample M ean* 40217,86391
S tD ev (Within)* 1398,04938
S tD ev (O v erall)* 1465,22311
8,20000
Target *
U SL 8,50000
S ample M ean 8,33369
P otential (Within) C apability
C C pk 0,87
O v erall C apability
Z.B ench 2,09
Z.LS L 2,15
Z.U S L 2,83
P pk
Z.B ench
0,72
C pm *
2,20
Z.LS L 2,25
Z.U S L 2,97
C pk 0,75
O bserv ed P erformance
P P M < LS L 30000,00
P P M > US L 0,00
P P M T otal 30000,00
Exp. Within P erformance
P P M < LS L* 12264,02
P P M > US L* 1487,37
P P M T otal 13751,38
Exp. O v erall P erformance
P P M < LS L* 15950,03
P P M > U S L* 2297,32
P P M T otal 18247,34
Within
O v erall
Avaliação de Capabilidade - Beta 2550
Using Box-Cox Transformation With Lambda = 5,00000
2,251,500,750,00-0,75-1,50-2,25
LSL* U SL*
transformed data
P rocess Data
S ample N 200
S tD ev 0,06105
S hape1 0,75118
S hape2 1,98922
Location 8,37523
LSL
S cale 0,09824
A fter T ransformation
LSL* -1,91940
Target* *
U SL* 2,85996
S ample Mean*
8,20000
0,02821
S tD ev * 1,02645
Target *
U SL 8,50000
S ample Mean 8,33369
O v erall C apability
Z.B ench 1,86
Z.LS L 1,90
Z.U S L 2,76
P pk 0,63
O bserv ed P erformance
P P M < LS L 30000
P P M > U S L 0
P P M Total 30000
Exp. O v erall P erformance
P P M < LS L 28886,0
P P M > U S L 2900,8
P P M Total 31786,8
Avaliação de Capabilidade - Beta 2550
Johnson Transformation with SU Distribution Type
0,751 + 1,989 * Asinh( ( X - 8,375 ) / 0,098 )
Capítulo 4: Aplicação da Metodologia 94
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Não foi necessária a verificação de capabilidade após transformação de Box-Cox ou
Johnson para o conjunto de dados “Beta 2550” sem outliers (“Beta 2550*”), pois os mesmos
já eram normalmente distribuídos.
A Tabela 4.2 apresenta a comparação dos valores obtidos nas várias situações
apresentadas, com o correspondente lculo do nível sigma e a fração não conforme em partes
por milhão para o conjunto de dados “Beta 2550”, considerando
z
shift
igual a 1,5 sigma.
PREMISSA ADOTADA
PARA
CÁLCULO
LIE
(mm)
LSE
(mm)
ÍNDICE
Z
LT
NÍVEL
SIGMA
(Z
LT
+1,5)
PPM
Dados originais considerados normais 8,20 8,50 2,11 3,61 17625
Dados sem
outliers
considerados normais 8,20 8,50 2,45 3,95 7145
Dados originais considerando distribuição Weibull 8,20 8,50 1,98 3,48 23953
Dados originais transformados por Box-Cox 8,20 8,50 2,09 3,59 18247
Dados originais transformados por Johnson 8,20 8,50 1,86 3,36 31787
Tabela 4.2 – Cálculos comparativos do nível sigma para “Beta 2550”
4.3 Pesquisa Exploratória Através de Estudo de Caso
4.3.1 Análise de Dados Reais – Furos 3/4”
Antes da aplicação dos métodos estatísticos desta pesquisa exploratória foi necessário
efetuar uma análise dos dados disponíveis em “3/4AE” e “3/4AD” quanto a sua aderência à
distribuição Normal.
A partir dos dados reais relativos aos valores de diâmetro dos furos do componente
estrutural em “3/4AE” (Apêndice C) foram efetuados a análise da distribuição e o teste de
normalidade utilizando os recursos disponíveis do programa estatístico, sendo que a
verificação de normalidade das distribuições estudadas nesta pesquisa baseou-se na análise do
valor P (p-value) associado à estatística A
2
do teste de normalidade de Anderson-Darling.
A Figura 4.46 apresenta o resultado da análise dos dados em “3/4AE”. Admitindo
α
=
0,05, a distribuição em questão foi considerada não normal visto que o p-value obtido (0,005)
resultou menor que 0,05. Assim sendo, como a hipótese nula de normalidade foi rejeitada,
obviamente a distribuição em questão não pôde ser considerada normalmente distribuída.
Capítulo 4: Aplicação da Metodologia 95
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.46 – Análise do conjunto de dados originais “3/4AE”
A análise do conjunto de dados “3/4AE” também indicou a existência de pontos
extremos fora do padrão seguido pelo restante dos dados (outliers). Através da análise dos
dados “3/4AE” sem a presença dos outliers, apresentada na Figura 4.47 como “3/4AE*”,
concluiu-se que a distribuição resultante poderia ser bem representada pela distribuição
Normal, pois o p-value encontrado (0,301) resultou superior a 0,05.
Figura 4.47 – Análise do conjunto de dados “3/4AE” sem outliers
19,14619,14019,13419,12819,122
Median
Mean
19,13119,13019,12919,128
A nderson-D arling N ormality Test
V ariance 0,000
S kew ness 1,32718
Kurtosis 2,43752
N 54
M inimum 19,122
A -S quared
1st Q uartile 19,127
M edian 19,129
3rd Q uartile 19,132
M aximum 19,147
95% C onfidence Interv al for M ean
19,129
1,59
19,131
95% C onfidence Interv al for M edian
19,128 19,130
95% C onfidence Interv al for S tDev
0,004 0,007
P -V alue < 0,005
M ean 19,130
S tD ev 0,005
95% Confidence Intervals
Resumo dos Dados - 3/4AE
19,13619,13219,12819,124
Median
Mean
19,130019,129519,129019,128519,1280
A nderson-Darling N ormality Test
V ariance 0,000
S kew ness 0,252045
Kurtosis -0,063199
N 51
M inimum 19,122
A -Squared
1st Q uartile 19,127
M edian 19,129
3rd Q uartile 19,132
M aximum 19,139
95% C onfidence Interv al for Mean
19,128
0,43
19,130
95% C onfidence Interv al for M edian
19,128 19,130
95% C onfidence Interv al for S tDev
0,003 0,005
P -V alue 0,301
M ean 19,129
S tD ev 0,004
95% Confidence Intervals
Resumo dos Dados - 3/4AE*
Capítulo 4: Aplicação da Metodologia 96
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como o conjunto de dados “3/4AE” não seguia a distribuição Normal, foi efetuada a
verificação da distribuição que melhor representasse estes dados. Conforme mostrado na
Figura 4.48, a distribuição Loglogistic com 3 parâmetros foi a melhor opção encontrada, pois
indicou o maior coeficiente de correlação (0,951) entre as distribuições analisadas para um
intervalo de 95% de confiança.
Figura 4.48 – Avaliação da melhor distribuição aplicável ao conjunto de dados “3/4AE”
A partir dos dados reais relativos aos valores de diâmetro dos furos do componente
estrutural em “3/4AD” (Apêndice C) foram efetuados a análise da distribuição e o teste de
normalidade de Anderson-Darling. Conforme argumentação indicada no capítulo 3, a
verificação de normalidade das distribuições estudadas nesta pesquisa baseou-se na análise do
valor P (p-value) associado à estatística A
2
do teste de normalidade de Anderson-Darling.
A Figura 4.49 apresenta o resultado da análise dos dados em “3/4AD”. Admitindo
α
=
0,05, a distribuição em questão foi considerada não normal visto que o p-value obtido (0,034)
resultou menor que 0,05. Portanto, como a hipótese nula de normalidade foi rejeitada,
obviamente a distribuição em questão não pôde ser considerada normalmente distribuída.
A análise do conjunto de dados “3/4AD” também indicou a existência de outliers.
Através da análise do conjunto de dados “3/4AD” sem a presença dos outliers, apresentada na
Figura 4.50 como “3/4AD*”, concluiu-se que a distribuição resultante não era normal, pois o
valor de p-value permaneceu inferior a 0,05.
3/4AE
Percent
0,660,650,640,630,62
99
95
90
80
70
60
50
40
30
20
10
5
1
Table of S tatistics
StDev 0,0052894
M edian 19,1300
IQ R 0,0064071
F ailure 54
C ensor 0
Loc
A D* 1,401
C orrelation 0,951
-0,445106
Scale 0,0045508
Thres 18,4893
M ean 19,1300
Gráfico de Probabilidade - 3/4AE
Complete Data - LSXY Estimates
3-Parameter Loglogistic - 95% CI
Capítulo 4: Aplicação da Metodologia 97
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.49 – Análise do conjunto de dados originais “3/4AD”
Figura 4.50 – Análise do conjunto de dados “3/4AD” sem outliers
Como o conjunto de dados “3/4AD” não seguia a distribuição Normal, foi efetuada a
verificação da distribuição que melhor representasse estes dados. Conforme indicado através
da Figura 4.51, a distribuição Logistic foi a melhor opção encontrada, pois indicou o maior
coeficiente de correlação (0,983) entre as distribuições analisadas para um intervalo de 95%
de confiança.
19,13819,13419,13019,12619,122
Median
Mean
19,131519,131019,130519,130019,1295
A nderson-Darling N ormality Test
V ariance 0,000
Skew ness -0,153626
Kurtosis 0,076074
N 60
M inimum 19,120
A -Squared
1st Q uartile 19,128
M edian 19,130
3rd Q uartile 19,133
M aximum 19,138
95% C onfidence Interv al for M ean
19,129
0,81
19,132
95% C onfidence Interv al for M edian
19,130 19,131
95% C onfidence Interv al for S tDev
0,003 0,005
P-V alue 0,034
M ean 19,130
StD ev 0,004
95% Confidence Intervals
Resumo dos Dados - 3/4AD
19,13819,13419,13019,12619,122
Median
Mean
19,131519,131019,130519,130019,1295
A nderson-D arling N ormality Test
V ariance 0,000
Skew ness 0,031031
Kurtosis -0,157874
N 59
M inimum 19,121
A -Squared
1st Q uartile 19,128
M edian 19,130
3rd Q uartile 19,133
M aximum 19,138
95% C onfidence Interv al for M ean
19,130
0,85
19,132
95% C onfidence Interv al for M edian
19,130 19,131
95% C onfidence Interv al for StD ev
0,003 0,005
P-V alue 0,027
M ean 19,131
StD ev 0,004
95% Confidence Intervals
Resumo dos Dados - 3/4AD*
Capítulo 4: Aplicação da Metodologia 98
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.51 – Avaliação da melhor distribuição aplicável ao conjunto de dados “3/4AD”
Como o conjunto de dados “3/4AD” sem outliers (“3/4AD*”) também não seguia a
distribuição Normal, foi efetuada a verificação da distribuição que melhor representasse estes
dados. Conforme mostrado na Figura 4.52, a distribuição Lognormal com 3 parâmetros foi a
melhor opção encontrada, pois indicou o maior coeficiente de correlação (0,984) entre as
distribuições analisadas para um intervalo de 95% de confiança.
Figura 4.52 – Avaliação de distribuição aplicável ao conjunto de dados “3/4AD” sem outliers
3/4AD
Percent
19,14519,14019,13519,13019,12519,120
99
95
90
80
70
60
50
40
30
20
10
5
1
Table of S tatistics
Median 19,1305
IQ R 0,0050687
F ailure 60
C ensor 0
A D* 0,929
Loc
C orrelation 0,983
19,1305
Scale 0,0023069
Mean 19,1305
StD ev 0,0041842
Gráfico de Probabilidade - 3/4AD
Complete Data - LSXY Estimates
Logistic - 95% CI
3/4AD*
Percent
0,9850,9800,9750,9700,9650,9600,9550,950
99,9
99
95
90
80
70
60
50
40
30
20
10
5
1
0,1
Table of S tatistics
StD ev 0,0038944
M edian 19,1307
IQ R 0,0052534
F ailure 59
C ensor 0
Loc
A D * 1,051
C orrelation 0,984
-0,0339756
Scale 0,0040290
Thres 18,1641
M ean 19,1307
Gráfico de Probabilidade - 3/4AD*
Complete Data - LSXY Estimates
3-Parameter Lognormal - 95% CI
Capítulo 4: Aplicação da Metodologia 99
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.3.2 Transformação de Dados Reais – Furos 3/4”
Para o conjunto de dados “3/4AE” foi efetuada aplicação da transformação de Box-
Cox conforme indicado na Figura 4.53. Após transformação de Box-Cox, admitindo
α
=
0,05, os dados obtidos não foram considerados normalmente distribuídos, visto que p-value
(0,005) resultou menor que 0,05 (Figura 4.54).
Figura 4.53 – Transformação de Box-Cox para o conjunto de dados “3/4AE”
Figura 4.54 – Análise do conjunto de dados “3/4AE” transformados por Box-Cox
Lambda
StDev
5,02,50,0-2,5-5,0
0,0045845
0,0045840
0,0045835
0,0045830
0,0045825
0,0045820
0,0045815
Lambda
-5,00000
(using 95,0% confidence)
Estimate -5,00000
Lower CL *
Upper CL *
Best Value
Transformão de Box-Cox - 3/4AE
3,9120E-073,9060E-073,9000E-073,8940E-073,8880E-07
Median
Mean
3,9050E-073,9045E-073,9040E-073,9035E-073,9030E-073,9025E- 073,9020E-07
A nderson-Darling N ormality Test
V ariance 0,000000
Skew ness -1,32094
Kurtosis 2,41925
N 54
M inimum 0,000000
A -Squared
1st Q uartile 0,000000
M edian 0,000000
3rd Q uartile 0,000000
M aximum 0,000000
95% C onfidence Interv al for M ean
0,000000
1,58
0,000000
95% C onfidence Interv al for M edian
0,000000 0,000000
95% C onfidence Interv al for StD ev
0,000000 0,000000
P-V alue < 0,005
M ean 0,000000
StD ev 0,000000
95% Confidence Intervals
Resumo dos Dados 3/4AE Transformados por Box-Cox
Capítulo 4: Aplicação da Metodologia 100
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados “3/4AE” também foi efetuada aplicação da transformação de
Johnson conforme mostrado na Figura 4.55.
Figura 4.55 – Transformação de Johnson para o conjunto de dados “3/4AE”
Como a análise do conjunto de dados “3/4AE” sem a presença de outliers indicou que
o mesmo era normalmente distribuído, não foram efetuadas as transformações nesta condição.
A tentativa de transformação por Box-Cox para os dados “3/4AD” é mostrada na Figura 4.56.
Figura 4.56 – Transformação de Box-Cox para o conjunto de dados “3/4AD”
Percent
19,1519,1419,1319,12
99
90
50
10
1
N 54
AD 1,588
P-Value <0,005
Percent
20-2
99
90
50
10
1
N 54
AD 0,286
P-Value 0,611
Z Value
P-Value for AD test
1,21,00,80,60,40,2
0,60
0,45
0,30
0,15
0,00
0,51
Ref P
P-V alue for Best F it: 0,611095
Z for Best F it: 0,51
Best Transformation Ty pe: SU
Transformation function equals
-0,492044 + 0,997048 * A sinh( ( X - 19,1271 ) / 0,00335450 )
P r obability P lot for Or iginal Data
P r obability P lot for T ransfor med Data
Select a T ransfor mation
(P-Value = 0.005 means <= 0.005)
Transformão de Johnson - 3/4AE
Lambda
StDev
5,02,50,0-2,5-5,0
0,0024946
0,0024945
0,0024944
0,0024943
0,0024942
0,0024941
0,0024940
Lambda
5,00000
(using 95,0% confidence)
Estimate 5,00000
Lower CL *
Upper CL *
Best Value
Transformação de Box-Cox - 3/4AD
Capítulo 4: Aplicação da Metodologia 101
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Após transformação de Box-Cox, admitindo
α
= 0,05, os dados obtidos não foram
considerados normalmente distribuídos, visto que p-value (0,034) resultou menor que 0,05
conforme indicado através da Figura 4.57.
Figura 4.57 – Análise do conjunto de dados “3/4AD” transformados por Box-Cox
Para o conjunto de dados “3/4AD” também foi efetuada aplicação da transformação de
Johnson (Figura 4.58), não sendo encontrada equação que resultasse em normalidade.
Figura 4.58 – Transformação de Johnson para o conjunto de dados “3/4AD”
256600025640002562000256000025580002556000
Median
Mean
2563000256275025625002562250256200025617502561500
A nderson-Darling Normality Test
V ariance 7425543
Skew ness -0,151097
Kurtosis 0,073256
N 60
M inimum 2555286
A -Squared
1st Q uartile 2560636
M edian 2561975
3rd Q uartile 2563984
M aximum 2567336
95% C onfidence Interv al for M ean
2561596
0,81
2563004
95% C onfidence Interv al for M edian
2561928 2562644
95% C onfidence Interv al for StD ev
2310 3324
P-V alue 0,034
M ean 2562300
StD ev 2725
95% Confidence Intervals
Resumo dos Dados 3/4AD Transformados por Box-Cox
Percent
19,1519,1419,1319,12
99,9
99
95
80
50
20
5
1
0,1
N 60
A D 0,812
P-V alue 0,034
Z Value
P-Value for AD test
1,20,90,60,3
0,10
0,08
0,06
0,04
0,02
0,00
Ref P
Probability Plot for Original Data Select a Transformation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - 3/4AD
Fail to select a transformation with P-Value > 0,1. No transformation is made.
Capítulo 4: Aplicação da Metodologia 102
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados “3/4AD” sem outliers (ou “3/4AD*”) foi tentada a
transformação dos dados para condição de normalidade através da aplicação do método de
Box-Cox conforme indicado através da Figura 4.59.
Figura 4.59 – Transformação de Box-Cox para o conjunto de dados “3/4AD” sem outliers
Para o conjunto de dados “3/4AD” sem outliers também foi efetuada a transformação
de Johnson (Figura 4.60), não sendo encontrada equação que resultasse em normalidade.
Figura 4.60 – Transformação de Johnson para o conjunto de dados “3/4AD” sem outliers
Lambda
StDev
5,02,50,0-2,5-5,0
0,00229277
0,00229276
0,00229275
0,00229274
0,00229273
0,00229272
0,00229271
0,00229270
Lambda
-5,00000
(using 95,0% confidence)
Estimate -5,00000
Lower CL *
Upper CL *
Best Value
Transformação de Box-Cox - 3/4AD*
Percent
19,1419,1319,12
99,9
99
95
80
50
20
5
1
0,1
N 59
A D 0,852
P -V alue 0,027
Z Value
P-Value for AD test
1,20,90,60,3
0,10
0,08
0,06
0,04
0,02
0,00
Ref P
Probability Plot for Original Data Select a Transformation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - 3/4AD*
Fail to select a transformation with P-Value > 0,1. No transformation is made.
Capítulo 4: Aplicação da Metodologia 103
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.3.3 lculo de Capabilidade de Dados Reais – Furos 3/4”
A avaliação de capabilidade para os conjuntos de dados “3/4AE” e “3/4AD”
(Apêndice C) teve como requisito um limite inferior de especificação de 19,124 mm e um
limite superior de especificação de 19,151 mm para as medidas de diâmetro dos furos do
componente estrutural. Foram calculados diversos índices de capabilidade z
bench
(z
LT
e z
ST
)
diferentes:
a) Em uma primeira abordagem o cálculo foi efetuado com os dados originais e os
dados tratados (sem outliers) como se fossem normalmente distribuídos;
b) No segundo caso a condição não normal da distribuição foi considerada no cálculo
dos dados originais e, quando aplicável, nos dados sem a presença de outliers.
c) Na terceira abordagem os dados originais foram modificados por meio da
transformação de Box-Cox;
d) Na quarta situação foi utilizada a transformação de Johnson.
A Figura 4.61 apresenta os resultados do cálculo de capabilidade considerando os
dados originais “3/4AE” como se fossem normalmente distribuídos.
Figura 4.61 – Índices de capabilidade do conjunto de dados originais “3/4AE”
Como o conjunto de dados “3/4AE” não se mostrou normalmente distribuído, o
cálculo de capabilidade foi efetuado a partir da distribuição Loglogistic com 3 parâmetros,
correspondente ao melhor ajuste para os dados de “3/4AE” em um intervalo de 95% de
confiança. Os resultados nesta situação são apresentados através da Figura 4.62.
19,14619,14019,13419,12819,122
LSL USL
Process Data
Sample N 54
StDev (Within) 0,00458
StDev (O v erall) 0,00535
LS L 19,12400
Target *
US L 19,15100
Sample M ean 19,13002
Potential (Within) C apability
C C pk 0,98
O v erall C apability
Z.Bench 1,12
Z.LSL 1,12
Z.U SL 3,92
Ppk
Z.Bench
0,37
C pm *
1,31
Z.LSL 1,31
Z.U SL 4,58
C pk 0,44
O bserv ed P erformance
PP M < LS L 74074,07
PP M > USL 0,00
PP M Total 74074,07
Exp. Within Performance
PP M < LS L 94561,28
PP M > USL 2,35
PP M Total 94563,63
Exp. O v erall Performance
PP M < LS L 130480,60
PP M > USL 44,48
PP M Total 130525,08
Within
Overall
Avaliação de Capabilidade - 3/4AE
Capítulo 4: Aplicação da Metodologia 104
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.62 – Índices de capabilidade dos dados “3/4AE” baseados na distribuição Loglogistic
Não foi efetuado cálculo de capabilidade após transformação de Box-Cox dos dados
“3/4AE”, pois a mesma não resultou em normalidade.
A Figura 4.63 apresenta os resultados do cálculo de capabilidade do processo após
utilização da transformação de Johnson no conjunto de dados originais “3/4AE”.
Figura 4.63 – Índices de capabilidade dos dados “3/4AE” transformados por Johnson
19,14619,14019,13419,12819,122
LSL USL
Process D ata
Sample N 54
Location -0,20971
Scale 0,00336
Threshold 18,31864
LSL 19,12400
Target *
U S L 19,15100
Sample Mean 19,13002
O v erall C apability
Z.Bench 1,18
Z.LSL 0,92
Z.U SL 3,56
Ppk 0,31
O bserv ed Performance
PP M < LSL 74074,1
PP M > U SL 0,0
PP M T otal 74074,1
Exp. O v erall Performance
PP M < LSL 118147
PP M > U SL 403
PP M Total 118550
Avaliação de Capabilidade - 3/4AE
Calculations Based on Loglogistic Distribution Model
210-1-2
LSL* U S L*
transformed data
Process Data
Sample N 54
StDev 0,00533
Shape1 -0,49204
Shape2 0,99705
Location 19,12706
LSL
Scale 0,00335
A fter Transformation
LSL* -1,30763
Target* *
US L* 2,16335
Sample M ean*
19,12400
0,06329
StDev * 0,92028
Target *
US L 19,15100
Sample M ean 19,13002
O v erall C apability
Z.Bench 1,41
Z.LSL 1,49
Z.U SL 2,28
Ppk 0,50
O bserv ed P erformance
PP M < LSL 74074,1
PP M > US L 0,0
PP M Total 74074,1
Exp. O v erall P erformance
PP M < LS L 68154,7
PP M > US L 11245,8
PP M Total 79400,5
Avaliação de Capabilidade - 3/4AE
Johnson Transformation with SU Distribution Type
-0,492 + 0,997 * Asinh( ( X - 19,127 ) / 0,003 )
Capítulo 4: Aplicação da Metodologia 105
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.64 apresenta os resultados considerando os dados originais “3/4AE” sem a
presença de outliers, considerando distribuição Normal, suposição que se mostrou verdadeira.
Figura 4.64 – Índices de capabilidade do conjunto de dados “3/4AE” sem outliers
Não foram efetuados os cálculos de capabilidade após ajuste da distribuição e
transformações em “3/4AE” sem outliers, pois o mesmo era normal. A Figura 4.65 mostra
o cálculo de capabilidade para os dados “3/4AD” como se fossem normalmente distribuídos.
Figura 4.65 – Índices de capabilidade do conjunto de dados originais “3/4AD”
1
9
,
1
4
8
1
9
,
1
4
4
1
9
,
1
4
0
1
9
,
1
3
6
1
9
,
1
3
2
1
9
,
1
2
8
1
9
,
1
2
4
1
9
,
1
2
0
LSL USL
Process D ata
Sample N 60
StDev (Within) 0,00249
StDev (O v erall) 0,00409
LS L 19,12400
Target *
US L 19,15100
Sample Mean 19,13048
Potential (Within) C apability
C C pk 1,80
O v erall C apability
Z.Bench 1,59
Z.LSL 1,59
Z.U SL 5,02
Ppk
Z.Bench
0,53
C pm *
2,60
Z.LSL 2,60
Z.U SL 8,23
C pk 0,87
O bserv ed Performance
PP M < LSL 50000,00
PP M > U SL 0,00
PP M T otal 50000,00
Exp. Within Performance
PP M < LSL 4671,11
PP M > U SL 0,00
PP M T otal 4671,11
Exp. O v erall P erformance
PP M < LSL 56312,73
PP M > U SL 0,26
PP M T otal 56312,99
Within
Overall
Avaliação de Capabilidade - 3/4AD
1
9
,
1
4
8
1
9
,
1
4
4
1
9
,
1
4
0
1
9
,
1
3
6
1
9
,
1
3
2
1
9
,
1
2
8
1
9
,
1
2
4
1
9
,
1
2
0
LSL USL
Process Data
Sample N 51
StDev (Within) 0,00362
StDev (O v erall) 0,00383
LSL 19,12400
Target *
US L 19,15100
Sample M ean 19,12910
Potential (Within) C apability
C C pk 1,24
O v erall C apability
Z.Bench 1,33
Z.LSL 1,33
Z.U SL 5,72
Ppk
Z.Bench
0,44
C pm *
1,41
Z.LSL 1,41
Z.U SL 6,06
C pk 0,47
O bserv ed Performance
PP M < LS L 78431,37
PP M > US L 0,00
PP M Total 78431,37
Exp. Within Performance
PP M < LSL 79349,91
PP M > U SL 0,00
PP M Total 79349,91
Exp. O v erall P erformance
PP M < LS L 91334,12
PP M > US L 0,01
PP M Total 91334,12
Within
Overall
Avalião de Capabilidade - 3/4AE*
Capítulo 4: Aplicação da Metodologia 106
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como o conjunto de dados “3/4AD” não se mostrou normalmente distribuído, o
cálculo de capabilidade foi efetuado a partir da distribuição Logistic, correspondente ao
melhor ajuste para os dados de “3/4AD” em um intervalo de 95% de confiança (Figura 4.66).
Figura 4.66 – – Índices de capabilidade dos dados “3/4AD” baseados na distribuição Logistic
A Figura 4.67 apresenta os resultados considerando os dados originais “3/4AD” sem a
presença de outliers e considerando os dados como se fossem normalmente distribuídos.
Figura 4.67 – Índices de capabilidade do conjunto de dados “3/4AD” sem outliers
1
9
,
1
4
8
1
9
,
1
4
4
1
9
,
1
4
0
1
9
,
1
3
6
1
9
,
1
3
2
1
9
,
1
2
8
1
9
,
1
2
4
1
9
,
1
2
0
LSL USL
Process Data
Sample N 60
Location 19,13046
Scale 0,00227
LSL 19,12400
Target *
U S L 19,15100
Sample Mean 19,13048
O v erall C apability
Z.Bench 1,60
Z.LSL 1,29
Z.U SL 4,11
Ppk 0,43
O bserv ed Performance
PP M < LSL 50000
PP M > U S L 0
PP M T otal 50000
Exp. O v erall Performance
PP M < LSL 54882,9
PP M > U S L 117,9
PP M T otal 55000,9
Avaliação de Capabilidade - 3/4AD
Calculations Based on Logistic Distribution Model
1
9
,
1
4
8
1
9
,
1
4
4
1
9
,
1
4
0
1
9
,
1
3
6
1
9
,
1
3
2
1
9
,
1
2
8
1
9
,
1
2
4
1
9
,
1
2
0
LSL USL
Process D ata
Sample N 59
StD ev (Within) 0,00229
StD ev (O v erall) 0,00388
LSL 19,12400
Target *
U S L 19,15100
Sample Mean 19,13066
Potential (Within) C apability
C C pk 1,96
O v erall C apability
Z.Bench 1,72
Z.LSL 1,72
Z.U SL 5,24
Ppk
Z.Bench
0,57
C pm *
2,91
Z.LSL 2,91
Z.U SL 8,87
C pk 0,97
O bserv ed Performance
PP M < LSL 33898,31
PP M > U SL 0,00
PP M Total 33898,31
Exp. Within Performance
PP M < LSL 1834,69
PP M > U SL 0,00
PP M T otal 1834,69
Exp. O v erall P erformance
PP M < LSL 42971,88
PP M > U SL 0,08
PP M T otal 42971,96
Within
Ov erall
Avaliação de Capabilidade - 3/4AD*
Capítulo 4: Aplicação da Metodologia 107
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como o conjunto de dados “3/4AD” sem outliers não se mostrou normalmente
distribuído, o cálculo de capabilidade foi efetuado a partir da distribuição Lognormal com 3
parâmetros, conforme indicado através da Figura 4.68.
Figura 4.68 – Índices capabilidade dos dados “3/4AD” sem outliers (distribuição Lognormal)
Não foram efetuados os cálculos de capabilidade após as transformações de Box-Cox
e Johnson para os dados “3/4AD” e para “3/4AD” sem outliers, pois as transformações
citadas não resultaram em normalidade. Um resumo dos valores obtidos nas diversas
situações descritas para os dados reais “3/4AE” e “3/4AD” é apresentado na Tabela 4.3.
PREMISSA ADOTADA PARA CÁLCULO
LIE
(mm)
LSE
(mm)
ÍNDICE
Z
LT
NÍVEL
SIGMA
(Z
LT
+1,5)
PPM
Dados “3/4AE” considerados normais 19,124 19,151 1,12 2,62 130525
Dados “3/4AE” sem
outliers
supondo normais 19,124
19,151
1,33 2,83 91334
Dados “3/4AE” (distribuição Loglogistic) 19,124
19,151
1,18 2,68 118550
Dados “3/4AE” transformados (Johnson) 19,124
19,151
1,41 2,91 79401
Dados “3/4AD” considerados normais 19,124
19,151
1,59 3,09 56313
Dados “3/4AD” sem
outliers
supondo normais 19,124
19,151
1,72 3,22 42972
Dados “3/4AD” (distribuição Logistic) 19,124
19,151
1,60 3,10 55001
Dados “3/4AD” sem
outliers
(Lognormal) 19,124
19,151
1,74 3,24 40600
Tabela 4.3 – Cálculos comparativos do nível sigma para “3/4AE” e “3/4AD”
1
9
,
1
4
8
1
9
,
1
4
4
1
9
,
1
4
0
1
9
,
1
3
6
1
9
,
1
3
2
1
9
,
1
2
8
1
9
,
1
2
4
1
9
,
1
2
0
LSL USL
Process Data
Sample N 59
Location -0,08341
Scale 0,00416
Threshold 18,21068
LSL 19,12400
Target *
U S L 19,15100
Sample Mean 19,13066
O v erall C apability
Z.Bench 1,74
Z.LSL 1,75
Z.U SL 5,28
Ppk 0,58
O bserv ed Performance
PP M < LSL 33898,3
PP M > U SL 0,0
PP M Total 33898,3
Exp. O v erall P erformance
PP M < LSL 40600,4
PP M > U S L 0,1
PP M Total 40600,4
Avaliação de Capabilidade - 3/4AD*
Calculations Based on Lognormal Distribution Model
Capítulo 4: Aplicação da Metodologia 108
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.3.4 Análise de Dados Reais – Furos 5/8”
Para dar continuidade à aplicação dos métodos estatísticos desta pesquisa exploratória
também foi necessário efetuar uma análise dos dados disponíveis em “5/8TE” e “5/8TD”
quanto a sua aderência à distribuição Normal.
A partir dos dados reais relativos aos valores de diâmetro dos furos do componente
estrutural em “5/8TE” (Apêndice D) foram efetuados a análise da distribuição e o teste de
normalidade utilizando os recursos disponíveis do programa estatístico, sendo que a
verificação de normalidade baseou-se na análise do valor P (p-value) associado à estatística
A
2
do teste de normalidade de Anderson-Darling.
A Figura 4.69 apresenta o resultado da análise dos dados em “5/8TE”. Admitindo
α
=
0,05, a distribuição em questão foi considerada não normal visto que o p-value obtido (0,005)
resultou menor que 0,05. Portanto, como a hipótese nula de normalidade foi rejeitada,
obviamente a distribuição em questão não pôde ser considerada normalmente distribuída.
Além disso, foi observado que o conjunto de dados “5/8TE” não possuía outliers.
Figura 4.69 – Análise do conjunto de dados originais “5/8TE”
Como o conjunto de dados “5/8TE” não seguia a distribuição Normal, foi efetuada a
verificação da distribuição que melhor representasse estes dados. Conforme mostrado na
Figura 4.70, a distribuição Lognormal com 3 parâmetros foi a melhor opção encontrada, pois
indicou o maior coeficiente de correlação (0,924) entre as distribuições analisadas para um
intervalo de 95% de confiança.
15,98015,97515,97015,96515,96015,955
Median
Mean
15,966015,964515,963015,961515,9600
A nderson-Darling N ormality Test
V ariance 0,000
Skew ness 1,04029
Kurtosis -0,04579
N 27
Minimum 15,956
A -Squared
1st Q uartile 15,958
Median 15,960
3rd Q uartile 15,968
Maximum 15,980
95% C onfidence Interv al for Mean
15,961
1,68
15,966
95% C onfidence Interv al for Median
15,959 15,966
95% C onfidence Interv al for StDev
0,006 0,010
P-V alue < 0,005
Mean 15,963
StD ev 0,007
95% Confidence Intervals
Resumo dos Dados - 5/8TE
Capítulo 4: Aplicação da Metodologia 109
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.70 – Avaliação da melhor distribuição aplicável ao conjunto de dados “5/8TE”
A partir dos dados reais relativos aos valores de diâmetro dos furos do componente
estrutural em “5/8TD” (Apêndice D) foram efetuados a análise da distribuição e o teste de
normalidade de Anderson-Darling conforme indicado na Figura 4.71. Admitindo
α
= 0,05, a
distribuição em questão foi considerada não normal visto que o p-value obtido (0,015)
resultou menor que 0,05.
Figura 4.71 – Análise do conjunto de dados originais “5/8TD”
5/8TE
Percent
0,490,480,470,460,450,44
99
95
90
80
70
60
50
40
30
20
10
5
1
Table of Statistics
StD ev 0,0070615
Median 15,9634
IQ R 0,0095243
F ailure 27
C ensor 0
Loc
A D * 2,164
C orrelation 0,924
-0,762463
Scale 0,0151340
Thres 15,4969
Mean 15,9635
Gráfico de Probabilidade - 5/8TE
Complete Data - LSXY Estimates
3-Parameter Lognormal - 95% CI
16,0015,9915,9815,9715,96
Median
Mean
15,97215,97015,96815,96615,96415,96215,960
A nderson-Darling N ormality Test
V ariance 0,000
Skew ness 1,18738
Kurtosis 2,04497
N 29
Minimum 15,956
A -Squared
1st Q uartile 15,960
Median 15,966
3rd Q uartile 15,974
Maximum 15,998
95% C onfidence Interv al for Mean
15,964
0,94
15,971
95% C onfidence Interv al for Median
15,960 15,973
95% C onfidence Interv al for StDev
0,008 0,013
P-V alue 0,015
Mean 15,967
StD ev 0,010
95% Confidence Intervals
Resumo dos Dados - 5/8TD
Capítulo 4: Aplicação da Metodologia 110
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Pela análise dos dados “5/8TD” sem a presença dos outliers, apresentada na Figura
4.72 como “5/8TD*”, concluiu-se que a distribuição não era normal (p-value inferior a 0,05).
Figura 4.72 – Análise do conjunto de dados “5/8TD” sem outliers
Para o conjunto “5/8TD” foi efetuada a verificação de uma distribuição que melhor
representasse os dados. Conforme mostrado na Figura 4.73, a distribuição Lognormal com 3
parâmetros foi a melhor opção encontrada.
Figura 4.73 – Avaliação da melhor distribuição aplicável ao conjunto de dados “5/8TD”
15,98015,97515,97015,96515,96015,955
Median
Mean
15,97215,97015,96815,96615,96415,96215,960
A nderson-Darling N ormality Test
V ariance 0,000
Skew ness 0,32717
Kurtosis -1,37814
N 28
Minimum 15,956
A -Squared
1st Q uartile 15,959
Median 15,965
3rd Q uartile 15,974
Maximum 15,981
95% C onfidence Interv al for Mean
15,963
1,05
15,969
95% C onfidence Interv al for M edian
15,960 15,973
95% C onfidence Interv al for StD ev
0,006 0,010
P-V alue 0,008
Mean 15,966
StD ev 0,008
95% Confidence Intervals
Resumo dos Dados - 5/8TD*
5/8TD
Percent
0,300,290,280,270,260,250,24
99
95
90
80
70
60
50
40
30
20
10
5
1
Table of Statistics
StD ev 0,0092626
Median 15,9672
IQ R 0,0124849
F ailure 29
C ensor 0
Loc
A D * 1,345
C orrelation 0,943
-1,32532
Scale 0,0348273
Thres 15,7015
Mean 15,9674
Gráfico de Probabilidade - 5/8TD
Complete Data - LSXY Estimates
3-Parameter Lognormal - 95% CI
Capítulo 4: Aplicação da Metodologia 111
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como o conjunto de dados “5/8TD” sem outliers (ou 5/8TD*”) também não seguia a
distribuição Normal, foi efetuada a verificação da distribuição que melhor representasse estes
dados utilizando o programa estatístico. Conforme demonstrado através da Figura 4.74, a
distribuição Lognormal com 3 parâmetros foi a melhor opção encontrada, pois indicou o
maior coeficiente de correlação (0,960) entre as distribuições analisadas para um intervalo de
95% de confiança.
Figura 4.74 – Avaliação de distribuição aplicável ao conjunto de dados “5/8TD” sem outliers
4.3.5 Transformação de Dados Reais – Furos 5/8”
Para o conjunto de dados “5/8TE” foi efetuada uma tentativa de transformação por
Box-Cox utilizando o programa estatístico. As características desta transformação, com
destaque para o valor do parâmetro
λ
estimado com 95% de confiança, são apresentadas
através da Figura 4.75.
Após transformação de Box-Cox, admitindo
α
= 0,05, os dados obtidos não foram
considerados normalmente distribuídos, visto que p-value (0,005) resultou menor que 0,05, ou
seja, rejeitou-se a hipótese nula de normalidade da distribuição obtida. A Figura 4.76
apresenta a análise gráfica da distribuição resultante da transformação de Box-Cox.
5/8TD*
Percent
0,610,600,590,580,570,56
99
95
90
80
70
60
50
40
30
20
10
5
1
Table of Statistics
StD ev 0,0077064
Median 15,9662
IQ R 0,0103945
F ailure 28
C ensor 0
Loc
A D * 1,434
C orrelation 0,960
-0,539457
Scale 0,0132152
Thres 15,3831
Mean 15,9662
Gráfico de Probabilidade - 5/8TD*
Complete Data - LSXY Estimates
3-Parameter Lognormal - 95% CI
Capítulo 4: Aplicação da Metodologia 112
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.75 – Transformação de Box-Cox para o conjunto de dados “5/8TE”
Figura 4.76 – Análise do conjunto de dados “5/8TE” transformados por Box-Cox
Para o conjunto de dados “5/8TE” também foi efetuada aplicação da transformação de
Johnson por meio do programa estatístico. O diagrama da Figura 4.77 apresenta as
características desta transformação, com destaque para determinação da família de
transformação e a correspondente equação.
Lambda
StDev
5,02,50,0-2,5-5,0
0,0052575
0,0052550
0,0052525
0,0052500
0,0052475
0,0052450
Lambda
-5,00000
(using 95,0% confidence)
Estimate -5,00000
Lower C L *
Upper CL *
Best Value
Transformação de Box-Cox - 5/8TE
9,6600E-079,6400E-079,6200E-079,6000E-07
Median
Mean
9,6600E-079,6550E-079,6500E-079,6450E-079,6400E-07
A nderson-Darling N ormality Test
V ariance 0,000000
Skew ness -1,03690
Kurtosis -0,05539
N 27
Minimum 0,000001
A -Squared
1st Q uartile 0,000001
Median 0,000001
3rd Q uartile 0,000001
Maximum 0,000001
95% C onfidence Interv al for Mean
0,000001
1,68
0,000001
95% C onfidence Interv al for M edian
0,000001 0,000001
95% C onfidence Interv al for StD ev
0,000000 0,000000
P-V alue < 0,005
Mean 0,000001
StD ev 0,000000
95% Confidence Intervals
Resumo dos Dados 5/8TE Transformados por Box-Cox
Capítulo 4: Aplicação da Metodologia 113
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.77 – Transformação de Johnson para o conjunto de dados “5/8TE”
Como a análise do conjunto de dados “5/8TE” não indicou a presença de outliers, não
se fizeram necessárias aplicações das transformações de Box-Cox ou Johnson para esta
condição.
Para o conjunto de dados “5/8TD” foi efetuada uma tentativa de transformação por
Box-Cox conforme indicado através da Figura 4.78.
Figura 4.78 – Transformação de Box-Cox para o conjunto de dados “5/8TD”
Percent
15,9815,9615,94
99
90
50
10
1
N 27
AD 1,681
P-Value <0,005
Percent
20-2
99
90
50
10
1
N 27
AD 0,493
P-Value 0,200
Z Value
P-Value for AD test
1,21,00,80,60,40,2
0,20
0,15
0,10
0,05
0,00
0,58
Ref P
P-V alue for Best F it: 0,199702
Z for Best F it: 0,58
Best Transformation Ty pe: S B
Transformation function equals
0,911517 + 0,614153 * Log( ( X - 15,9556 ) / ( 15,9863 - X ) )
P r obability P lot for Or iginal Data
P r obability P lot for T ransformed Data
Select a T ransformation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - 5/8TE
Lambda
StDev
5,02,50,0-2,5-5,0
0,004531
0,004530
0,004529
0,004528
0,004527
0,004526
0,004525
0,004524
0,004523
0,004522
Lambda
-5,00000
(using 95,0% confidence)
Estimate -5,00000
Lower CL *
Upper CL *
Best Value
Transformação de Box-Cox - 5/8TD
Capítulo 4: Aplicação da Metodologia 114
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Após transformação de Box-Cox, admitindo
α
= 0,05, os dados obtidos não foram
considerados normalmente distribuídos, visto que p-value (0,015) resultou menor que 0,05. A
análise gráfica da distribuição transformada por Box-Cox é apresentada na Figura 4.79.
Figura 4.79 – Análise do conjunto de dados “5/8TD” transformados por Box-Cox
Para o conjunto de dados “5/8TD” também foi efetuada aplicação da transformação de
Johnson conforme mostrado na Figura 4.80.
Figura 4.80 – Transformação de Johnson para o conjunto de dados “5/8TD”
9,6600E-079,6400E-079,6200E-079,6000E-079,5800E-079,5600E-079,5400E-07
Median
Mean
9,6600E-079,6500E-079,6400E-079,6300E-079,6200E-07
A nderson-Darling Normality Test
V ariance 0,000000
Skew ness -1,17485
Kurtosis 1,99081
N 29
Minimum 0,000001
A -Squared
1st Q uartile 0,000001
Median 0,000001
3rd Q uartile 0,000001
Maximum 0,000001
95% C onfidence Interv al for Mean
0,000001
0,94
0,000001
95% C onfidence Interv al for Median
0,000001 0,000001
95% C onfidence Interv al for StDev
0,000000 0,000000
P-V alue 0,015
Mean 0,000001
StD ev 0,000000
95% Confidence Intervals
Resumo dos Dados 5/8TD Transformados por Box-Cox
Percent
16,0015,9815,9615,94
99
90
50
10
1
N 29
AD 0,943
P-Value 0,015
Percent
20-2
99
90
50
10
1
N 29
AD 0,410
P-Value 0,322
Z Value
P-Value for AD test
1,251,000,750,50
0,3
0,2
0,1
0,0
0,65
Ref P
P-V alue for Best Fit: 0,321981
Z for Best F it: 0,65
Best Transformation Ty pe: SB
Transformation function equals
1,01181 + 0,729792 * Log( ( X - 15,9554 ) / ( 16,0045 - X ) )
Pr obability Plot for Original Data
Pr obability Plot for T r ansformed Data
Select a T ransfor mation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - 5/8TD
Capítulo 4: Aplicação da Metodologia 115
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados “5/8TD” sem outliers (ou “5/8TD*”) foi tentada a
transformação dos dados para condição de normalidade através da aplicação do método de
Box-Cox conforme indicado através da Figura 4.81.
Figura 4.81 – Transformação de Box-Cox para o conjunto de dados “5/8TD” sem outliers
Para os dados “5/8TD” sem outliers (“5/8TD*”) também foi aplicado o método de
transformação de Johnson de acordo com diagrama apresentado na Figura 4.82.
Figura 4.82 – Transformação de Johnson para o conjunto de dados “5/8TD” sem outliers
Lambda
StDev
5,02,50,0-2,5-5,0
0,0039410
0,0039405
0,0039400
0,0039395
0,0039390
Lambda
-5,00000
(using 95,0% confidence)
Estimate -5,00000
Lower CL *
Upper C L *
Best Value
Transformação de Box-Cox - 5/8TD*
Percent
15,9815,9615,94
99
90
50
10
1
N 28
AD 1,048
P-Value 0,008
Percent
20-2
99
90
50
10
1
N 28
AD 0,302
P-Value 0,554
Z Value
P-Value for AD test
1,21,11,00,90,80,7
0,5
0,4
0,3
0,2
0,1
0,72
Ref P
P-V alue for Best F it: 0,554249
Z for Best F it: 0,72
Best Transformation Ty pe: SB
Transformation function equals
0,278324 + 0,522537 * Log( ( X - 15,9558 ) / ( 15,9817 - X ) )
Pr obability P lot for Or iginal Data
Pr obability P lot for T ransfor med Data
Select a T ransfor mation
(P-Value = 0.005 means <= 0.005)
Transformação de Johnson - 5/8TD*
Capítulo 4: Aplicação da Metodologia 116
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.3.6 lculo de Capabilidade de Dados Reais – Furos 5/8”
A avaliação de capabilidade para os conjuntos de dados “5/8TE” e “5/8TD” (Apêndice
D) teve como requisito um limite inferior de especificação de 15,950 mm e um limite superior
de especificação de 15,977 mm para as medidas de diâmetro dos furos do componente
estrutural. Foram calculados diversos índices de capabilidade z
bench
(z
LT
e z
ST
) diferentes:
a) Em uma primeira abordagem o cálculo foi efetuado com os dados originais e os
dados tratados (sem outliers) como se fossem normalmente distribuídos;
b) No segundo caso a condição não normal da distribuição foi considerada no cálculo
dos dados originais e, quando aplicável, nos dados sem a presença de outliers.
c) Na terceira abordagem os dados originais foram modificados por meio da
transformação de Box-Cox;
d) Na quarta situação foi utilizada a transformação de Johnson.
A Figura 4.83 apresenta os resultados do cálculo de capabilidade considerando os
dados originais “5/8TE” como se fossem normalmente distribuídos.
Figura 4.83 – Índices de capabilidade do conjunto de dados originais “5/8TE”
Como o conjunto de dados “5/8TE” não se mostrou normalmente distribuído, o
cálculo de capabilidade foi efetuado a partir da distribuição Lognormal com 3 parâmetros,
correspondente ao melhor ajuste para os dados de “5/8TE” em um intervalo de 95% de
confiança. Os resultados nesta situação são apresentados através da Figura 4.84.
15,98015,97515,97015,96515,96015,95515,950
LSL USL
Process D ata
Sample N 27
StD ev (Within) 0,00525
StD ev (O v erall) 0,00744
LSL 15,95000
Target *
U S L 15,97700
Sample Mean 15,96344
Potential (Within) C apability
C C pk 0,86
O v erall C apability
Z.Bench 1,48
Z.LSL 1,81
Z.U SL 1,82
Ppk
Z.Bench
0,60
C pm *
2,32
Z.LSL 2,56
Z.U SL 2,58
C pk 0,85
O bserv ed Performance
PP M < LSL 0,00
PP M > U SL 74074,07
PP M Total 74074,07
Exp. Within P erformance
PP M < LSL 5227,87
PP M > U S L 4918,01
PP M Total 10145,89
Exp. O v erall P erformance
PP M < LSL 35321,39
PP M > U S L 34173,87
PP M Total 69495,26
Within
Ov erall
Avaliação de Capabilidade - 5/8TE
Capítulo 4: Aplicação da Metodologia 117
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 4.84 – Índices de capabilidade dos dados “5/8TE” baseados na distribuição Lognormal
Não foi efetuado cálculo de capabilidade após transformação de Box-Cox dos dados
“5/8TE”, pois a mesma não resultou em normalidade.
A Figura 4.85 apresenta os resultados do cálculo de capabilidade do processo após
utilização da transformação de Johnson no conjunto de dados originais “5/8TE”.
Figura 4.85 – Índices de capabilidade dos dados “5/8TE” transformados por Johnson
15,98015,97515,97015,96515,96015,95515,950
LSL USL
Process D ata
S ample N 27
Location -0,74041
S cale 0,01504
Threshold 15,48651
LSL 15,95000
Target *
U SL 15,97700
S ample Mean 15,96344
O v erall C apability
Z.Bench 1,56
Z.LSL 1,91
Z.U SL 1,85
P pk 0,62
O bserv ed Performance
PP M < LSL 0,0
PP M > U SL 74074,1
PP M Total 74074,1
Exp. O v erall Performance
PP M < LSL 28827,1
PP M > U SL 31058,5
PP M Total 59885,6
Avaliação de Capabilidade - 5/8TE
Calculations Based on Lognormal Distribution Model
210-1-2
U SL*
transformed data
P rocess D ata
S ample N 27
S tD ev 0,00737
S hape1 0,91152
S hape2 0,61415
Location 15,95560
LSL
S cale 0,03074
A fter Transformation
LSL* *
Target* *
U SL* 1,42129
S ample Mean*
15,95000
-0,03023
S tD ev * 0,96325
Target *
U SL 15,97700
S ample Mean 15,96344
O v erall C apability
Z.B ench *
Z.LSL *
Z.U S L 1,51
P pk 0,50
O bserv ed P erformance
P P M < LSL 0,0
P P M > U SL 74074,1
P P M Total 74074,1
Exp. O v erall P erformance
P P M < LSL *
P P M > U SL *
P P M Total *
Avaliação de Capabilidade - 5/8TE
Johnson Transformation with SB Distribution Type
0,912 + 0,614 * Log( ( X - 15,956 ) / ( 15,986 - X ) )
Capítulo 4: Aplicação da Metodologia 118
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A Figura 4.86 apresenta os resultados do cálculo de capabilidade considerando os
dados originais “5/8TD” como se fossem normalmente distribuídos.
Figura 4.86 – Índices de capabilidade dos dados originais “5/8TD”
Como o conjunto de dados “5/8TD” não se mostrou normalmente distribuído, o
cálculo de capabilidade foi efetuado a partir da distribuição Lognormal com 3 parâmetros. Os
resultados nesta situação são apresentados através da Figura 4.87.
Figura 4.87 – Índices de capabilidade dos dados “5/8TD” baseados na distribuição Lognormal
16,0015,9915,9815,9715,9615,95
LSL USL
P rocess D ata
Sample N 29
StD ev (Within) 0,00453
StD ev (O v erall) 0,00968
LS L 15,95000
Target *
U S L 15,97700
Sample Mean 15,96731
P otential (Within) C apability
C C pk 0,99
O v erall C apability
Z.Bench 0,86
Z.LSL 1,79
Z.U SL 1,00
P pk
Z.Bench
0,33
C pm *
2,14
Z.LSL 3,82
Z.U SL 2,14
C pk 0,71
O bserv ed Performance
P P M < LSL 0,00
P P M > U SL 103448,28
P P M T otal 103448,28
Exp. Within Performance
P P M < LSL 65,84
P P M > U SL 16172,28
P P M T otal 16238,12
Exp. O v erall P erformance
P P M < LSL 36894,14
P P M > U SL 158459,33
P P M T otal 195353,47
Within
Overall
Avaliação de Capabilidade - 5/8TD
16,0015,9915,9815,9715,9615,95
LSL USL
P rocess Data
Sample N 29
Location -0,99045
Scale 0,02504
Threshold 15,59585
LS L 15,95000
Target *
US L 15,97700
Sample Mean 15,96731
O v erall C apability
Z.Bench 0,92
Z.LSL 1,93
Z.U SL 1,01
P pk 0,34
O bserv ed P erformance
P P M < LS L 0
P P M > USL 103448
P P M Total 103448
Exp. O v erall Performance
P P M < LSL 28661
P P M > U S L 150604
P P M T otal 179265
Avaliação de Capabilidade - 5/8TD
Calculations Based on Lognormal Distribution Model
Capítulo 4: Aplicação da Metodologia 119
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Não foi efetuado cálculo de capabilidade após transformação de Box-Cox dos dados
“5/8TD”, pois a mesma não resultou em normalidade. A Figura 4.88 apresenta os resultados
do cálculo de capabilidade do processo após transformação de Johnson em “5/8TD”.
Figura 4.88 – Índices de capabilidade dos dados “5/8TD” transformados por Johnson
A Figura 4.89 apresenta os resultados considerando os dados originais “5/8TD” sem a
presença de outliers e considerando os dados como se fossem normalmente distribuídos.
Figura 4.89 – Índices de capabilidade do conjunto de dados “5/8TD” sem outliers
210-1-2
US L*
transformed data
P rocess Data
Sample N 29
StD ev 0,00960
Shape1 1,01181
Shape2 0,72979
Location 15,95541
LS L
Scale 0,04912
A fter T ransformation
LS L* *
Target* *
U S L* 0,83467
Sample Mean*
15,95000
-0,07024
StD ev * 0,96468
Target *
U S L 15,97700
Sample Mean 15,96731
O v erall C apability
Z.Bench *
Z.LSL *
Z.U SL 0,94
Ppk 0,31
O bserv ed Performance
P P M < LSL 0
P P M > U SL 103448
P P M T otal 103448
Exp. O v erall Performance
P P M < LSL *
P P M > U SL *
P P M T otal *
Avaliação de Capabilidade - 5/8TD
Johnson Transformation with SB Distribution Type
1,012 + 0,730 * Log( ( X - 15,955 ) / ( 16,005 - X ) )
1
5
,
9
8
5
1
5
,
9
8
0
1
5
,
9
7
5
1
5
,
9
7
0
1
5
,
9
6
5
1
5
,
9
6
0
1
5
,
9
5
5
1
5
,
9
5
0
LSL USL
P rocess Data
Sample N 28
StD ev (Within) 0,00394
StD ev (O v erall) 0,00778
LS L 15,95000
Target *
U S L 15,97700
Sample Mean 15,96621
P otential (Within) C apability
C C pk 1,14
O v erall C apability
Z.Bench 1,27
Z.LSL 2,09
Z.U S L 1,39
P pk
Z.Bench
0,46
C pm *
2,74
Z.LSL 4,12
Z.U S L 2,74
C pk 0,91
O bserv ed Performance
P P M < LSL 0,00
P P M > U S L 71428,57
P P M Total 71428,57
Exp. Within P erformance
PP M < LSL 19,34
PP M > U SL 3096,21
PP M T otal 3115,56
Exp. O v erall Performance
P P M < LSL 18529,15
P P M > U SL 82717,98
P P M T otal 101247,13
Within
Ov erall
Avaliação de Capabilidade - 5/8TD*
Capítulo 4: Aplicação da Metodologia 120
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Como os dados “5/8TD” sem outliers não eram normalmente distribuído, o cálculo de
capabilidade foi efetuado a partir da distribuição Lognormal com 3 parâmetros (Figura 4.90).
Figura 4.90 – Índices capabilidade dos dados “5/8TD” sem outliers (distribuição Lognormal)
Não foi efetuado cálculo de capabilidade após transformação de Box-Cox dos dados
“5/8TD” sem outliers, pois a mesma não resultou em normalidade. A Figura 4.91 apresenta o
cálculo de capabilidade após transformação de Johnson dos dados “5/8TD” sem outliers.
Figura 4.91 – Índices de capabilidade dos dados “5/8TD” sem outliers (transf. Johnson)
15,98015,97515,97015,96515,96015,95515,950
LSL USL
Process Data
Sample N 28
Location -0,54729
Scale 0,01305
Threshold 15,38766
LSL 15,95000
Target *
U S L 15,97700
Sample Mean 15,96621
O v erall C apability
Z.Bench 1,32
Z.LSL 2,18
Z.U SL 1,41
P pk 0,47
O bserv ed P erformance
PP M < LSL 0,0
PP M > U S L 71428,6
PP M Total 71428,6
Exp. O v erall P erformance
PP M < LSL 14901,4
PP M > U S L 77722,6
PP M Total 92623,9
Avaliação de Capabilidade - 5/8TD*
Calculations Based on Lognormal Distribution Model
210-1-2
U S L*
transformed data
P rocess D ata
Sample N 28
StD ev 0,00770
Shape1 0,27832
Shape2 0,52254
Location 15,95576
LS L
Scale 0,02593
A fter T ransformation
LS L* *
Target* *
U S L* 1,06775
Sample Mean*
15,95000
-0,03806
StD ev * 0,93016
Target *
U S L 15,97700
Sample Mean 15,96621
O v erall C apability
Z.Bench *
Z.LSL *
Z.U SL 1,19
P pk 0,40
O bserv ed Performance
P P M < LSL 0,0
P P M > U SL 71428,6
P P M T otal 71428,6
Exp. O v erall Performance
P P M < LSL *
P P M > U SL *
P P M T otal *
Avaliação de Capabilidade - 5/8TD*
Johnson Transformation with SB Distribution Type
0,278 + 0,523 * Log( ( X - 15,956 ) / ( 15,982 - X ) )
Capítulo 4: Aplicação da Metodologia 121
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para os conjuntos de dados “5/8TE” e “5/8TD” não foram calculados os índices de
capabilidade após as transformações de Box-Cox, pois as mesmas não resultaram em
normalidade. Também não foi possível obter índices de capabilidade após as transformações
de Johnson, uma vez que não foram encontrados valores de referência
z
bench
a partir da
aplicação da fórmula de transformação nos limites de especificação definidos. A Tabela 4.4
apresenta a comparação dos valores obtidos nas várias situações apresentadas, com o
correspondente cálculo do nível sigma e a fração não conforme em partes por milhão para os
conjuntos de dados “5/8TE” e “5/8TD”, considerando z
shift
igual a 1,5 sigma.
PREMISSA ADOTADA PARA CÁLCULO
LIE
(mm)
LSE
(mm)
ÍNDICE
Z
LT
NÍVEL
SIGMA
(Z
LT
+1,5)
PPM
Dados “5/8TE” considerados normais 15,950 15,977 1,48 2,98 69495
Dados “5/8TE” (distribuição Lognormal) 15,950 15,977 1,56 3,06 59886
Dados “5/8TD” considerados normais 15,950 15,977 0,86 2,36 195353
Dados “5/8TD” (distribuição Lognormal) 15,950 15,977 0,92 2,42 179265
Dados “5/8TD” sem
outliers
supondo normais 15,950 15,977 1,27 2,77 101247
Dados “5/8TD” sem
outliers
(Lognormal) 15,950 15,977 1,32 2,82 92624
Tabela 4.4 – Cálculos comparativos do nível sigma para “5/8TE” e “5/8TD
Capítulo 5: Discussão dos Resultados 122
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
5. DISCUSSÃO DOS RESULTADOS
5.1 Análise de Resultados na Investigação Experimental
A análise da simulação efetuada na pesquisa experimental com os dados não normais
foi conduzida através da interpretação dos gráficos de controle individual e da avaliação de
capabilidade com os dados modelados pelas distribuições Gamma e Beta.
5.1.1 Análise dos Gráficos de Controle – Distribuição Gamma
Após análise dos gráficos de controle construídos durante a pesquisa experimental
para os dados provenientes da distribuição Gamma, foram observadas quatro situações
distintas, que estão abaixo detalhadas.
a) Assumindo os dados modelados pela distribuição Gamma como se fossem
normalmente distribuídos:
- No chamado “teste 1”, que avalia a quantidade de pontos além dos limites de
controle estipulados, foram identificados 2 (dois) pontos acima do limite superior de
controle, que poderiam ser interpretados como causas especiais de variação.
- Entretanto, o simples tratamento dos dados, por meio da eliminão dos pontos fora
do padrão (outliers) foi suficiente para que o comportamento apresentado no gráfico
de controle se enquadrasse em uma situação de controle estatístico, mesmo com a
suposição incorreta de normalidade dos dados originais.
b) Estabelecendo novos limites de controle inferior e superior, baseado nos percentis
0,135 e 99,865, respectivamente, com base na função densidade de probabilidade
da distribuição Gamma, obviamente assimétrica:
- Neste caso não foram observados pontos além dos limites de controle, tanto para os
dados originais quanto para os dados tratados através da eliminação dos outliers.
c) Efetuando transformação matemática dos dados modelados pela distribuição
Gamma por meio do método de Box-Cox:
- Após a aplicação da transformação de Box-Cox, não mais foram identificados pontos
além dos limites de controle, tanto para os dados originais quanto para os dados
tratados através da eliminação dos outliers.
d) Efetuando transformação matemática dos dados modelados pela distribuição
Gamma por meio do método de Johnson:
Capítulo 5: Discussão dos Resultados 123
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
- De modo semelhante, após a transformação de Johnson, também não foram
observados pontos além dos limites de controle, tanto para os dados originais quanto
para os dados tratados através da eliminação dos outliers.
5.1.2 Análise dos Gráficos de Controle – Distribuição Beta
A análise dos gráficos de controle construídos durante a pesquisa experimental com
dados modelados pela distribuição Beta, apresentou quatro situações diferentes para os dados
originais brutos e tratados, conforme comentado a seguir.
a) Assumindo os dados modelados pela distribuição Beta como se fossem
normalmente distribuídos:
- No “teste 1” de avaliação da quantidade de pontos além dos limites de controle, foi
verificado 1 (um) ponto abaixo do limite inferior de controle, que poderia ser abordado
como causa especial de variação.
- É importante ressaltar que a análise de estabilidade do processo, obviamente não
considerava os limites de especificação, pois além do ponto abaixo do limite de
controle inferior, evidenciaram-se alguns pontos abaixo do limite inferior de
especificação.
- O simples tratamento dos dados, por meio da eliminação dos outliers foi suficiente
para que os dados se ajustassem em uma distribuição considerada normal e sem pontos
além dos limites de controle, isto é, os dados modelados pela distribuição Beta sem a
presença de outliers mostraram-se normalmente distribuídos e o comportamento
apresentado no gráfico de controle indicou uma situação de controle estatístico.
b) Estabelecendo novos limites de controle inferior e superior, baseado nos percentis
0,135 e 99,865, respectivamente, com base na função densidade de probabilidade
da distribuição assimétrica Beta:
- Não foram observados pontos além dos limites de controle para os dados originais e,
como a distribuição previamente tratada pode ser considerada normal, não foi
necessária uma análise adicional dos novos limites de controle após a eliminação dos
outliers.
c) Efetuando transformão matemática dos dados modelados pela distribuição Beta
por meio do método de Box-Cox:
Capítulo 5: Discussão dos Resultados 124
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
- Após a aplicação da transformação de Box-Cox, não foram visualizados pontos além
dos limites de controle e, como a distribuição previamente tratada pôde ser
considerada normal, não foi efetuada transformação matemática após a eliminação dos
outliers.
d) Efetuando transformação matemática dos dados modelados pela distribuição
Gamma por meio do método de Johnson:
- Semelhantemente, após a transformação de Johnson, também não foram observados
pontos além dos limites de controle e também não foi necessário efetuar transformação
dos dados após a eliminação dos outliers.
5.1.3 Considerações sobre Normalidade e Gráficos de Controle na Simulação
A interpretação resumida da análise dos gráficos de controle individuais para os
conjuntos de dados modelados pelas distribuições Gamma e Beta é mostrada na Tabela 5.1.
TESTE 1 – QUANTIDADE DE PONTOS ALÉM DOS LIMITES DE CONTROLE (LC)
CONJUNTO
DE DADOS
SIMULADOS
SUPONDO NORMAL
LIC =
X
-E
2
.
mR
LSC =
X
+E
2
.
mR
NÃO NORMAL
LC EM PERCENTIS
LIC = percentil 0,135
LSC = percentil 99,865
TRANSF. BOX-COX
LIC =
BC
X
E
2
.
mR
LSC =
BC
X
+E
2
.
mR
TRANSF. JOHNSON
LIC =
J
X
E
2
.
mR
LSC =
J
X
+E
2
.
mR
Gamma 220
2 pontos acima do
LSC
0 0 0
Gamma 220*
(sem outliers)
0 0 0 0
Beta 2550
1 ponto abaixo do
LIC
0 0 0
Beta 2550*
(sem outliers)
distribuição Normal
0
N/A
(não aplicável)
N/A
(não aplicável)
N/A
(não aplicável)
Tabela 5.1 – Interpretação dos gráficos de controle individuais - dados simulados
Por meio da análise dos gráficos individuais de controle para os conjuntos de dados
não normais simulados, ficou claro que a suposição incorreta de normalidade acarreta uma
interpretação equivocada do comportamento do processo, pois conforme demonstrado através
da avaliação dos dados modelados pelas distribuições Gamma e Beta, falsas causas especiais
de variação foram evidenciadas. Por outro lado, o tratamento prévio dos dados por meio da
eliminação dos outliers, a determinação de novos limites de controle baseados em percentis e
Capítulo 5: Discussão dos Resultados 125
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
a transformação matemática das variáveis com as técnicas de Box-Cox e Johnson, mostraram-
se procedimentos extremamente eficazes ao possibilitar uma interpretação mais coerente
acerca da condição de estabilidade do processo em estudo.
5.1.4 Análise do Cálculo de Capabilidade – Distribuição Gamma
Após análise dos índices de capabilidade calculados durante a pesquisa experimental,
utilizando o conceito seis sigma para os dados modelados pela distribuição Gamma em quatro
situações distintas, foram observados os seguintes resultados.
a) Assumindo os dados modelados pela distribuição Gamma como se fossem
normalmente distribuídos:
- Foi obtido um índice de 4,47
σ
com os dados originais, o que denotaria uma
proporção de itens não conformes de 1470 PPM.
- Após tratamento dos dados através da eliminação dos pontos fora do padrão
(outliers), o desempenho, na verdade ilusório, apresentaria um índice de 4,84
σ
,
equivalente a 420 PPM.
b) Adotando a característica assimétrica dos dados com base na função densidade de
probabilidade da distribuição Gamma:
- Neste caso, o índice obtido de 3,62
σ
apontou para um desempenho de 16872 PPM.
- Através da eliminação dos outliers, obteve-se o índice de 3,99
σ
(6333 PPM), mais
representativo da realidade dos dados assimétricos.
c) Efetuando transformação matemática dos dados modelados pela distribuição
Gamma por meio do método de Box-Cox:
- Após a aplicação da transformação de Box-Cox, o novo nível sigma encontrado foi
3,64
σ
(16010 PPM), muito próximo ao valor de 3,62
σ
relativo ao cálculo com os
dados considerados assimétricos.
- O índice de 4,03
σ
(5730 PPM), obtido para os dados transformados após a remoção
dos outliers, não é muito diferente do valor de 3,99
σ
referente ao cálculo dos dados
assimétrico sem outliers.
d) Efetuando transformação matemática dos dados modelados pela distribuição
Gamma por meio do método de Johnson:
Capítulo 5: Discussão dos Resultados 126
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
- Após a aplicação da transformação de Johnson, o nível sigma encontrado foi 3,81
σ
(10453 PPM), superior ao valor de 3,64
σ
obtido após transformação de Box-Cox e ao
valor de 3,62
σ
calculado com os dados considerados assimétricos.
- O índice de 4,37
σ
(2041 PPM), obtido para os dados transformados após a remoção
dos outliers, é consideravelmente superior ao valor de 4,03
σ
encontrado após
transformação de Box-Cox e ao valor de 3,99
σ
referente ao cálculo dos dados
assimétrico sem outliers.
5.1.5 Análise do Cálculo de Capabilidade – Distribuição Beta
A análise dos índices de capabilidade calculados durante a pesquisa experimental, por
meio da determinação do nível sigma para os dados modelados pela distribuição Beta em
quatro situações diferentes, apresentou os resultados comentados a seguir.
a) Assumindo os dados modelados pela distribuição Beta como se fossem
normalmente distribuídos:
- Foi obtido um índice de 3,61
σ
com os dados originais, o que denotaria uma
proporção de itens não conformes de 17625 PPM.
- Após tratamento dos dados através da eliminação dos outliers, os mesmos
mostraram-se, de fato, normalmente distribuídos e o índice encontrado foi de 3,95
σ
,
equivalente a 7145 PPM.
b) Adotando a característica assimétrica dos dados com base na função densidade de
probabilidade da distribuição Beta:
- O índice de 3,48
σ
, obtido neste caso, indicou um desempenho de 23953 PPM.
- Uma vez que a eliminação dos outliers resultou em normalidade, não foi necessária
análise adicional com os dados tratados em sua característica assimétrica.
c) Efetuando transformão matemática dos dados modelados pela distribuição Beta
por meio do método de Box-Cox:
- Após a aplicação da transformação de Box-Cox, o nível sigma encontrado foi 3,59
σ
(18247 PPM), não muito distante do valor de 3,48
σ
relativo ao cálculo com os dados
considerados assimétricos.
- Visto que a eliminação dos outliers resultou em normalidade, não foi necessária
análise adicional com os dados tratados e transformados (Box-Cox).
Capítulo 5: Discussão dos Resultados 127
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
d) Efetuando transformação matemática dos dados modelados pela distribuição
Gamma por meio do método de Johnson:
- Após a aplicação da transformação de Johnson, o nível sigma encontrado foi 3,36
σ
(31787 PPM), inferior ao valor de 3,59
σ
obtido após transformão de Box-Cox e ao
valor de 3,48
σ
calculado com os dados considerados assimétricos.
- Uma vez que a eliminação dos outliers resultou em normalidade, não foi necessária
análise adicional com os dados tratados e transformados (Johnson).
5.1.6 Considerações sobre Normalidade e Capabilidade na Simulação
Um resumo da avaliação de capabilidade dos dados simulados modelados pelas
distribuições Gamma e Beta é representado através da Tabela 5.2.
AVALIAÇÃO DE CAPABILIDADE ATRAVÉS DO NÍVEL SIGMA
SUPONDO NORMAL
NÃO NORMAL
(distribuição original)
TRANSF. BOX-COX
TRANSF. JOHNSON
CONJUNTO
DE
DADOS
SIMULADOS
Z
LT
Z
ST
(
σ
)
PPM
Z
LT
Z
ST
(
σ
)
PPM
Z
LT
Z
ST
(
σ
)
PPM
Z
LT
Z
ST
(
σ
)
PPM
Gamma 220
2,97 4,47 1470 2,12 3,62 16872 2,14 3,64 16010 2,31 3,81 10453
Gamma 220*
(s/ outliers)
3,34 4,84 420 2,49 3,99 6333 2,53 4,03 5730 2,87 4,37 2041
Beta 2550
2,11 3,61
17625
1,98 3,48 23953 2,09 3,59 18247 1,86 3,36 31787
Beta 2550*
(s/ outliers)
distribuição Normal
2,45 3,95 7145 N/A N/A N/A N/A N/A N/A N/A N/A N/A
Tabela 5.2 – Determinação do nível sigma - dados simulados
No cálculo do índice de capabilidade através do conceito seis sigma para o conjunto
de dados não normais simulados, ficou demonstrado que a adoção inadequada de normalidade
pode produzir valores que não representam o desempenho real do processo em estudo. Por
exemplo, no caso dos dados gerados a partir da distribuição Gamma, o cálculo assumindo
normalidade indicou índices de desempenho muito superiores aos valores obtidos através da
consideração da característica assimétrica da distribuição e dos dados previamente
transformados por Box-Cox e Johnson. Entretanto, em relação os dados gerados a partir da
distribuição Beta, a adoção incorreta de normalidade não produziu valores tão discrepantes se
comparados com aqueles obtidos por meio da característica não normal e mesmo em relação
aos dados transformados.
Capítulo 5: Discussão dos Resultados 128
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
5.2 Análise de Resultados na Pesquisa Exploratória
A análise do estudo de caso na pesquisa exploratória foi efetuada através da avaliação
de capabilidade com os conjuntos de dados reais “3/4AE”, “3/4AD”, “5/8TE” e “5/8TD”.
5.2.1 Análise do Cálculo de Capabilidade – Dados3/4AE”
A análise dos índices de capabilidade calculados durante a pesquisa exploratória, por
meio da determinação do nível sigma para o conjunto de dados “3/4AE” em quatro situações
diferentes, apresentou os resultados comentados a seguir.
a) Assumindo o conjunto de dados “3/4AE” como se fossem normalmente
distribuídos:
- Foi obtido um índice de 2,62
σ
com os dados originais, o que denotaria uma
proporção de itens não conformes de 130525 PPM.
- Após tratamento dos dados através da eliminação dos outliers, os mesmos
mostraram-se, de fato, normalmente distribuídos e o índice encontrado foi de 2,83
σ
,
equivalente a 91334 PPM.
b) Adotando a função densidade de probabilidade da distribuição que melhor se
ajustou ao conjunto de dados (Loglogistic com 3 parâmetros):
- O índice de 2,68
σ
, obtido neste caso, indicou um desempenho de 118550 PPM.
- Uma vez que a eliminação dos outliers resultou em normalidade, não foi necessária
análise adicional com os dados tratados em sua característica assimétrica.
c) Efetuando transformação matemática do conjunto de dados por meio do método de
Box-Cox:
- Não foi possível efetuar a transformação de Box-Cox através do software estatístico,
isto é, não foi encontrado valor de
λ
que possibilitasse a normalização dos dados.
- Visto que a eliminação dos outliers resultou em normalidade, não foi necessária
análise adicional com os dados tratados e transformados (Box-Cox).
d) Efetuando transformação matemática do conjunto de dados por meio do todo de
Johnson:
- Após a aplicação da transformação de Johnson, o nível sigma encontrado foi 2,91
σ
(79401 PPM), um pouco superior ao valor 2,68
σ
calculado com os dados considerados
assimétricos.
Capítulo 5: Discussão dos Resultados 129
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
- Uma vez que a eliminação dos outliers resultou em normalidade, não foi necessária
análise adicional com os dados tratados e transformados (Johnson).
5.2.2 Análise do Cálculo de Capabilidade – Dados3/4AD”
A análise dos índices de capabilidade calculados durante a pesquisa exploratória, por
meio da determinação do nível sigma para o conjunto de dados “3/4AD” em quatro situações
diferentes, apresentou os resultados comentados a seguir.
a) Assumindo o conjunto de dados “3/4AD” como se fossem normalmente
distribuídos:
- Foi obtido um índice de 3,09
σ
com os dados originais, o que denotaria uma
proporção de itens não conformes de 56313 PPM.
- Após tratamento dos dados através da eliminação dos outliers, o índice encontrado
foi de 3,22
σ
, o que representaria um desempenho equivalente a 42972 PPM.
b) Adotando a função densidade de probabilidade da distribuição que melhor se
ajustou ao conjunto de dados (Logistic):
- O índice de 3,10
σ
, obtido neste caso, indicou um desempenho de 55001 PPM, muito
semelhante ao valor obtido com a suposição de normalidade.
- Através da eliminação dos outliers, obteve-se o índice de 3,24
σ
(40600 PPM),
também bastante próximo ao valor obtido com suposição de normalidade.
c) Efetuando transformação matemática do conjunto de dados por meio do método de
Box-Cox:
- Não foi possível efetuar a transformação de Box-Cox através do software estatístico,
isto é, não foi encontrado valor de
λ
que possibilitasse a normalização dos dados
originais e dos dados sem outliers.
d) Efetuando transformação matemática do conjunto de dados por meio do todo de
Johnson:
- Não foi possível efetuar a transformação de Johnson através do software estatístico,
isto é, não foi encontrada equação de transformação que possibilitasse a normalização
dos dados originais e dos dados sem outliers.
Capítulo 5: Discussão dos Resultados 130
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
5.2.3 Análise do Cálculo de Capabilidade – Dados5/8TE”
A análise dos índices de capabilidade calculados durante a pesquisa exploratória, por
meio da determinação do nível sigma para o conjunto de dados “5/8TE” em quatro situações
diferentes, apresentou os resultados comentados a seguir.
a) Assumindo o conjunto de dados “5/8TE” como se fossem normalmente
distribuídos:
- Foi obtido um índice de 2,98
σ
com os dados originais, o que denotaria uma
proporção de itens não conformes de 69495 PPM.
- Como a análise do conjunto de dados “5/8TE” não indicou a presença de outliers,
obviamente não se fez necessária uma segunda verificação após a sua eliminação.
b) Adotando a função densidade de probabilidade da distribuição que melhor se
ajustou ao conjunto de dados (Lognormal com 3 parâmetros):
- O índice de 3,06
σ
, obtido neste caso, indicou um desempenho de 59886 PPM, que
tem a mesma ordem de grandeza do valor obtido com a suposição de normalidade.
- Como a análise do conjunto de dados “5/8TE” não indicou a presença de outliers,
obviamente não se fez necessária uma segunda verificação após a sua eliminação.
c) Efetuando transformação matemática do conjunto de dados por Box-Cox:
- Não foi possível efetuar a transformação de Box-Cox através do software estatístico,
isto é, não foi encontrado valor de
λ
que possibilitasse a normalização dos dados.
d) Efetuando transformação matemática do conjunto de dados por Johnson:
- Não foi possível efetuar a transformação de Johnson através do software estatístico,
isto é, não foi encontrada equação de transformação que possibilitasse a normalização
dos dados originais.
5.2.4 Análise do Cálculo de Capabilidade – Dados5/8TD”
A análise dos índices de capabilidade calculados durante a pesquisa exploratória, por
meio da determinação do nível sigma para o conjunto de dados “5/8TD” em quatro situações
diferentes, apresentou os resultados comentados a seguir.
a) Assumindo o conjunto de dados “5/8TD” como se fossem normalmente
distribuídos:
- Foi obtido um índice de 2,36
σ
com os dados originais, o que denotaria uma
proporção de itens não conformes de 195353 PPM.
Capítulo 5: Discussão dos Resultados 131
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
- Após tratamento dos dados através da eliminação dos outliers, o índice encontrado
foi de 2,77
σ
, o que representaria um desempenho equivalente a 101247 PPM.
b) Adotando a função densidade de probabilidade da distribuição que melhor se
ajustou ao conjunto de dados (Lognormal com 3 parâmetros):
- O índice de 2,42
σ
, obtido neste caso, indicou um desempenho de 179265 PPM, que
tem a mesma ordem de grandeza do valor obtido com a suposição de normalidade.
- Através da eliminação dos outliers, obteve-se o índice de 2,82
σ
(92624 PPM),
também com a mesma ordem de grandeza do valor obtido com suposição de
normalidade.
c) Efetuando transformação matemática do conjunto de dados por meio do método de
Box-Cox:
- Não foi possível efetuar a transformação de Box-Cox através do software estatístico,
isto é, não foi encontrado valor de
λ
que possibilitasse a normalização dos dados
originais e dos dados sem outliers.
d) Efetuando transformação matemática do conjunto de dados por meio do todo de
Johnson:
- Não foi possível efetuar a transformação de Johnson através do software estatístico,
isto é, não foi encontrada equação de transformação que possibilitasse a normalização
dos dados originais e dos dados sem outliers.
5.2.5 Considerações sobre Normalidade e Capabilidade no Estudo de Caso
O cálculo do índice de capabilidade, através do conceito seis sigma com os dados reais
não normais, indicou neste estudo de caso que a suposição incorreta de normalidade
aparentemente não produziu índices de capabilidade extremamente discrepantes em relação
aos índices obtidos a partir do ajuste prévio dos dados em uma distribuição conhecida (best
fitting). Contudo, é importante deixar claro que este fato não elimina a necessidade de
confirmação da premissa de normalidade, pois nem sempre a característica dos dados
estudados pode garantir uma situação de robustez em relação ao tipo de distribuição.
Além disso, as técnicas de transformação de variáveis não se mostraram eficazes no
cálculo do índice de capabilidade a partir dos dados reais selecionados, pois pelo método de
Box-Cox não foi possível determinar transformação que resultasse em normalidade e pelo
método de Johnson em apenas um dos quatro conjuntos estudados a transformação foi bem
Capítulo 5: Discussão dos Resultados 132
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
sucedida e forneceu dados para comparação. Este fato pode ser atribuído muito mais à
característica distribucional particular dos dados do que ao pequeno tamanho da amostra, pois
em estudos preliminares com amostras maiores deste mesmo processo também não foi
possível obter transformação que resultasse em normalidade.
Portanto, o ajuste dos dados em uma distribuição não normal adequadamente
escolhida (best fitting) foi a melhor opção para tratamento prévio dos dados reais selecionados
neste estudo de caso antes da determinação dos índices de capabilidade. A Tabela 5.3
apresenta esta avaliação de capabilidade de forma resumida.
AVALIAÇÃO DE CAPABILIDADE ATRAVÉS DO NÍVEL SIGMA
SUPONDO NORMAL
NÃO NORMAL
(Best Fitting)
TRANSF. BOX-COX
TRANSF. JOHNSON
CONJUNTO
DE DADOS
REAIS
Z
LT
Z
ST
(
σ
)
PPM
Z
LT
Z
ST
(
σ
)
PPM
Z
LT
Z
ST
(
σ
)
PPM
Z
LT
Z
ST
(
σ
)
PPM
3/4AE
1,12 2,62 130525 1,18 2,68
118550
- - - 1,41 2,91 79401
3/4AE*
(s/ outliers)
distribuição Normal
1,33 2,83 91334 N/A N/A N/A
N/A N/A N/A N/A N/A N/A
3/4AD
1,59 3,09 56313 1,60 3,10 55001 - - - - - -
3/4AD*
(s/ outliers)
1,72 3,22 42972 1,74 3,24 40600 - - - - - -
5/8TE
1,48 2,98 69495 1,56 3,06 59886 - - - - - -
5/8TE*
(s/ outliers)
N/A N/A N/A N/A N/A N/A N/A N/A N/A N/A N/A N/A
5/8TD
0,86 2,36 195353 0,92 2,42
179265
- - - - - -
5/8TD*
(s/ outliers)
1,27 2,77 101247 1,32 2,82
92624
- - - - - -
Tabela 5.3 – Determinação do nível sigma - dados reais
Capítulo 6: Conclusão 133
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
6. CONCLUSÃO
6.1 Conclusão do Trabalho
Através deste trabalho de pesquisa foi efetuado um estudo sobre a utilização de alguns
métodos estatísticos afetados pela suposição inadequada de normalidade dos dados, em
especial os gráficos de controle individuais e a avaliação de capabilidade através da métrica
seis sigma. Os métodos estatísticos utilizados nesta pesquisa foram escolhidos por se tratarem
de procedimentos que não são “livres da distribuição”, ou seja, os seus resultados dependem
da suposição relativa ao tipo de distribuição envolvida.
De modo geral o principal objetivo da pesquisa, que previa um aprofundamento dos
aspectos relativos aos efeitos da não normalidade na aplicação de métodos estatísticos com
comparação de algumas técnicas para tratamento dos dados, foi devidamente atingido e as
seguintes afirmações fundamentam esta conclusão:
a) Métodos estatísticos baseados na premissa de normalidade dos dados coletados
necessitam de confirmação prévia desta suposição. A análise e/ou tratamento
adequado dos dados é condição sine qua non para continuidade das atividades
planejadas.
b) No caso dos gráficos de controle individuais, confirmou-se a condição de falha na
interpretação da condição de estabilidade do processo em relação ao primeiro
critério de identificação de padrões não aleatórios (teste 1), pois foi observada a
ocorrência de pontos além dos limites de controle estipulados nos dois conjuntos
de dados não normais simulados conforme distribuições Gamma e Beta, quando a
condição de normalidade foi incorretamente assumida.
c) Para os conjuntos de dados não normais simulados, a avaliação de capabilidade
indicou que índices incorretos podem ser obtidos a partir da suposição equivocada
de normalidade e tal fato foi confrmado através da constatação de diferenças
significativas em termos de fração não conforme em partes por milhão.
d) Em relação aos conjuntos de dados reais não normais utilizados nesta pesquisa, as
divergências observadas nos valores dos índices de capabilidade não foram tão
pronunciadas quanto para os dados simulados; entretanto, esta situação específica
atribuída principalmente à característica particular dos dados escolhidos, não
dispensa, em hipótese alguma, a confirmação prévia da premissa de normalidade.
Capítulo 6: Conclusão 134
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
6.2 Considerações Finais e Recomendações
Alguns dos procedimentos estatísticos mais conhecidos e utilizados fundamentam-se
em métodos paramétricos, isto é, são baseados na suposição de que os processos analisados
correspondam a amostras aleatórias provenientes de populações com distribuição de
probabilidade conhecida, como por exemplo, a distribuição Normal. Entretanto, nem sempre a
premissa de normalidade é plenamente satisfeita e, conforme comentado ao longo desta
dissertação, algumas decisões equivocadas podem ser tomadas em decorrência deste erro de
avaliação. Na prática, quando um fato desta natureza ocorre, a primeira reação dos indivíduos
envolvidos nos procedimentos em questão é colocar em dúvida a eficácia dos métodos
utilizados.
A revisão da literatura, que possibilitou o embasamento teórico da pesquisa, indicou
que o rigor na coleta e no tratamento dos dados deve ser cuidadosamente considerado, pois
em muitos casos a aplicação dos métodos de otimizão e melhoria em processos não atinge
os resultados esperados em função da falta de zelo no levantamento dos dados ou, até mesmo,
pelo desconhecimento de conceitos estatísticos básicos. As seguintes considerações finais
complementam a argumentação apresentada ao longo desta dissertação:
a) Em qualquer processo ou sistema no qual se pretenda interagir para garantir algum
tipo de controle ou promover melhorias, o cuidado na coleta e tratamento dos
dados e das informações é tão importante quanto a metodologia escolhida. Em
aplicações que fazem uso de métodos estatísticos este princípio deve ser encarado
como regra essencial para o bom andamento das atividades.
b) A escolha do método estatístico a ser empregado em qualquer tipo de processo,
produtivo ou empresarial, deve levar em conta a natureza dos dados e das
informações disponíveis com o objetivo de possibilitar que o procedimento
escolhido seja aplicado em sua plenitude e não apenas de maneira incompleta ou
mesmo equivocada. Eventuais adaptações ou aplicações parciais devem ser
cuidadosamente avaliadas de forma a não transgredirem os conceitos básicos da
metodologia em questão.
c) Os indivíduos envolvidos na aplicação dos métodos estatísticos devem ser
adequadamente treinados de acordo com o seu escopo de atuação e devem estar
previamente informados sobre os objetivos primordiais e sobre eventuais
limitações em termos de implementação.
Capítulo 6: Conclusão 135
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
d) O tratamento dos dados que deve anteceder a aplicação do método estatístico pode
envolver, por exemplo: a revisão no procedimento de coleta dos dados; a
eliminação das observações defasadas em relação ao restante dos dados (outliers);
ou a análise dos dados em termos de médias amostrais com base no Teorema
Central do Limite, que estabelece que a média de um grande número de variáveis
aleatórias independentes apresenta uma distribuição aproximadamente normal,
indiferentemente do tipo de distribuição dos valores individuais.
e) Caso a condição de desvio da normalidade permaneça, mesmo após o adequado
tratamento de dados, podem ser utilizadas as alternativas de ajuste dos dados em
uma distribuição conhecida ou técnicas de transformação de variáveis. A escolha
entre ajuste dos dados e transformação deve ser analisada caso a caso, pois
depende de vários fatores, tais como, natureza dos dados, métodos estatísticos
envolvidos, disponibilidade de recursos computacionais, entre outros.
f) O ajuste dos dados pode ser utilizado quando o método estatístico em questão
também for válido para a distribuição específica que apresentar o maior coeficiente
de correlação de acordo com o intervalo de confiança estipulado.
g) Caso seja possível efetuar mais de um tipo de transformação para normalidade,
deve ser escolhida aquela que mais se aproximar da distribuição normal, utilizando
como referência, por exemplo, a transformação com maior valor P (p-value)
conforme o intervalo de confiança determinado.
Existem algumas idéias e sugestões que refletem limitações encontradas durante o
desenvolvimento da dissertação e até mesmo advindas de possibilidades, inicialmente não
vislumbradas, que surgiram ao longo da revisão bibliográfica e da aplicação da metodologia.
Tais oportunidades de continuidade em relação à presente pesquisa estão resumidas na forma
de recomendações e sugestões para trabalhos futuros:
a) Analisar criticamente outros casos reais onde efetivamente a premissa de
normalidade dos dados seja inadequadamente assumida nos métodos estatísticos
abordados por esta pesquisa.
b) Efetuar análise semelhante em outros métodos estatísticos, tais como Planejamento
de Experimentos, Teste de Hipóteses e Análise de Regressão.
c) Avaliar os impactos da suposição incorreta de normalidade nos métodos
estatísticos aplicados a processos industriais com enfoque em custos da qualidade.
Capítulo 6: Conclusão 136
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
d) Estudar os aspectos relativos aos efeitos da não normalidade de dados na
interpretação de gráficos de controle e no cálculo de capabilidade, comparando as
técnicas aplicadas em algumas publicações internacionais com as técnicas de
transformação matemática propostas por Johnson (1949) e Box & Cox (1964).
e) Discutir se existem distribuições que apresentam maior ou menor sensibilidade às
transformações de Box-Cox e Johnson por meio de simulação.
f) Investigar se os índices de capabilidade calculados através das transformações
variam significativamente de acordo com o tipo de transformação, utilizando
Análise de Variância (ANOVA) ou Planejamento de Experimentos (DOE).
g) Verificar se diferenças significativas entre as estatísticas de teste para
verificação de normalidade (por exemplo: Anderson-Darling, Ryan-Joiner e
Kolmogorov-Smirnov) dependendo do tipo de transformação utilizado.
h) Efetuar estudos similares às análises descritas anteriormente, comparando e
discutindo os resultados de diversos softwares de aplicações estatísticas.
Parte Referencial: Apêndices 137
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
APÊNDICE A
Dados Simulados – Distribuição Gamma
SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR
1 0,4626 39 1,8887 77 7,4074 115 1,185 153 3,1636 191 2,7618 229 3,0068 267 5,5303
2 3,0957 40 2,2315 78 9,0115 116 3,1849 154 1,2456 192 4,5109 230 1,565 268 1,773
3 5,5474 41 1,6732 79 0,9454 117 7,6877 155 1,603 193 6,9495 231 5,1903 269 2,7662
4 1,5838 42 4,8888 80 6,0615 118 3,1788 156 3,4563 194 0,8095 232 0,9813 270 1,4707
5 6,3918 43 1,8816 81 2,5903 119 5,5984 157 3,4547 195 3,8266 233 3,411 271 0,8937
6 3,8264 44 5,4756 82 1,9447 120 9,9636 158 7,664 196 3,7041 234 1,8716 272 7,5615
7 5,6133 45 3,5595 83 1,086 121 2,1313 159 1,3685 197 5,8344 235 1,7447 273 5,7057
8 2,4457 46 4,4175 84 0,3745 122 4,9518 160 3,1737 198 4,1958 236 5,3684 274 1,2082
9 6,7915 47 10,2318 85 7,6128 123 1,8096 161 2,8026 199 1,2126 237 11,1366 275 7,0574
10 2,8244 48 4,1558 86 0,2958 124 7,593 162 6,9265 200 2,9398 238 0,1423 276 0,3543
11 3,301 49 5,3824 87 4,6856 125 1,2747 163 3,3665 201 2,5827 239 5,2065 277 4,2765
12 7,0227 50 3,14 88 3,9474 126 2,3204 164 4,5281 202 3,2919 240 1,7723 278 6,5058
13 1,7596 51 0,9291 89 2,5684 127 2,2864 165 1,7303 203 1,7505 241 1,6591 279 9,9544
14 1,1799 52 0,3023 90 4,7496 128 4,4349 166 3,6089 204 4,1145 242 1,6427 280 1,2436
15 3,9024 53 2,3867 91 0,7385 129 2,896 167 2,2447 205 3,5969 243 11,215 281 2,4956
16 4,1096 54 5,1551 92 0,7428 130 2,7341 168 6,2337 206 2,1113 244 2,7683 282 2,4132
17 3,5807 55 1,8463 93 3,7304 131 6,1669 169 2,2194 207 8,5186 245 2,6952 283 8,8871
18 1,9413 56 3,7235 94 3,5384 132 9,1938 170 4,923 208 0,9838 246 11,4322 284 3,0427
19 6,6211 57 1,1294 95 6,0093 133 2,0472 171 3,9119 209 2,3067 247 2,0877 285 2,3956
20 1,1974 58 1,2839 96 2,3759 134 0,7214 172 2,9933 210 10,5915 248 8,0164 286 9,7285
21 1,2446 59 8,2536 97 3,5379 135 8,9072 173 2,202 211 6,1959 249 0,9613 287 9,1952
22 1,9175 60 0,9381 98 3,4034 136 5,2217 174 2,2485 212 6,2654 250 3,0131 288 5,4037
23 5,8456 61 2,3905 99 12,6656 137 6,8535 175 2,3048 213 5,1326 251 3,9257 289 2,0291
24 1,8198 62 1,2335 100 5,6339 138 9,0784 176 4,5721 214 2,684 252 2,1701 290 3,5981
25 0,3613 63 1,434 101 2,7935 139 2,4241 177 3,4518 215 0,3248 253 3,1749 291 0,5913
26 1,9444 64 1,4539 102 5,1534 140 4,4146 178 4,7168 216 1,2078 254 3,3413 292 0,1167
27 2,7409 65 6,5105 103 1,9881 141 1,1652 179 1,3981 217 6,0658 255 9,0791 293 5,9402
28 10,8614 66 9,2265 104 2,0899 142 1,3705 180 0,3966 218 6,5095 256 5,0833 294 1,8515
29 5,5885 67 8,9602 105 1,8492 143 0,4728 181 9,1905 219 2,2554 257 8,3427 295 2,496
30 8,0225 68 4,5662 106 1,8742 144 4,5762 182 5,2956 220 6,3027 258 4,599 296 3,1975
31 1,1101 69 6,1777 107 6,4674 145 0,6286 183 1,2444 221 1,6937 259 8,2483 297 1,206
32 1,0054 70 4,0966 108 2,9087 146 4,8925 184 5,3798 222 3,7716 260 1,7755 298 3,5032
33 3,1211 71 10,4443 109 4,0736 147 5,0482 185 5,797 223 6,5116 261 1,5234 299 0,9313
34 4,6696 72 4,0886 110 1,3847 148 10,824 186 2,9471 224 2,4082 262 3,9079 300 6,1247
35 3,6844 73 3,4413 111 4,1477 149 0,7769 187 0,9952 225 5,1584 263 3,8996 301 8,494
36 2,918 74 3,6588 112 1,3581 150 6,3676 188 12,7573 226 2,8545 264 2,9582 302 0,4271
37 4,2817 75 2,4803 113 5,2608 151 5,3936 189 10,1261 227 1,5058 265 2,8284
38 5,6464 76 8,461 114 8,2522 152 3,9535 190 5,4497 228 4,0758 266 1,4153
GERAÇÃO DE 302 VALORES MODELADOS PELA DISTRIBUIÇÃO GAMMA
MINITAB
FUNÇÃO: CALC / SET BASE = 0
FUNÇÃO: CALC / RANDOM DATA / GAMMA / GENERATE = 302 / SHAPE = 2 / SCALE = 2
Parte Referencial: Apêndices 138
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
APÊNDICE B
Dados Simulados – Distribuição Beta
SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR SEQ. VALOR
1 8,45807 41 8,24211 81 8,35032 121 8,36097 161 8,33628
2 8,41165 42 8,42695 82 8,33218 122 8,35226 162 8,36631
3 8,37419 43 8,26819 83 8,35262 123 8,41242 163 8,30414
4 8,37566 44 8,32911 84 8,37028 124 8,32334 164 8,30966
5 8,34414 45 8,2955 85 8,28237 125 8,30704 165 8,29207
6 8,43159 46 8,30838 86 8,40815 126 8,36446 166 8,34654
7 8,31396 47 8,36016 87 8,26452 127 8,15895 167 8,4471
8 8,25829 48 8,22799 88 8,39707 128 8,34006 168 8,37651
9 8,35646 49 8,30434 89 8,44931 129 8,36211 169 8,44165
10 8,37912 50 8,31687 90 8,44039 130 8,35366 170 8,26546
11 8,32773 51 8,37933 91 8,3445 131 8,27866 171 8,32307
12 8,42854 52 8,29512 92 8,40923 132 8,30233 172 8,2771
13 8,37079 53 8,26892 93 8,25715 133 8,34222 173 8,32263
14 8,38604 54 8,42167 94 8,31656 134 8,332 174 8,35912
15 8,32042 55 8,39958 95 8,32098 135 8,37317 175 8,32018
16 8,38134 56 8,33963 96 8,33512 136 8,34075 176 8,36889
17 8,27282 57 8,31593 97 8,42927 137 8,37552 177 8,25526
18 8,27416 58 8,44325 98 8,37 138 8,34316 178 8,39565
19 8,21798 59 8,35471 99 8,36738 139 8,31217 179 8,3524
20 8,35701 60 8,35188 100 8,26551 140 8,3567 180 8,31271
21 8,36542 61 8,31315 101 8,28658 141 8,37056 181 8,26656
22 8,30253 62 8,35793 102 8,26359 142 8,45418 182 8,38219
23 8,2963 63 8,32368 103 8,29687 143 8,32273 183 8,34218
24 8,39395 64 8,27083 104 8,3654 144 8,34553 184 8,37404
25 8,27878 65 8,30975 105 8,26508 145 8,40452 185 8,31349
26 8,28014 66 8,38163 106 8,26195 146 8,33615 186 8,37163
27 8,17534 67 8,1599 107 8,3006 147 8,45563 187 8,34937
28 8,36017 68 8,32049 108 8,27515 148 8,44982 188 8,29807
29 8,30082 69 8,3229 109 8,28111 149 8,36015 189 8,20219
30 8,38809 70 8,31127 110 8,28591 150 8,32073 190 8,29404
31 8,28877 71 8,38843 111 8,34802 151 8,42544 191 8,33183
32 8,39732 72 8,36971 112 8,32393 152 8,39719 192 8,27881
33 8,34748 73 8,31102 113 8,30508 153 8,35878 193 8,35994
34 8,41231 74 8,34722 114 8,32114 154 8,44541 194 8,36257
35 8,37241 75 8,39904 115 8,36113 155 8,25975 195 8,20187
36 8,2995 76 8,17852 116 8,32957 156 8,39035 196 8,34077
37 8,34269 77 8,20045 117 8,33991 157 8,33473 197 8,36922
38 8,20745 78 8,38738 118 8,2819 158 8,16859 198 8,38233
39 8,38114 79 8,17685 119 8,34647 159 8,25734 199 8,28242
40 8,37774 80 8,39094 120 8,34671 160 8,23742 200 8,34775
GERAÇÃO DE 200 VALORES MODELADOS PELA DISTRIBUIÇÃO BETA
MINITAB
FUNÇÃO: CALC / SET BASE = 0
FUNÇÃO: CALC / RANDOM DATA / GAMMA / GENERATE = 200 / 1ST SHAPE = 25 / 2ND SHAPE = 5
TRANSFORMAÇÃO LINEAR: VALOR OBTIDO + 7,5
Parte Referencial: Apêndices 139
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
APÊNDICE C
Dados Reais – Furos 3/4”
SEQ.
MEDIDA
SEQ.
MEDIDA
SEQ.
MEDIDA
SEQ.
MEDIDA
1
19,130
28
19,128
1
19,129
31
19,129
2
19,145
29
19,124
2
19,131
32
19,132
3
19,126
30
19,127
3
19,137
33
19,124
4
19,13
31
19,147
4
19,132
34
19,127
5
19,136
32
19,145
5
19,130
35
19,125
6
19,139
33
19,125
6
19,135
36
19,127
7
19,122
34
19,130
7
19,137
37
19,125
8
19,127
35
19,134
8
19,137
38
19,128
9
19,122
36
19,135
9
19,136
39
19,129
10
19,128
37
19,126
10
19,137
40
19,131
11
19,123
38
19,129
11
19,131
41
19,127
12
19,126
39
19,130
12
19,132
42
19,128
13
19,122
40
19,131
13
19,133
43
19,125
14
19,127
41
19,128
14
19,134
44
19,128
15
19,127
42
19,132
15
19,136
45
19,129
16
19,132
43
19,126
16
19,138
46
19,130
17
19,133
44
19,131
17
19,135
47
19,130
18
19,135
45
19,128
18
19,136
48
19,130
19
19,129
46
19,134
19
19,126
49
19,133
20
19,129
47
19,127
20
19,128
50
19,131
21
19,129
48
19,130
21
19,121
51
19,130
22
19,135
49
19,127
22
19,123
52
19,131
23
19,128
50
19,132
23
19,128
53
19,130
24
19,128
51
19,129
24
19,120
54
19,130
25
19,131
52
19,134
25
19,136
55
19,129
26
19,133
53
19,128
26
19,133
56
19,130
27
19,124
54
19,128
27
19,130
57
19,130
28
19,131
58
19,131
29
19,131
59
19,13
30 19,138 60 19,129
LSE = 19,151 MM
TOLERÂNCIAS DE PROJETO:
LIE = 19,124 MM
COLETA DE 2 GRUPOS DE MEDIDAS DE DIÂMETRO DE FUROS 3/4"
ORIGEM DOS DADOS:
PROCESSO DE FURAÇÃO DE PRECISÃO EM 2 TIPOS DE COMPONENTE ESTRUTURAL DE
ALUMÍNIO PARA FIXAÇÃO DE PARAFUSOS COM DIÂMETRO DE 3/4 POLEGADAS.
EMPRESA DO INTERIOR DO ESTADO DE SÃO PAULO.
54 MEDIÇÕES (3/4AE) 60 MEDIÇÕES (3/4AD)
Parte Referencial: Apêndices 140
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
APÊNDICE D
Dados Reais – Furos 5/8”
SEQ.
MEDIDA
SEQ.
MEDIDA
1
15,956
1
15,998
2
15,980
2
15,975
3
15,956
3
15,974
4
15,980
4
15,974
5
15,973
5
15,976
6
15,967
6
15,976
7
15,963
7
15,978
8
15,968
8
15,966
9
15,972
9
15,969
10
15,975
10
15,973
11
15,966
11
15,981
12
15,971
12
15,973
13
15,959
13
15,968
14
15,959
14
15,960
15
15,959
15
15,966
16
15,966
16
15,957
17
15,959
17
15,957
18
15,959
18
15,958
19
15,958
19
15,960
20
15,957
20
15,956
21
15,956
21
15,961
22
15,960
22
15,964
23
15,958
23
15,958
24
15,958
24
15,973
25
15,960
25
15,962
26
15,96
26
15,961
27
15,958
27
15,959
28
15,960
29
15,959
COLETA DE 2 GRUPOS DE MEDIDAS DE DIÂMETRO DE FUROS 5/8"
ORIGEM DOS DADOS:
PROCESSO DE FURAÇÃO DE PRECISÃO EM 2 TIPOS DE COMPONENTE ESTRUTURAL
DE TITÂNIO PARA FIXAÇÃO DE PARAFUSOS COM DIÂMETRO DE 5/8 POLEGADAS.
EMPRESA DO INTERIOR DO ESTADO DE SÃO PAULO.
27 MEDIÇÕES (5/8TE)
29 MEDIÇÕES (5/8TD)
TOLERÂNCIAS DE PROJETO:
LIE = 15,950 MM
LSE = 15,977 MM
Parte Referencial: Bibliografia 141
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
REFERÊNCIAS BIBLIOGRÁFICAS
ALMAS, F. Implementação de Controle Estatístico de Processos em uma Empresa Têxtil.
Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção,
Universidade Federal de Itajubá. Itajubá: UNIFEI, 2003.
ALMEIDA, S.S. – Desenvolvimento de Gráficos de Controle Aplicados ao Modelo Funcional
de Regressão. Tese de Doutorado do Programa de Pós-Graduação em Engenharia de
Produção, Universidade Federal de Santa Catarina. Florianópolis: UFSC, 2003.
ALWAN, L. and ROBERTS, H.V. The Problem of Misplaced Control Limits. Applied
Statistics, v. 44, n. 3, p. 269-278, 1995.
ASQC/AIAG – American Society for Quality Control/Automotive Industry Action Group Task
Force. Statistical Process Control: Reference Manual Chrysler Corporation, Ford Motor
Company and General Motor Corporation, 1992.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS NBR ISO 9000: Sistema de
Gestão da Qualidade – Fundamentos e Vocabulário. Rio de Janeiro: ABNT, 2000.
AWAN, H.M. Effect of Departures from Standard Assumptions Used in Analysis of
Variance. Journal of Research (Science), Bahauddin Zacariya University, Pakistan, v. 12, n.
2, p. 180-188, December, 2001.
BALESTRASSI, P.P. Identificação de Padrões em Gráficos de Controle Estatístico de
Processos em Tempo Real Utilizando Séries Temporais e Redes Neurais Artificiais. Tese de
Doutorado do Programa de Pós-Graduação em Engenharia de Produção, Universidade Federal
de Santa Catarina. Florianópolis: UFSC, 2000.
BAYEUX, C. Análise da Capabilidade e Processos (Parte III). Banas Qualidade, p. 75-78,
Julho, 2001.
BERTRAND, J.W.M. and FRANSOO, J.C. Modelling and Simulation: Operations
Management Research Methodologies using Quantitative Modeling. International Journal of
Operations Production Management, v. 22, n. 2, p. 241-264, 2002.
Parte Referencial: Bibliografia 142
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
BORROR, C.M., MONTGOMERY, D.C. and RUNGER, G.C. Robustness of EWMA
Control Chart to Non-Normality. Journal of Quality Technology, v. 31, n. 3, 1999.
BOWER, K.M. – Using Exponentially Weighted Moving Average (EWMA) Charts. Asia
Pacific Process Engineer, October, 2000.
BOX, G.E.P. and COX, D.R. An Analysis of Transformations. Journal of Royal Statistical
Society, B, 39, p. 211-252, 1964.
BOX, G.E.P. and TIDWELL, P.W. Transformation of Independent Variables.
Technometrics, v. 4, n. 4, p. 531-550, November, 1962.
BOX, G.E.P., HUNTER, W.G. and HUNTER, J.S. Statistics for Experimenters. New York:
John Wiley & Sons, Inc., 1978.
BREYFOGLE III, F.W. Implementing Six Sigma: Smarter Solutions Using Statistical
Methods. New York: John Wiley, 1999.
CAMPOS, V.F. – TQC: Controle da Qualidade Total. 5ª ed. Belo Horizonte: Fundação
Christiano Ottoni, 1992.
CARVALHO, M.M. – Medindo o Sigma do Processo. In: ROTONDARO, R.G. (Org.) – Seis
Sigma: Estratégia Gerencial para Melhoria de Processos, Produtos e Serviços. São Paulo:
Editora Atlas, 2002. cap. 6, p. 165-175.
CASTAGLIOLA, P. and TSUNG, F. – Autocorrelated SPC for Non-Normal Situations.
Quality and Reliability Engineering International, 21, p. 131-161, January, 2005.
CHEN, W., BAGHDASARYAN, L., BURANATHITI, T. and CAO, J. Model Validation
via Uncertainty Propagation and Data Transformations. Revision 2, submitted to the AIAA
Journal, December, 2003.
DEMING, W.E. – Out of the Crisis. Cambridge: Massachusetts Institute of Technology,
Center for Advanced Engineering Study, 1986.
FEIGENBAUM. A.V. – Contole da Qualidade Total, vol. 3, Métodos Estatísticos Aplicados à
Qualidade. 3ª ed. São Paulo: Makron Books, 1994.
Parte Referencial: Bibliografia 143
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
GALUCH, L. – Modelo para Implementação das Ferramentas Básicas do Controle Estatístico
de Processo em Pequenas Empresas Manufatureiras. Dissertação de Mestrado do Programa de
Pós-Graduação em Engenharia de Produção, Universidade Federal de Santa Catarina.
Florianópolis: UFSC, 2002
.
GARVIN, D. A. Gerenciando a Qualidade: A Visão Estratégica e Competitiva. Rio de
Janeiro: Qualitymark, 2002.
GARVIN, D.A. – What Does “Product Quality” Really Mean? Sloan Management Review, v.
26, n. 1, p. 25-43, Fall 1984.
GIL, A.C. Como Elaborar Projetos de Pesquisa. 3ª ed. São Paulo: Editora Atlas, 1991.
GRANT, E.L. and LEAVENWORTH, R.S. – Statistical Quality Control. 4
th
ed. Tokyo:
McGraw-Hill Kogakusha, Ltd, 1972.
HARRINGTON, J. – Aperfeiçoando Processos Empresariais. São Paulo: McGraw-Hill Ltda e
Makron Books do Brasil Ltda, 1993.
HARRY, M.J. – Resolving the Mysteries of Six Sigma: Statistical Constructs and Engineering
Rationale. Phoenix: Palladyne Publishing, 2003.
HARRY, M.J. Six Sigma: A Breakthrough Strategy for Profitability. New York: Quality
Progress, v. 31, n. 5, p. 60-64, May 1998.
HARRY, M.J. and SCHROEDER, R. Six Sigma: The Breakthrough Management Strategy
Revolutionizing the World’s Top Corporation. New York: Currency, 2000.
HOERL, R.W. Six Sigma Black Belt: What Do They Need to Know? Journal of Quality
Technology,v. 33, n. 4, p. 391-406, October 2001.
JOHNSON, N.L. – Systems of Frequency Curves Generated by Methods of Translation.
Biometrika, v. 36, p. 149-176, 1949.
JURAN, J.M. and GODFREY, A.B. (Org.) Juran’s Quality Handbook. 5
th
ed. New York:
McGraw-Hill, Inc., 1999.
JURAN, J.M. e GRYNA, F.M. Controle da Qualidade Handbook, vol. 6, Métodos
Estatísticos Clássicos Aplicados à Qualidade. 4ª ed. São Paulo: Makron Books, 1992.
Parte Referencial: Bibliografia 144
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
KOTZ, S. and JOHNSON, N.L. – Process Capability Indices - A Review, 1992-2000. Journal
of Quality Technology, v. 34, n. 1, p. 2-19, January, 2002.
KUME, H. Métodos Estatísticos para Melhoria da Qualidade. 11ª ed. São Paulo: Editora
Gente, 1993.
LEVINSON, W.A. – SPC for Real-World Processes: What to Do When the Normality
Assumption Doesn't Work. Annual Quality Congress, Indianapolis, May 2000.
LIBERATORE, R.L. – Teaching the Role of SPC in Industrial Statistics. Quality Progress, p.
89-94, July, 2001.
LINDERMAN, K., SCHROEDER, R.G., ZAHEER, S. and CHOO, A.S. Six Sigma: A
Goal-Theoretic Perspective. Journal of Operations Management, v. 21, n. 2, p. 193-203,
2003.
LIPSON, C. and SHETH, N.J. Statistical Design and Analysis of Experiments. New York:
McGraw-Hill, Inc., 1973.
MIRANDA, R.G. Um Modelo para Análise de Capacidade de Processos com Ênfase na
Transformação de Dados. Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal de Santa Catarina. Florianópolis: UFSC, 2005.
MONTGOMERY, D.C. – Design and Analysis of Experiments. 2
nd
ed. New York: John Wiley
& Sons, Inc, 1984.
MONTGOMERY, D.C. Introduction to Statistical Quality Control. New York: John Wiley
& Sons, Inc, 1985.
MONTGOMERY, D.C. e RUNGER, G.C Estatística Aplicada e Probabilidade para
Engenheiros. 2ª ed. Rio de Janeiro: LTC – Livros Técnicos e Científicos Editora S.A., 2003.
ONISHI, H. A Knowledge-Based Variable Selection Method for Box-Cox Transformation.
Journal Japan Statistical Society, v. 32, n. 1, p. 15-42, 2002.
PALADINI, E.P. Controle de Qualidade: Uma Abordagem Abrangente. São Paulo: Editora
Atlas, 1990.
Parte Referencial: Bibliografia 145
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
PEREZ-WILSON, M. Seis Sigma: Compreendendo o Conceito, as Implicações e os
Desafios. Rio de Janeiro: Qualitymark, 1998.
PIRES, V.T. Implantação do Controle Estatístico de Processos em uma Empresa de
Manufatura de Óleo de Arroz. Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal do Rio Grande do Sul. Porto Alegre: UFRGS,
2000
.
PRAZERES, P.M. Mini-Dicionário de Termos da Qualidade. São Paulo: Editora Atlas,
1997.
RAMOS, E.M.L.S. – Aperfeiçoamento de Desenvolvimento de Ferramentas do Controle
Estatístico da Qualidade Utilizando Quartis para Estimar o Desvio-Padrão. Tese de Doutorado
do Programa de Pós-Graduação em Engenharia de Produção, Universidade Federal de Santa
Catarina. Florianópolis: UFSC, 2003.
RATH & STRONG MANAGEMENT CONSULTANTS – Black Belt Training, Normal
Theory Module, 2000.
REIS, D.A.F. Seis Sigma: Um Estudo Aplicado ao Setor Eletrônico. Dissertação de
Mestrado Profissionalizante em Engenharia, Universidade Federal do Rio Grande do Sul.
Porto Alegre: UFRGS, 2003.
REIS, M.M. Um Modelo para o Ensino do Controle Estatístico da Qualidade. Tese de
Doutorado do Programa de Pós-Graduação em Engenharia de Produção, Universidade Federal
de Santa Catarina. Florianópolis: UFSC, 2001.
ROTH II, G. Capability Indexes: Mytery Solved. Six Sigma Fórum Magazine, v. 4, n. 3, p.
17-21, May, 2005.
ROTONDARO, R.G. (Org.) Seis Sigma: Estratégia Gerencial para Melhoria de Processos,
Produtos e Serviços. São Paulo: Editora Atlas, 2002.
SALL, J. Leptokurtosiphobia: Irrational Fear of Non-Normality. Six Sigma Forum
Magazine, v. 4, n. 3, p. 11-15, May, 2005.
SARKADI, K. and VINCZE, I. Mathematical Methods of Statistical Quality Control. New
York and London: Academic Press, 1974.
Parte Referencial: Bibliografia 146
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
SCHISSATTI, M.L. – Uma Metodologia de Implantação de Cartas de Shewhart para o
Controle de Processos. Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal de Santa Catarina. Florianópolis: UFSC, 1998.
SEVERINO, A.J. – Metodologia do Trabalho Científico. 22ª ed. São Paulo: Cortez, 2002.
SILVA, L.S.C.V Aplicação do Controle Estatístico de Processos na Indústria de Laticínios
Lactoplasa: Um Estudo de Caso. Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal de Santa Catarina. Florianópolis: UFSC, 1999
.
SLACK, N., CHAMBERS, S., HARLAND, C., HARRISON, A. e JOHNSTON, R.
Administração da Produção. 1ª ed. São Paulo: Editora Atlas, 1999.
SOARES, G.M.V.P.P. - Aplicação do Controle Estatístico de Processos em Indústria de
Bebidas: Um Estudo de Caso. Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal de Santa Catarina. Florianópolis: UFSC, 2001.
SOARES, V.L.M.P. – Aplicação e Implantação do Controle Estatístico de Processo em
Pintura Industrial. Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de
Produção, Universidade Federal de Santa Catarina. Florianópolis: UFSC, 2003.
SOUZA, R.A. – Análise da Qualidade do Processo de Envase de Azeitonas Verdes Através de
Algumas Ferramentas do Controle Estatístico de Processo. Dissertação de Mestrado do
Programa de Pós-Graduão em Engenharia de Produção, Universidade Federal de Santa
Catarina. Florianópolis: UFSC, 2003.
SOUZA, V.Z. Otimização dos Parâmetros de Controle de um Processo de Fabricação de
Latas: Uma Abordagem Seis Sigma. Dissertação de Mestrado do Programa de Pós-Graduão
em Engenharia de Produção, Universidade Federal de Itajubá. Itajubá: UNIFEI, 2002.
SPEDDING, T.A. and RAWLINGS, P.L. Non-Normality in Statistical Process Control
Measurements. The International Journal of Quality & Reliability Management, v. 11, n. 6, p.
27-37, 1994.
TOLEDO, T.P.A. Uma Investigação sobre Índices de Capabilidade com Ênfase na
Metodologia Seis Sigma. Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal de Itajubá. Itajubá: UNIFEI, 2005.
Parte Referencial: Bibliografia 147
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
WERKEMA, M.C.C. As Ferramentas da Qualidade no Gerenciamento de Processos. Belo
Horizonte: Editora de Desenvolvimento Gerencial, 1995.
WOODALL, W.H. Controversies and Contradictions in Statistical Process Control.
Journal of Quality Technology, v. 32, n. 4, p. 341-350, October, 2000.
YEO, I.K. and JOHNSON, R.A. – A New Family of Power Transformation to Improve
Normality or Symmetry. Biometrika, 87, p. 954-959, 2000.
Parte Referencial: Bibliografia 148
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
BIBLIOGRAFIA COMPLEMENTAR CONSULTADA
ASTI VERA, A. – Metodologia da Pesquisa Científica. Porto Alegre: Globo, 1973.
BALESTRASSI, P.P. Curso de Estatística Aplicada. Apostila de Curso do Programa de
Pós-Graduação em Engenharia de Produção, Universidade Federal de Itajubá. Itajubá:
UNIFEI, 2004.
BALESTRASSI, P.P. Metodologia Seis Sigma. Apostila de Curso do Programa de Pós-
Graduação em Engenharia de Produção, Universidade Federal de Itajubá. Itajubá: UNIFEI,
2004.
BARROS, A.J.P. e LEHFELD, N.A.S. Fundamentos de Metodologia: Um Guia para a
Iniciação Científica. São Paulo: McGraw-Hill, 1986.
BASTOS, C.L. e KELLER, V. – Introdução à Metodologia Científica. 9ª ed. Petrópolis: 1997.
BREYFOGLE III, F.W. and CONNOLLY, M. Six Sigma Methods to Ensure
Organizations’ Health. R&D Magazine, v. 45, n. 4, p. 28-29, April, 2003.
BRYMAN, A. – Research Methods and Organization Studies. London: Unwin Hyman, 1989.
COLLINS, M. (Org.) Michaelis Pequeno Dicionário Inglês-Português, Português-Inglês.
44ª ed. São Paulo: Melhoramentos, 1994.
DUCLOS, E. Contribution à la Maîtrise Statistique dês Procédés cas des Procédés Non
Normaux. These présentée à L’Ecole Superieure D’Ingenieurs D’Annecy (ESIA), Universite
de Savoie, 1997.
FERREIRA, A.B.H. Mini-dicionário da Língua Portuguesa. ed. Rio de Janeiro: Editora
Nova Fronteira, 1989.
JANISZEWSKI, S. and GEORGE, E. – Integrating PSP, TSP and Six Sigma. American
Society for Quality – ASQ/SQP, v. 6,n. 4, p. 4-13, September, 2004.
KANHOLM, J. ISO 9000 Explicada: Lista de Verificação com 65 Requisitos e Guia de
Conformidade. São Paulo: Pioneira, 1995.
Parte Referencial: Bibliografia 149
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
KEUZENKAMP, H.A and MAGNUS, J.R. On Tests and Significance in Econometrics.
Journal of Econometrics, 67, p. 5-24, 1995.
KÖCHE, J.C. – Fundamentos de Metodologia Científica. 7ª ed. Caxias do Sul: Editora Vozes,
1984.
LAKATOS, E.M. e MARCONI, M.A. Fundamentos de Metodologia Científica. ed. São
Paulo: Editora Atlas, 1991.
MARCONI, M.A. e LAKATOS, E.M. cnicas de Pesquisa: Planejamento e Execução de
Pesquisas, Amostragens e Técnicas de Pesquisas, Elaboração, Análise e Interpretação de
Dados. 4ª ed. São Paulo: Editora Atlas, 1999.
MEMÓRIA, J.M.P. Breve História da Estatística. Brasília: Embrapa Informação
Tecnológica, 2004.
MINITAB INC. Minitab
Statistical Software, User’s Guide, Release 14 for Windows,
State College, Pennsylvania, 2003.
MOURA, J.C.R. Um Modelo de Melhoria Contínua de Processos para o Setor Público.
Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção,
Universidade Federal de Santa Catarina. Florianópolis: UFSC, 2002.
NIST/SEMATECH. e-Handbook of Statistical Methods. Disponível em:
http://www.itl.nist.gov/div898/handbook. Acesso em 26 de janeiro de 2005.
SALIBY, E. Repensando a Simulação: A Amostragem Descritiva. Rio de Janeiro: Editora
da UFRJ, 1989.
SALVADOR, A.D. Métodos e cnicas de Pesquisa Bibliográfica. ed. Porto Alegre:
Editora Sulina, 1981.
SEYMOUR-SMITH, M. – Os Cem Livros que mais Influenciaram a Humanidade: A História
do Pensamento dos Tempos Antigos à Atualidade. 5ª ed. Rio de Janeiro: DIFEL, 2002.
STATSOFT, INC. – Electronic Statistics Textbook. Tulsa, OK: StatSoft. Disponível em:
http://www.statsoftinc.com/textbook/stathome.html. Acesso em 01 de abril de 2005.
Parte Referencial: Bibliografia 150
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
USEVICIUS, L.A. Implantação da Metodologia Seis Sigma e Aplicação da cnica
Estatística Projeto de Experimentos na Resolução de Problemas e Otimização de Processos de
Fabricação. Dissertação de Mestrado Profissionalizante em Engenharia, Universidade Federal
do Rio Grande do Sul. Porto Alegre: UFRGS, 2004.
YI, J., PRYBUTOK, V.R. and CLAYTON, H.R. ARL Comparisons Between Neural
Network Models and
X
-Control Charts for Quality Characteristics that are Nonnormally
Distributed. Economic Quality Control, v. 16, n. 1, p. 5-15, 2001.
YIN, R.K. – Case Study Research: Design and Methods. Sage: Newbury Park, 1989.
Parte Referencial: Anexos 151
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ANEXO A
Tabela das Áreas sob a Curva Normal Padronizada
Fonte: Grant & Leavenworth (1972)
Parte Referencial: Anexos 152
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ANEXO A (
continuação
)
Tabela das Áreas sob a Curva Normal Padronizada (continuação)
Fonte: Grant & Leavenworth (1972)
Parte Referencial: Anexos 153
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ANEXO B
Fatores para Construção de Gráficos de Controle
Fator para Limites de Controle
Gráfico
X
Gráfico R
Tamanho da
Amostra (n)
A
1
A
2
d
2
D
3
D
4
2 3,760 1,880 1,128 0 3,267
3 2,394 1,023 1,693 0 2,575
4 1,880 0,729 2,059 0 2,282
5 1,596 0,577 2,326 0 2,115
6 1,410 0,483 2,534 0 2,004
7 1,277 0,419 2,704 0,076 1,924
8 1,175 0,373 2,847 0,136 1,864
9 1,094 0,337 2,970 0,184 1,816
10 1,028 0,308 3,078 0,223 1,777
11 0,973 0,285 3,173 0,256 1,744
12 0,925 0,266 3,258 0,284 1,716
13 0,884 0,249 3,336 0,308 1,692
14 0,848 0,235 3,407 0,329 1,671
15 0,816 0,223 3,472 0,348 1,652
16 0,788 0,212 3,532 0,364 1,636
17 0,762 0,203 3,588 0,379 1,621
18 0,738 0,194 3,640 0,392 1,608
19 0,717 0,187 3,689 0,404 1,596
20 0,697 0,180 3,735 0,414 1,586
21 0,679 0,173 3,778 0,425 1,575
22 0,662 0,167 3,819 0,434 1,566
23 0,647 0,162 3,858 0,443 1,557
24 0,632 0,157 3,895 0,452 1,548
25 0,619 0,153 3,931 0,459 1,541
Fonte: Montgomery & Runger (2003)
Parte Referencial: Anexos 154
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ANEXO C
Tabela de Referência entre Índice Sigma e PPM
Nível Sigma
Z
ST
(curto prazo)
Z
ST
= Z
LT
+1,5
Z
LT
(longo prazo)
PPM
Nível Sigma
Z
ST
(curto prazo)
Z
ST
= Z
LT
+1,5
Z
LT
(longo prazo)
PPM
1,0 -0,5 697.672,15 3,6 2,1 17.864,53
1,1 -0,4 660.082,92 3,7 2,2 13.903,50
1,2 -0,3 621.378,38 3,8 2,3 10.740,14
1,3 -0,2 581.814,88 3,9 2,4 8.197,56
1,4 -0,1 541.693,78 4,0 2,5 6.209,70
1,5 0 501.349,97 4,1 2,6 4.661,23
1,6 0,1 461.139,78 4,2 2,7 3.467,03
1,7 0,2 421.427,51 4,3 2,8 2.555,19
1,8 0,3 382.572,13 4,4 2,9 1.865,88
1,9 0,4 344.915,28 4,5 3,0 1.349,97
2,0 0,5 308.770,21 4,6 3,1 967,67
2,1 0,6 274.412,21 4,7 3,2 687,20
2,2 0,7 242.071,41 4,8 3,3 483,48
2,3 0,8 211.927,71 4,9 3,4 336,98
2,4 0,9 184.108,21 5,0 3,5 232,67
2,5 1,0 158.686,95 5,1 3,6 159,15
2,6 1,1 135.686,77 5,2 3,7 107,83
2,7 1,2 115.083,09 5,3 3,8 72,37
2,8 1,3 96.809,10 5,4 3,9 48,12
2,9 1,4 80.762,13 5,5 4,0 31,69
3,0 1,5 66.810,63 5,6 4,1 20,67
3,1 1,6 54.801,40 5,7 4,2 13,35
3,2 1,7 44.566,73 5,8 4,3 8,55
3,3 1,8 35.931,06 5,9 4,4 5,42
3,4 1,9 28.716,97 6,0 4,5 3,40
3,5 2,0 22.750,35
Fonte: Adaptado de Breyfogle (1999)
Parte Referencial: Anexos 155
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
ANEXO D
Publicação
XII SIMPEP – Bauru, SP, Brasil, Novembro de 2005
REVISTA GEPROS – Gestão da Produção, Operações e Sistemas
Análise crítica da aplicação de métodos estatísticos em
processos definidos por dados que não apresentam
distribuição normal
Celso Francisco de Moraes (UNIFEI) celso1moraes@terra.com.br
João Roberto Ferreira (UNIFEI) jorofe@unifei.edu.br
Pedro Paulo Balestrassi (UNIFEI) pe[email protected]
Resumo
Este artigo apresenta uma análise crítica da utilização de determinadas ferramentas da
Qualidade e de alguns procedimentos em Engenharia de Produção nos casos em que os
dados estatísticos coletados não se apresentam normalmente distribuídos. O problema geral
aqui identificado diz respeito à ocorrência de decisões questionáveis tomadas a partir da
análise de dados considerados normais. A justificativa primordial para este estudo reside na
relevância da análise dos dados durante sua coleta e tratamento em trabalhos científicos nos
mais variados níveis. Os principais objetivos deste artigo são: apresentar alguns exemplos
relacionados ao Controle Estatístico de Processo e à Metodologia Seis Sigma que possam
induzir a conclusões duvidosas devido à adoção incorreta de normalidade; propor revisão
crítica efetuando as transformações de Box-Cox e/ou Johnson; e, finalmente, discutir as
conclusões e decisões estabelecidas através da comparação entre os dados originalmente
coletados e os dados transformados.
Palavras chave: Métodos estatísticos; Dados não normais, Transformação de dados.
Abstract
This paper presents a critical analysis regarding the use of specific “quality tools” and some
methods applied to Production Engineering in cases in which the collected data are not
normally distributed. The general problem refers to the occurrence of questionable decision
takings starting from the interpretation of data considered normally distributed. The
primordial justification for this study is the relevance of the data analysis during its collection
and handling in scientific works in the most varied levels. The main objectives of this work
are: to present some examples related to the Statistical Process Control and the Six Sigma
Methodology that may induce to doubtful conclusions due to the incorrect assumption of
normality; to propose critical review proceeding to the Box-Cox and/or Johnson
transformations; and, finally, to discuss the conclusions and decisions established through the
comparison among the data originally collected and the transformed data.
Key Words: Statistical methods, Non-normal data, Data transformation.
Parte Referencial: Anexos 156
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
1. Introdução
A proposta deste artigo em analisar a aplicação de alguns métodos estatísticos está inserida
em um contexto mais amplo que se refere ao Controle Estatístico da Qualidade e aos aspectos
básicos que devem ser observados pelas organizações que buscam a plena satisfação de seus
clientes. A Estatística desempenha papel importante nos programas de Controle da Qualidade,
pois ao longo dos anos suas técnicas e metodologias tornaram-se cada vez mais amplamente
utilizadas e aceitas nas organizações (1).
O objetivo primário do Controle Estatístico da Qualidade é a redução sistemática da
variabilidade nas características-chave do produto (2), fornecendo as ferramentas necessárias
para avaliação e melhoria de processos, produtos e serviços de forma robusta e abrangente.
Entretanto, tais ferramentas também dependem da qualidade da informação e da forma como
os dados são coletados, processados e interpretados. Por este motivo é de fundamental
importância o rigor metodológico na coleta e tratamento dos dados.
No desenvolvimento deste artigo pretende-se analisar a utilização de alguns métodos
estatísticos, tais como os gráficos de controle em Controle Estatístico de Processo e avaliação
de desempenho na Metodologia Seis Sigma com enfoque na correta interpretação dos dados
coletados, especificamente no que se refere à suposição de sua normalidade, com revisão
crítica através das transformações de Box-Cox e Johnson. As conclusões e decisões
estabelecidas serão discutidas por meio de comparação entre os dados originalmente coletados
e os dados transformados em distribuição normal.
2. Resumo dos métodos em análise
2.1. Gráficos de controle no Controle Estatístico de Processo (CEP)
Define-se processo como um conjunto de atividades inter-relacionadas ou interativas que
transformam insumos (entradas) em produtos (saídas) (3). A Figura 1 exemplifica a situação
esquemática de um processo com suas entradas, seus fatores controláveis, seus fatores
incontroláveis (ruídos) e suas saídas.
Figura 1 – Visão esquemática de um processo
Fonte: Adaptado de Montgomery & Runger (2003)
Processo
...
...
Z
1
Z
2
Zq
Fatores Incontroláveis
Fatores Controláveis
X
1
X
2
Xp
Entrada Saída
Y
1
Y
2
:
Ym
Parte Referencial: Anexos 157
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Controle Estatístico de Processo (CEP) pode ser definido como um conjunto de ferramentas
que tem o propósito de indicar se um processo está funcionando de forma ideal, quando
apenas causas comuns de variação estão presentes, ou se este processo está desordenado, e
necessita de algum tipo de ação corretiva, ou seja, quando existem causas especiais de
variação. O gráfico de controle é a mais poderosa ferramenta do CEP, pois evidencia a
variação do processo em relação aos limites de controle estipulados (4).
Algumas suposições precisam ser satisfeitas para que, independentemente do tipo do gráfico
de controle utilizado, os resultados sejam válidos (5):
a) É necessário que as observações sejam independentes e identicamente distribuídas, ou
seja, que as amostras sejam retiradas de forma aleatória e que o processo que as gerou
esteja sob controle estatístico;
b) As observações devem seguir alguma distribuição de probabilidade específica, tais como
Normal, Binomial ou Poisson.
2.2. Avaliação de desempenho na Metodologia Seis Sigma
Seis Sigma é uma metodologia de melhoria em processos com o objetivo de reduzir os
defeitos a uma taxa de 3,4 partes por milhão nas características críticas de qualidade para os
clientes (6). Também é definido como um método sistemático para melhoria de processos
estratégicos, desenvolvimento de novos produtos e serviços que se baseia em métodos
estatísticos e científicos para obtenção de uma drástica redução nas taxas de defeitos (7).
A Metodologia Seis Sigma é baseada em um sistema de acompanhamento conhecido como
DMAIC, sigla que denota as seguintes etapas: Definir (Define), Medir (Measure), Analisar
(Analyze), Melhorar (Improve) e Controlar (Control). As empresas que seguiram
disciplinadamente estas etapas obtiveram significativa vantagem competitiva (8).
A letra grega minúscula sigma (
σ
) é o símbolo estatístico para desvio padrão, que é uma
medida de variabilidade de um processo. O mbolo
σ
pode ser usado como um nível de
indicação de desempenho, sendo que quanto maior o nível sigma, melhor é o processo. A
Tabela 1 apresenta a relação do nível sigma com a quantidade de defeitos por milhão de
oportunidades, bem como suas implicações em termos de custos e competitividade.
Tabela 1 – Referências para o nível sigma
NÍVEL
SIGMA
PPM
(partes por milhão)
CUSTO DA NÃO
QUALIDADE
CATEGORIA
6 3,4 < 10 % das vendas Empresa de classe mundial
5 233 10-15 % das vendas
4 6.210 15-20 % das vendas
3 66.807 20-30 % das vendas
Empresa comum
2 308.537 30-40 % das vendas
1 690.000 -
Empresa não competitiva
Fonte: Harry (1998)
Capacidade é definida como a aptidão de uma organização, sistema ou processo de realizar
um produto que irá atender aos requisitos especificados para este produto (3). Em termos
estatísticos, a capacidade e o desempenho de um processo são representados por meio das
equações 1, 2, 3 e 4 (9):
Parte Referencial: Anexos 158
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
C
P
=
σ
6
LIELSE
(1)
C
PK
= min.
σ
µ
σ
µ
3
,
3
LIELSE
(2)
P
P
=
S
LIELSE
6
(3)
P
PK
= min.
S
LIE
S
LSE
3
,
3
µµ
(4)
onde:
C
P
= índice de capabilidade potencial (processo centrado na média)
C
PK
= índice de capabilidade real (processo não centrado na média)
P
P
= índice de desempenho potencial (processo centrado na média dos dados)
P
PK
= índice de desempenho real (processo não centrado na média dos dados)
LSE = limite superior de especificação LIE = limite inferior de especificação
µ
= média do processo S = desvio padrão (amostra)
σ
= estimativa do desvio-padrão do processo (população)
Um processo com C
PK
= 2 é referido como um processo seis sigma, pois a distância a partir da
média do processo até a especificação mais próxima é de seis desvios-padrão. Se a média do
processo se deslocar do centro por 1,5 desvio-padrão, o C
PK
diminuirá para 4,5
σ
/3
σ
= 1,5.
Considerando um processo distribuído normalmente, a fração não conforme do processo
deslocado é de 3,4 partes por milhão. Assim sendo, a média de um processo seis sigma pode
se deslocar de 1,5 desvio-padrão do centro das especificações e ainda manter uma fração não
conforme de apenas 3,4 partes por milhão (4). Boas aproximações podem ser obtidas para
determinação do nível sigma através das equações 5 e 6 (9):
Nível Sigma
3.P
PK
+ 1,5 (5)
Nível Sigma
)ln(.221,237,298406,0
ppm+
(6)
3. Análise da distribuição e transformação de dados
3.1. Considerações gerais
Os métodos estatísticos discutidos neste artigo pressupõem que os dados em estudo sigam
uma distribuição de probabilidade conhecida. A análise e as conclusões que resultam da
aplicação da metodologia são válidas apenas nos casos onde a suposição da distribuição se
confirme correta. Independentemente de quão precisos sejam os métodos estatísticos
utilizados, na realidade os dados é que são os elementos importantes (1).
Na falta de alguma evidência em contrário, pode-se assumir, em uma primeira abordagem,
que os dados utilizados em métodos estatísticos sejam normalmente distribuídos (10).
Contudo, em muitas situações práticas existem razões para se duvidar da validade da
suposição de normalidade, o que implica em especial atenção na análise dos dados (2).
Parte Referencial: Anexos 159
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Visto que existem situações onde a distribuição de dados não corresponde a uma distribuição
normal, então para estes casos tanto a suposição de normalidade quanto utilizão da curva
normal como referência certamente se revelarão inadequadas. Na realidade a existência de
“não normalidade” em distribuição de dados é bastante comum, principalmente quando o
número de observações não é muito grande.
O Quadro 1 resume o que ocorre com a aplicação de alguns métodos estatísticos quando se
assume incorretamente normalidade para dados não representados pela distribuição normal.
Quadro 1 – Conseqüências da suposição incorreta de normalidade
MÉTODO ESTATÍSTICO CONSEQÜÊNCIA DA “NÃO NORMALIDADE”
Controle Estatístico de Processo Falsas causas especiais detectadas nos gráficos de controle individuais
Seis Sigma Cálculo incorreto do nível sigma
Teste de Hipóteses Conclusões incorretas sobre diferenças entre grupos
Análise de Regressão Identificação equivocada de fatores e erros em predições
Planejamento de Experimentos Conclusões incorretas sobre importância e efeito dos fatores
Tais fatos demonstram a importância do rigor metodológico na coleta e no tratamento dos
dados, pois conclusões e definições questionáveis podem ocorrer devido à incorreta suposição
de aderência à distribuição normal. Para evitar este problema é necessário efetuar o teste de
normalidade dos dados antes de se aplicar os procedimentos descritos.
Um exemplo de análise gráfica utilizando o software estatístico Minitab é mostrado na
Figura 2. No teste de normalidade de Anderson-Darling considera-se normal a distribuição
que apresentar p-value maior que 0,05, o que significaria uma probabilidade maior que 5%
em cometer erro ao rejeitar a hipótese de normalidade da distribuição em análise. Os dados
referem-se ao tempo médio de atendimento (em minutos) extraído diariamente ao longo de
um ano em uma empresa fictícia de prestação de serviços denominada “Gamma 220 Ltda”.
Neste caso a distribuição não é normalmente distribuída.
Figura 2 – Exemplo de análise gráfica de uma distribuição
12,09,67,24,82,40,0
Median
Mean
4,24,03,83,63,43,23,0
A nderson-Darling Normality Test
V ariance 7,3045
Skew ness 0,951654
Kurtosis 0,376689
N 302
Minimum 0,1167
A -Squared
1st Q uartile 1,8485
Median 3,3539
3rd Q uartile 5,4893
Maximum 12,7573
95% C onfidence Interv al for M ean
3,6496
6,51
4,2617
95% C onfidence Interval for Median
2,9526 3,6943
95% C onfidence Interv al for StDev
2,5029 2,9373
P-V alue < 0,005
Mean 3,9556
StDev 2,7027
95% Confidence Intervals
Summary for Gamma 220
Parte Referencial: Anexos 160
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
A seguir são apresentados alguns critérios de análise para abordagem dos dados em caso de
não aderência à distribuição normal (11):
a) Examinar os dados para verificar se alguma explicação não estatística para o padrão
distribucional não convencional;
b) Analisar os dados em termos de médias ao invés de valores individuais, pois médias de
amostra seguem de perto uma distribuição de probabilidade normal, mesmo se a
população de valores individuais não é distribuída normalmente (Teorema do Limite
Central);
c) Utilizar como referência outro tipo de distribuição que se enquadre mais adequadamente
ao conjunto de dados coletados;
d) Efetuar transformação matemática da característica original para uma nova característica
que se aproxime de uma distribuição normal.
3.2. Transformação de Box-Cox
Uma estratégia eficiente para normalizar os dados não normais é através de transformação das
variáveis em estudo. Entretanto a escolha do tipo adequado de transformação não parece ser
uma tarefa óbvia, pois matematicamente existem inúmeras possibilidades e apenas o método
de “tentativa e erro” nem sempre é o mais recomendado. Além disso, nem sempre uma
transformação matemática produz os resultados esperados. A transformão linear, por
exemplo, altera a escala da distribuição, mas não altera sua forma; a transformação
exponencial é mais eficiente para este propósito.
Um estudo detalhado na análise de dados representados pelas observações x
1
, x
2
, ..., x
n
consideradas normalmente distribuídas, com variância constante e valores esperados
especificados por modelos lineares (12), levou à seguinte família de transformação
exponencial da variável x para x
(λ)
:
x
(λ)
=
x
x
log
1
λ
λ
)0(
)0(
=
λ
λ
(7)
Esta transformação é definida somente para variáveis com valores positivos (x > 0) e o
parâmetro
λ
, possivelmente um vetor, é o elemento que define a transformação específica e
que, com freqüência, resulta em normalidade. Como a análise de variância não é afetada por
uma transformação linear, na prática a equação 7 pode ser simplificada para a seguinte forma
(12):
x
(λ)
=
x
x
log
λ
)0(
)0(
=
λ
λ
(8)
Parte Referencial: Anexos 161
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Para o conjunto de dados apresentado na Figura 2 foi efetuada aplicação da transformação de
Box-Cox utilizando o
software estatístico Minitab. As características da transformação, com
destaque para determinação do parâmetro λ, estimado com 95% de confiança, são mostradas
na Figura 3.
Figura 3 – Transformação de Box-Cox
Após transformação de Box-Cox os dados obtidos podem ser bem representados por uma
distribuição normal, visto que p-value = 0,476, ou seja, existe grande probabilidade de
cometer erro ao rejeitar a hipótese de normalidade da distribuição obtida. A Figura 4
apresenta a análise gráfica da distribuição resultante da transformação.
Figura 4 – Análise dos dados transformados pelo modelo Box-Cox
Após a adequada transformação da variável x para x
(λ)
, pode-se presumir que os valores
esperados das observações transformadas apresentem as seguintes características (12):
a) Sejam descritos por um modelo de estrutura simples;
Lambda
StDev
543210-1-2
50
40
30
20
10
0
Lower CL Upper CL
Limit
Lambda
0,270481
(using 95,0% confidence)
Estimate 0,270481
Lower CL 0,129694
Upper CL 0,423620
Best Value
Box-Cox Plot of Gamma 220
1,81,51,20,90,6
Median
Mean
1,421,401,381,361,34
A nderson-Darling N ormality T est
V ariance 0,0804
S kew ness -0,189949
Kurtosis -0,316086
N 302
Minimum 0,5593
A -Squared
1st Q uartile 1,1808
Median 1,3872
3rd Q uartile 1,5850
Maximum 1,9911
95% C onfidence Interv al for M ean
1,3462
0,35
1,4104
95% C onfidence Interv al for M edian
1,3402 1,4240
95% C onfidence Interv al for S tDev
0,2625 0,3081
P -V alue 0,476
Mean 1,3783
S tDev 0,2835
95% Confidence Intervals
Summary for Transf Gamma 220
Parte Referencial: Anexos 162
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
b) A variância seja constante;
c) As observações estejam normalmente distribuídas.
3.3. Transformação de Johnson
A transformação de Box-Cox foi um passo importante na determinação de uma maneira
objetiva de se efetuar transformação de dados (13). Entretanto, como a transformação ela é
válida apenas para valores positivos de x, havia espaço para algum tipo de melhoria. Embora
seja possível efetuar uma troca de parâmetros em caso de valores negativos para utilização da
transformação de Box-Cox, existe o inconveniente de tal ão afetar a teoria que suporta a
definição do intervalo de confiança de λ.
Uma outra família de transformação de dados, válida tanto para valores positivos como para
valores negativos da variável x foi desenvolvida posteriormente. Sua fórmula, definida como
uma função ψ: R X R R, é apresentada a seguir (13):
Ψ
(λ, x)
=
{
}
{ }
+
+
+
+
)1log(
21)1(
)1log(
1)1(
2
x
x
x
x
λ
λ
λ
λ
)2,0(
)2,0(
)0,0(
)0,0(
=<
<
=
λ
λ
λ
λ
x
x
x
x
(9)
A transformação de Johnson definida no
software
estatístico Minitab é baseada na escolha
de uma entre três famílias de distribuição (S
B
, S
L
ou S
U
). Para o conjunto de dados
apresentados na Figura 2 também foi efetuada aplicação da transformação de Johnson,
resultando em uma distribuição normal, visto que
p-value
= 0,950 equivale a uma elevada
probabilidade de cometer erro ao rejeitar a hipótese nula de normalidade da distribuição
obtida. As características da transformação obtida no Minitab, com destaque para
determinação da equação de transformação das variáveis, são apresentadas na Figura 5.
Figura 5 – Análise dos dados transformados pelo método de Johnson
Percent
1050-5
99,9
99
90
50
10
1
0,1
N 302
AD 6,515
P-Value <0,005
Percent
420-2
99,9
99
90
50
10
1
0,1
N 302
AD 0,159
P-Value 0,950
Z Value
P-Value for AD test
1,21,00,80,60,40,2
1,00
0,75
0,50
0,25
0,00
0,32
Ref P
P-V alue for Best F it: 0,950434
Z for Best Fit: 0,32
Best Transformation Type: SB
Transformation function equals
1,50964 + 1,05836 * Log( ( X + 0,177547 ) / ( 17,5569 - X ) )
Probability P lot for O riginal Data
Pr obability P lot for Tr ansformed Data
Select a T r ansfor mation
(P-Value = 0.005 means <= 0.005)
Johnson Transformation for Gamma 220
Parte Referencial: Anexos 163
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4. Exemplos de análise dos métodos estatísticos em questão
4.1. Aspectos metodológicos
O ponto de partida de uma pesquisa é a existência de um problema que se deverá definir,
examinar, avaliar e analisar criticamente para, em seguida, ser proposta sua solução (14). No
presente artigo é apresentado o problema de ocorrência de decisões questionáveis na
aplicação de métodos estatísticos devido à interpretação inadequada dos dados coletados. Este
é um problema para o qual se obteve solução a partir de outras pesquisas, algumas delas
mencionadas neste trabalho; entretanto, o que realmente motiva o tema é a necessidade de
promover uma maior divulgação das técnicas de transformação de variáveis para destacar a
relevância do rigor metodológico durante coleta e tratamento de dados estatísticos.
Utilizando alguns critérios de classificação como referência (15), quanto aos objetivos este
trabalho caracteriza-se como uma pesquisa exploratória, pois deverá proporcionar maior
familiaridade com as técnicas de transformação de variáveis durante coleta e tratamento de
dados em trabalhos científicos, além de possibilitar análise crítica através da comparação
entre os dados originalmente coletados e os dados transformados.
A ciência proporciona a conceptualização da realidade e os conceitos com que ela opera são
chamados de construtos (16). Os construtos são adotados ou inventados conscientemente com
um significado específico. Conceito e construtos são semelhantes, sendo que a diferença
reside no fato de que o construto possui um significado construído intencionalmente a partir
de um marco teórico, devendo ser delimitado, traduzido em proposições particulares
observáveis e mensuráveis (16). O objetivo do construto é fazer com que não haja
ambigüidade no referencial empírico dos conceitos utilizados pelos pesquisadores.
A análise crítica da utilização de métodos estatísticos no presente artigo está fundamentada na
utilização de um construto relacionado à análise de dados em uma empresa fictícia de
prestação de serviços. O foco do negócio desta empresa fictícia, denominada “Gamma 220
Ltda”, é o contato direto com seus clientes através de rotinas específicas, cujo detalhamento é
desnecessário para o propósito deste estudo. Os dados existentes referem-se ao tempo médio
de atendimento aos clientes da empresa coletados diariamente ao longo dos 302 dias
trabalhados no ano de 2004. Conforme análise gráfica, já demonstrada por meio da Figura 2, a
distribuição dos dados referentes ao tempo médio de atendimento na empresa Gamma 220
Ltda” não segue uma distribuição normal.
A seguir serão apresentadas, analisadas e discutidas as formas de utilização de gráficos de
controle e avaliação de desempenho através da determinação do nível sigma a partir dos
dados da empresa “Gamma 220 Ltda” (dados gerados pelo
software
estatístico Minitab: 302
valores seguindo a distribuição Gamma com parâmetros
shape
= 2 e
scale
=2).
4.2. Identificação de falsas causas especiais nos gráficos de controle
individuais
Três formas de utilização de gráfico de controle para avaliação do processo em termos de
tempo médio de atendimento na empresa “Gamma 220 Ltda” são discutidas a seguir. A
Figura 6 representa os dados plotados no
software
estatístico Minitab sem a preocupação de
testar a aderência dos mesmos à distribuição normal. Observa-se através deste gráfico de
controle individual que, de acordo com os limites estabelecidos, existem duas causas especiais
de variação.
Parte Referencial: Anexos 164
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
Figura 6 – Gráfico para “Gamma 220” considerando distribuição normal
O gráfico de controle individual obtido após prévia transformação dos dados utilizando a
transformação de Box-Cox é mostrado na Figura 7. Os dados transformados com
λ
= 0,27
assumem uma forma de distribuição que pode ser considerada normal, pois no teste de
Anderson-Darling o parâmetro
p-value
é igual a 0,476. Neste caso o gráfico apresenta o
mesmo comportamento do processo com os dados originais, porém, devido aos novos limites
de controle, não há causas especiais de variação.
Figura 7 – Gráfico para “Gamma 220” com transformação de Box-Cox
Utilizando-se a transformação de Johnson os dados também assumem uma distribuição
considerada normal, visto que no teste de Anderson-Darling o parâmetro
p-value
é igual a
0,950. A análise do gráfico de controle individual após a transformação de Johnson indica o
mesmo comportamento do processo em relação aos dados originais e, assim como nos dados
transformados por Box-Cox, não se observam causas especiais de variação.
Observation
Individual Value
3002702402101801501209060301
15
10
5
0
-5
_
X=3,96
UCL=11,92
LCL=-4,01
1
1
I Chart of Gamma 220
Observation
Individual Value
3002702402101801501209060301
2,25
2,00
1,75
1,50
1,25
1,00
0,75
0,50
_
X=1,378
UCL=2,236
LCL=0,520
I Chart of Gamma 220
Using Box-Cox Transformation With Lambda = 0,27
Parte Referencial: Anexos 165
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
4.3. Cálculo incorreto do nível sigma
A avaliação de desempenho da empresa “Gamma 220 Ltda” tem como requisito um limite
superior de especificação de 12 minutos, isto é, a média dos atendimentos diários não deve
ultrapassar 12 minutos. Utilizando o
software
estatístico Minitab foram calculados ts
índices de desempenho P
PK
diferentes: no primeiro caso o cálculo foi efetuado considerando
os dados normalmente distribuídos; no segundo caso os dados foram previamente
transformados por meio da transformação de Box-Cox; e no terceiro caso foi utilizada
transformação de Johnson. A Tabela 2 apresenta a comparação de valores.
Tabela 2 – Cálculos comparativos do nível sigma para “Gamma 220”
PREMISSA ADOTADA PARA CÁLCULO
LSE (min)
ÍNDICE PPK DPMO NÍVEL SIGMA
Dados considerados normalmente distribuídos 12 0,99 1470 4,47
Dados não normais transformados (Box-Cox)
12
0,71 16010 3,63
Dados não normais transformados (Johnson)
12
0,77 10507 3,81
A análise do nível sigma calculado nas três situações apresentadas indica grande disparidade
entre os dados não transformados, isto é, considerados normais e os dados adequadamente
transformados por Box-Cox ou Johnson. O valor 4,47
σ
obtido com os dados originais denota
um desempenho de 1470 defeitos por milhão de oportunidades (DPMO), ao passo que na
realidade, devido à não aderência dos dados à distribuição normal, este desempenho estaria
melhor representado pelos valores 3,63
σ
(16010 DPMO) ou 3,81
σ
(10507 DPMO) de acordo
com o tipo de transformação adotado.
5. Considerações finais
Através deste artigo foi efetuada uma breve revisão bibliográfica sobre alguns métodos
estatísticos aplicados à gestão da qualidade que podem ser afetados pela suposição
inadequada de normalidade dos dados, em especial o Controle Estatístico de Processo e a
Metodologia Seis Sigma. Também foram apresentados alguns procedimentos de
transformação utilizados para ajustar os dados coletados em uma distribuição normal de modo
a evitar que conclusões duvidosas fossem assumidas como verdadeiras.
A análise dos dados da empresa fictícia “Gamma 220 Ltda”, adotada como exemplo neste
trabalho, indicou que, quando os métodos estatísticos foram aplicados sem os cuidados
necessários de confirmação de aderência à distribuição normal, ocorreram equívocos na
determinação das causas especiais de variação do processo e na avaliação do desempenho da
empresa ao longo do ano. Incorreções desta natureza podem prejudicar a compreensão dos
cenários para a tomada de decisões e, até mesmo, comprometer o desdobramento de
estratégias empresariais.
As duas falsas causas especiais de variação, identificadas no processo, se corretamente
monitoradas, poderiam estimular uma ação gerencial desnecessária que, muito
provavelmente, não agregaria benefícios aos resultados da empresa “Gamma 220 Ltda”. Com
relação à definição incorreta do nível sigma, vale ressaltar que a defasagem entre dados
originais e dados transformados corresponde a uma diferença de 14540 defeitos por milhão de
oportunidades (com a transformação de Box-Cox) e 9037 defeitos por milhão de
Parte Referencial: Anexos 166
__________________________________________________________________________________________
Moraes, Celso F. - Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia de Produção - UNIFEI, 2006
oportunidades (com a transformação de Johnson). Tais quantidades são muito significativas
em termos de avaliação de capabilidade e desempenho.
A evolução desta pesquisa aponta para uma análise crítica de outros casos onde efetivamente
a premissa de normalidade dos dados seja inadequadamente assumida nos métodos
estatísticos abordados e, para trabalhos futuros, outros métodos, tais como Planejamento de
Experimentos, Teste de Hipóteses e Análise de Regressão, também poderão ser analisados.
Referências
(1) FEIGENBAUM. A.V. – Contole da Qualidade Total, vol. 3, Métodos Estatísticos
Aplicados à Qualidade. 3ª ed. São Paulo: Makron Books, 1994.
(2) MONTGOMERY, D.C. – Introduction to Statistical Quality Control. New York: John
Wiley & Sons, Inc, 1985.
(3) ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS – NBR ISO 9000: Sistema
de Gestão da Qualidade – Fundamentos e Vocabulário, Rio de Janeiro, 2000.
(4) MONTGOMERY, D.C. e RUNGER, G.C – Estatística Aplicada e Probabilidade para
Engenheiros. 2ª ed. Rio de Janeiro: LTC – Livros Técnicos e Científicos Editora S.A.,
2003.
(5) TOLEDO, T.P.A. – Uma Investigação sobre Índices de Capabilidade com Ênfase na
Metodologia Seis Sigma. Dissertação de Mestrado. Universidade Federal de Itajubá,
2005.
(6) HARRY, M.J. – Six Sigma: A Breakthrough Strategy for Profitability. New York:
Quality Progress, v.31, n.5, p.60-64, May 1998.
(7) LINDERMAN, K. et al. – Six Sigma: A Goal-Theoretic Perspective. Journal of
Operations Management, v.21, n.2, p.193-203, 2003.
(8) BREYFOGLE. F. – Six Sigma Methods to Ensure Organization’s Health. . New York:
Quality Progress, v.45, n.4, p.28-29, April 2003.
(9) BALESTRASSI, P.P. – Metodologia Seis Sigma. Notas de Aula do Curso de Pós-
Graduação em Engenharia de Produção. Universidade Federal de Itajubá, 2004.
(10) LIPSON, C. and SHETH, N.J. – Statistical and Analysis of Engineering Experiments.
New York: McGraw-Hill Book Company, 1973.
(11) JURAN, J.M. e GRYNA, F.M. – Controle da Qualidade Handbook, vol. 6, Métodos
Estatísticos Clássicos Aplicados à Qualidade. 4ª ed. São Paulo: Makron Books, 1992.
(12) BOX, G.E.P. and COX, D.R. – An Analysis of Transformations. Journal of Royal
Statistical Society. B, 39, p.211-252, 1964.
(13) YEO, I.K. and JOHNSON, R.A. – A New Family of Power Transformation to Improve
Normality or Symmetry. Biometrika, 87, p.954-959, 2000.
(14) ASTI VERA, A. – Metodologia da Pesquisa Científica. Porto Alegre: Globo, 1973.
(15) GIL, A.C. Como Elaborar Projetos de Pesquisa. 3ª ed. São Paulo: Atlas, 1991.
(16) KÖCHE, J.C. – Fundamentos de Metodologia Científica. 7ª ed. Caxias do Sul: Editora
Vozes, 1984.
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo