Download PDF
ads:
UNIFEI
Universidade Federal de Itajubá
Programa de Pós-Graduação em Engenharia Elétrica
Pró-Diretoria de Pesquisa e Pós-Graduação
Estudo de Aplicação do Algoritmo de
Otimização por Enxame de Partícula na
Resolução de Problemas de Otimização
Ligados ao SEP
Área de Sistemas Elétricos de Potência
Ahmed Ali Abdalla Esmin
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
Estudo de Aplicação do Algoritmo de
Otimização por Enxame de Partícula na
Resolução de Problemas de Otimização
Ligados ao SEP
ORIENTADORES:
PROF. GERMANO LAMBERT TORRES
PROF. ANTONIO CARLOS ZAMBRONI DE SOUZA
TESE APRESENTADA À
UNIVERSIDADE FEDERAL DE ITAJUBÁ - UNIFEI
COMO REQUISITO DO PROGRAMA DE DOUTORADO
ITAJUBÁ
ESTADO DE MINAS GERAIS
BRASIL
ABRIL / 2005
ads:
Ficha catalográfica elaborada pela Biblioteca Mauá –
Bibliotecária Jacqueline R. de Oliveira Balducci- CRB_6/1698
E74e
Esmin, Ahmed Ali Abdalla.
Estudo de Aplicação do Algoritmo de Otimização por Enxame de
Partícula na Resolução de Problemas de Otimização Ligados ao SEP /
por Ahmed Ali Abdalla Esmin. -- Itajubá (MG) : [s.n.], 2005.
99 p. : il.
Orientador : Prof. Dr. Germano Lambert Torres
Orientador : Prof. Dr. Carlos Zambroni de Souza
Tese (Doutorado) – Universidade Federal de Itajubá - Departamento
de Elétrica.
1. Otimização. 2. Otimização por Enxame de Partícula. 3. Sistemas
Híbridos. 4. Sistemas Inteligentes Evolutivos. 5. Otimização de Perdas
Elétricas. 6. Colapso de Tensão. I. Torres, Germano Lambert, orient. II.
Souza, Carlos Zambroni de, orient. III. Universidade Federal de
Itajubá. IV. Título.
CDU 004.421(043)
À meus pais, pelo carinho e apoio apesar da distancia
À meus filhos, Tamara, Tarik e Tamires, pelo carinho
À minha esposa, Gilvanete, pela compreensão
Agradecimentos
Manifesto meus sinceros agradecimentos às seguintes pessoas e instituições:
Aos Professores Germano Lambert Torres e Antonio Carlos Zambroni de Souza,
pela amizade e valiosa orientação que tornou possível a conclusão deste trabalho
Aos colegas de doutorado da UNIFEI, pelo apoio
À Universidade Federal de Engenharia de Itajubá, através do Instituto de
Engenharia Elétrica, pela oportunidade de capacitação
À Fundação Educacional Comunitária Formiguense - FUOM, pelo apoio
À CAPES, pelo auxílio
A minha esposa e meus filhos pelo apoio e dedicação
E a todas as pessoas que, direta ou indiretamente, contribuíram para a realização
deste trabalho
RESUMO
Esta tese apresenta um estudo sobre as técnicas de otimização evolutivas e mais
especificamente sobre o algoritmo de Otimização por Enxame de Partícula (PSO). Um
estudo sobre o comportamento do algoritmo PSO é realizado e um novo algoritmo
chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação
(HPSOM) é apresentado. Este trabalho apresenta também os algoritmos PSO e
HPSOM como ferramentas para o estudo da redução de perdas elétricas. Este problema
pode ser formulado como um problema de otimização não linear. A aplicação proposta
consiste em usar um Fluxo de Potência Ótimo (FPO) baseado na função da
minimização de perdas. O estudo é realizado em duas etapas. Primeiramente, usando a
técnica do vetor do tangente, a área crítica do sistema de potência é identificada sob o
ponto da vista da colapse da tensão. Em seguida, uma vez que esta área é identificada,
os algoritmos PSO e HPSOM entram em ação calculando a quantidade de compensação
shunt para cada barra do sistema. O modelo proposto foi examinado e testado com
resultados promissores usando os sistemas IEEE 14,30, 57 e 118 barras.
ABSTRACT
This thesis presents particle swarm optimization (PSO) as a tool for loss reduction study.
This issue can be formulated as a nonlinear optimization problem. The proposed
application consists of using a developed optimal power flow (OPF) based on loss
minimization (LM) function by expanding the original PSO. The study is carried out in two
steps. First, by using the tangent vector technique, the critical area of the power systems is
identified under the point of view of voltage instability. Second, once this area is identified,
the PSO technique calculates the amount of shunt reactive power compensation that takes
place in each bus. The proposed approach has been examined and tested with promising
numerical results using the IEEE 14, 30, 57, and 118 buses systems.
i
Índice
Capítulo 1 Introdução.....................................................................................................1
1.1 MOTIVAÇÃO ............................................................................................................ 2
1.2 O
BJETIVOS...............................................................................................................2
1.3 M
ETODOLOGIA ........................................................................................................2
1.4 ORGANIZAÇÃO ........................................................................................................ 3
Capítulo 2 Revisão Bibliográfica....................................................................................4
2.1 OTIMIZAÇÃO............................................................................................................4
2.1.1 Otimização Local............................................................................................5
2.1.2 Otimização Global..........................................................................................5
2.2 C
OMPUTAÇÃO EVOLUCIONÁRIA (CES).................................................................... 6
2.2.1 Histórico.........................................................................................................7
2.3 A
LGORITMOS GENÉTICOS (AG’S) ...........................................................................7
2.3.1 Características Gerais dos Algoritmos Genéticos .........................................8
2.3.2 Operadores Genéticos..................................................................................10
2.3.3 Parâmetros Genéticos ..................................................................................11
2.4 OTIMIZAÇÃO POR ENXAME DE PARTÍCULAS (PSO) ............................................... 12
2.4.1 O Algoritmo PSO..........................................................................................12
2.4.2 O Comportamento do PSO...........................................................................15
2.4.3 Considerações sobre a semelhança entre PSO e EAs..................................16
2.4.4 Origens e Terminologia................................................................................ 16
2.4.5 Modelo do Melhor Global (gbest)................................................................17
2.4.6 O Modelo do Melhor Local ( Lbest )............................................................17
2.4.7 A Versão Binária do PSO.............................................................................18
2.5 AS PRINCIPAIS PROPOSTAS DE MELHORIAS DO PSO ............................................19
2.5.1 Melhorias na Taxa de Convergência............................................................19
Capítulo 3 Uma aplicação: O Ajuste Automático das Funções de Pertinência Fuzzy
Usando PSO 21
3.1 I
NTRODUÇÃO .........................................................................................................21
3.2 O PACOTE COMPUTACIONAL ORIGINAL ................................................................22
3.3 SIMULAÇÕES .........................................................................................................23
3.4 D
ESCRIÇÃO DO MÓDULO TREINAMENTO PSO.......................................................24
3.5 COMPONENTES DO ALGORITMO PSO ....................................................................25
3.5.1 Representação das Soluções usando PSO....................................................27
3.5.2 Função de Avaliação e o Critério de Parada...............................................27
3.5.3 Apresentação do Algoritmo..........................................................................27
3.6 TESTES .................................................................................................................. 28
3.7 CONSIDERAÇÕES SOBRE ESTA APLICAÇÃO.............................................................32
Capítulo 4 Um novo algoritmo: Algoritmo Híbrido de Otimização por Enxame de
Partícula com Mutação – HPSOM....................................................................................34
4.1 INTRODUÇÃO .........................................................................................................34
ii
4.2 O ALGORITMO HPSOM ........................................................................................35
4.3 TESTES E EXPERIMENTO.........................................................................................36
4.4 DISCUSSÕES DOS RESULTADOS .............................................................................41
Capítulo 5 Aplicação do PSO e HPSOM na Resolução de Problema de Otimização
de Perdas Elétricas.............................................................................................................43
5.1 OTIMIZAÇÃO DE PERDAS ELÉTRICAS..................................................................... 43
5.1.1 Formulação do Problema............................................................................. 43
5.1.2 Metodologia.................................................................................................. 45
5.1.3 Análise Preliminar dos resultados ...............................................................46
5.1.4 Identificação das Áreas ................................................................................47
5.1.5 Exemplo de aplicação usando Sistema de 4 barras .....................................49
5.1.6 Simulação do Sistema IEEE14 barras .........................................................53
5.1.7 Simulação do Sistema IEEE30 barras .........................................................60
5.1.8 Simulação do Sistema IEEE57 barras .........................................................66
5.1.9 Simulação do Sistema IEEE118 barras .......................................................70
5.1.10 Considerações sobre a aplicação................................................................. 75
Capítulo 6 Conclusões...................................................................................................76
6.1 CONTRIBUIÇÕES ALCANÇADAS .............................................................................77
6.2 PROPOSTAS DE TRABALHO FUTURO ......................................................................77
Referências Bibliográficas .................................................................................................79
Apêndice A Dados do Sistema de 4 Barras...................................................................86
Apêndice B Publicações Associadas ao Trabalho e Realizadas no Período...............87
Apêndice C Artigo da Tese Publicado no IEEE – Transactions on Power Systems.88
iii
Índice de Tabelas
Tabela 3.1 – Posições iniciais para o treinamento. .............................................................29
Tabela 3.2 – Parâmetros do PSO.........................................................................................29
Tabela 3.3 – Iterações após o treinamento com PSO. ......................................................... 30
Tabela 3.4 – Resultados de Simulações. ..............................................................................32
Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste...........................37
Tabela 4.2 - Resultados de média da melhor aptidão para 100 execuções (médio da
melhor aptidão
±
erro padrão).....................................................................................38
Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e
AG- (médio da melhor aptidão
±
erro padrão)............................................................41
Tabela 4.4 - As taxas de cruzamento e mutação usados pelo AG (padrão).........................41
Tabela 5.1 –Parâmetros utilizados para as simulações....................................................... 46
Tabela 5.2 – Parâmetros do PSO/HPSOM utilizados para as simulações..........................47
Tabela 5.3- Quantidade de Barras de Controle...................................................................48
Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas....................................49
Tabela 5.5- A população inicial - sistema 4 barras .............................................................49
Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras..................50
Tabela 5.7(a)- Relação das partículas e suas velocidades – sistema 4 barras (PSO).........50
Tabela 5.7(b)- A nova população (1ª- Iteração) – sistema 4 barras (PSO).........................50
Tabela 5.7 (c)- O melhor individual de cada partícula – sistema 4 barras (PSO)............50
Tabela 5.7(d)- A população da última (5ª- Iteração) – sistema 4 barras (PSO) ................ 51
Tabela 5.7(e)- O melhor global de cada partícula – sistema 4 barras (PSO)................... 51
Tabela 5.8(a)- Relação das partículas e suas velocidades – sistema 4 barras (HPSOM)...51
Tabela 5.8(b)- A nova população (1ª- Iteração) – sistema 4 barras (HPSOM) ..................52
Tabela 5.8(c)- As partículas sorteados para a Mutação – sistema 4 barras (HPSOM)......52
Tabela 5.8(d)- A nova população antes e depois da Mutação – sistema 4 barras (HPSOM)
......................................................................................................................................52
Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM)
......................................................................................................................................52
Tabela 5.8 (f)- O melhor individual de cada partícula – sistema 4 barras(HPSOM) ....... 52
Tabela 5.8(g)- A população da última (5ª- Iteração) – sistema 4 barras (HPSOM).......... 53
Tabela 5.8(h)- O melhor global de cada partícula – sistema 4 barras (HPSOM).............53
Tabela 5.9 - Resultados obtidos pelo MPC – Sistema – IEEE 14.......................................53
Tabela 5.10 - Resultados obtidos pelo PSO no sistema IEEE 14 – barras Criticas.......... 54
Tabela 5.11 - Resultados obtidos pelo HPSOM sistema IEEE 14 – barras Criticas.......... 55
Tabela 5.12 (a,b) - Resultados obtidos pelos PSO e HPSOM- IEEE 14 – BCS .................56
Tabela 5.13 (a,b) - Resultados obtidos pelos PSO/HPSOM- IEEE 14 – BCS criticas .......57
Tabela 5.14 - Resultados obtidos pelo MPC – Sistema – IEEE 14.....................................59
Tabela 5.15(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 – TBS........ 59
Tabela 5.15(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 –
TBS. ..............................................................................................................................60
Tabela 5.16 - Resultados obtidos pelo MPC – Sistema IEEE 30........................................61
Tabela 5.17(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 – BCS ........61
iv
Tabela 5.17(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 30–BCS.
......................................................................................................................................62
Tabela 5.18 - Resultados obtidos pelo MPC – Sistema IEEE 30........................................64
Tabela 5.19 (a,b) - Resultados obtidos pelo PSO sistema IEEE 30 – Todas as Barras ..... 64
Tabela 5.19(c) -Resumo dos resultados obtidos pelos PSO/HPSOM-sistema IEEE 30– TBS.
......................................................................................................................................65
Tabela 5.20 (a,b) - Resultados obtidos pelo PSO/HPSOM sistema IEEE 30 – TBS-
iteração = 500 ..............................................................................................................65
Tabela 5.20(c) - Resumo dos resultados obtidos pelo PSO/HPSOM sistema IEEE 30 –
TBS- iteração = 500 .....................................................................................................66
Tabela 5.21 - Resultados obtidos pelo MPC – Sistema IEEE57......................................... 66
Tabela 5.22(c)-Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– BCS.
......................................................................................................................................67
Tabela 5.22(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 – Barras Criticas........68
Tabela 5.23 - Resultados obtidos pelo MPC – Sistema IEEE 57........................................68
Tabela 5.24(c) Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– TBS.
......................................................................................................................................69
Tabela 5.24(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 –TBS. .......................... 70
Tabela 5.25 - Resultados obtidos pelo MPC – Sistema IEEE118....................................... 71
Tabela 5.26(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –BCS......................... 71
Tabela 5.26(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEE118–
CBS...............................................................................................................................72
Tabela 5.27 - Resultados obtidos pelo MPC – Sistema IEEE118....................................... 74
Tabela 5.28(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –TBS. ........................ 74
Tabela 5.28(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 118 –
TBS. ..............................................................................................................................75
v
Índice de Figuras
Figura 2.1 - Um exemplo de função xxxxxf 554212)(
234
+= , com o
mínimo local
*
A
x
e o mínimo global
*
x
. ..............................................................6
Figura 2.2 - Indivíduos de uma população e a sua correspondente roleta de seleção. ...........9
Figura 2.3 – O Pseudocódigo do AGs....................................................................................9
Figura 2.5 - Um exemplo de crossover de um ponto. ..........................................................11
Figura 2.6 - O Pseudocódigo do algoritmo de PSO básico. ................................................. 14
Figura 3.1 - Tela básica do programa...................................................................................22
Figura 3.2 - Exemplos de simulação do pacote computacional. ..........................................24
Figura 3.3 – Parâmetros das funções de pertinência. ...........................................................25
Figura 3.4 – Exemplo de ajuste de uma função de pertinência............................................26
Figura 3.5 – Funções de pertinência originais......................................................................28
Figura 3.6 – Posições iniciais de treinamento. .....................................................................29
Figura 3.7 – Simulações sem treinamento............................................................................30
Figura 3.8– Simulações após treinamento genético. ............................................................ 31
Figura 3.9 – Funções de pertinência após o ajuste com PSO...............................................31
Figura 4.1 - o pseudocódigo do algoritmo HPSOM.............................................................35
Figura 4.2 – A função Rastrigin em 3D................................................................................37
Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f
1
................................38
Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f
2
..................................39
Figura 4.5 - PSO versus HPSOM para a função for Griewank - f
3
....................................39
Figura 4.6 - PSO versus HPSOM para a função Rastrigin - f
4
.............................................40
Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera ..........40
(pop = 3)- f1..........................................................................................................................40
Figure 5.1 – Sistema elétrico simples................................................................................... 49
Figura 5.2 – A evolução dos algoritmos PSO/HPSOM – IEEE 14- Barras Criticas............ 54
Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5).....................55
Figure 5.4- A evolução dos algoritmos PSO/HPSOM a partir de 20ª iteração - Pop(5).. 56
Figure5.5- A evolução dos algoritmos PSO/HPSOM - IEEE14 ..........................................58
Figure 5.6- A evolução dos algoritmos PSO/HPSOM - IEEE14- Todas as Barras ............60
Figure 5.7- A evolução dos algoritmos PSO/HPSOM - IEEE30 - BCS .............................. 62
Figure 5.8- A evolução dos algoritmos PSO/HPSOM - IEEE30 – TBS.............................63
Figure 5.9 - A evolução dos algoritmos PSO/HPSOM - IEEE57 - BCS ............................67
Figura 5.10 - A evolução dos algoritmos PSO/HPSOM- IEEE57 – TBS...........................69
Figure 5.11 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - BCS ........................ 72
Figure 5.12 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - TBS ........................73
1
Capítulo 1
Introdução
Formas de otimização são importantes na vida cotidiana. Muitos problemas científicos,
sociais, econômicos e de engenharia têm parâmetros que podem ser ajustados de forma a
produzir um resultado mais desejável. Ao longo dos anos foram desenvolvidas numerosas
técnicas para resolver tais problemas.
Técnicas de otimização vêm sendo aplicadas em diversos problemas no Sistema
Elétricos de Potência (SEP). Dependendo do enfoco do estudo, a técnica de otimização
empregada pode levar em conta algumas simplificações no conjunto das equações. Tais
simplificações podem simplificar a solução e conduz a aplicação de técnicas lineares [1,2].
Porém, outros problemas podem requerer uma formulação mais complexa, como os
conjuntos de equações envolvidos podem não ser linearizados. Neste caso, devem ser
empregadas técnicas não lineares. Um dos problemas não linear analisado em sistemas de
potência é o problema de redução de perdas [3] que considera como variáveis de controle, a
geração de potência ativa, nível de tensão de geradores, entre outros. Este problema não
linear pode ser importante para análise de estabilidade de tensão [4] ou somente melhorar
as condições operacionais de sistema [5]. Referências [4] e [5] apresentaram um fluxo
ótimo de potência resolvido por método preditor-corretor de pontos interiores baseado em
uma função de barreira logarítmica [6]-[8]. A técnica empregada nessas referências também
foi aplicada para uma variedade de problemas em sistemas de potência. Outras
metodologias, como o métodos quase-Newton e o método de direção conjugada poderiam
ser usados para resolver estes problemas. Estes métodos apresentem, em geral, um
desempenho satisfatório. A idéia neste trabalho é analisar, mais uma vez, o problema de
redução de perdas. Porém, a ferramenta de análise empregada pertence à família de
Algoritmo Evolutiva. É uma técnica relativamente nova conhecida como Otimização por
Enxame de Partícula (Particle Swarm Optimization - PSO) [9,11], que resolve problemas
simulando comportamento de enxame. Esta ferramenta pode ter um amplo campo de
aplicações em sistemas de potência. Por exemplo, a referência [9] enfocou nos problemas
de minimização de custo de combustível, melhoria de perfil da tensão e melhoria de
estabilidade de tensão.
O PSO foi originalmente inspirado no comportamento sócio biológico associado
com grupos de pássaros. É um método de otimização baseado em população e foi primeiro
proposto pelo Kennedy e Eberhart [10,11]. Algumas das características interessantes do
PSO incluem a facilidade de implementação e o fato que nenhuma informação de gradiente
é requerida. Pode ser usado para resolver uma gama de diferentes problemas de
otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos
Algoritmos Genéticos. Neste trabalho, algumas modificações serão incorporadas no
método para torná-lo mais robusto. O resultado é um algoritmo novo chamado de algoritmo
Híbrido de Otimização por Enxame de Partícula com Mutação (HPSOM).
2
Este trabalho apresenta e investiga os comportamentos das novas ferramentas (PSO
e HPSOM) e também apresenta a aplicação destas ferramentas para resolver o problema de
redução de perdas elétricas.
1.1 Motivação
Com a crescente complexidade dos problemas a resolver, sempre haverá uma necessidade
por melhores algoritmos de otimização. No caso especifico da área de engenharia elétrica, o
Sistema Elétrico de Potência é um sistema dinâmico de grande complexidade e que está
aberto à realização de estudos de problemas de otimização em vários campos, como, por
exemplo, a otimização de perdas e o estudo de estabilidade.
Por outro lado, o método PSO se apresenta com uma promissora forma de
otimização, e como é recente, na literatura não se encontra um estudo mais abrangente de
resolução de problemas complexos e sobre tudo ligados ao SEP. Este trabalho se propõe a
realizar vários estudos de aplicação e de comportamento do PSO na resolução de problemas
complexos ligados ao SEP.
1.2 Objetivos
Podem ser resumidos os principais objetivos deste trabalho como segue:
Realização de estudo teórico sobre o algoritmo PSO e seu comportamento;
Desenvolvimentos de aplicações usando o algoritmo PSO para minimizar as funções de
pertinência fuzzy;
Desenvolver e testar o novo algoritmo HPSOM e provar o seu sucesso quando aplicado
para resolver problemas de otimização local ou global e com melhor desempenho.
A investigação e o desenvolvimento de aplicação usando os algoritmos PSO e HPSOM
para resolver problemas ligados ao SEP como o problema de perdas elétricas.
1.3 Metodologia
Será necessária a realização de estudos teóricos e práticos, iniciando-se por um estudo
teórico sobre o PSO e seu comportamento. No caso de estudo de aplicação, será adotada
uma metodologia experimental.
Será feita uma analise de comportamento e desempenho do PSO onde serão
mostrados problemas ligados a atualização da sua velocidade, chamado de problema de
estagnação e a proposta de um novo algoritmo para solucionar este problema chamado de
HPSOM. Para provar o seu sucesso serão realizados vários experimentos usando tipos
diferentes de funções (unimodal e multimodal) envolvendo problemas de minimização.
Para minimizar as perdas elétricas, neste trabalho será utilizado como ação de
controle a instalação de capacitância shunt. O cálculo do valor ideal de shunt a ser instalado
em cada barra identificada para obedecer à função objetivo (redução de perdas elétricas) é
um problema de programação não linear. Os algoritmos PSO e HPSOM serão
3
implementados individualmente, e os resultados alcançados serão comparados com os
resultados obtidos pelo método preditor-corretor de pontos interiores (MPC).
Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada:
a) Através do método do vetor tangente serão identificadas as áreas críticas para
redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo
será utilizado pelos algoritmos PSO e HPSOM como foi utilizado pelo MPC.
b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM variando-se o
número de população de partículas no enxame e o número de iterações.
c) finalmente os resultados serão analisados e comparados.
1.4 Organização
O Capítulo 2 inicia com uma introdução sobre a teoria de otimização, seguida por uma
prévia revisão das técnicas evolutivas existentes, e em especial os Algoritmos Genéticos,
usados para resolver problemas de otimização. Seguido por uma descrição da Otimização
por Enxame de Partícula, com uma discussão das suas principais modificações é
apresentada.
No capítulo 3 será mostrada uma aplicação do PSO para otimizar as funções de
pertinência de um controle Fuzzy, através de apresentação de uma ferramenta para o
controle de estacionamento de um carro.
Capítulo 4 inicia-se com uma breve analise de comportamento do algoritmo PSO
padrão. Em seguida apresentado um novo algoritmo chamado de Algoritmo de Otimização
por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame
de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os
resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e
multimodal.
No capítulo 5 será apresentada uma aplicação utilizando os algoritmos PSO e HPSOM
para resolução de problemas de otimização ligados ao SEP. Será apresentada a aplicação de
otimização de perdas elétricas. E por fim, no capitulo 6 serão apresentadas e discutidos as
conclusões e os trabalhos futuros.
4
Capítulo 2
Revisão Bibliográfica
Este capítulo revisa algumas das definições básicas relacionadas à questão da otimização.
Uma discussão breve de Computação Evolucionária e Algoritmos Genéticos é apresentada.
As origens da Otimização por Enxame de Partículas são discutidas, seguida por uma
avaliação das suas principais características. Finalmente, serão apresentadas as principais
extensões e modificações recentemente publicadas.
2.1 Otimização
Pode-se definir a otimização como sendo a tarefa de determinar as “melhores” soluções
para certos problemas matematicamente formulados.
Esta tarefa é de grande importância para muitas profissões. Por exemplo, físicos,
químicos e engenheiros estão interessados em maximizar a produção ao projetar uma
indústria química, levando em consideração certas restrições, como por exemplo custo e
poluição. Os economistas e investigadores de operação por suas vezes, têm que considerar
a ótima alocação de recursos em colocações industriais e sociais. Alguns destes problemas
envolvem apenas modelos lineares, em que as variáveis são contínuas e apresentam
comportamento linear, tanto em relação à função objetivo com às restrições, resultando em
problemas de otimização linear para os quais existe uma técnica muito eficiente conhecida
como programação linear (PL) [12]. Os outros problemas são conhecidos como problemas
de otimização não-linear se exibir qualquer tipo de não-linearidade, seja na função objetivo
ou em qualquer de suas restrições. São geralmente muito mais difíceis de serem resolvidos.
Estes problemas são o foco deste trabalho.
Toda tarefa de busca e otimização possui vários componentes, entre eles: o espaço
de busca, onde são consideradas todas as possibilidades de solução de um determinado
problema, e a função de avaliação (ou função de custo), que é uma maneira de avaliar os
membros do espaço de busca. Existem muitos métodos de busca e funções de avaliação.
As técnicas de busca e otimização tradicionais iniciam-se com um único candidato
que, iterativamente, é manipulado utilizando algumas heurísticas (estáticas) diretamente
associadas ao problema a ser solucionado. Geralmente, estes processos heurísticos não são
algorítmicos e sua simulação em computadores pode ser muito complexa. Apesar destes
métodos não serem suficientemente robustos, isto não implica que eles sejam inúteis. Na
prática, eles são amplamente utilizados, com sucesso, em inúmeras aplicações [13].
Por outro lado, as técnicas de computação evolucionária operam sobre uma
população de candidatos em paralelo. Assim, elas podem fazer a busca em diferentes áreas
do espaço de solução, alocando um número de membros apropriado para a busca em várias
regiões.
Existem dois tipos de otimização: global e local. A otimização global busca o
melhor ponto dentro da totalidade do espaço da busca, enquanto a local tenta encontrar o
5
melhor ponto dentro de um subespaço especifico. A definição mais completa será dada nas
próximas seções.
2.1.1 Otimização Local
Pode-se definir um ponto mínimo local ou simplesmente, o mínimo local,
*
A
x
de uma
função
f
, para uma determinada região A, da seguinte forma:
Axxfxf
A
),()(
*
(2.1)
onde
n
RSA
e S denota o espaço de busca. Note que S = R
n
em problemas sem
restrições e note também que A é um subconjunto de S. O espaço de busca S pode conter
múltiplas regiões
i
A
tal que
φ
=
ji
AA I
; quando
ji
. Então, do mesmo modo,
**
ji
AA
xx
, de forma que o ponto mínimo de cada região
i
A
é único. Qualquer
*
i
A
x
pode ser considerado como o mínimo de
i
A
. Não há nenhuma restrição no valor que a
função pode assumir para o mínimo, assim sendo
)()(
**
ji
AA
xfxf =
é permitido. O
valor de
)(
*
i
A
xf
será chamado do mínimo local.
A maioria dos algoritmos de otimização requer um ponto de partida
0
x
S
. Um
algoritmo de otimização local deve garantir que será capaz de encontrar o mínimo local
*
i
A
x
para um conjunto A, se
0
xA
.
Muitos algoritmos de otimização local têm sido propostos. Uma distinção será feita
entre algoritmos determinísticos, analíticos e os algoritmos estocásticos nas próximas
seções . Dentro dos algoritmos determinísticos de otimização local incluem o algoritmo
Newton-Raphson [14] e suas variantes, o algoritmo Escalado de Gradiente Conjugado
(SCG) [15], o quasi-Newton [14,16] e a sua família de algoritmos.
2.1.2 Otimização Global
O mínimo global,
*
x
de uma função
f
, pode ser definido da seguinte forma:
Sxxfxf ),()(
*
(2.2)
Onde S é o espaço de busca. Para problemas sem restrições é comum usar S = R
n
, onde n é
a dimensão de x. O algoritmo de otimização global, como no caso dos algoritmos de
otimização local descritos acima, também começa pela escolha de um ponto inicial
0
x
S
.
Em alguns publicações (por exemplo [14]), há uma definição diferente para o
algoritmo de otimização global, definido como sendo um algoritmo capaz de encontrar o
mínimo (local) de
SA
, independentemente da posição atual de
0
. Estes algoritmos
consistem em dois processos: O processo dos “passos globais" e o processo dos “ passos
locais". Os passos locais normalmente são a aplicação de um algoritmo de otimização
6
local, e os passos globais são projetados para assegurar que o algoritmo passará para região
i
A
, onde o processo dos passos locais será capaz de encontrar o mínimo de
i
A
. Estes
métodos são chamados de algoritmos globalmente convergentes. Isto significa que eles
podem convergir a um mínimo local indiferentemente de sua posição inicial
0
z
. Estes
métodos também são capazes de encontrar o mínimo global. Entretanto, não há nenhum
modo geral seguro e conhecido de fazer isto.
A Figura 2.1 ilustra a diferença entre o mínimo local
*
A
x
e o mínimo global
*
x
.
Figura 2.1 - Um exemplo de função
xxxxxf 554212)(
234
+= , com o
mínimo local
*
A
x
e o mínimo global
*
x
.
2.2 Computação Evolucionária (CEs)
Computação evolucionária (CE) define vários métodos projetados para simular a evolução.
Estes métodos baseiam-se, para resolver problemas, em população de pontos, e uma
combinação de variação aleatória e da seleção. Neste campo existem várias técnicas,
incluindo Algoritmos Evolutivos (AEs), Estratégias de Evolução (SE), Programação
Evolutivo (PE), Algoritmos Genéticos (AGs) e Programação Genética (PG) [17,18,19].
CEs diferenciam dos métodos tradicionais de otimização em quatro aspectos [13]:
1. Trabalham com codificação do conjunto de parâmetros e não com os próprios
A
*
x
*
A
x
7
parâmetros;
2. trabalham com uma população e não com um único ponto;
3. utilizam de informações de custo ou recompensa e não derivadas ou outro conhecimento
auxiliar;
4. utilizam de regras de transição probabilísticas e não determinísticas.
2.2.1 Histórico
Antes da teoria de evolução apresentada por Charles Darwin e até meados do século 19, os
naturalistas acreditavam que cada espécie na natureza havia sido criada separadamente por
um ser supremo ou através de geração espontânea. O trabalho do naturalista Carolus
Linnaeus levou a comunidade cientifica a acreditar na existência de uma certa relação entre
as espécies. Por outro lado, Thomas Robert Malthus propôs que fatores ambientais, tais
como doenças e carência de alimentos, limitavam e influenciavam o crescimento de uma
população.
Após anos de observações e experimentos, Charles Darwin apresentou em 1858 sua
teoria de evolução através de seleção natural, ao mesmo tempo que outro naturalista, Alfred
Russel Wallace. No ano seguinte, Darwin publicou o seu livro intitulado “On the Origin
of Species by Means of Natural Selection” com a sua teoria completa, sustentada por
muitas evidências cientificas.
Por volta de 1900, a moderna teoria da evolução combina a genética e as idéias de
Darwin e Wallace sobre a seleção natural, criando o princípio básico de Genética
Populacional: a variabilidade entre indivíduos em uma população de organismos que se
reproduzem sexualmente é produzida pela mutação e pela recombinação genética.
Durante os anos 30 e 40 este princípio foi desenvolvido por biólogos e matemáticos
de grandes centros de pesquisa. Nos anos 50 e 60, muitos biólogos começaram a
desenvolver simulações computacionais de sistemas genéticos. Entretanto, foi John Holland
quem começou a desenvolver sistematicamente as primeiras pesquisas no tema.
Desenvolveu suas idéias e em 1975 publicou o seu livro “Adaptation in Natural and
Artificial Systems” [19], hoje considerado a principal referência na área de Algoritmos
Genéticos. Desde então, estes algoritmos vêm sendo melhorados e aplicados nos mais
diversos problemas de otimização e aprendizado de máquina com sucesso.
2.3 Algoritmos Genéticos (AG’s)
Os Algoritmos Genéticos formam a parte da área dos sistemas inspirados na natureza;
simulando os processos naturais e aplicando-os à solução de problemas reais. São métodos
generalizados de busca e otimização que simulam os processos naturais de evolução,
aplicando a idéia darwiniana de seleção. São capazes de identificar e explorar fatores
ambientais e convergir para soluções ótimas, ou aproximadamente.
Na natureza os indivíduos competem entre si por recursos como comida e água.
Adicionalmente, entre os animais de uma mesma espécie, aqueles que não obtêm êxito
tendem provavelmente a ter um número reduzido de descendentes, tendo, portanto menor
probabilidade de seus genes serem propagados ao longo de sucessivas gerações. A
combinação entre os genes dos indivíduos que perduram na espécie pode produzir um novo
indivíduo muito melhor adaptado às características de seu meio ambiente.
8
Os Algoritmos Genéticos utilizam uma analogia direta deste fenômeno de evolução
na natureza, onde cada indivíduo representa uma possível solução para um problema dado.
A cada indivíduo se atribui uma pontuação de adaptação, dependendo da resposta dada ao
problema por este indivíduo. Aos mais adaptados é dada uma maior oportunidade de
reproduzir-se mediante cruzamentos com outros indivíduos da população, produzindo
descendentes com características de ambas as partes. Um Algoritmo Genético
desenvolvido de modo adequado possui elevada probabilidade de que a população
(conjunto de possíveis respostas) convergirá a uma solução ótima para o problema
proposto. Os processos que mais contribuem para a evolução são o cruzamento, mutação e
a adaptação baseada na seleção/reprodução. A área biológica mais proximamente ligada aos
Algoritmos Genéticos é a Genética Populacional.
Algoritmos Genéticos são eficientes para busca de soluções ótimas, ou
aproximadamente ótimas, em uma grande variedade de problemas, pois não impõem muitas
das limitações encontradas nos métodos de busca tradicionais. Os pesquisadores referem-se
a "algoritmos genéticos" ou a "um algoritmo genético" e não "ao algoritmo genético", pois
AGs são uma classe de procedimentos com muitos passos separados, e cada um destes
passos possui muitas variações possíveis. Os AGs não são as únicas técnicas baseadas em
uma analogia da natureza. Por exemplo, as Redes Neurais estão baseadas no
comportamento dos neurônios do cérebro.
2.3.1 Características Gerais dos Algoritmos Genéticos
Os AGs são algoritmos de otimização global que empregam uma estratégia de busca
paralela, estruturada e voltada em direção da busca de pontos de "alta aptidão", ou seja,
pontos nos quais a função a ser minimizada (ou maximizada) tem valores relativamente
baixos (ou altos). Os AGs exploram informações históricas para encontrar novos pontos de
busca onde são esperados melhores desempenhos. Isto é feito através de processos
iterativos, onde cada iteração é chamada de geração.
O primeiro passo para a utilização de AGs, como ferramenta para solução de
problemas, é a representação destes problemas de maneira que os AGs possam atuar
adequadamente sobre eles. Tradicionalmente, os indivíduos são representados
genotipicamente por um vetor de valores binários, onde cada elemento deste vetor denota a
presença (1) ou ausência (0) de uma determinada característica: o seu genótipo. Os
elementos podem ser combinados formando as características reais do indivíduo, ou o seu
fenótipo. Entretanto, há casos em que é mais adequado o uso de representação numérica.
O princípio básico do funcionamento do AGs é que um critério de seleção vai fazer
com que, depois de muitas gerações, o conjunto inicial de indivíduos gere indivíduos mais
aptos. Um método de seleção muito utilizado é o Método da Roleta, onde indivíduos de
uma geração são escolhidos pelo sorteio para fazer parte da próxima geração através do
cruzamento. A Figura 2.2 mostra a representação da roleta para uma população composta
por 4 indivíduos.
Os indivíduos são representados na roleta proporcionalmente ao seu índice de
aptidão. Finalmente, a roleta é girada um determinado número de vezes, dependendo do
tamanho da população, e são escolhidos para participarão da próxima geração, aqueles
indivíduos sorteados na roleta.
9
Figura 2.2 - Indivíduos de uma população e a sua correspondente roleta de seleção.
Um conjunto de operações (operadores) é necessário para que, dada uma população
inicial, se consiga gerar sucessivas populações que (espera-se) que melhora sua aptidão
com o passar do tempo. Estes operadores utilizados são: cruzamento (crossover) e mutação.
Eles são utilizados para assegurar que a nova geração seja totalmente nova, mas possui, de
alguma forma, características de seus pais. Para prevenir que os melhores indivíduos não
desapareçam e sejam descartados da população pela manipulação dos operadores genéticos,
eles podem ser automaticamente colocados na próxima geração através da reprodução
elitista.
Esse processo é repetido um determinado número de vezes (numero de gerações).
Durante esse processo, os melhores indivíduos, assim como alguns dados estatísticos
podem ser armazenados para avaliação. A Figura (2.3) mostrada o pseudocódigo de um
algoritmo genético.
Figura 2.3 – O Pseudocódigo do AGs
X1
2%
X2
5%
X3
80
%
X4
13%
I
Indivíduo
x
i
f
i
(x)
Aptidão (x
2
)
Aptidão
Relativa
1 00011 9 0,02
2 00101 25 0,05
3 10100 400 0,8
4 01000 64 0,13
Total 498 1,00
Criar e inicializar:
g - geração atual;
t – número de gerações para finalizar o algoritmo;
P - população
inicio
g = 0;
inicia_população (P, g)
avaliação (P, g);
repita:
g = g +1;
seleção_dos_pais (P, g);
recombinação (P, g);
mutação (P, g);
avaliação (P, g);
até (g = t)
fim
10
2.3.2 Operadores Genéticos
Os operadores genéticos transformam a população através de sucessivas gerações,
estendendo a busca até chegar a um resultado satisfatório. São necessários para que a
população se diversifique e mantenha características de adaptação adquiridas pelas
gerações anteriores.
O operador de mutação modifica aleatoriamente um ou mais genes de um
cromossomo. A probabilidade de ocorrência de mutação em um gene é denominada taxa de
mutação Pm. Usualmente, são atribuídos valores pequenos para a taxa de mutação. A idéia
intuitiva por trás desse operador é a criação de variabilidade extra na população, mas sem
destruir o progresso já obtido no decorrer do processo evolutivo, como é ilustrado na Figura
2.4, fornecendo assim, meios para introdução de novos elementos na população. Desta
forma, a mutação assegura que a probabilidade de se chegar a qualquer ponto do espaço de
busca nunca será zero, além de contornar o problema de mínimos locais, pois com este
mecanismo, altera-se levemente a direção da busca.
.Figura 2.4 - Exemplo de mutação.
O operador de cruzamento ou recombinação é responsável pela criação de novos
indivíduos por intermédio da combinação de dois ou mais indivíduos (pais). A idéia
intuitiva por trás desde operador é a troca de informação entre diferentes soluções
candidatas permitindo que características dos pais sejam herdados pelas próximas gerações.
Ele é considerado o operador genético mais importante, por isso é aplicado com
probabilidade maior que a taxa de mutação e dada pela taxa de crossover Pc. As formas de
utilização desse operador são:
Um-ponto: para a aplicação desse operador, são selecionados dois indivíduos (pais)
e a partir de seus cromossomos são gerados dois novos elementos (filhos). Para
gerar os filhos, seleciona-se um ponto de corte aleatoriamente nos cromossomo-
pais, de modo que os segmentos a partir do ponto de corte sejam trocados, como
mostrado no exemplo da Figura 2.5.
Multi-pontos: a troca de material genético é feita da mesma forma de um ponto,
apenas esta troca é utilizada em muitos pontos.
Uniforme: como este operador para cada bit no primeiro filho é decidido (com
alguma probabilidade fixa p) qual pai vai contribuir com seu respectivo bit para
aquela posição.
11
Figura 2.5 - Um exemplo de crossover de um ponto.
(a) dois indivíduos são escolhidos.
(b) um ponto (2) de crossover é escolhido.
(c) são recombinadas as características, gerando dois novos indivíduos.
2.3.3 Parâmetros Genéticos
Os parâmetros genéticos influem no comportamento dos Algoritmos Genéticos e é
importante, analisá-los e estabelecê-los conforme as necessidades do problema e dos
recursos disponíveis.
Tamanho da População: o tamanho da população afeta de uma forma direta o
desempenho global e a eficiência dos AGs. Uma população pequena oferece uma
pequena cobertura do espaço de busca, causando uma queda no desempenho. Uma
grande população fornece uma melhor cobertura do domínio do problema e previne a
convergência prematura para soluções locais. Entretanto, com uma grande população
tornam-se necessários maiores recursos computacionais, ou um tempo maior de
processamento do problema.
Taxa de Cruzamento: quanto mais alta for esta taxa, mais rapidamente novos
indivíduos serão introduzidos na população. Entretanto, isto pode gerar um efeito
indesejado, pois a maior parte da população será substituída podendo ocorrer perda de
indivíduos com alta aptidão. Com uma taxa baixa, o algoritmo pode ficar muito lento.
Taxa de Mutação: uma taxa de mutação baixa pode prevenira a população do
problema de estagnação em um determinado valor, além de permitir que se chegue em
qualquer ponto do espaço de busca. Com uma taxa muito alta a busca se torna
praticamente aleatória.
Intervalo de Geração: determina a porcentagem da população que será substituída na
próxima geração. Com um valor alto, a maior parte da população será substituída, mas
com valores muito altos pode ocorrer perda de indivíduos com alta aptidão. Com um
valor baixo, o algoritmo pode ficar muito lento.
12
2.4 Otimização por Enxame de Partículas (PSO)
O método de otimização denominado Otimização por Enxame de Partículas (PSO) tal como
outras meta-heurísticas recentemente desenvolvidas, simula o comportamento dos sistemas
fazendo a analogia com comportamentos sociais.
O PSO é um método de otimização baseado em população e foi primeiro proposto
pelos Kennedy e Eberhart [10,11]. Possui características interessantes como, a facilidade de
implementação nos computadores e o fato que não requer nenhuma informação de
gradiente. Pode ser aplicado para resolver uma variedade de diferentes problemas de
otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos
Algoritmos Genéticos; pode-se citar como exemplo algumas das aplicações, como
treinamento de rede neural [20,21,22,23] e a minimizarão de vários tipos de funções
[24,25].
Muitos algoritmos de otimizações populares são determinísticos, como os
algoritmos baseados em gradientes. O PSO, como o seus similares, que pertencem à família
de Algoritmo Evolutiva, é um algoritmo do tipo estocástico que não precisa de gradiente de
informações derivadas de função de erro. Isto permite a utilização do PSO em funções
onde o gradiente é indisponível ou cuja obtenção está associada a um alto custo
computacional.
2.4.1 O Algoritmo PSO
O algoritmo PSO mantém uma população de partículas, onde cada partícula representa uma
solução potencial para um problema de otimização. Assume-se que S como sendo o
tamanho do enxame. Cada partícula i pode ser representada como um objeto com várias
características. Estas características são as seguintes:
x
i
: A posição atual da partícula;
v
i
: A velocidade atual da partícula;
y
i
: A melhor posição individual alcançada pela partícula.
A melhor posição individual da partícula i representa a melhor posição que a
partícula visitou e onde obteve a melhor avaliação. No caso de uma tarefa de minimização,
por exemplo, uma posição que obteve o menor valor da função é considerada como sendo a
posição com melhor avaliação ou com mais alta aptidão. O símbolo f será usado para
denotar a função objetivo que está sendo minimizada. A equação de atualização para a
melhor posição individual é dada pela equação (2.3), utilizando o tempo t explicitamente.
+>+
+
=+
))1(())(()1(
))1(())(()(
)1(
txftyfsetx
txftyfsety
ty
iii
iii
i
(2.3)
Existem duas versões do PSO, chamadas de modelos gbest e lbest (o melhor global
e o melhor local) [26]. A diferença entre os dois algoritmos está baseada diretamente na
forma com que uma determinada partícula interage com o seu conjunto de partículas. Para
13
representar esta interação será utilizado o símbolo
y
ˆ
. Os detalhes dos dois modelos serão
discutidos por completo mais adiante. A definição do
y
ˆ
, como usado no modelo de gbest,
é apresentado pela equação (2.4).
{
}
}{
)(),.....,(),(
))(
ˆ
(),(min)(
ˆ
10
tytytyy
tyfyfty
s
=
(2.4)
Note que esta definição mostra que
y
ˆ
é a melhor posição até então encontrada por todas
as partículas no enxame de tamanho S.
O algoritmo PSO faz uso de duas seqüências aleatórias independentes,
)1,0(~
1
Ur
e
)1,0(~
2
Ur
. Estas seqüências são usadas para dar a natureza estocástica ao algoritmo,
como mostrado abaixo na equação (2.5). Os valores de
1
r
e
2
r
são escalados através de
constantes
2,0
21
> cc
. Estas constantes são chamadas de coeficientes de aceleração, e
exercem influência no tamanho máximo do passo que uma partícula pode dar em uma única
iteração. A velocidade que atualiza o passo é especificada separadamente para cada
dimensão
nj ..1
, de forma que
ji
v
,
denota a dimensão
j
do vetor da velocidade
associado com a partícula
i
. A atualização de velocidade é dada pela seguinte equação:
)]()(
ˆ
)[(
)]()()[()()1(
,,22
,,,11,,
txtytrc
txtytrctvtv
jijj
jijijjiji
+
+
=+
(2.5)
Na definição da equação da atualização de velocidade, a constante
2
c
regula de
uma forma clara o tamanho máximo do passo na direção da melhor partícula global, e a
constante
1
c
regula o tamanho do passo na direção da melhor posição individual daquela
partícula. O valor de
ji
v
,
é mantido dentro do intervalo de
],[
maxmax
vv
, reduzindo a
probabilidade de que uma partícula pode sair fora do espaço de busca. Se o espaço de busca
for definido pelo intervalo
],[
maxmax
xx
, então o valor de
max
v
é calculado da seguinte
forma [27]:
ma
x
max
* xkv =
, onde 0.11.0
k (2.6)
A posição de cada partícula é atualizada usando o seu novo vetor de velocidade:
)1()()1(
+
+
=
+ tvtxtx
iii
(2.7)
O algoritmo consiste em aplicação repetida das equações de atualização acima
apresentadas. A Figura 2.6 contém o pseudocódigo do algoritmo de PSO básico.
14
Figura 2.6 - O Pseudocódigo do algoritmo de PSO básico.
A inicialização mencionada no primeiro passo do algoritmo consiste do seguinte:
1. inicialize cada coordenada
ji
x
,
com um valor aleatório do intervalo
],[
maxmax
xx
,
para todo o
si ..1
e
nj ..1
. Isto distribui as posições iniciais das partículas ao
longo do espaço de busca. Deve selecionar um bom algoritmo de distribuição aleatória para
obter uma distribuição uniforme no espaço de busca.
2. inicialize cada
ji
v
,
com um valor extraído do intervalo
],[
maxmax
vv
, para todo o
si ..1
e
nj ..1
. Alternativamente, as velocidades das partículas poderão ser
inicializadas com 0 (zero), desde que as posições inicias sejam inicializadas de uma forma
aleatória.
A condição de parada mencionado no algoritmo (Figura 2.6) depende do tipo de
problema a ser resolvido. Normalmente o algoritmo é executado para um número fixo e
pré-determinado de iterações (um número fixo de avaliação de função) ou até alcançar
um valor específico de erro. É importante perceber que o termo de velocidade modela a
taxa de mudança dentro da posição da partícula. As mudanças induzidas pela equação de
atualização de velocidade (2.5) representam aceleração, o que explica por que as constantes
21
, cc
são chamados de coeficientes de aceleração.
Uma descrição breve de como o algoritmo trabalha é dada da seguinte forma:
Inicialmente, uma partícula qualquer é identificada como sendo a melhor partícula no
grupo, baseado na sua aptidão usando a função objetiva. Então, todas as partículas serão
Criar e inicializar:
i – particula atual;
S – PSO de n-dimensões :
inicio
repita:
para cada partícula i = [1..S]
se f(S.x
i
) < f(S. y
i
)
então S. y
i
= S.x
i
se f(S.y
i
) < f(S.
y
ˆ
)
então S.
y
ˆ
= S. y
i
fimPara
Atualize S usando as equações (2.5 e 2.6)
até a condição da parada seja Verdadeira
fim
15
aceleradas na direção desta partícula, e ao mesmo tempo na direção das próprias melhores
posições previamente encontradas. Ocasionalmente as partículas exploram o espaço de
busca ao redor da atual melhor partícula. Desta forma, todas as partículas terão a
oportunidade para mudar a sua direção e buscar uma nova 'melhor' partícula. Considerando
que a maioria das funções têm alguma forma de continuidade, as chances são boas de
encontrar as melhores soluções no espaço que cerca a melhor partícula. Aproximação das
partículas vindo de diferentes direções no espaço de busca no sentido da melhor solução
aumenta as chances de descobrir as melhores soluções que estão na área vizinha da melhor
partícula.
2.4.2 O Comportamento do PSO
Foram sugeridas muitas interpretações a respeito do funcionamento e o comportamento do
PSO. Kennedy, na sua investigação fortaleceu a visão sócia-biológica do PSO, realizando
experiências para investigar as funções dos diferentes componentes da equação de
atualização da velocidade [28]. A tarefa de treinar uma rede neural foi usada para comparar
o desempenho dos diferentes modelos. Kennedy fez uso do modelo de lbest (veja a seção
sobre lbest para uma descrição completa deste modelo), em lugar do modelo gbest.
Para isto desenvolveu duas equações de atualização de velocidade, a primeira,
usando apenas a experiência da própria partícula, chamado de componente de cognição, e a
segunda, utilizando apenas a interação entre as partículas e chamou de componente social.
Considere a equação de atualização de velocidade (2.5) apresentada anteriormente:
)]()(
ˆ
)[(
)]()()[()()1(
,,22
,,,11,,
txtytrc
txtytrctvtv
jijj
jijijjiji
+
+=+
(2.8)
O termo
)]()()[(
,,,11
txtytrc
jijij
é associado apenas com a cognição, onde
leva-se em consideração apenas as experiências da própria partícula. Se um PSO for
construído com o uso de apenas o componente cognitivo, a equação de atualização de
velocidade se tornará :
)]()()[()()1(
,,,11,,
txtytrctvtv
jijijjiji
+=+
(2.9)
Kennedy constatou que o desempenho deste modelo de “apenas com cognição” era
inferior ao desempenho do PSO original. Uma das razões de mal desempenho é atribuído a
ausência total da interação entre as diferentes partículas.
O terceiro termo na equação de atualização de velocidade,
)]()(
ˆ
)[(
,,22
txtytrc
jijj
, representa a interação social entre as partículas. Uma versão do
PSO com apenas o componente social pode ser construído usando a seguinte equação de
atualização de velocidade:
)]()(
ˆ
)[()()1(
,,22,,
txtytrctvtv
jijjjiji
+=+
(2.10)
16
Foi observado que nos problemas específicos que Kennedy investigou, o desempenho
deste modelo era superior ao PSO original.
Em resumo, o termo da atualização da velocidade do PSO consiste de dois
componentes, o componente de cognição e o componente social. Atualmente, pouco se
sabe sobre a importância relativa deles, embora resultados iniciais indiquem que o
componente social é mais importante na maioria dos problemas estudados. Esta interação
social entre as partículas desenvolve a cooperação entre elas para resolução dos problemas.
2.4.3 Considerações sobre a semelhança entre PSO e EAs
Há uma relação clara do PSO com os algoritmos evolutivos (EAs). Para alguns autores, o
PSO mantém uma população de indivíduos que representam soluções potenciais, uma das
características encontradas em todos os EAs. Se as melhores posições individuais (
i
y
) são
tratadas como parte da população, então há uma forma clara de seleção fraca [29]. Em
alguns algoritmos de ES, as descendentes (offspring), competem com os pais, substituindo-
os se forem mais adaptados. A equação (2.3) se assemelha a este mecanismo, com a
diferença que, a melhor posição individual (o pai) só pode ser substituída por sua própria
posição atual (descendente), desde que a posição atual seja mais adaptada. Portanto, parece
ser alguma forma fraca de seleção presente no PSO.
A equação de atualização de velocidade se assemelha ao operador de cruzamento
aritmético (crossover) encontrado nos AGs. Normalmente, o cruzamento aritmético produz
dois descendentes que são resultados da mistura de dois pais envolvidos no cruzamento. A
equação de atualização de velocidade no PSO, sem o termo
)(
,
tv
ji
(veja a equação 2.5),
pode ser interpretado como uma forma de cruzamento aritmético envolvendo dois pais,
devolvendo apenas um único descendente. Alternativamente, a equação de atualização de
velocidade, sem o termo
)(
,
tv
ji
pode ser visto como operador de mutação.
A melhor forma de analisar o termo
)(
,
tv
ji
é de não pensar em cada iteração
como sendo um processo de substituição de população por uma nova (mecanismo de morte
e nascimento), mas como um processo de adaptação continuo [30]. Deste modo os valores
de
i
x
não são substituídos, mas continuamente adaptados usando os vetores
i
v
de
velocidade. Isto torna a diferença entre o PSO e os outros EAs mais clara: o PSO mantém
informação relativa a posição e velocidade (mudanças em posição); em contraste, EAs
tradicionais só mantêm informação relativa a posição.
Apesar de parecer que há algum grau de semelhança entre o PSO e a maioria do
outro EAs, o PSO tem algumas características que atualmente não estão presentes em
nenhum outro EAs, especialmente o fato de que o PSO modela a velocidade das partículas
como também as suas posições.
2.4.4 Origens e Terminologia
O movimento das partículas foi descrito como sendo "vôo" no espaço de n-dimensionais
[26]. Esta terminologia faz parte das experiências realizadas em simulações de vôo de
pássaro, e que conduziu o desenvolvimento do algoritmo original do PSO [28], como foi
citado pelos autores do PSO, Kennedy e Eberhart.
17
O termo enxame (swarm) era usado por Millonas para descrever modelos de vidas
artificiais [31]. Para ele o termo de inteligência enxame é caracterizado pelas seguintes
propriedades :
Proximidade: necessita de espaço simples e pequeno tempo computacional.
Qualidade: Respondendo a fatores de qualidade no ambiente.
Resposta diversa: Não entrando em um subconjunto restrito de soluções.
Estabilidade: Podendo manter modos de comportamentos quando os ambientes mudam.
Adaptabilidade: Podendo mudar modos de comportamentos quando a adaptação for
necessária.
Eberhart et al. [26] apresentou argumentos que demostraram que as partículas do PSO
possuem estas propriedades. Também foi justificado o uso do termo “partícula". Para o
autor, usar população poderá dar a sensação de que os membros da população precisam de
massa e volume, talvez chamar de “pontos" seria o mais preciso. Porém, os conceitos de
velocidade e aceleração são mais compatíveis com o termo partícula. Outros campos de
pesquisa em computação, como a computação gráfica, também usam o termo "sistemas de
partícula” para descrever os modelos usados para fazer efeitos especais e animação [32].
2.4.5 Modelo do Melhor Global (gbest)
O modelo gbest permite uma taxa mais rápida de convergência [26] às custas de robustez.
Este modelo mantém só uma única "melhor solução", chamada de melhor partícula global,
entre todas as partículas no enxame. Esta partícula age como um atrator, puxando todas as
partículas para ela. Eventualmente, todas as partículas convergirão a esta posição. Caso não
seja atualizada regularmente, o enxame poderá convergir prematuramente. As equações de
atualização para
y
ˆ
e
i
v
são as mesmas apresentadas anteriormente:
{}
}{
)(),.....,(),(
))(
ˆ
(),(min)(
ˆ
10
tytytyy
tyfyfty
s
=
(2.11)
)]()(
ˆ
)[(
)]()()[()()1(
,,22
,,,11,,
txtytrc
txtytrctvtv
jijj
jijijjiji
+
+
=+
(2.12)
Note que
y
ˆ
é chamado de a melhor posição global, e pertence à partícula chamada de a
melhor partícula global.
2.4.6 O Modelo do Melhor Local ( Lbest )
O modelo de lbest tenta prevenir convergência prematura mantendo múltiplos atratores.
Um subconjunto de partículas é definido para cada partícula de qual é selecionada a
melhor partícula local,
i
y
ˆ
. O símbolo
i
y
ˆ
é chamado de a melhor posição local ou de
melhor na vizinhança (the local best position or the neighbourhood best).
18
Assumindo que os índices das partículas estão ao redor do espaço S, as equações de
atualização de lbest para um bairro de tamanho l são os seguintes:
{
}
)(),....,(
),(),(),.....,(),(
1
11
tyty
tytytytyN
lii
iililii
++
+
=
(2.13)
{
}
iiii
NaaftyfNty =++ ,)(min))1(
ˆ
()1(
ˆ
(2.14)
)]()(
ˆ
)[(
)]()()[()()1(
,,22
,,,11,,
txtytrc
txtytrctvtv
jijj
jijijjiji
+
+
=+
(2.15)
Note que as partículas selecionadas estão no subconjunto
i
N
e não tem nenhuma relação
com as outras partículas dentro do domínio do espaço de busca; a seleção é baseada
unicamente no índice da partícula. Isto é feito por duas principais razões: o custo
computacional é mais baixo, por não necessitar de agrupamento, e isto ajuda também a
promover a expansão de informação relativa às boas soluções para todas as partículas,
embora trata-se de busca local.
Finalmente, pode observar que o modelo de gbest é de fato um caso especial do
modelo de lbest, quando o l = s, ou seja, quando o conjunto selecionado engloba todo o
enxame [26].
2.4.7 A Versão Binária do PSO
Uma versão binária do PSO foi introduzida pelo Kennedy e Eberhart [33]. Esta versão é útil
para fazer comparações entre AG’s codificados numa forma binária e o PSO, bem como
representar problemas que são por natureza binários. Uma aplicação típica é representar o
gráfico de conexão de uma rede neural onde '1' representa uma conexão e '0' representa a
ausência de conexão entre dois nodos na rede.
A versão binária restringe os valores de componente de
i
x
e
i
y
para serem
elementos do intervalo
}1,0{U
. Porém, não há nenhuma restrição no valor da velocidade,
i
v
, de uma partícula. Entretanto, quando a velocidade é usada para atualizar as posições,
ela deve ser colocada dentro do intervalo de [0.0,1.0] e tratado como probabilidade. Isto
pode ser obtido utilizando a função sigmoidal, definida por:
)exp(1
1
)(
x
xsig
+
=
(2.16)
Então, a equação de atualização para o termo de velocidade usado no enxame binário é
dada por :
)]()(
ˆ
)[(
)]()()[()()1(
,,22
,,,11,,
txtytrc
txtytrctvtv
jijj
jijijjiji
+
+
=
+
(2.17)
19
Note que esta equação de atualização de velocidade é similar a que foi usada no PSO
original. Em vez da equação de atualização de posição habitual (por exemplo equação 2.8),
uma nova equação de atualização probabilística é usada:
(
)
()
3, ,
,
3, ,
0((1))
(1)
1((1))
jij
ij
jij
se r t sig v t
xt
se r t sig v t
≥+
+=
<
+
(2.18)
Onde
() ( )
1,0~
,3
Utr
j
é um variante aleatório uniforme (selecionado a partir do intervalo
[0.0,1.0]). Ao analisar a equação (2.18), pode-se observar que o valor de
ji
x
,
permanecerá 0 (zero) se
0)(
,
=
ji
vsig
Isto acontecerá quando
ji
v
,
é
aproximadamente menor do que -10. Igualmente, a função de sigmoid saturará quando
ji
v
,
> 10. Para prevenir isto, é recomendado que o valor de
ji
v
,
seja mantido dentro do
intervalo de
4±
[30]. O artigo original que descreve o PSO binário recomenda um limiar
de
max
v
ligeiramente maior de
6
±
, resultando em uma probabilidade de
aproximadamente 0.0025 [33].
Esta versão foi melhorada com a utilização de novos conceitos [34]. Estes conceitos
foram desenvolvidos com sendo extensões do PSO que serão apresentados mais adiante.
2.5 As Principais Propostas de Melhorias do PSO
Foram propostas várias melhorias para a otimização por Enxame de Partícula. Serão
apresentadas as mais importantes melhorias agrupadas de acordo com seus objetivos.
2.5.1 Melhorias na Taxa de Convergência
Foram propostas várias técnicas para melhorar a taxa de convergência do PSO. Estas
propostas normalmente envolvem mudanças na equação da atualização do PSO, sem mudar
a estrutura do próprio algoritmo. Isto normalmente resulta em otimização local de melhor
desempenho e às vezes com uma diminuição de desempenho em funções com múltiplos
mínimos locais.
- Peso da inércia (Inertia weight) :
A introdução do peso de inércia por Shi e Eberhart foi uma das primeiras modificações no
algoritmo do PSO original objetivando melhorar a sua taxa de convergência [66]. O peso de
inércia é um fator escalar associado com a velocidade durante o passo de tempo anterior,
resultando na seguinte nova equação de atualização de velocidade :
)]()(
ˆ
)[(
)]()()[()()1(
,,22
,,,11,,
txtytrc
txtytrctwvtv
jijj
jijijjiji
+
+=+
(2.19)
A equação da atualização da velocidade do PSO original pode ser obtida fixando w = 1. Shi
20
e Eberhart investigaram o efeito de valores de w na faixa de [0, 1.4], como também
variando w com o passar do tempo [66]. Os resultados obtidos demonstram que escolhendo
]2.1,8.0[w
resulta em convergência mais rápida, mas com o valor de w maior do que (>
1.2) resulta em mais fracassos para convergir.
- Coeficiente de enxugamento (Constriction Factor)
Recentemente num trabalho feito por Clerc [27,38] foi demonstrado que o coeficiente (ou
fator) de enxugamento pode ajudar assegurar a convergência. O modelo de coeficiente de
enxugamento descreve, entre outras coisas, um modo de escolher os valores de w, c
1
e c
2
de
forma que a convergência seja assegurada.
A Escolha correta destes valores, elimina a necessidade de ajustar os valores
de
ji
v
,
à escala de
],[
maxmax
vv
. A equação da atualização usando este coeficiente como
foi proposta em [27,38], é apresentada na equação (2.20):
(
)
)]()(
ˆ
)[()]()()[()()1(
,,22,,,11,,
txtytrctxtytrctvχtv
jijjjijijjiji
+
+=+
, (2.20)
Onde
ϕϕϕ
42
2
2
=χ ,
e 4,
21
>+=
ϕ
ϕ
cc .
Eberhart e Shi compararam o desempenho de um enxame usando o ajuste com o
max
v
com outro enxame, onde foi utilizado apenas o coeficiente de enxugamento [43].
Seus resultados indicaram que o uso do coeficiente de enxugamento (sem ajustar a
velocidade) resulta geralmente em uma taxa melhor de convergência em algumas das
funções do teste, entretanto, o PSO com o coeficiente de enxugamento não alcançou a
convergência esperada com o número de iterações pré-determinado. O problema, de acordo
com Eberhart e Shi, é que as partículas vagueiam demasiadamente longe da região desejada
do espaço da busca. Para reduzir este efeito decidiram aplicar também o ajuste no próprio
coeficiente de enxugamento, ajustando o parâmetro do
max
v
igual ao
max
x
,o tamanho do
espaço da busca. Isto conduziu melhora no desempenho do algoritmo para quase todas as
funções usadas durante os testes.
Para mostrar o funcionamento e aplicação do PSO, no próximo capítulo será
apresentada uma aplicação do PSO para otimizar as funções de pertinência num controle
fuzzy.
21
Capítulo 3
Uma aplicação: O Ajuste Automático das
Funções de Pertinência Fuzzy Usando
PSO
Neste capítulo será descrita uma aplicação que foi desenvolvida com objetivo de apresentar
uma estratégia para o ajuste automático das funções de pertinência usando PSO. E com o
algoritmo PSO pode-se fazer um ajuste automático das funções de pertinência melhorando
significativamente o controle, minimizando o espaço percorrido pelo veículo até estacionar
e auxiliando os estudantes no aprendizado de controle difuso.
3.1 Introdução
A Teoria dos Conjuntos Difusos foi proposta por Lofti A. Zadeh em um artigo publicado
em 1965 [87].
Recentemente, a Lógica Difusa tem sido utilizada no controle de processos
industriais, equipamentos eletrônicos, de entretenimento, carros, sistemas de diagnose e,
até mesmo, para o controle de eletrodomésticos.
Os sistemas difusos podem ser considerados como sendo sistemas baseados em
conhecimento, incorporando conhecimento humano na Base de Conhecimento deles através
de Regras Difusas e Funções de Pertinência. A definição destas regras difusas e as funções
de pertinência geralmente são feitas através de decisões subjetivas, influenciando de uma
forma direta no desempenho do sistema. Na maioria das aplicações existentes, as regras
difusas são geradas por peritos na área, especialmente para problemas de controle com
poucas entradas (variáveis). Com um número crescente de variáveis, o número de regras
aumenta exponencialmente, o que torna mais difícil para peritos definirem conjunto de
regras que resultam num sistema de bom desempenho.
Neste estudo de caso foi utilizado um ambiente computacional para o ensino da
lógica difusa [88]. Este programa computacional foi desenvolvido para o treinamento de
estudantes de Engenharia na Teoria de Controle Difuso. O seu principal objetivo é
estacionar um veículo em uma garagem, partindo de qualquer posição dentro de uma área
pré-determinada.
Com este pacote, os estudantes dispõem de um recurso que exemplifica uma
situação muito conhecida da vida real. Entretanto, este pacote apresenta uma séria
desvantagem: o tipo de aprendizagem. Neste caso, os estudantes, para conseguir uma ação
22
de controle apropriada, utilizam o método da “tentativa-e-erro” na definição das regras e
parâmetros para cada uma das funções de pertinência.
Neste trabalho então desenvolveu-se um módulo de treinamento PSO para um
controle previamente criado. O algoritmo PSO será utilizado para encontrar os melhores
parâmetros das funções de pertinência. A concatenação destes parâmetros constitui as
partículas do enxame, que são avaliadas de acordo com o número de iterações necessárias
para que o veículo estacionar de acordo com o ajuste feito por cada grupo de partículas.
Nas próximas seções será descrito o módulo de treinamento do PSO apresentando o
algoritmo bem, como as telas de interface com o usuário. Em seguida serão mostrados os
testes realizados com controles difusos que tiveram suas funções de pertinência ajustadas e
finalmente, as conclusões serão apresentadas.
3.2 O Pacote Computacional Original
O pacote computacional tem como principal objetivo estacionar um veículo em uma
garagem, partindo de qualquer ponto inicial dentro de uma área pré-definida. Para tal, o
usuário deve projetar um conjunto de regras de controle difuso e também as funções de
pertinência que controlarão a trajetória do veículo. Para definir tais regras, o programa
oferece diversos menus com janelas e rotinas numéricas. Os processos de fuzzificação e de
defuzzificação das variáveis são feitos pelo programa sem a necessidade de interferência do
usuário [88].
A Figura 3.1 mostra a tela inicial para representar o problema do estacionamento de
um veículo. Nesta janela aparecem a posição da garagem, os limites existentes (as paredes)
e os valores das coordenados limites. Também são apresentadas as variáveis de entrada
(x, y) medidas a partir do ponto central da parte traseira do veículo e finalmente, o ângulo
do carro (φ).
Figura 3.1 - Tela básica do programa.
23
Para a realização de estacionamento do veículo, algumas condições são estabelecidas,
e pertencem dois tipos: ligadas ao pacote computacional e ligadas a lógicas. As condições
ligadas ao pacote representam as limitações físicas. São elas [88]:
limites das variáveis de entrada:
- posição (x, y): 0 < x < 32 e 0 < y < 20 (m) (limitações do estacionamento)
- ângulo do veículo: -90°≤ φ 270°
- sentido do veículo: para frente ou para trás
limite da variável de saída:
- ângulo da roda do veículo: -30°≤ θ 30° (limitação do modelo real)
Com relação às limitações lógicas, elas podem variar de acordo com os tipos das
estratégias empregadas. Alguns exemplos destas estratégias podem ser, entre outras:
minimização do número de mudanças de sentido do veículo (para frente ou para
trás);
minimização do espaço percorrido pelo veículo até a garagem;
a restrição de partes da garagem para o estacionamento.
Para o movimento do veículo são estabelecidas as seguintes condições: aceleração
igual a 1 (m/s
2
) e velocidade máxima de 1 (m/s). Estes dois valores são utilizados como
referência para todos os movimentos.
Para inverter o sentido do movimento do veículo existem três possibilidades, que
são:
a) Choque contra a parede: quando o sistema verifica que o veículo irá se chocar
contra a parede no próximo passo;
b) Regra que força a inversão: quando a ordem de inverter for utilizada como
conseqüência de uma regra; ou,
c) Falta de saídas: quando nenhuma regra for utilizada pelo controle, ou seja, se a
saída for nula.
Para obter mais informações sobre este pacote e também como é feita a criação de um
controle difuso veja [88].
3.3 Simulações
Selecionada a opção simulação do menu, o usuário pode definir uma posição inicial
(Coordenada X, Y e Ângulo) para o veículo. A Figura 3.2 mostra o deslocamento do
veículo utilizando o conjunto composto por 356 regras para o deslocamento.
No exemplo de simulação da Figura 3.2, pode-se verificar o rastro deixado pelo
veículo durante sua trajetória. Cada ponto significa uma iteração (ou seja, uma passagem
completa no conjunto de regras). No exemplo, mostrado na Figura 3.2, produziu-se 256
iterações.
24
Figura 3.2 - Exemplos de simulação do pacote computacional.
O pacote computacional dispõe de recursos, que permitem variar o tamanho do
carro entre: pequeno, médio ou grande. Esta variação cria a oportunidade de verificar o
comportamento do sistema de controle para um equipamento que tenha alteradas algumas
de suas grandezas. O pacote computacional possui também três métodos de defuzzificação,
que são: o centróide, média das áreas e média das máximas [89].
3.4 Descrição do Módulo Treinamento PSO
De forma geral, a integração dos algoritmo PSO com o controle difuso foi implementada da
seguinte maneira:
A subpopulação de partículas do enxame foi definido como sendo a concatenação
dos valores de ajuste das funções de pertinência.
Os parâmetros são os centros e as larguras de cada conjunto difuso. Estes
parâmetros compõem as partículas.
De uma gama inicial de valores de parâmetros possíveis, o sistema difuso é
executado para determinar o quanto ele funciona bem.
Essas informações são usadas para determinar o ajuste de cada subpopulação
(adaptabilidade) e estabelecer a evolução do enxame.
O ciclo é repetido até que se complete o número de iterações do enxame definido
pelo usuário. A cada iteração é encontrado o melhor conjunto de valores para os parâmetros
das funções de pertinência.
Para o treinamento do PSO podem-se definir as posições iniciais que o veículo irá
partir para avaliar cada subpopulação do enxame que representa o conjunto de valores para
os parâmetros das funções de pertinência, buscando assim uma otimização do controle não
somente sobre uma única trajetória, mas sim de todas as posições iniciais possíveis de se
partir o veículo para que se ocorra o estacionamento.
25
Através de utilização do menu “Opção Treinamento PSO”, o usuário faz o ajuste
dos parâmetros para o treinamento, além de definir os parâmetros (população, iteração,
velocidade máxima), estabelecer o valor de ajuste para as funções de pertinência que é o
quanto a função deslocará para esquerda ou direita e quanto ela se encolherá ou expandirá.
Após iniciar o treinamento, pode-se acompanhar o treinamento através das informações
exibidas por janelas. Concluídas todas as iterações, tem-se o melhor resultado encontrado.
Após o ajuste, as funções de pertinência são redefinidas segundo os parâmetros do melhor
resultado encontrado. O sistema fará o controle com base nestas novas funções.
3.5 Componentes do Algoritmo PSO
Serão apresentados nesta seção os mecanismos empregados para gerar ótimas funções de
pertinência no controlador difuso usando o algoritmo PSO.
Cada função de pertinência do controlador difuso implementado é definida usando
quatro parâmetros. São eles: IE (inferior esquerdo), ID (inferior direito), SE (superior
esquerdo) e SD (superior direito).
Figura 3.3 – Parâmetros das funções de pertinência.
Na Figura 3.3 são mostrados os parâmetros da função de pertinência PE da variável
x. Para está função o valor de IE é igual a 30, ID igual a 160, SE igual a 80 e SD igual a
110.
Para ajustar as funções de pertinência foram definidas as seguintes equações:
IE = (IE + k
i
) – w
i
ID = (ID + k
i
) + w
i
26
SE = (SE + k
i
)
SD = (SD + k
i
)
Onde, k
i
e w
i
são coeficientes de ajustes. O k
i
faz cada função de pertinência mover-se para
a direita ou para esquerda sem perder sua forma original. O coeficiente w
i
faz com que a
função de pertinência encolha ou se expanda. Estes coeficientes assumem valores inteiros
negativos ou positivos de acordo com o valor de ajuste definido pelo usuário.
A Figura 3.4 mostra um exemplo de ajuste com os valores de IE igual a 30, ID igual
a 160, SE igual a 80 e SD igual a 110. Sendo k = -8 e w = 5 a função de pertinência terá o
seguinte ajuste:
IE’ = ( 30 + (-8)) – 3 = 19
ID’ = (160 + (-8)) + 3 = 155
SE’ = ( 80 + (-8)) = 72
SD’ = (110 + (-8)) = 102
Figura 3.4 – Exemplo de ajuste de uma função de pertinência.
O algoritmo PSO será utilizado para achar os ótimos valores das funções de
pertinência, segundo a estratégia escolhida, os pontos iniciais utilizados e os coeficientes de
ajustes (k
i
e w
i
).
27
3.5.1 Representação das Soluções usando PSO
O controle difuso normalmente está composto por muitas funções. Assim, para este tipo de
problema será necessário o uso de subpopulação. Cada subpopulação representa uma
possível solução.
Com relação ao tamanho da subpopulação, ou seja, quantos partículas cada
subpopulação irá ter, isso dependerá do número de funções de pertinência definidas pelo
usuário. Para um controle difuso com um grupo de 18 funções de pertinência, por exemplo,
necessita ter uma subpopulação com 18 partículas de 2 (duas) dimensões (x,y) . Isso porque
para cada função deve ter dois coeficientes de ajuste: k
i
e w
i
. A subpopulação então é
representada por um vetor de 18 posições de partículas com 2 posições cada.
Então, é necessário ter a seguinte estrutura:
sp
1
= { p
11
,p
12
,p
13
...p
1m
}
sp
2
= { p
21
,p
22
,p
23
...p
2m
}
.....
sp
n
= { p
n1
,p
n2
,p
n3
...p
nm
}
Onde:
p: uma partícula de 2 dimensões (k
i
, w
i
.)
n : numero de população(enxame).
m : número de partículas.
3.5.2 Função de Avaliação e o Critério de Parada
A função de avaliação tem o papel de avaliar o nível de aptidão (adaptação) de cada
subpopulação gerada pelo algoritmo. Para o problema em questão, o objetivo é minimizar a
trajetória do veículo até estacionar. No caso a função de avaliação é dada por:
I
f
+
=
1
1
(3.1)
onde I é o total de iterações até estacionar com base no ajuste feito por cada subpopulação
nas função de pertinência.
De acordo com está função, a aptidão de cada subpopulação será inversamente
proporcional ao número de iterações.
Como critério de parada foi utilizado o número máximo de iterações.
3.5.3 Apresentação do Algoritmo
Seja, G o número de iterações do PSO, S o enxame, N o número de subpopulações, Vmax
a velocidade máxima e VA o valor de ajuste permitido para as funções de pertinência. O
algoritmo abaixo apresentado gere como saída o vetor gbest com a melhor subpopulação
representando a melhor solução.
28
Passo 1. Gere subpopulações inicial SP com partículas no intervalo [- VA, +VA].
Passo 2. Gere velocidade inicial Vx e Vy com valores aleatórios.
Passo 3. Se completou o número de repetição G vá para Passo 7.
Passo 4. Avalie a aptidão da subpopulação SP.
Passo 5. Atualize S usando as equações (2.5 e 2.7)
Passo 6. Vá para Passo 3.
Passo 7. Fim.
3.6 Testes
Nesta seção serão apresentados os testes realizados com controles difusos que tiveram suas
funções de pertinência ajustadas usando PSO. Estes testes demonstram a eficiência de tais
mecanismos, permitindo uma avaliação objetiva dos resultados encontrados.
As funções de pertinência originais são mostradas na Figura 3.5. Este controles
possuem 148 regras e 15 funções de pertinência para as variáveis de entrada x, y e ângulo
da roda.
Figura 3.5 – Funções de pertinência originais.
O treinamento deste controle foi feito a partir de três posições iniciais, conforme
mostra a Tabela 3.1 Nesta tabela tem também o número de iterações geradas pelo veículo
até estacionar utilizando as funções de pertinência originais.
29
Tabela 3.1 – Posições iniciais para o treinamento.
Posição X Y Ângulo do
Carro
Iterações sem
treinamento
1 25 120 180 330
2 160 130 -90 888
3 275 160 -40 655
A Figura 3.6 mostra o veículo em cada uma das posições iniciais.
Figura 3.6 – Posições iniciais de treinamento.
Estas posições foram escolhidas de acordo com pontos onde o veículo não
desenvolve uma boa trajetória até estacionar e, consequentemente, gerando um número
excessivo de iterações. Como já explicado no Capítulo 4, a definição de várias posições
iniciais não irá somente minimizar as trajetórias referentes a estes pontos, mas como
também para outros pontos, conseguindo assim uma minimização global de espaço
percorrido.
A Figura 3.7 mostra as trajetórias referentes a cada posição inicial.
Os parâmetros genéticos definidos para o treinamento são mostrados na Tabela 3.2.
Tabela 3.2 – Parâmetros do PSO.
Tamanho da População 14
Número de Iterações 30
Vmax 10
Os resultados gerados pelo algoritmo PSO são mostrados na Tabela 3.3 e Figura 3.8.
30
Tabela 3.3 – Iterações após o treinamento com PSO.
Posição Iterações sem
treinamento
Iterações com
treinamento
1 330 285
2 888 592
3 655 439
Total 1873 1316
Média 624,33 438,99
(a) (b)
(c)
Figura 3.7 – Simulações sem treinamento.
(a) Posição 1 - (b) Posição 2 – (c) Posição 3
Como mostrado na Tabela 3.3, obteve-se uma redução de 557 iterações (29,74%)
para o veículo estacionar partindo-se das posições inicias fixadas para o treinamento. Na
Tabela 3.4 serão apresentados resultados de simulações feitas partindo de posições iniciais
não utilizadas no treinamento.
31
(a) (b)
(c)
Figura 3.8– Simulações após treinamento genético.
Posição 1 – (b) Posição 2 – (c) Posição 3
Figura 3.9 – Funções de pertinência após o ajuste com PSO.
A Figura 3.9 mostra as funções de pertinência após o ajuste. Nota-se que as maiores
modificações ocorreram nas funções das variáveis y e ângulo da roda. O próximo exemplo
apresentará modificações significantes nas funções da variável x, uma vez que são
utilizadas mais posições iniciais no treinamento.
32
A Tabela 3.4 apresenta o resultado obtido de simulações feitas com 20 posições
escolhidas aleatoriamente para o veículo estacionar utilizando o controle original que
tiveram suas funções de pertinência ajustadas pelos PSO.
Os resultados demonstram uma redução média do número de iterações para o
veículo atingir a posição final de 18,22%. Estes valores representam uma redução global na
trajetória do veículo partindo-se de posições não utilizadas no treinamento genético. Outra
observação é que em determinadas posições o número de iterações é maior que as geradas
pelos controles originais (sem treinamento). Na posição 2 da Tabela 3.4 por exemplo, o
controle original gera 167 iterações para estacionar o veículo enquanto que o controle
treinado gera 306 iterações. Este aumento é conseqüência das modificações nas funções da
pertinência que fazem com que o veículo desenvolva uma trajetória diferente para atingir a
posição final.
Tabela 3.4 – Resultados de Simulações.
Iterações
g
eradas pelos
Controles Difusos
Posição X Y
Ângulo
do
carro
Original
Traindo
com PSO
1 1 126 182 450 445
2 6 46 132 167 306
3 8 41 190 1000 1000
4 15 70 -90 318 313
5 70 95 -6 263 257
6 74 69 -70 453 450
7 76 193 232 605 363
8 88 46 44 283 289
9 115 120 240 463 289
10 131 140 -72 457 512
11 141 69 -28 342 225
12 154 166 -80 863 950
13 160 135 268 1101 445
14 217 66 -50 684 506
15 228 194 -48 830 476
16 246 169 154 312 310
17 250 180 -40 739 489
18 265 170 -40 672 483
19 300 124 258 317 308
20 305 156 -40 521 449
Total 10840 8865
Média 542 443,25
3.7 Considerações sobre esta aplicação
O algoritmo PSO oferece vantagens distintas de otimização das funções de
pertinência resultando em uma pesquisa global, reduzindo as chances de terminarem em um
33
mínimo local, pois utiliza vários conjuntos de soluções simultaneamente. A lógica difusa
contribuiu com a função de avaliação, estágio do algoritmo PSO onde o ajuste é
determinado.
Este trabalho é também um exemplo de integração de sistemas difusos com
algoritmo PSO, constituindo assim um sistema híbrido. Nesta integração mostrou-se que
quando se tem o domínio do problema, este pode ser explorado pelo algoritmo PSO
conduzindo a um desempenho melhor do controlador difuso.
Os resultados obtidos foram bons e consistentes e comprovam os benefícios
visualizados e descritos acima.
O desenvolvimento desta aplicação permitiu também maior domínio sobre o
algoritmo PSO e ajudou no estudo sobre o seu comportamento que será apresentado no
próximo capítulo.
34
Capítulo 4
Um novo algoritmo: Algoritmo Híbrido de
Otimização por Enxame de Partícula com
Mutação – HPSOM
Este capítulo inicia-se com uma breve analise informal de comportamento do algoritmo
PSO padrão e seu desempenho. Em seguida é apresentado um novo algoritmo chamado de
Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que
combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão
apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM
usando funções unimodal e multimodal.
4.1 Introdução
O desempenho do algoritmo PSO foi investigado em diversos trabalhos, desde o seu
surgimento em ([10,11]). O trabalho apresentado na referência [62] descreve a complexa
tarefa da seleção dos parâmetros no PSO. Uma comparação formal entre PSO e o
Algoritmo Genético padrão foi realizada e apresentada na referencia [40], onde o autor
apontou que o PSO possui um bom desempenho nas iterações iniciais, mas apresenta
problemas de convergência quando se aproxima da solução ótima.
O comportamento do PSO no modelo global (gbest) apresenta alguns aspectos
importantes relacionados com a atualização da sua velocidade. Se a posição atual de uma
partícula coincidir com a melhor posição global, a partícula mover-se-á afastando deste
ponto somente se o seu peso de inércia (w) e a sua velocidade anterior forem diferentes de
zero. Se as velocidades anteriores das partículas forem muito próximas de zero, todas as
partículas pararão de se mover, uma vez que já alcançam a melhor posição global. Isso
pode conduzir o algoritmo à convergência prematura. De fato, isto não garante nem mesmo
que o algoritmo convergiu em um mínimo local, apenas, significa que todas as partículas
convergiram à melhor posição encontrada até então pelo enxame. Este fenômeno é
conhecido como estagnação [54].
Algumas soluções forem propostas recentemente na literatura. A solução
apresentada em [54] está baseada em acrescentar um parâmetro novo e adicionar novas
equações ao PSO. Outro trabalho apresentado em [53], combina o algoritmo PSO com
técnicas de Algoritmos Evolutivos, introduzindo a procriação (breeding) e subpopulações
(subpopulation). As soluções apresentadas geraram modificações profundas no PSO, o que
35
torna a nova versão do PSO mais complexa ou muito parecida com os Algoritmos
Evolutivos.
Para resolver o problema anteriormente mencionado, será apresentado um novo
algoritmo híbrido chamado de algoritmo de Otimização por Enxame de Partícula Híbrido
com Mutação (HPSOM), que combine a idéia do enxame de partícula com os conceitos de
Algoritmo Genéticos. O modelo HPSOM combina a tradicional velocidade e regras de
atualização de posição do algoritmo PSO com o conceito da mutação numérica dos AGs.
O HPSOM é testado e comparado com o PSO padrão usando funções unimodal e
funções multimodal. Os resultados obtidos demonstram que o HPSOM tem um grande
potencial para alcançar convergência mais rapidamente e achar a melhor solução. Esta
solução resolverá o problema de estagnação sem criar qualquer modificação nas equações
de PSO e seus parâmetros.
A próxima seção apresenta a estrutura do algoritmo HPSOM. Seção 4.3 descreve os
testes e apresenta os resultados experimentais e finalmente as conclusões serão
apresentadas.
4.2 O Algoritmo HPSOM
O algoritmo Enxame de Partícula Híbrido com Mutação (HPSOM) incorpora o processo de
mutação geralmente usado no AGs no PSO. Este processo vai permitir que as partículas
possam escapar de um ponto ótimo local e realizar buscas em diferentes área no espaço de
busca. Este processo inicia pela escolha aleatória de partículas no enxame e mover para
uma nova posição diferente dentro do espaço de busca. O processo da mutação utilizado é
dado pela seguinte equação:
ω
+
=
)1*]([])[( kpkpmut
(4.1)
Onde o p[k ] é a partícula escolhida aleatoriamente do enxame e
ω
é obtido também de
uma forma aleatória dentro da seguinte escala:
[
]
)(*1.0,0
minmax
xx
, representando 0.1 vez
o comprimento do espaço da busca . A Figura 4.1 lista o pseudocódigo do algoritmo
HPSOM.
Figura 4.1 - o pseudocódigo do algoritmo HPSOM.
inicio
Criar e inicializar :
Enquanto ( condição da parada seja falso)
inicio
avaliar
atualizar velocidade e posição
mutação
fim
fim
3
6
4.3 Testes e experimento
Como o objetivo de estudo de desempenho do algoritmo HPSMO e a comparação com o
algoritmo original PSO, forem realizados testes usando quatro funções evolvendo
problemas de minimização. As primeiras duas funções são unimodal, enquanto que as
últimas duas são multimodal com muitos mínimos locais. Estas quatro funções foram
usadas em todos os outros estudos realizados sobre o PSO ([42], [53]).
A função “Spherical”: A função de Esfera generalizada é uma função muito simples e
unimodal. O seu mínimo global está localizado na x = 0, com f(x) = 0. Esta função não
tem nenhuma interação entre suas variáveis.
Spherical:
=
=
n
i
i
xxf
1
2
1
)(
(4.2)
A função “Rosenbrock”: A segunda função é a função de Rosenbrock generalizada.
Uma função unimodal, com interação significante entre suas variáveis.
Rosenbrock:
))1()(100()(
22
1
1
2
12
+=
=
+ i
n
i
ii
xxxxf
(4.3)
A função “Griewank”: Uma função multimodal com interação significante entre suas
variáveis, e seu mínimo global se encontra no x = 0, onde f(x) = 0.
Griewank:
1)(cos
4000
1
)(
1
1
2
3
+=
=
=
i
x
xxf
i
n
i
n
i
i
(4.4)
A Função “Rastrigin”: A quarta função é a função de Rastrigin generalizada. É um
exemplo típico e muito utilizado de funções não-linear e multimodal. Esta função
representa um problema com um grau de dificuldade acentuado causado por seu grande
espaço de busca e principalmente por um número grande de mínimos locais como
mostrado na Figura (4.2).
Rastrigin:
)10)2cos(10()(
1
2
4
+=
=
n
i
ii
xxxf
π
(4.5)
A Figua 4.2 da função de Rastrigin mostra que existem muitos mínimos locais organizados
como inchaços. A função tem apenas umnimo global, que ocorre no ponto [ 0 0 ] no
plano x-y, como indicado pela linha vertical, onde o valor da função é 0. Em qualquer
mínimo local à exceção de [ 0 0 ], o valor da função é maior do que 0. A função de
Rastrigin é freqüentemente usada também nos estudos sobre os algoritmos genéticos.
3
7
Figura 4.2 – A função Rastrigin em 3D
As escalas do espaço da busca e os valores iniciais usados nos experimentos são
apresentados na Tabela 4.1. Todos esses experimentos consistiram em 100 execuções. Os
parâmetros de PSO e de HPSOM foram ajustados aos valores dos coeficientes c1 = c2 =
2.0 e um peso de inércia que começa em 0.7 e diminui linearmente até chegar ao limite de
0.4. O valor da velocidade máxima (Vmax) de cada partícula foi ajustado à metade do
comprimento de espaço da busca em uma dimensão. O tamanho da população nos
experimentos foi mantida em 20 partículas a fim de manter as exigências computacionais
baixas. Note que o HPSOM tem um parâmetro adicional relacionado com a taxa da
mutação que foi ajustado a 30%.
Os experimentos das quatro funções foram feitos usando diferente dimensão (10, 20
e 30) e diferente iteração (1000, 1500 e 2000) respectivamente.
Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste.
Função Espaço de Busca Escala Inicial
f
1
100100
i
x
10050
i
x
f
2
100100
i
x
3015
i
x
f
3
600600
i
x
600300
i
x
f
4
1010
i
x
12.556.2
i
x
38
Tabela 4.2 - Resultados de média da melhor aptidão para 100 execuções (médio da
melhor aptidão
±
erro padrão)
F Dim. Iter. PSO (Padrão) HPSOM
10 1000
2.15E-037
± 2.30E-037 2.24E-096 ± 1.73E-095
f
1
- Spherical
20 1500
1.44E-028
± 9.13E-029 2.1449E-119 ± 1.6891E-118
30 2000
2.07E-014
± 2.90E-014 6.5764E-147 ± 5.6809E-146
10 1000
30.2215
± 29.6403 6.7701±0.3748
f
2
-Rosenbrock
20 1500
110.3035
± 15.2610 16.9664± 0.4855
30 2000
151.7675
± 9.5624 27.3682± 0.7146
10 1000
0.09013
±0.00362 0.00±0.00
f
3
-Griewank
20 1500
0.03031
±0.0013 0.00± 0.00
30 2000
0.0189
± 0.0586 0.00± 0.00
10 1000
4.6900
±0.3410 0.00±0.00
f
4
-Rastrigin
20 1500
24.3247
±0.6291 0.00± 0.00
30 2000
49.4664
± 0.6299 0.00± 0.00
Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f
1
39
Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f
2
Figura 4.5 - PSO versus HPSOM para a função for Griewank - f
3
40
Figura 4.6 - PSO versus HPSOM para a função Rastrigin - f
4
(a)-PSO
(b)-HPSOM
Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera
(pop = 3)- f1
41
Para ampliar o escopo da comparação, a Tabela 4.3 contém os resultados obtidos
usando o Algoritmo Genético padrão como foi apresentado no trabalho [53]. A população é
composta por 20 indivíduos (o mesmo tamanho da população dos PSO/HPSOM) e as taxas
de cruzamento e mutação estão na Tabela 4.4.
Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e
AG- (médio da melhor aptidão
±
erro padrão)
F Dim. Iter. PSO (Padrão) GA (Padrão) HPSOM
10 1000 2.15E-037± 2.30E-037 2.43E-04±1.14E-05 2.24E-096 ± 1.73E-095
f
1
- Spherical
20 1500 1.44E-028± 9.13E-029 0.00145± 6.22E-05 2.1449E-119 ± 1.6891E-118
30 2000 2.07E-014± 2.90E-014 0.00442± 1.78E-04 6.5764E-147 ± 5.6809E-146
10 1000 30.2215± 29.6403 109.810± 6.212 6.7701±0.3748
f
2
-Rosenbrock
20 1500 110.3035 ± 15.2610 146.912 ±10.951 16.9664± 0.4855
30 2000 151.7675 ± 9.5624 199.730 ±16.285 27.3682± 0.7146
10 1000 0.09013±0.00362 283.251±1.812 0.00±0.00
f
3
-Griewank
20 1500 0.03031±0.0013 611.266±3.572 0.00± 0.00
30 2000 0.0189 ± 0.0586 889.537 ± 3.939 0.00± 0.00
10 1000 4.6900±0.3410 3.1667±0.2237 0.00±0.00
f
4
-Rastrigin
20 1500 24.3247±0.6291 16.8732±0.6007 0.00± 0.00
30 2000 49.4664± 0.6299 49.3212± 1.1204 0.00± 0.00
Tabela 4.4 - As taxas de cruzamento e mutação usados pelo AG (padrão)
Função Taxa de cruzamento Taxa de mutação
f
1
0.60 0.30
f
2
0.50 0.30
f
3
0.50 0.40
f
4
0.20 0.02
4.4 Discussões dos Resultados
Como apresentado na Tabela 4.2, os testes foram realizados variando a dimensão das
funções em (10,20 e 30) e variando o número de iterações dos algoritmos para (1000,2000
e 3000) respectivamente. Os testes foram repetidos 100 vezes e os resultados dos
algoritmos PSO e HPSOM são representados pelo valor médio da aptidão da melhor
partícula encontrada e seguido pelo valor do erro padrão.
42
As Figuras 4.3 a 4.6 apresentam gráficos que correspondem aos experimentos e
mostram os comportamentos obtidos pela melhor aptidão para cada repetição de ambos os
algoritmos. Os gráficos ilustram os resultados obtidos nos teste nas funções com dimensão
de 30.
No caso dos experimentos com as funções unimodal (Esfera e Rosenbrock), o
HPSOM alcançou melhores resultados e teve sua convergência mais rápida do que o PSO.
No caso dos experimentos com as funções multimodal (Griewank e Rastrigin), o HPSOM
novamente obteve uma convergência mais rápida que o PSO, e achou o valor mínimo das
duas funções (zero).
A Figura (4.3) apresenta um gráfico que descreve o comportamento do PSO na
minimização da função de Esfera. Pode-se observar que o PSO entrou em estagnação com
iteração próxima a ~800 e mantém o mesmo resultado representado no gráfico como uma
linha reta até o fim de execução, sem que o aumento do número de iteração gere uma
melhoria nos resultados. Ao mesmo tempo, pode-se observar um comportamento não linear
no gráfico do HPSOM na direção ao mínimo global com o aumento de iteração. Como
mostrado nos gráficos da Figura (4.7) que apresentam os comportamentos dos dois
algoritmos para apenas 3 partículas e com iterações até a 100. Nestes gráficos o PSO entra
em estagnação enquanto o HPSOM continua na busca de melhor posição. Este
comportamento praticamente idêntico é observado também nos outros gráficos.
Isso leva a observação de que o HPSOM tende a varrer de uma forma mais eficiente
o espaço de busca e mostra a sua superioridade neste requisito.
A Tabela 4.3 apresenta uma outra situação com a inclusão dos resultados obtidos
pelo AG padrão [53]. Nesta situação o desempenho do AG padrão foi inferior ao PSO
padrão em todas as funções e conseqüentemente é bem abaixo do Híbrido.
Pode-se observar claramente e com bases nos resultados obtidos pelos testes
realizados e mostrados na Tabelas (4.2 e 4.3) e nas Figuras ( 4.3,4.4.3, 4.5 e 4.6), que o
HPSOM obteve melhor desempenho comparando com o PSO e AG padrão, onde o
HPSOM alcançou melhores resultados em todas as funções e chegou à uma convergência
mais rapidamente do que o PSO.
No próximo capítulo será apresentada uma aplicação de otimização de perdas
elétricas usando os dois algoritmos e vai ser possível observar entre outras coisas, o fato de
que o HPSOM apresenta um desempenho superior ao PSO.
43
Capítulo 5
Aplicação do PSO e HPSOM na Resolução
de Problema de Otimização de Perdas
Elétricas
Este capítulo apresenta um estudo sobre a aplicação dos algoritmos PSO e HPSOM em
resolução de problemas de otimização ligados ao Sistema Elétrico de Potência – SEP. Será
apresentada uma aplicação de Otimização de Perdas Elétricas usando os algoritmos PSO e
HPSOM. Os resultados alcançados pelos dois algoritmos serão comparados entre si e
também comparados com os resultados obtidos utilizando outro método matemático de
otimização [36].
5.1 Otimização de Perdas Elétricas
O objetivo desta aplicação é minimizar as Perdas Elétricas em um sistema. Logo, uma ação
do controle é indicada para a redução destas perdas. Neste trabalho a ação considerada é a
instalação do capacitor shunt. Este modelo é desenvolvido e integrado a um programa já
escrito de fluxo da carga.
O estudo é realizado em duas etapas: Primeiramente, as barras críticas nos sistemas
são identificadas usando a técnica do vetor tangente [74]. Na segunda etapa, os algoritmos
de otimização PSO e HPSOM são aplicados individualmente para calcular a quantidade
ideal de shunt a ser instalado em cada barra identificada a fim de obedecer a função
objetivo.
5.1.1 Formulação do Problema
O problema de otimização de perdas elétricas é basicamente um problema de otimização
não linear, que minimiza uma função objetivo sujeito a restrições de igualdades e
desigualdades como segue:
Minimizar
)(xf (5.1)
Sujeito a
0)( =xg
maxmin
)( hxhh
maxmin
ˆˆˆ
xxx
44
onde
)(xf : função escalar que representa o objetivo do problema, a redução de
perdas na área de interesse.
() ( , , )
loss i i SHj
jsbs
fx P V b
θ
==
(
)
2
cos sen
k j jk jk jk jk jk j
ksbl
VV G B G V
θθ
+−
sbl – conjunto de barras ligadas à j.
x
: vetor das variáveis de decisão, dado por ),,(
shjii
BVx
θ
=
i
sbus, conjunto de barras do sistema
j
sbs, conjunto de barras candidatas à ação de controle
i
V Tensão nas barras
i
θ
Ângulo nas barras
shj
B Valor da suceptância instalada nas barras.
)(xg : conjunto de equações representando o sistema de fluxo de potência
clássico.
=)(xg
cal
spq
esp
spq
cal
spqspv
esp
spqspv
QQ
PP
)()(
,(),(
que será dividido em parte ativa e reativa, da seguinte forma:
[
]
esp
spqspv
esp
spqspv
PPxg
,),(1
)( =
[
]
esp
spq
esp
spq
PQxg
)()(1
)( =
spv conjunto de barras de geração.
spq conjunto de varras de carga.
)(xh
:vetor com os limites superior e inferior de funções que precisem ter seus
limites controlados. No caso o controle será sobre a potência reativa em
spv.
minmin
spv
Qh =
maxmax
spv
Qh =
45
x
ˆ
:vetor que contêm as variáveis de decisão que precisa manter seus limites
dentro de uma faixa de operação.
T
shjspq
bVx
=
minmin
min
ˆ
T
shjspq
bVx
=
minmax
max
ˆ
I
ˆ
: Matriz que obedece ao seguinte critério: xxI
ˆ
.
ˆ
=
Logo:
x
)*2( nbsnbus+
θ
,V
nbus
sh
B
bsn
Loss
P
1
)(
1
xg
)( npqnpv+
)(
2
xg
)(npq
)(xh
)(npv
x
ˆ
)( nbsnpq+
onde
nbus número de barras do sistema
nbs número de barras candidatas para o controle
nbs´ número de barras na área de controle
npv número de barras de geração do sistema
npq número de barras de carga do sistema
5.1.2 Metodologia
Para minimizar as perdas elétricas, necessita-se de uma ação de controle. Logo, uma ação
de controle indicada é a instalação de capacitância shunt. Esta ação será utilizada nesse
trabalho.
O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para
obedecer à função objetivo (redução de perdas elétricas) é um problema de programação
não linear sujeito a uma série de restrições.
4
6
Os algoritmos PSO e HPSOM foram desenvolvidos e integrados em um programa
já escrito de fluxo da carga. Os resultados alcançados por ambos serão comparados entre si
e também serão comprados com os resultados obtidos pela aplicação do método preditor-
corretor de pontos interiores (MPC) desenvolvido num outro trabalho [36]. Para cumprir a
meta estabelecida acima, a seguinte metodologia será adotada:
a)
Através do método do vetor tangente, serão identificadas as áreas críticas para
redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo
foi utilizado pelos ambos os algoritmos (PSO e HPSOM) e também por MPC.
b)
Serão realizadas várias simulações com os algoritmos PSO e HPSOM, variando-se
o número de população de partículas no enxame e o número de iterações.
5.1.3 Análise Preliminar dos resultados
Nesta seção serão analisados os resultados obtidos pela metodologia proposta. Para tanto,
serão utilizados os sistemas IEEE 14, 30, 57 e 118 barras. Os parâmetros referentes ao
processo de otimização são os mesmos das Tabela 5.1 e 5.2, alterando-se apenas o conjunto
de barras selecionadas. Note que o HPSOM tem um parâmetro a mais, o que diz respeito à
taxa de mutação, que foi fixada em 30%.
Para cada sistema serão identificadas as áreas de atuação (BCS – Barras Crítica do
sistema e TBS – Conjunto de todas as barras de carga do sistema) e, através dos algoritmos
PSO e HPSOM um valor ótimo de compensação shunt será encontrado. Também será
apresentado o valor obtido pelo MPC com a finalidade de comparação. No caso dos
algoritmos PSO e HPSOM, foram realizadas várias simulações variando os números das
partículas e o número de iterações, com o objetivo de estudar as melhores configurações
dos seus parâmetros.
No sistema IEEE 14 serão apresentados e analisados os resultados obtidos com
população variando de 5, 10 e 15 nos dois algoritmos PSO e HPSOM. Para os sistemas de
IEEE 30, 57, 118 serão apresentados os resultados obtidos utilizando também população de
5,10 e 15, porém com iteração de 5,25,50,75 e 100, com o objetivo de tornar os dados mais
apresentáveis e mais fácies de serem agrupados em pequenas tabelas. Foram repetidas 50
simulações para cada combinação e os resultados aqui apresentados foram selecionados
aleatoriamente entre estes 50 simulações.
Tabela 5.1 –Parâmetros utilizados para as simulações
Limite de Shunt Máximo 1 pu
Limite de Shunt Mínimo -1 pu
Limite de Tensão Máxima 1.06 pu
Limite de Tensão Mínima 0.9
o
µ
0.5
αº 0.999995
γ
0.35
0
σ
0.2
4
7
Tabela 5.2 – Parâmetros do PSO/HPSOM utilizados para as simulações
Número de População 5, 10 e 15
Número de Iterações 100
Wmax (Maximo do peso da inércia)
0.9
Wmin (Mínimo do peso da inércia)
0.2
C1; C2 (coeficientes de aceleração)
1
Taxa de Mutação (HPSOM) 30%
5.1.4 Identificação das Áreas
A idéia usada neste trabalho é reduzir a perda de potência ativa em uma área crítica. A
redução da perda é executada na área mais vulnerável ao colapso da tensão. Esta área
crítica é facilmente determinada com a ajuda do vetor tangente. Tal vetor é dado pela
equação (5.7), e mais informações sobre está técnica podem ser encantados na referência
[29].
O modelo de fluxo de potência utilizado nesse trabalho pode ser apresentado pelo conjunto
de equações:
),(
σ
xf (5.2)
Onde
σ
é o parâmetro que conduz o sistema de um ponto estável para um ponto de
instabilidade.
O Vetor Tangente indica como as variáveis de estado variam de acordo com a mudança de
carregamento do sistema e pode ser obtido a partir da matriz jacobiana do fluxo de potência.
Assumindo um ponto de operação conhecido
[]
=
l
l
g
l
l
g
V
J
Q
P
P
θ
θ
(5.3)
Onde,
P, Q: potência consumida na barra.
P
i, Qi: potência na barra i.
V: tensão da barra correspondente a P e Q.
V
i: tensão da barra correspondente a Pi e Qi.
θ
i: ângulo de tensão na barra i.
J : matriz jacobiana.
σ
: parâmetro do sistema.
e a carga é acrescida da seguinte forma
48
P
Li = PLio (1 +
σ
) (5.4)
PGi = PGio (1 +
σ
) (5.5)
Q
Li = QLio (1 +
σ
) (5.6)
Onde P
Li, PGi e QLi são respectivamente a carga ativa, a potência ativa gerada e carga reativa
após a variação de
σ
. E PLio, PGio e QLio são os fatores iniciais na barra i.
Substituindo (5.4) a (5.6) em (5.3) obtêm-se:
[]
=
lo
lo
go
l
l
g
Q
P
P
J
V
1
1
σ
θ
θ
(5.7)
Onde
g
θ
,
go
P
)(npv
l
θ
,
l
V ,
lo
P ,
lo
Q
)(npq
npv – número de barras de geração (PV)
npq – número de barras de carga (PQ)
Este vetor da equação (5.7) mostra como as variáveis do estado mudam em função
de uma variação dos parâmetros do sistema, e seus maiores componentes indicam as barras
mais prováveis para levar o sistema ao colapso da tensão. A aplicação desta técnica aos
estudos da sensibilidade da perda é proposta dentro da referência [3]. Entretanto, a
referência [4] mostra que o colapso da tensão e a redução da perda podem não ser
conectado. Por outro lado, no estudo da referência [5] foi estabelecida uma conexão entre
a redução de perdas e os problemas do colapso da tensão. Neste trabalho foram realizados
vários experimentos que mostraram bons resultados entre a redução de perdas nas áreas
criticas e o problema de colapso da tensão. Baseados neste estudo, aqui foram estabelecidos
dois pontos: a redução da perda é executada com a ajuda de PSO e HPSOM, e tal redução
ocorre na área identificada pela equação (5.7).
A Tabela 5.3 mostra as quantidades das barras criticas (BCS) e as barras de carga
(TBS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas 4 barras são
considerados com criticas e 9 barras são barras de carga.
Tabela 5.3- Quantidade de Barras de Controle
IEEE14 IEEE30 IEEE57 IEEE118
BCS 4 6 8 8
TBS 9 24 50 64
A Tabela 5.4 mostra a relação dos nomes das barras criticas (BCS) para cada
sistema, por exemplo, no sistema IEEE 14 barras, apenas as 4 barras ( 10,12,13 e 14) são
considerados com barras criticas dentro das 9 barras de carga.
49
Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas
Sistema BCS (Nomes das Barras)
IEEE14 14 13 12 10
IEEE30 30 29 26 19 24 18
IEEE57 31 33 32 30 25 57 56 42
IEEE118 41 39 33 117 35 43 2 3
Antes de mostrar os resultados obtidos pelas simulações nos sistemas (IEEE 14,30,
57 e 118) será apresentado na próxima seção, um pequeno exemplo didático de aplicação
num sistema de 4 barras, afim de tornar os conceitos de como aplicar os algoritmos (PSO e
HPSOM) mais claros e simples de serem compreendidos.
5.1.5 Exemplo de aplicação usando Sistema de 4 barras
A finalidade deste exemplo é de mostrar de uma forma didática, como os métodos (PSO e
HPSOM) trabalham e também identificar os elementos envolvidos no processo de
otimização. Isto será feito através de explicar e associar a nomenclatura usada pelos
métodos com os conceitos já conhecidos na área de engenharia elétrica. O seguinte sistema
simples de 4 barras é usado ( os dados do sistema se encontram no Apêndice A):
1
2
3
4
~
~
Figure 5.1 – Sistema elétrico simples
Como caso base, a perda do sistema é dada por 0.2412 pu. A função objetivo deve
reduzir este valor. Para esta finalidade, a instalação do capacitor shunt nas barras 3 e 4 é
considerada. Estas barras têm bancos dos capacitores disponíveis, e a escala da
compensação pode variar de 0 a 1 pu. Quando o processo foi iniciado, a seguinte
população foi obtida:
Tabela 5.5- A população inicial - sistema 4 barras
Barra 3 0 0.0445 0.0380 0.0686 0.0050
Barra 4 0 0.0913 0.0203 0.0919 0.0766
Neste momento, é possível associar um significado físico com o que foi apresentado na
seção 2.4 e também com o dicionário mostrado pelo autor do trabalho apresentado em [9].
Uma partícula é relacionada à ação do controle. Neste caso, qualquer par da compensação
shunt nas barras 3 e 4 representa uma partícula. A população ou o enxame é um conjunto
das partículas, e neste exemplo, por simplificação, foi ajustado a 5. Os efeitos de cada
50
partícula na função objetivo podem ser calculados. Tal cálculo consiste em determinar a
perda do sistema quando cada partícula (compensação shunt) é considerada. Para cada
partícula, é obtido:
Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras
Partícula 1 2 3
4
5
Perdas 0.2412 0.2236 0.2412
0.2181
0.2356
Dos resultados acima, pode determinar o melhor indivíduo. Como aquela é a primeira
iteração, este valor já é o melhor indivíduo de cada partícula. O melhor global é dado pelo
resultado do mais eficaz da população, que é dada pela partícula 4 (0.2181). A fim de gerar
uma nova população, precisa-se considerar o melhor indivíduo de cada partícula, o melhor
global da população, o peso da inércia, o coeficiente de aceleração e também a velocidade
da partícula.
Até este ponto, o valor inicial da população é mantido igual para os dois algoritmos
(PSO e HPSOM) e daqui para adiante o processo de otimização será divido em duas
direções: usando PSO e HPSOM.
5.1.5.1 Usando PSO:
Como está na primeira iteração e com a população inicial já foi gerada então, seguindo o
algoritmo (Figura 2.6), os valores das velocidades das partículas são calculados pela
equação 2.3:
Tabela 5.7(a)- Relação das partículas e suas velocidades – sistema 4 barras (PSO)
Partícula 1 2 3 4 5
Barra 3 0.0049 0.0062 0.0026 0.0099 0.0080
Barra 4 0.0021 0.0025 0.0024 0.0024
0.0042
Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7,
gerando os seguintes resultados:
Tabela 5.7(b)- A nova população (1ª- Iteração) – sistema 4 barras (PSO)
Partícula 1 2 3 4 5
Barra 3 0.215 0.0492 0.0456 0.0761 0.0294
Barra 4 0.0218 0.0932 0.0658 0.0937 0.0806
O melhor individual pode agora ser obtido da seguinte forma: para cada partícula, o valor
nesta iteração é comparado com os valores na iteração precedente. Isto dá os resultados
abaixo. O número entre parênteses indica a iteração onde o melhor individual ocorre.
Tabela 5.7 (c)- O melhor individual de cada partícula – sistema 4 barras (PSO)
Partícula 1 2 3 4 5
Melhor Ind. 0.2412(2) 0.2222(2) 0.2273(2) 0.2162(2) 0.2288(2)
51
É importante mencionar que, não necessariamente, todas as partículas produzem resultados
melhores com a evolução do processo. Isto significa que, uma partícula qualquer pode se
mover para uma posição associada com resultado pior do que obtido na iteração anterior.
Isto é, a base do processo cognitivo e estocástico. Pode-se observar que o valor 0.2162
(partícula 4) é o melhor valor global desta população, uma vez que tem o menor valor de
perda do sistema . Isto significa que, até então, a partícula 4 com os valores (0.0761,
0.0937) tem os melhores resultados. Então, a barra 3 deve experimentar compensação
shunt com o valor de aproximadamente 0.0761 pu, e a barra 4 com o valor shunt de
0.0937 pu. O processo é repetido, e a velocidade de cada partícula deve ser calculada, como
também a sua nova posição. Após a quinta e última iteração os resultados obtidos foram:
Tabela 5.7(d)- A população da última (5ª- Iteração) – sistema 4 barras (PSO)
Partícula 1 2 3 4 5
Barra 3 0.0586 0.0895 0.0809 0.0782 0.0830
Barra 4 0.0870 0.0942 0.1541 0.1102
0.1377
Neste caso, a função objetivo para cada partícula é dada por:
Tabela 5.7(e)- O melhor global de cada partícula – sistema 4 barras (PSO)
Partícula 1 2 3 4 5
Perdas 0.2210 0.2133 0.2073 0.2135 0.2089
Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica
uma compensação de 0.0809 pu na barra 3 e 0.1541 na barra 4. Note que, nas primeiras
duas iterações, a partícula 4 era a melhor global. Esta característica importante mostra que
todas as partículas devem ser focalizadas a fim de buscar uma boa direção. Por ser um
exemplo ilustrativo, apenas o número de iterações foi empregado como o único critério de
parada.
5.1.5.2 Usando HPSOM:
Repete-se agora o processo usando o HPSOM. A partir da primeira iteração e com a
população inicial já gerada ( Tabelas 5.5-5.6) , os valores das velocidades das partículas são
calculados pela equação 5.3:
Tabela 5.8(a)- Relação das partículas e suas velocidades – sistema 4 barras (HPSOM)
Partícula 1 2 3 4 5
Barra 3 0.0049 0.0006 0.0087 0.0070 0.0203
Barra 4 0.0021 0.0075 0.0327 0.0055
0.0192
Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7,
gerando as seguintes resultados:
52
Tabela 5.8(b)- A nova população (1ª- Iteração) – sistema 4 barras (HPSOM)
Partícula 1 2 3 4 5
Barra 3 0.0219 0.0451 0.0467 0.0686 0.0050
Barra 4 0.0219 0.0988 0.0530 0.0919 0.0766
Neste momento, o processo de mutação é iniciado, e o valor da equação é calculado. A taxa
de mutação usada neste exemplo é de 30%. Isto significa que somente 2 partículas serão
selecionadas aleatoriamente do enxame (com a população de 5). Usando a equação 4.1 o
valor do
mut é calculado da seguinte forma:
ω =
[]
)(*1.0,0
minmax
xx
= 0.0100, onde,
0
min
=
x
,
0.1
max
=
x
As partículas selecionadas aleatoriamente para esta iteração são as partículas 2 e 3. Para
ilustrar como a equação do mutação é calculada, o processo do mutação para a partícula 2
da barra 3 é dado pelo : mut (p[2,3])=(0.0451*-1)+0.0100 = -0.0351 .
Os valores das partículas nas barras 3 e 4, antes e depois da mutação, são dados por:
Tabela 5.8(c)- As partículas sorteados para a Mutação – sistema 4 barras (HPSOM)
Partículas 2 – Barra 3 3 – Barra 3
2 – Barra 4
3 – Barra 4
Antes 0.0451 0.0467 0.0988 0.0530
Depois -0.0351 -0.0367 -0.0888 -0.0430
A nova população após a mutação é dada por:
Tabela 5.8(d)- A nova população antes e depois da Mutação – sistema 4 barras (HPSOM)
Partícula 1 2 3 4 5
Barra 3 0.0219 -0.0351 0.0367 0.0686 0.0050
Barra 4 0.0219 -0.0888 -0.0430 0.0919 0.0766
Para esta população o valor da função objetivo associado a cada partícula é calculado da
seguinte forma:
Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM)
Partícula 1 2 3
4
5
Perdas 0.2412 0.2236 0.2412
0.2158
0.2274
O número entre parentes indica a iteração onde o melhor individual foi encontrado.
Tabela 5.8 (f)- O melhor individual de cada partícula – sistema 4 barras(HPSOM)
Partícula 1 2 3
4
5
Melhor Ind. 0.2412(1) 0.2236(1) 0.2412(1)
0.2158(2)
0.2274(2)
O valor 0.2158 (isto é a partícula (0.0686, 0.0919)) é a partícula com o melhor global desta
população, uma vez que tem o menor valor de perda do sistema. Isto significa que, a barra 3
deve experimentar compensação shunt com o valor de aproximadamente 0.0686 pu, e a
barra 4 com o valor shunt de aproximadamente 0.0919 pu. O processo é repetido, e a
53
velocidade de cada partícula deve ser calculada, bem como também a mutação e sua nova
posição. Após a quinta e última iteração os resultados obtidos foram:
Tabela 5.8(g)- A população da última (5ª- Iteração) – sistema 4 barras (HPSOM)
Partícula 1 2
3
4 5
Bus 3 0.1131 0.0673
0.2193
-0.1397 0.1584
Bus 4 0.1292 0.1022
0.1107
-0.1064 0.1325
Neste caso, a função objetiva para cada partícula é dada por:
Tabela 5.8(h)- O melhor global de cada partícula – sistema 4 barras (HPSOM)
Partícula 1 2
3
4 5
Perdas 0.2257 0.2182
0.1899
0.2137 2034
Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica
uma compensação shunt de 0.2193 pu na barra 3 e 0.1107 na barra 4. Note que, nas
primeiras duas iterações, a partícula 4 era o melhor global.
Nota-se, os resultados finais foram diferentes nos dois casos usando o mesmo
número de população e iterações a pesar que, a partícula associada com o menor perda foi
por acaso a mesma (partícula 3), no PSO a perda do sistema foi de 0.2073 e no HPSOM foi
de 0.1899, desta forma o HPSOM apresentou melhor desempenho.
5.1.6 Simulação do Sistema IEEE14 barras
Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 14 barras,
inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).
5.1.6.1 Simulação nas BCS – IEEE14
As Tabelas 5.9 e 5.11 mostram os resultados obtidos pelas simulações realizadas
para o sistema IEEE 14 barras para fator de carregamento de 1pu. Analisando as tabelas, e
comparando os três métodos, pode se observar melhores resultados obtidos pelo HPSOM
comparando com PSO e MPC na redução de perdas. O HPSOM apresentou melhores
resultados comparando com MPC desde a primeira simulação com população = 5 e
iterações =5 (ver Tabela 5.11). No caso de PSO e MPC, o algoritmo PSO apresentou uma
redução melhor a partir da iteração = 35 ( ver Tabela 5.10).
Tabela 5.9 - Resultados obtidos pelo MPC – Sistema – IEEE 14
Barras Criticas (BCT)
Iterações = 6
Tempo de Simulação (s) = 0.89
Perda de Potência Ativa (antes) (pu) = 0.091
Perda de Potência Ativa (depois) (pu) = 0.0903
Redução de P.P. Ativa (pu) = 0.0005
54
Tabela 5.10 - Resultados obtidos pelo PSO no sistema IEEE 14 – barras Criticas
Numero de População = 5 - PSO
Perda Potência Ativa (antes) (pu) = 0.09099
Iteração P.P. Ativa
(depois)
(pu)
Redução de
P. P. Ativa
(pu)
Tempo de
simulação
(s)
Total Shunt
instalado
(pu)
5 0.09041622 0.00057395 30.49 0.11324086
10 0.09041622 0.00057395 61.74 0.11324086
15 0.09041622 0.00057395 91.51 0.11324086
20 0.09041622 0.00057395 119.80 0.11324086
25 0.09041622 0.00057395 147.20 0.11324086
30 0.09041622 0.00057395 174.83 0.11324086
35 0.09038501 0.00060516 199.05 0.09891350
40 0.09037969 0.00061048 223.33 0.11457272
45 0.09037967 0.00061050 249.15 0.11009633
50 0.09037343 0.00061674 275.57 0.10464175
55 0.09037065 0.00061952 301.98 0.10491014
60 0.09036921 0.00062096 328.40 0.10541847
65 0.09036818 0.00062199 355.15 0.10583967
70 0.09036766 0.00062251 381.57 0.10634546
75 0.09036750 0.00062267 408.05 0.10656279
80 0.09036742 0.00062275 434.52 0.10658013
85 0.09036742 0.00062275 460.88 0.10658582
90 0.09036742 0.00062275 487.30 0.10658718
95 0.09036742 0.00062275 513.78 0.10658730
100 0.09036742 0.00062275 540.64 0.10658731
(a)- PSO
(b)- HPSOM
Figura 5.2 – A evolução dos algoritmos PSO/HPSOM – IEEE 14- Barras Criticas
55
Tabela 5.11 - Resultados obtidos pelo HPSOM sistema IEEE 14 – barras Criticas
Numero de População = 5 – HPSOM
Perda Potência Ativa (antes) (pu) = 0.09099
Iteração P.P. Ativa
(depois)
(pu)
Redução de
P. P. Ativa
(pu)
Tempo de
simulação
(s)
Total Shunt
instalado
(pu)
5 0.09036308 0.00062709 112.65 0.10440000
10 0.09036308 0.00062709 135.44 0.10440000
15 0.09036308 0.00062709 158.84 0.10440000
20 0.09036164 0.00062852 179.82 0.10523192
25 0.09036027 0.00062990 198.77 0.10608202
30 0.09036027 0.00062990 217.61 0.10608202
35 0.09036020 0.00062997 235.46 0.10612540
40 0.09036019 0.00062998 253.53 0.10613050
45 0.09035885 0.00063132 271.99 0.10526498
50 0.09035436 0.00063580 289.78 0.10561314
55 0.09035138 0.00063879 306.54 0.10667764
60 0.09034805 0.00064212 322.85 0.10706952
65 0.09034704 0.00064313 340.15 0.10726002
70 0.09034622 0.00064395 357.56 0.10711262
75 0.09034580 0.00064437 373.77 0.10710461
80 0.09034559 0.00064458 389.97 0.10717227
85 0.09034548 0.00064469 406.12 0.10721709
90 0.09034548 0.00064469 422.48 0.10722469
95 0.09034546 0.00064471 438.69 0.10722513
100 0.09034546 0.00064471 454.78 0.10722532
(a)- PSO
(b)- HPSOM
Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)
56
(a)- PSO
(b)- HPSOM
Figure 5.4- A evolução dos algoritmos PSO/HPSOM a partir de 20ª iteração - Pop(5)
Tabela 5.12 (a,b) - Resultados obtidos pelos PSO e HPSOM- IEEE 14 – BCS
Número de População = 10 Perda Potência Ativa (antes) (pu) = 9099017
PSO
HPSOM
Itera P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.09039776 0.00059241 4.11 0.10264365
10 0.09039776 0.00059241 8.24 0.10264365
15 0.09039776 0.00059241 12.16 0.10471832
20 0.09039776 0.00059241 16.14 0.10471832
25 0.09039776 0.00059241 19.83 0.10471832
30 0.09039776 0.00059241 23.31 0.10471832
35 0.09039776 0.00059241 26.69 0.10471832
40 0.09036778 0.00062239 30.13 0.11544538
45 0.09036091 0.00062926 33.73 0.12003763
50 0.09036064 0.00062953 37.52 0.11989585
55 0.09035966 0.00063051 41.30 0.11936608
60 0.09035954 0.00063062 45.09 0.11933401
65 0.09035949 0.00063068 48.95 0.11917146
70 0.09035769 0.00063248 52.75 0.11608773
75 0.09035745 0.00063272 56.56 0.11577230
80 0.09035730 0.00063287 60.38 0.11579828
85 0.09035727 0.00063290 64.23 0.11579438
90 0.09035727 0.00063290 68.03 0.11581070
95 0.09035727 0.00063290 71.84 0.11580664
100 0.09035727 0.00063290 75.69 0.11580619
0.09037421 0.00061596 3.42 0.10039760
0.09036889 0.00062128 7.20 0.10688778
0.09036829 0.00062187 10.83 0.10123499
0.09034190 0.00064827 14.17 0.10307741
0.09034190 0.00064827 17.89 0.10307741
0.09034190 0.00064827 21.42 0.10307741
0.09034178 0.00064839 24.81 0.10307803
0.09034178 0.00064839 28.14 0.10307803
0.09034162 0.00064855 31.38 0.10292951
0.09034016 0.00065001 34.55 0.10334608
0.09033942 0.00065075 37.91 0.10362536
0.09033925 0.00065092 41.14 0.10368822
0.09033902 0.00065115 44.41 0.10361619
0.09033871 0.00065146 47.61 0.10351063
0.09033838 0.00065178 50.70 0.10319155
0.09033833 0.00065184 53.97 0.10320160
0.09033831 0.00065186 57.17 0.10321190
0.09033830 0.00065187 60.27 0.10321637
0.09033829 0.00065188 63.22 0.10322021
0.09033829 0.00065188 66.17 0.10322032
Na comparação dos dois algoritmos PSO e HPSOM, pode se observar que, o
algoritmo HPSOM apresentou desde o início de simulação resultados melhores. Os gráficos
da Figura 5.2(a,b), apresentam a evolução dos algoritmos, onde HPSOM teve melhor
tendência de redução. Os gráficos da Figura 5.3 (a,b) apresentam os comportamentos das
5
7
partículas nos dois algoritmos. Estes gráficos mostram claramente que, as partículas do
PSO ao se aproximarem no final de iterações (~ 80) entraram no estado de estagnação,
enquanto as partículas do HPSOM se mantém ativas na busca de melhores soluções, como
fica evidente na Figura 5.4 (a,b). Onde o gráfico apresenta a evolução dos algoritmos a
partir da 20ª iteração para ampliar o foco sobre a parte onde aconteceu este comportamento
em especial . Na maioria absoluta de simulações estes resultados permaneceram estáveis.
Os gráficos das Figuras 5.2(a,b) apresentam uma tendência de melhora na redução
de perdas com aumento do número de população de partícula e o aumento de número de
iterações. Esta tendência é constatada em todas as simulações, independentemente do
sistema.
As Tabelas 5.12 e 5.13, apresentam os resultados utilizando PSO e HPSOM com
população de 10 e 15 respectivamente.
As Figuras 5.5 (a,b) apresentam gráficos dos algoritmos com o aumento de iteração
e o número da população. Pode ser observado que a solução tende a melhorar.
Tabela 5.13 (a,b) - Resultados obtidos pelos PSO/HPSOM- IEEE 14 – BCS criticas
Número de População = 15 Perda Inicial = 9099017
PSO
HPSOM
Itera P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.09036721 0.00062296 4.80 0.09582646
10 0.09036705 0.00062312 10.08 0.09748251
15 0.09035669 0.00063347 14.80 0.09861758
20 0.09034784 0.00064233 19.84 0.10008997
25 0.09034439 0.00064578 25.03 0.10215723
30 0.09033973 0.00065044 30.02 0.10311043
35 0.09033841 0.00065176 35.20 0.10339469
40 0.09033815 0.00065202 40.58 0.10349661
45 0.09033811 0.00065206 45.91 0.10349704
50 0.09033803 0.00065213 51.11 0.10346126
55 0.09033801 0.00065216 56.22 0.10343453
60 0.09033800 0.00065217 61.39 0.10343514
65 0.09033799 0.00065218 66.67 0.10343243
70 0.09033799 0.00065218 71.88 0.10343171
75 0.09033797 0.00065219 76.89 0.10342244
80 0.09033796 0.00065221 81.80 0.10342397
85 0.09033796 0.00065221 86.64 0.10342220
90 0.09033795 0.00065222 91.69 0.10342151
95 0.09033795 0.00065222 96.58 0.10342128
100 0.09033795 0.00065222 101.41 0.10341871
0.09035983 0.00063034 5.97 0.10915536
0.09035983 0.00063034 12.44 0.10915536
0.09035983 0.00063034 18.66 0.10915536
0.09035893 0.00063124 24.27 0.10993119
0.09035893 0.00063124 29.66 0.10993119
0.09035885 0.00063132 35.09 0.11000588
0.09035885 0.00063132 40.52 0.11000588
0.09035884 0.00063133 45.78 0.11000733
0.09035575 0.00063442 51.25 0.10903626
0.09034675 0.00064341 56.44 0.10469921
0.09034247 0.00064770 61.41 0.10327239
0.09034117 0.00064900 66.55 0.10310693
0.09034094 0.00064923 71.89 0.10284245
0.09033888 0.00065128 76.72 0.10350374
0.09033798 0.00065219 81.41 0.10378145
0.09033757 0.00065260 86.14 0.10391477
0.09033757 0.00065260 91.17 0.10391374
0.09033756 0.00065261 95.89 0.10391176
0.09033756 0.00065261 100.34 0.10391061
0.09033755 0.00065262 104.77 0.10391514
58
(a) - PSO
(b): HPSOM
(c) - PSO (escala maior - 5ª- Iteração)
(d): HPSOM (escala maior - 5ª- Iteração)
Figure5.5- A evolução dos algoritmos PSO/HPSOM - IEEE14
5.1.6.2 Simulação nas TBS – IEEE14
No caso de redução de perdas em todas as barras e como mostrado nas Tabelas 5.14
e 5.15 (a,b), o PSO somente alcança os mesmo resultados do MPC com iteração = 45 e
HPSOM com iteração = 25, e os dois algoritmos mantém a tendência de maior redução,
como é mostrado nos gráficos da Figura 5.6 (a,b). Esta situação de não alcançar os mesmos
resultados do MPC desde o inicio é gerada pelo aumento do número de barras que neste
sistema em especial são passados de 4 para 9 barras, como consta na Tabela 5.3. Esta
situação vai se repetir em todos os sistemas, e em alguns casos vai necessitar de um
aumento de número de iterações por parte dos algoritmos PSO e HPSOM para que
alcancem os mesmos resultados obtidos pela MPC.
A Tabela 5.15 (c) apresenta uma versão compacta das Tabelas 5.15 (a,b) com
apenas 100 iterações, a fim de simplificar a interpretações dos resultados.
59
Tabela 5.14 - Resultados obtidos pelo MPC – Sistema – IEEE 14
Toadas as Barras (TBS)
Iterações = 9
Tempo de Simulação (s) = 0.89
Perda de Potência Ativa (antes) (pu) = 0.091
Perda de Potência Ativa (Depois) (pu) = 0.0899
Redução de P.P. Ativa (pu) = 0.0011
Tabela 5.15(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 – TBS.
PSO – P. P. Ativa (antes) (pu) = 0.09099017
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.09078400 0.00020617 2.25 0.11068847
25 0.09078400 0.00020617 11.55 0.11068847
50 0.09051756 0.00047261 21.66 0.00840953
75 0.09005388 0.00093629 32.00 0.03557383
100 0.09005297 0.00093720 42.42 0.03522064
0.09053317 0.00045700 1.52 0.09935994
0.09010919 0.00088098 7.98 0.05860591
0.08996253 0.00102764 16.95 -0.01803455
0.08995108 0.00103909 25.92 -0.00757745
0.08995105 0.00103912 34.86 -0.00760884
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.09075000 0.00024017 4.28 0.09939676
25 0.09074997 0.00024020 19.83 0.10222233
50 0.08998794 0.00100223 38.02 0.04047896
75 0.08984527 0.00114489 53.36 -0.00198787
100 0.08984128 0.00114889 76.42 -0.00065533
0.09056892 0.00042125 3.06 0.11980364
0.09004937 0.00094080 17.02 0.03832095
0.08988595 0.00110422 34.94 0.01383477
0.08986443 0.00112574 52.70 0.01379422
0.08986280 0.00112737 70.86 0.01386944
População = 15 População = 15
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.09061366 0.00037651 6.69 0.10792726
25 0.09061240 0.00037777 30.33 0.12834041
50 0.08993192 0.00105825 57.83 -0.00085381
75 0.08984609 0.00114407 87.48 0.01224753
100 0.08984390 0.00114627 116.53 0.01300418
0.09046173 0.00052844 5.48 0.11731905
0.08997065 0.00101951 27.83 0.00652116
0.08985989 0.00113027 54.67 0.00789957
0.08984617 0.00114400 81.61 -0.00925344
0.08984606 0.00114411 108.50 -0.00873955
60
Tabela 5.15(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 –
TBS.
Numero de População =
5,10,15
P.P. Ativa (antes) =
0.09099017
POP/
Iter
P.P. Ativa
(depois)
Redução de P.
P. Ativa (pu)
Tempo
(s)
Total Shunt
instalado
MPC 9 0.0899 0.0011 0.89 1.0490
5 /100 0.09005297 0.00093720 42.42 0.03522064
10/100 0.08984128 0.00114889 76.42 -0.0006553
PSO
15/100 0.08984390 0.00114627 116.53 0.01300418
5/100 0.08995105 0.00103912 34.86 -0.00760884
10/100 0.08986280 0.00112737 70.86 0.01386944
HPSOM
15/100 0.08984606 0.00114411 108.50 -0.00873955
(a)- PSO
(b)- HPSOM
Figure 5.6- A evolução dos algoritmos PSO/HPSOM - IEEE14- Todas as Barras
5.1.7 Simulação do Sistema IEEE30 barras
Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 30 barras,
inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).
5.1.7.1 Simulação nas BCS – IEEE30
As Tabelas 5.16 e 5.17 (a, b) mostram os resultados obtidos pelas simulações para o
sistema IEEE 30 barras para fatores de carregamento de 1 pu. Como no item anterior, no
caso das barras criticas, o PSO e HPSOM apresentam resultados melhores do que MPC
61
desde o inicio de processo com população = 5 e com iterações = 5. O HPSOM apresenta as
melhores resultados com população = 5. O PSO, por sua vez, alcança bons resultados com
o aumento da população e neste caso até ultrapassa o HPSOM com população = 15, como é
também mostrado no gráfico da Figura 5.7 (a,b).
A Tabela 5.17 (c) apresenta uma versão compacta das Tabelas 5.17 (a,b) com
apenas 100 iterações para simplificar a interpretações dos resultados.
Tabela 5.16 - Resultados obtidos pelo MPC – Sistema IEEE 30
Barras Criticas – IEEE 30
Iterações = 6
Tempo de Simulação (s) = 4.96
P.P Ativa (antes) (pu) = 0.1896
P.P Ativa (depois) (pu) = 0.184
Redução de P.P. Ativa (pu) = 0.0056
Tabela 5.17(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 – BCS
PSO – P. P. Ativa (antes) (pu) = 0.18962255
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.18187247 0.00775008 5.14 0.24561269
25 0.18178006 0.00784249 28.33 0.28022136
50 0.18170207 0.00792048 53.70 0.28885608
75 0.18154986 0.00807269 79.95 0.28136534
100 0.18154918 0.00807337 106.28 0.28138529
0.18171749 0.00790506 2.30 0.26015702
0.18156892 0.00805363 11.77 0.28792036
0.18153594 0.00808661 23.61 0.28679078
0.18148746 0.00813509 35.38 0.29040139
0.18147772 0.00814483 47.45 0.29000280
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.18190299 0.00771956 7.94 0.24783826
25 0.18181651 0.00780604 36.70 0.28301119
50 0.18156779 0.00805476 67.33 0.28790942
75 0.18141488 0.00820767 94.52 0.28587097
100 0.18139671 0.00822584 122.31 0.28629105
0.18162110 0.00800146 4.58 0.26764130
0.18145504 0.00816751 23.36 0.28935626
0.18132028 0.00830227 46.91 0.28368012
0.18131041 0.00831214 70.66 0.28403509
0.18130889 0.00831366 94.39 0.28407691
População = 15 População = 15
Ite P.P. Ativa P.P.Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.18164544 0.00797711 2.17 0.26565748
25 0.18158854 0.00803401 59.02 0.28925055
50 0.18136273 0.00825982 112.34 0.28806400
75 0.18127150 0.00835105 162.77 0.28611939
100 0.18126211 0.00836044 213.05 0.28632191
0.18149047 0.00813208 6.84 0.26579463
0.18141779 0.00820476 35.09 0.28946575
0.18128919 0.00833336 70.47 0.28562741
0.18126613 0.00835643 106.45 0.28582465
0.18126535 0.00835720 142.59 0.28581151
62
Tabela 5.17(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 30–BCS.
Numero de População=
5,10,15
P.P. Ativa (antes) =
0.18962255
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo
(s)
Total Shunt
instalado
MPC 6 0.184 0.0056 4.96 0.2827
5 /100 0.18154918 0.00807337 106.28 0.28138529
10/100 0.18139671 0.00822584 122.31 0.28629105
PSO
15/100 0.18126211 0.00836044 213.05 0.28632191
5/100 0.18147772 0.00814483 47.45 0.29000280
10/100 0.18130889 0.00831366 94.39 0.28407691
HPSOM
15/100 0.18126535 0.00835720 142.59 0.28581151
(a)- PSO
(b)- HPSOM
(c)- PSO (escala maior - 5ª- Iteração)
(d)- HPSOM (escala maior - 5ª- Iteração)
Figure 5.7- A evolução dos algoritmos PSO/HPSOM - IEEE30 - BCS
63
5.1.7.2 Simulação nas TBS – IEEE30
No caso de redução de perdas em todas as barras, como mostrado nas Tabelas 5.18
e 5.19 (a,b), o PSO e HPSOM não alcançaram o mesmo resultado obtidos pelo MPC com
população de 5, 10 e 15 e necessita de aumento de número de iterações. Os gráficos das
Figuras 5.8(a,b) mostram esta tendência.
A Tabela 5.19 (c) apresenta uma versão compacta das Tabelas 5.19 (a,b) com
apenas 100 iterações para simplificar a interpretações dos resultados.
(a)-PSO
(b)-HPSOM
(a)-PSO (escala maior - 5ª- Iteração)
(b)-HPSOM (escala maior - 5ª- Iteração)
Figure 5.8- A evolução dos algoritmos PSO/HPSOM - IEEE30 – TBS
64
Tabela 5.18 - Resultados obtidos pelo MPC – Sistema IEEE 30
Todas as Barras – IEEE 30
Iteração = 10
Tempo = 8.35
P.P. Ativa (antes) = 0.1896
P.P. Ativa (Depois) = 0.1783
Redução = 0.0113
Tabela 5.19 (a,b) - Resultados obtidos pelo PSO sistema IEEE 30 – Todas as Barras
PSO – P. P. Ativa (antes) (pu) = 0.18962255
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.18063805 0.00898450 4.48 0.30691063
25 0.18042311 0.00919944 19.69 0.32463203
50 0.18041718 0.00920537 32.89 0.32516787
75 0.18036935 0.00925320 45.44 0.32149205
100 0.18031622 0.00930633 58.19 0.32290373
0.18073349 0.00888906 2.27 0.29093544
0.18065570 0.00896685 11.67 0.29593851
0.18065090 0.00897165 23.06 0.29625369
0.18060903 0.00901352 34.36 0.29777501
0.18060340 0.00901915 45.83 0.29793513
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.18123220 0.00839035 9.45 0.27902518
25 0.18061866 0.00900389 44.03 0.32026264
50 0.18061810 0.00900445 74.23 0.32030661
75 0.18047896 0.00914359 98.70 0.33315479
100 0.18036992 0.00925264 123.42 0.33932326
0.18055438 0.00906817 4.20 0.30343231
0.18051957 0.00910298 22.67 0.30596792
0.18049386 0.00912869 46.17 0.30376842
0.18039646 0.00922609 70.05 0.30021547
0.18037118 0.00925137 94.09 0.30038815
População = 15 População = 15
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.18087628 0.00874627 14.69 0.30190055
25 0.18078846 0.00883409 73.75 0.30796779
50 0.18078748 0.00883508 137.02 0.30803726
75 0.18029656 0.00932599 195.66 0.32972810
100 0.18021760 0.00940495 254.83 0.32666634
0.18041347 0.00920908 6.39 0.30510003
0.18028354 0.00933901 34.11 0.31229991
0.18018882 0.00943373 68.89 0.31395918
0.18006706 0.00955549 104.47 0.31970647
0.18002917 0.00959338 140.31 0.32251528
65
Tabela 5.19(c) -Resumo dos resultados obtidos pelos PSO/HPSOM-sistema IEEE 30– TBS.
Numero de População =
5,10,15
P.P. Ativa (Antes) =
0.18962255
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo
(s)
Total Shunt
instalado
MPC 10 0.1783 0.0113 8.35 1.6511
5 /100 0.18031622 0.00930633 58.19 0.32290373
10/100 0.18036992 0.00925264 123.42 0.33932326
PSO
15/100 0.18021760 0.00940495 254.83 0.32666634
5/100 0.18060340 0.00901915 45.83 0.29793513
10/100 0.18037118 0.00925137 94.09 0.30038815
HPSOM
15/100 0.18002917 0.00959338 140.31 0.32251528
Tabela 5.20 (a,b) - Resultados obtidos pelo PSO/HPSOM sistema IEEE 30 – TBS-
iteração = 500
PSO – População = 15 HPSOM
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois
(pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
50 0.18049415 0.00912840 192.02 0.30517389
100 0.18049291 0.00912964 378.72 0.30526579
150 0.18049291 0.00912964 508.56 0.30526579
200 0.17930750 0.01031505 613.53 0.50418642
250 0.17898896 0.01063359 712.08 0.49367290
300 0.17882696 0.01079559 811.06 0.50579156
350 0.17881801 0.01080454 914.78 0.50609992
400 0.17881798 0.01080457 1019.19 0.50610090
450 0.17881798 0.01080457 1124.23 0.50610091
500 0.17881798 0.01080457 1229.22 0.50610091
0.18051119 0.00911136 67.94 0.30177493
0.18051119 0.00911136 137.67 0.30177493
0.17973408 0.00988847 207.11 0.32694368
0.17887682 0.01074573 277.41 0.40183573
0.17853154 0.01109102 349.13 0.44150669
0.17833916 0.01128339 422.81 0.48702635
0.17827474 0.01134781 498.44 0.51059651
0.17826915 0.01135340 575.95 0.51416224
0.17826913 0.01135342 654.86 0.51417523
0.17826913 0.01135342 734.91 0.51417524
Como foi mencionado na seção anterior, no caso da redução nas TBS, os algoritmos
PSO e HPSOM necessitam de mais iterações. Este fato é gerado pelo aumento de número
de barras que neste sistema IEEE 30 passaram de 6 para 24 barras, como consta na Tabela
5.3. Para demonstrar esta situação foram realizadas simulações com população de 15 e com
500 iterações como apresentado nas Tabelas 5.20 (a,b) e mais resumido na Tabela 5.20 (c).
Pode observar que neste caso e devido o aumento de número de iterações o HPSOM
alcançou o mesmo resultado obtido pelo MPC e o PSO chegou próximo, o que confirma a
afirmação dada anteriormente.
6
6
Tabela 5.20(c) - Resumo dos resultados obtidos pelo PSO/HPSOM sistema IEEE 30 –
TBS- iteração = 500
Numero de População =
15
P.P. Ativa (Antes) =
0.18962255
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo
(s)
Total Shunt
instalado
MPC 10 0.1783 0.0113 8.35 1.6511
15/300 0.17882696 0.01079559 811.06 0.50579156
15/400 0.17881798 0.01080457 1019.19 0.50610090
PSO
15/500 0.17881798 0.01080457 1229.22 0.50610091
15/300 0.17833916 0.01128339 422.81 0.29793513
10/400 0.17826915 0.01135240 575.95 0.51416224
HPSOM
15/500 0.17826913 0.01135342 734.91 0.51417524
5.1.8 Simulação do Sistema IEEE57 barras
Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 57 barras,
inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).
5.1.8.1 Simulação nas BCS – IEEE57
As Tabelas 5.21 e 5.22 (a,b) mostram os resultados obtidos pelas simulações para o sistema
IEEE 57 barras para fatores de carregamento de 1 pu. No caso das barras criticas o HPSOM
apresenta resultados semelhantes ao MPC com tendência de melhora, como mostrado no
gráfico da Figura 5.9. Quanto ao PSO, apresenta resultados um pouco piores.
A Tabela 5.22 (c) apresenta uma versão compacta das Tabelas 5.22 (a,b) com
apenas 100 iterações para simplificar a interpretações dos resultados.
Tabela 5.21 - Resultados obtidos pelo MPC – Sistema IEEE57
Barras Criticas – IEEE 57
Iteração = 5
Tempo = 24.95
P.P. Ativa (antes) = 0.3331
P.P. Ativa (Depois) = 0.32118
Redução = 0.012
67
(a)- PSO
(b)- HPSOM
(c)- PSO (escala maior - 5ª-Iteração)
(d)- HPSOM (escala maior - 5ª- Iteração)
Figure 5.9 - A evolução dos algoritmos PSO/HPSOM - IEEE57 - BCS
Tabela 5.22(c)-Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– BCS.
Numero de População =
5,10,15
P.P. Ativa (Antes) =
0.3314487
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo
(s)
Total Shunt
instalado
MPC 5 0.32118 0.012 24.95 0.3155
5 /100 0.32216352 0.01098135 51.45 0.26042634
10/100 0.32204286 0.01110201 490.98 0.26634863
PSO
15/100 0.32224829 0.01089658 693.24 0.27699636
5/100 0.32191366 0.01123121 83.39 0.27445589
10/100 0.32178183 0.01136304 176.17 0.28600576
HPSOM
15/100 0.32152498 0.01161989 257.53 0.28859325
68
Tabela 5.22(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 – Barras Criticas.
PSO - Perda Ativa (antes) (pu) = 0.33314487
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.32237881 0.01076606 15.05 0.24625745
25 0.32219962 0.01094525 62.45 0.26218442
50 0.32219733 0.01094754 97.64 0.26245189
75 0.32216435 0.01098052 24.58 0.26031332
100 0.32216352 0.01098135 51.45 0.26042634
0.32262113 0.01052374 3.75 0.23223198
0.32228103 0.01086384 21.34 0.25875768
0.32202364 0.01112123 43.34 0.26602320
0.32191902 0.01122585 63.31 0.27432205
0.32191366 0.01123121 83.39 0.27445589
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.32248346 0.01066141 24.11 0.24136926
25 0.32219685 0.01094802 128.13 0.26475234
50 0.32219672 0.01094815 249.78 0.26476727
75 0.32204993 0.01109494 371.03 0.26563221
100 0.32204286 0.01110201 490.98 0.26634863
0.32214167 0.01100320 8.00 0.26482108
0.32210957 0.01103530 46.20 0.27332951
0.32210922 0.01103565 92.34 0.27336464
0.32179469 0.01135018 135.27 0.28578889
0.32178183 0.01136304 176.17 0.28600576
População = 15 População = 15
Ite P.P, Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P, Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.32293788 0.01020699 36.61 0.23002148
25 0.32275583 0.01038904 241.20 0.25135548
50 0.32275475 0.01039012 409.30 0.25159874
75 0.32230173 0.01084314 552.33 0.27482867
100 0.32224829 0.01089658 693.24 0.27699636
0.32223826 0.01090661 11.84 0.26814889
0.32223826 0.01090661 68.39 0.26814889
0.32187945 0.01126542 135.02 0.28567391
0.32155088 0.01159399 196.27 0.29168415
0.32152498 0.01161989 257.53 0.28859325
5.1.8.2 Simulação nas TBS – IEEE57
No caso de redução de perdas em todas as barras, como mostrado nas Tabelas 5.23
e 5.24 (a,b), aconteceu a mesma situação ocorrida nos outros sistemas. O PSO e HPSOM
não alcançaram o mesmo resultado obtido pelo MPC com população de 5, 10 e 15 e
necessitam de aumento de número de iterações. Porém, o HPSOM alcançou melhores
resultados com população = 15 com forte tendência de melhora com apresentado no gráfico
da Figura 5.10(b) .
A Tabela 5.24 (c) apresenta a versão compacta das Tabelas 5.24 (a,b).
Tabela 5.23 - Resultados obtidos pelo MPC – Sistema IEEE 57
Todas as Barras
Iterações = 9
Tempo de Simulação = 61.12
P.P. Ativa (antes)(pu) = 0.3331
P.P. Ativa (depois)(pu) = 0.2998
Redução de P.P Ativa (pu)= 0.0333
69
(a)- PSO
(b)- HPSOM
(c)- PSO (escala maior - 5ª- Iteração)
(d)- HPSOM (escala maior - 5ª- Iteração)
Figura 5.10 - A evolução dos algoritmos PSO/HPSOM- IEEE57 – TBS
Tabela 5.24(c) Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5– TBS.
Numero de População =
5,10,15
P.P. Ativa (Antes) =
0.3314487
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo
(s)
Total Shunt
instalado
MPC 9 0.2998 0.0333 61.12 7.6357
5 /100 0.32344938 0.00969549 145.58 0.25730916
10/100 0.32355659 0.00958828 544.03 0.25571267
PSO
15/100 0.32224829 0.00973524 796.63 0.25505954
5/100 0.32260236 0.01054251 68.73 0.26034524
10/100 0.32023457 0.01291030 159.42 0.26005473
HPSOM
15/100 0.31102295 0.02212192 258.78 0.77465776
70
Tabela 5.24(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 –TBS.
PSO – P. P. Ativa (antes) (pu) = 0.33314487
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.32396865 0.00917622 8.88 0.24190998
25 0.32344939 0.00969548 48.30 0.25730882
50 0.32344938 0.00969549 87.52 0.25730914
75 0.32344938 0.00969549 117.44 0.25730916
100 0.32344938 0.00969549 145.58 0.25730916
0.32346589 0.00967898 3.61 0.24966947
0.32322388 0.00992099 18.83 0.25690661
0.32297388 0.01017099 36.36 0.25446013
0.32262744 0.01051743 52.56 0.25999741
0.32260236 0.01054251 68.73 0.26034524
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.32449603 0.00864884 27.06 0.22848809
25 0.32357390 0.00957097 138.41 0.25520528
50 0.32355659 0.00958828 270.08 0.25571266
75 0.32355659 0.00958828 405.49 0.25571267
100 0.32355659 0.00958828 544.03 0.25571267
0.32406455 0.00908032 7.81 0.23511259
0.32399449 0.00915038 39.63 0.19469395
0.32220425 0.01094062 78.14 0.21735820
0.32041167 0.01273320 118.75 0.25322999
0.32023457 0.01291030 159.42 0.26005473
População = 15 População = 15
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 0.32436390 0.00878097 42.11 0.22775763
25 0.32341161 0.00973327 38.64 0.25500235
50 0.32340963 0.00973524 428.42 0.25505954
75 0.32340963 0.00973524 614.61 0.25505954
100 0.32340963 0.00973524 796.63 0.25505954
0.32356294 0.00958193 11.81 0.26135359
0.31325073 0.01989414 65.91 0.72617974
0.31193360 0.02121127 132.53 0.72772163
0.31109402 0.02205085 196.20 0.76988394
0.31102295 0.02212192 258.78 0.77465776
5.1.9 Simulação do Sistema IEEE118 barras
Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 118 barras,
inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS).
5.1.9.1 Simulação nas BCS – IEEE118
As Tabelas 5.25 e 5.26 (a, b) mostram os resultados obtidos pelas simulações para o
sistema IEEE 118 barras para fatores de carregamento de 1 pu. No caso das barras críticas,
o PSO e HPSOM apresentam resultados semelhantes ao MPC. Os gráficos das Figuras
5.11(a,b) apresentam uma tendência de melhora com o aumento de números de iterações.
A Tabela 5.26 (c) apresenta a versão compacta das Tabelas 5.26 (a,b).
71
Tabela 5.25 - Resultados obtidos pelo MPC – Sistema IEEE118
Barras Criticas – IEEE 118
Iteração = 7
Tempo = 285.3
P.P. Ativa (antes) = 1.9728
P.P. Ativa (Depois) = 1.971
Redução = 0.0018
Total de shunt instalado (pu) = 0.6196
Tabela 5.26(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –BCS.
PSO - Perda Ativa (antes) (pu) = 0.33314487
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 1.97190198 0.00093457 18.73 0.20409079
25 1.97190198 0.00093457 87.39 0.20409079
50 1.97145892 0.00137763 155.95 0.33779544
75 1.97137837 0.00145819 209.81 0.39267308
100 1.97137777 0.00145879 263.33 0.39299718
1.97222370 0.00061286 11.17 0.15661822
1.97178127 0.00105529 62.72 0.30174382
1.97138389 0.00145267 124.97 0.41398190
1.97128163 0.00155492 183.88 0.45364891
1.97127956 0.00155700 238.69 0.45431773
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 1.97230905 0.00052751 40.30 0.15808774
25 1.97189725 0.00093931 202.39 0.31953748
50 1.97171502 0.00112154 384.45 0.41672534
75 1.97157634 0.00126021 564.06 0.55294299
100 1.97154250 0.00129406 744.67 0.57006539
1.97221459 0.00062197 21.97 0.16272738
1.97142391 0.00141264 128.33 0.50938913
1.97131505 0.00152150 262.48 0.56001065
1.97129738 0.00153918 386.03 0.56454069
1.97129540 0.00154116 497.28 0.56498524
População = 15 População = 15
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 1.97252426 0.00031229 63.47 0.09012760
25 1.97225333 0.00058322 310.78 0.17821769
50 1.97129726 0.00153929 587.19 0.49228015
75 1.97097915 0.00185740 856.67 0.71956732
100 1.97097509 0.00186147 1129.61 0.72289243
1.97218692 0.00064963 32.88 0.25582431
1.97095953 0.00187702 193.16 0.72601777
1.97094117 0.00189539 407.98 0.70306330
1.97093122 0.00190533 611.64 0.70671097
1.97092980 0.00190676 813.19 0.71357494
72
Tabela 5.26(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEE118– CBS.
Numero de População =
5,10,15
P.P. Ativa (Antes) =
1.97283655
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo (s) Total Shunt
instalado
MPC 7 1.971 0.0018 285.3 0.6196
5 /100 1.97137777 0.00145879 263.33 0.39299718
10/100 1.97154250 0.00129406 744.67 0.57006539
PSO
15/100 1.97097509 0.00186147 1129.61 0.72289243
5/100 1.97127956 0.00155700 238.69 0.45431773
10/100 1.97129540 0.00154116 497.28 0.56498524
HPSOM
15/100 1.97092980 0.00190676 813.19 0.71357494
(a)- PSO
(b)- HPSOM
(c)- PSO (escala maior - 10ª- Iteração)
(d)- HPSOM (escala maior - 10ª- Iteração)
Figure 5.11 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - BCS
73
5.1.9.2 Simulação nas TBS – IEEE118
No caso de redução de perdas em todas as barras, como mostrado nas Tabelas 5.27 e 5.28
(a,b), aconteceu a mesma situação ocorrida nos outros sistemas, o PSO e HPSOM não
alcançaram os mesmos resultados obtidos pelo MPC com população de 5, 10 e 15. Mas
pode ser observado que no caso de HPSOM com população de 15 e iteração = 100
alcançou o melhor resultado e a tendência de encontrar um valor próximo ao resultado
encontrado pela MPC fica claro pelo gráfico da Figura 5.12(b), onde a linha que representa
a população de 15 teve uma queda acentuada, saindo de um resultado de 0.00347251 com 5
iterações chegando ao valor de 0.01529937 com 100 iterações.
A Tabela 5.28 (c) apresenta a versão compacta das Tabelas 5.28 (a,b).
(a)- PSO
(b)-HPSOM
(c)- PSO (escala maior - 10ª- Iteração)
(d)-HPSOM (escala maior - 10ª- Iteração)
Figure 5.12 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - TBS
74
Tabela 5.27 - Resultados obtidos pelo MPC – Sistema IEEE118
Todas as Barras IEEE 118
Iteração = 8
Tempo = 369.63
P.P. Ativa (antes) = 1.9728
P.P. Ativa (Depois) = 1.918
Redução = 0.0548
Total de shunt instalado (pu) = 13.717
Tabela 5.28(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 –TBS.
PSO – P. P. Ativa (antes) (pu) = 1.97283655
HPSOM
População = 5 População = 5
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 1.97077115 0.00206541 27.50 0.58823765
25 1.97017654 0.00266002 132.78 0.77458683
50 1.97017570 0.00266085 254.75 0.77485580
75 1.97017570 0.00266085 373.28 0.77485582
100 1.97017570 0.00266085 492.50 0.77485582
1.97013996 0.00269659 12.89 0.64269999
1.96940310 0.00343346 68.66 1.30112569
1.96895011 0.00388644 135.14 1.40214140
1.96795427 0.00488228 195.30 1.42348859
1.96793447 0.00490208 254.31 1.42353081
População = 10 População = 10
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P.Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 1.96959789 0.00323866 51.14 1.02248514
25 1.96954059 0.00329597 261.56 1.04347588
50 1.96953769 0.00329887 506.41 1.04454202
75 1.96953769 0.00329887 749.88 1.04454202
100 1.96953769 0.00329887 987.09 1.04454202
1.96983046 0.00300610 26.91 0.66002782
1.96775389 0.00508266 148.98 1.02803394
1.96151622 0.01132034 319.20 1.33773882
1.95936154 0.01347501 488.05 1.59612639
1.95927199 0.01356457 655.20 1.61983458
População = 15 População = 15
Ite P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
P.P. Ativa P.P. Ativa Tempo Tot. Shunt
Depois (pu) Redução (pu) Simulação Instalado
5 1.97026274 0.00257382 75.06 0.81632292
25 1.96856163 0.00427493 391.95 1.49754764
50 1.96855999 0.00427657 756.08 1.49829563
75 1.96855999 0.00427657 1119.19 1.49829565
100 1.96855695 0.00427960 1480.64 1.49811538
1.96936405 0.00347251 36.97 0.85869151
1.96541999 0.00741656 216.59 1.76448480
1.96469820 0.00813835 442.76 1.94299825
1.95863638 0.01420018 666.92 2.13857379
1.95753719 0.01529937 923.72 2.10967272
75
Tabela 5.28(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 118 –
TBS.
Numero de População =
5,10,15
P.P. Ativa (Antes) =
1.97283655
POP/
Iter
P.P. Ativa
(Depois)
Redução de P.
P. Ativa (pu)
Tempo (s) Total Shunt
instalado
MPC 8 1.918 0.0548 369.63 13.717
5 /100 1.97017570 0.00266085 492.50 0.77485582
10/100 1.96953769 0.00329887 987.09 1.04454202
PSO
15/100 1.96855695 0.00427960 1480.64 1.49811538
5/100 1.96793447 0.00490208 254.31 1.42353081
10/100 1.95927199 0.01356457 655.20 1.61983458
HPSOM
15/100 1.95753719 0.01529937 923.72 2.10967272
5.1.10 Considerações sobre a aplicação
As simulações feitas e apresentadas usando os sistemas (IEEE 14,30, 57 e 118) mostram
um comportamento praticamente idêntico e independente do sistema.
Pode-se notar um desempenho melhor do algoritmo HPSOM em relação ao PSO.
Por outro lado, o algoritmo PSO também, teve um desempenho melhor em relação ao
MPC, na redução de perdas nas barras críticas. Os desempenhos dos algoritmos HPSOM e
PSO começam a cair na medida em que aumenta o número das barras (na instalação de
todas as barras em todos os sistemas). Assim, é necessário um aumento no número de
iterações ou um aumento no número de populações para atingir melhores resultados, como
foi mostrado no caso de sistema IEEE 30, quando o número de iterações foi aumentado
para 500 (Tabela 5.20), atingindo assim bons resultados. Porém, ainda assim o HPSOM
obteve melhores resultados, se comparado com o PSO.
Os resultados desta aplicação são para mostrar a viabilidade dos métodos PSO e
HPSOM na resolução de problemas de otimização complexos e não linear.
7
6
Capítulo 6
Conclusões
O objetivo inicial deste trabalho consistiu no estudo, em primeira etapa, do algoritmo de
Otimização por Enxame de Partícula (PSO) e seu comportamento. Numa segunda etapa
foram implementadas e analisadas aplicações de otimização usando o PSO e comparando
os resultados alcançados com os resultados já obtidos por outros métodos.
Na primeira etapa, foi feito um levantamento bibliográfico sobre o PSO, e
apresentou seu comportamento. Foi feita também, uma comparação com outros algoritmos
de otimização evolucionária. Pode-se concluir que o PSO é um algoritmo muito simples de
ser implementado, porém, é um algoritmo altamente sofisticado, envolvendo a inteligência
coletiva e a interação entre os seus membros. Através dos termos da sua equação de
atualização de velocidade, pode constatar esta interação e cognição.
Em seguida, foi demonstrada uma aplicação para otimização das funções de
pertinência fuzzy, onde obteve bons resultados e apresentou-se como sendo um algoritmo
com vastas possibilidades de se aplicar em diferentes problemas de otimização.
No estudo do comportamento do PSO no modelo global (
gbest), foram constatados
alguns aspectos importantes relacionados com a atualização da sua velocidade, isto pode
conduzir o algoritmo à convergência prematura. Este fenômeno é conhecido como
estagnação. Para solucionar este problema foi proposto um novo modelo híbrido chamado
de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combina a
idéia do enxame de partícula com os conceitos de Algoritmo Genéticos. Este modelo foi
testado e comparado com o PSO original, usando funções unimodal e funções multimodal.
Os resultados obtidos demonstraram que o HPSOM tem potencial para alcançar
convergência mais rapidamente e achar a melhor solução.
Na segunda etapa, foi apresentada a aplicação do PSO e HPSOM para solucionar
problemas ligados ao Sistema Elétrico de Potência. A aplicação apresentada foi a redução
das Perdas Elétricas. Nesta aplicação, foram realizados vários testes, com simulações nos
sistemas IEEE 14, 30, 57 e 118 barras, usando as Barras Críticas e em todas as Barras de
carga dos sistemas. Os resultados foram comparados com os resultados obtidos pelo
método preditor-corretor (MPC) de pontos interiores.
As simulações apresentaram as seguintes conclusões:
No caso de redução de perdas nas barras criticas, os resultados alcançados pelo
HPSOM foram muito bons e melhores do que os resultados alcançados pelo PSO e
MPC. Os resultados alcançados pelo PSO por sua vez foram melhores do que os
resultados alcançados pelo MPC.
No caso de redução de perdas em todas as barras de carga, os resultados alcançados
pelo HPSOM e PSO foram similares e com tendência de melhora, comparados com
os resultados alcançados pelo MPC. Esta queda dos rendimentos do PSO e HPSOM
77
é atribuída o aumento de número de Barras. E neste caso o HPSMO também obteve
melhores resultados se comparado com o PSO.
O tempo necessário para obter os bons resultados no HPSOM e PSO em alguns
casos é superior ao tempo necessário pelo MPC. Este fato é gerado pela necessidade
de executar o Fluxo de Carga para cada iteração, por exemplo, numa simulação com
população = 5 e iterações = 5, gera 25 vez a execução do Fluxo de Carga.
As simulações apresentaram adequação dos PSO e HPSOM para solucionar este
tipo de problema na comparação com os resultados obtidos pelo MPC. E confirmaram o
potencial do HPSOM.
6.1 Contribuições Alcançadas
Este trabalho mostrou a eficácia do algoritmo PSO na resolução de problemas de
otimização para sistemas complexos.
A contribuição principal desta tese foi o desenvolvimento de um novo algoritmo de
otimização, o HPSOM com resultados de convergência melhores do PSO e a solução de
problema de estagnação do PSO. Foi demonstrada também a eficácia do HPSOM para
selecionar problemas de otimização de sistemas complexos. Os resultados obtidos pelas
simulações qualificam este algoritmo proposto como uma técnica em estudos do
planejamento de operação.
6.2 Propostas de Trabalho Futuro
Seguindo esta linha de pesquisa, podem ser apresentadas entre outras, as seguintes
propostas de trabalho futuro:
1.
O desenvolvimento de outras aplicações usando PSO e HPOM, como Corte de
carga e a implementar
redespacho de potência ativa na análise de redução de Perdas
Elétricas.
Com este estudo será possível obter um panorama mais claro da independência dos
algoritmos PSO e HPSOM em relação à técnica empregada.
2.
O desenvolvimento de outras aplicações usando PSO e HPOM, tais como
Religamento e Distribuição de carga.
Com estas aplicações será possível ampliar o campo de estudo e aplicação dos
algoritmos PSO e HPSOM em problemas ligados a Engenharia Elétrica.
3.
A realização de estudos complementares sobre o HPSOM em problemas de
otimização discretos.
78
O HPSOM, como o algoritmo PSO original, foi proposto originalmente para
problemas contínuos. Recentemente, algumas tentativas foram feitas de estender o
PSO aos problemas de otimização discretos. Kennedy e Eberhart [ 30 ] propuseram
a primeira versão discreta com resultados promissoras (consulta a referência
Quantum DiPSO [31] e Clerc [32]). Entretanto, porque o HPSOM é baseado no
PSO original então há a necessidades de realizar novas estudos para estendê-lo aos
problemas de otimização discretos.
79
Referências Bibliográficas
[1] J.W. Marangon Lima, Allocation of Transmission Fixed Charges: An Overview, IEEE
Trans on PWRS, Vol. 11, No. 3, pp 1409-1418, 1996.
[2] J.W. Marangon Lima and
E.J. de Oliveira, The Long Term Impact of Transmission
Pricing
, IEEE Trans on PWRS, Vol. 13, No. 4, pp 1514-1520, 1998.
[3] A.C. Zambroni de Souza,
Tangent Vector Applied to Voltage Collapse and Loss
Sensitivity Studies,
Electric Power Systems Research, Vol. 47, No. 1, pp. 65-70, 1998.
[4] L.C. Araujo Ferreira, A.C. Zambroni de Souza, S. Granville, and J.W. Marangon Lima,
Interior Point Method Applied to Voltage Collapse Problems and Losses Reduction,
IEE Proc., Generation, Transmission and Distribution, Vol. 149, No. 2, pp. 165-170,
2002.
[5] A.C. Zambroni de Souza, L.M. Honório, G.L. Torres, and G. Lambert-Torres,
Increasing the Loadability of Power Systems Through Optimal-Local-Control
Actions
.(accepted to be published by IEEE)
[6] S. Granville,
Optimal Reactive Dispatch Through Interior Point Methods, IEEE Trans.
On Power Systems, Vol.9 No.1, 1994.
[7] R.D.C. Monteiro and I. Adler,
Interior Path Following Primal-Dual Algorithm. Part II:
Convex Quadratic Programming
, Mathematical Programming, 44, 1989.
[8] I.J. Lustig, R.E. Marsten, and D.F. Shanno,
Interior Point Methods for Linear
Programming: Computational State of the Art
, Feature Article in ORSA Journal on
Computing, Vol. 6, No. 1, 1994.
[9] M.A. Abido,
Optimal Power Flow Using Particle Swarm Optimization, Electrical
Power & Energy Systems, No. 24, pp. 563-571, 2002.
[10] J. Kennedy and R. C. Eberhart. Particle Swarm Optimization. In
Proceedings of IEEE
International Conference on Neural Networks
, Perth, Australia,Vol. 4, pp. 1942-
1948, 1995.
[11] R. C. Eberhart and J. Kennedy. A new optimizer using particle swarm theory. In
Proceedings of the Sixth International Symposium on Micro Machine and Human
Science
, Nagoya, Japan, pp. 39-43, 1995.
[12] D. M. Greig.
Optimisation, chapter 3-4. Longman Inc., New York, USA, 1980.
[13] D. E. Coldberg,
Genetic algorithms in search, optimization and machine learning,
Addison Wesley, 1989.
80
[14] J. E. Dennis, Jr and R. B. Schnabel. Numerical Methods for Unconstrained
Optimization and Nonlinear Equations
, chapter 6, pp. 111-152. Prentice-Hall, 1983.
[15] M. F. Möller. A scaled conjugate gradient algorithm for fast supervised learning.In
Neural Networks, Vol. 6, pp. 525-533, 1993.
[16] E. Polak.
Optimization: Algorithms and Consistent Approximations. Springer-Verlag,
New York, USA, 1997.
[17] T. Bäck, D. B. Fogel, and T. Michalewicz, editors.
Basic Algorithms and Operators,
volume 1 of Evolutionary Computation
. Institute of Physics Publishing, Bristol and
Philidelphia, 1999.
[18] T. Bäck, D. B. Fogel, and T. Michalewicz, editors.
Advanced Algorithms and
Operators, volume 2 of Evolutionary Computation
. Institute of Physics Publishing,
Bristol and Philidelphia, 1999.
[19] J. H. Holland,
Adaptation in natural and artificial systems (The University of
Michigam Press, Ann Arbor, 1975), reprinted by MIT Press, 1992.
[20] A. P. Engelbrecht and A. Ismail. Training product unit neural networks.
Stability and
Control: Theory and Applications
, Vol. 2, No. 1, pp. 59-74, 1999.
[21] F. van den Bergh. Particle Swarm Weight Initialization in Multi-layer Perceptron
Artificial Neural Networks. In
Development and Practice of Artificial Intelligence
Techniques
, pp. 41-45, Durban, South Africa, 1999.
[22] F. van den Bergh and A. P. Engelbrecht. Cooperative Learning in Neural Networks
using Particle Swarm Optimizers.
South African Computer Journal, No. 26, pp. 84-
90, 2000.
[23] R. C. Eberhart and X. Hu. Human Tremor Analysis Using Particle Swarm
Optimization. In
Proceedings of the Congress on Evolutionary Computation, pp.
1927-1930, Washington D.C, USA, 1999.
[24] Y. Shi and Russ C. Eberhart. A Modi_ed Particle Swarm Optimizer. In
IEEE
International Conference of Evolutionary Computation
, Anchorage, Alaska, May
1998.
[25] Y. Shi and R. C. Eberhart. Empirical Study of Particle Swarm Optimization.In
Proceedings of the Congress on Evolutionary Computation, pp. 1945-
1949,Washington D.C, USA, 1999.
[26] R. C. Eberhart, P. Simpson, and R. Dobbins
. Computational Intelligence PC Tools,
chapter 6, pp. 212-226. Academic Press Professional, 1996.
[27] D. Corne, M. Dorigo, and F. Glover, editors.
New Ideas in Optimizaton, chapter 25,pp.
379-387. McGraw Hill, 1999.
81
[28] J. Kennedy. The particle swarm: Social adaption of knowledge. In Proceedings of the
International Conference on Evolutionary Computation
, Indianapolis, IN, USA, pp.
303-308, 1997.
[28] P. J. Angeline. Using Selection to Improve Particle Swarm Optimization. In
Proceedings of IJCNN'99, Washington, USA, pp. 84-89, 1999.
[30] R. C. Eberhart and J. Kennedy.
Swarm Intelligence. Morgan Kaufmann, 2001.
[31] M. M. Millonas. Swarms, phase transitions, and collective intelligence. In
Artificial
Life III
, pp.417-445. Addison-Wesley, Reading, MA, 1994.
[32] W. T. Reeves. Particle Systems - A Technique for Modeling a Class of Fuzzy Objects.
In
SIGGRAPH 83, pp. 359-376, 1983.
[33] J. Kennedy and R. C. Eberhart. A Discrete Binary Version of the Particle Swarm
Algorithm. In
Proceedings of the Conference on Systems, Man, and Cybernetics
(SMC97)
, pp. 4104- 4109, 1997.
[34] J. Kennedy and W. M. Spears. Matching Algorithms to Problems: An Experimental
Test of the Particle Swarm and Some Genetic Algorithms on the Multimodal Problem
Generator. In
Proceedings of the International Conference on Evolutionary
Computation (CEC 98)
, Anchorage, Alaska, pp. 78-83, 1998.
[35] A. A. A. Esmin, A. R. Aoki & G. Lambert-Torres. Particle swarm optimization for
fuzzy membership functions optimization. In
Proceedings of the IEEE International
Conference on Systems, Man and Cybernetics 2002 (SMC 2002)
, pp. 108-113, 2002.
[36] L. M. Honório.
Consideração de Técnicas de Otimização Aplicadas ao Problemas de
Colapso de Tensão
, Tese de Doutorado, Escola Federal de Engenharia de Itajubá-
EFEI, Minas Gerais, Brasil, 2002.
[37] A. Carlisle and G. Dozier. Adapting Particle Swarm Optimization to Dynamic
Environments. In
Proceedings of the International Conference on Artificial
Intelligence
, pp. 429-434, Las Vegas, NV, USA, 2000.
[38] M. Clerc. The Swarm and the Queen: Towards a Deterministic and Adaptive Particle
Swarm Optimization. In
Proceedings of the Congress on Evolutionary Computation,
Washington DC, USA, pp. 1951-1957, 1999.
[39] M. Clerc and J. Kennedy. The Particle Swarm: Explosion, Stability and Convergence
in a Multi-Dimensional Complex Space
. IEEE Transactions on Evolutionary
Computation
, 2001.
[40] P. Angeline, Evolutionary Optimization Versus Particle Swarm Optimization
Philosophy and Performance Differences.
Proceedings of 7th Annual Conference on
Evolutionary Programming
, pp. 601-610, 1998.
82
[41] R. C. Eberhart and Y. Shi. Tracking and Optimizing Dynamic Systems with Particle
Swarms. In
Proceedings of the IEEE Congress on Evolutionary Computation, Seoul,
Korea, pp. 94-100, 2001.
[42] R. C. Eberhart and Y. Shi, ”Comparison between Genetic Algorithms and Particle
Swarm Optimization”, Evolutionary Programming VII (1998), Lecture Notes in
Computer Science 1447, pp. 611–616, 1998.
[43] Russ C. Eberhart and Y. Shi. Comparing Inertia Weights and Constriction Factors in
Particle Swarm Optimization. In
Proceedings of the Congress on Evolutionary
Computing
, San Diego, USA, pp. 84-89, 2000.
[44] Y. Fukuyama et al. Practical Distribution State Estimation using Hybrid Particle
Swarm Optimization. In
Proceedings of the IEEE Power Engineering Society Winter
Meeting
, Columbus, 2001.
[45] Y. Fukuyama and H. Yoshida. A Particle Swarm Optimization for Reactive Power and
Voltage Control in Electric Power Systems. In
Proceedings of the IEEE Congress on
Evolutionary Computation
, Seoul, Korea, pp. 87-93, 2001.
[46] D. E. Goldberg
. Genetic Algorithms in Search, Optimization and Machine Learning.
Addison-Wesley, Reading, MA, USA, 1989.
[47] Z. He, C. Wei, L. Yang, X. Gao, S. Yao, R. C. Eberhart, and Y. Shi. Extracting Rules
from Fuzzy Neural Network by Particle Swarm Optimization. In
Proceedings of the
IEEE International Conference of Evolutionary Computation
, Anchorage, Alaska,
USA, pp. 74-77, 1998.
[48] P. Jinchun, C. Yaobin, and R. Eberhart. Battery pack state of charge estimator design
using computational intelligence approach. In
The Fifteenth Annual Battery
Conference on Applications and Advances
, pp. 173-177, 2000.
[49] L. K. Jones. Constructive approximations for neural networks by sigmoidal functions.
Proceedings of the IEEE, Vol. 78, No. 10, pp. 1586-1589, 1990.
[50] J. Kennedy. The particle swarm: Social adaption of knowledge.
In Proceedings of the
International Conference on Evolutionary Computation
, Indianapolis, IN, USA, pp.
303-308, 1997.
[51] J. Kennedy. Small Worlds and Mega-Minds: Effects of Neighbourhood Topology on
Particle Swarm Performance. In
Proceedings of the Congress on Evolutionary
Computation
Washington, DC, USA, pp. 1931-1938, 1999.
[52] J. Kennedy. Stereotyping: Improving Particle Swarm Performance With Cluster
Analysis. In
Proceedings of the Congress on Evolutionary Computing, San Diego,
USA, pp. 1507-1512, 2000.
[53] M. L
vbjerg, T. K. Rasmussen, and T. Krink. Hybrid Particle Swarm Optimiser with
Breeding and Subpopulations.
In Proceedings of the Genetic and Evolutionary
Computation Conference (GECCO)
, San Francisco, USA, 2001.
83
[54] F. Van den Bergh and A.P. Engelbrecht. A new locally convergent particle swarm
optimizer. In
Proceedings of IEEE International Conference on Systems, Man, and
Cybernetics 2002 (SMC 2002)
, pp. 96-101, 2002.
[55] E. Ozcan and C. K. Mohan. Particle Swarm Optimization : Surfing the Waves. In
Proceedings of the International Congress on Evolutionary Computation, pp 1939-
1944, Washington, USA, 1999.
[56] K. E. Parsopoulos, V. P. Plagianakos, G. D. Magoulas, and M. N. Vrahatis. Improving
Particle Swarm Optimizer. In
P. Pardalos, editor, Advances in Convex Analysis and
Global Optimization
. Kluwer Academic, 2001.
[57] K. E. Parsopoulos, V. P. Plagianakos, G. D. Magoulas, and M. N. Vrahatis. Stretching
Technique for Obtaining Global Minimizers Through Particle Swarm Optimization.
In
Proceedings of the Particle Swarm Optimization Workshop, Indianapolis, USA,
pp. 22-29, 2001.
[58] K. E. Parsopoulos and M. N. Vrahatis. Particle Swarm Optimizer in Noisy and
Continuously Changing Environments. In M. H. Hamza, editor,
Artificial Intelligence
and Soft
Computing (IASTED/ACTA), Anaheim, CA, USA, pp. 289-294, 2001.
[59] K. E. Parsopoulos and M.N. Vrahatis. Modification of the Particle Swarm Optimizer
for Locating all the Global Minima. In V. Kurkova, N. C. Steele, R. Neruda, and M.
Karny, editors
, Artificial Neural Networks and Genetic Algorithms, pp. 324-327.
Springer, 2001.
[60] M. A. Potter
. The Design and Analysis of a Computational Model of Cooperative
Coevolution.
PhD thesis, George Mason University, Fairfax, Virginia, USA, 1997.
[61] J. Salerno, J. Using the particle swarm optimization technique to train a recurrent
neural model.
IEEE International Conference on Tools with Artificial Intelligence,
pp. 45-49, 1997.
[62] Y. Shi and R. C. Eberhart. Parameter Selection in Particle Swarm Optimization. In
Evolutionary Programming VII: Proceedings of EP 98, pp. 591-600, 1998.
[63] Y. Shi and R. C. Eberhart. Empirical Study of Particle Swarm Optimization. In
Proceedings of the Congress on Evolutionary Computation, pp. 1945-949,
Washington D.C, USA, July 1999.
[64] Y. Shi and R. C. Eberhart. Fuzzy adaptive particle swarm optimization.In
Proceedings
of the IEEE Congress on Evolutionary Computation (CEC 2001)
, Seoul, Korea. 2001
[65] Y. Shi and R. C. Eberhart. Particle swarm optimization with fuzzy adaptive inerita
weight. In
Proceedings of the Workshop on Particle Swarm Optimization 2001,
Indianapolis, IN. 2001.
[66] Y. Shi and Russ C. Eberhart. A Modified Particle Swarm Optimizer. In
IEEE
International Conference of Evolutionary Computation
, Anchorage, Alaska, May
1998.
84
[67] P. N. Suganthan. Particle swarm optimiser with neighbourhood operator. In
Proceedings of the IEEE Congress on Evolutionary Computation (CEC 1999),
Piscataway, NJ. pp. 1958-1962, 1999.
[68] F. van den Bergh and A. P. Engelbrecht. Efects of Swarm Size on Cooperative Particle
Swarm Optimisers. In
Proceedings of the Genetic and Evolutionary Computation
Conference (CEC 2001)
, San Francisco, USA, pp. 892-899, 2001.
[69] F. van den Bergh and A. P. Engelbrecht. Training Product Unit Networks using
Cooperative Particle Swarm Optimisers. In
Proceedings of the International Joint
Conference on Neural Networks (IJCNN)
, Washington DC, USA, pp. 126-132, 2001.
[70] F. van den Bergh.
An Analysis of Particle Swarm Optimizers. PhD thesis, Department
of Computer Science, University of Pretoria, Pretoria, South Africa, 2002.
[71] P. Kundur.
Power system stability and control. Palo Alto: McGraw-Hill, 1994.
[72] N. H. M. N. Brito.
Ações de Controle Aplicadas à Análise de Estabilidade de Tensão,
Dissertação de Mestrado, Escola Federal de Engenharia de Itajubá –EFEI, Minas
Gerais, Brasil, 1996.
[73] C. A. Cañizares & F. L. Alvarado. Point of collapse and continuation methods for
large AC/DC systems,
IEEE Transactions on Power Systems, vol.8, n.1, pp. 1-8,
1993.
[74] A. C. Z. Souza,C. A. Cañizares, V. H. Quintana. New Techniques to Speed Up
Voltage Collapse Computations Using Tangent Vectors,
IEEE transactions on Power
Systems
, vol.12, No.3, pp. 1380-1387, 1997.
[75] A. C. Zambroni de Souza, M. Glavic, F. Alvarado, “Continuation Power Flow with
Overload and Redispatch”, Proc. Of the XXIII NAPS, Canada, Vol. 1, pp. 26-31,
2000.
[76] B. Isaías Lima Lopes and A. C. Zambroni de Souza,
On Multiple Tap-Blocking to
Avoid Voltage Collapse
, Electric Power Systems Research, Vol. 67, No. 3, pp. 225-
231, 2003.
[77] A.C. Zambroni de Souza, C.A. Cañizares, and V.H. Quintana,
New techniques to
speed up voltage collapse computations using tangent vectors
, IEEE Trans. On Power
Systems, vol. 12, pp. 1380–1387,1997.
[78] C. K. Mohan and B. Al-Kazemi, “Discrete particle swarm optimization”, Proc.
Workshop on Particle Swarm Optimization, Indianapolis, IN: Purdue School of
Engineering and Technology, IUPUI, 2001.
[79] A. C. Melo, J. C. O. Mello and S. Granville. The Effects of Voltage Collapse
Problems in the Reliability Evaluation Of Composite System,
IEEE/PES Winter
Meeting
, paper No. 96 WM 316-0 PWRS, Baltimore, 1996.
85
[80] G. L. Torres. Nonlinear Optimal Power Flow by Interior and Non–Interior Point
Methods
, PhD Thesis, Waterloo, Ontario, Canada, 1998.
[81] G. L. Torres and V. H. Quintana. An interior point method for nonlinear optimal
power flow using voltage rectangular coordinates,
IEEE Trans. on Power Systems,
Vol. 13, pp. 1211–1218, 1998.
[82] D. Park & A. Kandel. Genetic-Based New Fuzzy Reasoning Models with Aplication
to Fuzzy Control,
IEEE Trans. On Systems, vol. 24, no. 1, pp. 39-47, 1994.
[83] M. A. Carvalho, G. Lambert-Torres, L. E. Borges da Silva & J. O. P. Pinto, Fitting
Fuzzy Membership Functions using Genetic Algorithms. In
Proceedings of IEEE
International Conference on Systems, Man, and Cybernetics 2000 (SMC 2000)
. 2002.
[84] P. Kundur. General Introduction and Basic Concepts of Voltage Stability Analysis,
San Diego, In:
IEEE PES Summer Meeting, IEEE Special Tutorial Course: Voltage
Stability,1998.
[85] I. A. Hiskens. Exploring the Poer Flow Solution Space Boundary,
IEEE Transactions
on Power Systems
, vol. 6, No.3, 2001.
[86] C. A. Cañizares.
Voltage Collapse and Transient Energy Function Analyses of AC/DC
Systems
, PhD thesis, University of Wisconsin-Madison, 1991.
[87] L. A. Zadeh . Fuzzy Sets,
Information and Control, Vol.8, pp.338-353, 1965.
[88] S. G. de Brito,
Pacote Computacional para o Ensino da Lógica Difusa, Dissertação de
Mestrado, Escola Federal de Engenharia de Itajubá,Minas Gerais, Brasil, 1998.
[89] A. Kandel & G. Langholz.
Fuzzy Control Systems, CRC Press, 1993.
8
6
Apêndice A Dados do Sistema de 4
Barras
Os dados do sistema de 4 Barras usando o formato IEEE são dados abaixo.
BUS DATA FOLLOWS 4 ITEMS
1 Bus 1 HV 1 1 3 1.060 0.0 0.0 0.0 232.4 -16.9 0.0 1.060 0.0 0.0 0.0 0.0 0
2 Bus 2 HV 1 1 2 1.045 -4.98 21.7 12.7 166.0 42.4 0.0 1.045 50.0 -40.0 0.0 0.0 0
3 Bus 3 HV 1 1 0 1.010 -12.72 74.2 19.0 0.0 23.4 0.0 1.010 40.0 0.0 0.0 0.0 0
4 Bus 4 HV 1 1 0 1.019 -10.33 67.8 -3.9 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0
-999
BRANCH DATA FOLLOWS 4 ITEMS
1 2 1 1 1 0 0.04938 0.15917 0.0528 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
1 3 1 1 1 0 0.15403 0.42304 0.0492 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2 4 1 1 1 0 0.14699 0.49797 0.0438 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
3 4 1 1 1 0 0.25811 0.77632 0.0374 0 0 0 0 0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
-999
END OF DATA
8
7
Apêndice B Publicações Associadas ao
Trabalho e Realizadas no Período
ESMIN, A. A. A., LAMBERT-TORRES, G., de SOUZA, A. C. Z. A Hybrid Particle
Swarm Optimization Applied to Loss Power Minimization. IEEE Transactions on
Power Systems, Vol.2, No.2 , pp. 859- 866, Maio 2005.
AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. An Architecture of a Multi-
Agent System for Power System Operation. Transactions On Computers. London,
Vol.2, No.3, pp.408 - 412, 2004.
ESMIN, A. A. A., AOKI, A. R., LAMBERT-TORRES, G. Particle Swarm Optimization
versus Genetic Algorithms for Fitting Fuzzy Membership Functions. Transactions On
Systems. Londres, Vol.2, No.1, pp.68 - 73, 2003.
AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. An Architecture of a Multi-
Agent System for Power System Operation. In: 3rd International Conference on
Automation and Information, ICAI'03, Tenerife, 2003.
AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. Multi-Agent System for
Distribution System Operation.
In: Advances in Logic, Artificial Intelligence and
Robotics. Ed.Amsterdam : IOS Press, pp. 38-45, 2002.
ESMIN, A. A. A., AOKI, A. R., LAMBERT-TORRES, G. Particle swarm optimization for
fuzzy membership functions optimization. Proceedings of the IEEE International
Conference on Systems, Man and Cybernetics 2002 (SMC 2002), pp. 108-113, 2002.
ESMIN, A. A. A., AOKI, A. R., LOPES JR., C. R., LAMBERT-TORRES, G. Multi-Agent
Simulation and Educational Tool for Power System Operation. In: 2002 IEEE
International Conference on Engineering Education, INTERTECH'2002, Santos-
SP,2002.
LOPES JR., C. R., AOKI, A. R., ESMIN, A. A. A., LAMBERT-TORRES, G. Multi-Agent
Model for Power Substation Restoration. In: International Conference on Power and
Energy Systems (PES 2001), Tampa, 2001.
88
Apêndice C Artigo da Tese Publicado no
IEEE – Transactions on Power Systems
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo