44
avanços das tecnologias computacionais, foi nos anos de 1960 com o teorema do
perceptron convergente de Rosenblatt, e, o trabalho de Minsky e Papert mostrando
as limitações de um perceptron simples. O trabalho de Minsky e Papert entusiasmou
os pesquisadores, principalmente da área de ciência da computação. Em 1982 com
o desenvolvimento do algoritmo de Hopfield e o algoritmo para perceptron de
múltiplas camadas back-propagation. A partir dos anos de 1980 as redes neurais têm
amadurecido constantemente. Devido ao aumento do poder computacional, grandes
redes podem ser processadas em pequeno espaço de tempo (JAIN 1996).
As redes neurais apresentam grande eficácia no tratamento de dados
ruidosos, embora seja sensível a valores de atributos desproporcionais e ao
problema de overfiting, o que pode ser resolvido com normalização dos dados e
redução de casos ou discretização de atributos. As tarefas de mineração de dados,
onde as redes neurais têm sido usadas com maior freqüência, são as de regressão,
reconhecimento de padrões e de classificação, encontrando, inclusive, relações não
lineares entre os atributos de entrada e os de predição.
Cada neurônio em uma RNA é uma unidade básica de processamento. Um
neurônio tem um número de entradas e uma única saída. Ele combina todos os
valores de entrada, executa cálculos com eles, e dispara uma um valor de saída de
maneira similar aos neurônios biológicos. A Figura 11 mostra a estrutura de um
neurônio ele possui uma função que combina as entradas e uma função que calcula
a saída, a função de combinação combina as entradas em um valor único. Existem
vários modos de combinar as entradas, o mais comum é a soma de pesos onde é
feito um somatório do produto das entradas pelo seu peso. Outras combinações
usadas podem ser média, máximo, OU lógico, E lógico, entre outras. Similar ao
neurônio humano, pequenas alterações nas entradas podem resultar em grandes
alterações na saída da mesma forma que grandes alterações nas entradas podem
resultar em pequeno impacto na saída.