Download PDF
ads:
JOAQUIM MANOEL MONTEIRO VALVERDE
A COMUNICAÇÃO COM MÍDIAS DIGITAIS:
UMA PROPOSTA DE MODELO TRANSDISCIPLINAR
Universidade Metodista de São Paulo
Programa de Pós-Graduação em Comunicação Social
São Bernardo do Campo, 2008.
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
JOAQUIM MANOEL MONTEIRO VALVERDE
A COMUNICAÇÃO COM MÍDIAS DIGITAIS:
UMA PROPOSTA DE MODELO TRANSDISCIPLINAR
Tese apresentada em cumprimento parcial às
exigências do Programa de Pós-Graduação em
Comunicação Social, da Umesp Universidade
Metodista de São Paulo, para a obtenção do grau de
Doutor.
Orientador: Prof. Dr. Sebastião Squirra
Universidade Metodista de São Paulo
Programa de Pós-Graduação em Comunicação Social
São Bernardo do Campo, 2008.
ads:
FOLHA DE APROVAÇÃO
A tese Proposta de Modelo Transdisciplinar para Comunicação com Mídias
Digitais elaborada por Joaquim Manoel Monteiro Valverde, foi defendida
em sessão pública aos quatro dias do mês de agosto de dois mil e oito, tendo
sido APROVADA.
Banca examinadora:
Prof. Dr. Sebastião Squirra (PRESIDENTE)
Prof. Dr. Fábio Josgrilberg (TITULAR-UMESP)
Prof. Dr. Daniel dos Santos Galindo (TITULAR-UMESP)
Prof. Dr. Luiz Claudio Martino (TITULAR-UNB)
Prof. Dr. Sidney Ferreira Leite (TITULAR- Belas Artes).
Área de concentração: Mídias Digitais
Linha de Pesquisa: Comunicação Especializada
Projetos em: Comunicação e Tecnologias Digitais
DEDICATÓRIA
Dedico esta tese de doutorado ao meu pai, Joaquim
Monteiro Valverde (in meria).
EPÍGRAFE
A negação da natureza humana transbordou
da academia e provocou uma desconexão entre
a vida intelectual e o bom senso.
Steven Pinker (2002)
AGRADECIMENTOS
Agradeço minha companheira de todas as
horas Silma Battezzati, meus filhos Izabel e
Ricardo, e as pessoas que compreenderam
meus momentos de ausência para a realização
desta tese.
Agradeço ao Prof. Dr. Sebastião Squirra pelo
incentivo e orientação nesta cruzada e, em
especial, por ter-me apresentado à minha
última paixão: a Ciência.
LISTA DE TABELAS
TABELA 1: CODIFICAÇÃO BINÁRIA 161
TABELA 2: QUADRO DE CONCEITOS E GENERALIZAÇÕES: LITTLEJOHN 182
TABELA 3: QUADRO DE GENERALIZAÇÕES E CONCEITOS: NATUREZA DA
COGNIÇÃO HUMANA
192
TABELA 4: QUADRO DE GENERALIZAÇÕES E CONCEITOS: NATUREZA DA
MÍDIA DIGITAL
202
TABELA 5: QUADRO DE GENERALIZAÇÕES E CONCEITOS: NATUREZA DA
RELAÇÃO ENTRE HUMANOS E MÍDIA DIGITAL
208
LISTA DE FIGURAS
FIGURA 1: MODELO DE SISTEMA DE MÍDIA DIGITAL 236
FIGURA 2: MODELO DE SUBSISTEMA APLICATIVO 237
FIGURA 3: MODELO DE CAMADAS E CATEGORIAS DE SOFTWARE
TÍPICAS DE SISTEMAS LINUX
238
FIGURA 4: CRT- CATHOD RAY TUBE 239
FIGURA 5: CÉREBROS DO GÊNERO HOMO 240
FIGURA 6: CRONOLOGIA DA VIDA DAS ESPÉCIES HUMANAS 241
FIGURA 7: COMPARAÇÃO ENTRE AS CAIXAS DE VOZ DOS SÍMIOS E
HUMANOS
242
FIGURA 8: ESCULTURA DE DAVI, OBRA DE MICHELANGELO. 243
FIGURA 9: PINTURA CUBISTA: O HOMEM DO CAFÉ 244
FIGURA 10: FOTOGRAFIA DE FATO REAL – FOME NA ÁFRICA 245
FIGURA 11: DIVISÃO DA HISTÓRIA SEGUNDO MCLUHAN 246
FIGURA 12: INTERFACE LVC - O ESTADO FÍSICO DA MATÉRIA 247
FIGURA 13: INTERFACE LVC - OXIGÊNIO O COMBUSTÍVEL DO FOGO 248
SUMÁRIO
INTRODUÇÃO 12
CAPITULO I - MAQUINAS E MENTES 34
1.1 – PRIMEIRA ONDA: ZEITGEIST METAFÍSICO 34
1.2 – SEGUNDA ONDA: ZEITGEIST DA RAZÃO 35
1.3 – TERCEIRA ONDA: EMPIRISMO 38
1.4 – QUARTA ONDA: CIÊNCIA NATURALISTA 41
1.5 – QUINTA ONDA: PSICOLOGIA CIENTÍFICA 42
1.6 – SEXTA ONDA: CIÊNCIA DA MENTE 49
CAPITULO II – NATUREZA HUMANA: DE DESCARTES À NEUROCIÊNCIA
COGNITIVA
75
2.1 – VISÃO RACIONALISTA DA NATUREZA HUMANA 76
2.3 – VISÃO EVOLUCIONISTA DA NATUREZA HUMANA 86
2.4 – VISÃO NEUROCIENTÍFICA DA NATUREZA HUMANA 106
CAPITULO III – NATUREZA DAS MÍDIAS 118
3.1 – LINGUAGEM DAS PALAVRAS 130
3.2 - LINGUAGEM DAS IMAGENS 136
3.3 - LINGUAGEM CINEMATOGRÁFICA 147
3.4 - LINGUAGEM MUSICAL 154
CAPÍTULO IV – COMPUTADOR UMA NOVA MÍDIA 158
4.1 – O COMPONENTE SOFTWARE 160
4.2 – PADRÕES PARA CODIFICAÇÃO BINÁRIA 166
CAPÍTULO V - DESCRIÇÃO DO MODELO TRANSDISCIPLINAR PARA
COMUNICAÇÃO COM MÍDIAS DIGITAIS
179
5.1 - O MODELO REFERENCIAL DE LITTLEJOHN 185
5.2 – A PESQUISA TRANSDISCIPLINAR 191
5.3 – O MODELO EXPERIMENTAL LVC 193
5.4 – GENERALIZAÇÕES E CONCEITOS DA COMUNICAÇÃO DIGITAL 197
5.4.1 – GENERALIZAÇÕES E CONCEITOS DA NATUREZA COGNITIVA HUMANA 198
5.4.2 – GENERALIZAÇÕES E CONCEITOS DA NATUREZA DA MÍDIA DIGITAL 208
5.4.3 GENERALIZAÇÕES E CONCEITOS DA NATUREZA DA RELAÇÃO ENTRE
HUMANOS E MÍDIA DIGITAL
216
CONCLUSÃO 222
REFERÊNCIAS 225
APÊNDICE A: ESTRUTURA DE APRESENTAÇÃO DA OBRA FUNDAMENTOS DA
COMUNICAÇÃO HUMANA
230
RESUMO
Historicamente, ao serem criadas, novas mídias se apropriam de recursos de linguagens de outras
mídias pré-existentes. Na medida em que as tecnologias da mídia se desenvolvem o mesmo ocorre
com as linguagens, de forma a adaptarem-se, simultaneamente, ao meio e mensagens; modos de
produção; e condições ideais de interação com os usuários. As mídias digitais, por sua natureza,
dispõem de interfaces performáticas imagens-pensantes que permitem mais que a simples
representação estética de conteúdos. Neste contexto, se insere a problemática desta pesquisa: Quais
teorias transdisciplinares podem contribuir para a compreensão dos complexos processos
comunicacionais que envolvem o relacionamento entre seres humanos e mídias digitais com propósito
de aprendizagem? O objetivo desta pesquisa foi o de estender o modelo desenvolvido por Stephen
Littlejohn e incluir novos conceitos e generalizações, provenientes de outros ramos da ciência com
diferentes 'visões de mundo', visando ampliar a proposta de Littlejohn para um Modelo
Transdisciplinar para Comunicação com Mídias Digitais, que, em nossa perspectiva, contribui para
explicar os fenômenos pertinentes à relação de humanos com mídias digitais, principalmente em
processos de aprendizagem de ciências. A pesquisa foi feita com métodos de pesquisa Bibliográfica e
Descritiva.
Palavras-chave: Mídias Digitais, Comunicação Social, Teorias Transdisciplinares, Laboratório Virtual
de Ciências – LVC, Ciência da Mente.
ABSTRACTS
Historically, when new media are created, it is used the language resources of other pre-existent
media. As the new media technology is been developed language is also adapted to both media and
message, production methods and ideal interface conditions. Digital media, by nature, are
programmed interfaces 'thinking' objects that cope with more than simple content representation.
This is the context of this research: What theories can contribute to the understanding of the
relationship between humans and digital media? The main objetive of this research was to extend a
the Model of Generalizations and key Concepts for Communication Processes developed by Stephen
Littlejohn and create a Transdisciplinar Model for Communication with Digital Media that includes
knowledge related to the nature of human cognition, nature od digital media and their relationship.
Key Words: Digital media; Communication; Transdiscplinary Theories; Science Virtual
Laboratory; General Systems. Science of Mind.
INTRODUÇÃO
Tecnologias
1
para comunicação humana têm sido criadas há milênios, de acordo com
os conhecimentos científicos, das técnicas
2
e dos materiais existentes nos ambientes e épocas
em que foram criadas. Alfabeto e desenho; numeração arábica e cálculo decimal; papiro e
papel; tinta, pincel e pintura; tipografia e imprensa de tipos móveis; fotografia; celulóide e
cinema; eletricidade, rádio e televisão; gravadores de áudio e vídeo; e, mais recentemente
computadores e interfaces gráficas amigáveis para usuários finais (GUI Graphical User
Interface) são algumas dessas tecnologias.
Tecnologias de mídia têm como funções básicas armazenar e representar informações
e, dessa forma, exercem o papel de medium para transporte de mensagens comunicacionais
através do tempo e do espaço. A midiatização eficaz das mensagens pretendidas com a
informação é assegurada através da qualidade do suporte midiático e do emprego de
linguagens adequadas e necessárias à construção dos conteúdos e aos propósitos da mensagem
comunicacional. Por outro lado, o emprego dos tipos e recursos das linguagens, utilizados nas
construções das mensagens, tem sido condicionado pelos atributos físicos e técnicos das
mídias.
No que diz respeito à linguagem, historicamente, ao serem criadas, novas mídias se
apropriam de recursos de linguagens de outras mídias pré-existentes. Na medida em que as
tecnologias da mídia se desenvolvem também linguagens são desenvolvidas de forma a
adaptar-se simultaneamente aos meios e as mensagens; aos modos de produção; e às
condições de interação com os usuários.
Após a invenção de Gutenberg a linguagem escrita tem sido empregada de forma
absoluta para armazenamento e transmissão de mensagens, através da mídia impressa há mais
de 500 anos, com finalidade noticiosa, de entretenimento, publicidade e propaganda,
comunicação institucional e educação em contextos de comunicação interpessoal, de grupo e
de massa. Na segunda metade do século XX a hegemonia da mídia impressa passou a ser
ameaçada em alguns dos contextos de comunicação em que reinava absoluta. Após a invenção
da mídia eletrônica, o rádio e a televisão, em pouco mais de 70 anos, tornaram-se populares e
1 Tecnologia está conceituada como conhecimento científico utilizado de forma prática.
2 Técnica está conceituada como a habilidade que permite a alguém fazer algo prático.
12
13
hegemônicos no papel de veículos de comunicação de massa, voltados para informações
jornalísticas, publicitárias e de entretenimento. Nesse período, evoluíram também as
linguagens para melhor adequação às estruturas dessas mídias, categorias das mensagens e
contextos comunicacionais.
Embora as mídias eletrônicas tenham obtido sólida presença no contexto de
comunicação de massa o mesmo não ocorreu nos campos da comunicação corporativa e dos
sistemas educacionais, especificamente na educação, a palavra oral e impressa se mantém
como mídia hegemônica para a propagação de conhecimentos apesar dos alertas para as
influências que as mídias eletrônicas estão a exercer nos processos educacionais, como
ressalta Maraschin apud Pellanda (2000 p. 106).
As práticas tradicionais de conviver, educar e, mesmo, de pensar e de conhecer têm
sofrido abalos e transformações com o advento das novas tecnologias da
comunicação. Instituições sociais, dentre elas a escola, recebem, quotidianamente,
o impacto de um bombardeio de informações provindas de diferentes meios. As
novas possibilidades de acesso à informação questionam, principalmente, as bases
oralista e unidirecional da comunicação (do professor ao aluno; do livro didático
ao aluno) nas quais a escola sustenta sua prática pedagógica.
No final do século XX muitas das mesmas tecnologias utilizadas para a criação do
rádio e da televisão, adicionadas das tecnologias de satélites e de telefonia, permitiram criar
um vasto sistema para transmissão de voz à distância ou telecomunicações em escala
global e, simultaneamente, sistemas eletrônicos de processamento de dados inventados com o
propósito inicial de realizar cálculos e facilitar o acesso a informações em volumes e
velocidades sobre-humanas. As tecnologias de hardware e software para computadores
evoluíram a ponto de consolidar a presença dos computadores na quase totalidade das
organizações públicas e privadas no final da década de 1980, em escala mundial.
Logo após a implantação dos computadores as corporações iniciaram a interconexão
dos mesmos através das redes de telecomunicações existentes e acabaram por criar dois
sistemas de comunicação independentes um para dados e outro para voz que não
convergiam, mas utilizavam a mesma infra-estrutura de telecomunicações.
A partir de meados da década de 1980 surgiram os microcomputadores e as
tecnologias digitais de hardware e software que possibilitaram a criação das interfaces
gráficas amigáveis ou GUI Graphic User Interface e do processamento multimídia, uma
forma de representar informação que combina texto, som, imagens, animação e vídeo. A
maioria das aplicações multimídia inclui associações pré-definidas conhecidas como
hyperlinks, que permitem aos usuários interagir e influenciar no processo de recuperação de
informação de modo intuitivo.
A facilidade em utilizar microcomputadores impulsionou sua utilização, provocou
significativa redução nos preços das máquinas e levou à popularização dos micros” pessoais,
transformando-os em aparelho de uso doméstico no final da década de 1990.
No limiar do século XXI a maioria dos computadores, mesmo os de uso doméstico
ou pessoal, puderam utilizar a rede global popularmente denominada Internet para
comunicação de informações multimídia. A interconexão de computadores em escala global
foi possível devido ao estabelecimento do TCP/IP – Transmission Control Protocol / Internet
protocol
3
como padrão mundial para interconexão de computadores. A circulação de
informações multimídia foi amplamente facilitada pelo britânico Timothy Berners-Lee que,
em 1989, criou um conjunto de softwares livres
4
entre eles o browser, a linguagem HTML-
Hypertext Markup Language e o serviço HTTP - Hypertext transfer protocol para permitir a
transferência de textos, figuras, sons e imagens entre os computadores interligados à Internet,
em uma mesma página de informação: uma webpage.
A Internet e os softwares de Berners-Lee contribuíram para criar um novo ambiente
midiático digital: a World Wide Web ou WEB, que muito rapidamente constituiu-se como uma
nova mídia em franca utilização não só para a comunicação pessoal, mas, também, para a
veiculação de informações jornalísticas, publicitárias e de entretenimento.
A tecnologia de WEB também foi prontamente adotada pelas corporações para a
comunicação com seus diversos públicos e como instrumento de negociação e marketing.
Mais recentemente, a Internet evoluiu e tornou-se uma infra-estrutura de alcance global para
comunicação em alta velocidade, através do protocolo TCP-IP de telecomunicação de voz,
tecnologia conhecida como VoIP Voice over IP e de imagens em movimento, dentre as
quais a IP-TV.
A rápida penetração das mídias digitais nas camadas das sociedades contemporâneas
levou muitos cientistas a sugerirem a utilização de computadores e da WEB
5
nos processos
educacionais, tanto nas modalidades de ensino/aprendizagem a distância quanto como
3 O Protocolo de Controle de Transmissão (TCP) / Internet Protocol (IP) possui código aberto (software livre).
Foi desenvolvido em 1973/74 pelo norte-americano Vinton Cerf, como parte de um projeto patrocinado pela
Agência de Programas Avançados de Investigação - ARPA, do Departamento de Defesa dos EUA.
4 Softwares cujas códigos de programação ficam disponíveis para uso, distribuição e modificação pelos
usuários, sem onus financeiro.
14
15
instrumentos autônomos para auto-aprendizagem. Previsões relacionadas ao uso de
computadores no ensino são respaldadas por pontos de vista de cientistas respeitados como
Nicolas Negroponte, do Massachusetts Institute of Technology ou MIT, para quem:
Uma vez que um computador pode hoje simular quase tudo, não se precisa mais
dissecar um sapo para aprender sobre ele. Em vez disso, pode-se pedir às crianças
que projetem sapos, que construam um animal com um comportamento semelhante
ao do sapo, que modifiquem esse comportamento, que simulem os músculos e que
brinquem com o sapo. Brincando com a informação sobretudo em se tratando de
coisas abstratas -, o conteúdo adquire maior significado. (NEGROPONTE 2000,
p. 190).
A afirmação otimista de Negroponte, se for tomada ao pé da letra, pressupõe que toda
criança conhece sapos, sua anatomia e comportamento; domina as técnicas de projeto por
imagem; m capacidade cognitiva para desenhar seres vivos; habilidade para utilizar
softwares de modelagem e animação de grande complexidade; ou, então, que embora não
tenha esses conhecimentos o computador e os softwares se constituem em ambiente no qual a
criança poderá obtê-los facilmente. Ademais, a afirmação de Negroponte tem por pressuposto
que as imagens apresentadas nas telas de vídeo dos computadores, assemelhadas as dos
aparelhos de televisão, são adequadas às atividades de aprendizagem.
Será tão simples assim? O pressuposto desta pesquisa é que respostas objetivas a
esse tipo de questionamento precisam ser obtidas a partir de análise detalhada desse tipo de
processo comunicacional, ou seja, processos para aprendizagem através de mídias digitais à
luz de um quadro referencial teórico específico, que leve em conta a natureza da mídia digital,
do ser humano e da relação entre eles.
Sem esse cuidado poderemos repetir insucessos ocorridos em tentativas anteriores
para inovar os processos de aprendizagem, com o uso da televisão e do videocassete e até
mesmo de computadores. No que diz respeito ao emprego do audiovisual, pesquisadores
como Lauro de Oliveira Lima analisaram insucessos de tais iniciativas e constataram que o
problema não está na mídia, mas na forma equivocada de seu emprego nos processos
educacionais, ou seja, “O grande equívoco em torno dos novos instrumentos didáticos é
querer inseri-los em processos arcaicos. Não há quem suporte 50 minutos de “exposição” pela
televisão, mesmo porque não quem “discipline” o auditório [...]. Por outro lado, muitas
5 A tecnologia da WEB pode ser operada em computadores mesmo que estes estejam desconectados da rede,
com o intuito de utilizar as facilidades de operação introduzidas pelos inventos de Berners-Lee, amplamente
conhecidas do público em geral.
vezes o “ouvinte” não tem ainda “educação” para a televisão ou a televisão não tem
recursos próprios em sua estrutura informativa” (LIMA 1973, p. 44).
Ocorre que, comparativamente às mídias impressa e eletrônica, a mídia digital é
tecnologia muito recente, complexa e possibilita formas inovadoras de interação humana com
as interfaces dos computadores inexistentes em qualquer das outras mídias.
A interface de comunicação da mídia digital se constitui por imagens multimídia que
podem conter múltiplas linguagens, ou seja, possibilita que a informação seja articulada
combinando signos escritos, figuras, vocais, musicais, gestuais e cinematográficos ao mesmo
tempo.
Na verdade, os computadores são, em si, incapazes de processar páginas multimídia.
Neles trafegam somente informações binárias que podem ser convertidas, por softwares, em
signos representativos de palavras escritas, sons e imagens gráficas, etc. e apresentadas em
tela analógica como 'imagem' única, fisicamente embutida em dispositivo de hardware, de
forma similar à televisão. Dessa forma, explica Burnett na obra How Images Think (2005,
p.2), as imagens digitais “[...] combinam todas as formas de mídia e são sínteses de
linguagem, discurso e visualização”. O poder da imagem multimídia, somada ao dos
softwares de programação, permite a transformação das imagens, apresentadas em telas de
computador, em objetos-pensantes que adotam comportamentos e se auto-modificam como
resultado dos processos de interação com os usuários.
Tomando por base a retrospectiva histórica de que com o passar do tempo as
linguagens 'emprestadas' sofrem adaptação até se constituírem em linguagem específica para a
nova mídia é pertinente considerar a necessidade do desenvolvimento de linguagem própria
para mídias digitais, adequada à construção de objetos-pensantes para processar mensagens de
forma adequada aos processos comunicacionais, principalmente os voltados à aprendizagem.
Esse novo contexto de comunicação digital terá que ser analisado à luz de novas teorias
transdisciplinares, que possam explicar os diversos aspectos e fenômenos existentes nesse
complexo processo de comunicação que ainda não está claramente definido, explicado ou
mesmo delineado nas inúmeras teorias apresentadas por estudiosos consagrados como
Stephen W. Littlejohn, autor de Fundamentos Teóricos da Comunicação (1978); Melvin L.
DeFleur e Sandra Ball-Rokeach, de Teorias da Comunicação de Massa (1989); John B.
Thompson, de A Mídia e a Modernidade (1995); Bernard Miège, de O Pensamento
Comunicacional (2000); Paul Watzlawwick, Janet Helmick Beavin e Don D. Jackson, autores
16
17
de Pragmática da Comunicação Humana (1967), Armand e Michele Mattelart, de Teorias da
Comunicação (1999) e muitos outros, quase sempre dedicados ao estudo dos impactos que as
mensagens jornalísticas, de publicidade e propaganda, institucionais e de entretenimento
causam nos contextos de comunicação inter-pessoal, de grupo e de massa.
Suposições, hipóteses, fatos, leis científicas e predições, mesmo as formuladas por
cientistas da estirpe dos citados, devem estar submetidas a teorias que descrevem, explicam
ou predizem os fenômenos que afetam a vida humana. Como, sem ampliar as teorias
comumente apresentadas pelos autores supra citados, será possível responder as dúvidas
suscitadas pelo uso de mídias digitais? Como distinguir entre respostas corretas ou erradas
para perguntas como:
De que forma as telas de plasma, cristal quido e de raios catódicos das televisões e
computadores e o fluxo de imagens afetam os sentidos e os processos mentais humanos?
A hibridização da relação das pessoas com os objetos-pensantes construídas com linguagem
adequada e inteligência distribuída – permitirão sustentar diálogos que terminarão por modificar a
relação das pessoas com a interface analógica?
Serão as linguagens atualmente empregadas na construção de objetos-pensantes das mídias
digitais adequadas aos processos comunicacionais necessários ao aprendizado de ciências?
Se for verdadeira a afirmação de que as tecnologias de mídia são extensões dos sentidos do
homem e remodelam seu ambiente e mente, como preconiza McLuhan, será possível concluir que
melhor compreensão dos processos mentais humanos permite definir estruturas de linguagem
melhor adaptadas às atividades de aprendizagem?
No momento é possível observar que as mensagens multimídia, veiculadas através das mídias
digitais, são estruturadas com as linguagens 'naturais' de cada um dos fragmentos de mídia que
compõem a gestalt multimídia da mensagem. Com a utilização dos recursos avançados de
arquitetura de softwares, tais como inteligência artificial, realidade virtual, de animação e de
técnicas avançadas de programação será possível desenvolver uma linguagem própria de
comunicação para a mídia digital, mais coerente com os processos mentais necessários à
aprendizagem?
Será possível afirmar que a adequação das mídias digitais aos processos mentais humanos
independe de outros fatores relacionados à genética, idade, sexo, ambiente cultural, níveis sócio-
educacional e econômico e etc.?
É possível pressupor que a utilização adequada de mídias digitais em processos educacionais
independe do tipo de conhecimentos artes, ciências, religião etc. e das habilidades que os
usuários possuem?
É preciso reconhecer que todas as questões relacionadas com a mídia digital são
muito recentes, entretanto, respostas para as perguntas formuladas requerem que o
conhecimento científico relacionado a essas questões teorias formuladas com base em
métodos científicos adequados esteja organizado através de modelos referenciais teóricos.
Afinal, dentre os quatro métodos de descoberta experiência, artes, estudo e ciência o
método científico é a forma mais significativa da descoberta de “verdades” acerca dos
fenômenos que afetam a existência humana.
Estudos no campo da Comunicação Social têm se utilizado de inúmeras teorias de
outros campos do conhecimento para compreender os fenômenos da comunicação. Assim tem
sido comum o uso de teorias da Filosofia, Sociologia, Psicologia, Antropologia, Lingüística,
Cibernética e de outras áreas do conhecimento no estudo dos fenômenos comunicacionais,
basicamente em função dos propósitos das mensagens – informar, influenciar, entreter, educar
e dos contextos em que se realizam intrapessoal, interpessoal, grupo e massa e da
relação de interesses e ou dependências entre emissores e receptores de mensagens.
Stephen Littlejohn na obra Fundamentos Teóricos da Comunicação Humana
apresentou o resultado de pesquisa realizada com o intuito de criar um Quadro Referencial
Teórico no qual teorias pudessem ser organizadas.
Embora o quadro referencial de Littlejohn tenha revelado a existência de 11 amplos
conceitos e generalizações que estão intimamente vinculados à comunicação, o que em nosso
entender representa um grande avanço, não foge à regra comum das teorias da comunicação
correntes por reduzi-lo a parâmetros citados anteriormente: a mídia é tratada como um simples
veículo e os aspectos relevantes são atribuídos aos conteúdos mensagens – e à relação entre
emissores e receptores.
Poucos são os autores voltados à formulação de teorias preocupadas em identificar
claramente os impactos que a mídia em si independentemente do conteúdo produz no
processo comunicacional. Um dos mais importantes pesquisadores dessa perspectiva é
Marshall McLuhan, cientista e professor de literatura canadense que deu importantes
contribuições para o campo da comunicação e afirmou que Media is the Message e que as
mídias são extensões dos sentidos e capacidades humanas. Ou seja, as mídias, como qualquer
tecnologia são próteses criadas pelo próprio homem para ampliar suas capacidades físicas e
sensoriais. De fato, poucos animais, além do homem e possivelmente seu primo macaco são
capazes de utilizar e desenvolver ferramentas e esse atributo foi, sem dúvida, o que permitiu
suas sobrevivências em ambientes hostis na era pré-histórica e na antiguidade. A hipótese de
ser verdadeira a afirmação de McLuhan nos leva a questionar porque, então, a natureza
humana e de suas próteses as mídias não são geralmente consideradas nos estudos dos
fenômenos da comunicação.
Ao aceitarmos que as mídias mecânicas papel, por exemplo e eletrônica a
18
19
televisão, por exemplo são extensões dos sentidos humanos e, portanto, o computador é a
extensão do próprio cérebro, como então será possível estudar fenômenos que envolvem o
relacionamento de humanos com mídias digitais sem considerar os efeitos das mídias nos
sentidos e cérebros humanos? Quais campos do conhecimento e teorias podem contribuir
para esclarecer essa problemática?
Este foi o problema dessa pesquisa: Quais teorias transdisciplinares
6
podem
contribuir para a compreensão dos complexos processos comunicacionais que envolvem o
relacionamento entre seres humanos e mídias digitais, mais especificamente ainda,
considerando o propósito de aprendizagem de conceitos complexos e muitas vezes contra-
intuitivos das ciências naturais?
O objetivo desta pesquisa foi o de estender o modelo desenvolvido por Stephen
Littlejohn e incluir novos conceitos e generalizações, provenientes de outros ramos da ciência
com diferentes 'visões de mundo', visando ampliar a proposta de Littlejohn para um Modelo
Transdisciplinar para Comunicação com Mídias Digitais, que, em nossa perspectiva,
contribui para explicar os fenômenos pertinentes à relação de humanos com mídias digitais,
principalmente em processos de aprendizagem de ciências.
Nesta tese utilizamos um modelo experimental de Laboratório Virtual de Ciências
LVC, para representar, simbolicamente, mídias criadas para finalidades similares. Trata-se de
um sistema computadorizado que opera software especializado e com o qual pessoas podem
relacionar-se para realizar experimentações e exercícios relativos a uns poucos fenômenos
estudados pelas ciências naturais. No LVC o estudante pode seguir as instruções 'faladas' pelo
computador e interagir com o software para tentar descobrir alguns fatos, confirmar teorias, ou
formular hipóteses relacionadas com fenômenos científicos. No protótipo foram criados
exercícios para explicar: o papel do oxigênio no processo de combustão; transformações no
estado físicas da matéria e localização dos órgãos internos do corpo humano.
Por conseqüência, enquanto o Modelo Transdisciplinar apresentado nesta tese se
constitui em um arcabouço teórico portanto uma teoria que relaciona outras teorias o
modelo LVC foi utilizado para representar simbolicamente um exemplo hipotético de objeto-
pensante.
Ressaltamos que o modelo LVC, por si só, não irá revelar a “verdade” e não deve ser
6 A Transdisciplinaridade é conceituada por Zabala, (2002, p. 28-33) como o “grau máximo de relações entre
disciplinas, de modo que chega a ser uma integração global dentro de um sistema totalizador”.
confundido com a realidade em si. Trata-se de uma construção concentrada em certos
aspectos do processo pesquisado à custa de outros aspectos considerados de menor
importância pelo pesquisador. Em síntese, o modelo LVC representa a percepção do
pesquisador e não a realidade, embora possa representá-la metaforicamente. A análise desse
modelo possibilitou melhor compreensão das interações presentes em processos de
comunicação complexos, ao descrever processos hipotéticos especificamente desenhados para
midiatizar experimentações científicas com auxílio de mídias digitais.
O desenvolvimento dos trabalhos de pesquisa partiu da premissa de que a
aprendizagem com uso de computadores é por demais complexa para ser compreendida
exclusivamente com base nas teorias do interacionismo simbólico preconizada por Littlejohn,
e outras do campo da comunicação social unicamente preocupadas com os conteúdos e
'percepção' das mensagens e com as relações de poder e interesse entre emissores e receptores.
Pois para explicar a relação entre pessoas e mídias digitais é necessário aprofundamento
teórico também quanto à natureza do homem, no que diz respeito aos processos neurológicos
e cognitivos; quanto a natureza da mídia digital, no que diz respeito a estrutura funcional e de
linguagens; quanto a natureza do processo comunicacional, no que diz respeito as
particularidades da relação homem-máquina, na qual as tecnologias se caracterizam, por
suposto, como extensões de seu ser.
Daí a ampliação da perspectiva da Transdisciplinaridade originalmente proposta por
Littlejohn, porque o que nos “[...] interessa não é uma síntese, mas um pensamento
transdisciplinar, um pensamento que não se interrompa nas fronteiras entre as disciplinas. [...]
é o fenômeno multidimensional, e não a disciplina que seleciona uma dimensão desse
fenômeno. Tudo o que é humano é ao mesmo tempo psíquico, sociológico, econômico,
histórico, demográfico. É importante que esses aspectos não sejam separados, mas concorram
para uma visão ‘poliocular’. O que me move é o desejo de ocultar o menos possível a
complexidade do real”. (MORIN apud PESSIS-PASTERNAK, 1991, p. 86).
Um resultado prático desta pesquisa foi proporcionar visão poliocular da
complexidade dessa natureza sistêmica do processo de comunicação com vistas a relação
entre humanos e mídias digitais.
A escolha do objeto desta pesquisa demonstrou, inicialmente, a preocupação do
pesquisador em contribuir para a criação de um corpo de teorias organizado e, dessa forma,
possibilitar que futuras investigações no campo de mídias digitais possam estar apoiadas no
20
21
saber acumulado pelas gerações que o antecederam, “[...] certamente uma das mais
importantes funções da teoria.” (LITTLEJOHN, idem, p.28).
A escolha do modelo LVC para realizar experimentações científicas na área das
ciências física, química e biológica demonstra a importância que o pesquisador ao
aprendizado das leis e conceitos das ciências naturais, muitas vezes complexos e contra-
intuitivos. A maioria dos cientistas irá concordar que conhecimentos básicos de ciências são
fundamentais para as decisões humanas do dia-a-dia. Alguns acreditam que o conhecimento
necessário ao desenvolvimento sociocultural dos povos corre perigo quando imposturas
científicas, anticiência, mística e pseudociência recebem mais atenção das pessoas do que os
princípios da ciência. São poucas as dúvidas quanto à essencialidade das ciências para a
criação de tecnologias, desenvolvimento econômico das nações e da própria democracia.
A história da mídia impressa tem demonstrado sua importância para movimentos
como Renascimento, Reforma Iluminismo, Revolução Científica bem como a íntima relação
entre a propagação do conhecimento científico fator de importância capital na segunda
Revolução Industrial
7
e dos sistemas de mídia presentes nos estágios do desenvolvimento
econômico e social das nações:
[A] informação em seu sentido mais amplo, por exemplo, como comunicação do
conhecimento, foi crucial a todas as sociedades, inclusive à Europa medieval que
era culturalmente estruturada e, até certo ponto, unificada pelo escolasticismo, ou
seja, no geral uma infra-estrutura intelectual. [...] A primeira Revolução Industrial,
apesar de não se basear em ciência, apoiava-se em um amplo uso de informações,
aplicando e desenvolvendo os conhecimentos pré-existentes. E a segunda
Revolução Industrial, depois de 1850, foi caracterizada pelo papel decisivo da
ciência ao promover a inovação. De fato, laboratórios de P&D aparecem pela
primeira vez na indústria química alemã nas últimas décadas do século XIX [...].
(CASTELLS, 2001, p.46-51).
Após mais de 500 anos de utilização da mídia impressa, os atuais métodos
pedagógicos para ensinar ciências estão a encontrar sérias dificuldades para comunicar os
cada vez mais complexos princípios, leis e fenômenos das ciências naturais baseando-se
exclusivamente nas mídias oral discurso do professor em sala de aula e escrita. Um dos
requisitos fundamentais para o aprendizado de ciências naturais está na possibilidade de o
aprendiz realizar experimentações que lhe permitam observar e compreender os fenômenos,
na maioria das vezes “invisíveis”, da ciência.
7 O fato que caracteriza a segunda Revolução Industrial é a mecanização das atividades industriais para a
substituição do trabalho humano por máquinas movidas a vapor.
A situação torna-se ainda mais grave quando as escolas não contam com
laboratórios onde os aprendizes possam complementar estudos teóricos com atividades
práticas experimentais e simulações. É importante observar que o conceito de laboratório de
ciências não deve ser “utilizado para caracterizar o espaço físico, entendido, tradicionalmente,
como o local onde se realizam experimentos, ‘e sim’ no sentido lato de ensino experimental”.
(ALVES FILHO, 2000, p.6).
Parece difícil imaginar que os sistemas de ensino deixem de utilizar mídias digitais,
especialmente computadores e softwares com funcionalidades variadas, para mediatização de
conhecimento explícito entre os estudantes, quando, em sua obra O Bit e Pêndulo (2000)
Siegfried observa que uma revolução em andamento nas fronteiras da ciência, ao relatar
como o computador e o BIT
8
estão a modificar até mesmo o paradigma científico da sociedade
industrial. Como relata Siegfried, a utilização do computador como nova metáfora descritiva
do universo está a modificar toda a base científica contemporânea e a produzir resultados
surpreendentes em diversos campos da ciência:
A realidade da informação mudou a forma como os biólogos estudam as células, o
cérebro e a mente. As lulas não o apenas recipientes com produtos químicos
que transformam alimentos em energia, mas computadores sofisticados que
recebem mensagens do mundo exterior e produzem a resposta mais apropriada a
cada situação. É verdade que o funcionamento do cérebro se baseia nas correntes
elétricas que percorrem os circuitos construídos por neurônios, mas as mensagens
associadas a estas correntes podem ser compreendidas através da informação
que representam. [...] A informação invadiu o domínio da cosmologia, no qual as
questões envolvem a origem do espaço, do tempo e da matéria em suma, a
origem da própria existência. (SIEGFRIED 2000, p.17).
Apesar da urgência em se utilizar mídias digitais nos processos educacionais, neste
limiar do século XXI, o uso de computadores no ensino, em todos os níveis e áreas, inclusive
na de ciências naturais, ainda se apresenta muito incipiente.
Datam da década de 1960 as experiências de F. B. Skinner, um dos mais brilhantes
psicólogos behavioristas de todos os tempos, para utilizar computadores como máquinas de
ensinar
9
, sem muito sucesso. Embora muitas críticas à iniciativa de Skinner digam respeito a
8 BIT: sigla de Binary Digit (dígito binário), que adquire o valor 1 ou 0 no sistema numérico binário. É a menor
unidade de informação manipulada pelo computador. A representação de informação é feita mediante o
agrupamento de bits; oito bits compõem um byte, ou octeto.
9 Utilizando-se de pressupostos da Teoria Behaviorista de aprendizagem, essa experiência, relatada pelo
próprio Skinner na obra Leituras de Psicologia Educacional, organizada por William Morse e Max Wingo
(1973, p. 246), demonstra como o computador pode auxiliar o estudante na realização de exercícios de
instruções programadas.
22
23
eventual inadequação dos pressupostos pedagógicos behavioristas por ele utilizados na
concepção de suas máquinas de ensinar, não podemos deixar de reconhecer que parte dos
problemas encontrados por Skinner deveram-se às tremendas limitações presentes na
tecnologia dos computadores da época.
Ocorre que ainda hoje, nas escolas da maioria dos países, entre eles o Brasil, de uma
forma geral, o computador e a Internet têm sido utilizados basicamente como mídia para
comunicação interpessoal ou como novo detentor dogmático de conteúdo” muitas vezes
descontextualizado, despersonalizado, desatualizado ou carente de valor científico ou
histórico ao qual o estudante pode recorrer para municiar-se de informações, como a repetir
o velho e desgastado método educacional “positivista”.
Nos processos educacionais atuais continuam sendo utilizadas quase que
exclusivamente as mídias predominantes na Idade Média o discurso oral e na “Galáxia de
Gutenberg”
10
o texto impresso para transferir aos estudantes os conhecimentos
especializados, outrora necessários à formação de mão-de-obra especializada para trabalhar
em setores segmentados da sociedade industrial. Como observa Castells, os antigos processos
educacionais se mostram inadequados à qualificação dos trabalhadores para os novos
sistemas de produção da sociedade da informação, e, portanto, serão necessárias profundas
mudanças nos sistemas de ensino:
Nesse novo sistema de produção, a mão-de-obra é redefinida, no que diz respeito a
seu papel de produtora, e bastante diferenciada conforme as características dos
trabalhadores. Uma diferença importante refere-se ao que chamo de mão-de-obra
genérica versus mão-de-obra autoprogramável. A qualidade crucial para a
diferenciação desses dois tipos de trabalhadores é a educação e a capacidade de
atingir veis educacionais mais altos, ou seja, os conhecimentos incorporados e a
informação. Deve-se estabelecer distinção entre o conceito de educação e o de
conhecimentos especializados. Conhecimentos especializados podem tornar-se
obsoletos com rapidez mediante mudança tecnológica e organizacional. Educação
[...] é o processo pelo qual as pessoas, isto é, os trabalhadores, adquirem
capacidade para uma redefinição constante das especialidades necessárias à
determinada tarefa e para o acesso às fontes de aprendizagem dessas qualificações
especializadas. (CASTELLS, 1996, p.417).
Para fazer frente às novas demandas sociais, os sistemas educacionais terão que estar
voltados ao desenvolvimento da capacidade cognitiva dos estudantes, base para sua adaptação
às constantes mudanças presentes nas sociedades pós-modernas. Com esse propósito, o ensino
10 Título do livro de Marchall McLuhan, que passou a caracterizar um período da história de quase 500 anos, a
partir da invenção da imprensa de tipos móveis por Gutenberg em 1450, em que houve a hegemonia da mídia
impressa nos processos de comunicação.
das ciências naturais ganha maior importância ainda, e os estudos nos campos da
Neurociência Cognitiva, Ciências da Computação e da Inteligência Artificial estão a indicar a
relevância do emprego de computadores nesse contexto.
Em pesquisa experimental de campo acerca do Impacto das Mídias Impressa,
Audiovisual e Hipermídia nos Processos de Aprendizado (2003)
11
ficou constatado que um
mesmo conteúdo educacional apresentado em diferentes mídias pode produzir resultado de
aprendizagem diferente. Nessa pesquisa, realizada junto a três grupos de estudantes de curso
superior, envolvendo três aulas com conteúdos diferentes midiatizados para cada uma das três
mídias: impressa, audiovisual e hipermídia. A mídia impressa demonstrou ser mais adequada
ao tipo de conteúdo utilizado nas duas primeiras aulas, enquanto a hipermídia apresentou
resultado superior na terceira aula, indícios de que outros fatores, além de conteúdos e da
própria mídia, podem afetar os resultados da aprendizagem. A mídia audiovisual foi a que
apresentou os piores resultados.
O exemplo acima mostra que existem grandes desafios a serem superados pelos
sistemas educacionais, pois as mídias digitais modificam as relações espaciais-temporais em
virtude da enorme facilidade para a propagação de fluxos constantes de informação através
dessas mídias, constituídas por objetos-pensantes, e, esse fato, afetará o aprendizado e o
desenvolvimento cognitivo dos jovens nessa nova cultura de virtualidade.
Ao longo da história, as culturas foram geradas por pessoas que compartilham
espaço e tempo [...] e lutam umas contra as outras para impor valores e objetivos à
sociedade. Portanto, as configurações espaciais-temporais eram importantíssimas
ao significado de cada cultura e a sua evolução diferencial. No paradigma
Informacional surgiu uma nova cultura a partir da superação dos lugares e da
invalidação do tempo pelo espaço de fluxo e pelo tempo intemporal: a cultura da
virtualidade real. [...] chamo de virtualidade real um sistema em que a realidade
em si (ou seja, a existência material/simbólica das pessoas) está imersa por
completo em um ambiente de imagens virtuais, no mundo do faz-de-conta, em que
símbolos não o apenas metáforas, mas abarcam a experiência real. [...] Todas as
expressões de todos os tempos e de todos os espaços misturam-se no mesmo
hipertexto, reorganizado e comunicado a qualquer hora, em qualquer lugar, em
função apenas dos interesses dos emissores e dos humores dos receptores.
(CASTELLS 1996, p. 426-427).
A comunicação humana torna-se mais complexa quando midiatizada por tecnologias
que podem provocar a hibridização da relação de pessoas com a tecnologia. Esse é o caso do
LVC, constituído por modelos virtuais que utilizam objetos-pensantes imagens com
11 Realizada por este pesquisador para obtenção do grau de mestre em comunicação social, pela Universidade
Metodista de São Paulo, 2003.
24
25
inteligência programada cujos recursos para interação, navegação, iluminação e imposição
de leis naturais
12
são capazes de propiciar atividades experimentais nas quais o significado
circula através do uso e abuso da relação sujeito/objeto, através de processos de hibridização
que formatam essa relação. Nessa situação híbrida, a antiga relação sujeito-objeto é ampliada
de modo que a inteligência fica distribuída entre os dois participantes. “A inteligência se
movimenta em torno e amplia o processo de pensamento para além das fronteiras tanto da
imagem como do sujeito” (BURNETT, 2005, p.55).
Não é a compreensão do fenômeno da hibridização, mas a própria construção das
mídias digitais e softwares eficazes na midiatização de conhecimentos científicos que terão
que utilizar algum Modelo Referencial adequado ao processo comunicacional em questão.
Esse foi o trabalho realizado utilizando os métodos de pesquisa bibliográfica e
descritiva. A pesquisa bibliográfica permite explicar um problema a partir de referências
teóricas já publicadas sobre determinado assunto, tema ou problema. A pesquisa descritiva, na
forma de estudos descritivos, é apropriada para correlacionar fatos ou fenômenos, pois
permite descrever as características, propriedades e relações do objeto pesquisado. Os estudos
descritivos favorecem o delineamento claro do problema pesquisado visando à formulação de
hipóteses, ou seja, de conjecturas de relações a serem testadas de algum modo em pesquisas
futuras para a anunciação de um fato científico, quase leis e leis gerais.
Por tratar-se de um processo comunicacional com características de sistema aberto no
qual a mídia, ou objeto-pensante, e a pessoa representam simultaneamente os papeis
“autocontidos”; de unidade-fonte e unidade-de-destino foi utilizada a Teoria Geral dos
Sistemas TGS para descrever e explicar o referido processo comunicacional. A TGS utiliza
ampla abordagem para postular conceitos que regem os sistemas em geral e permite a
aplicação dessas generalizações a numerosos fenômenos em diversas disciplinas. O uso da
TGS é particularmente pertinente nesta pesquisa em virtude de tratar-se de pesquisa
transdisciplinar que envolve tecnologias digitais, interação simbólica e aprendizagem em
consonância com o convincente argumento de Kenneth Boulding citado por Littlejohn (idem,
p.48):
12 Exemplo de algumas funções de física e biofísica: Colisão; Atrito; Massa; Elasticidade; Força; Gravidade;
Tempo; Radiosidade; Controle de atmosfera (por exemplo nevoeiros); Controle de luz e sombra; Sensores de
proximidade, toque, randomização, detecção; Coeficientes de redução de todos os itens; Partículas que
permitem simular chuva, fogo, pelos... até árvores e arbustos. Funções Biofísicas: Criação e configuração de
ossos com propriedades básicas definidas e capacidade de influenciar uma malha de vértices que possa estar
ligada a eles, deformando-a. Metaballs (esferas que possuem um sistema de atração ou repulsão das suas formas
como se fosse um líquido).
A necessidade da teoria dos sistemas gerais é acentuada pela atual situação
sociológica da ciência. [...] Hoje, a crise da ciência é fruto da crescente dificuldade
de diálogo proveitoso entre cientistas como um todo. A especialização ultrapassou
o Ramo. A comunicação entre disciplinas torna-se cada vez mais difícil, e a
República do Saber está se desintegrando em culturas isoladas, com apenas tênues
linhas de comunicação entre elas. [...] Por vezes, é o caso para nos perguntarmos se
a ciência acabará por se imobilizar em pane irreversível, entregue a uma porção de
eremitas enclausurados, cada um resmungando palavras numa linguagem
particular que ele é capaz de entender. (...) A expansão da surdez especializada
significa que alguém que deveria saber algo que outros sabem é incapaz de
descobrir por falta de ouvidos generalizados. Um dos principais objetivos da
Teoria Geral de Sistemas é desenvolver esses ouvidos generalizados. (...)
13
.
Nenhuma pesquisa científica pode ser realizada sem a utilização de alguns
pressupostos norteadores, que passamos a descrever a seguir.
O processo comunicacional utilizado como modelo de estudo nesta pesquisa
relação de pessoas com o LVC foi analisado na perspectiva de um sistema aberto e
complexo de comunicação, no qual interagem duas categorias de subsistemas: pessoas e
mídias digitais. Nesse modelo deixamos de caracterizar aspectos de conteúdo ou mensagens
bem como aspectos relacionados ao subsistema humano, tais como gênero, idade, nível
educacional, etc.
Os dois subsistemas pessoa e mídia digital interagem, relacionam-se através de
ações comunicativas. O subsistema pessoa, por sua vez, é decomposto, para efeito deste
estudo, por um subsistema físico/sensorial e um subsistema mental/intelectual, enquanto o
subsistema mídia digital, aqui representado pelo modelo LVC, é subdividido em hardware e
software. O subsistema pessoa representa qualquer indivíduo com habilidades física/sensorial
e mental/intelectual para relacionar-se com o subsistema mídia digital, que representa
qualquer sistema computadorizado capaz de processar aplicações de softwares pertinentes ao
ensino de ciências. Por último, o processo comunicacional tipificado es voltado ao
tratamento de mensagens relativas aos conhecimentos de ciências que algum emissor – criador
dos conteúdos apresentados nas telas da mídia digital pretende transmitir ao subsistema
pessoa, o aprendiz. Entretanto, fogem do escopo desta pesquisa os aspectos relacionados à
transposição didática das informações de ciências, ou seja, da forma, linguagem e conteúdo do
que está sendo apresentado na tela do computador. Portanto, nem o emissor da mensagem e
nem a mensagem em si foram analisados. Desse modo, a interação do aprendiz com um
conteúdo específico, ou gênero de conteúdos, torna-se irrelevante e somente será de interesse
13 Kenneth Boulding. General Systems Theory The skeleton of science”, in Buckley Modern systems
research, p.4
26
27
o fato de que uma relação entre a pessoa e a mídia, através de qualquer mensagem para
aprendizagem. O pressuposto é de que, neste caso, o meio é a mensagem com a qual a pessoa
interage, não no sentido preconizado por McLuhan de que a própria mídia é capaz de
provocar profundas mudanças individuais e sociais, independentemente dos conteúdos das
mensagens transportadas, mas, também no sentido de que mídia e mensagem se fundem no
que denominamos objetos-pensantes. No mundo virtual o computador se transforma num ser.
Não é mais uma imagem que compõe o ambiente, uma gestalt, o próprio objeto-pensante.
Isto posto, com vistas à formulação do conjunto de percepções que compuseram o
ponto-de-visão
14
utilizado para a análise do objeto desta tese foi necessário definir a natureza
dos componentes do fenômeno comunicacional pesquisado, com o propósito de determinar
novas orientações gerais, processos básicos, contextos, áreas generalizações e conceitos-
chave, de forma a estender o Quadro Resumo de Conceitos e Generalizações de Processos
Comunicacionais, definido por Littlejohn (1978, p. 371), e adotado como base para o
desenvolvimento desta pesquisa.
As naturezas dos componentes de qualquer processo de comunicação pessoas,
mídias e relações – podem modificar-se com o passar do tempo, motivadas por
acontecimentos evolutivos e/ou circunstanciais que afetam as condições fisiológicas, sociais,
culturais, psicológicas e tecnológicas do ambiente no qual os componentes operam. A
evolução e perturbações circunstanciais não ocorrem simultaneamente em tempos e espaços
lineares. Por esse motivo a análise da natureza dos subsistemas estudados tem que ser feita em
contextos históricos particularizados, sem, entretanto, basear-se em aspectos cronológicos
tratados de forma linear porque “A cultura da antiguidade não encaixa nos padrões do
desenvolvimento econômico e social seqüencial linear desenvolvido pelas escolas históricas
alemãs. [...] se conceitos lineares de desenvolvimento são abandonados e o desenvolvimento
da civilização é visto francamente como um processo multilinear muito pode ser feito no
encontro da compreensão da história da cultura ocidental como uma integração progressiva de
muitos elementos separados”. (MCLUHAN, 1962 p.6).
Do mesmo modo, as mudanças tampouco atingem todos os povos e pessoas da
mesma maneira. As tecnologias podem ou não ser aplicadas, em épocas, contextos, grupos de
pessoas e com objetivos diferentes, por diferentes povos em estágios de desenvolvimento
14 Termo utilizado para equivaler ao inglês vantage point, definido pelo Oxford Advanced Learner's Dictionary
como [substantivo] uma posição a partir da qual a pessoa algo; um ponto no tempo ou uma situação a partir
da qual a pessoa considera algo, especialmente o passado.
diferenciados, em diferentes momentos. Na atualidade grupos sociais australianos utilizam
a Internet enquanto grupos aborígines permanecem aquém da civilização agrícola, utilizando
ferramentas de pedras.
Com isso a percepção definidora do ponto-de-visão necessita de uma teoria de base
que permita identificar, em um mesmo tempo e lugar, grupos em diferentes estágios de
desenvolvimento e utilização de tecnologias. Uma teoria com essas características é
apresentada por Alvin Toffler na obra A Terceira Onda: A morte do industrialismo e o
nascimento de uma nova civilização (1980). Nela o autor propõe uma forma diferente da
linear para segmentação histórica das fases de desenvolvimento da civilização humana.
Toffler (idem, p.19) sugere que as mudanças nos estágios da civilização sejam observadas
como ondas do mar, para representar as mudanças, ou seja, uma metáfora “de ondas de
mudança que colidem.” Classifica quatro estágios de desenvolvimento da civilização
primitiva, agrícola, industrial e informacional que, segundo os pressupostos da metáfora de
ondas, podem estar simultaneamente presentes em um determinado tempo e espaço. Na
concepção de Toffler, a primeira onda trouxe as mudanças que transformaram a sociedade
primitiva na agrícola e a segunda trouxe as transformações que possibilitaram o
desenvolvimento da sociedade industrial. A obra de Toffler preocupa-se em demonstrar a
aproximação da terceira onda cujas mudanças estão sendo provocadas, dentre outras, pelas
tecnologias digitais que, segundo o autor trará transformações ainda maiores que as anteriores
e que algumas mudanças já são visíveis nas sociedades afetadas pela Terceira Onda.
Para Toffler a “idéia da onda não é apenas um instrumento para organizar vastas
massas de informação altamente variada, mas nos ajuda a ver sob a superfície agitada da
mudança” (idem, ibidem). Com base nessa metáfora podemos visualizar mais facilmente as
razões dos conflitos que ocorrem naturalmente nos choques entre civilizações, no momento
em que os valores da nova onda tentam se sobrepor aos de ondas anteriores, até que os
vestígios das civilizações anteriores desapareçam.
Nas palavras de Toffler (idem, p.27-28), são explicadas algumas características das
mudanças provocadas pelas duas primeiras ondas que podem nos ajudar na compreensão das
tensões e lutas que provocaram e ainda estão a provocar:
Antes da Primeira Onda, a maioria dos seres humanos vivia em pequenos grupos,
freqüentemente migradores, e alimentavam-se pilhando, pescando, caçando ou
pastoreando. Em algum ponto, aproximadamente dez milênios, começou a
revolução agrícola, que avançou lentamente através do planeta, espalhando
28
29
aldeias, colônias, terra cultivada e um novo modo de vida. A primeira onda não se
tinha exaurido pelo fim do século XVII quando a revolução industrial irrompeu
através da Europa e desencadeou a segunda grande onda de mudança planetária.
Esse novo processo a industrialização começou a marchar muito mais
rapidamente através de nações e continentes. Assim, dois processos de mudança,
separados e distintos rolavam através da terra simultaneamente, a velocidades
diferentes. Hoje a primeira onda virtualmente assentou. [...] Entrementes, a
Segunda Onda, tendo revolucionado a vida da Europa, da América do Norte e de
algumas outras partes do globo em uns poucos séculos, continua a se espalhar, [...]
ainda não esgotou sua força.
Para Toffler (idem, p.23) a terceira onda “é um evento tão profundo como a Primeira
Onda de mudança, desencadeada dez mil anos pela descoberta da agricultura, ou o
terremoto da Segunda Onda, provocada pela revolução industrial.”.
Segundo o autor o marco histórico para o início da Terceira Onda ocorreu
precisamente no ano de 1955, quando essa Onda começou a ganhar força nos Estados Unidos
e em datas um pouco diferentes espalhou-se pela maioria das outras nações industrializadas.
Como observou Toffler, a década de 50 do século XX “viu os trabalhadores de colarinho
branco e de serviços gerais excederem em número os trabalhadores de macacão. Esta foi a
mesma década que viu a introdução generalizada do computador, o jato comercial, a pílula
anticoncepcional e muitas outras inovações de alto impacto.” (idem, p.27).
Outro conceito defendido por Toffler e que corrobora com a visão de sociedades
como sistemas abertos é que cada civilização possui uma 'arquitetura de sociedade', que lhe é
peculiar e agrupa vários subsistemas, ou 'esferas', interrelacionadas, que não podem existir
sem as outras e onde cada esfera desempenha funções-chave no sistema social. Assim, três
esferas se relacionam para que haja produção e distribuição das riquezas: A 'tecnosfera'
produzia e conferia riqueza; a 'sociosfera', com milhares de organizações inter-relacionadas,
conferia papeis a indivíduos no sistema. E a 'infosfera' conferia a informação necessária para
fazer todo o sistema funcionar, juntos configuram a arquitetura da sociedade.” (idem, p.48).
Há ainda 'poderesfera', 'biosfera', 'psicosfera' e toda arquitetura de sociedade tem uma
'tecnosfera” porque, “Todas as sociedades usam energia; fazem coisas; distribuem coisas. Em
todas as sociedades o sistema de energia, o sistema de produção e o sistema de distribuição
são partes inter-relacionadas de algo maior. Este sistema maior é a tecnosfera e tem forma
característica em cada estágio do desenvolvimento social.” (idem, p.41). Se por um lado a
'tecnosfera' produz e distribui riqueza; por outro, a 'sociosfera', composta por estruturas
familiares, sistemas educacionais e empresas milhares de organizações inter-relacionadas,
estrutura de convivência humana, organização do trabalho e etc. Ambas, entretanto, são
absolutamente dependentes da 'infosfera', sistema responsável pela distribuição de
informações às diversas esferas de todo o sistema e que possibilita seu funcionamento.
De fato, desde os tempos primitivos até hoje, tem havido aumento nas formas,
complexidade e variedade de sistemas de comunicação para compatibilizar o fluxo de
informações com as demandas das demais esferas do sistema social, mas principalmente na
'tecnosfera' essencialmente para a aplicação de conhecimento na geração de novas
tecnologias e na 'sociosfera' essencialmente para a criação de novos conhecimentos
científicos sempre condicionados às naturezas dos 'outputs' da tecnosfera, ou seja, das
tecnologias previamente existentes e da sociosfera, do conhecimento disseminado:
A informação necessária para a produção econômica nas sociedades primitivas e
da Primeira Onda é relativamente simples e, em geral, acessível para alguém ao
alcance. É principalmente, de forma oral ou gesticulada. As economias da Segunda
Onda, em contraste, exigiam a compacta coordenação do trabalho feito em muitos
lugares. Não matérias primas, mas também grandes quantidades de informação
tinham que ser produzidas e cuidadosamente distribuídas. Por essa razão, enquanto
a Segunda Onda ganhava impulso, cada país correu a fundar um serviço postal.
[...] Mas uma sociedade que desenvolve produção em massa e consumo em massa
precisa de modos de enviar mensagens em massa também comunicação de um
transmissor para muitos receptores ao mesmo tempo. (TOFFLER, idem, p.46-47)
As esferas do sistema social estão em permanente relação de troca de energia com a
'biosfera', ou meio ambiente e com a 'psicosfera' “essa estrutura de relações psicológicas e
pessoais através da qual mudanças ocorridas no mundo exterior afetam as nossas vidas mais
íntimas” (idem, p.19).
A 'psicosfera' e as demais esferas são, por conseqüência, um importante componente
do 'Zeitgeist', palavra da língua alemã adotada no ocidente para qualificar o “clima” geral, ou
seja, os sentimentos, conhecimentos e crenças de um grupo de pessoas em determinado
momento histórico. Um zeitgeist se caracteriza pela conjugação das idéias, conhecimentos,
crenças e outras qualidades comuns a certo momento e lugar específico. É o “espírito do
tempo”, o intelecto coletivo que propicia transformações na cognição humana, gera novos
conhecimentos nas diversas esferas da organização social. Caracteriza etapas do
desenvolvimento civilizatório, o estágio do conhecimento científico acumulado, tal como o
iluminismo que, na Europa medieval, provocou o rompimento das amarras impostas pelo
clero católico e possibilitou a substituição da escolástica pela razão científica e, assim,
contribuiu para o surgimento da visão de mundo moderna.
30
31
Tom Siegfried (2000, p. 48-49) nos mostra como as mudanças na 'psicosfera', ou
seja, na percepção das coisas e trocas de informações, tem o poder de revolucionar os
paradigmas científicos e contribuir para modificar o 'zeitgeist' vigente:
Da mesma forma como o relógio serviu de inspiração para Newton, a máquina a
vapor levou a outra revolução na ciência. Os relógios se tornaram a máquina
dominante da época e inspiraram uma metáfora para descrever o universo, levando
à nova ciência da física newtoniana. [...] A máquina a vapor se tornou a principal
fonte de energia da sociedade e inspirou a nova ciência da termodinâmica,
produzindo no processo uma nova metáfora: o universo como uma máquina
térmica. [...] a descrição termodinâmica da natureza substituiu a força de Newton
por outro conceito supremo – o da energia. Com o final do século XX esta visão da
natureza está começando a mudar. [...] Hoje em dia, a informação é a linguagem
universal do mundo da ciência. O computador que tem apenas meio século de
idade em sua forma eletrônica é a máquina dominante da sociedade, e a
informação se tornou o paradigma favorito da ciência.
Em síntese, nesta introdução apresentamos o objeto de estudo desta tese, a
metodologia empregada e as justificativas para sua realização. Também definimos o corpus
desta pesquisa e as perspectivas teóricas que definiram nosso ponto-de-visão. Definimos
teorias explicativas, metáforas e conceitos essenciais à compreensão dos resultados
apresentados. Essas teorias e perspectivas anunciadas compõem o mosaico que constitui o
ponto-de-visão a partir do qual foram feitas as análises dos sistemas componentes do processo
de comunicação quando pessoas se relacionam com um modelo de sistema LVC para facilitar
a aprendizagem dos complexos e muitas vezes contra-intuitivos fenômenos das ciências
naturais. A estrutura da pesquisa é apresentada em cinco capítulos.
No primeiro capítulo, Máquinas e Mentes expusemos os diversos pontos-de-visão
epistemológicos que têm sido utilizados para qualificar a natureza humana, deixando claras,
na medida do possível, as características do zeitgeist que influenciou os paradigmas
empregados em cada Onda epistemológica da ciência. Nosso propósito foi o de demonstrar a
importância, e por que não dizer obrigatoriedade, de fazermos uma revisão das percepções da
natureza humana comuns aos estudos das Ciências Sociais e Comunicação, a partir de novos
paradigmas científicos empíricos, resultantes de descobertas realizadas nos campos da
Neurociência Cognitiva e da Inteligência Artificial. Trata-se de estudar Máquinas e Mentes,
biológicas e artificiais, empregando os computadores como metáfora da mente e cérebro
humano, mas também como instrumento de pesquisa capaz de simular as operações da
inteligência biológica.
No segundo capítulo, Natureza Humana: de Descartes à Neurociência Cognitiva,
descrevemos as diversas percepções da natureza humana desde Descartes até as das Novas
Ciências da Mente. Nosso propósito foi o de demonstrar como as Doutrinas Sagradas do
século XIX e XX, o dualismo – do Fantasma da Máquina – o empirismo – da Tábula Rasa – e
o romantismo do Bom Selvagem contribuíram para desumanizar o ser humano.
Demonstramos que este ser é um animal, biológico, governado por leis da biologia e genética;
um ser genofenotipado, cuja evolução cerebral e mental foram provocadas por fenômenos
como a neotenia e deriva genética e, portanto, é impossível ter sua natureza explicada
exclusivamente pelas teorias da filosofia, sociologia e psicologia clássica. Procuramos
demonstrar a importância dos aspectos biológicos – neurológicos e dos processos sensoriais
da mente: consciência, percepção e pensamento. Procuramos contextualizar o homem atual
no processo de evolução originado na mutação que nos diferenciou dos símios com o
propósito de demonstrar a força do componente genético em nossa natureza. Partimos do
princípio que estes conhecimentos são vitais para a compreensão de como os humanos se
relacionam com as tecnologias, dentre as quais as mídias. Como resultado identificamos
generalizações e conceitos-chave acerca das arquiteturas do cérebro e suas relações com os
processos da mente.
No terceiro capítulo, Natureza das Mídias, apresentamos a íntima relação existente
entre o desenvolvimento da espécie humana e a evolução das linguagens e mídias.
Introduzimos um conceito de recursividade midiática para definir com precisão quais mídias
estudamos. Demonstramos a relação existente entre tecnologias no caso, mídias sua
aplicação, usabilidade e linguagens humanas naturais e artificiais. Apresentamos a relação
existente entre as estruturas tecnológicas das mídias e a aplicação de estruturas gramaticais
para a criação de mensagens comunicacionais.
No quarto capítulo, Computador: uma Nova Mídia, fizemos um rápido relato
histórico para explicar como o computador, originalmente desenvolvido para fazer cálculos,
veio a tornar-se uma das mais importantes mídias de comunicação da atualidade. Também
explicamos seu funcionamento com destaque para o componente de software dos sistemas
computadorizados. Demonstramos como, somente utilizando-se de corrente elétrica e da
representação zero ou um, inúmeras linguagens de computadores podem representar uma
miríade de símbolos, cores, formas e outros atributos de imagens, a partir da informação
binária que processam. Os conceitos introduzidos neste capítulo são importantes para a
32
33
compreensão de seu uso nas pesquisas de Inteligência Artificial, formuladas para auxiliar
nossa compreensão acerca da mente humana.
No quinto capítulo, Descrição do Modelo Transdisciplinar para Comunicação com
Mídias Digitais, apresentamos e descrevemos com detalhe e abordagem científica os
resultados. Descrevemos o Modelo Transdisciplinar desenvolvido por Littlejohn e tomado por
base nesta pesquisa. Descrevemos o sistema experimental de comunicação LVC – Laboratório
Virtual de Sistema utilizado como modelo referencial nesta experiência. Por último,
configuramos e descrevemos um novo modelo acrescido de três novas tabelas contendo áreas,
generalizações e conceitos-chave relativos à Natureza da Cognição Humana, Natureza da
Mídia Digital e Natureza da Relação Homem – Mídia Digital.
Por fim, apresentamos nossa conclusão e sugestões para pesquisas futuras acerca do
objeto de estudo desta tese.
CAPÍTULO I – MÁQUINAS E MENTES
Quando nos comparamos a outras espécies animais percebemos a tremenda diferença
que nos separa deles e muitas perguntas nos surgem à mente: De onde viemos? Qual nossa
relação com os cosmos? Qual é nosso papel no Universo? Como surgiu a vida? Deus existe?
Deus interfere em nossas vidas? Temos um destino a cumprir ou livre arbítrio para conduzir
nossas vidas? O que acontece após a morte? Por que nossa inteligência é superior a dos
outros animais? Como adquirimos habilidades para perceber, pensar, sentir emoções,
aprender? Como ocorrem a consciência, percepção e pensamento? Por que tomamos atitudes
inconscientes? Outros animais também sonham? O que são os sonhos? E os devaneios,
sonhos que sonhamos acordados? Por que lembramos de algumas coisas e esquecemos
outras?
Estas são apenas algumas incógnitas com as quais a humanidade se depara desde que
começou a perceber sua própria existência, a cognoscere. O termo Cognição, cognoscere em
Latin, está sendo empregado para referir-se à faculdade humana para processar informações,
aplicar conhecimento, tomar decisões e reagir, de forma consciente ou inconsciente. Tratar-se
de uma propriedade abstrata comum e diretamente relacionada ao cérebro e mente dos seres
humanos, mas que pode apresentar-se como fenômeno em outras máquinas e mentes, naturais
ou artificiais.
No Ocidente, a busca pela compreensão acerca do processo cognitivo iniciou-se na
Grécia. Desde então, muitas respostas têm sido apresentadas, e contestadas, à luz de zeitgeists
epistemológicos dominantes em cada momento histórico. Para resumir a saga dessa busca no
ocidente recorremos à metáfora das Ondas formulada por Toffler, para identificar seis Ondas
de Zeitgeist Epistemológico com as quais teólogos, filósofos e cientistas procuraram explicar
as naturezas do homem e da cognição. Em cada onda, a perspectiva da natureza da cognição
humana foi se ajustando ao espírito do tempo.
1.1 - PRIMEIRA ONDA: ZEITGEIST METAFÍSICO
A primeira onda surgiu ainda na antiguidade e se manteve até a Renascença. A
procura por respostas, o desejo pelo saber, levou os Philo palavra grega, derivada de Philia,
34
35
que significa os que têm amizade, respeito entre os iguais, amor fraterno a buscas
sistemáticas pela Sophia – palavra grega que significa sabedoria. Os filósofos, portanto, foram
os primeiros a buscar respostas para perguntas como as formuladas. Nesse período dois
movimentos importantes, a Filosofia Grega e a Escolástica Cristã também denominada
Filosofia Medieval, procuraram as respostas acerca da Natureza da Cognição Humana baseada
em princípios Metafísicos. A natureza do Ser foi estudada como parte do Universo e através
da cosmologia e da ontologia. Nessa perspectiva a concepção da natureza humana era
dualista, em parte material e em parte espiritual e apresentava uma visão coexistente do ser
transcendental além do mundo físico e ao mesmo tempo do ser imanente supremo e
divino contido no mundo físico. O conhecimento era uma dádiva e as verdades revelações.
1.2 - SEGUNDA ONDA: ZEITGEIST DA RAZÃO
A segunda onda iniciou sua formação a partir da contestação do zeitgeist Metafísico
pelo filósofo e matemático francês René Descartes (1596-1650), ao introduzir o conceito da
alma racional como instrumento da razão. É certo que antes dele, Avicena (819-1005), no
final do século X, anunciara uma teoria de alma racional.
Na obra Filósofos da Idade Média (1999) organizada por Theo Kobusch, Dimitre
Gutas nos informa que Avicena, nascido na Pérsia como Abu-'Ali al-Husayn Ibn-'Abdallah
Ibn-Sina, foi um importante e influente filósofo da língua árabe numa época de supremacia da
cultura medieval islâmica. Como era costume à época, Avicena iniciou seus estudos muito
cedo, com aproximadamente 16 anos, e dedicou-se a áreas de conhecimento tão distintas
quanto o Corão, literatura árabe, aritmética, ciências jurídicas, medicina e filosofia. Nos
informa Gutas que o plano de estudos filosóficos que Avicena cumpria, segundo seu próprio
depoimento, correspondia à classificação das ciências filosóficas próprias à Antigüidade
Alexandrina tardia, de tradição aristotélica. Em primeiro lugar está a lógica, como ferramenta
(órganon) do estudo filosófico. Segue a isso a filosofia teórica, à qual pertenciam a física (os
tratados físicos e zoológicos de Aristóteles), a matemática (o quadrivium) e a metafísica.”
(GUTAS in KOBUSCH, 1999, p.49).
Entretanto, a proposta de Avicena foi uma verdadeira metafísica da alma racional
visto que sua teoria integra objetos de cunho tradicionalmente religioso tais como a profecia, a
revelação, milagres, a teurgia e a divina providência.
Para Avicena, a alma racional é uma substância que subsiste por si mesma e não
habita nem o corpo humano nem nada que seja corpóreo. Ela é plenamente
separável e desagregada da matéria. Em conjunto com o corpo humano e não antes
dele, a alma racional alcança a existência; ela se relaciona com ele de certa
maneira e durante toda a vida de uma pessoa. (idem, p.49).
Como seria de se esperar, Avicena, utilizando-se de terminologia e conceitos
aristotélicos, assim explica a alma como um ente racional:
ela o é “à medida que dela depende a execução de ações com base na decisão
racional e na escolha direcionada, e na medida em que ela conhece universais”. A
alma racional tem exatamente duas funções. Uma função teórica, a de reconhecer
os universais, e uma função prática, a de tomar decisões racionais e fazer reflexões
que conduzam a ações, em um momento seguinte. Nessa função dual da alma
racional reside para o ser humano o ponto de contato entre o mundo transcendente
e o mundo natural. Nela está representada, assim, a totalidade do universo. A parte
teórica conhece o mundo supralunar da realidade metafísica [...], e a parte prática
se volta ao mundo sublunar do surgimento e da transitoriedade natural. [...] a alma
racional não está em um corpo, mas sim em uma posição a partir da qual ela dirige
e orienta o corpo, por meio da apreensão de universais e da decisão racional que
toma. (idem, p.49-50).
O rompimento de Descartes com a Escolástica implantada em toda a Europa pela
Igreja Romana, mais de 500 anos depois de Avicena, foi profundamente influenciado pelas
descobertas científicas de Nicolau Copérnico, Galileu Galilei e Kepler cujos trabalhos se
constituíram na base científica da física mecânica de Isaac Newton e da doutrina mecanicista
cuja metáfora foi o relógio. Foi o início da formação de uma cultura científica racional, que se
utilizava de métodos dedutivos, matemática, física, geometria e da razão na busca da verdade.
Os principais nomes e descobertas desta onda foram Nicolau Copérnico (1473
1543) astrônomo e matemático que desenvolveu a Teoria Heliocêntrica do Sistema Solar,
publicada em seu livro De revolutionibus orbium coelestium em 1543. Essa teoria contestava
o geocentrismo defendido por Aristóteles, Ptolomeu e pela Escolástica. Galileu Galilei
(1564-1642), físico, matemático, astrônomo e filósofo, teve papel preponderante na revolução
científica. Suas invenções balança hidrostática, compasso geométrico, termômetro de
Galileu, precursor do relógio do pêndulo e do uso do Método Científico Empírico
15
permitiram apoiar o heliocentrismo de Kepler. Em 1590 publicou De motu onde expôs a Lei
dos corpos e o Princípio da inércia. Em 1610, após aprimoramento do telescópio e a
descoberta da Via Lacta e do planeta Júpiter, publicou Sidereus Nuncio. Johannes Kepler
15 Conjunto de regras básicas para desenvolver uma experiência que consiste em juntar evidências observáveis,
empíricas e mensuráveis, com o uso da razão.
36
37
(1571 1630), astrônomo e matemático, publicou Mysterium Cosmographicum em 1595, e
defendeu as hipóteses heliocêntricas. Em 1609 publicou Astronomia Nova... De Motibus
Stellae Martis, obra na qual apresentou as três leis de movimento dos planetas, conhecidas
como Leis de Kepler. Em 1687 Isaac Newton (1643-1727) publicou Philosophiae Naturalis
Principia Mathematica e nessa obra descreve a Lei da Gravitação Universal e as Leis de
Newton que englobam as três leis dos corpos em movimento teorias que se assentaram
como fundamento da mecânica clássica.
Descartes contribuiu com pelo menos três doutrinas importantes. A doutrina do
dualismo corpo-mente proposto para resolver o problema da distinção entre as qualidades
física e mental do ser humano; a doutrina das idéias, segundo a qual existiam idéias inatas
produzidas a partir da mente ou do consciente existente na alma e idéias derivadas, produto
das experiências dos sentidos. No campo da epistemologia, o método racional de pesquisa.
Descartes valeu-se unicamente de uma máquina biologia, seu próprio cérebro, para
pensar e propor toda sua obra filosófica acerca da natureza e essência funcional da mente
humana. Advogava que seu método baseado na razão era o caminho para se encontrar a
verdade, porque a razão era inata e perfeita, por tratar-se de uma criação de Deus. É essa
doutrina racionalista dedutiva de Descartes que caracteriza a segunda onda de zeitgeist, que
transformou irreversivelmente a cultura medieval e alicerçou o pensamento Moderno.
Segundo Richard Tarnas, autor de A Epopeia do Pensamento Ocidental (1991), a
emergência do pensamento moderno “assumiu as três formas distintas e dialeticamente
relacionadas do Renascimento, da Reforma e da Revolução Científica [...] e quando já não
havia mais nenhuma estrutura monolítica de crença dominando a civilização, a Ciência
apareceu de repente como a liberação da Humanidade uma redenção empírica, racional, que
apelava para o bom senso e para uma realidade concreta que todos podiam tocar e medir por si
mesmos.”. (TARNAS, 1991, p.305)
Nessa nova perspectiva de visão de mundo surge a emergência de um ser humano
autônomo e dotado de uma consciência de si mesmo curioso em relação ao mundo,
confiante em sua capacidade de discernimento, cético quanto às ortodoxias, rebelde contra a
autoridade, responsável por suas crenças e ações, apaixonado pelo passado clássico e ainda
mais empenhado num futuro maior, orgulhoso de sua humanidade, consciente de sua
distinção, ciente de sua força artística e individualidade criativa, seguro de sua capacidade
intelectual para compreender e controlar a Natureza e bem menos dependente de um Deus
onipotente.”(TARNAS, 1991, p.305)
Nos dois séculos seguintes grupos de filósofos, artistas e eruditos passaram a
contestar tanto a visão modernista da cultura científica quanto a cultura religiosa originárias
das duas ondas anteriores.
1.3 - TERCEIRA ONDA: EMPIRISMO
O início formal da onda empirista tem sido atribuído a John Locke (1632-1704) mas
inclui teorias de pensadores como Francis Bacon (1561 a 1626), Baruch Spinoza (1632-1677),
Gottfried Wilhelm von Leibniz (1646-1716), George Berkeley (1685-1753), David Hartley
(1705-1757), David Hume (1711-1776), Adam Smith (1723-1790), James Mill (1773-1836)
e John Stuart Mill (1806-1873).
Locke contestou diretamente a Doutrina das Idéias de Descartes ao introduzir a
Doutrina da Tábula Rasa e defender que o ser humano, ao nascer, tem a mente vazia, sem
nenhum conhecimento inato, e, portanto, todo o conhecimento é adquirido através da
observação dos fenômenos presentes em sua relação com o meio-ambiente. Contestava,
portanto, o uso da razão para obter conhecimento e propunha sua substituição pela observação
empírica dos fenômenos, frutos de percepção sensorial. Com esse propósito, os empiristas
advogavam somente métodos experimentais para a confirmação das 'verdades' científicas dos
fenômenos observados e afirmavam que a razão humana não era confiável e que somente se
poderia conhecer a verdade através da experiência.
O Empirismo influenciou várias correntes e doutrinas filosóficas, dentre as quais o
Idealismo, corrente filosófica que tem entre seus defensores Immanuel Kant (1724-1804) e
Georg Hegel (1770-1831); o Relativismo doutrina contrária à existência de verdades
absolutas, com ponto de vista oposto ao etnocentrismo e defendida por Maximillian Weber
(1864-1920), Karl Marx (1818-1883), Friedrich Nietzsche (1844-1880), Émile Durkheim
(1858-1858), Michel Foucault (1926-1984), entre outros; o Fenomenalismo visão de que os
objetos físicos não existem como coisas em si, mas apenas como fenômenos perceptuais ou
estímulos sensoriais situados no tempo e no espaço defendida por Berkeley, Locke, Stuart
Mill; o Materialismo doutrina que explica os fatos do universo em termos exclusivamente
materiais e opõe-se ao idealismo ao sustentar que todas as coisas são compostas por matéria e
que todos os fenômenos são os resultados de interações materiais defendida por Ludwig
38
39
Feuerbach (1804-1872), Karl Marx, Friedrich Engels (1820-1895); a Dialética segundo a
qual as contradições inerentes a movimentos anteriores levam ao surgimento de movimentos
contrários sucessivos idealizada por George Hegel (1770-1831); a doutrina Determinista
princípio da ciência experimental segundo a qual existem relações constantes entre os
fenômenos, condicionados por leis naturais defendida por Pierre de Laplace (1749-1827),
Leibniz, Espinosa e Albert Einstein (1879-1955).
Outros movimentos filosóficos, embora não tratassem diretamente de epistemologia,
contribuíram com doutrinas que de vários modos influenciaram novas visões da natureza
humana e de sua cognição, dentre eles o Positivismo, corrente da sociologia defendida por
Auguste Comte (1798-1857) e o Romantismo movimento filosófico que preconiza uma
perspectiva contrária ao racionalismo, de tendência idealista ou lírica e carente de sentido
objetivo que teve como precursor o autor da Doutrina do Bom Selvagem, Jean-Jacques
Rousseau (1719-1778). Essa doutrina preconiza as relações de poder como critério para a
diferenciação do homem bom, o dominado, do mau, o dominador e tivera forte influência na
arte e na política, a ponto de ser considerada precursora do Socialismo e do Comunismo.
Os princípios filosóficos do Socialismo e sua aplicação politico-econômica, o
Comunismo, são defendidos por Karl Marx, Friedrich Engels
16
na publicação do Manifesto do
Partido Comunista em 1848.
Nessa perspectiva Marxista, a natureza humana se subordinava à divisão de classes
econômicas, entre burgueses os maus e proletários os bons, segundo consta em nota de
Engels à edição inglesa de 1888 do manifesto:
Por burguesia compreende-se a classe dos capitalistas modernos, proprietários dos
meios de produção social, que empregam o trabalho assalariado. Por proletariado
compreende-se a classe dos trabalhadores assalariados modernos que, privados de
meios de produção próprios, se vêem obrigados a vender sua força de trabalho para
poder existir. “(MARX e ENGELS, 1888).
No mesmo Manifesto, Marx e Engels propõem a abolição da família, cuja plenitude
repousa no ganho individual do burguês e, segundo pensam, existe somente para os
espoliadores dos proletários:
Abolição da família! Até os mais radicais ficam indignados diante desse desígnio
infame dos comunistas. Sobre que fundamento repousa a família atual, a família
16 Paradoxalmente, Engels era filho de um importante industrial alemão e utilizou-se do dinheiro proveniente
da atividade burguesa do pai para financiar as atividades filosóficas dele e de Marx.
burguesa? No capital, no ganho individual. A família, na sua plenitude, existe
para a burguesia, mas encontra seu complemento na supressão forçada da família
para o proletário e na prostituição pública. [...] As declamações burguesas sobre a
família e a educação, sobre os doces laços que unem a criança aos pais, tornam-se
cada vez mais repugnantes à medida que a grande indústria destrói todos os laços
familiares do proletário e transforma as crianças em simples objetos de comércio,
em simples instrumentos de trabalho. (Idem)
Na perspectiva comunista até mesmo o comportamento amoroso e sexual está
subordinado à inserção dos indivíduos a uma ou outra classe econômica e torna-se hedonista
para os burgueses:
Para o burguês, sua mulher nada mais é que um instrumento de produção. Ouvindo
dizer que os instrumentos de produção serão explorados em comum, conclui
naturalmente que haverá comunidade de mulheres. Não imagina que se trata
precisamente de arrancar a mulher de seu papel atual de simples instrumento de
produção. [...] Nossos burgueses, não contentes em ter à sua disposição as
mulheres e as filhas dos proletários, sem falar da prostituição oficial, têm singular
prazer em cornearem-se uns aos outros. (MARX e ENGELS, 1848).
Quanto à capacidade de cognição humana, o Marxismo também a subordina,
indiretamente, as classes sociais presentes nos modos de produção econômica, visto serem
estes os responsáveis pelas reais condições de vida material e relações sociais dos indivíduos.
Marx e Engels reafirmam essa crença ao afirmarem que “As idéias dominantes de uma época
sempre foram as idéias da classe dominante”, em resposta às perguntas que eles próprios
formularam:
Será preciso grande perspicácia para compreender que as idéias, as noções e as
concepções, numa palavra, que a consciência do homem se modifica com toda
mudança sobrevinda em suas condições de vida, em suas relações sociais, em sua
existência social? Que demonstra a história das idéias senão que a produção
intelectual se transforma com a produção material? (MARX e ENGELS, 1848).
Em sua obra Marxismo e Filosofia da Linguagem (1929), Milhail Bakhtin defende a
visão materialista de cognição do Marxismo, composta por signos ideológicos, em oposição a
Filosofia Idealista e a visão Psicologista da cultura:
O idealismo e o psicologismo esquecem que a própria compreensão não pode se
manifestar senão através de uma material semiótico (por exemplo, o discurso
interior), que o signo se opõe ao signo, que a própria consciência pode surgir e
se firmar como realidade mediante a encarnação material em signos. (BAKHTIN,
1929, p.33-p. 34)
Nos pressupostos de Bakhtin estão implícitas as crenças de Locke que a consciência
40
41
é resultado do processo de interação social, que desse modo preenche a Tabula Rasa com
conteúdo semiótico. Para isso:
[...] Não basta colocar face a face dois homo sapiens quaisquer para que os signos
se constituam. É fundamental que esses dois indivíduos estejam socialmente
organizados, que formem um grupo (uma unidade social): só assim um sistema de
signos pode constituir-se. A consciência individual não nada pode explicar, mas
ao contrário, deve ela própria ser explicada a partir do meio ideológico e social. A
consciência individual é um fato socioideológico. (idem, p.35)
Ao mesmo tempo deixa clara as diferenças existentes entre sua visão marxista e as
visões do Idealismo e do Naturalismo:
Apesar de suas profundas diferenças metodológicas, a filosofia idealista e o
psicologismo em matéria de cultura cometeram, ambos, o mesmo erro
fundamental. Situando a ideologia na consciência, eles transformaram o estudo das
ideologias em estudo da consciência e de suas leis. [...] A criação ideológica ato
material e social é introduzida a força no quadro de consciência individual. [...]
quando indevidamente interpretada como estando em conformidade com as leis da
consciência individual, deve, inevitavelmente, ser excluída de seu verdadeiro lugar
na existência e transportada, quer para e empíreo supra-existencial do
transcendentalismo, quer para os recônditos pré-sociais do organismo
psicofisiológico, biológico. (idem, p.34-p.35)
1.4 - QUARTA ONDA: CIÊNCIA NATURALISTA
O movimento cultural e científico Realista combateu as excentricidades e falsas
idealizações do Romantismo com fatos empíricos confirmados por métodos científicos
experimentais e pelo incontestável e visível progresso tecnológico. O Realismo buscava
substituir a visão romântica do belo e do ideal, do bom e do mau, pela visão realista e
objetiva.
As crenças do Realismo levadas ao extremo, com os contundentes e decisivos
ataques de Spinoza ao pensamento teleológico que considerava primitivo, levaram à criação
do movimento Naturalista que em seu ramo Metodológico contrariamente ao Metafísico
defende que os eventos observáveis na natureza podem ser explicados exclusivamente por
causas naturais sem a necessidade de considerações acerca da existência ou inexistência do
sobrenatural. Nesse sentido a ciência se limita a explicar fenômenos empíricos, a realidade,
sem qualquer referencia a outras forças que não sejam as naturais.
Fiel as doutrinas do Naturalismo, Charles Darwin (1809-1882) desenvolveu sua
pesquisa e teorias publicadas em sua obra On the Origin of Species by Means of Natural
Selection, or The Preservation of Favoured Races in the Struggle for Life (1859). A idéia de
evolução natural das espécies animais, entre elas a humana, a partir de um ancestral comum,
por meio de seleção natural, tornou-se a base para a explicação de diversos fenômenos da
biologia. Nessa obra, Darwin introduz a ideia de que desenvolvimento da natureza e cognição
humanas são frutos da evolução natural da espécie e, portanto, de alguma condicionante
natural biológica, afinal, no início, várias espécies foram criadas da mesma matéria, dentre
elas o homo Sapiens, que por muito tempo compartilharam os mesmos ambientes, culturas e a
mesma economia natural.
As descobertas de Darwin, observou Tarnas, levaram ao “[...] triunfo apoteótico da
ciência moderna sobre a religião tradicional, a teoria da evolução de Darwin, trouxe a origem
das espécies da Natureza e a do próprio Homem para dentro do círculo da abrangência da
ciência natural e do panorama moderno”. (TARNAS, ibidem, p.307).
Essa perspectiva de análise naturalista da capacidade cognitiva humana consolidou
um novo campo epistemológico especializado no estudo da natureza da mente e do
comportamento humano, com base em métodos experimentais da ciência: A Psicologia
Científica. A partir dessa nova Visão de Mundo surge uma nova onda de zeitgeist, um novo
método de busca das verdades acerca da natureza humana, porque, como observaram Duane
P. Schultz e Sydney Ellen Schultz em História da Psicologia Moderna (2006, p.2), “Até o
último quartel do século XIX, os filósofos estudavam a natureza humana por meio da
investigação, da intuição e da generalização, baseados nas próprias experiências de vida”.
1.5 - QUINTA ONDA: PSICOLOGIA CIENTÍFICA
A quinta Onda epistemológica começou a formar-se como resultado da inclusão de
métodos científicos oriundos da Fisiologia na busca da compreensão acerca da natureza da
cognição humana. Desse modo formou-se um novo campo do conhecimento especializado
nos estudos da mente chamado de Psicologia.
Antes do surgimento da psicologia como disciplina científica autônoma, grande parte
da discussão quanto aos enunciados filosóficos acerca da natureza humana estava relacionada
às dificuldades em provar quais teorias teriam ou não enunciados comprovadamente
verdadeiros. Tratava-se de aceitar ou não as doutrinas monismo, dualismo etc e os
42
43
métodos científicos indutivo, dedutivo etc empregados para a formulação das teorias e
comprovar as verdades de seus enunciados.
Não podemos deixar de observar que até no presente essa discussão ainda persiste,
apesar dos esforços de renomados filósofos e cientistas em estabelecer doutrinas mais estáveis
e duradouras como base para a Filosofia da Ciência, dentre os quais Emmanuel Kant, Gottlob
Frege; Ludwig Wittgenstein; Bertrand Russel; George Moore; Moritz Schlick, Rudolf Karnap;
William Van Orman Quine; Jonh Austin; A.J. Ayer e Karl Popper.
Em sua obra A Lógica da Pesquisa Científica (1959, p.41), Karl Popper propõe que,
ao invés de se tentar provar a verdade, através da lógica indutiva, deveríamos utilizar a
falseabilidade
17
como critério de demarcação:
O critério de demarcação inerente à Lógica Indutiva isto é, o dogma positivista
do significado equivale ao requisito de que todos os enunciados da ciência
empírica (ou todos os enunciados significativos) devem ser susceptíveis de serem,
afinal, julgados com respeito à sua verdade e falsidade; diremos que eles devem
ser conclusivamente julgáveis`. Isso quer dizer que sua forma deve ser tal que se
torne logicamente possível verificá-los e falsificá-los. Schinck diz: “... um
enunciado genuíno deve ser passível de verificação conclusiva”; Waismann é ainda
mais claro: “Se o houver meio possível de determinar se um enunciado é
verdadeiro, esse enunciado não terá significado algum, pois o significado de um
enunciado confunde-se como método de sua verificação”. Ora, a meu ver, não
existe a chamada indução. Nestes termos, inferências que levam as teorias,
partindo-se de enunciados singulares “verificados por experiência” (não importa o
que isso possa significar) são logicamente inadmissíveis. Conseqüentemente, as
teorias nunca são empiricamente verificáveis. Se quisermos evitar o erro
positivista de eliminar, por força de critério de demarcação que estabeleçamos, o
sistema teórico da ciência natural, devemos eleger um critério que nos permita
incluir, no domínio da ciência empírica, enunciados insusceptíveis de verificação.
Contudo, somente reconhecerei um sistema como empírico ou científico se ele for
passível de comprovação pela experiência. Essas considerações sugerem que deve
ser tomado como critério de demarcação não a verificabilidade, mas a
falseabilidade de um sistema.
A Psicologia científica apoiou-se nos avanços introduzidos pelos métodos
experimentais na Fisiologia. Essa técnica possibilitou de início inúmeras descobertas acerca
da natureza do organismo humano, dentre elas: O mapeamento interno das funções do cérebro
por Marshall Hall (1790-1857); O mapeamento externo das funções cerebrais por Franz
Joseph Gall (1758-1828); a técnica de extirpação de Pierre Flourens (1794-1867); o método
clínico de Paul Broca (1824-1880); os estudos do sistema nervoso, conduzidos por Luigi
17 Popper exemplifica o conceito de falseabilidade propondo que devemos procurar 'cisnes negros' se
quisermos falsear um enunciado que afirme que 'todos os cisnes são brancos'.
Galvani (1737-1798); a técnica dos estímulos elétricos por Gustav Fritsch e Eduard Hitzig
(1870); e a comprovação dos equívocos da teoria do tubo de Descartes e da teoria das
vibrações de Hartley pelo vencedor do prêmio Nobel de 1906, Santiago Ramon y Cajal
(1825-1934).
Mesmo assim, em muitos casos, mantiveram-se ligações íntimas entre o Fisiologismo
e a Filosofia Moderna:
Na década de 1840, um grupo de cientistas [...] fundou a Sociedade Física de
Berlim. Esses cientistas, todos na faixa dos vinte anos, estavam comprometidos
com uma única proposta: a explicação de todos os fenômenos pelos princípios da
física. O grupo desejava relacionar a fisiologia com a física, ou seja, desenvolver a
fisiologia com base no quadro de referência do mecanicismo. [...] Essa declaração
estabelecia que as únicas forças ativas dentro do organismo eram as forças
psicoquímicas comuns. E assim se entrelaçaram na fisiologia do século XIX: o
materialismo, o mecanicismo, o empirismo, o experimentalismo e a medição.
(SCHULTZ, idem, p.63)
Apesar disso, com a utilização de métodos experimentais da fisiologia para o estudo
da mente, em 1874 a filosofia cedeu espaço a psicologia, por influência do psicólogo alemão
Wilhelm Wundt, que, ao publicar sua obra Principles of Physiological Psychology (1874)
“estabeleceu as metas, o objeto de estudo, os métodos e os tópicos de pesquisa. Nessa obra,
Wundt foi influenciado pelo espírito de sua época, isto é, pelos pensamentos filosóficos e
fisiológicos vigentes. Todavia Wundt assumiu o papel de agente do Zeitgeist e uniu as linhas
do pensamento filosófico e científico”. (SCHULTZ, idem, p.2)
Assim, a obra de Wundt demarcou o início da psicologia como campo independente
da ciência voltado ao estudo da mente humana, ao juntar os paradigmas científicos da
Filosofia e Fisiologia, atitude deliberada e claramente identificada por seu autor no prefácio da
primeira edição dessa obra, como uma tentativa de demarcar um novo domínio da ciência.
A primeira escola da Psicologia, chamada de Estruturalista, foi grandemente
influenciada pelos trabalhos dos fisiologistas alemães Hermann Von Helmholtz (1821-1894);
Ernst Weber (1795-1878); Gustav Theodor Fechner (1801-1887), aos quais são creditadas as
primeiras aplicações do método experimental à mente. Foi a escola estruturalista que trouxe o
corpo humano para o centro das pesquisas acerca da natureza do funcionamento do cérebro e
mente. Helmholtz pesquisou profundamente sobre a velocidade do impulso neural e sobre a
visão e audição. Suas pesquisas renderam-lhe a invenção do oftalmoscópio, utilizado até hoje
para examinar a retina. Publicou Handbook of Physiological optics, com três volumes
44
45
(1856-1866) e On the sensations of tone (1863).
Segundo Schultz (idem, p.66), Helmholtz também desenvolveu inúmeros trabalhos
relativos “a imagem persistente, o daltonismo, a escala musical árabe-persa, o movimento dos
olhos humanos, a formação de geleiras, os axiomas geométricos e a febre do feno. Anos mais
tarde, contribuiu indiretamente para a invenção do telégrafo sem fio e do rádio”.
Ernst Weber deu sua maior contribuição à ciência ao estudar os órgãos dos sentidos,
mais especificamente as sensações cutâneas e musculares. Suas pesquisas resultaram na
primeira lei quantitativa da psicologia, que demonstrou que “não correspondência direta
entre um estímulo físico e nossa percepção desse estímulo” (SCHULTZ, idem, p.66).
O intrigante é que Gustav Theodor Fechner, filho de clérigo e médico, tinha visão
humanística e, portanto contrária ao mecanicismo dominante no estudo científico. “Com o
pseudônimo de 'dr. Mises' escreveu sátiras ridicularizando a medicina e a ciência.” (idem,
p.69). Ainda assim, na manhã do dia 22 de outubro de 1850 ocorreu-lhe que seria possível
encontrar uma ligação entre mente e corpo, na relação quantitativa entre a sensação mental e o
estímulo mental. Que a progressão geométrica caracterizava o estímulo enquanto a progressão
aritmética caracterizava a sensação, como demonstrado a seguir.
Por exemplo: o acréscimo do som de um sino ao de outro que esteja tocando
produz um aumento maior na sensação sonora do que a adição de um sino a dez
outros que estejam tocando. Portanto os efeitos da intensidade do estímulo não
são absolutos, mas proporcionais à intensidade da sensação existente. Essa
revelação simples, porém brilhante, significa que a dimensão da sensação (a
qualidade mental) depende da qualidade de estímulos (a qualidade física). Para
medir a mudança na sensação, é necessário medir a alteração no estímulo. Portanto
é possível formular uma relação quantitativa ou numérica entre o corpo e a mente,
vinculando-os de forma empírica, possibilitando a realização de experiência com a
mente. (idem, p.69).
A partir desse insight Fechner definiu os conceitos de limiar absoluto ponto de um
eixo a partir do qual as percepções são detectadas ou não pelo organismo e de limiar
diferencial ponto no qual alteração no estímulo provoca mudança na sensação. Em 1860
apresentou os resultados de seu trabalho na obra Elements of Psychophysics que, segundo
Schultz, trata-se de “um livro didático a respeito da ciência exata das 'relações funcionalmente
dependentes (...) do material e do mental, dos universos físico e psicológico' (Fechner, 1860,
p.7). Essa obra foi uma das primeiras contribuições de destaque para o desenvolvimento da
psicologia científica.” (SCHULTZ, idem, p.73)
O método experimental aplicado à psicologia, ou seja, o desenvolvimento da
psicologia científica desenvolvida por Wundt com base na pesquisa psicofísica – contradisse a
crença de todos os filósofos que, como Immanuel Kant, insistiam “em afirmar que a
psicologia nunca podia ser considerada ciência porque era impossível medir ou realizar
experiências com – os processos psicológicos.” (SCHULTZ, idem, p.75).
Após a fundação do que se convencionou chamar de primeira Escola da Psicologia,
foram criadas muitas outras, por decorrência de diferentes visões filosóficas e de discordância
quanto à aplicação de doutrinas, técnicas, métodos e objetos de pesquisa, e, todas, de uma
forma ou de outra, contribuíram para ampliar o conhecimento científico acerca do cérebro e
mente humana. Nesse sentido, após a pioneira Escola Estruturalista, fundada por Wundt,
seguiram-se as escolas Funcionalista, da Psicanálise, Gestalt, Behaviorismo, Humanista,
Cognitiva, Evolucionista e Positiva.
Foge do escopo desta tese explicar os fundamentos teóricos que norteiam cada uma
das correntes da psicologia, entretanto iremos dedicar umas poucas linhas a quatro escolas,
cuja ênfase de pesquisa foi a relação entre os órgãos sensitivos humanos e a mente nos
processos de consciência, percepção e pensamento. Todas estas escolas, de uma ou outra
forma, contrapõem-se a Escola Behaviorista e, mais diretamente, ao manifesto de seu
fundador, John B. Watson, que fiel a doutrina materialista, em 1913:
insistia na eliminação da psicologia de qualquer referência à mente, à consciência
ou aos processos conscientes. E, realmente, os psicólogos seguidores dos
mandamentos de Watson eliminaram a menção desses conceitos e baniram toda a
terminologia mentalista. Durante décadas, os livros básicos de introdução à
psicologia apresentavam descrições sobre o funcionamento do cérebro, mas não
proporcionavam discussões acerca de qualquer conceito relacionado à mente. As
pessoas comentavam, em tom de piada, que a psicologia “perdeu a consciência” ou
“perdeu a cabeça”, aparentemente para sempre. (SCHULTZ, idem, ibidem).
A primeira dessas escolas é a Funcionalista, que segundo Schultz se refere “ao
funcionamento da mente ou ao uso que o organismo dela faz para adaptar-se ao ambiente.”
(idem, p.121). Os funcionalistas estudavam a mente do ponto de vista de funções e processos
que resultam em ações práticas no mundo real. Portanto, a base para o estudo da mente tem
como ponto de partida o 'organismo' e o uso que este faz da mente para adaptar-se ao
'ambiente'. Este enunciado deixa clara a influência de Charles Darwin nesta corrente da
psicologia. A escola da Psicologia Funcionalista exerceu forte influência em outros campos de
conhecimento e em especial na comunicação social, que também passou a contar com a escola
46
47
Funcionalista Americana da Comunicação.
A segunda escola de pensamento da Psicologia é a Gestalt, cujo marco formal de
início está associado à publicação de Experimental studies of perception movement (1912),
por Max Wertheimer, na Alemanha. Como o nome sugere, a pesquisa de Wertheimer envolvia
a percepção do 'movimento aparente', ao qual Wertheimer se referia como “impressão” do
movimento, resultados obtidos inicialmente com uma pesquisa bem simples:
Usando o taquistoscópio, projetava luz através de duas fendas, uma vertical e a
outra com ângulo de 20 ou 30 graus da vertical. Se a luz era projetada primeiro
através de uma e depois através da outra, com um intervalo relativamente longo
entre elas (mais de 200 milissegundos), os sujeitos enxergavam algo como duas
luzes sucessivas, primeiro em uma fenda e depois em outra. Quando o intervalo
entre as luzes era menor, os observadores percebiam duas luzes que pareciam
contínuas. Com intervalo de tempo ótimo entre as luzes, cerca de 60
milissegundos, eles enxergavam um único feixe de luz que parecia se mover de
uma fenda a outra, voltando novamente ao lugar. (SCHULTZ, idem, p.321-322).
O movimento da Gestalt deixou muitas contribuições no estudo da experiência
consciente e influenciou trabalhos futuros relativos à percepção, aprendizagem, personalidade
e motivação, embora sujeita às críticas de que seus conceitos eram definidos de modo pouco
rigoroso do ponto de vista epistemológico.
A terceira escola é da Psicanálise, iniciada por Sigmund Freud. Freud acreditava que,
considerando todo o registro da história conhecida, o ego coletivo humano havia sofrido forte
influência de três zeitgeist, em épocas bem definidas:
A primeira, quando Copérnico (1473-1543), o astrônomo polonês, demonstrou que
a Terra não era o centro do universo, mas apenas um dos muitos planetas a girarem
em torno do Sol. A segunda mudança ocorreu no século XIX , quando Charles
Darwin mostrou não ser o homem uma espécie única e distinta ocupando um papel
de destaque na criação, mas apenas uma espécie superior proveniente de formas
inferiores de vida animal. E, finalmente, a terceira mudança, provocada por Freud,
ao afirmar não ser o homem agente racional da própria vida, pois se encontra sob
influência de forças inconscientes que não percebe e sobre as quais tem pouco ou
nenhum controle. (SCHULTZ, idem, p.345).
Embora haja na Psicanálise um reconhecimento de estados conscientes e
inconscientes, o movimento da psicanálise dedicou-se mais ao tratamento e estudo de doenças
mentais, assunto que foge ao escopo desta tese, mas cujos conceitos até hoje são utilizados
em diversos campos da ciência. Freud contribuiu significativamente com a percepção acerca
da natureza humana ao perceber que o homem não é um agente racional da própria vida por
sofrer influência de forças inconscientes, sobre as quais não tem total controle nem
conhecimento. Essa perspectiva representa forte contestação às Doutrinas Sagradas
18
quanto à
qualificação da natureza humana, principalmente quanto à idéia romântica do Bom Selvagem.
A última escola da psicologia de nosso interesse é a do Movimento Cognitivo, que
devolve aos estudos da mente a posição central de objeto de estudo da psicologia, posição da
qual fora retirada pelo movimento Behaviorista. A Psicologia Cognitiva foi bastante
influenciada pelo enfoque da Gestalt na “organização, estrutura, nas relações, no papel ativo
do objeto e na participação importante na percepção e na aprendizagem e na memória.”
(SCHULTZ, idem, p.428).
Quanto ao surgimento da Psicologia Cognitiva, segundo Schultz (idem, p.428) não
houveram fundadores desse movimento no sentido formal da palavra, mas a publicação dos
livros Language and communication (1951) por George Miller e Cognitive Psychology (1967)
por Ulric Neisser tornaram-se marcos representativos do surgimento da Psicologia Cognitiva.
A Psicologia Cognitiva foi profundamente influenciada por avanços científicos e
tecnológicos nas áreas da Ciência da Computação, Neurociência e da Inteligência Artificial e
pelas novas descobertas no campo da física resultantes dos trabalhos de Albert Einstein
(1879-1955) – conhecido por desenvolver a teoria da relatividade e pela correta explicação do
efeito fotoelétrico; Neil Henri David Bohr (1885-1962) que contribuiu para a compreensão
da estrutura atômica e de Werner Heisenberg (1901-1976) ambos físicos fundadores da
Mecânica Quântica. Todos os três laureados com o Prêmio Nobel.
Outra influência significativa foi provocada pela divulgação ampla da Lei da
Hereditariedade no início do século XX, formulada por Gregor Mendel (1822-1884) e
publicados em "Experiments on Plant Hybridization" (1865-1866). As descobertas de
Mendel, considerado um dos pais da ciência Genética, confirmaram irreversivelmente as
Teorias da Evolução e da Seleção Natural de Darwin.
Ao se juntarem para realizar estudos científicos experimentais, interdisciplinares,
acerca da natureza da mente humana esses campos estabeleceram as condições
epistemológicas necessárias e suficientes para o surgimento da sexta e última onda de
zeitgeist: A Ciência da Mente.
18 Segundo Gartner as Doutrinas Sagradas do século XX são a Dualística de Descartes; da Tábula Rasa de
Locke e a do Bom Selvagem de Rousseau.
48
49
1.6 - SEXTA ONDA: CIÊNCIA DA MENTE
Em sua obra A Nova Ciência da Mente: Uma História da Revolução Cognitiva
(2003), Gardner resume o início e o campo de pesquisa dessa nova onda de zeitgeist, ao nos
informar que assim como os antigos filósofos:
[...] os cientistas cognitivos de hoje perguntam o que significa conhecer algo e ter
crenças precisas, ou ser ignorante ou estar errado. Eles procuram entender o que é
conhecido o objeto e o sujeito do mundo externo e a pessoa que conhece seu
aparelho perceptivo, mecanismos de aprendizagem, memória e racionalidade. Eles
investigam as fontes do conhecimento: de onde vem, como é armazenado e
recuperado, como ele pode ser perdido? Eles estão curiosos com as dificuldades
entre os indivíduos: quem aprende cedo ou com dificuldade; o que pode ser
conhecido pela criança, pelo cidadão de uma sociedade não letrada, por um
indivíduo que sofreu lesão cerebral, ou por um cientista maduro? Eles conjeturam
a respeito dos vários veículos do conhecimento: o que é uma forma, uma imagem,
um conceito, uma palavra; e como estes modos de representação se relacionam
entre si? Eles refletem acerca da linguagem, observando o poder e as armadilhas
trazidas pelo uso das palavras e a sua possível influencia predominante sobre
pensamentos e crenças. E especulam extensivamente a respeito da natureza da
própria atividade de conhecer: por que nós queremos conhecer, quais o as
restrições do conhecimento, e quais são os limites do conhecimento cientifico
sobre o conhecimento humano? (idem, p.18-19).
Desde que o termo ciência da mente passou a ser utilizado, por volta da década de
70, muitos cientistas passaram a se dedicar ao estudo da natureza desta nova ciência, ou seja,
tentaram compreender e definir o campo da ciência cognitiva. Muitos tinham e ainda têm o
objetivo de responder questões epistemológicas principalmente relacionadas com a natureza
do conhecimento humano – seus componentes, origem, desenvolvimento – e, mais
recentemente, sua relação com tecnologias em especial os computadores, consideradas por
muitos – e especialmente por McLuhan – próteses ou extensões humanas.
Gardner (idem, p. 19) define ciência cognitiva como “um esforço contemporâneo,
com fundamentação empírica, para responder questões epistemológicas de longa data
principalmente relativas à natureza do conhecimento”. Para ele esta ciência tem a chave para
explicar questões antigas que interessaram a muitos filósofos.
Segundo Gardner são cinco os aspectos que caracterizam a ciência cognitiva. Os dois
primeiros representam os ‘pressupostos centrais’ e os três últimos os 'aspectos metodológicos'
ou estratégicos deste novo campo. Todos estes aspectos são corroborados por muitos
estudiosos mas, como de costume, geram controvérsias e críticas, feitas pelos opositores das
ciências cognitivas.
O primeiro pressuposto central é o da Representação e está fundamentado na crença
de que para explicar o conhecimento humano é preciso definir “um nível de análise separado,
que pode ser chamado de nível de representação” (GARDNER, idem p. 53).
A partir da crença generalizada de que, de alguma forma, os processos mentais são
representados no sistema nervoso central, ou seja, nos componentes orgânicos do cérebro, são
necessários variados níveis da representação [...] para explicar a variedade do comportamento,
da ação e do pensamento humano, pois os estudiosos da ciência cognitiva trabalham no nível
do pressuposto das representações e discutem continuamente as melhores maneiras de se
conceitualizar as representações mentais [...] “(idem, ibidem)”.
Cada nível de representação mental permite descrever mais apropriadamente
atividades cognitivas humanas de variadas formas e, desse modo, isolar as complexidades
inerentes às estruturas físicas que suportam os processos da mente dessa representação:
O neurocientista pode preferir falar em termos de células nervosas, o historiador
ou antropólogo em termos de influencias culturais, a pessoa comum ou o escritor
de ficção em termos de nível para diversos fins, o cientista cognitivo baseia sua
disciplina sobre pressuposto de que, para fins científicos, a atividade cognitiva
humana deve ser descrita em termos de mbolos, esquemas, imagens, idéias, e
outras formas de representação mental . (GARDNER, idem p, 54).
Quando trabalha no nível do pressuposto das representações [...] um cientista
trafega por entidades representacionais tais como símbolos, regras, imagens o material da
representação que é encontrado entre input e output e, além disto, investiga as formas nas
quais estas entidades representacionais são combinadas, transformadas ou contrastadas umas
com as outras”. (GARDNER, idem p, 54).
A visão de alguns críticos acerca do pressuposto das Representações é, geralmente,
fruto da visão behaviorista. Nesse sentido Gardner observa que “[...] eles crêem que o
construto da mente faz mais mal do que bem; que faz mais sentido falar sobre estruturas
neurológicas ou sobre comportamento manifesto do que sobre idéias, conceitos ou regras; e
que insistir em um nível representacional é desnecessário, enganador ou incoerente” para
compreensão e explicação do conhecimento humano.
Existem outras correntes críticas que discordam do pressuposto da representação de
forma menos radical, mas são perigosas pois admitem a necessidade de discussões de senso
comum a respeito de planos, intenções, crenças e coisas semelhantes, mas não vêem
50
51
necessidade de um nível da análise e de uma linguagem científica separados, relativos à
representação mental” (GARDNER,idem, p.54),
O segundo pressuposto central é o computacional. Os computadores trouxeram
novas possibilidades de análise e simulação de experiências para os pesquisadores da ciência
cognitiva, especialmente com o desenvolvimento de novos e sofisticados softwares. Gardner
(idem p. 55) nos afirma que “Não dúvidas de que a invenção dos computadores nos anos
1930 e 1940, e demonstrações de pensamento no computador nos anos de 1950, foram
extremamente liberadoras para os estudiosos interessados em explicar a mente humana”.
A exemplo do pressuposto representacional, o pressuposto computacional também
tem seus críticos. Para estes “o computador é apenas o último de uma longa série de modelos
inadequados a cognição humana [...] e não razão para supor que o ‘modelo quente’ do
momento terá um destino feliz. Ver organismos ativos como ‘sistemas processadores’ de
‘informação’ parece ser um erro radical”. (idem, ibidem).
Considerados brinquedos que mais atrapalham do que ajudam, outros críticos dizem
que fazer simulações da mente humana com computadores ao invés de ajudar dificulta o
caminho para uma verdadeira compreensão do pensamento humano. Apesar das críticas, para
Gardner (idem, 56) “Os computadores são centrais na inteligência artificial, e poucos
cientistas da computação mal-humorados questionam a utilidade do computador como um
modelo da cognição humana. Nos campos da lingüística e da psicologia podem-se notar
algumas reservas com relação à abordagem computacional: no entanto, as maiorias dos
profissionais destas disciplinas não se dão ao trabalho de entrar em conflito com os
computófilos”. Muitos pesquisadores de outras áreas também se envolvem nas discussões
sobre o uso do computador no campo da ciência cognitiva. Discussões a favor ou contra o uso
desta tecnologia criam um cenário que nos remete à necessidade de, cada vez mais,
aprofundar conhecimentos acerca do surgimento e do progresso desta nova ciência. Nesse
sentido nos lembra Gardner que;
Muitos antropólogos e muitos neurocientistas [...] ainda terão que ser convencidos
de que o computador funciona como um modelo viável daqueles aspectos da
cognição nos quais eles estão interessados. Muitos neurocientistas acham que o
cérebro fornece a resposta em seus próprios termos, sem necessidade de um
modelo computacional interveniente; muitos antropólogos acham que a chave para
o pensamento humano está nas forças históricas e culturais que se encontram fora
da cabeça humana e são difíceis de conceituar em termos computacionais. No que
diz respeito aos filósofos, suas atitudes com relação aos computadores vão do
entusiasmo desmedido ao ceticismo acirrado o que os torna uma fonte de
informação particularmente interessante e importante em qualquer exame da
ciência cognitiva. (GARDNER, idem, p. 56).
Depois de conhecer os dois pressupostos centrais da ciência cognitiva
representacional e computacional passamos à análise dos três 'aspectos metodológicos ou
estratégicos' deste campo de conhecimento.
O primeiro aspecto metodológico é denominado por Gardner (idem, ibidem)
Desenfatização da emoção, do contexto, da cultura e da história”. Os estudiosos da ciência
cognitiva tentam desconsiderar ao máximo as influencias da emoção, do contexto, da cultura e
da história para compreensão do pensamento humano. Para estes estudiosos esses fenômenos,
por sua complexidade, subjetividade e individualidade, podem inviabilizar a realização de
estudos que objetivam responder questões epistemológicas relativas à natureza do
conhecimento. Por outro lado, críticos sustentam que ao invés de isolar essas dimensões
humanas das pesquisas, os cientistas cognitivos deveriam incorporá-las aos seus modelos de
pensamento e comportamento, pois:
[...] Como estes são fatores importantes da existência humana, qualquer ciência
que tente excluí-los está condenada de antemão. Outros críticos concordam que
todos estes aspectos, ou alguns deles, estão na essência da experiência humana,
mas não consideram que eles não sejam passiveis de explicação científica. Sua
briga com uma ciência cognitiva anti-séptica é que eles julgam ser errado isolar
estas dimensões artificialmente. (GARDNER, idem p. 57).
O segundo aspecto metodológico é o da Crença em Estudos Interdisciplinares”.
Este aspecto está relacionado com as perspectivas de interações produtivas entre
pesquisadores de diferentes áreas. Gardner cita como exemplos bem sucedidos os simpósios
Hixon e Macy que reuniam grupos singulares de pessoas altamente criativas mas com
formação e objetos de pesquisa variados, que se empenharam em longos diálogos para
explorar novas idéias e novos modos de pensar.
As conferências Macy juntaram grupos multidisciplinares compostos por
matemáticos, entre os quais John von Neumann criador do projeto dos computadores
modernos e Norbert Wiener - pai da Teoria Cibernética. Cientistas vindos das ciências
humanas, dentre os quais Gregory Bateson, biólogo que se especializou em genética e
Margaret Mead, que tornou a antropologia um tema popular.
Foi no simpósio Hixon, evento que reuniu na Califórnia (EUA), em 1948, cientistas
52
53
de diversas áreas para discutir os Mecanismos Cerebrais do Comportamento, que o psicólogo
americano Karl Lahsley fez um discurso que desafiou os paradigmas da psicologia
Behaviorista, dominante na época, ao falar sobre “O Problema da Ordem Serial no
Comportamento”. O discurso de Lashley defendia alguns dos principais componentes
necessários ao desenvolvimento de uma ciência cognitiva e é muito lembrado por suas
influentes contribuições ao estudo da aprendizagem e memória. Lashley postulou que a
memória não está localizada em um local específico cérebro, um locus biológico único e sim
amplamente distribuída por todo o córtex.
Hoje, as conseqüências desse tipo de experiência interdisciplinar estão presentes em
“trabalhos atuais em percepção visual e em processamento lingüístico que passaram a
recorrer, muito naturalmente, a evidências da psicologia, da neurociência e da inteligência
artificial – a ponto dos limites das disciplinas já começam a se confundir”. (idem, p.57).
os críticos deste aspecto metodológico entendem que combinar disciplinas num
trabalho científico pode ser perigoso, para eles o ideal é que cada disciplina siga uma ordem
de importância e seja individualmente estudada. Sem perceber a perfeita interação existente
entre as disciplinas que compõem a Nova Ciência da Mente afirmam que “Já que também não
está claro quais das disciplinas relevantes irão decisivamente contribuir para uma ciência
cognitiva, e de que maneira, muito tempo precioso pode ser perdido em colaborações mal
concebidas. […] No máximo, deveria haver cooperação entre disciplinas e nunca fusão
total” (idem, ibidem).
Raízes em Problemas Filosóficos Clássicos é o terceiro aspecto metodológico
proposto por Gardner, que os considera problemas filosóficos clássicos fundamentais e
inseparáveis da ciência cognitiva o ponto de partida lógico para estudos no contexto desta
ciência, embora não seja possível prever quais cientistas corroboram com este postulado, pois
muitos cientistas cognitivistas apresentam opiniões divergentes acerca da importância da
filosofia neste campo de estudos. Para Gardner (idem p.58) “Justamente porque o papel da
filosofia nas ciências cognitivas é discutível, é útil investigar a história mais antiga da
filosofia. Somente um estudo deste tipo será capaz de provar que os cientistas cognitivistas,
quer eles tenham ou não consciência plena disto, estão empenhados em atacar aquelas
questões que foram identificadas por filósofos muitas décadas, ou mesmo muitos séculos
atrás”. Por esse motivo Gardner acredita que muitos dos assuntos discutidos na Nova Ciência
da Mente, em cada um dos sintomas ou aspectos em discussão, eram discerníveis nas
discussões dos anos de 1940 e bastante difundidos em meados dos anos de 1950. Ele
acredita ser legitimo considerar os problemas epistemológicos clássicos da filosofia como
ponto de partida pelo fato de que muitos dos aspectos que foram estudados não estão mais
em evidência, apesar de não possuírem consenso. Um exemplo claro dessa divergência
filosófica diz respeito ao paradoxo computacional, assim exposto por Gartner:
Na minha opinião, a intoxicação inicial com a ciência cognitiva estava baseada em
um pressentimento perspicaz: de que o pensamento humano acabaria se revelando
semelhante, em aspectos significativos, às operações de um computador, e
particularmente do computador eletrônico serial digital que estava se tornando
comum na metade do século. É ainda muito cedo para dizer até que ponto os
processos de pensamento humano são computacionais neste sentido. Porém, se eu
estiver interpretando corretamente os sinais, um dos mais importantes resultados
das ultimas décadas foi colocar em questão em que medida os processos humanos
superiores de pensamento – aqueles que nós poderíamos considerar mais
distintamente humanos podem ser adequadamente abordados em termos deste
modelo computacional específico. O que nos leva ao que denominei de paradoxo
computacional. Paradoxalmente, a aplicação rigorosa de métodos e modelos
extraídos do domínio computacional ajudou os cientistas a entenderem as maneiras
nas quais os seres humanos não são muito parecidos com estes computadores
prototípicos. Isso não equivale a dizer que nenhum processo cognitivo é do tipo
computacional de fato, alguns se assemelham bastante ao computador. Equivale
menos ainda a sustentar que processos cognitivos não podem ser modelados no
computador (afinal de contas, qualquer coisa que possa ser claramente planejada
pode ser modelada desta maneira). Equivale sim a afirmar que o tipo de visão
sistemática, lógica e racional da cognição humana que permeava a literatura inicial
da ciência cognitiva não descreve adequadamente grande parte do pensamento e
comportamento humano. A ciência cognitiva pôde ainda prosseguir, mas surge a
necessidade de saber se deveríamos continuar à procura de modelos mais verídicos
do pensamento humano. Embora a ciência cognitiva tenha gerado um paradoxo,
ela também encontrou um desafio. […] que [...] abrange tranqüilamente as
disciplinas da psicologia cognitiva, inteligência artificial, e extensas porções da
filosofia e da lingüística. Mas parece igualmente evidente que outras disciplinas
estabelecem um limite para a ciência cognitiva. Grande parte da neurociência
avança em um nível de estudo onde questões de representação e do computador
como modelo o estão presentes. Se os cientistas cognitivistas querem dar uma
explicação completa dos aspectos mais fundamentais da cognição, contudo, eles
(ou outros cientistas) terão de descobrir ou construir pontes que ligam sua
disciplina a áreas vizinhas de estudo e, especificamente, à neurociência no
extremo inferior, por assim dizer, e aos estudos culturais no superior (GARDNER,
idem p. 59-60).
Gardner (idem, p. 20) observa que quando esses cinco aspectos, características ou
sintomas fundamentais da ciência cognitiva, ou a maioria deles, estão presentes nos estudos e
esforços contemporâneos, com fundamentação empírica, voltados a responder questões
epistemológicas relativas à natureza do conhecimento, pode-se dizer que este estudo se trata
54
55
de ciência cognitiva; “[…] quando alguns, ou nenhum deles, estão presentes, encontramo-
nos fora da minha definição de ciência cognitiva”.
De fato essa definição é de suma importância, pois somente desse modo podemos
nos livrar de visões equivocadas, resultantes da mistura das diversas ondas de zeitgeists
epistemológicos. No que diz respeito ao uso de tecnologias para estudar a mente não devemos
estranhar as posturas luditas por parte dos críticos que confessam nas Doutrinas Sagradas do
Dualismo, Tábula Rasa e do Bom Selvagem, principalmente no campo das Ciências Sociais e
da Comunicação.
Entretanto, precisamos reconhecer que também pesquisadores que valorizam o
uso de tecnologia. É o caso de Sebastião Squirra que em sua obra A tecnologia, a sociedade
do conhecimento e os comunicadores (2007), destaca a importância “de focar as tecnologias
no universo da comunicação, uma vez que se constata que, na moderna sociedade, não existe
forma dinâmica e competitiva de transmissão de conhecimento sem os múltiplos aparatos
técnicos. Neste sentido, esta proposta se justifica tendo em vista o diagnóstico da avassaladora
presença das tecnologias - sobretudo as de comunicação - na plenitude da vida humana
contemporânea.” (SQUIRRA, 2007, p. 2).
Squirra observa que “desponta a necessidade da delimitação de um corpus teórico
que estimule estudos e análises visando a preparação para o domínio - pelos comunicadores -
dos conceitos que regem e caracterizam as tecnologias próprias para as conexões digitais,
balizando suas implicações e repercussões no cenário ampliado da produção de bens
culturais.”(idem, ibidem).
Porém, em seguida, ao questionar a participação de pesquisadores do campo da
comunicação nas pesquisas relacionadas com tecnologia, Squirra, acaba por apontar algumas
dificuldades que ainda persistem:
[...] será que as escolas de comunicaçãom preparando os alunos para o domínio
consciente e eficiente do “cardápio” tecnológico disponibilizado, que se configura
como aquele que estes usarão nas suas atividades, quer estas sejam profissionais
ou as típicas da reflexão conceitual? [...] É possível afirmar que se a área estivesse
promovendo tais ões de forma consistente, estaria contribuindo mais com os
índices de Pesquisa e Desenvolvimento da nação. Mas, é mais seguro afirmar que
isto deve estar acontecendo na área da engenharia, da matemática, da física etc.,
com reduzida intensidade no setor das comunicações. Isto, pois o segmento vem
agindo como produtor de análises com majoritário recorte humanista (reflexões
centradas na história das alterações do comportamento coletivo) e com foco nas
repercussões íntimas no ser humano (estudos psicanalíticos) no contato com tal
tipo de tecnologia. Isto é importante, mas obviamente não encerra a questão que,
pela sua dinâmica e fertilidade, tem muito mais a ser continuamente investigado.
Finalmente, Squirra também identifica na influência histórica das Doutrinas
Sagradas as principais dificuldades com a realização deste tipo de pesquisas no campo da
comunicação social:
A razão pode ser histórica, pois é possível perceber que, na área da comunicação
tornou-se comum a produção de pesquisas com alvos fortemente centrados na
semiologia, psiquiatria, sociologia, história, antropologia etc. Esta opção
certamente diluiu os estímulos para a investigação centrada no conhecimento, uso
e aplicações das tecnologias, tout-court. (idem, ibidem)
Diante dessas constatações seria mesmo estranho que “o terceiro aspecto
metodológico definidor da Psicologia cognitiva – Raízes em Problemas Filosóficos Clássicos”
também não fosse uma influência recorrente na ciência da Inteligência Artificial, importante
ponto de apoio da Ciência da Mente, a ponto de levar os pesquisadores desse campo a
utilizarem-se de diferentes estratégias para o uso da IA nos estudos da mente. Afinal, as
pesquisas acerca da natureza humana pela IA são feitas em torno da simulação computacional,
com a utilização de modelos construídos em bases filosóficas e neurológicas variadas, e, por
esse motivo a IA é “considerada a disciplina central da ciência cognitiva e a que tem maior
probabilidade de excluir, ou tornar supérfluos, outros campos de estudo mais antigos.
(GARDNER, idem, p.54).
O filósofo John Searle (1932) autor de O mistério da Consciência e Discussões com
Daniel C. Dennet e David J. Chalmers (1998), nos apresenta uma breve descrição dessa
característica da IA.
Influenciado pelos resultados dos estudos do cérebro e da mente pela Neurociência,
Searle publicou seus primeiros textos na década 1960, época da chamada virada lingüística,
em que os norte-americanos estavam vivendo um processo de redirecionamento dos estudos
da filosofia da linguagem. Esse redirecionamento consistia no deslocamento da preocupação
exclusiva com a sintaxe lógica e com a epistemologia dimensão pragmática da linguagem,
pensada menos como uma forma de ‘representar objetos’ do que como uma maneira de fazer
coisas numa nova perspectiva pragmática, centrada na natureza biológica humana. Para
Searle(1988, p.32):
Um caminho estava aberto para o cuidado atual com a Biologia como paradigma
para o pensamento filosófico. [...] o simples exame dos atos da fala implicava uma
recuperação da idéia do sujeito. O empirismo lógico, de origem centro-européia
56
57
particularmente na sua implantação norte-americana, espontaneamente cúmplice
do behaviorismo, essa criação propriamente nacional -, desqualificara a questão do
sujeito ou da consciência como problema autenticamente filosófico, nele vendo
talvez o melhor exemplo dos falsos problemas da ‘metafísica’, ou como um mito a
ser dissolvido, eliminado ou ‘reduzido’ pelo pensamento objetivo.
Searle analisa a dimensão filosófica indo além das dimensões escolástica e
behaviorista para discutir um novo conceito de “Filosofia da Mente” e os problemas
relacionados à questão clássica da subjetividade, da ipseidade (self) ou consciência. Para isso
emprega os instrumentos da ciência e tecnologias contemporâneas, especialmente a biologia, a
neurociência e as ciências cognitivas baseadas em modelos computacionais.
Para Searle a questão do sujeito self ou da consciência a idéia de sentido não
pode ser compreendida exclusivamente por meio da sintaxe lógica e da empiria. Para
compreensão desta questão se faz necessária uma articulação com alguma forma de
subjetividade, ao contrário do que postulava o behaviorismo, daí a importância de uma nova
dimensão de “Filosofia da Mente”, como a formulada por Searle. Nesse sentido o autor
apresenta uma formulação original do ‘problema' da consciência:
Para o senso comum o termo ‘Consciência’ se refere a aqueles estados de
sensibilidade e ciência que começam normalmente quando acordamos de um sono
sem sonho e continua até que durmamos novamente. Caímos em coma, morremos
ou ficamos ‘inconscientes’. Os sonhos o uma forma de consciência, ainda que
bem diferente dos estados em que estamos plenamente acordados. A consciência,
assim definida, é um fenômeno interno qualitativo de primeira pessoa. Os seres
humanos e animais superiores são evidentemente conscientes, mas não sabemos
até onde a escala filogenética da consciência se estende. [...] o fenômeno geral da
consciência não deveria ser confundido com o caso especial da autoconsciência
(self-consciousness) A maioria dos estados conscientes, como sentir dor, por
exemplo, não envolve necessariamente autoconsciência. (SEARLE, idem p. 33).
Searle (idem,ibidem) avança suas reflexões acerca da consciência enquanto
fenômeno biológico natural e deixa claro que para ele a palavra ciência (awareness) é
empregada nos seus estudos com um sentido semelhante àquele que aparece em sentenças
como: Ele teve ciência do estrago que causou”, ou “Ele estava ciente que a festa não iria
muito longe”.
Portanto, o termo ciência é empregado nos estudos de Searle como uma condição
fundamental que possibilita que uma coisa tenha alguma importância para alguém, pois
somente agentes conscientesm a possibilidade de atribuir algum significado ou importância
para alguma coisa. Quando sentimos o cheiro de um perfume, por exemplo, seqüências de
processos neurobiológicos que provocam estados internos, subjetivos, unificados,
ordenados e coerentes de ciência ou sensibilidade mexem com nossa consciência, nos fazem
lembrar de alguém ou de algum momento, nos fazem ter ciência de uma situação, especial,
agradável ou desagradável, em que se percebeu a presença “do perfume”. Isto posto, explica o
autor (idem, p. 31) os processos relevantes de consciência “[...] ocorrem em níveis micro das
sinapses, neurônios, feixes de neurônios e complexos celulares. Toda nossa vida consciente é
causada por esses processos de nível inferior, mas temos uma vaga idéia de como eles
funcionam”.
Assim, Searle deixa de lado as proibições positivistas-behavioristas e reaviva a
fascinação pelo ‘mistério da consciência’ a partir de dois pontos essenciais: primeiro o do
reconhecimento do papel ‘causal’ do cérebro na constituição da consciência, último bastião,
segundo Prado Jr apud Searle (idem, 16), “do dualismo, que estabelece uma relação de
exterioridade ou de indiferença entre hardware e software; segundo, o de reconhecimento de
que a explicação causal da consciência não é nem redutiva, nem eliminativa”.
Por volta de 1995, explica Searle (idem, p.23), o tema consciência voltou a ser
respeitado na América do Norte e outras partes do mundo, embora continuasse apresentando
muitos problemas ou equívocos que se imaginavam corrigidos.
Tenho a impressão, diz Searle, “que o maior e único obstáculo filosófico para se
obter uma explicação satisfatória da consciência é nossa aceitação constante de um conjunto
de categorias obsoletas e de uma série de pressuposições herdadas de nossa tradição religiosa
e filosófica”. O problema, continua ele, é que nossas explicações geralmente partem
erroneamente da “[...] suposição de que as concepções de ‘mental e físico’, de ‘dualismo’ e
‘monismo’, de ‘materialismo’ e ‘idealismo’ são claras e respeitáveis por si mesmas, e que as
questões têm de ser colocadas e resolvidas nestes termos tradicionais”.
O problema descrito por Searle enfatiza, sobretudo, a pouca importância dada à
questão científica quando são apresentadas afirmações errôneas sobre a consciência. Para ele,
“o ímpeto em direção ao reducionismo e ao materialismo deriva do erro de se supor que, se
aceitamos a consciência como tendo sua própria existência estaremos, de alguma forma,
aceitando o dualismo e rejeitando a visão científica de mundo” (idem, p.24-25). Searle
observa que este dualismo cartesiano não é, de forma alguma, pertinente, coerente ou
verdadeiro por que:
58
59
[...] a consciência é um fenômeno natural biológico. É uma parte de nossa vida
biológica assim como a digestão, o crescimento ou a fotossíntese. Estamos cegos
para enxergar a característica biológica e natural da consciência e outros
fenômenos mentais devido à nossa tradição filosófica, que transformou ‘mental’ e
‘físico’ em duas categorias mutuamente excludentes. A saída é rejeitar não o
dualismo mas também o materialismo e aceitar que a consciência é tanto um
fenômeno ‘mental’, qualitativo e subjetivo, quanto uma parte natural do mundo
‘físico’. Estados de consciência são qualitativos no sentido de que para qualquer
estado como sentir dor ou preocupar-se com a situação econômica existe algo
que qualitativamente se sente como estando naquele estado; e são subjetivos no
sentido de existirem quando experimentados por um ser humano ou outro tipo
de sujeito’. A consciência é um fenômeno biológico natural que não se enquadra
apropriadamente em nenhuma das categorias tradicionais do mental e do físico.
[...] Para se aceitar este ‘naturalismo biológico’ [..] temos de abandonar
primeiramente as categorias tradicionais. [..] a consciência é a condição que
possibilita qualquer coisa ter alguma importância para alguém. Apenas para os
agentes conscientes existe a possibilidade de algo ter algum significado ou
importância.[...] Compreendemos a consciência quando compreendemos, de forma
biologicamente detalhada, como o cérebro a produz. (idem, p.27).
Os cientistas e filósofos têm apenas uma vaga idéia de como o cérebro produz a
consciência como resultado das seqüências de processos neurobiológicos, porque o cérebro
humano é muito complexo “tem mais de 100 milhões de neurônios, variando de algumas
centenas a várias dezenas de milhares” (idem, p.52-53) de redes. Além das dificuldades
práticas próprias da neurofisiologia, mas que vêm sendo superadas com os avanços dos
métodos de pesquisa da neurociência para se compreender totalmente o funcionamento do
cérebro humano, precisamos nos livrar de diversos obstáculos filosóficos, teóricos, conforme
explica Searle:
Desde os tempos dos gregos antigos até os últimos modelos computacionais de
cognição, toda a questão da consciência, e sua relação com o rebro continuam
um tanto confusa; e pelo menos alguns dos erros na história da mesma são
repetidos em análises recentes. [...] O primeiro problema que merece atenção
deriva da história intelectual. No século XVII, Descartes e Galileu fizeram uma
distinção precisa entre a realidade física descrita pela ciência e a realidade mental
da alma, considerada por eles como estando fora do escopo da pesquisa científica.
Esse dualismo entre a mente consciente e a matéria inconsciente foi útil para a
pesquisa científica da época, a porque ajudou a afastar a autoridade dos
religiosos sobre os cientistas e porque o mundo sico poderia ser
matematicamente tratado de uma forma na qual a mente não parecia se prestar.
Mas o dualismo se tornou um obstáculo para o século XX, que parece situar a
consciência e outros fenômenos mentais fora do mundo físico ordinário e, por
conseguinte, fora do domínio da ciência natural. [..] se os processos cerebrais
causam a consciência, então, para a maioria das pessoas haveria duas coisas
distintas, a saber processos cerebrais como causa e estados conscientes como
efeito, fato que parece implicar dualismo. Este segundo erro deriva, em parte de
uma concepção incorreta de causalidade. [...] Uma terceira dificuldade é que não
temos qualquer idéia de como os processos cerebrais, que são fenômenos objetivos
publicamente observáveis, poderiam causar algo tão peculiar quanto estados
internos qualitativos de ciência e sensibilidade, estados que são em um certo
sentido ‘particulares’ àquele que os possui. [...] A quarta dificuldade [...] diz
respeito ao desejo em se tomar, de uma forma muito literal, a metáfora da mente
como computador. Muitas pessoas ainda acreditam que o cérebro é um computador
digital e que a mente consciente é um programa de computador [...] Tomada dessa
forma, a mente é para o cérebro o mesmo que um software é para o hardware.
diferentes versões da teoria computacional da mente. A mais forte é a que acabei
de expor: a mente é apenas um programa de computador. Isto é tudo. Chamo-a de
‘Inteligência Artificial Forte a fim de distingui-la da visão de que o computador é
uma ferramenta útil para fazer simulações da mente, da mesma forma como é útil
nas simulações de quase qualquer coisa que descrevamos com precisão [...] Esta
visão mais ponderada eu a chamo de IA Fraca. (SEARLE, idem p. 32-37).
Searle conta que refutou
19
a IA Forte, mais de 15 anos por entender que “Um
computador é, por definição, um equipamento que manipula símbolos formais. Estes por sua
vez, são freqüentemente descritos como 0’s e 1’s, ainda que qualquer símbolo antigo sirva tão
bem quanto”. Explica que Alan Turing autor do 'Teste de Turing' cuja aplicação pode,
segundo o autor, identificar se um computador possui inteligência ou não também
considerou o computador como uma máquina que contém um cabeçote que uma fita. Na
fita estão impressos 0’s e 1’s”. Esta nova tecnologia podia, segundo Turing, realizar
exatamente e somente quatro operações “mover a fita de um bloco para a direita, mover um
bloco para a esquerda, apagar um 0 e imprimir um 1, e apagar um 1 e imprimir um 0”. As
quatro operações descritas por Turing são possíveis porque existe um conjunto de regras do
tipo: sob a condição C o computador realiza o ato A, e vice-versa. Este conjunto de regras é
denominado de programa de computador. Embora tenha refutado a IA Forte, Searle
reconheceu a importância da metáfora da mente com o computador, mas observa a
importância de se analisar com cuidado à idéia de que a mente funciona como um programa
de computador, ou seja, deixa claro que a concepção de Turing foi adequada ao zeitgeist e
objetivos do momento, no qual a computação era utilizada apenas para realizar um conjunto
sintático de operações, “[...] no sentido de que os únicos atributos dos símbolos que importam
para a implementação do programa são os formais ou sintáticos”. Em experiências voltadas ao
estudo da mente, Searle (idem, p.37-38) observa que o uso do computador deve “[...] levar em
consideração que a mente consiste em algo mais do que a mera manipulação de símbolos
formais.” A mente tem conteúdo e as palavras têm significados semânticos, portanto, a
metáfora da mente com um programa de computador deve ser cautelosamente estudada [...]
19 Como fez, entre outros, no The New York Review of Books (idem p. 37).
60
61
que os símbolos formais do programa de computador, tomados isoladamente, não são
suficientes para garantir a presença do conteúdo semântico que ocorre na mente”.
Searle, na tentativa de contestar o Teste de Touring, desenvolveu o ‘argumento do
Quarto Chinês’. Nele apresenta três condições que diferenciam os computadores da mente
humana: 1. Programas são totalmente sintáticos. 2. As mentes têm uma capacidade semântica.
3. A sintaxe não é a mesma coisa que semântica, nem é, por si só, suficiente para garantir um
conteúdo semântico. Nos explica em detalhe o autor porque, em sua opinião, o software não
equivale à mente:
O passo número 1 apenas articula o aspecto essencial das definições de Turing: o
programa registrado consiste totalmente em regras referentes às entidades
sintáticas, ou seja, regras para se manipular mbolos. O programa implementado,
ou seja, que está de fato funcionando, consiste totalmente nessas manipulações
sintáticas. [...] A única exigência física é a de que a máquina seja suficientemente
provida e estável para executar as etapas do programa. Atualmente, estamos
usando chips de silício para este fim, mas não há qualquer ligação essencial entre a
física e a química do silício e as propriedades abstratas formais dos programas de
computador. O passo 2 apenas diz que todos sabemos sobre o pensamento humano:
quando pensamos em palavras ou em outros símbolos precisamos saber o que estas
palavras ou símbolos significam. [...] Minha mente possui mais do que símbolos
formais não interpretados: ela possui conteúdos mentais e semânticos. O passo 3
expõe o principio geral ilustrado pela análise feita através da experiência do
Quarto Chinês: a mera manipulação dembolos formais não estabelece, por si só,
a existência de conteúdos semânticos. Não importa quão bem o sistema possa
imitar o comportamento de um individuo que realmente compreende, nem quão
complexas as manipulações dos símbolos são. Você não pode extrair a semântica
só a partir de processos sintáticos. Para refutar este argumento você teria de provar
que uma das premissas é falsa e que não constitui uma probabilidade. (SEARLE,
idem, p. 38-40)
A explicação de Searle deixa claro que a mente processa mais que sintaxe das
palavras (códigos ou signos), recurso que as linguagens dos computadores também possuem
mas que o grande diferencial dessa máquina natural, a mente, está precisamente na capacidade
do processamento semantico das palavras.
No que diz respeito à parte física, estas não passam de circuitos eletrônicos bastante
complexos. O fato que torna suas operações simbólicas é o [...] mesmo que transforma as
marcas da caneta nas páginas de um livro em símbolos. A sintaxe, em poucas palavras, não é
intrínseca à física do sistema. Ela depende do olhar do observador”, a consciência.
Por fim, Searle afirma que a consciência é uma propriedade natural e emergente do
cérebro, um fenômeno biológico e justifica porque não aceita os posicionamentos da IA forte
quanto a equiparação entre software e mente:
A consciência é causada por processos neuronais de nível inferior no cérebro e é,
por si só, uma propriedade do cérebro. Por ser uma propriedade que surge através
de certas atividades dos neurônios, podemos vê-la como uma propriedade
emergente’ do cérebro. Uma propriedade emergente de um sistema é aquela que é
causalmente explicada pelo comportamento dos elementos individuais e não pode
ser explicado simplesmente como uma soma das propriedades desses elementos. A
liquidez da água é um bom exemplo: o comportamento das moléculas de H2O,
explica a liquidez, mas as moléculas individuais o são liquidas. Os
computadores desempenham o mesmo papel no estudo do cérebro tanto quanto no
de qualquer outra disciplina. São imensamente úteis para simular processos
cerebrais. Mas a simulação de estados mentais não é um estado mental, da mesma
forma que a simulação de uma explosão não é, ela mesma, uma explosão.
(idem,ibidem).
A esta altura, podemos nos perguntar por que devemos confiar nas afirmações do
filósofo Searle? Como é possível comprová-las cientificamente? Como podemos ter certeza
de que a mente é uma criação natural do cérebro provocada por alteração biológica, química,
elétrica? E, em sentido oposto aos argumentos de Searle, como podemos ter certeza de que os
softwares dos computadores não são capazes de realizar processamento semântico e desse
modo equiparar-se à mente?
As respostas para estas perguntas são pesquisadas em outras duas ciências
experimentais que, juntamente com a Psicologia Cognitiva e Inteligência Artificial,
completam o campo interdisciplinar da Ciência da Mente: A Ciência da Computação e
Neurociência Cognitiva.
Na obra Teoria da Computação: Máquinas Universais e Computabilidade (2008),
Tiarajú Diverio e Paulo Menezes conceituam esse campo do seguinte modo:
Ciência da Computação é o conhecimento sistematizado relativo à computação.
Sua origem é remota, tendo exemplos na antiga Grécia (século III A.C., no desenho
de algoritmos por Euclides) e Babilônia (com estudos sobre complexidade e
reducibilidade de programas). O interesse atual possui duas ênfases: idéias
fundamentais e modelos computacionais (ênfase teórica) e projeto de sistemas
computacionais nfase prática), aplicando a teoria à prática. A ênfase teórica da
Ciência da Computação teve início em uma grande diversidade de campos como,
por exemplo, na biologia (modelos para redes de neurônios), na eletrônica (teoria
do chaveamento), na matemática (lógica), na lingüística (gramática para
linguagens naturais) e em outros. (DIVERIO e MENEZES, p.2).
A título de exemplo, os autores nos contemplam com algumas realizações no
contexto das ênfases de idéias fundamentais e de modelos computacionais, a partir do início
62
63
do século XX:
Um marco inicial da Teoria da Computação é o trabalho de David Hilbert,
denominado de Entscheidungsproblem (HIL1900), o qual consistia em encontrar
um procedimento para demonstrar se uma dada fórmula no cálculo de predicados
de primeira ordem (onde a quantificação é restrita às variáveis que denotem
elementos de conjuntos) era válida ou não. [...] em 1931, Kurt Gödel publicou o
trabalho denominado de Incompleteness Theorem (Teorema da Não-completude),
onde demonstrou que tal problema (mecanização de provas de teoremas) não tinha
solução [...] Em 1936, Alonzo Church usou dois formalismos para mostrar que o
problema de Hilbert o tem solução [...] Separadamente de Church, Alan Turing
propôs, em 1936 (TUR36) um formalismo para a representação de procedimentos
efetivos. (idem, p.2-3).
20
Outra área importante da Ciência da Computação é da criação de linguagens formais
para a elaboração de programas de computador e a construção de modelos teóricos de
computadores, a exemplo da famosa máquina de Turing, e da menos conhecida máquina
Norma
21
, que “possibilita a diferenciação entre programa e máquina, estando, por isso,
bastante próximo da noção de computabilidade e dos computadores atuais.” (idem, p.191).
Ambas são modelos teóricos de máquinas universais, ou seja, máquinas representativas de
qualquer computador que possa ser construído ou confirmado matematicamente.
No campo da Ciência da Computação, no contexto da ênfase prática de projetos de
sistemas computacionais, também são criados modelos lógicos, algoritmos e programas para
acionamento/administração dos componentes físicos dos computadores a exemplo da
memória –, tratamento de cadeias de caracteres, estruturas de dados, sistemas de simulação de
redes neurais e dos próprios computadores e softwares.
Os modelos de máquinas universais bem como as teorias da computação e programas
criados pelos cientistas da computação são empregados pelos cientistas dos outros campos da
ciência da mente como metáfora para a compreensão do funcionamento do cérebro e mente
humanos. Desse modo os cientistas cognitivos, em sua maioria:
[...] tomam por base o uso do computador para explicar o fenômeno cognitivo.
Dizem que os computadores exibem uma inteligência artificial e normalmente são
descritos em termos humanos. A capacidade de armazenagem chama-se memória;
os códigos de programação, linguagem, e as novas gerações de computadores
evoluções. O funcionamento dos programas de computador, basicamente formados
de conjuntos de instruções para o tratamento de símbolos, é semelhante ao da
mente humana. Tanto o computador como a mente recebem do ambiente e
processam grande quantidade de informações (estímulos sensoriais ou dados).
20 Nota do autor: Entscheidungsproblem é o termo alemão para "problema de decisão".
21 Nota do autor: Norma é o acrônimo para Number TheOretic Register MAchine.
Ambos compilam essas informações, manipulando, armazenando e recuperando
dados, atuando de vária maneira. Desse modo, a programação do computador foi
sugerida como base para a visão cognitiva humana do processamento de
informações, do raciocínio e da solução de problemas. (SCHULTZ, idem, p.434).
Portanto, com outras palavras, a Ciência da Computação contribui com teorias
utilizadas pela psicologia cognitiva como metáfora do cérebro e mente humanas; com
programas e algoritmos simuladores do comportamento e relacionamento cérebro/mente
utilizados pela Inteligência Artificial.
Mas foi no campo da Neurociência que a Ciência da Computação possibilitou aos
cientistas da mente “ver” cérebro e mente em funcionamento, à medida que as pessoas
realizavam experiências mentais. Os cientistas da Neurociência uniram capacidade dos
computadores e softwares especializados em tratamento de imagens com tecnologias de
radioatividade para recolher imagens do cérebro, com métodos e técnicas não invasivas,
durante a realização de testes para forçar a realização de operações mentais humanas que
estimulam partes específicas do cérebro.
Entretanto, essas técnicas teriam sido de pouca valia se alguns avanços importantes
no entendimento do cérebro não tivessem ocorrido no campo da neurofisiologia.
Nos reportam Michael I. Posner e Marcus E. Raichle, no livro Imagens da Mente
(2001), que desenhos do século XV ilustravam a perspectiva de Aristóteles, segundo a qual
sentidos como o tato e o paladar estão ligados ao coração enquanto as faculdades mentais,
como a memória e a fantasia, estão localizadas nas 'células cerebrais', na cabeça.
A primeira abordagem clássica de integração entre cérebro e mente foi retratada em
um diagrama criado por René Descartes no qual ilustrou a perspectiva comum desde os
gregos, de que o reflexo comum de retirar um membro do contato com o fogo tratava-se de
um circuito físico, que conectava receptores nervosos sensoriais ao cérebro:
No diagrama [...] o circuito liga os receptores sensoriais de calor ao músculo: Uma
mensagem dos receptores de calor viaja até a base da medula espinal, sendo daí
transmitida aos músculos apropriados e produzindo uma remoção reflexa. Estes
circuitos e os comportamentos por ele servidos eram, para Descartes, um tema de
investigação científica. No entanto, segundo Descartes, a experiência consciente
da dor que acompanha frequentemente o contato com objetos quentes era de
natureza completamente diferente. Enquanto que os reflexos estavam sujeitos às
leis da ciência, o âmbito mental da experiência subjetiva não estava” (POSNER,
idem, p.13).
A seguir, Posner apresenta uma idéia de como esses conceitos foram sendo
64
65
desenvolvidos, com base em quatro importantes obras de cientistas que acabaram por fornecer
uma base conceitual para a integração da mente e do cérebro, “todos eles representam os
esforços de diferentes gerações na abordagem da questão básica: Como cria o cérebro a
experiência mental?” (idem, ibidem)
O início desse processo ocorreu cerca de 150 anos, quando investigações sérias
começaram a desenvolver novas teorias acerca da forma como cérebro e mente se relacionam,
afastando-se claramente do dualismo cartesiano e passando a sugerir que pensamento e
sentimentos poderiam ser produzidos por mecanismos biológicos básicos. Assim:
Em 1863, no limiar do entendimento científico da natureza da atividade elétrica
cerebral, I.M. Sechenov publicou Reflexes of the Brain (reflexos do Cérebro).
Sechenov foi o fundador da escola russa da reflexologia que acabou por conduzir
ao famoso trabalho de Pavlov sobre a modificação da atividade reflexa pela
aprendizagem. Sechenov acreditava que a nossa experiência interior ou
pensamentos eram causados por estimulação sensorial, considerando por esse
motivo, os pensamentos como os primeiros dois terços de um arco reflexo. Um
arco reflexo simples era entendido, na altura, como sendo constituído por uma
célula nervosa sensorial e uma célula nervosa motora ligadas [...]. Sechenov
entendia que o cérebro controlava esses reflexos não através da sua estimulação,
mas através da sua inibição. [...] Sechenov generalizou a partir dessa observação,
pressupondo que todos os contributos sensoriais estimulariam automaticamente a
atividade motora, a não ser que os processos mentais centrais do cérebro
impedissem essa estimulação. Embora todo pensamento humano fosse, para
Sechenov, o resultado reflexivo de uma estimulação exterior, o indivíduo podia,
por vezes, inibir a reação, de maneira a não ser possível observar qualquer
comportamento exterior. O pensamento constituía apenas os dois terços de um arco
reflexo”. (idem, p.13 – p.14).
Nas décadas que se seguiram a Sechenov, os cientistas começaram a compreender até
que ponto a estrutura do cérebro era complexa. No final do século XIX reconhecia-se que o
cérebro era constituído por unidades separadas, as células nervosas ou neurônios, que são os
blocos fundamentais constituintes deste orgão. Nessa época o entendimento do arco reflexivo
também havia progredido:
Em 1906, o entendimento do arco reflexivo havia progredido de tal mameira que o
filósofo britânico Charles Sherrington pôde utilizar o conceito de uma forma muito
mais sofisticada. Enquanto que Sechenov pensou no reflexo como um simples
circuito físico, Sherrington não achava que esses circuitos tão simples pudessem
ser isolados da complexa malha cerebral de neurônios interligados. Em vez disso,
os reflexos apresentavam um desenho muito mais elaborado. Sherrington encarava
o reflexo como um instrumento conveniente para a análise dos processos físicos e
mentais. [...] No capítulo final de sua obra clássica Integrative Activity of the
Nervous System (A Atividade Integradora do Sistema Nervoso), Sherrington tentou
explicar a experiência subjetiva da continuidade a partir da visualização rápida de
luzes cintilantes, recorrendo aos que então se conhecia como fisiologia do reflexo.
Argumentava que a experiência preceptiva subjetiva necessitava de uma
organização neural que ultrapassava em muito os princípios reconhecidos dos
reflexos. (POSNER, 2001, p.15-16)
Somente em 1949 o psicólogo canadense Donald O. Hebb publicou o livro The
organization of Behavior: A Neuropsychological Theory, obra que influenciou
irreversivelmente o campo da neurociência cognitiva. Nessa obra Hebb apresentou uma
interessantíssima teoria para integração entre processos mentais (psicologia) com os cerebrais
(neurologia) de forma que pudesse ser testada em laboratório. Tratou-se da primeira teoria
“susceptível de ser testada, sobre a forma como os circuitos neurais podem suportar processos
mentais como a atenção e a memória.” (idem, p.16).
Hebb rejeitou a idéia de que as ações comportamentais seriam somente respostas à
determinados estímulos, inclusive os ambientais. Havia criado para isso uma teoria de redes
neurais que segundo ele poderiam explicar as experiências cognitivas humanas:
No âmago dessa teoria estava o conceito de 'conjuntos de células', uma idéia
poderosa que continua a ser uma importante força conceitual em teorias sobre a
função cerebral. Hebb achava que qualquer estimulação, freqüentemente repetida,
conduziria ao desenvolvimento de uma estrutura constituída por neurônios capazes
de agir conjuntamente como um sistema fechado. Esta estrutura era difusa: os
neurônios num conjunto de células não estavam provavelmente instalados num
único lugar, mas antes espalhados pelo cérebro. As representações mentais de
experiências de percepção, argumentava Hebb, podiam ser acumuladas com base
na ação de vários destes conjuntos de células. [...] Os neurônios de um conjunto de
células tinham a capacidade de agir conjuntamente devido a alterações nas
ligações ou sinapses existentes entre eles. Durante o processo de aprendizagem, à
medida que as células desenvolviam um conjunto, estas ligações tornavam-se mais
fortes, de tal maneira que mesmo um pequeno sinal de um dos neurônios seria
suficiente para ativar o próximo e assim sucessivamente. Conseqüentemente,
quando uma célula do conjunto era ativada para 'disparar' um sinal elétrico, todas
as outraslulas disparavam também. Esta noção de uma 'sinapse Hebbiana' ocupa
um lugar de destaque em muitas áreas da moderna neurociência. As informações
de vários conjuntos teriam que ser coordenadas para que ocorresse uma percepção
unificada, como se recolhesse as visões de várias pessoas que observassem um
elefante a partir de várias posições. Devido à necessidade de coordenar
informações, Hebb postulou uma estrutura hierárquica de conjuntos de células à
qual podemos chamar uma rede. [...]. Eventualmente, e através de um processo de
aprendizagem que afetava a força das ligações entre as células dos vários
conjuntos, poder-se-ia construir uma imagem mental no rebro,
independentemente de qualquer experiência exterior particular. Depois de
estabelecida, uma rede de conjunto de células responderia a uma vasta gama de
triângulos de diferentes tamanhos e formas. Hebb acreditava que este tipo de
organização central do cérebro era essencial para a experiência mental humana.
(POSNER, 2001, p.16-.18). Grifo nosso.
66
67
Outro avanço importante ocorreu nas décadas de 1950-1960 quando cientistas
começaram a registrar a atividade elétrica de células individuais nos cérebros de animais
despertos e normais. Segundo Posner:
Este trabalho confirmou um princípio já muito conhecido de organização cerebral:
existe uma região específica do rebro especializada no processamento de
informação proveniente de cada um dos sentidos, como a visão, a audição e outros.
A informação recebida pelos olhos, por exemplo, é processada pelo sistema visual,
localizada na parte posterior do cérebro. Uma das principais descobertas dos
registros celulares foi a de que existem muitos níveis de análise e interpretação de
informação dentro do sistema visual. Em cada vel sucessivo as células pareciam
responder a tipos mais complexos de estímulos. No próprio olho, por exemplo,
foram descobertas células da retina que respondiam seletivamente a estímulos que
apareciam num determinado local do campo visual e tinham uma cor específica.
As células da retina estavam ligadas a outras células nervosas que alimentavam
uma área na parte posterior do cérebro, designada como área visual primária. Ao
nível da área visual primária, as células respondiam frequentemente a linhas com
uma orientação particular. Confirmando a idéia de Hebb, algumas dessas células
respondiam de forma mais intensa às inclinações específicas das linhas de uma
figura como um triângulo, e outras células de um nível presumivelmente superior,
pareciam preferir configurações visuais mais complexas. (idem, p.18)
Com base em generalizações de descobertas científicas no campo da neurofisiologia
da visão, o filósofo Jerzy Konorski sintetizou um importante conceito de especialização
neural, conforme explica Posner:
[...] um novo esforço de integração da mente e do cérebro empreendido pelo
filósofo polaco. Konorski acentuou a continuidade dessa abordagem em relação à
de Sherrington, mas colocando nova ênfase na complexidade do processo central,
uma área que Sherrington admitira compreender mal. Konorski descreveu esta
idéia no seu livro The Integrative Activity of the Brain (A Atividade Integradora do
Cérebro), publicado em 1967. Generalizou as descobertas no campo da fisiologia
visual e propôs a existência de neurônios especiais, sensíveis a padrões, como
blocos sicos constituintes do reconhecimento. Konorski comunicou estas idéias
em termos mais técnicos, referindo-se, por exemplo, ao 'sistema aferente', que seria
um sistema cerebral processador da informação recebida dos receptores sensoriais
[...] Se as células dos níveis superiores do sistema responderem a aspectos cada
vez mais complexos dos dados visuais captados, afirmava Konorski, existiria
eventualmente uma célula que apenas seria ativada pelas características específicas
de nossa avó. Esse analisador ao qual Konorski chamava unidade gnóstica, serviria
como base para o reconhecimento da avó de cada um de nós e para pensarmos nela
na sua ausência. (idem, p.20)
Na leitura da descrição dos 'sistemas aferentes' elaborada por Konorski podemos
observar forte aproximação conceitual com a noção de 'sinapse hebbiana':
cada sistema aferente (analisador) é construído de maneira hierárquica, sobre-
pondo-se os seus níveis superiores aos inferiores, em termos funcionais, e
recebendo destes últimos mensagens com origem remota nas superfícies
receptoras. Cada nível do sistema aferente é composto por unidades, ou seja,
neurônios que recebem determinadas mensagens dos níveis inferiores ou de uma
dada superfície receptora. (idem, p.20)
Ainda assim, apesar dos grandes avanços obtidos no entendimento da
neurofisiologia, a constituição do arcabouço metodológico científico da Ciência da Mente
demandou, ainda, mais dois métodos experimentais científicos fundamentais. Um para medir
e outro para possibilitar a recolha de imagens da atividade cerebral representativa de
equivalente operação mental.
Muitos cientistas do campo da fisiologia voltaram-se para a criação de métodos de
mensuração de atividades cerebrais e desse modo a desmentir a afirmação proferida por
Johannes Mueller, um famoso fisiólogo alemão de meados do século XIX, de que “a
velocidade da condução neural nunca poderia ser medida”. (POSNER, 1994, p.39)
Dentre os que contribuíram para o desenvolvimento de técnicas para medição das
atividades cerebrais destacam-se Hermann von Helmholt, aluno de Mueller, que ao medir o
tempo de condução neural em humanos demonstrou que o impulso nervoso percorria a
distância entre o pé e a cabeça de uma pessoa na velocidade de 100 metros por segundo.
Em seguida o filósofo holandês F.C. Donders utilizando-se de lógica subtrativa
muito simples, propôs um método que ficou conhecido como cronometria mental (1868) e
demonstrou que os processos mentais podiam ser isolados e medidos. Desse modo.
O sucesso do método de Donders constituiu uma primeira e importante
demonstração de que os processos mentais podiam ser isolados e medidos. Abriu
as portas à possibilidade de definir os processos mentais de uma maneira bastante
precisa, fornecendo assim aos cientistas o elemento chave de que necessitavam
para começar a criar estratégias científicas que relacionassem a complexidade do
pensamento com as intrincadas ações neurais do cérebro ”(idem, p.40)
Um século mais tarde o americano Saul Sternberg aprimorou o método de Donders e
criou o método dos fatores aditivos. Por esse método uma tarefa
22
com números deveriam ser
logicamente divididas em etapas realizadas em série, seqüencialmente, uma após a outra.
Desse modo, seria possível examinar os efeitos de variáveis tais como a extensão da lista.
Esse método é:
22 Suponha que lhe é dada uma série de meros para memorizar; sendo-lhe então mostrado um único número-
alvo e sendo-lhe pedido para responder tão rapidamente quanto possível se esse número estava na lista original.
68
69
um processo útil quando a tarefa pode ser encarada, de forma razoável, como um
conjunto de etapas realizadas em estrita seqüência.[...] Quando a tarefa é do tipo
em série, é possível determinar qual a etapa que é influenciada por uma nova
variável. Por exemplo, a doença de Parkinson atrasa a realização de uma
quantidade de tarefas, como caminhar e falar, algumas das quais envolvem
processos cognitivos. (idem, p.42)
Entretanto, existem tarefas nas quais as operações são realizadas em paralelo, como é
o caso de reconhecimento de letras ou palavras, caso em que, embora não possamos aplicar o
método dos fatores aditivos, talvez ainda seja possível demonstrar que duas operações estão
dissociadas, manipulando cada uma delas”. (idem, p.44)
Estudos realizados por Roger Shepard e Lynn Cooper, na Universidade de Standford,
demonstraram que é isso é possível. Para isso isolaram operações paralelas e mediram
diferenças nos resultados de testes em que são comparados nomes de letras e combinações de
letras maiúsculas e minúsculas. Ao realizarem testes desse tipo, Shepard e Cooper
comprovaram que:
Com testes como este, as operações que m lugar com base no código visual das
letras podem ser isoladas das que ocorrem com base no código fonético. Embora
as operações realizadas com base num código visual tenham tendência para ser
mais rápidas que as realizadas com base num código de nível mais elevado, tal
como o nome de uma letra, nem sempre isso se verifica.
O segundo método experimental consistiu em utilizar computadores e integrados às
técnicas de TC de raios X Tomografia Computadorizada de Raios X; PET Tomografia
por Emissão de Positrões; RM Ressonância Magnética para registrar imagens da atividade
mental e da EEG - Eletroencefalografia para registrar a atividade elétrica do cérebro.
A técnica de TC de raio X, como explica Posner:
[...] tira partido do fato de um feixe de raios X altamente concentrado, ao passar
através do corpo de uma pessoa, ser afetado de forma previsível pela densidade
relativa dos tecidos que atravessa. Uma vez que os órgãos internos do corpo,
incluindo o cérebro, possuem densidades diferentes, é possível visualizá-los no seu
estado vivo. O segundo passo consistiu em utilizar as mesmas estratégias
matemáticas básicas e de computação na reconstrução das imagens obtidas por
essa técnica. (idem, p.27).
A técnica PET foi desenvolvida com base nos avanços no domínio da energia
nuclear, adaptado à antiga técnica da auto-radiografia, para estudar metabolismo dos órgãos,
fluxo sanguíneo e reações químicas produzidas em animais. Nessa técnica, um composto
radiomarcado era injetado no animal e seus órgãos removidos e seccionados em fatias para
serem reveladas em uma película de filme sensível à radioatividade. A vantagem do novo
método PET consistiu no fato de não haver mais necessidade de remover fisicamente o órgão
objeto da tomografia e com isso possibilitar seu uso em humanos, porque as imagens podiam
ser representadas em computadores.
A técnica de REM de recolha de imagem, ou ressonância magnética, também foi
desenvolvida com base em tecnologia nuclear:
Esse método, tal como a PET, baseava-se numa técnica laboratorial destinada a
estrutura química detalhada das moléculas [...] As imagens de RM contém um
maior potencial de informações sobre a química e o metabolismo dos órgãos do
que as imagens da TC de raios X. [...] Técnicas como a PET e a RM têm o
potencial de nos esclarecer sobre os locais onde ocorre a atividade no cérebro
durante a realização de várias tarefas. (POSNER, idem, p.28-30)
Entretanto, essas tres técnicas ainda não são suficientes porque:
O que estes métodos isolados não revelam é a duração da atividade nas áreas ativas
e a seqüência da respectiva ativação. Os neurônios comunicam em breves
milésimos de segundos; no entanto, são precisos cerca de 40 segundos para obter
os dados necessários à construção de uma imagem PET do fluxo sanguíneo no
cérebro humano. [...] As medições funcionais com a RM são mais rápidas, mas,
ainda assim, mais lentas que os eventos elétricos através dos quais os neurônios
comunicam.(idem, p.28-30)
As dificuldades para compatibilizar as durações dos eventos elétricos do cérebro com
a informação produzida pelas images recolhidas foram resolvidas com o emprego da técnica
de EEG - eletroencefalografia, que registra a atividade elétrica do cérebro a partir de eletrodos
fixados no couro cabeludo humano. Dessa forma, a EEG pôde ser utilizada para seguir o curso
do processamento mental, no seguimento de um estímulo, de uma forma muito semelhante à
descrita para as células individuais definidas por Hebb.
Portanto, o maior avanço não foi somente a invenção e uso de cada uma dessas
técnicas de recolha de imagens de modo independente, que afinal tem objetivos e apresentam
resultados diferentes, mas a combinação de imagens e tempos que se complementam, “é a
combinação deste método temporal com a resolução espacial disponibilizada pela RM e, em
especial, pela PET” (idem, p.30-32), que traz vantagens significativas a ponto de revolucionar
os estudos das funções do cérebro e da mente.
Em síntese, a possibilidade de utilizar modelos psicológicos teóricos para testar
atividades mentais reais, de medir as atividades biológicas, químicas e elétricas presentes no
70
71
cérebro durante a realização dessas atividades e a possibilidade de apresentar esses resultados
graficamente em computadores é o que de fato se constitui no grande avanço nos estudos dos
cérebros e mentes. Trata-se de juntar técnicas e especialidades da computação, neurociência,
psicologia e inteligência artificial, normalmente obtidas com a formação de grupos de
trabalhos interdisciplinares envolvendo especialistas de diversas áreas. Essa estratégia de
pesquisa interdisciplinar está a dar resultados significativos e poderá confirmar ou negar as
hipóteses estabelecidas pelas velhas ciências, tais como o problema de definir se a inteligência
em si “é uma faculdade única, ou é apenas um nome dado a uma coleção de habilidades
distintas e não correlacionadas ? O que é intuição? O que é criatividade ? (LUGER, 2002,
p.24).
Para responder à pergunta quanto a inteligência ser uma faculdade única ou não, a
neurociência, em pouco mais de 50 anos comparados com centenas de anos de discussões
nas fileiras das ciências sociais e humanísticas anteriores possui dados comprovados de
que:
[...] à medida que o moderno entendimento dos blocos básicos constituintes do
sistema biológico se torna cada vez mais refinado, vai sendo gradualmente mais
evidente que as atividades mentais que rodeiam a consciência, a percepção e o
pensamento são o resultado de vários conjuntos de células no interior do cérebro.
Cada conjunto de lulas atua como um módulo mais ou menos separado e
contribui com um componente essencial para a atividade mental geral, da mesma
forma que diferentes seções de instrumentos contribuem para o som geral
produzido por uma orquestra sinfônica. Existem provas de uma interação
considerável entre os módulos cerebrais. Nesse sentido, os módulos o uma
abstração, úteis para a análise, embora nenhum mundo real opere totalmente
isolado dos outros. (POSNER, p.33).
Pelo que aqui expusemos até o momento é perceptível a complexidade e amplitude
desse campo de conhecimento e por esse motivo tornou-se necessário especializar os focos
das pesquisas no contexto da Ciência da Mente. Nos informa Posner que, com relação à
fisiologia das atividades mentais:
[...] dois campos de conhecimento tratam dessas questões: a ciência cognitiva e a
neurociência. Enquanto a neurociência se dedica ao estudo de como os cérebros
são construídos, ou seja, ao cérebro, a ciência cognitiva trata da mente, ou seja,
“[...] da descrição dos processos mentais em termos de operações componentes que
podem ser especificadas de forma precisa. Como se verá, uma imagem visual não é
criada como um todo, mas é antes formada ao longo do tempo por um conjunto de
operações ordenadas que inclui, por exemplo, o estabelecimento da relação mais
adequada entre as partes e a análise do respectivo conteúdo, na procura de
características específicas”. (POSNER, 2001, p.12)
Para tornar inteligíveis os processos de medição e segmentar as pesquisas
indicadas aos diversos campos de conhecimento envolvidos com a ciência da mente, os
neurocientista se obrigaram a estabelecer logicamente uma estrutura de análise, de modo a
diferenciar as diversas ligações existentes entre o cérebro e a mente. Segundo Posner (idem,
p.46):
A estrutura fornece uma forma conveniente de comparar resultados de
investigações através de vários métodos, em diferentes níveis de análise. [...] Ao
fazê-lo, ficaremos com uma idéia do padrão completo, desde os processos
cognitivos complexos até os disparos de células neurais individuais.
Nesse sentido a Neurociência contribuiu para a solução da problemática de
determinar, da forma mais clara possível, onde terminava a função fisiológica e iniciava a
função mental. Nessa definição, a Neurociência apropriou-se dos resultados de esforços da
década de 1950 em desenvolver inteligências artificiais, a exemplo do GPS:
O 'General Problem Solver' [...] era um programa informático desenvolvido, em
primeiro lugar, por Alan Newell e Herbert Simon, na Universidade Carnegie
Mellon, e que era capaz de provar teoremas que, segundo o que havia sido
anteriormente demonstrado, constituíam a base da matemática. O GPS era capaz
de provar teoremas decompondo o problema em pequenas etapas e realizando
procuras sistemáticas no âmbito das soluções possíveis. A capacidade de
programar um computador para desempenhar tarefas que pareciam envolver os
níveis mais elevados do raciocínio humano [tal como] decompor o processamento
de uma palavra nos seus códigos léxicos subjacentes proporciona uma forma
diferente de olhar a mente. A linguagem deixa de ser encarada como um processo
simples; a representação mental de uma palavra passa a ser vista como envolvendo
vários códigos, dos quais alguns atributos podem pertencer a objetos visuais e
outros a sons ou significados. O fato de encararmos a cognição como sendo
constituída por códigos componentes, calculados de forma diferente e
programados para desempenhar tarefas cotidianas complexas, tais como ler,
conduz naturalmente a novas maneiras de pensar a forma como o cérebro pode
organizar os processos do pensamento. Os códigos componentes de um
acontecimento tornam-se candidatos à função de circuitos neurais específicos ou
conjuntos de células. ”(idem, p.21-23).
Desse modo, pesquisas experimentais interdisciplinares podem ser endereçadas a
questões específicas da mente considerando níveis da relação existente entre o cérebro e a
mente:
Quando pensam na forma de estabelecer ligações entre a mente e o cérebro, os
cientistas julgam útil conceber cinco níveis de análise, que vão desde a estrutura
mais ampla da mente a às unidades mais pequenas do rebro. Estes níveis de
análise o os seguintes: sistemas cognitivos, operações mentais, desempenho,
sistemas neurais e células. (idem, p.46):
72
73
O primeiro nível e mais elevado é denominado sistemas cognitivos e consiste no
agrupamento de atividades do dia-a-dia. Como nos explica Posner:
abrangem tarefas familiares, como ler, escrever, reconhecer rostos, sonhar
acordado, deslocar-se de um lugar para o outro, tocar música e planejar uma
viagem. [...] existem fortes indícios fornecidos por pacientes que sofrem de
diferentes formas de lesões cerebrais de que estas tarefas se encontram
grosseiramente agrupadas numa série de 'sistemas cognitivos'. [...] Tal como a
respiração, um sistema cognitivo é um conjunto de estruturas que operam em
conjunto para realizar uma função geral. “Por exemplo, ler, escrever, falar e
conversar o tarefas do dia-a-dia e envolvem o sistema cognitivo que chamamos
de ‘linguagem’.” (idem, p.46-47).
O segundo nível, o de operações mentais, divide os sistemas cognitivos complexos
em sub-conjuntos de operações de entrada-processamento-saída. Este nível é o utilizado nos
processos de Inteligência Artificial porque é possível programar cada operação mental
simplificada e depois processar todas, em conjunto, para simular operações cognitivas
complexas. Segundo Posner:
Nos últimos 20 anos os psicólogos cognitivos submeteram a análise detalhada
tarefas cognitivas complexas, como jogar xadrez, ler e manipular imagens visuais.
Estas análises dividiram uma determinada tarefa em operações que podem formar
a base para a programação de um computador que simule o desempenho humano.
Por exemplo, [...] análise da tarefa de imaginar que está a caminhar ao longo de
uma estrada familiar, retirada do trabalho de Stephen Kosslyn, da Universidade de
Harvard. Cada uma das operações propostas contém uma aquisição de dados, um
cálculo e uma resposta, de tal modo que cada operação realiza uma função
cognitiva específica. Quando estas operações o organizadas numa seqüência
adequada, obtêm-se um modelo computacional do tipo utilizado na inteligência
artificial e que é teoricamente capar de realizar tarefas que requerem imaginação
visual. Estas análises tentam construir um conjunto lógico de operações que seria
suficiente para simular a tarefa em estudo. Cada operação pode, assim, ser
encarada como uma sub-rotina para um computador. (idem, p.47-48).
No terceiro nível da hierarquia de análise, denominado de Domínio de Desempenho,
encontra-se o esforço para ligar sistemas cognitivos às operações mentais, ou seja, trata-se de
perguntar como é que a mente humana realiza uma operação, por exemplo, a leitura de
palavras ou a criação de imagens mentais. Para isso é preciso conceber uma tarefa modelo que
incorpore as operações que pretendemos estudar e isolar as operações utilizando o método dos
fatores aditivos de modo a manipular de forma mais independente as operações. Desse modo,
como explicou Posner, nessas experiências adequadas ao campo da neurociência cognitiva,
quando pessoas foram chamadas a realizar operações mentais em uma tarefa modelo que
envolvia letras:
Estas experiências demonstraram que a realização de uma operação mental pode
ser observada, examinando as facilitações ou inibições na velocidade de
processamento dos itens de teste, através de medidas, como o tempo de reação.
Chamamos a este nível de análise o domínio de desempenho. A idéia básica é a de
que é seguido um percurso através do cérebro à medida que o estímulo é
processado; este percurso pode ser facilitado (ativação do percurso) ou inibido por
eventos anteriores que tenham alterado a facilidade com que o estímulo consegue
aceder a vários digos internos. Por exemplo, na tarefa de rotação, o fato de
sabermos antecipadamente a orientação de uma letra permite-nos aceder mais
rapidamente ao código visual da letra. (idem, p.51)
No quarto nível encontram-se os sistemas neurais, ou seja, os agrupamentos das
células de neurônios, os componentes físicos do cérebro. Com base nesses agrupamentos os
cientista da IA desenvolvem modelos de redes neurais, algoritmos genéticos e outras formas
de computação emergente para simular nos computadores e robôs os processos de adaptação,
percepção, corporificação e interação com o mundo físico, operações cognitivas que
necessariamente formam a base de qualquer forma de atividade inteligente humana. No
campo das pesquisas da Neurociência Cognitiva são utilizadas as técnicas de recolha de
imagens para investigar essas ligações entre as operações cognitivas e sistemas neurais, ou
seja:
Aplicamos a tomografia por emissão de positrões, o registro de potenciais
relacionados com eventos e outros métodos de escolha de neuro-imagens,
enquanto os sujeitos desempenham tarefas [...]. Estes métodos permitem-nos obter
uma ilustração dos sistemas neurais realmente envolvidos durante a realização de
operações mentais, ao contrário dos estudos de pacientes com lesões cerebrais,
que examinam a operação do cérebro com uma ou mais áreas removidas. Julgamos
que a facilitação e a inibição no desempenho são o resultado de alterações nos
sistemas neurais subjacentes; se tal for verdade, o fluxo sanguíneo e a atividade
elétrica deverão sofrer alterações quando o processamento de informação se torna
mais ou menos eficiente, conforme as indicações fornecidas pela medição dos
tempos de reação e outras medições comportamentais (POSNER, idem, p.57).
O quinto e último nível é o da célula individual que só pode ser estudado com
métodos invasivos, como, por exemplo, implante de microeletrodos. Por esse motivo
dificilmente pode ser utilizado com humanos. Entretanto, “têm sido realizadas experiências
bem sucedidas em animais para estudar a atenção espacial visual que o ato de prestar atenção
a um local dentro do campo visual [demanda].” (idem, p.57).
Em síntese, procuramos demonstrar que a Ciência da Mente é o caminho para
compreensão da natureza humana bem como de sua cognição, neste limiar de século XXI.
74
75
CAPÍTULO II – NATUREZA HUMANA: DE DESCARTES A NEUROCIÊNCIA
COGNITIVA
Em 1633, René Descartes concluiu sua obra Traité du Monde (Tratado do Mundo),
fundamentada na teoria de Copérnico, mas desistiu de publicá-la ao tomar conhecimento da
condenação de Galileu Galilei pela Inquisição da Igreja Católica Romana. Nessa época, a
sociedade encontrava-se submetida à força de duas Ondas epistemológicas. O Zeitgeist
Metafísico, influenciado pela Filosofia Escolástica, que subjugava a razão com seus dogmas
teológicos. A segunda onda, o zeitgeist da Racionalidade Científica influenciado pela nova
cultura da ciência clássica.
A Escolástica se desenvolveu nos fechados círculos das universidades eclesiásticas a
partir da filosofia patrística, implantada nos primórdios da Igreja Romana e acrescida com
algumas idéias aproveitadas da filosofia da Grécia antiga. Conforme explica Marilena Chauí
(1995 p. 44):
A Filosofia patrística: Inicia-se com as Epístolas de São Paulo e o Evangelho de
São João e termina no século VIII, quando teve início a filosofia medieval. [...]
ligava-se, portanto, à tarefa religiosa da evangelização e à defesa da religião cristã
contra os ataques teóricos e morais que recebia dos antigos. [...] foi obrigada a
introduzir idéias desconhecidas para os filósofos greco-romanos: a idéia de criação
do mundo, de pecado original, de Deus como trindade una de encarnação e morte
de Deus, de juízo final ou de fim dos tempos e ressurreição dos mortos, etc. [...]
Dessa forma, o grande tema de toda a Filosofia patrística é o da possibilidade ou
impossibilidade de conciliar razão e fé.
Ao invadirem a Europa, os mouros trouxeram para a península Ibérica a ciência árabe
e o pensamento grego. As universidades medievais redescobriram o pensamento grego e,
influenciadas por teóricos como Santo Agostinho, desenvolvem a Filosofia Escolástica.
A partir do século XII, por ter sido ensinada na escola, a Filosofia Medieval
também é conhecida com o nome de Escolástica.[...] Conservando e discutindo os
mesmos problemas que a patrística, a Filosofia Medieval acrescentou outros [...] e,
além de Platão e Aristóteles, sofreu uma grande influência de Santo Agostinho.
Durante esse período surge propriamente a Filosofia Cristã, que é na verdade, a
teologia. Um de seus temas mais constantes são as provas da existência de Deus e
da alma, isto é, demonstrações racionais da existência do infinito criador e do
espírito humano imortal. [...] Outra característica marcante da Escolástica foi o
método por ela inventado para expor as idéias filosóficas, conhecidas como
disputa (grifo nosso): apresentava-se uma tese e esta devia ser ou refutada ou
defendida por argumentos tirados da Bíblia, de Aristóteles, de Platão ou de outros
Padres da Igreja. (idem, p. 45).
A preocupação de Descartes, explica Chauí (idem, p. 45) estava, precisamente,
relacionada com a necessidade de submeter sua obra à disputa, pois havia avançado em uma
descrição racional da natureza humana e em confronto com o “[...] princípio da autoridade”
(grifo nosso), isto é, idéia considerada verdadeira se for baseada nos argumentos de uma
autoridade.”.
Na tentativa de suavizar o espírito hostil dos pensadores escolásticos Descartes
adiantou algumas das idéias apresentadas em Tratado do Mundo (1633) ao publicar Discurso
do Método (em 1637) em Leiden, Países Baixos. Nessa obra (traduzida por Ciro Mioranza, s/d
p.17-18), publicada ao mesmo tempo em que Dióptrica, Meteoros e Geometria, nas quais
aplicou seu método, justifica a necessidade de revisão do princípio da autoridade e de
utilização de métodos racionais para a busca da verdade:
Eu venerava nossa teologia e pretendia, como qualquer outro, ganhar o céu. Tendo
aprendido como algo muito seguro, porém, que o caminho até ele não está menos
aberto aos mais ignorantes do que aos mais sábios e que as verdades reveladas que
para conduzem estão acima de nossa inteligência, não me atreveria à submetê-
las à fraqueza de meus raciocínios e pensava que, para empreender sua análise e
obter êxito, era preciso receber alguma extraordinária assistência dou e ser mais
do que homem. Nada direi a respeito da filosofia, a não ser que, constatando que
foi cultivada pelos mais elevados espíritos que viveram desde muitos séculos e
que, apesar disso, nela ainda não se encontra uma única coisa sobre a qual não se
continue discutindo e, por conseguinte, que não seja duvidosa, eu não alimentava
qualquer esperança de acertar mais que os outros. [...] A respeito das outras
ciências, uma vez que tomam seus princípios da filosofia, julgava que nada de
sólido podia ser construído sobre fundamentos tão pouco firmes. (idem, ibidem).
2.1 – VISÃO RACIONALISTA DA NATUREZA HUMANA
Para os pensadores da Filosofia Escolástica, o homem foi uma criação divina feita à
imagem do criador e, ao criá-lo, Deus deu-lhe alma. Para Descartes, educado na escola jesuíta
de La Flèche desde os oito anos de idade, não se tratava de questionar a existência de Deus,
que por sinal ele afirmava ter provado através do uso da razão, mas tão somente criar um
método científico, uma nova filosofia, calcada na dúvida, no ceticismo. Havia dois fatos que
ele dizia conceber como verdadeiros: a presença de seu corpo e a existência de Deus.
Dessa forma, Descartes reforça sua crença religiosa ao propor sua teoria dualística da
natureza humana, segundo a qual a alma dada por Deus não se encontra dentro do corpo e,
além disso, possuí a dádiva de razão, essa sim verdadeiramente a pessoa humana, o ser:
76
77
Compreendi então que eu era uma substância cuja essência ou natureza consiste
somente no pensar e que, para ser, não necessita de lugar algum, nem depende de
qualquer coisa material. Desse modo, esse eu, isto é, a alma, pela qual sou o que
sou, é inteiramente distinta do corpo e até mesmo que ela é mais fácil de conhecer
do que ele e, ainda que esse nada fosse, ela não deixaria de ser tudo o que é. [...]
Em seguida ao refletir sobre aquilo que eu duvidava e que, por conseguinte, meu
ser não era totalmente perfeito, porque o conhecer é perfeição maior que o duvidar,
decidi procurar de onde havia aprendido a pensar em algo mais perfeito do que eu
era. Descobri evidentemente que deveria ser de alguma natureza que fosse
realmente mais perfeita. [...] De forma que restava somente que tivesse sido
colocada em mim por uma natureza que fosse verdadeiramente mais perfeita que a
minha e mesmo que tivesse em si todas as imperfeições de que eu poderia ter idéia,
ou seja, para explicar-me em uma só palavra, que fosse Deus. (DESCARTES,
idem, p.40).
Descartes faz uma breve descrição acerca das idéias apresentadas na obra que deixara
de publicar para justificar as sínteses resumidas em Discurso do Método:
Visto que procurei explicar as principais [idéias] num tratado que certas
considerações me impedem de publicar, não poderia dá-las a conhecer melhor do
que mencionado aqui, resumidamente o que contém. Antes de escrevê-lo, pretendia
incluir nele tudo o que julgava saber a respeito da natureza das coisas materiais.
[...] Depois, na ocasião propícia, acrescentar alguma coisa sobre o sol e as estrelas
fixas, porque a luz provém quase inteiramente delas; sobre os céus, porque a
transmitem; sobre os planetas, os cometas e a terra, porque são coloridos, ou
transparentes ou luminosos; por fim sobre o homem, porque é seu espectador.
(idem, p.49)
Assim, Descartes rompe com a Filosofia Clássica cujo principal objetivo havia sido,
até então, procurar um sentido para o mundo, fazer a “mediação simbólica entre o sagrado e o
profano, condição necessária à ordem do mundo e às relações entre os seres”. (GONTIJO,
2004, p.87). De fato, além da defesa do método da razão, em Discurso do Método Descartes
apresenta sua visão racional” da natureza do homem como criação de Deus e embora
admitisse que ainda não possuía conhecimento suficiente sobre o funcionamento orgânico
desse ser, supôs que:
Deus formasse o corpo de um homem inteiramente semelhante a um dos nossos,
tanto no aspecto exterior de seus membros como na confrontação interior de seus
órgãos, sem compô-lo de outra matéria senão daquela que eu havia descrito e sem
colocar nele, no início, qualquer alma racional nem qualquer outra coisa para
servir-lhe de alma vegetativa ou sensitiva, mas que excitasse em seu coração um
desses fogos sem luz que eu havia explicado e que eu não conhecia outra
natureza a não ser aquela que aquece o feno quando o guardam antes de estar seco
ou aquela que faz borbulhar os vinhos novos quando são deixados fermentando
sobre o bagaço. (GONTIJO, idem, p.50-51).
Embora os dogmas escolásticos asseverem que o homem é uma criação divina
especial, construída à imagem de Deus e, portanto, não se assemelha a outros animais,
Descartes explica o movimento e função do coração e das artérias, com base em suas
observações do funcionamento desses órgãos em outros animais. Para ele, equivocado, o
coração funciona nos moldes de uma 'fornalha' que tem entre suas funções a de esquentar o
sangue e manter aquecidas as extremidades do corpo:
[...] existe sempre mais calor no coração do que em qualquer outro local do corpo
e, enfim, que esse calor é capaz de fazer com que, se uma gota de sangue entrar em
suas concavidades, ele se inche, imediatamente e se dilate, como ocorre
geralmente com todos os líquidos quando os deixamos cair gota a gota dentro de
algum vaso que esteja muito quente. (DESCARTES, idem, p.53).
Fica claro o desconhecimento de Descartes acerca do funcionamento orgânico do ser
humano quando ele omite a função do coração de bombear sangue, e atribui a este a função de
“refinador” do sangue e de aquecedor que transforma o sangue em vapor, o que pressupõe que
o sangue ao invés de circular é consumido:
[...] Por que seriam a concavidade esquerda do coração e a grande artéria maiores e
mais largas que a concavidade direita e a veia arteriosa, se não fosse porque o
sangue da artéria venosa, não tendo estado nos pulmões ao ser depois de passar
pelo coração, é mais fino e se dilui mais facilmente do que aquele que provém
imediatamente da veia cava? O que é que os médicos podem descobrir, ao tomar o
pulso, se não sabem que, conforme o sangue muda de natureza, pode ser diluído
pelo calor do coração mais ou menos intensamente e mais ou menos rápido do que
antes? Se for examinado como esse calor é comunicado aos outros membros, não
se deve confessar que é por meio do sangue que, ao passar pelo coração, nele se
aquece e daí se espalha por todo o corpo? [...] Disso decorre que, se o sangue for
retirado de alguma parte, retira-se dele da mesma forma o calor e, mesmo que o
coração fosse tão ardente quanto um ferro em brasa, não bastaria para aquecer os
pés e as mãos, se não fosse enviado continuamente novo sangue. Além do que,
disso se sabe também que a verdadeira utilidade da respiração é levar bastante ar
fresco aos pulmões, a fim de que fazer com que o sangue que para eles se dirige,
vindo da concavidade direita do coração, onde foi diluído e como que
transformado em vapores, se adense e se converta novamente em sangue, antes de
entrar na concavidade esquerda, sem o que não seria apropriado para servir de
alimento ao fogo existente. [...] Além do mais, a digestão, como poderia se
processar no estômago, se o coração não lhes enviasse calor pelas artérias e, com
esse, alguns dos elementos mais fluídos do sangue que ajudam a dissolver os
alimentos que nele foram depositados? E a ação que transformou o suco desses
alimentos em sangue, não será cil de conhecer, se não for considerado que esse
se destila, passando e repassando pelo coração, talvez mais de cem ou duzentas
vezes por dia? (idem, p.56).
É notável a influência do conflito que as duas ondas de zeitgeist provocaram nas
78
79
avaliações lógicas e experimentais, com animais domésticos, como sugere o autor que os
leitores façam. Por um lado apresenta argumentos criados com base nos postulados da
metafísica e da teologia e, de outro, por influência dos novos paradigmas da física mecânica e
da matemática, descreve o organismo humano como uma máquina que opera com base nas
leis da mecânica, como o faz em uma segunda obra “As Paixões da Alma”, escrita em francês
entre os anos de 1645 e 1648, em que, novamente, aborda o tema e critica abertamente a
autoridade dos antigos:
Não ninguém que não saiba que em nós existe um coração, um cérebro, um
estômago, músculos, nervos, artérias, veias e coisas semelhantes. Sabe-se também
que os alimentos descem ao estômago e aos intestinos, de onde o seu suco,
correndo para o fígado e para todas as veias, se mistura com o sangue que elas
contém e, por esse meio, aumentam sua quantidade. Aqueles que ouviram falar,
por pouco que seja, da medicina sabem, além disso, como se compõe o coração e
como todo o sangue das veias pode facilmente correr da meia cava em seu lado
direito e daí passar aos pulmões pelo vaso que denominamos veia arteriosa, depois
retornar do pulmão do lado esquerdo do coração pelo vaso denominado artéria
venosa e, finalmente, passar daí para a grande artéria, cujos ramos se espalham
pelo corpo inteiro. Mesmo aqueles que não foram inteiramente cegados pela
autoridade dos antigos e que quiserem abrir os olhos para examinar a opinião de
Harvey a respeito da circulação do sangue, não duvidam que todas as veias e
artérias sejam como riachos por onde o sangue não para de correr muito
rapidamente, começando seu curso na cavidade direita do coração pela veia
arteriosa, cujos ramos se espalham pelo pulmão e estão ligados à artéria venosa,
pela qual passa do pulmão pelo lado esquerdo do coração, seguindo daí para a
grande artéria, cujos ramos esparsos pelo resto do corpo, se unem aos ramos da
veia que levam de novo o mesmo sangue para a cavidade direita do coração de
modo que essas duas cavidades são como eclusas, através de cada uma das quais
passa todo o sangue em cada volta que faz pelo corpo. Além disso, sabe-se que
todos os movimentos dos membros dependem dos músculos e que esses músculos
se opõem uns aos outros de tal modo que, quando um deles se contrai, puxa para si
a parte do corpo a que está ligado, o que provoca ao mesmo tempo o alongamento
do músculo que lhe é oposto. Se acontecer que, em outro movimento, esse último
venha a se contrair, faz o primeiro se alongar e puxar para si a parte a que eles
estão ligados. Finalmente, sabe-se que todos esses movimentos dos músculos,
assim como todos os sentidos, dependem dos nervos que são como filetes ou como
pequenos tubos que procedem todos do cérebro e contêm, como ele, certo ar ou
vento muito sutil a que chamamos de espíritos animais. (DESCARTES, idem,
p.34-35).
A descrição que Descartes faz do cérebro não é de melhor qualidade. Para ele o
cérebro é um órgão do corpo que faz a interface entre o coração e os outros membros e não
existe nele um local específico para a alma, que esta vive independentemente do corpo.
Esse é o conceito da dualidade. Pela descrição que faz, o cérebro não é nem mesmo o centro
de controle dos demais órgãos, mas tão somente tem o propósito de servir como uma espécie
de válvula que, no contexto de um sistema mecânico, ao receber “espíritos animais”
gerados no coração e transportados pelo sangue, acionam os movimentos físicos dos órgãos
externo, e segue as leis da mecânica. A partir dele se distribuem os fluídos, calores, vapores e
'espíritos animais' necessários à ação e consciência humana:
Finalmente o que de mais notável em tudo isso é a geração dos espíritos
animais que são como um vento muito sutil, ou melhor, como uma chama muito
pura e muito viva que, subindo ininterruptamente em grande quantidade do
coração ao cérebro, daí se dirige pelos nervos para os músculos e confere
movimento a todos os membros. Não porque imaginar que outra causa seja
necessária para levar os elementos do sangue, que por serem os mais agitados e
mais penetrantes são os mais adequados para compor os espíritos, a se dirigirem
mais ao cérebro do que a outras partes, mas deve-se considerar apenas que as
artérias que os transportam para esses locais são aquelas que provêm do coração
em linha mais reta de todas e que, de acordo com as leis da mecânica que o as
mesmas da natureza quando várias coisas tendem a mover-se em conjunto para um
mesmo lado, onde não espaço suficiente para todas, como os elementos do
sangue que saem da concavidade esquerda do coração tendem para o cérebro, os
mais fracos e menos agitados devem ser desviados pelos mais fortes que, por esse
meio, aí chegam sozinhos. (idem, p.57).
Descartes demonstra mais uma vez sua crença na criação divina do homem e
explicação mais simples sobre a operação dos sentidos, que segundo ele teria sido apresentada
de forma mais completa na obra que não pôde publicar por temer críticas e incompreensões
dos filósofos escolásticos:
[...] quais transformações se deve produzir no cérebro para produzir a vigília, o
sono e os sonhos; como a luz, os sons, os odores, os sabores, o calor e todas as
outras qualidades dos objetos exteriores podem nele imprimir idéias diversas por
intermédio dos sentidos; como a fome, a sede e as outras paixões interiores podem
também lhes transmitir as suas; o que deve ser tomado nele pelo senso comum,
onde essas idéias são aceitas; pela memória, que as conserva; pela fantasia que as
pode modificar diversamente e formar com elas outras novas e, pelo mesmo meio,
distribuindo os espíritos animais nos músculos, movimentar os membros desse
corpo de tão diferentes maneiras, quer a respeito dos objetos que se apresentam a
seus sentidos, quer das paixões interiores que se encontram nele, que os nossos
possam movimentar-se sem que a vontade os conduza. [...] considerar esse corpo
uma máquina que, tendo sido feita pelas mãos de Deus, é incomparavelmente mais
bem organizada e tem em si movimentos mais admiráveis do que qualquer uma
daquelas que possam ser inventadas pelos homens. [...] uma coisa realmente
notável que não haja homens [...] que não tenham a capacidade de ordenar diversas
palavras e com elas compor um discurso, por meio do qual consigam fazer
entender seus pensamentos e que, ao contrário, não haja outro animal, por mais
perfeito e mais felizmente gerado que possa ser, que faça o mesmo. Isso não ocorre
porque lhes faltem órgãos, pois vemos que as pegas e os papagaios podem articular
palavras como nós, entretanto não conseguem falar como nós, isto é,
demonstrando que pensam o que dizem. [...] Isso não prova somente que os
80
81
animais possuem menos razão do que os homens, mas que não possuem razão
alguma. Constatamos que é preciso muito pouco para saber falar. [...] não se pode
acreditar que um macaco ou um papagaio, que fossem os mais perfeitos de sua
espécie, não pudessem igualar nisso uma criança dentre as mais estúpidas ou pelo
menos uma criança com o rebro perturbado, se sua alma não fosse de uma
natureza totalmente diferente da nossa. [...] prova que não o possuem [espírito] e
que é a natureza que atua neles conforme a disposição de seus órgãos, do mesmo
modo que um relógio, que é composto apenas de rodas e molas, pode contar as
horas e medir o tempo com maior precisão do que nós, com toda a nossa sabedoria.
(idem, p.57-60).
Defende, assim, a idéia que as naturezas das almas do animal e do homem são
diferentes porque Deus assim as fez, e que a do homem é imortal:
[...] sabendo-se quanto diferem, compreende-se muito mais as razões que provam
que a nossa é de uma natureza inteiramente independente do corpo e, em
decorrência, que não está de modo algum sujeita a morrer com ele. Além do mais,
como não se percebem outras causas que a possam destruir, somos naturalmente
impelidos a supor por isso que ela é imortal. (DESCARTES, idem, p. 60-61).
Em sua obra As Paixões da Alma, Descartes detalha um pouco mais sua
compreensão acerca do funcionamento da “máquina humana”, como se realiza o
funcionamento do coração:
Seu primeiro efeito é dilatar o sangue que enche as cavidades do coração. Isso é
causa de que esse sangue, tendo necessidade de ocupar um espaço maior, passe
com impetuosidade da cavidade para a veia artéria e da esquerda para a grande
artéria. Depois, cessando essa dilatação, de imediato novo sangue entra da veia
cava para a cavidade direita do coração e da artéria venosa para a esquerda pois há
películas nas entradas desses quatro vasos, dispostas de tal modo que fazem com
que o sangueo possa entrar no coração senão pelas duas últimas, nem sair dele,
a não ser pelas duas outras. O novo sangue que entrou no coração é imediatamente
depois rarefeito, da mesma maneira que o precedente. E é somente nisso que
consiste a pulsação ou o batimento do coração e das artérias [...] (idem, p.36).
Explica como se produzem no coração e no cérebro o que denominou de espíritos
animais, aos quais atribui a função de movimentar os membros do corpo, como um fantasma
que controla as operações de uma máquina:
[...] o sangue que sai do coração pela grande artéria toma seu curso em linha reta
para esse local e, não podendo entrar todo, porquanto o cérebro possui passagens
muito estreitas, só passam suas partes mais fluídas e mais sutis, enquanto o resto se
espalha por todos os outros locais do corpo. Para esse efeito, não precisam receber
qualquer modificação no cérebro, exceto a de serem nele separadas das outras
partes menos sutis, pois o que denomino aqui de espíritos não são mais que corpos
muito pequenos e que se movem muito depressa [...]. Desse modo não se detém em
nenhum lugar e, à medida em que alguns entram nas cavidades do cérebro , outros
também saem pelos poros existentes em sua substância, poros que os conduzem
aos nervos e daí aos músculos, por meio dos quais movem o corpo [...]. A única
causa de todos os movimentos dos membros é que alguns músculos se retraem e
seus opostos se alongam [...]. E a única causa que faz com que um músculo se
contraia, e não o seu oposto, é que fluem, por muito pouco que seja, mais espíritos
do cérebro para ele do que para o outro. Não que os espíritos que fluem
imediatamente do cérebro bastem por si sós para moverem os músculos, mas
determinam os outros espíritos que já existem nesses dois músculos a saírem todos
imediatamente de um deles e a passarem para o outro. Dessa forma, aquele de
onde saem torna-se mais longo e mais relaxado; e aquele no qual entram, sendo
rapidamente inflados por eles, se contrai e puxa o membro ao qual está ligado.
(idem, p.36-37 ).
Sua racionalidade exige de Descartes uma explicação para a diversidade de
movimentos possíveis de realizar com o corpo. Eis sua explicação:
[...] como se pode ver naqueles que beberam muito vinho, cujos vapores, entrando
prontamente no sangue, sobem do coração ao cérebro, onde se convertem em
espíritos que, sendo mais fortes e mais abundantes do que aqueles que se
encontram geralmente, são capazes de mover o corpo de muitas maneiras
estranhas. Essa desigualdade dos espíritos pode proceder também das diversas
disposições do coração, do fígado, do estômago, do baço e de todas as outras
partes que contribuem para sua produção. [...] embora o sangue que penetra no
coração provenha de todos os outros locais do corpo, acontece muitas vezes, no
entanto, que é impelido mais de algumas partes que de outras [...]. Assim, por
exemplo, o sangue que provém da parte inferior do fígado, onde está o fel, dilata-
se de maneira diferente no coração do que aquele que provém do baço [...]
diferente do suco dos alimentos, quando, após ter saído de novo do estômago e dos
intestinos, passa rapidamente pelo fígado até o coração. (idem, p.40).
Também é em As Paixões da Alma (idem, p.41) que Descartes conceitua melhor seu
entendimento de alma e de suas funções:
[...] nada resta em nós que devemos atribuir à nossa alma, exceto nossos
pensamentos. Esses são, principalmente de dois gêneros, ou seja: uns são as ações
da alma e os outros suas paixões. [...] suas ações são todas as nossas vontades,
porque sentimos que vem diretamente de nossa alma e parecem depender
exclusivamente dela. [...] pode-se em geral designar suas paixões todas as espécies
de percepções ou conhecimentos existentes em nós, porque muitas vezes não é a
nossa alma que as faz tal como são e porque sempre as recebe das coisas por elas
apresentadas. [..] Nossas vontades são, novamente, de duas espécies, pois umas
são ações da alma que terminam na própria alma, como quando queremos amar a
Deus ou, em geral, aplicar nosso pensamento a qualquer objeto que não é material.
As outras são ações que terminam em nosso corpo, como quando pelo simples fato
de querermos passear, segue-se que nossas pernas se mexem e começamos a
caminhar.
Descartes também aborda as diferentes formas de percepção humana a partir do
mesmo ponto de vista com o qual definiu a máquina humana:
82
83
Nossas percepções também são de duas espécies. Umas têm a alma como causa,
outras o corpo. [...] chegam à alma por intermédio dos nervos e entre elas essa
diferença pelo fato de relacionarmos umas aos objetos externos que atingem
nossos sentidos e as outras, a nosso corpo ou a alguma de suas partes; outras,
enfim, à nossa alma. [...] também algumas que não dependem deles [nervos] e
que se chamam imaginação. Elas procedem apenas de que, sendo espíritos agitados
de modo diverso e encontrando os traços de diversas impressões que ocorrem
precedentemente no cérebro, tomam seu curso fortuitamente por certos poros
mais do que por outros. Essas são as ilusões de nossos sonhos e também os
devaneios [...] aquelas [...] que provocando alguns movimentos nos órgãos dos
sentidos externos, os provocam também no cérebro por intermédio dos nervos, os
quais levam a alma a senti-los. [...] As percepções [...] pelas quais sentimos fome,
sede [...] a dor, o calor [...] que sentimos como em nossos membros e não como
nos objetos fora de nós. [...] As percepções que se referem somente à nossa alma
são aquelas cujos efeitos se sentem como na própria alma e das quais não se
conhece geralmente nenhuma causa próxima, à qual se possa relacioná-las. (idem,
p.43-44).
Por último apresentamos a justificativa de Descartes para a crença de que a alma não
habita local específico do corpo:
Entretanto para compreender mais perfeitamente todas essas coisas, é necessário
saber que a alma está verdadeiramente unida a todo o corpo e que não se pode
propriamente dizer que ela esteja em alguma de suas partes com exclusão de outras
[...] Não obstante nele alguma parte que exerce suas funções mais
particularmente do que todas as outras. Acredita-se comumente que essa parte é o
cérebro ou talvez o coração. O cérebro, porque é com ele que se relacionam os
órgãos dos sentidos. O coração porque é nele que parece que sentimos as paixões.
(DESCARTES, idem, p.47).
Em síntese, Descartes desenvolveu uma perspectiva dualística para a natureza
humana, máquina criada à semelhança de seu Deus criador e operada por um Fantasma da
Máquina, a alma imortal. Com o conhecimento de que dispomos hoje, principalmente em
função da ampla divulgação pelos meios de comunicação de massa dos papeis de órgãos como
o coração e o cérebro humano, as explicações de Descartes parecem imaturas e descabidas. As
descobertas científicas realizadas nos três séculos seguintes contestam a percepção dualista de
Descartes. A mente reside sim no cérebro e envolve eletricidade e química, entre outros
componentes biológicos para seu funcionamento, coisas desconhecidas em meados do século
XVIII. Entretanto, é inegável que Descartes foi um gênio que, em seu tempo, com a força da
razão pôs em cheque os postulados da Escolástica, pelo menos com relação à natureza da
máquina humana, sem, entretanto, abandonar a crença na divindade de sua criação; cuja
contestação, diga-se de passagem, poderia levar o contestador a arder nas fogueias da
Inquisição.
Por que, então, considerar as perspectivas de Descartes nesta pesquisa?
Primeiramente porque seus textos expõem claramente o choque de duas ondas de
zeitgeist: a aceitação da metafísica (primeira onda) para definir a alma divina e o uso da razão
(a segunda onda) para tentar compreender o funcionamento mas não a origem dessa
máquina que maravilhava Descartes.
Neste limiar do século XXI da civilização ocidental, em que a nova onda de zeitgeist
da Ciência da Mente impregnada com novas teorias acerca da informação, digitalização,
comunicação, genética e neurociência se mistura com zeitgeist de ondas anteriores é muito
provável que percepções estejam equivocadas e, portanto, precisamos estar atentos para
compreender as confusões que a mistura das ondas desses múltiplos zeitgeist podem provocar
em nossas perspectivas. Esse é o principal ensinamento que podemos tomar de Descartes.
Em segundo, porque a doutrina dualista de Descartes do Fantasma da Máquina
juntamente com outras duas a Tábula Rasa de Locke e o Bom Selvagem de Rousseau,
compõem uma trilogia teórica que ainda hoje é base conceitual para muitas ciências,
principalmente para as ciências sociais – que entendem a natureza humana como resultado dos
sistemas sociais, políticos e culturais nos quais as pessoas estão inseridas como nos explica
Steven Pinker em sua obra Tábula Rasa: A negação contemporânea da natureza humana
(2002):
[...] a psicologia procurou explicar todo pensamento, sentimento e comportamento
como alguns mecanismos simples de aprendizado. As ciências sociais procuraram
explicar todos os costumes e disposições sociais como um produto da socialização
das crianças pela cultura circundante: um sistema de palavras, imagens,
estereótipos, modelos e contingências de recompensa e punição. Uma longa e
crescente lista de conceitos que pareceriam naturais ao modo de pensar humano
(emoções, parentesco, os sexos, doença, natureza, o mundo) passou, então, a ser
vista como 'inventada' ou 'socialmente construída. (PINKER, idem, p.24)
O filósofo John Locke (1632-1704) contestou teorias que postulavam que os seres
humanos nascem com idéias inatas de matemática, verdades eternas e noção de Deus.
Desenvolveu a doutrina da Tábula Rasa, segundo a qual chegamos ao conhecimento da
verdade unicamente através da experiência. Para Locke, ao nascimento, a mente humana é
com uma folha de papel em branco a ser preenchida durante a vida. Ou seja, é a experiência
obtida na relação do Ser com o ambiente ecológico e cultural que preenche com conteúdo a
mente humana.
Outro filósofo influente foi Thomas Hobbes (1588-1679), para quem a natureza
84
85
humana era muito pouco “racional” e movida por atitudes anti-colaborativas, cheias de
idiossincrasias e que leva os seres humanos a constantes disputas e guerras. Em uma de suas
obras Leviatã (1651) Hobbes deixa clara sua crença de que “[...] as pessoas poderiam
escapar dessa existência infernal entregando sua autonomia a uma pessoa ou assembléia
soberana”.
Jean-Jacques Rousseau (1712-1778) na tentativa de contestar a idéia de um homem
com mau comportamento concebeu a doutrina romântica do Bom Selvagem “inspirado na
descoberta, pelos colonizadores europeus, de povos indígenas nas Américas, África e
(posteriormente) Oceania. Capta a crença de que os seres humanos em seu estado natural são
altruístas, pacíficos e serenos, e que males como ganância, a ansiedade e a violência são
produtos da civilização.” (idem, p.25-26).
A perspectiva dualística de Descartes com o dogma da mente como Fantasma da
Máquina –, a doutrina da Tábula Rasa de Locke e a doutrina do Bom Selvagem de Rousseau
são doutrinas aparentemente independentes e até conflitantes, mas juntas compõem um corpo
que sedimenta grande parte dos postulados teóricos tomados por base para o desenvolvimento
de muitas teorias no campo das ciências da psicologia principalmente o behaviorismo e a
psicologia social –, da sociologia, da história, da lingüística e da economia. Formaram o que
Pinker denominou de Doutrinas Sagradas dos séculos XIX e XX:
As doutrinas da Tábula Rasa, do Bom Selvagem e do Fantasma da quina –– ou
como os filósofos as denominam, empirismo, romantismo e dualismo são
logicamente independentes, mas na prática com freqüência são encontradas juntas.
Se a tábula é rasa (isto é, em branco), estritamente falando ela não contém
injunções para fazer o bem nem injunções para fazer o mal. Mas bem e mal são
assimétricos: existem mais modos de prejudicar as pessoas do que de ajudá-las, e
atos danosos podem prejudicá-las em um grau maior do que atos virtuosos podem
beneficiá-las. Portanto, uma Tábula Rasa, se comparada a uma Tábula preenchida
com motivos, decerto nos impressiona mais por sua incapacidade de fazer mal do
que por sua incapacidade de fazer bem. Rousseau não acreditava exatamente numa
Tábula Rasa, mas acreditava que o comportamento ruim era produto do
aprendizado e socialização. 'Os homens são maus; uma triste e constante
experiência dispensa provas', ele escreveu. Mas essa maldade provém da
sociedade: 'Não existe perversidade original no coração humano. Não se encontra
nele um único vício que não seja possível identificar quando entrou'. Se as
metáforas na fala cotidiana servem de indicativo, então todos nós como Rousseau,
associamos a brancura da página à virtude, e não ao nada. Lembremos as
conotações morais dos adjetivos limpo, claro, imaculado, cândido, puro, sem jaça,
ilibado, e dos substantivos marca, mancha, mácula, nódoa e estigma. A Tábula
Rasa também coexiste naturalmente com o Fantasma da Máquina, pois a página
que está em branco é um lugar convidativo para um fantasma assombrar. Se o
fantasma assumir os controles, a fábrica pode fornecer o dispositivo com um
mínimo de componentes. O fantasma pode ler os monitores do corpo e manejar
suas alavancas, sem necessidade de um programa executivo avançado, de
diretrizes ou de uma CPU. Quanto menos o controle do comportamento tiver
semelhança com um mecanismo de relógio, menos mecanismo de relógio teremos
de postular. Por motivos parecidos, o Fantasma da Máquina é ótima companhia
para o Bom Selvagem. Se a máquina se comporta perversamente, podemos culpar o
fantasma, que livremente escolheu perpetrar os atos iníquos; não precisamos
sondar o projeto da máquina em busca de defeitos. (PINKER, idem, p. 30-31).
Neste ponto convém reafirmar que o objetivo desta tese é propor um Modelo Teórico
Transdisciplinar para Comunicação com Mídias Digitais, que estenda o quadro teórico de
referência proposto por Stephen W. Littlejohn (1978), no qual as teorias com as quais ele
procura definir a natureza do processo de comunicação humana são, em grande maioria,
baseadas nas doutrinas sagradas identificadas por Pinker.
2.3 - VISÃO EVOLUCIONISTA DA NATUREZA HUMANA
Como vimos, o zeitgeist da Ciência Naturalista rompeu com os pressupostos das
doutrinas sagradas ao transferir o tema da natureza humana da esfera da Filosofia para o
campo do Naturalismo. Restam poucas dúvidas de que um dos mais importantes estudos
sobre a natureza humana foi A Origem das Espécies: por meio da seleção natural, escrito por
Charles Darwin e publicado em 1859. Nessa obra, que deu origem à teoria evolucionista dos
seres vivos, o autor prova cientificamente através das leis da evolução das espécies e da
seleção natural que o criacionismo divino do homem estabelecido pela Escolástica tratava-
se apenas de um dogma da Igreja Romana, um mito.
É importante constatarmos que a partir das obras de Darwin e Mendel e das recentes
descobertas da Ciência da Mente as definições filosóficas e sociológicas dos séculos XIX e
XX acerca da natureza humana perderam toda sustentação científica, tornaram-se mitos por
não atenderem ao conceito de falseabilidade proposto por Popper.
Não há mais justificativa para a separação filosófica entre animais bestas sem alma
e humanos aos quais Deus havia dado uma ou da separação entre bons e maus por
motivação políticas ou econômicas.
Na ciência do século XXI ganham importância conceitos de hereditariedade e
seleção natural em contraponto aos destinos divinos ou manipulações político-sociais para a
supremacia do homem virtuoso diante dos outros animais.
Embora as teorias apresentadas em A Origem das Espécies, obra na qual Darwin
86
87
contradiz a crença religiosa de que o homem teria sido uma criação divina privilegiada, criada
à imagem de Deus, estejam substancialmente documentadas, até o presente não existam
provas que nos permitam refutá-las e muito em contrário tenham sido corroboradas pelas
recentes descobertas das ciências modernas, ainda assim a força das doutrinas sagradas se
impõem em muitos segmentos das sociedades ocidentais, conforme observou Pinker:
A concepção judaico-cris ainda é a mais popular teoria da natureza humana nos
Estados Unidos. Segundo levantamentos recentes, 76% dos americanos acredita no
relato bíblico da criação, 79% acredita que os milagres descritos na bíblia
realmente aconteceram, 76% acredita em anjos, no diabo e em outras almas
imateriais, 67% acredita que existirão sob alguma forma depois de morrer e apenas
15% acredita que a teoria da evolução de Darwin é a melhor explicação para a
origem da vida humana na Terra. [...] Mas as ciências modernas da cosmologia,
geologia, biologia e arqueologia tornaram impossível que uma pessoa com
conhecimentos científicos elementares acredite que a história bíblica da criação
aconteceu de fato. (idem, p. 21)
Em síntese, a Teoria da Evolução de Darwin estabelece que todas as espécies do
reino animal descenderam de um único ser. Que mutações ocorridas durante bilhões de anos
foram-lhes modificando a forma para que se adaptassem às exigências da sobrevivência e
manutenção de suas espécies. A lei da seleção natural implica que sobreviverão as espécies
que forem mais eficientes na reprodução de descendente e melhor se adaptarem às mudanças
do meio ambiente. Na obra “A Origem das espécies por Meios da Seleção Natural - Tomo III
capítulo XIV, seção “Natureza das afinidades que unem os seres orgânico”, Darwin afirma
que”:
Como os descendentes modificados das espécies dominantes que pertencem aos
gêneros maiores tendem a herdar as vantagens que tornaram grandes aos grupos a
que elas pertencem e que tornaram predominantes seus antepassados, é quase
seguro que se estenderão muito e que ocuparão cada vez mais lugares na economia
da natureza. Os grupos maiores e predominantes dentro de cada classe tendem
desse modo a continuar aumentando a extensão e, em conseqüência, suplantam a
muitos grupos menores e mais fracos. (DARWIN, 1859, p. 87)
A citação acima pode ser melhor interpretada com a explicação da taxonomia
normalmente empregada na classificação biológica dos organismos vivos, e que possuem
certas características evolucionárias comuns. A classificação mais ampla na qual estão
inseridos os seres vivos é o Kingdom ou reino, através da qual são separados os animais dos
vegetais. Uma subclassificação de seres animais é feita no Phylum, ou filo, que agrupa,
separadamente, por exemplo, os Arthropoda animais cuja característica distintiva é
possuírem esqueleto que lhes protege os órgãos internos do ambiente e evita a perda de
água dos animais agrupados no Kinorhyncha cuja característica distintiva é que tem o
corpo dividido em onze segmentos, cada um com uma placa dorsal; ou do Mollusc criatura
com corpos moles sem divisões em diferentes seções, e normalmente protegidos por uma
concha externa. A subclassificação seguinte, Class, grupo ou classe, permite agrupar
separadamente os Arthropoda, por exemplo, em mamíferos qualquer animal que parir suas
crias ou bebês e os amamentar com leite após o nascimento e pássaros que procriam
pondo ovos, embora também possuam esqueletos. A seguir a subclassificação de Order
permite classificar os mamíferos, por exemplo, em primata onde se incluem os símios e os
humanos ou marsupial ordem na qual estão inclusos os kaolas e os kangurus. As
subclassificações seguintes são, sucessivamente, Family ou Familia que permite, por
exemplo, classificar os primatas como hominídios ou chimpanzés –; a subdivisão em Gênero
que permite classificar os hominídios como Homo; e a subdivisão em Espécies para
diferenciar o Homo sapiens do Homo habilis, por exemplo.
Convém salientar que as vantagens herdadas pela espécie a que se referiu Darwin
não são exclusivamente fisiológicas tais como a estrutura cerebral ou os olhos que os
humanos herdaram dos símios mas também comportamentos instintivos, como o próprio
cientista observa:
Observando os instintos, por mais maravilhosos que sejam, não oferecem
dificuldades maiores que as conformações corpóreas, dentro da teoria da seleção
natural, de sucessivas modificações pequenas, mas proveitosas. Deste modo
podemos compreender porque a natureza vai por passos graduais ao dotar os
diferentes animais de uma mesma classe de seus diversos instintos. [...]
Indubitavelmente, o hábito entra muitas vezes em jogo na modificação dos
instintos; mas certamente não é indispensável, segundo vemos no caso dos insetos
neutros, que não deixam descendência que herde os efeitos do habito prolongado.
Dentro da teoria de que todas as espécies de um mesmo nero descenderam de
um antepassado comum, podemos compreender como é que espécies próximas,
situadas em condições de vida diferentes, tenham, no entanto, os mesmos instintos.
(idem, p. 136)
A Teoria da Evolução revela, portanto, que é possível compreender os
comportamentos instintivos dos seres vivos talvez sejam estas as forças inconscientes a que
se referia Freud com base em sua descendência, e para isso “[...] temos de descobrir as
linhas genealógicas pelos caracteres mais permanentes, qualquer que sejam e por pequena que
seja sua importância para a vida” (Darwin, idem, p.140). Com outras palavras, a análise do
88
89
ordenamento genealógico do homem moderno permite compreender alguns de seus atributos
físicos e comportamentais, com base na evolução natural da espécie do Homo Sapiens, a partir
das características que mantiveram, apesar das variações nas condições de vida dos nossos
antepassados, membros da mesma ordem, familia e gênero da espécie humana.
A Teoria de Darwin liga a evolução biológica das espécies também às condições de
vida que lhes assistiu, ou seja, existe a vida biológica e a vida vivida, a transformar a natureza
humana mas não nos termos da doutrina da tábula rasa, segundo a qual a estrutura da
sociedade transforma o homem no que deseja.
Recorremos à obra Cultura de Massas no Século XX: O espírito do tempo -2
Necrose, de Edgar Morin (1975), para melhor compreender o significado de 'vida' no contexto
da Teoria da Evolução:
A evolução [da espécie] não é, portanto, uma teoria, uma ideologia: é um
fenômeno que é preciso compreender e não escamotear. Ora, os problemas cruciais
que a evolução apresenta surgem, de maneira espantosa, com as associações
núcleo-protéicas ativas chamadas vida. [...] Mas o que chamamos vida, isto é, uma
organização núcleo-protéica que dispõe de um poder de auto-reprodução e se
determina segundo um duplo movimento gerador e fenomenal, parece ter sido um
acontecimento da mais alta improbabilidade. (MORIN, idem, p.49).
Estas palavras de Morin, além de valorizarem a perspectiva científica naturalista
contrária as doutrinas sagradas, afirmam que o surgimento da vida pode não ter sido somente
resultado de capacidade de reprodução biológica, mas também de componentes “fenomenais”,
eventos acidentais porém naturais, não programados biologicamente e, portanto, fora da
cibernética do organismo humano. Assim, Morin (idem, p. 55) nos explica que, talvez, “[...] a
origem da humanidade, como a vida, seja um acontecimento único. O citogeneticista Jaques
Ruffie desenvolveu a este propósito a hipótese da mutação no antropóide, cujo cariótipo após
a fusão de 2 cromossomos acrocêntricos, teria passado de 48 a 47 cromossomos, e a partir da
qual, pela ação de uniões incestuosas, teriam provindo, em meio a uma descendência de 48 e
47 cromossomos, alguns descendentes de 46 cromossomos, os quais, se apresentassem uma
aptidão nova com relação ao tipo ancestral, teriam se beneficiado de uma “pressão de
seleção”.
Nesse sentido, Morin aceita as teorias de Darwin e enfatiza a variável vida vivida”
segundo a qual a direção tomada pela vida não depende somente da programação bio-
genética, mas também está atrelada a influência de eventos acidentais, casuais e naturais, ou
de comportamentos circunstanciais:
[...] Com efeito, a unicidade do código genético, a identidade através de todos os
seres vivos dos componentes protéicos e nucléicos, tudo isso parece indicar-nos
que estes seres vivos descendem de um único e casual antepassado. E, a partir do
momento em que a vida apareceu, manifestou-se simultaneamente como acidente-
acontecimento de uma parte e como sistema-estrutura de outra parte. Enquanto a
tendência habitual é a de dissociarem estes dois conceitos antagônicos,
acontecimento e sistema, de nossa parte devemos, ao contrário, tentar conceber de
que maneira eles estão indissoluvelmente ligados. (idem, p.50).
Morin ressalta o caráter probabilístico do processo evolutivo e atribui o sucesso ou
insucessos das espécies em sua trajetória de vida a acidentes improváveis, circunstanciais,
sem os quais não haveria qualquer mutação que lhes garantisse adaptação a novas condições
ambientais:
De qualquer maneira tudo o que é biológico es circunstancializado: [...] A
evolução a partir do primeiro unicelular até a gama infinita das espécies vegetais e
animais é composta de uma multidão de cadeias circunstanciais improváveis, a
partir das quais se construíram, nos casos favoráveis, organizações cada vez mais
complexas e cada vez mais bem integradas. [...] O aparecimento de um elemento
um traço novo sempre teve um caráter improvável, porque é determinado por uma
mutação genética. A mutação é um acidente que aparece no momento em que se
copia a mensagem hereditária e que o modifica, isto é, modifica o sistema vivo que
ele determinará. [...] a biologia esclarece a natureza da evolução. A evolução não é
nem estatisticamente provável; segundo as causalidades físicas, nem autogerativa
segundo um princípio interno. Ao contrário, os mecanismos físicos conduzem à
entropia, e o princípio interno entregue a si mesmo mantém pura e simplesmente a
invariância. [...] A “seleção natural” (ou pelo menos os fatores de eliminação ou
sobrevida das espécies) se manifesta com certo grau de circunstancialidade. Não
são tanto condições estáticas que operam a seleção. São condições eventualmente
dinâmicas (os encontros e interações entre sistemas móveis), e algumas aleatórias,
como o clima, do qual, uma pequena mudança modifica fauna e flora. O meio não
é um quadro estável, mas um lugar de surgimento de acontecimentos. [...] O meio é
o lugar dos encontros e interações circunstanciais de onde procederão o
desaparecimento ou a promoção das espécies. (idem, p.50-51)
Por outro lado, o autor também apresenta alguns argumentos favoráveis ao estudo da
natureza dos indivíduos considerando não somente o processo evolutivo das espécies por
influências bio-genéticas mas também por influência do aprendizado adquirido pelo
organismo vivo nas suas relações com o ambiente, afinal:
O acontecimento não opera apenas no plano das espécies, mas também dos
indivíduos. O ser vivo fará emergir, no curso da evolução, uma duplicidade que a
principio se manifesta através da duplicação dos primeiros unicelulares. Esta
duplicidade se deve ao fato de que o ser vivo é um ser genofenotipado. Segundo
90
91
esse duplo aspecto, é necessário considerar que o acontecimento-acidente opera
não somente ao nível do genótipo, mas também ao nível do fenótipo: a existência
fenomenal é uma sucessão de acontecimentos: learning, o aprendizado são os
frutos, não apenas de uma educação parental, mas também dos encontros entre o
indivíduo e o ambiente. Os traços mais singulares resultam desses encontros
(idem, p.51).
Muitos ensinamentos podem ser sintetizados deste brilhante e preciso texto de
Morin. Nele fica claro que evolução implica, simultaneamente, programação do sistema
biológico animal, a ocorrência de acontecimentos acidentais naturais com certo grau de
circunstancialidade e que podem provocar mutações ou adaptações resultantes da
aprendizagem. Tudo isso afeta tanto as espécies como os indivíduos. A instabilidade de
condições torna o meio ambiente um lugar propício ao surgimento de acontecimentos
transformadores. Que o gênero Homo é genofenotipado por ser sua evolução afetada tanto
pela programação” genética quanto por fenômenos ambientais e pelo aprendizado obtido a
partir das relações interpessoais, das possibilidades de comunicação entre seus pares e com o
ambiente.
Diante do exposto, fica claro que a espécie herda de seus antepassados mais do que
uma Tábula Rasa, quer estejam os códigos programados no cérebro ou nos genes. Isso posto,
ficam algumas perguntas no ar: Ora, se homem e macaco descendem de um mesmo
antepassado, e viveram inicialmente no mesmo ambiente, que acidentes teriam provocado
tanta mudança a ponto da fala, por exemplo, ter-se desenvolvido de forma tão significativa
nos humanos, enquanto o chimpanzé, após diversos anos de aprendizagem, não consegue
pronunciar mais do que sete ou oito palavras? Porque os símios mantiveram seus pelos
enquanto o homo tornou-se nu? Porque os humanóides desenvolveram tecnologia,
construíram cidades e navios e os símios não? O que acarretou mudanças tão
substancialmente diferentes nesses dois animais? Quais acontecimentos-acidente genotipados,
mas também fenotipados, teriam moldado a natureza do homem moderno? Porquê esses
mesmos “códigos” não afetaram a evolução de seus parentes mais próximos, os macacos?
Dessa natureza do homem atual quais aspectos foram assimilados no longo processo evolutivo
ao qual estivemos submetidos e quais aspectos são originários de nosso aprendizado recente?
As leis da teoria da evolução e as percepções de Morin de que a vida é também um
sistema circunstancializado, permitem supor que essas variações evolutivas podem ter
ocorrido exatamente pelo que Darwin chamou de mutação, ou seja, acidente que aparece no
momento em que se copia a mensagem hereditária e que a modifica. Assim, a partir de um
acidente genótipo no homem, ele e macacos teriam seguido linhas evolutivas diferentes,
que ao final de muitos séculos transformaram os seres originais em muitos seres diferentes.
A afirmação acima leva, entretanto, a uma outra indagação. Não poderiam ter sido
acidentes fenotipados, originados no ambiente, que provocaram a diferença das espécies? Em
caso de resposta afirmativa para este questionamento não é possível supor que as mudanças
sociais, políticas e culturais pelos quais nossos antepassados passaram ou até mesmo
ambientais, como as que estão sendo, e continuarão a ser, introduzidas pelas tecnologias,
mídias digitais no século XXI, por exemplo, possam também afetar a espécie homo
modificando-a para melhor ou pior?
Nosso entendimento é que a compreensão de como ocorreu a evolução das espécies
do gênero Homo, desde que possíveis acidentes genótipos e/ou fenótipos separaram a linha
evolutiva dessas duas espécies de descendência comum, podem nos auxiliar na obtenção de
algumas respostas a estas indagações.
Além da teoria criacionista, outras que m por pressuposto o aparecimento de
muitas espécies, em momentos e locais diferentes, além de mitos que atribuem a alienígenas a
presença dos homens na terra. Também é verdade que as pesquisas arquelógicas, até o
presente, não foram capazes de comprovar a veracidade de qualquer outra teoria diferente da
de Darwin, embora essa trajetória evolutiva da espécie Homo ainda tenha muitas incógnitas e
suposições, como por exemplo, a de que os humanóides teriam vivido nos oceanos e mares
durante longo período de sua evolução e este teria sido o possível motivo para o abandono dos
pêlos nos processos hereditários.
Desmond Morris, autor do livro O Macaco Nu: um estudo do animal humano (1987)
nos relata alguns resultados das pesquisas no campo da zoologia, acerca da origem da espécie
homo; como surgiram os diversos membros do grupo dos primatas, dentre os quais está o
homem, que ele chama carinhosamente de macaco pelado:
[...] provém originalmente dum tronco insetívoro. [...] criaturas insignificantes e
pequenas, que se esgueiravam nervosamente pelas florestas abrigadas, ao mesmo
tempo em que os répteis todo-poderosos dominavam o mundo animal. cerca de
oitenta ou cinqüenta milhões de anos após o desmoronamento da grande era dos
répteis, os pequenos comedores de insetos começaram a aventurar-se a explorar
novos territórios. Foi então que se espalharam sob muitas formas estranhas. Alguns
se tornaram comedores de plantas, escavando o solo para se proteger, ou
desenvolvendo pernas longas com andas, para melhor escapulirem dos inimigos.
Outros se transformaram em assassinos, com garras compridas e dentes aguçados.
[...] a natureza continuava a ser um campo de batalha. (MORRIS, ibidem, p.20).
92
93
De fato foi impressionante a quantidade de classes de animais originários desse
'tronco insetívoro', dentre os quais os mamíferos. Somente na classe dos mamíferos criaram-se
espécies tão diferentes quanto os grandes gatos e os cães selvagens, baleias, elefantes,
morcegos, alces, esquilos, kangurus e, também, os vários gêneros da família dos hominídios e
dos símios, por exemplo. Pode-se observar nessa pequena lista que animais quadrúpedes e
bípedes, animais com pêlos e sem pêlos, animais com mão e animais com garras, animais com
pernas longa e outros com pernas curtas, ou até sem pernas, como é o caso do membros da
família dos cetacean à qual pertence a espécie baleia branca. Porém a mais significativa
diferenciação entre as espécies da classe dos mamíferos está nas diferentes estruturas e
capacidades do cérebro, assunto que será discutido mais adiante. Morris chama especial
atenção para uma outra diferença curiosa entre as espécies da classe dos mamíferos: o pêlo.
Uma revisão rápida de todos os mamíferos existentes logo nos mostra que quase
todos têm revestimentos pilosos protetor e que raras exceções, “dentre 4.237 espécies
existentes, se decidiram a abandoná-lo”. [...] Alguns mamíferos escavadores como a
toupeira pelada, o oricterope sul-africano e o tatu sul-americano, por exemplo reduziram o
respectivo revestimento piloso. Os mamíferos aquáticos, como as baleias, golfinhos, porcos-
marinhos, peixes-boi, dugongos e hipopótamos, também se tornaram pelados para viver na
água. Nesta altura, o zoólogo tem de concluir que, ou se trata de um mamífero escavador ou
aquático, ou existe qualquer coisa muito esquisita, e mesmo exclusivamente muito peculiar,
na história evolutiva do macaco pelado. Esquisito mesmo porque [...] um revestimento
piloso, espesso e isolador, desempenha certamente um papel fundamental para impedir as
perdas de calor” e exceção feita ao caso do hominídio, [...] essa medida drástica foi
tomada no caso de mamíferos que se instalaram em ambiente completamente novo”, a
exemplo das baleias que migraram para os oceanos. (idem, p.18-19).
Entretanto, recentes métodos de análise de DNA – Deoxyribonucleic acid
23
comprovam que os símios de grande porte e sem rabo chimpanzés, orangotangos e gorilas -
têm 98 % da formação molecular idêntica ao do homem atual. Diante de tal fenômeno ficam
inevitavelmente no ar dúvidas acerca do que teria provocado tantas transformações nos
ascendentes da espécie do 'macaco pelado' que, ao migrar, não teve que se adaptar a ambiente,
aparentemente, tão diferente assim. Afinal o que causou as diferenças tão significativas entre
o 'macaco pelado' e seus primos peludos? Por que o 'macaco pelado' proliferou por todo o
23 O DNA é um ácido que contém as instruções genéticas utilizadas no desenvolvimento e funcionamento de
todos os organismos vivos conhecidos.
planeta enquanto seu primo pelado está à beira da extinção? Para alguns cientistas o
fenômeno se deve à capacidade superior de comunicação pelos humanos enquanto para outros
a diferença está no tamanho do cérebro.
Corrobora para essa segunda hipótese o fato de que um longo período de tempo se
passou desde que as espécies homo e símio se separaram até que as primeiras ferramentas
fossem fabricadas, no século 2.400.000 a.C., quando havia surgido a primeira espécie
Homo, o Homo habilis, cuja massa cerebral era em média de 750m
3
enquanto o tamanho
médio do cérebro de seu antepassado Australopithecus robustus era de 530m
3
.
O volume do cérebro dos humanóides continuou a crescer a cada evolução até que,
com cérebro muito superior o Homo sapiens imprimiu grandes avanços em várias frentes
tecnológicas no período de 60.000 a.C. a 15.000 a.C. Cruzou o oceano e chegou à Austrália,
demonstrando dominar a técnica de construção de barcos e navegação (60.000 a.C.);
desenvolveu lamparinas de pedra para queimar combustível de gordura animal e construiu
fornos de pedra com tecnologia para reter calor e direcionar fluxos de ar (40.000 a.C.).
Datam de 25.000 a.C. algumas evidências encontradas em sítios arqueológicos na
França, na República Cheka e na Rússia de construções complexas que implicam vida
complexa e estruturas de armazenamento; cabanas construídas com ossos de mammoth
quando madeira não estava disponível; buracos perfurados que se constituem na primeira
evidência inequívoca de armazenamento de comida durante o inverno; arco e flecha.
Em 20.000 a.C. agulhas confeccionadas com ossos e chifres foram feitas na França e
Espanha e sugerem a costura de roupas. Data de 13.000 a.C. o primeiro artefato semelhante a
um mapa que parece mostrar a região imediatamente em volta do sítio no qual foi
encontrado em Mezhirich, Ukraine – feito em osso; e, de acordo com a evidência em Lascaux,
França, o uso de cordas.
A espécie Homo também desenvolveu tecnologias para expressar sentimentos e
sensibilidade estética e com elas fizeram música, pintura e escultura. As pinturas slabs, a mais
antiga arte encontrada em África; os primeiros instrumentos musicais , rudimentares, com
forma de apitos e feitos de ossos perfurados de antílope e boi datam de 45.000 a.C.
Instrumentos musicais inequívocos flautas e apitos aparecem na França, Europa central e
planícies Russas, a partir de 28.000 a.C.
Nessa mesma época, na França, pessoas esculpiram e gravaram vulvas e falus.
Estátuas de animais e pessoas esculpidas em cerâmica foram encontradas no sítio
94
95
arqueológico de Pavlov Hill de Moravi, República Checa.
Constata-se, portanto que o processo de seleção natural ocorre milhões de anos
e tem se intensificado desde os últimos 50.000 anos, mas ainda assim permanece a dúvida.
Porque o cérebro dos hominídios se desenvolveu mais que os dos símios?
Darwin (Tomo 1 - p. 99) nos apresenta uma idéia do que pode ter motivado esse
fenômeno: Compreenderemos melhor a marcha provável da seleção natural tomando o caso
de uma região que experimente alguma leve mudança física, por exemplo, de clima. Os
números proporcionais de seus habitantes experimentarão quase imediatamente uma
mudança, e algumas espécies chegarão imediatamente a extinguir-se”.
Entretanto, há outras opiniões quanto aos motivos para a extinção das espécies. Jared
Diamond, em sua obra Armas, Germes e Aço: os destinos da sociedade humana (1997)
explica sua estranheza com essa justificativa de mudança climática como motivação única
para o desaparecimento de espécies e sugere, em toda sua obra, que grande parte da fauna foi
extinta pela espécie Homo Sapiens depois que ela foi capaz de utilizar e criar tecnologias:
cerca de 15.000 anos, o Oeste americano se parecia muito com a planície
Serengeti, na África atual, com manadas de elefantes e cavalos perseguidas por
leões e leopardos, e convivendo com espécies exóticas como camelos e preguiças
gigantes. Assim como na Austrália/Nova Guiné, nas Américas a maioria dos
grandes mamíferos foi extinta.[...] nas Américas isso ocorreu entre 17.000 e 12.000
anos atrás. Pelos ossos desses mamíferos americanos que estão disponíveis para
estudo e tiveram suas épocas bem definidas, pode-se acreditar que sua extinção
ocorreu por volta de 11000 a.C... [...] a data é idêntica à da chegada dos Clóvis
24
caçadores à área próxima ao Grand Canyon. A descoberta de numerosos esqueletos
de mamutes com lanças de Clóvis entre suas costelas sugere que essa
simultaneidade de datas não é apenas coincidência. [...] Outra teoria diz que os
grandes mamíferos desapareceram devido às mudança climáticas no final da
última Era Glacial, o que (para confundir a interpretação dos modernos
paleontólogos) também ocorreu por volta de 11.000 a.C. [...]. Os grandes animais
americanos haviam sobrevivido a 22 Eras Glaciais anteriores. Por que motivo a
maioria deles escolheu a 23
a
para desaparecer em conjunto, na presença de todos
aqueles humanos supostamente inofensivos? Por que desapareceram de todos os
habitats, não somente daqueles que foram reduzidos, mas também dos que se
expandiram bastante no fim da última Era Glacial? Por isso, suspeito que os
caçadores de Clóvis os mataram, mas a questão permanece aberta. (DIAMOND,
1997, p.46-47).
Para o zoólogo Morris aconteceram as duas coisas: mudanças climáticas com
adaptações como preconiza Darwin e as matanças como resultados de lutas pela caça e
domínio territoriais às quais Diamond se referiu ao afirmar que 'a natureza continua a ser um
24 Grupo hominídeo que viveu no oeste americano.
campo de batalha'. Mas também houveram os acidentes determinantes da mutação, ao qual
Morin se referiu.
Ainda assim, não temos respostas para o desenvolvimento do cérebro e cognição da
espécie Homo. Teria o desenvolvimento cognitivo sido provocado pela percepção da
necessidade de criar tecnologias ou uma cognição superior teria surgido primeiro? Teria
sido a formação de organizações sociais colaborativas a responsável por essa evolução
cerebral?
Como sabemos muitos mamíferos, símios inclusive, estão na eminência da extinção.
Porque não desenvolveram sua cognição a ponto de criarem os mecanismos que assegurassem
a manutenção de suas espécies? Afinal, como se deu a separação entre homos e símios?
Apoiados em Morris iniciaremos uma explicação naturalista dessa história. Num
primeiro momento, após a extinção dos dinossauros, os insetívoros que habitavam os topos
das árvores, começaram a variar sua dieta alimentar, transformar-se fisicamente e aventurar-se
no solo:
Os comedores de insetos iniciais começaram por alargar a alimentação e resolver
certos problemas digestivos, devorando frutos, nozes, bagas, rebentos e folhas. À
medida que evoluíram no sentido das formas rudimentares dos primatas, a visão
melhorou, os olhos deslocaram-se para frente da face e as mãos transformaram-se
para melhor agarrar a comida. Providos de visão tridimensional, de membros
capazes de manipular e de cérebros que iam crescendo pouco a pouco, os primatas
começaram a dominar cada vez mais o seu mundo das árvores. cerca de vinte e
cinco ou trinta e cinco milhões de anos, esses pré-macacos já haviam iniciado a
evolução de macacos propriamente dito. [...] Com o tempo, algumas dessas
criaturas macacóides tornaram-se maiores e mais pesadas. Em vez de continuarem
a saltar e pular, passaram a bracejar oscilando de mão em mão, suspensos entre
os ramos. As caldas tornaram-se obsoletas. Como o tamanho lhes tornasse mais
incômodo viver entre as árvores, foram perdendo o medo de uma ou outra
escapada até o solo. (MORRIS, idem, p.20-21).
Num segundo momento teria havido mudanças climáticas as Eras Glaciais que
reduziram as áreas de florestas e obrigaram nossos antepassados a fazer difíceis e decisivas
escolhas, conforme esclarece Morris:
[...] símios primitivos foram obrigados a escolher entre dois caminhos: ou se
mantiveram no que restou das florestas antigas, ou tiveram de se resignar, quase
em sentido bíblico, a serem expulsos do paraíso. Os antepassados dos chimpanzés,
dos gorilas, dos gibões e dos orangotangos deixaram-se ficar, e desde então nunca
mais cessaram de diminuir. Os antepassados do outro mio que sobreviveu o
macaco pelado arrojaram-se a abandonar a floresta e lançaram-se na competição
com outros animais terrestres, então pacientemente adaptados ao solo. [...]
96
97
encontraram-se diante de um futuro bastante sombrio quando mudaram de
ambiente. Ou se tornavam melhores assassinos que os carnívoros já
experimentados, ou melhores pastadores que os herbívoros existentes. (idem,
p.22)
De fato os macacos pelados adotaram as duas dietas alimentares, e para viver no chão
tiveram que, simultaneamente, lutar contra adversários carnívoros poderosos e tornarem-se
melhores pastadores que os herbívoros. Morris (idem, p.28-30) resume de forma interessante
as armas naturais (biológicas) que os principais inimigos carnívoros tinham a seu favor na luta
diária pela busca de alimentos em competição com o macaco nu, que se transformou de
coletor de alimentos na floresta em caçador e invadiu o espaço dos carnívoros a procura de
comida:
As grandes vedetes do grupo dos carnívoros são, por um lado, os cães selvagens e
os lobos e, por outro os grandes gatos, como os leões, tigres e leopardos. Eles são
providos de órgãos dos sentidos delicadamente aperfeiçoados. m ouvido muito
apurado e podem desviar as orelhas para captarem melhor os mínimos sussurros e
roncos. Embora os olhos sejam relativamente pobres em relação a pormenores
estéticos e à cor, reagem de uma maneira incrível ao menor movimento. m um
olfato tão aperfeiçoado que nos é difícil compreendê-lo. Devem ser capazes de
identificar uma autêntica paisagem de cheiros. Não o capazes de identificar
com infalível precisão um cheiro individual, mas igualmente de destrinchar os
vários componentes de um cheiro complexo. [...] Além desse extraordinário
equipamento sensorial, os cães bravios e os grandes gatos m uma maravilhosa
constituição atlética. Os gatos especializaram-se como rapidíssimos corredores
velocistas e os cães como vigorosos corredores fundistas. Quando matam, podem
servir-se de mandíbulas poderosas, de aguçados dentes selvagens e, no caso dos
grandes gatos, de membros anteriores muito musculosos, armados de enormes
garras como pontas de punhal. Para esses animais, a ação de matar passou a ser um
verdadeiro fim. [...] O aparelho digestivo dos carnívoros está preparado para
suportar períodos de jejum relativamente longos, seguidos de fartos festins. [...] No
decurso de encontros sociais, as armas selvagens [dos carnívoros], tão importantes
para a caça, constituem uma ameaça potencial para a vida e são utilizadas para
resolver as mais íntimas disputas e rivalidades.[...] Isso podia ameaçar de tal
maneira a sobrevivência das espécies que, durante a longa evolução em que foram
aperfeiçoadas as suas mortíferas armas de caça, os carnívoros tiveram igualmente
necessidade de criar poderosas inibições quanto ao uso de armas contra os outros
indivíduos da própria espécie. Tais inibições parecem ter uma base genética
específica: não precisam ser aprendidas. Criaram-se posturas submissas especiais,
as quais apaziguam automaticamente um animal dominador e inibem-no de atacar.
Chama-nos atenção o fato desses animais terem desenvolvido inibições para
assegurar a convivência em grupos organizações sociais primitivas e mais ainda o fato
dessas inibições terem base genética e não cultural, como afirmam as doutrinas contrárias ao
naturalismo.
A seguir Morris destaca as fragilidades das “armas” naturais das quais o macaco nu
dispunha quando desceu ao solo para competir, em lutas de vida ou morte, com os experientes
carnívoros:
Nos primatas superiores, o equipamento sensorial é muito mais dominado pelo
sentido da visão do que pelo olfato. No mundo das árvores, é muito mais
importante ver bem do que cheirar bem, e o focinho reduziu-se consideravelmente,
para que os olhos possam ver melhor. A cor dos frutos é um indício importante
quando se procura comida, e os primatas adquiriram uma boa visão das cores, ao
contrário dos carnívoros. Também têm olhos mais preparados para captar os
pormenores estáticos. Comem comida estática, pelo que é menos importante
perceber movimentos ínfimos do que distinguir certas pequeninas diferenças de
forma e de consistência. O ouvido tem importância, mas não tanta como para os
assassinos exploradores. [...] o sentido do gosto é mais refinado. A alimentação é
mais variada e muito saborosa muito mais coisas para apreciar. [...] O físico
do primata é bom para trepar, mas não está preparado para corridas no solo, nem
para proezas de longo fôlego. Trata-se mais de um corpo ágil de acrobata do que
da envergadura de um atleta poderoso. As mãos são boas para agarrar, mas não
para dilacerar ou ferir. As mandíbulas e os dentes são razoavelmente fortes [...]. Na
verdade matar não é um aspecto fundamental de vida dos primatas. [...] A
alimentação vai-se fazendo ao longo do dia. Em vez de grandes festins [...] uma
vida de ininterrupto mastigar. Mesmo os grandesmios que se deitam em abrigos
especiais fazem cada noite a cama em sítios diferentes, pelo que não motivos
para preocupações higiênicas. Os animais movem-se, fogem, descansam e dormem
juntos, formando uma comunidade bem unida, em que cada membro observa os
movimentos e ações de todos os outros. Em qualquer momento, cada indivíduo do
grupo tem uma idéia razoável acerca do que os outros fazem. Essa conduta é
tipicamente não carnívora. [...] Um macaco ou um mio solitário é uma criatura
vulnerável. Faltam-lhe as armas poderosas dos carnívoros, os quais facilmente os
atacariam se o apanhassem isolado. Entre os primatas não muito espírito
cooperativo [...] Existe, sobretudo competição e dominação. [...] Claro que em
ambos os grupos existe competição na hierarquia social, mas no caso dos macacos
e mios não atividades cooperativas que a atenuem. [...] os primatas não são
verdadeiramente animais territoriais. (MORRIS, idem, p.32-35).
Posto dessa forma e considerando que os processos de adaptação são extremamente
demorados, custa crer que os macacos dos quais os hominídios se desenvolveram tenham
sobrevivido. Ocorre que a natureza e o acaso trabalharam a favor de um importante acidente
mutativo no macaco, que a essa altura já possuía um cérebro superior aos dos carnívoros:
Para começar, ele tinha um equipamento sensorial impróprio para viver no chão.
[...] O físico era desesperadoramente inadequado [...]. A personalidade era mais
competitiva do que cooperativa[...] pouca habituada à planificação e à
concentração. Tinha felizmente um excelente cérebro. [...] Como a batalha havia
de ser ganha com a cabeça e não com os músculos, teve de tomar medidas
evolutivas drásticas para aumentar a potência do cérebro. Aconteceu uma coisa
muito estranha: o macaco caçador tornou-se um macaco infantil. [...] em termos
muito simples, trata-se de um processo (chamado neotenia) pelo qual caracteres
98
99
juvenis ou infantis são mantidos e prolongados na vida adulta. [...] Antes de
nascimento, o cérebro dos macacos aumenta rapidamente de tamanho e
complexidade. Quando o animal nasce, o cérebro atingiu 70% do tamanho do
cérebro adulto. Os restantes 30% crescem também rapidamente durante os
primeiros seis meses de vida. Mesmo no chimpanzé, o crescimento do cérebro
completa-se antes da idade de 12 meses. Pelo contrário, na nossa espécie, o
cérebro tem à nascença apenas 23% do tamanho do rebro adulto. O crescimento
rápido prolonga-se por seis anos que se seguem ao nascimento e o crescimento
total não se completa antes dos 23 anos de idade. [...] o cérebro continua a crescer
cerca de dez anos depois de atingirmos a maturidade sexual, enquanto nos
chimpanzés o crescimento se completa seis ou sete anos antes do o animal se
tornar reprodutivamente ativo. (idem, p.36-37).
Esse acontecimento-acidente, o processo neotenico, não afetou somente o cérebro e
sim, como já previu Morin, toda a estrutura biótica do macaco nu, embora o tenha feito de
modo diferenciado para atender às exigências da sobrevivência da espécie:
[...] tornamo-nos infantis em certos aspectos, mas não em outros. Houve uma
defasagem do ritmo de desenvolvimento das nossas diferentes aptidões. Enquanto
o sistema reprodutivo se acelerou, o crescimento do cérebro perdeu velocidade.
[...] deu-se um processo de infantilismo diferencial. Uma vez desencadeado o
processo, a seleção natural foi favorecer o retardamento das funções de todas as
partes da estrutura animal que contribuíam para a respectiva sobrevivência no
novo ambiente, hostil e difícil. O cérebro não foi a única parte afetada: a postura
do corpo foi influenciada no mesmo sentido. Um feto de mamífero tem o eixo da
cabeça em posição perpendicular ao eixo do tronco. Se nascesse assim, a cabeça
ficaria voltada para o chão quando o mamífero se deslocasse a quatro patas; mas,
antes do nascimento, a cabeça roda para trás, de forma que o seu eixo prolongue o
eixo do tronco. Assim, quando o animal nasce e começa a andar, a cabeça inclina-
se para frente, da maneira conhecida. Se o animal começasse a andar sobre as
patas traseiras e em postura vertical, a cabeça apontaria para cima, olhando para o
céu. Para um animal vertical, como o macaco caçador, era pois importante
conservar o ângulo fetal da cabeça mantido perpendicularmente ao do corpo, de
modo que a cabeça tendesse para a frente, na nova postura locomotora. Claro que
assim aconteceu, constituindo mais um exemplo de neotenia, visto que o estado
pré-natal se manteve na fase pós-natal e na idade adulta. Muitas outras
características físicas do macaco caçador foram adquiridas desta forma: o pescoço
longo e esguio, a face achatada, os dentes pequenos e tardios, a ausência de
arcadas superciliares espessas e a o rotação do dedo grande dos pés.[...] Com o
golpe neotênico adquiriu o cérebro de que necessitava e o corpo condizente. Podia,
assim, correr na posição vertical, manter as mãos livres para empunhar armas, e ao
mesmo tempo foi desenvolvendo um cérebro capaz de criar armas. (idem,
p.37-38).
Também é importante lembrar da afirmação de Morris de que o acontecimento-
acidente opera tanto ao nível do genótipo como ao nível do fenótipo. Ou seja, as mudanças
processadas no nível ambiental também influenciaram a vida dos macacos. A iniciação sexual
mais cedo aumentou as proles. Por outro lado, o retardamento da idade madura e do
crescimento do cérebro obrigou a uma dedicação maior aos filhos por parte dos pais. A
necessidade de cooperação na caça e proteção em grupo levou o macaco caçador a fixar
residência e a distribuir funções operacionais entre os sexos: os machos, responsáveis pela
alimentação, produziam armas e caçavam, enquanto as fêmeas cuidavam das moradias e das
crias, inclusive quanto à educação parental. Para deixar as famílias seguras e preservar
alimentos desenvolveram sistemas de climatização artificial nas residências e desenvolveram
sofisticada regra de conduta conjugal para evitar adultério e tranqüilizar os machos que se
ausentavam por longos períodos de tempo para caçar. Aprenderam a planejar e a cooperar.
Criaram tecnologias para caça, transporte e navegação. Inventaram as artes pictóricas e
instrumentos musicais .
Após o acontecimento-acidente neotênico que provocou a mutação de um ramo do
macaco, infantilizando-o, o cérebro do gênero Homo passou por um longo processo evolutivo,
até o surgimento da subespécie Cro-magnon ou Homo Sapiens Sapiens cujas características
físicas são as do homem atual:
Fósseis indicam que a linha evolucionária que nos levou a alcançar a postura
vertical, por volta de 4 milhões de anos atrás, começou a aumentar o tamanho do
corpo e do cérebro cerca de 2,5 milhões de anos. Esses proto-humanos são
conhecidos como Australopithecus africanus, Homo habilis e Homo erectus, e
aparentemente evoluíram nessa seqüência. Embora o Homo erectus, o estágio
alcançado por volta de 1,7 milhões de anos atrás, fosse parecido com o homem
moderno em tamanho físico, seu cérebro era no máximo a metade do nosso. [...]
Em termos de distinção ou significado zoológico, o Homo erectus era mais que um
macaco, mas muito menos do que um humano moderno. (DIAMOND, idem,
p.36) .
Na figura 1- Cérebros do Gênero Homo podemos perceber as diferenças entre os
tamanhos e formatos de cérebros de dois de nossos antepassados e o do homem moderno. O
menor deles, à esquerda, pertenceu a um Australopithecus, cujo tamanho é de
aproximadamente 400 cc, aproximadamente o mesmo tamanho do cérebro de um chimpanzé
atual. O tamanho médio do cérebro do Homo Habilis, cujo cérebro não está representado na
figura 1 e, que viveu há aproximadamente 2 milhões de anos atrás, foi de 750 cc. Entretanto, é
o cérebro do Homo Erectus quem mostra o maior crescimento evolucionário. Alguns cérebros
dessa espécie encontrados na África mostraram que o Homo Erectus, que viveu por volta de
1,7 milhões de anos, tinha cérebros com 900 cc em média. A imagem do meio é de um cérebro
de um Homo erectus com aproximadamente 1 milhão de anos de idade e seu tamanho é de
1.200 cc, ou seja, três vezes maior que o de seu antepassado macaco. O cérebro à direita, com
100
101
aproximadamente 1.400 cc de volume pertence ao Homo sapiens sapiens ou Cro-magnon, o
homem moderno. A mudança no formato físico também é significativa, com o crescimento
constante da testa, para acomodar melhor o lóbulo central do cérebro humano.
É interessante notar que as mutações não ocorreram de um momento para o outro e
que, inclusive, muitas espécies Homo, e mesmo subespécies, chegaram a viver ao mesmo
tempo e algumas vezes no mesmo espaço. A figura 2 - Cronologia da Vida das Espécies
Humanas mostra como se sucederam as espécies dos Hominídios nesse processo evolutivo de
mais de 4 milhões de anos.
Provas arqueológicas evidenciam que o surgimento da espécie humana deu-se na
África e que, entre um milhão e meio milhão de anos atrás, grupos de Homo Erectus
começaram-se se deslocar para a Europa e Ásia, áreas que não possuíam barreiras
intransponíveis para quem não era capaz de construir barcos e navegar.
Entre 130.000 e 40.000 anos atrás, diversas espécies de homo habitavam regiões da
África, Europa e Ásia. Na Europa e oeste da Ásia, os Homo neanderthalensis eram
dominantes, possuíam cérebros ligeiramente maiores que os nossos e foram os primeiros
humanos a enterrar seus mortos e cuidar dos doentes.
Na África, cerca de meio milhão de anos atrás havia surgido uma nova espécie
chamada Homo sapiens, aparentemente descendentes do Homo Erectus, porém, “com
esqueletos maiores e crânios mais arredondados e menos angulosos. [...] Entretanto, esses
primeiros Homo sapiens eram diferentes de nós em detalhes do esqueleto, tinham cérebros
significativamente menores e eram grosseiramente diferentes em seus artefatos e
comportamento. [...] Assim como seus contemporâneos de Neanderthal situavam-se um
degrau abaixo do que se considera completamente humano” . (DIAMOND, idem, p.37-39).
Porém, a evolução do Homo sapiens levou ao surgimento da subespécie Cro-
magnon, também chamada de Homo sapiens sapiens, cerca de 50.000 anos atrás, e que,
num curto espaço de tempo, tornou-se a única espécie sobrevivente da saga da evolução
humana. Para Diamond a história da espécie humana começou com o surgimento do Cro-
magnon, que deram um grande salto à frente, primordialmente, pela habilidade de produzir
tecnologias que reduziram substancialmente as desvantagens que possuíam em relação aos
outros animais caçadores:
Os primeiros sinais desse salto vieram de lugares no leste da África [...] não
deixando dúvidas de que estávamos lidando com seres humanos modernos, tanto
do ponto de vista biológico quanto do ponto de vista de comportamento. Os Cro-
magnon produziram não utensílios de pedra, mas também de ossos, [...] em
formas variadas e distintas, tão modernas que suas funções como agulhas,
furadores, fixadores e outras são óbvias para nós. [...] começaram a surgir artefatos
constituídos de várias peças. Entre as armas multipeças [...] estão arpões, lanças e,
finalmente, arcos e flechas [...] meios eficientes de matar a uma distância segura
permitiram a caça de animais perigosos como o rinoceronte e os elefantes,
enquanto a invenção da corda para as redes, das linhas e armadilhas adicionaram à
nossa dieta o peixe e os pássaros. Restos de casas e roupas costuradas
testemunham a evolução da capacidade de sobreviver em climas frios, assim como
resquícios de jóias e de esqueletos cuidadosamente enterrados indicam
acontecimentos revolucionários, em termos estéticos e espirituais. Cerca de 40.000
anos atrás os Cro-magnon foram para a Europa com seus esqueletos modernos,
armas mais poderosas e outros traços culturais avançados. Em alguns milhares de
anos, não havia mais homens de Neanderthal, que se consolidaram como únicos
ocupantes do continente europeu durante centena de milhares de anos. (idem,
p.39-40)
Existem inúmeras teorias para explicar a perda de pêlos pelo macaco nu. Uma delas
sugere que esse fenômeno também estaria relacionado ao retardamento, por toda a vida, do
crescimento dos pêlos, provocado pelo processo de neotenia. Entretanto, outra explicação
plausível estaria relacionada com o enorme esforço físico realizado por um animal de origem
vegetariana que não estava preparado para caçar, o que faria a temperatura corpórea elevar-se
além de limites aceitáveis. É interessante que ao mesmo tempo em que deixou de ter pêlos, o
organismo do macaco nu desenvolveu, simultaneamente uma camada de gordura subcutânea –
para conservar o corpo aquecido e um sistema eficiente de transpiração para facilitar a
evaporação do suor quando o calor do corpo aumenta.
Se por um lado os avanços biogenéticos estão programados, de outro, não são
possíveis avanços culturais e sociais sem o desenvolvimento de recursos para comunicação
interpessoal eficiente. No processo de descendência herdamos de nossos antepassados
expressões comunicacionais básicas e naturais, instintivas, para nos comunicarmos com outras
pessoas:
Ao contrário com o que sucede com as expressões verbais, os sons básicos surgem
sem treino preliminar e têm o mesmo significado seja em que cultura for. O grito, a
lamúria, a gargalhada, o guincho, o gemido e o chorar rítmico transmitem as
mesmas mensagens, seja a quem for e seja onde for. Tal como os sons emitidos
pelos outros animais, eles se relacionam com estados emocionais básicos e dão a
impressão imediata das motivações de quem os emitiu. Nós retivemos igualmente
nossas expressões instintivas, o sorriso, o riso, o franzir de sobrancelhas, o olhar
fixo, a cara de nico, a face zangada. [...] O sorriso e o riso são sinais únicos e
bastante especializados, mas o choro é compartilhado com milhares de outras
espécies animais. Entre os mamíferos superiores cujas expressões faciais se
102
103
desenvolveram com dispositivos de sinalização visual, esses sinais de alarma
acompanham-se de características “caras de medo” (MORRIS, idem, p. 120-121).
ao nascer os animais precisam estabelecer um laço vital com a mãe. A exemplo
dos patinhos que a seguem e dos símios que se agarram aos pêlos da mãe, os humanos,
incapazes de andar ou de agarrarem-se aos pelos da mãe, utilizam-se do choro e do sorriso
para relacionarem-se com a mãe, em busca de resposta para dores ou insegurança. Lembra-nos
Morris que:
Quando nascemos [...] Desprovidos de qualquer meio mecânico de nos mantermos
chegados às nossas mães, temos que nos contentar com sinais maternalmente
estimulados. [...] o sinal que usamos é o sorriso. [...] O sorriso começa nas
primeiras semanas de vida, mas a princípio não se dirige a qualquer coisa especial.
[...] por volta dos 3 ou 4 meses [...] passa a responder apenas ao rosto da mãe. [...]
É curioso que, nessa fase [...] a criança é incapaz de distinguir coisas de um
quadrado de um triângulo, ou outras figuras geométricas. É como se tivesse um
desenvolvimento especial da capacidade de reconhecer certos tipos de formas
limitadas ligadas às feições humanas enquanto as outras capacidades visuais
ficam para trás. Isso garante que a visão da criança vai se fixar no tipo de objeto
adequado. [...]. (idem, p.120-129)
Outra diferença significativa é a capacidade humana da fala. Algumas teorias
atribuem essa capacidade às mutações que ocorrem na caixa de voz. Diamond (ibidem, p.40)
afirma que enquanto alguns cientistas sugerem que essa capacidade é resultados da “perfeição
da caixa de voz e, em conseqüência, a base anatômica para a linguagem moderna, da qual
tanto depende o exercício da criatividade humana, outros sugeriram, ao contrário, que uma
mudança na organização do cérebro nessa época, sem qualquer modificação no seu tamanho,
tornou possível a linguagem moderna. De fato, é bastante significativa a diferença entre a
caixa de voz do macaco e do homo, apresentada na figura 3 - Comparação entre as Caixas de
Voz dos Símios e Humanos. Apesar dessas significativas diferenças, para Morris,
[...] a diferença depende do cérebro, e não da voz. O chimpanzé tem um aparelho
vocal perfeitamente adequado para produzir uma grande variedade de sons. Não há
ponto fraco que possa explicar esse comportamento. A fraqueza reside na cabeça.
Ao contrário dos chimpanzés, certas aves têm surpreendente capacidade de
imitação verbal [...] mas, infelizmente, os seus cérebros de pássaros não lhes
permitem tirar grande proveito da habilidade. Limitam-se a copiar as complicadas
séries de sons que lhes ensinam e a repeti-las automaticamente pela mesma ordem,
sem qualquer relação com os acontecimentos. (MORRIS, idem, p.119).
Essa capacidade especial e exclusiva da espécie homo também é atribuída por Morris
ao processo de neotenia, acidente mutativo que acometeu toda a humanidade retardando-lhe o
envelhecimento, e justifica sua assertiva com base na comparação entre o desenvolvimento
de crianças e de chimpanzés treinados com o propósito de ensiná-los a falar:
Na mesma ocasião em que começou a andar sozinha, a criança começa igualmente
a pronunciar as primeiras palavras reduzidas a princípio a poucos termos
simples, mas o vocabulário se desenvolve com espantosa velocidade. Por volta dos
2 anos, a criança média pode dizer cerca de 300 palavras. Pelos 3 anos, esse
número triplica. Pelos 4 anos diz quase 1.600 palavras e, aos 5, 2.100. A
surpreendente velocidade com que se aprende no campo da imitação vocal é
exclusiva da nossa espécie e deve considerar-se como uma das nossas grandes
conquistas. [...] Os chimpanzés o, tal como nós, rápidos e brilhantes em imitar
manipulações, mas incapazes da imitação vocal. Houve quem tentasse séria e
penosamente ensinar um chimpanzé a falar mas o resultado foi extremamente
limitado. O animal foi criado numa casa [...]. Por volta dos dois anos e meio o
animal era capaz de dizer mama (“mamãe”), papa (“papai”) e cup (“xícara”).
Chegou mesmo a pronunciar palavras com sentido, sussurrando cup quando queria
beber água. Apesar de se ter prosseguido um treino muito intenso, pelo menos 6
anos (quando, nossa espécie, se dizem mais de 2.000 palavras), o chimpanzé não
dizia mais de 7 palavras. (idem, p.119).
Por último, está a capacidade humana para aprender. Os descendentes de quase todos
os animais iniciam o aprendizado por imitação, processo mais bem desenvolvido por alguns
mamíferos que por outros. Segundo Morris, o macaco pelado é o macaco que ensina porque é
movido por uma enorme curiosidade e pela necessidade de explorar, características infantis
que se estendem por toda a vida adulta como resultado da neotenia:
Grande parte de nossa vida adulta baseia-se no que absorvemos por imitação
durante a infância. Imaginamos muitas vezes que nos comportamos de uma certa
maneira porque ela corresponde a determinado código sublime de princípios
abstratos e morais, quando, na verdade nos limitamos a obedecer a um conjunto de
impressões puramente imitativas, profundamente arraigadas e aparentemente
“esquecidas”. É essa imutável obediência a tais impressões (a par dos nossos
instintos cuidadosamente dissimulados) que torna o difícil que as sociedades
mudem os respectivos costumes e crenças. [...] Felizmente, fomos desenvolvendo
um poderoso antídoto contra essa fraqueza, que é inerente ao processo de
aprendizagem por imitação. Aguçamos nossa curiosidade e possuímos uma enorme
necessidade de explorar, que age contra a outra tendência e produz um equilíbrio
que torna possível um êxito formidável. Esse êxito falta quando a cultura se
torna rígida demais, como resultado de escravidão à repetição imitativa, ou quando
a exploração é exageradamente atrevida ou irrefletida. As culturas que medram são
aquelas que conseguem estabelecer um bom equilíbrio entre as duas tendências.
(idem, p.134).
A curiosidade e a necessidade para explorar são essenciais à sobrevivência das
espécies, sempre que mudanças ambientais. Os animais que se especializam em um modo
de vida sofrem revezes sempre que há mudanças ambientais. Por exemplo, se sempre faltarem
104
105
formigas para alimento em determinado habitat os tamanduás que habitam podem ser
extintos, devido à dificuldade de alimentarem-se com outras fontes. Por outro lado, os animais
não-especialistas, que adotam uma postura oportunista ou defensiva diante dos fenômenos que
se apresentam (acontecimentos-acidente), como são os macacos nus, precisam,
constantemente, explorar as saídas para as dificuldades ou oportunidades que se apresentam
para adaptarem-se, comoprovou a própria evolução da classe homo. Para Morris, o instinto
exploratório dos humanos também é devido ao processo de neotenia, conforme explica:
Trata-se de mais uma faceta da sua evolução neotênica. Todos os jovens macacos
são curiosos, mas a curiosidade diminui à medida que se tornam adultos. No nosso
caso, a curiosidade reforça-se cada vez mais enquanto crescemos. Nunca paramos
de investigar. [...] o maior truque de nossa espécie para continuar a sobreviver. A
atração pela novidade foi designada neofilia (amor ao que é novo), em contrate
com neofobia (medo do que é novo). [...] Tudo aquilo que não se conhece é
potencialmente perigoso. [...] O instinto neofílico tem de nos conduzir e nos
manter interessados até conhecermos o desconhecido, até que a familiaridade
conduza ao desprezo, embora o progresso nos tenha oferecido uma experiência
válida que guardaremos até precisarmos de a utilizar ulteriormente. [...] felizmente
para a espécie, existe sempre um número de adultos suficiente que mantém a
curiosidade e a invenção juvenis, e que leva as populações a progredir e expandir-
se. (idem, p.136-138).
A seguir Morris apresenta como a neotenia, neofilia e neofobia em conjunto
influenciam a curiosidade e a capacidade de desenvolvimento das crianças e dos chimpanzés
para a produção de desenhos:
Tanto em chimpanzés quanto em crianças, o primeiro interesse por esse tipo de
atividade [desenho de bonecos] surge por volta de um ano e meio de idade. Mas o
verdadeiro ímpeto, com garatujas múltiplas, arrojadas e seguras não aparece antes
dos dois anos. Por volta dos 3, a criança média entra numa nova fase gráfica:
começa a simplificar as garatujas confusas. Dá-se o aparecimento das formas
básicas, a partir do excitante caos. Experimentam-se cruzes, depois círculos,
quadrados e triângulos. Esboçam-se também linhas sinuosas à volta da página, as
quais acabam por se ligar entre si. [...] Os riscos passam a ser contornos. [...] O
chimpanzé jovem consegue rabiscar imagens divertidas, cruzes e círculos, pode até
mesmo desenhar um ”círculo marcado”, mas não passa daí. [...]. A fase da
experimentação abstrata, de invenção pura foi ultrapassada. Visa-se a um novo
objetivo: aperfeiçoar a figuração. [...] os jovens chimpanzés não são capazes de
atingir esse nível. Depois de alcançar o cume – desenhar um círculo e marcá-lo por
dentro – , o animal continua a crescer, mas o desenho fica por aí. [...] Os primeiros
desenhos e pinturas, tanto no chimpanzé quanto na criança, nada têm que ver com
comunicação. São atos de descoberta, de invenção, de experimentação das
possibilidades da variedade gráfica. o atos de pintura e não de “transmissões”.
Não exigiam recompensa, visto que constituíam por si a recompensa tratava-
se de brincar por brincar. [...] a emoção pura de “viver uma aventura a partir de um
riso”. (MORRIS, idem, p.140-142).
É precisamente essa emoção de viver uma aventura proporcionada pelos atos de
descoberta, de invenção, de experimentação das possibilidades que leva alguns humanos ao
desenvolvimento das ciências, técnicas e tecnologias. O espírito explorador do macaco nu
emancipou-se de sua idade e não está condicionado exclusivamente a necessidades
específicas. Aquilo que é descoberto em determinado momento pode ser aplicado em outro,
[...] com o tempo os diferentes progressos técnicos se inter-relacionam cada vez
mais [...] o instinto explorador [...] segue as mesmas regras de brincadeira [...] Na
investigação “pura”, o cientista utiliza sua imaginação praticamente da mesma
maneira que o artista. [...] Tal como o artista o cientista dedica-se à investigação
pela investigação. [...] existe uma batalha entre os instintos neofílicos e neofóbicos
[...] se perdemos nossa neofilia, acabamos por estagnar. Se perdemos a neofobia,
acabamos por nos atirarmos de cabeça para o desastre. (idem, 146-147).
Ao final dessa busca pelo conhecimento acerca da natureza humana e do
funcionamento de sua mente, dentre todas as teorias apresentadas oriundas da filosofia,
sociologia, psicologia, história e antropologia o zeitgeist naturalista é o que apresenta as
teorias mais sustentáveis acerca da natureza humana.
Entretanto faltam-nos ainda comprovar conclusivamente como ocorre a cognição
humana e fornecer uma base conceitual para a integração da mente e do cérebro.
2.4 - VISÃO NEUROCIENTÍFICA DA NATUREZA HUMANA
A Neurociência cognitiva ainda está longe de apresentar respostas para muitas
perguntas acerca de como a experiência mental é criada no cérebro? Ou seja, de que forma o
sentimento, pensamento e experiência consciente resultam da atividade cerebral?
Para responder esse tipo de pergunta e considerando que experiências mentais podem
ser pesquisadas nos cinco níveis de análise discutidos anteriormente Sistema cognitivo,
Operação mental, Domínio de desempenho, Sistema neural e Celular –, os neurocientistas
podem utilizar-se simultaneamente dos níveis de Sistema neural e Domínio de desempenho, já
que trata-se exatamente de explicar como mente e cérebro se interrelacionam durante a
execução de certos tipos de tarefas.
Para isso utilizam dois métodos de pesquisa. No caso de Sistema neural são
realizadas análises de imagens obtidas por TC de raio-X, PET, RM e medição de tempos
obtidos por EEG, além de análise de pessoas com lesões no cérebro. No caso do Domínio de
desempenho são realizados estudos cognitivos com o propósito de identificar a formação de
106
107
redes neurais associadas a eventos experimentais modelados para propósitos específicos.
Esse tipo de pesquisa é possível e os resultados são confiáveis porque podemos
medir e mapear visualmente quais áreas do cérebro são ativadas quando os sujeitos da
experiência visualizam cores ou movimentos ou quando os sujeitos passam de um interesse
passivo para uma procura ativa, como quando procuramos um rosto na multidão; ou como o
fato de prestar atenção se relaciona com alterações no interior de redes cerebrais específicas;
ou para examinar o que muda no cérebro dos sujeitos quando lêem ou falam palavras, ou
refletem sobre o significado das palavras; ou as diferença apresentadas no cérebro dos sujeitos
das experiências quando falam na lingua-mãe ou em uma língua estrangeira; ou quais áreas do
cérebro dos sujeitos são afetadas ao lerem uma palavras que podem conduzir a imagens ou a
sons interiores; ou o que ocorre do ponto de vista neurofisiológico quando os sujeitos são
estimulados a pensar em situações felizes ou tristes. Em todos estes casos há a evidência clara
de que os sujeitos estão em estado de consciência.
Neste caso, como em outros que não foram arrolados, uma característica comprovada
e fundamental está presente e consiste no fato de que:
Quando nos concentramos numa tarefa específica e nos abstraímos de alternativas
que nos distraem, algumas redes especiais são ativadas no nosso cérebro. O papel
dessas redes é atribuir os recursos limitados do rebro à tarefa em questão. Estas
são as redes de atenção, dentro das quais foram identificadas 3 classes principais
[...] Estes três tipos de rede ajudam-nos a orientarmo-nos para uma determinada
parte do nosso ambiente, a detectar um rosto ou objecto familiar nesse ambiente e
a manter um estado de vigilância. (POSNER,idem, p.36)
Ainda segundo Posner (idem, p.164):
Os últimos cinco anos testemunharam um tremendo avanço de nosso entendimento
de três redes a orientação, a detecção de eventos e a manutenção de estado de
vigília, cada uma delas desempenhando um papel importante para a atenção
seletiva. [...] com um melhor entendimento da forma como essas redes funcionam,
chegaremos a uma compreensão dos sistemas cerebrais que apóiam a consciência.
Em experiências realizadas em terminais de computadores nos quais os sujeitos são
chamados a orientar sua atenção para um padrão visual complexo e a pressionar teclas
diferentes em função dos locais ou formatos nos quais pistas (ou alvos) aparecem, alguns fatos
concretos têm sido repetidamente obtidos:
[...] a orientação da atenção visual depende de uma seqüência de operações
mentais elementares que incluem desligar o atual foco de atenção, deslocar a
atenção para a localização indicada pela pista e ampliar o alvo. [...] As imagens de
PET do lobo parietal superior direito parecem mostrar duas áreas algo separadas,
uma para as mudanças de atenção no campo visual direito e uma para as mudança
no campo visual esquerdo. [...] enquanto o sujeito estava a processar o padrão
complexo, a atividade aumentava no pulvinar mas não no córtex visual primário,
áreas circundantes do tálamo ou outras áreas visuais. Parece que o pulvinar está
especificamente envolvido na filtragem de localizações irrelevantes no campo
visual. A informação que resta na área visualizada após a filtragem é então enviada
para continuar a ser processada. [...] A correspondência entre estas operações
elementares e áreas cerebrais específicas apóia a idéia de que as operação
elementares o desempenhadas em áreas cerebrais distintas. [...] Talvez não seja
coincidência o facto de que aquilo a que chamamos operações cognitivas de alto
nível envolverem sistemas cerebrais largamente espalhados. Pode ser uma
característica da cognição o fato de empregar áreas separadas do cérebro e exigir,
assim, uma verdadeira coordenação para a sua execução (idem, p.167-177)
Essas conclusões são corroboradas por experiência realizadas com pessoas que
sofreram lesões cerebrais e que demonstram aspectos diferenciados de atenção espacial em
função da lesão encontrar-se nos hemisférios direito ou esquerdo. Se forem mostradas grandes
figuras construídas por figuras mais pequenas, no primeiro caso (lesão no hemisfério direito)
o sujeito tende a negligenciar as figuras maiores e 'ver' somente as menores. No caso de lesões
no hemisfério esquerdo, o sujeito tende a negligenciar as figuras pequenas.
Quando o sujeito desloca sua atenção para outro local e o registro do conteúdo novo
avança no cérebro, entra em ação a segunda rede, chamada rede de atenção executiva ou
detecção, com a incumbência de trazer o novo objeto focalizado pela rede de orientação visual
à consciência. Entretanto, segundo Posner:
A detecção é mais que o reconhecimento consciente da presença de um objecto.
Pode também incluir o reconhecimento da identidade do objeto e a compreensão
de que o objeto cumpre uma finalidade procurada; talvez seja, por exemplo, a
única palavra que se refere a um animal numa lista de plantas. Nesse sentido, a
detecção é a execução consciente de uma instrução. [...] A detecção desempenha
um papel especial na seleção de um alvo de entre várias alternativas. As pessoas
podem controlar vários canais de entrada ao mesmo tempo, fiscalizando a entrada
de um alvo, uma vez que o início de um sinal proveniente de outro alvo atrai a
atenção, mesmo quando esta se encontra focada noutro lugar. [...] O leitor pode
estar a ler este livro e ser interrompido por uma chamada para jantar. No entanto,
se surgir algo no texto que o interesse especialmente, poderá ignorar essa chamada.
A detecção de alvos absorve a atenção de uma forma que resiste a interferências
por parte de outros sinais e representa, assim, um tipo diferente de atenção em
relação à simples orientação com base numa pista. (POSNER, p.178-179).
Outra descoberta relevante foi o fato de que as redes não possuem, necessariamente,
uma estrutura fixa e que outras áreas do cérebro são incorporadas às redes de atenção
108
109
executivas quando a tarefa realizada pelo sujeito implica conflitos ou outras tarefas de maior
complexidade, Nos relata Posner que:
Numa experiência era pedido aos sujeitos que nomeassem a cor da tinta usada para
imprimir um palavra. Quando a própria palavra se referia a uma cor diferente,
acharam muito mais difícil fazê-lo do que quando a palavra não se referia a uma
cor ou referia a mesma cor da tinta. Esse efeito de Stroop, como é designado, tem
sido uma característica definidora de um processamento atento e esforçado. O
sistema singulado anterior está mais ativo durante os testes da tarefa de Stroop, em
que existe conflito, do que durante os testes em que esse conflito não existe.
Presumivelmente, o córtex singulado anterior inibe a resposta automática ao nome
da palavra, de modo a que o nome menos compatível da cor da tinta possa ser
referido. [...] As teorias cognitivas identificaram o controlo da atenção de alto
nível, não com a resolução de conflitos, mas também como o planejamento,
detecção de erros e resposta a estímulos difíceis ou completamente novos.[...] Por
exemplo, [...] as palavras podem ligar-se as suas associações semânticas de forma
relativamente automática, pelo menos em algumas condições. No entanto, o fato
de se prestar atenção aos significados de uma palavra pode modificar esse efeito.
Se pensarmos na palavra 'palma' como uma árvore, as palavras 'ulmeiro' e
'carvalho' são ativadas mas o significado de 'palma' como palma da mão é
suprimido. O fato de prestar atenção à categoria semântica 'árvore' retarda a
velocidade com que são evocadas palavras como 'dedo', da categoria 'partes do
corpo'. (idem, p.181)
A possibilidade de obtermos imagens da mente durante a realização das tarefas
possibilita realizações impressionantes e que confirmam cientificamente as teorias, mesmo
que incompletas, da relação entre os níveis de Domínio de desempenho e Sistema neural a
exemplo do que nos relata Posner em outro trecho de sua obra:
[...] experiências com PET [...] revelaram que as áreas frontais laterais do
hemisfério esquerdo desempenham um papel na obtenção de associações de
palavras. Acreditamos que estas áreas operam com o cortex cingulado anterior para
produzir aquilo a que se chama frequentemente memória de trabalho. A memória
de trabalho é simultaneamente a representação de informação, na sua ausência, e o
controle da ativação destas representações. Para obter associações de palavras, é
necessário ativar palavras relacionadas e escolher qual destas ativações será usada.
Se lhe for pedido para dar a categoria a que pertence a palavra 'cão' por exemplo, é
necessário inibir a associação, provavelmente mais forte ('gato'), para responder
corretamente com uma associação mais fraca: 'animal'. Acreditamos que o lobo
frontal lateral, juntamente com o córtex singulado anterior, realiza essa forma de
processamento. Se tivesse respondido com a primeira coisa que lhe viesse à mente,
teria sido provavelmente ativado o percurso insular, mais automático. Se forem
necessárias várias associações ou o processo for sustentado durante algum tempo,
ou ainda se estiverem a ser associadas frases completas, a área de Wernicke
também será ativada. [...] Essas três áreas, por si sós, não esgotam a extensão da
rede de extensão executiva. Além disso, parece que quanto mais uma tarefa precisa
de uma resposta verbal ou outra resposta motora, tanto maior será a ativação acima
do córtex cingulado anterior, naquela que é designada como área motora
suplementar. (idem, p.183)
Continua a nos explicar Posner:
[...] pedimos aos sujeitos que identificassem conjunções com duas categorias
especificadas, ou seja, uma letra mais escura e a pertença a uma categoria
semântica especificada, no caso 'objeto fabricado'. Descobrimos que
desempenhavam o cálculo visual ou o cálculo semântico em primeiro lugar,
dependendo de nossas instruções. Acreditamos que a ordem dos lculos é
determinada pelo grau de associação levada a cabo, com base nos cálculos, pela
rede de atenção executiva. Quando é dada prioridade ao cálculo semântico, a rede
executiva ativa as áreas frontais laterais e a categoria semântica é avaliada em
primeiro lugar. Quando é dada prioridade à característica visual, a rede executiva
ativa áreas mais posteriores relacionadas com características visuais e as letras
mais escuras são analisadas em primeiro lugar. (idem, p.184)
Ao iniciarmos o relato das conclusões obtidas pela neurociência com relação a
formação de redes neurais mencionamos a existência de três delas. Apresentamos uma
razoável idéia de como se formam redes para orientação visual e de atenção executiva para
detecção de eventos. A terceira categoria de rede esdirecionada à manutenção do estado de
vigília e envolve alterações de ordem química, como nos demonstra Posner:
Um dos maiores problemas da atenção é manter um estado sustentado de vigília.
Suponhamos que se apresenta aos sujeitos uma lista de palavras, uma a uma,
pedindo que escolham as que se referem, por exemplo, a animais. Para
desempenhar capazmente a tarefa, teriam de manter o estado de vigília se fosse
necessária uma resposta rápida a uma palavra-alvo ou se a palavra alvo aparecesse
de longe a longe. Durante este estado, verificam-se alterações físicas no cérebro e
no corpo que tendem a acalmar o corpo. A pulsação cardíaca abranda. A atividade
elétrica registrada a partir do couro cabeludo reduz-se. No entanto, os exames PET
mostram o fluxo sanguíneo a aumentar consideravelmente nos lobos parietal
direito e frontal direito. Estas áreas podem fazer parte de uma rede responsável
pela manutenção do estado de vigília. [...] Para determinar a origem dessas
alterações, temos que observar a atividade da norepinefrina, um produto químico
liberado por um pequeno núcleo de células do mesencéfalo, designado locus
coeruleas. Os neuroquímicos o substâncias que afetam a forma como as células
nervosas reagem a impulsos de outras células. São conhecidos por exercerem uma
influência na excitação emocional, no sono e nos distúrbios mentais. Pensa-se que
a norepinefrina aumenta em muito a relação sinal/ruído de fundo das áreas
cerebrais em que é liberada. Cremos que sua presença cria um estado de vigília.[...]
É surpreendente que a rede de vigília favoreça um hemisfério.[...] a vigília
aumenta a ativação no lobo frontal direito. [...] à medida em que esta ativação
aumenta, o córtex singulado anterior permanece calmo. Se o córtex singulado
anterior desempenha um papel na detecção de alvos, a sua falta de ativação faz
sentido. Nas tarefas em que é necessária uma supressão da atividade, enquanto se
aguardam sinais pouco freqüentes, é importante o realizar nenhuma atividade
mental que possa interferir com a detecção do evento exterior. Subjetivamente, a
pessoa sente a cabeça vazia, enquanto tenta evitar qualquer pensamento
110
111
distratores. (idem, p.184-185)
As pesquisas acerca das redes de vigília também têm demonstrado uma relação direta
destas com os sistemas sensoriais de modo que:
[...] a vigília também exerce um efeito claro sobre a orientação. Anatomicamente, o
locus coeruleas possui ligações particularmente fortes com o lobo parietal,
pulvinar e colículo todos elementos que fazem parte do sistema de orientação
visual. As ligações diretas entre o sistema de norepinefrina e o percurso de
reconhecimento do objeto são muito mais fracas. Assim, é provável que a vigília
sirva para manter a atenção focada nas informações que são captadas. No
seguimento de sinais de aviso, o tempo de reação é reduzido mas também ocorrem
mais falsas partidas e erros, o que sugere que o aviso aumenta principalmente a
velocidade de resposta e não a qualidade das informações sensoriais. (idem,
p.185-186).
Outra constatação importante diz respeito a interação entre as três categorias de redes
que foram mencionadas. Para provar a existência dessas ligações foram criadas tarefas
experimentais que permitiram o exame da relação entre a orientação espacial e a atenção à
linguagem, para determinar se a rede de orientação espacial representava um módulo
independente ou se era controlada pela rede de atenção executiva geral. A tarefa consistiu em
pedir a cada sujeito que realizasse três tarefas em simultâneo. A primária envolvia a rede de
orientação visual e implicava a atração da atenção por um alvo e o correspondente
acionamento de uma tecla. As outras duas tarefas secundárias evocaram sistemas de
linguagem, não exigia a utilização da visão ou que efetuassem qualquer outro movimento
físico.
Assim, até onde nos era possível determinar, as duas tarefas eram separadas
relativamente às suas exigências manuais. Os resultados, contudo, mostraram
claramente que as duas tarefas interagiam de forma interessante. Quando
realizavam a tarefa dupla, os sujeitos respondiam mais lentamente a estímulos
visuais e também se orientavam mais devagar na direção de possíveis pistas.
Assim, a tarefa da linguagem, por exemplo, fez uso do sistema de atenção
executiva, atrasou o processamento de pistas visuais pelo sistema posterior.
Evidentemente que a orientação visual exige o acesso à rede executiva. Essa
experiência teve outro resultado importante. [...] a ligação da rede executiva à
tarefa da linguagem não criou um défice na orientação contralateral. Os dois
resultados, tomados em conjunto, levara-nos a concluir que a orientação visual
exige acesso a rede executiva (como também é sugerido pelos estudos de PET) e
que as operações realizadas pela rede executiva são muito diferentes das realizadas
pela rede de orientação visual. [...] Quando é pedido a sujeitos normais que
repitam uma mensagem enquanto estão concentrados na tarefa de orientação, a sua
orientação em relação a uma pista visual também sofre um atraso. Essa conclusão
apóia a perspectiva de que a rede executiva exerce uma forma de controle sobre a
rede de orientação. Parece que para concentrar a rede de orientação, de modo a que
uma pista seja eficaz na deslocação da atenção, o sistema executivo deve estar
livre para emitir um tipo de comando. Se, por exemplo, o sistema executivo estiver
concentrado no controle da linguagem, o sistema posterior não se orienta tão
rapidamente para o local da pista. [...] muitas experiencias sugeriram que os
sujeitos podem controlar paralelamente várias correntes de informação ao mesmo
tempo, sem perderem a capacidade de detectar alvos. Por exemplo, se o sujeito
tiver de prestar atenção a duas correntes de informação uma entrando pelo
esquerdo e outra pelo direito, a capacidade de detectar alvos mantêm-se normal,
desde que apenas um alvo seja apresentado de cada vez. No entanto , se for
detectado um alvo numa das correntes de informação, as hipóteses de detectar um
alvo em simultâneo na outra corrente são muito reduzidas. (idem, p.187-188).
As experiências também demonstraram não somente a interação entre as redes mas
também a existência de uma hierarquia entre elas, em função da atividade realizada, e que em
última análise traduz-se na própria consciência.
A idéia geral é de que quando o alvo é detectado pela rede executiva, outras
informações não relacionadas com o alvo podem ser processadas num nível
superior, mas as redes de atenção não estão disponíveis para proporcionar um
acesso de alta prioridade às informações. Isso parece muito com aquilo a que
chamamos consciência, pelo menos sob a forma de conhecimento consciente focal.
[...] se definirmos consciência em termos de conhecimento consciente, é
necessário mostrar provas de que a rede de atenção anterior está relacionada com
relatos fenomenais de forma sistemática. (idem, p.188)
Nesse sentido podem ser relacionados cinco pontos que seguidamente parecem
relacionar a consciência subjetiva com a ativação do sistema de atenção executiva:
Primeiro, numa tarefa de controle semântico a rede executiva mostra uma ativação
mais intensa à medida em que o número de alvos aumenta. [...] a detecção de alvos
estava efetivamente dissociada da dificuldade da tarefa. Mesmo assim, o córtex
cingulado anterior mostrou uma ativação maior, à medida que o número de alvos
aumentava. Alem disso, verificou-se uma redução na mesma ativação, à medida
que a tarefa se automatizava com a prática. Ambos os efeitos apóiam a conclusão
comum, em estudos cognitivos, de que a atenção consciente está envolvida na
detecção de alvos e é necessária no início da prática. À medida em que o sujeito
adquire mais prática, as sensações de esforço e atenção contínua diminuem e os
pormenores do desempenho afastam-se da experiência subjetiva. [...] Segundo,
parte da rede executiva, incluindo o cortex cingulado anterior ou os gânglios
basais, parecem estar ativas quando o sujeito tem que avaliar simultaneamente
vários atributos de alvo, como a cor, a forma, o movimento ou a semântica das
palavras. Subjetivamente, parecemos chamar à nossa consciência eventos
particulares designados como alvos [...] Terceiro, a rede executiva é acionada
quando os sujeitos ouvem passivamente palavras, mas não quando observa essa
palavras. Essa conclusão parece corresponder subjetivamente à intrusão de
palavras apresentadas num ambiente de fundo silencioso. As palavras faladas em
voz alta parecem captar o conhecimento consciente. A leitura não tem este caráter
de intrusão. Para que uma palavra visual domine a consciência, é necessário um
ato de orientação [...]. Quarto, a rede executiva está mais ativa durante os ensaios
112
113
com teste de Stroop, nos quais a cor da tinta e o nome da palavra se contradizem,
do que durante os testes em que isso não acontece. A atividade da rede durante os
testes de conflito corrobora a idéia comummente aceita de que o conflito entre o
nome da palavra e a cor da tinta produz um esforço consciente para inibir, por
exemplo, a palavra escrita. [...]Finalmente, existe uma relação entre o sistema de
vigília e o conhecimento consciente. Quando uma pessoa presta atenção a,
digamos, uma lista de palavras para detectar um alvo pouco frequente, a sensação
subjetiva é a de ter a cabeça vazia de pensamentos ou sentimentos. Esta limpeza
subjetiva da consciência parece ser acompanhada por uma ativação acrecida da
rede de vigília dos lobos parietal e frontal direitos e por uma falta de ativação do
córtex cingulado anterior. Da mesma forma que as sensações de esforço causadas
pela detecção de alvos são acompanhadas pela ativação do córtex cingulado
anterior, também a limpeza do pensamento pode ser acompanhada pela sua
imobilidade. (POSNER, idem, p.188-189)
Como mencionamos anteriormente, outra ciência que tem emprestado grande
contribuição à compreensão do funcionamento da mente e do cérebro e que corrobora com as
descobertas da neurociência cognitiva é a Inteligência Artificial. Esse campo trabalha,
normalmente, nos níveis superiores das Operações Mentais e Sistemas Cognitivos. São,
fundamentalmente, duas as preocupações dos pesquisadores em IA: Representações de
Conhecimento e Busca. A Representações de Conhecimento trata do problema de capturar
numa linguagem formal, de modo que possa ser manipulada em computador, um conjunto de
informações que represente toda a extensão de conhecimento necessário para identificar um
comportamento inteligente. Enquanto a Busca é uma técnica para solucionar problemas
explorando sistematicamente os estágios sucessivos e alternativos no processo de solução de
problemas.
De fato, paralelamente aos esforços da psicologia e da neurociência, a partir da
década de 1950, cientistas do campo da Inteligência Artificial têm se dedicado a definir
sistemas computacionais que permitam representar 'imagens' do mundo real nos cérebros dos
computadores e simular operações mentais humanas.
As aplicações das técnicas e sistemas de IA podem ser aplicadas a qualquer processo
que requeira a simulação de aspectos da inteligência humana. Dentre essas áreas encontram-se
aplicações práticas em jogos; raciocínio automático e prova automática de teoremas; sistemas
especialistas; compreensão da linguagem natural e modelagem semântica; modelos de
desempenho humano; planejamento e robótica; aprendizagem pelas máquinas digitais;
representações de redes neurais e algoritmos genéticos.
Uma premissa aceita pelas diversas corrente teóricas da IA, e são deveras muitas, é
que a inteligência, principal objeto de pesquisa dessa ciência, é complexa demais para ser
descrita por uma única teoria. A partir dessa premissa está sendo construída uma
hierarquia de teorias com múltiplos níveis de abstrações. Esses níveis de análise são
aproximadamente os mesmos cinco níveis utilizados na Neurociência e já apresentados antes.
Esse modo de 'olhar' os processos mentais pela neurociência cognitiva, decompondo-
os e simulando as operações cognitivas com sistemas de Inteligência Artificial, trouxe uma
perspectiva diferente, que revolucionou os estudos da mente:
A capacidade para decompor o processamento de uma palavra nos seus códigos
léxicos subjacentes proporciona uma forma diferente de olhar a mente. A
linguagem deixa de ser encarada como um processo simples; a representação
mental de uma palavra passa a ser vista como envolvendo vários códigos, dos
quais alguns atributos podem pertencer a objetos visuais e outros a sons ou
significados. O fato de encararmos a cognição como sendo constituída por códigos
componentes, calculados de forma diferente e programados para desempenhar
tarefas cotidianas complexas, tais como ler, conduz naturalmente a novas maneiras
de pensar a forma como o cérebro pode organizar os processos do pensamento. Os
códigos componentes de um acontecimento tornam-se candidatos à função de
circuitos neurais específicos ou conjuntos de células. [...] A capacidade de registar
a atividade de células individuais no cérebro de anormais despertos conduziu a
uma enorme expansão do nosso conhecimento da estrutura dos sistemas sensoriais
e motores. [...] Com base nestas descobertas existe um consenso geral na
comunidade neurocientífica quanto ao fato de, nos sistemas sensorial e motor, um
tipo específico de análise ou operação ser realizado por uma rede localizada de
forma precisa. [...] Felizmente, os estudos cognitivos dos últimos 30 anos
forneceram uma base para decompor o comportamento complexo. Esses estudos
proporcionaram seqüências de operações mentais hipotéticas mas corretas quanto
ao raciocínio. Embora não possamos ter certeza de que as seqüências são reais,
podemos testar a sua realidade no processo de localizar as áreas cerebrais
correspondentes (POSNER, idem, p.23-26).
Por último, é importante salientar que a área da Inteligência Artificial, em suas ações
para desvendar como o cérebro cria a experiência mental, não pode ser vista como produtora
de software para uso em pesquisas de neurociência cognitiva. Pelo contrário, embora tenha
suas origens no campo da matemática e da lógica, desenvolveu processos para atender,
também, as perspectivas das várias formas de relativismo filosófico que passaram a questionar
a base objetiva da linguagem, da ciência, da sociedade e do próprio pensamento na última
metade do século XX.
Segundo Luger, muitos especialistas de IA incorporaram estas críticas em novos e
excitantes modelos de inteligência:
Mantendo a ênfase de Wittgenstein sobre as raízes antropológicas e culturais do
conhecimento, eles se voltaram, como inspiração, para modelos sociais de
comportamento inteligente, algumas vezes chamados de 'situados'. [...] retiraram a
114
115
ênfase na lógica e no funcionamento da mente racional, num esforço para alcançar
a inteligência modelando a arquitetura do cérebro físico. [...] Os modelos neurais
da inteligência enfatizam a habilidade do cérebro em se adaptar ao mundo no qual
ele está inserido, pela modificação dos relacionamentos entre neurônios
individuais. Em vez de representar o conhecimento por sentenças lógicas
explícitas, eles capturam o conhecimento implicitamente, como uma propriedade
de padrões de relacionamentos. (LUGER, idem, p.34-35)
Tampouco foram desprezadas as teorias biológicas da evolução das espécies e da lei
da seleção e de forma a implementá-las em sistemas computacionais criaram modelos de
inteligência baseado na biologia, inspirados nos processos pelos quais espécies inteiras se
adaptam ao ambiente:
Os trabalhos em vida artificial e em algoritmos genéticos [...] aplicam princípios
da evolução biológica aos problemas de encontrar soluções para problemas
difíceis. Estes problemas não resolvem problemas raciocinando logicamente sobre
eles; em vez disso, eles geram populações de soluções candidatas competidoras e
as forçam a evoluir para soluções melhores por um processo que imita a evolução
biológica: soluções candidatas pobres tendem a se extinguir, enquanto aquelas que
se mostram mais promissoras em resolver um problema sobrevivem e se
reproduzem construindo novas soluções, a partir de componentes de seus pais bem
sucedidos. (LUGER, idem, p.36).
A utilização de sistemas sociais como metáforas para resolução de problemas
complexos também foi um recurso aplicado pelos cientistas de IA. Um exemplo típico está na
dificuldade de qualquer pessoa em planejar a quantidade de pães que deveriam ser
produzidos, e em quais locais, em Nova York, de forma a assegurar que pão não faltasse ou
sobrasse. Entretanto, os fabricantes de pão, mesmo sem possuírem qualquer acesso à
informações coletivas realizam essa façanha diariamente, com eficiência. Outra metáfora é a
facilidade com que o 'mercado' de ações fixa o valor relativo de milhares de empresas. Um
último exemplo vem da ciência moderna:
Indivíduos localizados nas universidades, na indústria ou em instituições
governamentais enfrentam problemas comuns. Problemas importantes à sociedade
como um todo são atacados por agentes individuais agindo quase que
independentemente, tendo conferências e revistas científicas como principais
meios de comunicação, embora o progresso, em muitos casos também seja
conduzido por agências de fomento. Esses exemplos pontificam dois temas:
primeiro, a visão de agentes da inteligência como enraizada na cultura e sociedade
e, como conseqüência emergente. O segundo, que a inteligência é o reflexo do
comportamento coletivo de um grande número de indivíduos semi-autônomos
muito simples que interagem entre si, ou agentes. Quer estes agentes sejam redes
neurais, ou membros individuais de uma espécie, ou ainda, uma única pessoa de
uma sociedade, as suas interações produzem inteligência. (LUGER, idem, p.36)
Diante do exposto é impossível deixar de reconhecer a importância de considerar
as teorias relacionadas à natureza humana propostas pelas novas Ciências da Mente, que, em
bases científicas empíricas nos levam a uma série de conclusões importantes.
dissemos, e comprovamos, que a perspectiva de nossas visões científicas estão
diretamente relacionadas com o espírito do tempo no qual vivemos. Nessa onda de zeitgeist
da Ciência da Mente que agora se apresenta, na qual a ciência e a tecnologia podem ser
utilizadas como critério de demarcação de falseabilidade das teorias e pressupostos do
passado acerca da natureza humana, analisando 'cérebros' e 'mentes', em pesquisas empíricas
realizadas em laboratórios com o uso de computadores e energia nuclear, podemos afirmar
que o macaco pelado, não nasce com uma tábula rasa. Isso confirma a genialidade de
Descartes quando este afirma, racionalmente, que o homem nasce com uma alma. De fato
um 'fantasma' nessa máquina, se a palavra alma for empregada na perspectiva de tratar-se a
alma da carga genética herdada de nossos antepassados. Também podemos dizer que a
Escolástica passou perto da verdade ao afirmar que a humanidade nasce com o pecado
original, afinal essa codificação inata transferida através de nossos pais nada mais é que o
conjunto de instintos que nossa espécie desenvolveu, durante milhões de anos em sua luta
para a preservação da espécie.
Assim, fazemos nossas as palavras de Steven Pinker (2002, p.67) para sintetizar a
idéia dessa verdadeira revolução cognitiva, resultante da união de esforços em pesquisas
transdisciplinares:
A idéia aventada pela revolução cognitiva de que a mente é um sistema de módulos
computacionais gerativos universais lança por terra as bases sobre as quais o
debate sobre a natureza humana foi travado por séculos. [...] Os humanos
comportam-se de maneira flexível porque são programados: suas mentes são
dotadas de software combinatório capaz de gerar um conjunto ilimitado de
pensamentos e comportamentos. O comportamento pode variar entre as culturas,
mas a estrutura dos programas mentais que geram o comportamento não precisa
variar, O comportamento inteligente é aprendido com êxito porque temos sistemas
inatos que se incumbem do aprendizado. E todas as pessoas podem ter motivos
bons ou maus, mas possivelmente nem todas os traduzirão em comportamentos da
mesma maneira. [...] Pode-se afirmar que a atividade de processamento de
informação do cérebro causa a mente, ou pode-se afirmar que ela é a mente, mas
em qualquer dos casos são incontestáveis os indícios de que todo aspecto de nossa
vida mental depende inteiramente de eventos fisiológicos nos tecidos do cérebro.
Quando um cirurgião manda uma corrente elétrica para o cérebro, a pessoa pode
ter uma experiência vivida, tal como na vida real. Quando substâncias químicas
penetram no cérebro, podem alterar a percepção o humor, a personalidade, e o
raciocínio de uma pessoa. Quando morre um pedaço de tecido cerebral, uma parte
116
117
da mente pode desaparecer; um paciente neurológico pode perder a capacidade de
dizer o nome de utensílios, reconhecer rostos, prever o resultado de seu
comportamento, ter empatia por outras pessoas ou ter noção de uma região ou
espaço do próprio corpo.
Se é certo que não podemos assegurar o quanto dos componentes ambientais, tais
como a sociedade e cultura, condicionam o comportamento e personalidade dos indivíduos,
por outro lado, as novas ciências nos dão provas razoáveis de que estes estão em grande parte
condicionados à formação genética e, portanto, a influenciar nossas posturas com relação ao
sexo, a violência, a familia, ao gênero e as paixões da alma. As mal sucedidas experiências de
reengenharia social Nazismo de Hitler, Comunismo de Stalin e o Maoismo Chinês são
provas vivas da impossibilidade de sufocar os aspectos inatos da natureza humana,
acumulados desde que os membros da espécie Homo se separaram dos macacos.
Para Desmond Morris o homem atual ainda carrega muitas heranças genéricas de
seus antepassados o símio que moldam seu comportamento. “A minha justificativa é que,
apesar de ter-se tornado tão erudito o Homo sapiens não deixou de ser um macaco pelado
embora tenha adquirido motivações muito requintadas, não perdeu nenhuma das mais
primitivas e comezinhas.” (MORRIS 1987, p.9). A esses 'instintos' se quisermos, podemos
chamar de inconsciente, como o fez Freud.
Entretanto, o macaco nu tem se mostrado um exímio produtor e usuário de
tecnologias. Seguramente uma das mais importantes, base para a transmissão do
conhecimento adquirido pelas gerações anteriores é a mídia e este é o assunto que
abordaremos no próximo capítulo.
CAPÍTULO III – NATUREZA DAS MÍDIAS
Em sua obra Os Meios de Comunicação como Extensões do Homem (1964) Marshall
McLuhan afirma que os meios de comunicação são tecnologias protéticas criadas pelo homem
para expandir suas capacidades sensoriais e o sistema nervoso central. McLuhan utiliza-se da
metáfora de que o 'meio é a mensagem', entre outros motivos, para mostrar que o conteúdo de
uma mídia é sempre outra mídia. O autor utiliza o exemplo da luz elétrica para comprovar
esse postulado:
A luz elétrica é informação pura. É algo assim como um meio sem mensagem, a
menos que ela seja usada para explicar algum anúncio verbal ou algum nome. Este
fato, característico de todos os veículos, significa que o 'conteúdo' de qualquer
meio ou veículo é sempre um outro meio ou veículo. O conteúdo da escrita é a
fala, assim como a palavra escrita é o conteúdo da imprensa e a palavra impressa é
o conteúdo do telégrafo. Se alguém perguntar, 'Qual é o conteúdo da fala?',
necessário se torna dizer: um processo de pensamento, real, não-verbal em si
mesmo.'. (McLUHAN, 1964, p.22).
Para McLuhan, portanto, veículo e mídia são sinônimos e o 'conteúdo' ou
mensagem – de uma determinada mídia é sempre outra mídia, num processo de recursividade
que se inicia na mente. Se tomarmos por base essa teoria de McLuhan, mídia pode ser
compreendida como um sistema que tem entre seus componentes formadores pelo menos uma
outra mídia e isso permite diferenciar mídias com base em estágios de recursividade em que a
mesmas se encontram. Em outras palavras, podemos dizer que as mídias podem adquirir um
certo grau de recursividade, ou seja, uma certa posição hierárquica no papel de conteúdo-
mídia dos sistemas de mídia.
Por outro lado ao relacionarmos conteúdos de mídia a processos mentais, como o
pensamento, criamos uma forte conexão entre entre a tecnologia mídia e sistemas
cognitivos – a linguagem.
Essa teoria nos permite, portanto, diferenciar a mídia 'palavra falada' possuidora de
um grau menor de recursividade por estar mais próxima da função sensorial humana e da
mente – da mídia 'palavra escrita' e desta com a mídia 'jornal impresso'.
Podemos iniciar essa hierarquia de graus recursivos tomando como primeira
instância de midiatização a relação da mente do indivíduo com a realidade, o meio ambiente.
De fato, qualquer ser vivo tem em seu próprio organismo os mecanismos para relacionar-se
com o meio ambiente. No caso dos seres humanos essa midiatização é feita através do sistema
118
119
biológico que regula seus cinco sentidos: visão, audição, paladar, olfato e tato.
Como vimos em capítulo anterior, os sentidos foram-se desenvolvendo durante a
árdua luta que nossos antepassados tiveram que travar pela sobrevivência, em ambientes
hostis, em constante luta contra outros animais mais fortes e mesmo contra membros de
outros grupos humanos rivais. Nesse processo, alguns órgãos sensoriais desenvolveram-se
mais que outros. Foi esse desenvolvimento biológico, provocado pela evolução e pela seleção
natural, que transformou a visão e a audição nos dois mais importantes mecanismos de
midiatização entre o homem e o meio ambiente. O cérebro desenvolveu-se constantemente e
essa capacidade deu a nossos antepassados a habilidade necessária para que falassem,
fabricassem ferramentas e passassem a cooperar.
A necessidade de cooperação demandou a criação de técnicas e tecnologias que
possibilitassem a comunicação mais precisa da realidade ambiental, das idéias e planos, das
emoções. Com essa finalidade foram sendo criados sons com significados precisos e o
organismo humano, no decorrer do processo evolutivo da espécie desenvolveu uma caixa de
voz capaz de pronunciar palavras. A rigor, a palavra é uma tecnologia de mídia capaz de
representar detalhes do ambiente – naturais ou artificiais – alcançados pelos órgãos sensitivos
humanos. Palavras como longe e perto, barulho e silêncio, doce e salgado, cheiroso e
fedorento, liso ou áspero, são exemplos de tais palavras. As palavras também podem
representar informações abstratas, de algo que não é concreto ou físico, fruto da imaginação
ou emoção humana, tal como ciume, esperança, alegria, amor e ódio. A palavra é, portanto,
ao ser pronunciada e ouvida, uma mídia de primeiro grau recursivo, capaz de conectar
diretamente as mentes dos indivíduos que estão a comunicar-se e transferir conteúdos
simbólicos entre eles.
A palavra é o componente básico da fala. As crianças geralmente aprendem a falar
com facilidade. diversas teorias que tentam explicar esse fenômeno e dentre elas está a
hipótese de que nascemos com a habilidade para associar sons representativos de palavras
com objetos do mundo real, portanto, com a capacidade inata para falar e compreender a fala.
Dentre as teorias que defendem o inatismo capacidade lingüística biologicamente inata
está a de Noam Chomsky. Sobre essa teoria, Paule Aimard, em sua obra O Surgimento da
Linguagem na Criança (1996) nos apresenta a principal idéia de Chomsky ante a
extraordinária rapidez das aquisições de linguagem durante os primeiros anos de vida:
Chomsky(1968) pensa que não se trata de uma aprendizagem, mas da emergência
de estruturas funcionalmente prontas para o uso, pré-programadas. “Todo espírito
humano dispõe de uma estrutura inata que lhe permite construir uma gramática a
partir de dados fornecidos pelo ambiente. Essa aptidão para adquirir a estrutura
da língua é descrita como um dispositivo inato da linguagem (LAD = Language
Acquisition Device), inscrito no potencial genético humano. (AIMARD, 1996,
p.34)
E vai além em sua descrição, de uma definição para o conceito de inato postulado
por Chomsky:
[...] Entretanto, o que poderíamos considerar inato? A capacidade que certos
territórios cerebrais possuem para tratar a linguagem? Certamente. O
funcionamento da inteligência, que encontra na linguagem um terreno de exercício
excepcionalmente produtivo? Sem dúvida, e nesse ponto de acordo com Piaget. As
estruturas profundas de uma gramática universal? Esta é a hipótese de Chomsky: o
mundo que nos rodeia iniciaria e alimentaria programas pré-estabelecidos.
(AIMARD, 1996, p.34)
Portanto, é possível afirmar que a facilidade das crianças para aprender a falar não é,
de acordo com as descobertas da Zoologia e da Ciência da Mente, seguramente, obra do
Fantasma da Máquina de Descartes e nem, tampouco, obra da doutrina representacionista da
Tábula Rasa, aceita com facilidade em nossa cultura, e segundo a qual o conhecimento é um
fenômeno baseado exclusivamente em representações mentais signos –que fazemos do
mundo através de nossas experiências sensoriais.
Estudos neurocientíficos cognitivos realizados com bebês demonstraram que:
À medida em que o sistema visual amadurece durante os primeiros seis meses, o
comportamento infantil parece ser frequentemente dominado pela orientação
visual. Mais tarde, à medida que desenvolve o controle executivo, vemos que o
comportamento é comandado pela lista de preferências do próprio bebê, e
observamos as primeiras tentativas de utilização da linguagem. Por isso é plausível
acreditar que as redes de atividade cerebral local [...] desempenham um papel no
aparecimento de boa parte do comportamento humano” (POSNER, 2001, p.192).
Continuando com sua explicação, Posner nos informa que:
Os bebês começam a articular palavras isoladas entre os 9 e 12 meses de idade;
nessa altura costumam fazer um gesto na direção do objeto nomeado, enquanto
pronunciam a palavra. A utilização inicial das palavras não se pode classificar
realmente como linguagem; pelo contrário, a palavra articulada pode ser vista
como um substituto ao qual se refere. A ligação estreita entre os gestos e a primeira
utilização de palavras pode explicar por que razão a área frontal é ativada de forma
tão consistente quando as pessoas procuram mentalmente o significado das
palavras isoladas. Quando os bebês atingem a idade de 18 a 20 meses, começam
habitualmente a usar palavras em combinação para expressar ideias mais
120
121
complexas. A utilização de palavras como parte da linguagem envolve dois
aspectos da atividade mental. Primeiro, a combinação de palavras começa a exigir
uma gramática ou um conjunto de regras organizacionais. Uma gramática pode ser
vista como uma organização hierárquica do tipo que vimos desenvolvido nesta
idade. Segundo, a utilização de palavras em combinação começa a recorrer ao
sistema de memória de curto prazo, também chamada memória de trabalho. Dessa
forma, a nova capacidade dos bebês para juntarem cadeias de palavras pode dever-
se ao desenvolvimento da memória de curto prazo e da atenção , ligada ao córtex
cingulado anterior e à área frontal lateral esquerda. [...] Mas o domínio súbito da
linguagem por um bebê pode ficar a dever também muito a outras áreas do
cérebro. [...] O início rápido da linguagem falada por volta dos 20 meses de idade
fez com que muitos investigadores postulassem que o amadurecimento dessas
áreas da linguagem devia estar subjacente ao desenvolvimento explosivo da
linguagem infantil. (POSNER, idem, p.210-211)
Essas hipóteses relativas aos bebês são confirmadas por estudos de análise semântica
de palavras realizados por pessoas com lesões cerebrais nas áreas de Broca e Wernicke.
Imagens de PET demonstram que atividade cerebral nessas regiões nesse tipo de atividade
e que lesões na área de Broca interferem na produção de palavras e no processamento
gramatical, enquanto lesões na área de Wernicke prejudicam o entendimento e a expressão de
frases coerentes.
As pesquisas realizadas pela Neurociência Cognitiva também confirmam o fenômeno
da Neotenia apontado por Moris e que podemos constatar do que nos informa Posner:
A capacidade de processar palavras escritas não pode desenvolver-se até que as
crianças aprendam a ler, frequentemente aos seis anos de idade ou mais tarde. O
cérebro continua claramente a mudar a sua organização, à medida que novas
competências vão sendo aprendidas. Verificam-se mudanças mesmo em áreas
visuais extra-estriadas que se pensava estarem completamente formadas à
nascença. Não é surpreendente que o cérebro reorganize a sua atividade quando
novas competências são aprendidas [...]. Existem evidências de que mesmo os
mapas no córtex sensorial primário podem ser alterados se um animal ficar privado
da captação de dados sensoriais ou se forem repetidamente fornecidos os mesmos
dados. No entanto, o sistema cerebral para o processamento de formas visuais de
palavras é muito mais complexo do que estes mapas sensoriais. Deve representar,
de alguma forma, regras ortográficas abstratas da linguagem visual, de modo a que
possam ser ativadas por cadeias de letras que nunca antes foram vistas por uma
pessoa, mas tenham a forma visual de palavras pronunciáveis. [...] Com o
amadurecimento das redes de atenção, os bebes ganham a capacidade de regular
seu próprio comportamento [...]. O sistema de orientação visual parece
desenvolver-se cedo, no primeiro ano de vida. Desde que este sistema entra em
funcionamento, os bebês podem aprender para onde dirigir a atenção de modo a
absorverem a informação que a cultura em que estão inseridos valoriza.
Conseguimos ligar os desenvolvimentos de um sistema de orientação com
mudanças anatômicas conhecidas nas camadas do sistema visual, durante o
primeiro ano de vida. Mais tarde, durante a primeira infância, parecem
desenvolver-se sistemas que permitem a resolução de conflitos simples. Estes
sistemas de atenção mais frontais também parecem ser importantes para a
capacidade de aprender as hierarquias que formam a base da gramática e da
semântica. (idem, p.211-213)
Mas existe uma incógnita importante a ser respondida. Diante das evidências obtidas
através de comparações de DNA que demonstram que o chimpanzé é nosso mais próximo
parente e que quando do desdobramento da ordem dos primatas nas famílias de símios e
hominídeos as espécies possuíam aproximadamente o mesmo tamanho de cérebro. Por quê,
então, somente o hominídio aprendeu a falar? Por quê a neotenia não acometeu a ambos?
Em A Árvore do Conhecimento: As Bases Biológicas da Compreensão Humana
(2001); os biólogos Humberto R. Maturana e Francisco J. Varela afirmam que a explicação
para esse fenômeno está no campo do conhecimento que denominaram de biologia da
cognição. Trata-se de uma teoria bastante complexa cujos princípios básicos explicaremos
superficialmente de forma a favorecer a compreensão do modo como pode ter-se
desenvolvido naturalmente nos humanóides o LAD Dispositivo inato para a Linguagem
preconizado por Chomsky. Maturana e Varela iniciam a obra com explicações acerca do
provável surgimento da vida na terra a partir de condições físicas e químicas pré-existentes e
que teria sido resultado de incessantes transformações que vêm ocorrendo pelo menos
cinco bilhões de anos. Os autores relatam que as possibilidades aventadas por eles já foram
comprovadas em diversos testes de laboratório, sendo uma das evidências mais clássicas um
experimento realizado em 1953, como metáfora dos eventos da atmosfera primitiva.
A idéia de Miller foi simples: colocar dentro de um frasco de laboratório uma
atmosfera que imitasse a primitiva, tanto em composição quanto em radiações
energéticas. Ele a pôs em prática, fazendo com que uma descarga elétrica
atravessasse uma mescla de amoníaco, metano, hidrogênio e vapor d'água. Os
resultados das transformações moleculares podem ser obtidos por meio da
recirculação da água e análise das substâncias ali dissolvidas. Para surpresa de
toda comunidade científica, Miller obteve uma produção abundante de moléculas
como as tipicamente encontradas nos organismos celulares atuais, tais como
aminoácidos alanina e ácidos aspártico e outras moléculas orgânicas, como a uréia
e o ácido succínico. (MATURANA, 2001, p.53).
Este experimento reproduziu o que ocorreu 4 bilhões de anos na terra, constituída
por gases como amônia, metano, hidrogênio e hélio e constantemente submetida a
bombardeios energéticos de radiações ultravioleta, raios gama, descargas elétricas, impactos
meteóricos e explosões vulcânicas. Produziu na terra e em sua atmosfera uma contínua
diversificação das espécies moleculares, até o surgimento de moléculas orgânicas, formadas
122
123
por átomos de carbono. Segundo Maturana e Varela esse é um momento particularmente
interessante, porque os átomos de carbono, sozinhos e com a participação de muitas outras
espécies de átomos, podem formar uma infinita diversidade morfológica e química de
moléculas orgânicas e é “precisamente a diversidade morfológica e química dessas moléculas
que torna possível a existência de seres vivos [...]” (idem, p.44-46).
Os seres vivos, a exemplo das células que os compõem, são uma organização
autopoiética, ou seja uma organização que se caracteriza por se produzirem a si próprios de
modo contínuo, de forma muito peculiar:
Em primeiro lugar, os componentes moleculares de uma unidade autopoiética
celular deverão estar dinamicamente relacionados numa rede contínua de
interações. Atualmente se conhecem muitas transformações químicas concretas
dessa rede e o bioquímico as chama, coletivamente, de metabolismo celular. [...]
esse metabolismo celular produz componentes e todos eles integram a rede de
transformações que os produzem. Alguns formam uma fronteira, um limite para
essa rede de transformações. [...] No entanto, essa fronteira membrana não é o
produto do metabolismo celular tal como o tecido é o produto do tear, porque essa
membrana não apenas limita a extensão da rede de transformações que produz seus
componentes, como também participa dela. Se não houvesse essa arquitetura
espacial, o metabolismo celular se desintegraria numa sopa molecular, que se
espalharia por toda parte e não constituiria uma unidade separada como a célula. O
que temos então é uma situação muito especial, no que se refere às relações de
transformação química: por um lado, é possível perceber uma rede de
transformações dinâmicas que produz seus próprios componentes e é a condição
de possibilidade de uma fronteira; de outra parte vemos uma fronteira, que é a
condição de possibilidade para a operação da rede de transformações [...].
(MATURANA, idem, p.52-54).
Em outras palavras, esses acontecimentos não são seqüência ou possuem qualquer
relação de causa e efeito, ocorrem simultaneamente e se complementam. Desse modo a
organização autopoiética possibilita que os seres vivos sejam distintos em suas estruturas ao
mesmo tempo em que são iguais em suas organizações. Isso explica porque, apesar da
similaridade entre DNA de humanos e mios (organismos praticamente iguais) possuem
diferentes estruturas LAD. Como demonstrou Maturana (ibidem, p.55), “A característica mais
peculiar de um sistema autopoiético é que ele se levanta por seus próprios cordões, e se
constitui como diferente do meio por sua própria dinâmica, de tal maneira que ambas as
coisas são inseparáveis.” A organização autopoiética contribui para as mutações genéticas
necessárias à sobrevivência do ser vivo.
A evolução das espécies, produto da invariância da autopoiese e da adaptação, torna-
se uma deriva natural, sem que seja necessário direcionamento externo para gerar a
diversidade e complementaridade entre organismo e meio. Portanto, como explicou
metaforicamente Maturana, “A evolução se parece mais com um escultor vagabundo, que
passeia pelo mundo e recolhe um barbante aqui, um pedaço de lata ali, um fragmento de
madeira acolá, e os junta da maneira que sua estrutura e circunstância permitem, sem mais
motivos que o de poder reuni-los. E assim, em seu vagabundear vão sendo produzidas formas
intricadas, compostas de partes harmonicamente interconectadas que não são produto de um
projeto, mas da deriva natural.” (idem, p. 131-132).
Como resultado dessa deriva natural, entre outras coisas, os primatas hominídeos
desenvolveram a capacidade de falar enquanto a organização autopoiética dos símios derivou-
os, também naturalmente, possivelmente em função de seu modo de vida, em outra direção.
É difícil precisar quando a capacidade inata para a fala passou a fazer parte da
natureza humana. Nem mesmo se a fala antecedeu a fabricação de ferramentas ou o domínio
do fogo. Estudos atuais sobre a fabricação de ferramentas feitas por chimpanzés sugerem que
é possível que tenha havido produção de ferramentas desde a época em que acidentes de
mutação genética provocaram a divisão entre macacos e humanóides, que os tamanhos dos
cérebros de ambos eram equivalentes. Entretanto, alguns cientistas consideram que os
antepassados comuns, conhecidos como Australopithecus robustus, cuja massa cerebral era de
530 m
3
, foram incapazes de realizar tal façanha.
Somente quando todos os membros da espécie Australopithecines haviam
desaparecido, 1.000.000 de anos depois do surgimento da segunda espécie Homo surgiram os
primeiros indícios, em sítios arqueológicos da Tanzânia, de que o Homo erectus foi capaz de
iniciar a mais velha 'indústria' de ferramentas de pedra lascada e utilizar o fogo, cujos
primeiros indícios datam de 1.500.000 a.C., embora não existam provas conclusivas de que
não haviam simplesmente aproveitado o fogo de queimadas naturais.
Como podemos ver, o momento histórico em que o hominídeo começou a falar,
seguramente um dos mais espetaculares diferenciais humanos com relação a outros seres
vivos, não está claramente definido. Tampouco se a fala técnica que demanda a criação de
sons vocais para representar palavras e atribuir significado às idéias, sensações e objetos
teria sido uma criação do Homo erectus ou do Neandertal ou até de ambos separadamente.
Estudos atuais acerca do comportamento dos macacos demonstram que, além de fabricarem
ferramentas, chimpanzés e gorilas são capazes de desenvolver pensamento e comunicar-se
através de linguagem não-verbal, baseada em chamadas, gestos e atitudes. Esses estudos
124
125
também demonstraram que é possível ensiná-los a usar sinais e símbolos de linguagem do tipo
humana, embora existam fatores biológicos que diferenciam o homo e o símio. Bunch (idem,
p.3) acreditam que é muito provável que tenha sido para atender uma exigência do
comportamento mais complexo de caçador do Homo erectus, em comparação com o do
chimpanzé coletor de alimentos nas copas das árvores, por mais de 2.000.000 de anos, que,
“talvez o Homo erectus tenha inventado a fala juntamente com a aprendizagem para controlar
o fogo”. Por outro lado, Giovanni Giovannini acredita que a fala pode anteceder até mesmo a
descoberta do fogo. Afirma que: “há pelo menos 2,5 milhões de anos existia alguma forma
de código para comunicação oral entre seres humanos [...].” (GIOVANNINI, 1987, p.25-27).
Independentemente de datas precisas ou autoria do fato, o importante é que as
espécies Homo aprenderam a falar e desse modo criaram a primeira prótese para extensão do
sentido auditivo e de atividades cognitivas. De fato, o som da voz se constituiu no primeiro
recurso tecnológico produzido por nossos ancestrais para transferir informações entre si, de
forma mais clara do que seria possível com a mímica, embora está também tenha sido uma
forma de comunicação inventada. Não será exagero afirmar que a fala constituiu-se no
primeiro mecanismo consciente para organização de suas vidas. Como sugere Jared Diamond
em sua obra Armas, Germes e Aço (1997), essa possibilidade, entretanto, não teria sido
possível sem que mudanças importantes tivessem ocorrido na natureza física da espécie:
Obviamente, algumas mudanças importantes ocorreram na capacidade de nossos
ancestrais, entre 100.000 e 50.000 anos atrás. [...] mostrei em meu livro O terceiro
chimpanzé a perfeição da caixa de voz e, em conseqüência, a base anatômica para
a linguagem moderna, da qual tanto depende o exercício da criatividade humana.
Outros sugeriram, ao contrário, que uma mudança na organização do cérebro nessa
época, sem qualquer modificação no seu tamanho, tornou possível a linguagem
moderna. (DIAMOND 1997, p. 40).
De fato as pesquisas atuais nos campos da neurociência cognitiva confirmam as
teorias que ligam o cérebro à capacidade inata do homem para falar. Isso ocorre porque falar
significa mais que pronunciar uma lista de palavras, demanda uma organização sintática, na
qual a posição e o significado de cada palavra nessa seqüência desempenha função específica
e essa construção requer capacidade cerebral específica. Essa capacidade também foi se
desenvolvendo geneticamente, por deriva natural, durante milhares de anos da evolução
humana. Em sua obra Tábula Rasa: a negação contemporânea da natureza humana (2002),
Steven Pinker detalha um pouco mais essa característica da capacidade humana para utilizar a
linguagem verbal:
A linguagem é o epítome do pensamento criativo e variável. A maioria das
emissões vocais são combinações novinhas em folha de palavras, nunca antes
anunciadas na história da humanidade. Não somos como bonecas falantes que m
uma lista fixa de respostas verbais, e embutidas no corpo. Mas, observou
Chomsky, apesar de toda a sua flexibilidade, a língua não é um vale tudo: obedece
a regras e padrões. [...] Alguma coisa na cabeça tem de ser capaz de gerar não só
qualquer combinação de palavras, mas também combinações de palavras altamente
sistemáticas. Essa alguma coisa é uma espécie de software, uma gramática gerativa
capaz de produzir novos arranjos de palavras. [...] o repertório de sentenças
teoricamente é infinito, pois as regras de linguagem usam um truque chamado
recursividade. [...] podemos usar a linguagem como um paradigma das infinitas
possibilidades do comportamento. [...] Os humanos falam cerca de 6 mil línguas
mutuamente inteligíveis. Apesar disso, os programas gramaticais em suas mentes
diferem muito menos do que a fala que efetivamente sai de suas bocas. [...] todas
as línguas podem transmitir os mesmos tipos de idéias. [...] Chomsky supôs que as
gramáticas gerativas das línguas individuais são variações de um único padrão, que
ele denominou gramática universal. [...] Se a parte universal de uma regra está
embutida nos circuitos neurais que guiam os bebês quando aprendem a língua, isso
poderia explicar como as crianças aprendem a língua com tanta facilidade e de
maneira tão uniforme sem o benefício da instrução. Em vez de tratar os sons que
saem da boca da mamãe como apenas um ruído interessante de se imitar
literalmente ou de se fragmentar e misturar de modo arbitrário, o bebê presta
atenção aos núcleos e complementos, ao modo como eles são ordenados e constrói
um sistema gramatical consistente com essa ordenação. (PINKER, 2002, p.61-64).
Apesar de ser uma criação genofenotipada impressionante, a linguagem oral, devido
a sua característica, possui pelo menos três fragilidades. A primeira é devida à sua completa
dependência da falível memória humana como forma de assegurar a persistência da
informação através dos tempos. A segunda está no fato de que as palavras são símbolos
representativos de 'objetos' concretos ou abstratos e a compreensão do significado da
informação demanda uma 'tradução mental' do símbolo para o objeto da mensagem e isso,
além de exigir esforço mental maior que a simples percepção ou pensamento, possibilita que
as informações sofram modificações provocadas por ruídos ou lapsos de memória. A terceira
fragilidade está nas limitações de transporte de informações através do espaço, que somente é
possível quando os indivíduos que memorizaram a informação se deslocam para transmití-la.
Para minorar essas dificuldades, à medida que foram desenvolvendo suas
capacidades intelectuais como resultado de acidentes genofenotipados, nossos antepassados
desenvolveram uma forma mais direta para registrar e transmitir determinados tipos de
informação, de modo que pudessem resistir ao tempo e dependerem menos da memória
humana. Trataram de utilizar imagens.
126
127
Registros arqueológicos demonstram que somente 400.000 anos a.C. o burin,
ferramenta primária para gravar e esculpir ossos, madeira e outros materiais havia se tornado
comum. As esculturas e as gravações em materiais sólidos começaram a ser utilizadas para
vários propósitos além do registro representacional da natureza, conforme observou Bunch at
al:
[...] a arte visual aparenta ter sido utilizada para mais propósitos que o registro
casual da natureza. Embora haja evidência de algumas poucas esculturas que
podem ter sido produzidas por Neandertals, todas as imagens reconhecidas datam
da época em que modernos Homo sapiens haviam substituído todos os outros
membros de nossos genes. (idem, p.3)
Porém, datam de somente 44.000 a.C as primeiras pinturas em pedras, a mais antiga
expressão de arte na África, encontradas no sítio Apollo-11 no vale Orange River da Namíbia.
Muitas teorias foram criadas para explicar o significado das pinturas das cavernas.
Crenças populares relacionam-nas com algum tipo de religião ou talvez educação.
Em locais inacessíveis, é aparente que as pinturas nas cavernas não eram mera
decoração. As pinturas nas cavernas eram claramente intencionais, mas existe
outro grupo de marcas enigmáticas que poderiam ser simplesmente o resultado de
acidentes ou de rabiscos (BUNCH, 1994, p. 4).
Pesquisas arqueológicas encontraram provas substanciais de utilização de imagens
esculpidas a partir da éra paleolítica. Povos paleolíticos na Europa central e França usaram
tallies (pequenas marcas ou riscos) em ossos, marfim e pedras para registrar números (30.000
a.C). Na França foram encontradas esculturas e pinturas de vulvas e pênis datadas de 28.000
a.C., Em Pavlov Hill, na Moravia, República Checa foram encontradas as mais antigas
estátuas de animais e pessoas esculpidas em cerâmica na mesma época. O primeiro artefato
reconhecido como mapa que parece mostrar a região imediatamente em volta do sítio no
qual foi encontrado – foi esculpido em osso, em 13.000 a.C. e foi encontrado em Mezhirich na
Ucrânia. O uso dos primeiros tokens (esculturas em miniaturas feitas de argila) com formatos
de jarras de óleo e medidas de grãos, para registrar resultados de agricultura, também datam
de 13.000 a.C. e foram encontrados em sítios na Síria e Iran de hoje. Em alguns sítios tokens
continuaram a ser utilizados até 1.500 dC.
Em resumo, podemos dizer que duas mídias de primeiro grau de recursividade, a
palavra oral e a imagem, relacionadas respectivamente com os sentidos da audição e visão
foram criadas, por fenômenos genofenotipados, antes do surgimento das sociedades agrícolas.
Podemos utilizar a metáfora das ondas de Toffler para descrever a evolução dos
sistemas de mídia a partir dessas mídias primitivas até os dias atuais. Na verdade são três
ondas, fruto de zeitgeist e desenvolvimento tecnológico característicos de seus tempos. A
mídia impressa, fruto da ciência Mecânica de Newton e cuja metáfora é o relógio. A mídia
eletrônica, fruto da ciência termodinâmica e cuja metáfora é a máquina a vapor, e por último;
A mídia digital, fruto das ciências da Computação, da Cibernética e da Inteligência Artificial e
cuja metáfora é o computador.
A primeira onda transformou as mídias de primeiro grau de recursividade – a palavra
e a imagem em conteúdo de mídias impressas de segundo grau de recursividade em
papiro e papel. Essa onda iniciou-se com a invenção da escrita, cresceu com a invenção da
imprensa e mantêm-se forte até os dias atuais. A mídia impressa agrupou “lotes” de palavras e
imagens em edições impressas. Os resultados da primeira onda foram de toda ordem: livros,
revistas, jornais, cartazes, histórias em quadrinhos e outras formas de expressão nas quais
palavras escritas e imagens convivem. Como resultado dessa onda foram praticamente
resolvidas as fragilidades relativas à persistência das informações no tempo e do seu
transporte no espaço. Trouxe ainda uma vantagem importante: a comunicação pôde realizar-se
em outros contextos que não somente o interpessoal. Pôde dar-se também em contextos de
grupos e de massa. Em contra partida, nesses novos contextos os sistemas midiáticos
impressos limitaram de alguma forma, e em variados graus, a interação entre os que
“falavam” e os que “ouviam”. Criaram, portanto, a dicotomia 'emissor e receptor'.
A segunda onda iniciou-se com a utilização de energia elétrica e de ondas eletro-
magnéticas. A emissão de informação sonora através de ondas de rádio embutiu em seus
conteúdos a palavra falada. A televisão transformou a imagem gráfica, tanto da palavra como
da imagem pictórica, em um 'fluxo' constante de imagens e acrescida de sons: a mídia
audiovisual. Sua principal evolução deu-se com a incorporação da tecnologia de satélites que
encurtou substancialmente o espaço e capilarizou, como nunca, a informação. Como resultado
transformou a superfície da terra no que McLuhan chamou de Aldeia Global. As mídias
eletrônicas encurtaram o espaço e reduziram o tempo entre a emissão e a recepção da
informação. Entretanto, mantiveram sem solução as dificuldades de interatividade existentes
entre emissor e receptor nos contextos de comunicação de massa. Em termos de acesso a
informação, a mídia eletrônica introduziu uma fragilidade própria de seu natureza.
Contrariamente à mídia impressa, na qual o receptor pode escolher quando terá acesso a
informação disponível, a mídia eletrônica por sua arquitetura de emissão Broadcast tem
128
129
baixa disponibilidade e transfere para o emissor a decisão quanto ao momento em que o
receptor terá a mensagem disponível. Trata-se de comunicação unidirecional assíncrona que,
normalmente, não dá ao receptor nem mesmo a chance de repetir a “leitura” de trechos de seu
interesse.
Finalmente, estamos assistindo ao rápido crescimento da terceira onda, caracterizada
pela utilização de sistemas de redes de computadores e tecnologias de digitalização de mídias
(conteúdos) e transmissões. A natureza desse novo sistema de mídia favorece a solução das
principais fraquezas e desvantagens presentes nos sistemas de mídia da primeira e segunda
onda. Disponibiliza recursos para interação em tempo real com qualquer agente conectado à
rede e permite acesso on-demand às informações (alta disponibilidade). Incorpora todas as
mídias de graus de recursividade inferiores palavras, imagens, sons, audiovisuais e etc.
Disponibiliza recursos adicionais para apresentação e movimentação de imagens em 4D
(quatro dimensões), ou seja, onde são representas altura, largura, profundidade e a dimensão
temporal do movimento dos objetos). Possibilita a associação de múltiplas mídias com graus
de recursividade inferior com códigos de programação e desse modo a interação, melhor
dizendo, o relacionamento entre o indivíduo e a própria mídia digital, cuja 'inteligência'
programada a transforma em objeto-pensante. A capacidade de incorporar múltiplas mídias,
acrescidas de recursos de programação, permite dois novos recursos impossíveis de
concretizar nas mídias anteriores: A simulação de Realidade Virtual em vários estágios de
imersão sensorial e da Inteligência Artificial, ou seja, programas com recursos de cognição e
aprendizagem. Por último, as mídias digitais possibilitam a utilização de hyperlinks, recurso
que permite ligar imagens (palavras inclusive) existentes em uma página a outra página,
presentes no mesmo computador ou em qualquer outro da rede, e desse modo criar uma
World Wide Web. Ao utilizar o hyperlink o usuário pode navegar por entre as páginas e
chegar a qualquer ponto da rede.
Dizer que novas mídias de grau de recursividade superior têm como um de seus
componentes alguma mídia de grau de recursividade inferior, equivale a dizer que as novas
mídias se apropriam de linguagem (ou linguagens) existente para apresentar mensagem aos
receptores. Assim, o jornal impresso utiliza-se da linguagem verbal escrita para tornar
públicas suas mensagens (noticiosas), enquanto a televisão utiliza-se da linguagem
audiovisual para transmitir as suas. É claro que além dos recursos e limitações das próprias
linguagens utilizadas na mídia, a utilização das mesmas também é condicionada pelas
características técnicas dos mídia, do grau de recursividade superior. Portanto, uma forma
de conhecermos a natureza de uma nova mídia é, primeiramente, explorar a natureza da
linguagem da mídia de recursividade inferior que a nova mídia utiliza. Em outras palavras, a
utilização eficaz de mídias de grau de recursividade superior, dentre as quais as mídias
digitais, depende de conhecermos pelo menos a linguagem escrita e a visual. Com esse
propósito em mente passamos a descrever alguns aspectos que consideramos relevantes acerca
dessas duas linguagens e iniciaremos com a linguagem com grau de recursividade inferior: A
linguagem verbal oral ou falada.
3.1 - LINGUAGEM DAS PALAVRAS
O dominio da linguagem falada teve implicações profundas no desenvolvimento do
logos humano, e foi essencial não para o desenvolvimento da escrita mas também para a
alfabetização. Segundo explicações de Donis A. Dondis em sua obra Sintaxe da Linguagem
Visual (1973):
Logos, a palavra grega que designa linguagem, inclui também os significados
paralelos de 'pensamento' e 'razão' na palavra inglesa que dela deriva, logic. As
implicações o bastante obvias; a linguagem verbal é vista como um meio de
chegar a uma forma de pensamento superior ao modo visual e tátil. (DONDIS,
1973, p.14-15).
Em outras palavras, a linguagem é uma metáfora que traduz experiências entre
sentidos. Com a fala, ouvidos podem “ver" o que a palavra representou, que outro olho viu. O
input e ou o output do sentido, ou seja, a linguagem é a ferramenta que “tornou possível ao
homem acumular experiência e conhecimento em uma forma que tornou fácil transmissão e
maximização de possibilidade de uso. [...] é metáfora no sentido de que ela não somente
armazena mas traduz experiência de um modo para outro. [...] Mas o princípio de câmbio e
tradução, ou metáfora, está no nosso poder racional de traduzir todos nossos sentidos uns com
os outros. Isso nós fazemos a cada instante de nossas vidas.[...] Nossos sentidos privados não
são sistemas fechados, mas são infinitamente traduzidos uns para os outros naquela
experiência que nós chamamos consciência – con-sciousness. ” (MCLUHAN, 1962, p.5).
A linguagem verbal é organizada segundo uma sintaxe apropriada e que, ao
possibilitar a apresentação seqüencial das palavras em sentenças, traduz-se em significado,
semântica. Também é preciso ressaltar o fato de que a linguagem verbal pode ser midiatizada
130
131
por diversos meios, dentre eles a voz e a escrita. A capacidade de midiatizar a palavra através
da escrita, diferentemente da fala, não é inata e requer algum esforço de aprendizagem para
que seja utilizada com sucesso. É a essa capacidade que Dondis denomina alfabetismo:
Para começar, linguagem e alfabetismo verbal não são a mesma coisa. Ser capaz de
falar uma lingua é muitíssimo diferente de alcançar o alfabetismo através da leitura
e da escrita, ainda que possamos aprender a entender e a usar a linguagem em
ambos os níveis operativos. Mas a linguagem falada evolui naturalmente.
(DONDIS, 1973, p.14-15).
Ou seja, as pessoas aprendem a falar naturalmente, desde que não possuam algum
impedimento físico ou mental, mas têm que desenvolver um esforço intelectual considerável
para dominar as etapas de aprendizagem da linguagem escrita:
O alfabetismo verbal, o ler e o escrever, deve porém ser aprendido ao longo de um
processo dividido em etapas. Primeiro aprendemos um sistema de símbolos,
formas abstratas que representam determinados sons. Esses mbolos são o nosso
á-bê-cê, o alfa e o beta da língua grega que deram nome a todo o grupo de
símbolos sonoros ou letras, o alfabeto. Aprendemos nosso alfabeto letra por letra,
para depois aprendermos as combinações de letras e de seus sons, que chamamos
de palavras e constituem o representante ou substitutos das coisas, idéias e ões.
Conhecer o significado das palavras equivale a conhecer as definições comuns que
compartilham. O último passo para a aquisição do alfabetismo verbal envolve a
aprendizagem da sintaxe comum, o que nos possibilita estabelecer os limites
construtivos em consonância com usos aceitos. (DONDIS, 1973, p.14-15).
Com outras palavras, o domínio da escrita e da leitura (alfabetização) depende de
uma estrutura conceitual definida em consenso social e está bastante formalizada pela
Lingüística e pela Gramática. Em síntese, a linguagem escrita possui uma estrutura mecânica
seqüencial de modo que:
Para que nos considerem verbalmente alfabetizados é preciso que aprendamos os
componentes básicos da linguagem escrita: as letras, as palavras, a ortografia, a
gramática e a sintaxe. Dominando a leitura e a escrita, o que se pode expressar
com esses poucos elementos e princípios é realmente infinito. [...] A disciplina
estrutural está na estrutura verbal básica. O alfabeto significa que um grupo
compartilha o significado atribuído a um corpo comum de informação. (DONDIS,
idem, p.3).
Essa iniciativa de compartilhamento de significado em grupo para um corpo comum
de informação teve início juntamente com o início da primeira Onda, definida por Toffler
como a que transformou a civilização primitiva, nômade, coletora e caçadora, na civilização
Agrícola. A humanidade iniciava então um novo estilo de civilização, ao permanecer em
locais físicos e iniciar a produção agrícola de alimentos e a domesticação de animais
selvagens. Esse novo modus vivendi trouxe consigo a necessidade de administrar os bens
produzidos e essa demanda levou ao invento dos sistemas de numeração, necessários ao
registro e comunicação de informação relativas às propriedade e a produção de alimentos.
Evidências arqueológicas demonstram que os sistemas de numeração podem ter sido
iniciados com simples riscos para representar uma unidade de qualquer coisa: / para um, //
para dois e assim por diante. Desde 30.000 a.C. povos paleolíticos na Europa central e França
usaram marcas em ossos, marfim e pedras para fazer registros de números mas como
observou Bunch (idem, p.31), só conseguiram utilizar o sistema de riscos porque ele “pode
existir mesmo quando a linguagem não desenvolveu palavras para números”.
Alguns avanços importantes para a criação de sistemas numéricos mais sofisticados
começaram a ocorrer a partir de 4.000 a.C. O primeiro avanço foi o uso de tokens, por volta
de 10.000 a.C pelos povos neolíticos do Oriente Médio que tiveram a idéia de utilizar
pequenos mbolos fabricados com barro cozidos com as formas das coisas que desejavam
registrar por exemplo ovelhas, jarras de óleo, medidas de grãos e etc. O segundo foi a
criação do conceito de número abstrato a partir da percepção de que os mesmos números
poderiam representar as quantidades de coisas diferentes, por exemplo, ///// cinco riscos
poderiam ser utilizado para representar 5 ovelhas ou 5 sacos de um certo grão ou 5 unidades
de medida de outra coisa qualquer. Dessa feita, separaram, possivelmente sem se darem conta
disso, as idéias abstratas das quantidades das coisas reais, físicas, que os tokens e tallies
representavam e criaram sistemas simbólicos de numeração cuja evolução foi sintetizada por
Bunch (idem, p.31):
Virtualmente todo sistema de numeração inicia como simples talhos, usando riscos
para representar cada unidade adicional / para um, // para dois e assim. [...]
Estudos de povos modernos com palavras limitadas para números somente um,
dois e muitos mostram que eles também utilizam tellies simples, ou pelo menos
objetos concretos como barras, para demonstrar números específicos maiores [...].
Portanto, o sistema de talhos para representarmeros pode existir mesmo quando
a linguagem não desenvolveu palavras para números. Evidência lingüística sugere
que palavras concretas, tais como gêmeos para pessoas [...] precedem o conceito
de dualidade na linguagem. No Oriente médio dos tempos monolíticos a linguagem
de números era tipicamente um sistema “um, dois, muitos” (como em nosso
esquema de classificação para monogamo, bígamo, polígamos), enquanto tallies
eram utilizados para representar números específicos. Quando os tokens foram
desenvolvidos, entretanto, alguns pareciam representar conjuntos. Por volta do 4o.
Milênio a.C, alguns tokens pareciam significar 'dez ovelhas' enquanto outros
significavam 'uma ovelha'. [...] Nesse tempo, na maior parte da Mesopotâmia,
132
133
entretanto, um conjunto de tokens diferentes dos de ovelhas indicaria números ou
medidas de commoditie. Por volta desse tempo em Uruk, mercadores estavam a
descobrir que o mesmo número poderia significar dez ovelhas, dez sacos de grãos,
ou dez moedas de cobre. [...].No Egito, por volta de 1.000 anos mais tarde, os
riscos (tallies) também eram agrupados como 10, mas 10 desses eram reagrupados
como 100, e 10 dos de 100 como 1.000. [...] Os gregos adaptaram o alfabeto para
numerais. Muitos outros alfabetos seguiram o exemplo dos gregos. [...] Todos
esses sistemas não são mais utilizados, exceto por numerais romanos em alguns
usos tradicionais. [...] Mas por volta de 600 a.C (alguns dizem tão cedo quanto 200
a.C) os Indianos aparentemente iniciaram o uso de casa de valor, de forma que ao
invés de escrever o equivalente a 100+80+7 escreveram os símbolos juntos, como
fazemos 187, para significar o mesmo. Somente os primeiros nove dígitos tinham
que ser utilizados[..] Uma inscrição famosa datada de 870 a.C contém o primeiro
zero [...]. Árabes pegaram o novo sistema inventado pelos Indianos que logo
passou a ser conhecido na Europa como números arábicos. No final das idades dos
metais, o papa determinou que todos os cristãos utilizassem o que nos chamamos
agora de numeração Hindu-Arábica.[...] os Mesopotâmios também inventaram um
sistema numérico baseado em casa de valor, mas com base 6 ao invés de 10.
Embora o tenha sobrevivido ao tempo em sua forma original, foi utilizado por
astrônomos e talvez em campos técnicos. Desse sistema herdamos 60 minutos para
a hora e para o grau, e também 60 segundos para o minuto e o círculo de 360
o
.
A criação do conceito de meros abstratos, para separar idéias de coisas e
representá-las em tokens, foi a principal contribuição para a o surgimento da escrita a partir de
um terceiro avanço significativo que consistiu na gravação das imagens dos tokens em
tabletes de barro:
Barro queimado foi utilizado para formar pequenos objetos, hoje denominados
tokens, para representar diferentes tipos de bens comercializáveis. Os tokens
gradualmente evoluíram em complexidade e tornaram-se uma linguagem comercial
universal para a região, completados com envelopes de barro cozido padronizados
para prendê-los. Os tokens dentro de um envelope de argila poderiam ser
demonstrados pressionando cada token no barro molhado antes de o envelope ser
lacrado e assado. Eventualmente, tornou-se aparente que os próprios tokens não
eram necessários, somente suas imagens no barro. Os envelopes evoluíram para
tabletes de barro, que sobrevivem a centenas de milhares de anos, enquanto ao
mesmo tempo as imagens dos tokens evoluíram para a verdadeira escrita.
(BUNCH, idem, p.49)
Portanto, ao descobrirem que as imagens dos tokens nos envelopes eliminavam a
necessidade do próprio token, na medida em que expressavam simbolicamente o mesmo
conteúdo que antes era colocado dentro do envelope, os envelopes foram substituídos por
tabelas de argila e os tokens por imagens.
O desenvolvimento dos sistemas numéricos e da escrita não foi simples e muito
menos imediato. A escrita desenvolvida no oriente médio teve sua origem nas idades da
pedra, logo após a revolução Neolítica. Foram necessários vários séculos para o seu
desenvolvimento completo e esse feito teria sido impossível sem dois saltos na condição
humana, identificados por Diamond:
O primeiro, que ocorreu entre 100 mil e 50 mil anos atrás, talvez tenha sido
possibilitado por mudanças genéticas em nossos corpos: isto é, pelo
desenvolvimento da anatomia moderna que permitiu uma fala ou uma função
cerebral modernas, ou ambas. [...] O segundo salto resultou do fato de termos
adotado um estilo de vida sedentário[...] 13 mil anos em algumas áreas,
enquanto em outras ainda nem começou. [...] A vida sedentária foi decisiva para a
história da tecnologia, pois permitiu que as pessoas acumulassem bens não
portáteis. Os caçadores-coletores nômades estavam limitados à tecnologia que
pode ser carregada. Se você se desloca com freqüência e não dispõe de veículos ou
animais de carga, limitará seu haveres a bebês, armas e um mínimo de outras
coisas imprescindíveis [...]. Além da vida sedentária [...] outra razão fez da
produção de alimentos um passo decisivo na história tecnologia. Foi possível, pela
primeira vez na evolução humana, desenvolver sociedades economicamente
especializadas constituídas de especialistas não-produtores de alimentos e
sustentados por camponeses produtores de alimentos. (DIAMOND, idem, p.
261-262):
Evidente é que todo tipo de informação pode ser transmitido por outros meios, e
ainda é, nas sociedades não-alfabetizadas, porém, a escrita além de assegurar o registro por
mais tempo, possibilitou que fosse mais detalhado, tornou a transmissão mais fácil e precisa.
Registros arqueológicos demonstram que diversos sistemas de escrita foram inventados ao
mesmo tempo (medido em séculos), e nos quais foram utilizadas estratégias diferentes:
As três estratégias básicas que estão por trás dos sistemas de escrita apresentam
diferença no tamanho da unidade lingüística indicada por um sinal gráfico: um único
som básico, uma sílaba inteira ou uma palavra inteira. Destes, o que é utilizado pela
maioria dos povos é o alfabeto, que em termos ideais ofereceria um símbolo único
(chamado letra) para cada som básico do idioma (fonema). De fato, a maioria dos
alfabetos é formada por apenas 20 a 30 letras, e a maioria das línguas possui mais
fonemas do que as letras dos seus alfabetos. [...]. A segunda estratégia utiliza os
chamados logogramas, símbolos gráficos que representam uma palavra inteira. Essa é
a função de muitos elementos da escrita chinesa e do sistema japonês predominante
(denominado kanji). Antes da difusão do alfabeto, os sistemas que usavam muito
logogramas eram mais comuns, entre eles, o hieroglifo egípcio, os glifos maias e a
escrita cuneiforme dos sumérios. A terceira estratégia [...] utiliza um sinal para cada
sílaba. [...] Os silabários eram comuns antigamente, como mostram as inscrições
conhecidas como Linear B da Grécia micênica. Alguns silabários existem até hoje,
sendo o mais importante o silabário kana que os japoneses usam para telegramas,
extratos de bancos e textos para deficientes visuais.[...] Nenhum sistema atual
emprega uma estratégia só. A escrita chinesa não é puramente logografia, nem a
inglesa é puramente alfabética (ex. $, %, +), isto é, sinais arbitrários, não compostos
de elementos fonéticos, representando palavras inteiras. [...] Os primeiros escribas
tiveram que estabelecer princípiossicos que hoje aceitamos como verdadeiros. Por
exemplo, tiveram que imaginar como decompor um som articulado contínuo em
unidades lingüísticas, fossem essas unidades palavra, sílabas ou fonemas. Tiveram
134
135
que aprender a reconhecer o mesmo som ou unidade lingüística, em todas as nossas
variações normais de volume, intensidade, ênfase, agrupamentos de frases e
idiossincrasias individuais da fala. Tiveram que decidir que um sistema de escrita
deveria ignorar todas essas variações. E depois tiveram que inventar modos de
representar os sons por meio de símbolos. [...] Essa tarefa era, evidentemente, tão
difícil que poucas vezes na história os povos inventaram uma escrita inteiramente
própria. As duas invenções indiscutivelmente independentes da escrita foram a dos
sumérios na mesopotâmia, um pouco antes de 3000 a.C... e a dos índios mexicanos; a
escrita egípcia de 3000 a.C... e a chinesa (por volta de 1300 a.C...) também podem ter
surgido de modo independente. (DIAMOND, idem, p.216-218).
Mas uma questão nos deixa perplexos. Porque foi necessário tanto tempo para a
invenção das tecnologias necessárias à produção da escrita ? Porque levaram tanto tempo para
substituir os envelopes de barro por argila com superfície adequada à escrita; tanto tempo para
adotar convenções para dispor as palavras e símbolos em linhas ou colunas, lê-las sempre na
mesma direção horizontal e vertical; criar marcas visíveis aceitas por todos para significar
sons reais com significado? Novamente, a resposta mais obvia é a de que esse foi o tempo
necessário para que o rebro humano se desenvolvesse a ponto de ter essas idéias. Com
outras palavras não é suficiente que a necessidade exista para que a invenção seja criada. Sua
criação depende da existência de tecnologias e de conhecimento necessário para sua
realização e este por sua vez depende do zeitgeist, como demonstra Silvana Gontijo em O
livro de Ouro da Comunicação (2004), sobre a escrita cuneiforme e a escrita egípcia:
[...] antes de escrever os seres humanos contavam suas ovelhas, as colheitas, os
utensílios e representavam essa contabilidade através de um sistema sofisticado,
composto de fichas moldadas em barro, os tokens. Essas fichas de diferentes formatos
e com diferentes gravações são as precursoras da escrita.[...] Duas evidências apóiam
esse argumento: uma é a cronologia e a outra é a semelhança entre fichas e os
primeiros símbolos (pictogramas) da escrita cuneiforme desenvolvida pelos sumérios.
[...] Até o século XVIII, acreditava-se que a origem do alfabeto era divina. [...] Platão
falava de um mito egípcio segundo o qual o deus Thoth Thoth thought
(pensamento) inventou a escrita para o homem, foi censurado pelo rei Thamus, que
disse que o homem passaria a contar apenas com o que estava escrito e não
desenvolveria a capacidade de memorização. [...] No século XVIII, William
Warburton, futuro bispo de Gloucester , introduziu a primeira teoria sobre a evolução
da escrita. Ele tomou como base os códigos astecas, os hieroglifos egípcios e os
caracteres chineses para afirmar que todas as escritas surgiram a partir de desenhos
narrativos (narrative drawings), que com o tempo tornaram-se mais simplificados até
se transformarem em caracteres abstratos (abstract characters). [...] Uma cunha
triangular, do tamanho de um pequeno lápis com quatro faces retas e uma chanfrada,
foi desenvolvida provavelmente na segunda metade do terceiro milênio. A ponta
afiada era pressionada contra a argila, produzindo um sulco na forma cuneiforme. Um
símbolo era o resultado de uma seqüência desses golpes. Com o tempo, os excessos
da escrita pictográfica foram sendo eliminados para agilizar grafia. As curvas dos
signos originais foram sendo suprimidas. Como era difícil desenhar no barro
molhado, os escribas sumérios passaram a utilizar somente linhas retas. Aos poucos, o
hiato entre a figura e a palavra ia sendo transposto. A subjetividade dos textos
religiosos exigia mudanças na expressão pictórica. Vários signos passaram a ser
usados para separar sílabas. Por volta de 2825 a.C..., a direção da escrita e a
arrumação das palavras seguindo critérios lógicos havia sido estabelecida. [...]
Enquanto os signos cuneiformes [símbolos que representavam sons e que somados
representavam palavras] se espalhavam pela Mesopotâmia, outros sistemas de escrita
apareciam e se desenvolviam no vizinho Egito e na China. De um ponto ao outro do
mundo, diferentes povos produziam registros em pedra, barro e papiro.
Diferentemente da geometria austera do cuneiforme, a escrita hieroglífica [escrita dos
deuses] egípcia tinha um estilo poético. [...] Esta escrita se manteve, sem maiores
modificações até o advento do cristianismo nos séculos II e III., quando foi substituída
pela escrita copta, expressão mais recente da língua do Egito Antigo. [...] Enquanto as
inscrições da Mesopotâmia se desenvolveram, gradualmente, de um “esboço” a um
sistema de escrita flexível, os hieróglifos foram, desde o começo, uma verdadeira
forma de escrita. Primeiro porque podiam, quase completamente, registrar a língua
falada, e segundo porque podiam transcrever, igualmente bem, textos sobre
agricultura, histórias tradicionais e também todas as formas de literatura. A escrita
hieroglífica é constituída de três tipos de signos: pictogramas desenhos estilizados
que representam objetos ou seres, com combinações desses mesmos signos para
expressar idéias; fonogramas as formas usadas para representar sons (os egípcios
usavam um sistema de rébus semelhante ao dos antigos sumérios); e, finalmente,
determinativos – signos usados para indicar qual categoria de objetos ou seres está em
questão. [...] Enquanto a escrita na pedra caracterizava-se pelas linhas retas ou
circulares e uma posição vertical, no papiro foi possível utilizar escrita cursiva, muito
mais rápida. [...] Aos poucos, as figuras foram sendo substituídas por sinais abstratos.
(GONTIJO, idem, p.51- 68).
A introdução do alfabeto pelos sumérios foi, de fato, uma inovação essencial para o
desenvolvimento da escrita. Por volta de 1.700 anos a.C. os sumérios tiveram a idéia de
substituir os pictogramas por pequenos símbolos estilizados para representar um determinado
som em vez de uma idéia e criaram a escrita fonética. O surgimento da escrita alfabética
rompeu com as dificuldades da interpretação dos símbolos utilizados na escrita com
ideogramas e possibilitou que o homem comum pudesse exprimir através do texto o som de
sua voz, o seu discurso, de forma ilimitada. Como destaca DeFleur (1993, p. 23-35):
A partir do domínio da escrita alfabética ampliaram-se as facilidades do homem
para simbolizar pensamentos e transmitir suas idéias a outras pessoas. Esse fato
levou a novas invenções como o pergaminho, papel e a imprensa, que por sua vez
possibilitaram o acúmulo e a transferência do conhecimento, aceleraram o
desenvolvimento intelectual e o surgimento de movimentos como o Renascimento,
responsáveis pela libertação do conhecimento dos círculos fechados dos escribas.
136
137
3.2 - LINGUAGEM DAS IMAGENS
Como vemos, nossos antepassados encontraram usos surpreendentes para as
imagens. Com elas inventaram os números e as letras, mas não deixaram de utilizar as
imagens pictóricas que, diferentemente da imagem simbólica, podem representar mais direta e
fielmente o 'produto' da visão. De fato, muito antes do surgimento da escrita nossos ancestrais
faziam registros de pinturas pictóricas nas paredes das cavernas. A evolução e mutação da
espécie humana têm privilegiado mais nosso sistema sensorial visual que os demais. Dondis
(idem, p.6-7) observou que as imagens exercem sobre nós um poder especial e nos explica
que “Não é difícil detectar a tendência à informação visual no comportamento humano.
Buscamos um reforço visual de nosso conhecimento por muitas razões; a mais importante é o
caráter direto da informação, a proximidade da experiência real. [...] Ver é uma experiência
direta, a utilização de dados visuais para transmitir informação representa a xima
aproximação que podemos obter com relação à verdadeira natureza da realidade”.
O que isso significa? Significa que a visão nos apresenta a realidade de forma
“menos trabalhosa”. “Ver” imagens significa ser capaz de formar imagens do que o olho
enxerga, na mente. Envolve tanto o sistema sensorial como a capacidade cerebral para “fixar”
a imagem no cérebro. “Ler” imagens – de letras significa formar não as imagens que o olho
enxerga mas sim as imagens do que as palavras simbolizam. Para avaliar melhor o significado
dessa afirmação podemos observar a figura 4 Escultura de DAVI, obra de Michelangelo
(apresentada em anexo) e tentar descrevê-la textualmente, de forma que qualquer pessoa que
leia o texto que criamos possa formar mentalmente a imagem que descrevemos com todos os
detalhes que o sistema visual enxergaria se fosse exposto à imagem fotográfica ou a própria
escultura. Desse modo iremos confirmar a grande dificuldade que representa descrever os
detalhes de uma imagem como a escultura. Vamos constatar que, quem quer que faça a
leitura do texto descritivo, caso desconheça a obra de Michelangelo, dificilmente irá construir
em sua mente imagem tão bela e realista. Isso ocorre porque:
Em textos impressos, a palavra é o elemento fundamental, enquanto os
fatores visuais, como o cenário físico, o formato e a ilustração, são
secundários ou necessários apenas como apóio. Nos modernos meios de
comunicação acontece exatamente o contrário. O visual predomina, o verbal
tem a função de acréscimo. [...] Quase tudo em que acreditamos, e a maior
parte das coisas que sabemos, aprendemos e compramos, reconhecemos e
desejamos, vem determinado pelo domínio que a fotografia exerce sobre
nossa psique. [...] “Em seu livro The Act of Creation, Arthur Koestler
observa: o pensamento através de imagens domina as manifestações do
inconsciente, o sonho, o semi-sonho hipnagógico, as alucinações psicóticas
e a visão do artista.” (DONDIS, idem, p.12-13).
Mas não é isso. Envolve também outros recursos da mente para transformar as
imagens em sentimentos, emoções. Ao observar a figura 5 Pintura cubista e figura 6
Fotografia de fato real A fome na África (apresentadas em anexo) e compará-las com a
anterior, podemos refletir sobre o que as imagens nos 'dizem', como mexem com nossas
emoções. “Sentimos' que, como a música, as imagens “mexem” com nossos sentimentos.
Algumas nos alegram, outras entristecem; algumas nos intrigam outras deixam claro o intento
de quem as criou. Algumas nos deixam em estado de ansiedade e até horror enquanto outras
nos trazem conforto à alma. Por quê? A resposta para essa pergunta intriga cientistas muito
tempo e ainda sabemos muito pouco sobre esse impacto que as imagens causam em nós.
Entretanto, Rudolf Arnheim autor de Arte & Percepção Visual: Uma Psicologia da
Visão Criadora (1980) nos apresenta algumas considerações significativas acerca desse
impacto. Arnheim, conhecedor de que o sistema de visão são sistemas neurais constituídos
por conjuntos de receptores, pergunta-se sobre o que acontece com a experiência psicológica
correspondente? E em seguida responde:
Vem-nos a tentação de confiar em analogias com eventos fisiológicos. A imagem
ótica da retina estimula cerca de 130 milhões de receptores microscopicamente
pequenos, e cada um deles reage ao comprimento da onda e à intensidade da luz
que recebe. Muitos destes receptores não desempenham seu trabalho
independentemente. [...] Somos tendados a deduzir [...] que os processos correlatos
da percepção de formas são quase inteiramente passivos e procedem de um modo
linear partindo do registro de elementos menores para a composição de elementos
maiores. Ambas as suposições são enganadoras. Primeiro o mundo das imagens
não se satisfaz em imprimir-se sobre um orgão fielmente sensível. Ao contrário, ao
olhar um objeto nós procuramos alcança-lo. Com um dedo invisível movemo-nos
através do espaço que nos circunda, transportamo-nos para lugares distantes onde
as coisas se encontram, tocamos, agarramos, esquadrinhamos suas superfícies,
traçamos seus contornos, exploramos suas texturas. O ato de perceber é uma
ocupação eminentemente ativa. (idem, p.35- 36).
A seguir responde a outra pergunta por ele mesmo formulada: O que vemos
realmente quando olhamos?
Ver significa captar algumas características proeminentes dos objetos o azul do
céu, a curva do pescoço do cisne, a retangularidade do livro, o brilho de um pedaço
138
139
de metal, a retitude do cigarro. Umas simples linhas e pontos são de imediato
reconhecidos como “um rosto”, não apenas pelos civilizados ocidentais, que
podem ser suspeitos por estarem de acordo com o propósito dessa “linguagem de
signos”, mas também por bebês, selvagens e animais. Köhter aterrorizou seus
chimpanzés mostrando-lhes os “mais primitivos brinquedos de pano” com botões
pretos no lugar dos olhos. Um hábil caricaturista pode criar a semelhança
expressiva de uma pessoa por meio de algumas linhas bem escolhidas.
Identificamos um conhecido a grande distância pelas proporções e elementos mais
elementares. Alguns traços relevantes não apenas determinam a identidade de um
objeto percebido como também o faz parecer um padrão integrado completo. Isso
se aplica não apenas à imagem que fazemos do objeto como um todo, mas também
a qualquer parte em particular sobre o qual nossa atenção se focaliza. [..] E se
decidirmos nos concentrar no olho de uma pessoa perceberemos aquele olho
também como um padrão total: a íris circular com a pupila central escura, rodeada
pela moldura acanoada das pálpebras ciliadas. Não quero dizer que em absoluto
que o sentido da visão negligencia detalhes. Ao contrário, até crianças de tenra
idade notam ligeiras mudanças nas aparências das coisas que conhecem. Notam-se
imediatamente as mínimas modificações na tensão muscular e na cor da pele que
fazem um rosto parecer cansado ou alarmado. [...] os antropólogos ficariam
surpreendidos ao descobrir que, em grupos não familiarizados com a fotografia, as
pessoas m dificuldade em identificar as figuras humanas em tipos de imagens
que nos parecem tão “realísticas” pelo fato de termos aprendido a decifrar suas
formas divergentes. (idem, p.36-37)
Arnheim também destaca a visão naturalista da percepção, ao afirmar que:
provas suficientes de que, no desenvolvimento orgânico, a percepção começa
com a captação dos aspectos estruturais mais evidentes. Por exemplo, depois que a
criança de dois anos e o chimpanzés aprenderam que de duas caixas que lhes
foram apresentadas, uma com um triângulo de um tamanho e forma particulares
sempre continha alimento saboroso, não tiveram nenhuma dificuldade em aplicar a
aprendizagem a triângulos de aparência muito diferentes. O triângulo poderia ser
maior ou menor, ou invertido. Um triângulo preto num fundo branco foi
substituído por por um triângulo branco num fundo preto ou um triângulo
desenhado por um triângulo sólido. Estas mudanças não parecem inibir o
reconhecimento. Resultados similares foram obtidos com ratos. Lashley afirma
que as simples transposições destes tipos “são universais”, desde insetos aos
primatas.
E a seguir explica o porque dos equívocos dos seguidores da Doutrinas da Tábula
Rasa e outras equivalentes, por ele atribuído erros na abordagem intelectualista dessa
questão:
Os psicólogos ainda definem o processo receptivo que revela esse tipo de
comportamento como “generalizações”. O termo é um vestígio de uma abordagem
intelectualista que refutada pelos inúmeros experimentos aos quais foi aplicado.
Supunha-se que a percepção começa com o registro de casos individuais, cujas
propriedades comuns podiam ser entendidas apenas por criaturas capazes de
formar conceitos intelectualmente. Assim a similaridade de triângulos diferentes
em tamanho, orientação e cor era considerada passível de reconhecimento aos
observadores cujo cérebro eras suficientemente desenvolvido para deduzir o
conceito geral da triangularidade a partir de uma variedade de observações
individuais. O fato das crianças muito pequenas e animais não treinados na
abstração lógica executarem essas tarefas sem dificuldade causou embaraçosa
surpresa. Os resultados experimentais exigiram uma reviravolta completa na teoria
da percepção. [...] tornou-se evidente que as características estruturais globais o
os dados primários da percepção, de modo que a triangulação não é um produto
posterior à abstração intelectual, mas uma experiência direta e mais elementar do
que o registro de detalhe individual. A criança pequena vê o “caráter canino” antes
mesmo de ser capaz de diferenciar um cão de outro. (idem, p.37-38) Grifo nosso.
Mas, ainda assim podemos nos perguntar se, além do 'conteúdo' existente na imagem,
os 'ingredientes' de sua composição são de alguma forma responsáveis pelo que sentimos, da
mesma forma que romances e poemas, escritos com palavras comuns, são capazes de nos
fazer viver as mais díspares emoções?
A resposta de Dondis é sim, e que, da mesma forma que é necessária a alfabetização
verbal para ensinar as pessoas a ler e a escrever palavras, para entender e criar imagens as
pessoas terão que dominar uma linguagem visual especializada, porque:
As linguagens o conjuntos lógicos, mas nenhuma simplicidade desse tipo pode
ser atribuída a linguagem visual, e todos aqueles, dentre nós, que têm tentado
estabelecer uma analogia com a linguagem estão empenhados num exercício inútil.
Existe porém, uma enorme importância no uso da palavra 'alfabetismo' em
conjunto com a palavra 'visual'. A visão é natural; criar e compreender mensagens
visuais é natural até certo ponto, mas a eficácia, em ambos os níveis, pode ser
alcançada através do estudo. [...] O alfabetismo verbal pode ser alcançado num
nível muito simples de realização e compreensão de mensagens escritas. [...] Saber
ler e escrever, [...] não implica a necessidade de expressar-se em linguagem mais
elevada, ou seja, a produção de romances e poemas. (DONDIS, idem, p.16).
Ocorre que Dondis acredita que até o momento não temos ainda um sistema de
linguagem visual unificado embora exista muito conhecimento acerca do aparelho visual
humano e dos componentes das mensagens visuais; por esse motivo, nos propõe Dondis
(idem, p.18) que para criar um 'alfabeto' unificado teremos que buscar o alfabetismo visual
em muitos lugares e de muitas maneiras, no método de treinamento dos artistas, na formação
técnica dos artesãos, na teoria psicológica, na natureza e funcionamento fisiológico do próprio
organismo humano.”
Dondis (idem) não tem dúvida de que a sintaxe visual existe e que linhas gerais
para a criação de composições. Há elementos básicos que podem ser aprendidos e
compreendidos por todos os estudiosos dos meios de comunicação visual [...] para a criação
de mensagens claras.” (idem, ibidem, p.18).
140
141
Entretanto a própria autora afirma que apesar da tendência a associar a estrutura
verbal e a visual, o “alfabetismo visual jamais poderá ser um sistema tão lógico e preciso
quanto a linguagem [verbal]. As linguagens são sistemas inventados pelo homem para
codificar, armazenar e decodificar informações. Sua estrutura, portanto, tem uma lógica que o
alfabetismo [visual] é incapaz de alcançar.”(idem, ibidem, p.20).
As imagens, segundo Dondis, podem apresentar-se em três níveis distintos e
individuais:
1. O input visual, que consistem numa miríade de sistemas de símbolos;
2. O material visual representacional, que identificamos no meio ambiente e podemos
reproduzir através do desenho, da pintura, da escultura e do cinema;
3. A estrutura abstrata, a forma de tudo aquilo que vemos, seja natural ou resultado de uma
composição para efeitos intencionais.
Os símbolos que visualizamos podem ser desde os mais concretos até os mais
abstratos. Muitos desses mbolos foram, e alguns ainda são, utilizados para representar
quantidades números ou linguagem. No caso das linguagens, os pictogramas podem ser
ideogramas chineses, hieroglifos egípcios ou letras e vocábulos fonéticos, entre outros. A
visualização de símbolos, portanto, requer mais esforço pois necessita de uma tradução do que
é visto – vinte ovelhas, por exemplo – para o verdadeiro significado do símbolo.
As imagens representacionais fotografia por exemplo transformam o que é visto
em uma experiência mais direta a visualização de 20 ovelhas durante um passeio pelo
campo, por exemplo sem a necessidade de qualquer sistema de tradução entre o objeto
concreto e o símbolo. Ou seja, não se faz necessária a intervenção de nenhum sistema de
códigos para facilitar a compreensão, e de nenhuma decodificação que retarde o
entendimento. [...] atua como nossa mais estreita ligação com a realidade de nosso meio
ambiente.” (DONDIS, idem, p.21).
A estrutura abstrata, um dos mais importantes conceitos para o alfabetismo visual
permite criar e visualizar a imagem como algo composto por inúmeros componentes
elementares abstratos. Ou seja, trata-se da Gestalt da imagem, na qual a imagem total
representa mais que a soma de seus componentes. Por exemplo, a visão de um cão a caminhar
na rua com coleira e uma guia presa a ela é mais que um cão. Pode ser entendido como um
cão que se perdeu de seu dono ou dele fugiu. A importância da Gestalt está em que:
[...] explora não apenas o funcionamento da percepção, mas também a qualidade
das unidades visuais individuais e as estratégias de sua unificação em um todo
final e completo. Em todos os estímulos visuais e em todos os níveis da
inteligência visual, o significado pode encontrar-se não apenas nos dados
representacionais, na informação ambiental e nos símbolos, inclusive a linguagem,
mas também nas formas compositivas que existem ou coexistem com a expressão
factual e visual. Qualquer acontecimento visual é uma forma com conteúdo, mas o
conteúdo é extremamente influenciado pela importância das partes constitutivas,
como a cor, o tom, a textura, a dimensão, a proporção e suas relações compositivas
com o significado. (idem, p.22).
A autora acrescenta que em Symbols and Civilization, Ralph Ross fala de 'arte'
quando observa que esta “produz uma experiência do tipo que chamamos de estética, uma
experiência pela qual quase todos passamos quando nos encontramos diante do belo e que
resulta numa profunda satisfação. O que séculos vem deixando os filósofos intrigados é
exatamente porque sentimos essa satisfação, mas parece claro que ela depende, de alguma
forma, das qualidades e da organização de uma obra de arte com seus significados incluídos, e
não apenas dos significados considerados isoladamente”. (idem, p. 23).
Este é o objetivo final do que Dondis designa por alfabetização visual: Criar
estruturas de imagens que se transformem em Gestalt e que transmitam o 'sentimento' que
gostaríamos de compartilhar com quem visualiza essas imagens.
Isso posto, parece-nos clara a necessidade de um conjunto de componentes visuais
básicos que possam ser agrupados em uma estrutura específica com o propósito de se obter
uma imagem completa. Ou seja, uma “caixa de ferramentas' da qual possamos utilizar os
elementos básicos, que compõem qualquer imagem. Esses elementos básicos são, segundo
Dondis (idem, p.23):
o ponto, a unidade visual mínima, o indicador e marcador de espaço;
a linha, o articulador fluído e incansável da forma, seja na soltura vacilante do esboço, seja
na rigidez de um projeto técnico;
a forma, as formas básicas, o círculo, o quadrado, o triângulo e todas as suas infinitas
variações, combinações, permutações de planos e dimensões;
a direção, o impulso de movimento que incorpora e reflete o caráter das formas básicas,
circulares, diagonais, perpendiculares;
o tom, a presença ou a ausência de luz, através da qual enxergamos;
a cor, a contraparte do tom com o acréscimo do componente cromático, o elemento visual
mais expressivo e emocional;
a textura, ótica ou tátil, o caráter de superficialidade dos materiais visuais;
a escala ou proporção, a medida e o tamanho relativos;
a dimensão e o movimento, ambos implícitos e expressos com a mesma freqüência.
Esses são os elementos visuais, a 'matéria-prima' e a partir deles podemos
142
143
compreender “e expressar as variedades de manifestações visuais, objetos, ambientes e
experiências.” (idem, p. 23).
Entretanto, o significado que as mensagens visuais transmitem não se encontra
apenas nos efeitos cumulativos dos elementos básicos, ou componentes, existentes na
imagem, mas dependem também do olho, mecanismo perceptivo universalmente
compartilhado pelo organismo humano. Compreender imagens, portanto, depende de nosso
conhecimento acerca de como o sistema visual humano “vê os componentes da imagem,
relacionados entre sí e no todo gestaltico. A estrutura que suporta os componentes da imagem,
e que as transforma numa gestalt, definem o 'sentimento' que gostaríamos de compartilhar
com quem visualiza a imagem. Para isso não é suficiente dispor os elementos básicos – ponto,
linha, forma, direção, tom, cor, textura, escala, dimensão e movimento – em um determinado
espaço. Temos que dispor esses elementos utilizando uma estrutura equivalente ao que se
denominou de sintaxe no caso das linguagens verbais. Relembramos que, no contexto da
linguagem verbal, sintaxe significa ordenação de palavras com base em regras definidas na
linguagem. O mesmo não ocorre com a linguagem das imagens. Neste contexto sintaxe
significa disposição ordenada de formas sem, contudo, que haja regras definidas para tal. No
lugar de regras definidas, o que podemos utilizar é o conhecimento sobre o que acontece
quando fazemos determinados tipos de combinações. Esse conhecimento decorre de
investigações acerca da percepção humana, ato que se inicia com a visão. O ato de ver
envolve uma resposta à luz, de absorver informação na mente através da visão [...] e portanto
a natureza tonal da luz, ou de sua ausência, é o elemento mais importante para a visão.
Segundo Dondis(idem, p.30) Todos os outros elementos [...] nos são revelados através da
luz, mas são secundários em relação ao elemento tonal [...] a luz ou ausência dela.”
O que o receptor de uma imagem entende como significado de uma imagem pode
também depender de fatores culturais. Há, porém, como vimos, fatores comuns a todos os
receptores que independem de seu ambiente cultural: o sistema físico das percepções visuais,
os componentes psicofisiológicos do sistema nervoso, o funcionamento mecânico, ou seja, o
aparato neuropsicofisiológico através do qual vemos. Por esse motivo mesmo os elementos
psicofisiológicos mais abstratos da sintaxe visual possuem um caráter geral, humano.
O primeiro desses elementos é o equilíbrio, tanto físico quanto psicológico. É
resultado da necessidade que o homem tem de “ter os pés firmemente implantados no solo e
saber que vai permanecer ereto em qualquer circunstância, em qualquer atitude, com um certo
grau de certeza. O equilíbrio é, então, a referência visual mais forte e firme do homem, sua
base consciente e inconsciente para fazer avaliações visuais. [...] O equilíbrio é tão
fundamental na natureza quanto no homem. É o estado oposto ao colapso.” (idem, p.32).
Uma explicação que relaciona o equilíbrio e a mente humana nos é trazida por
Arnheim:
[...] Compreende-se que o homem procura equilíbrio em todas as fases de sua
existência física e mental e que esta mesma tendência pode ser observada em toda
a vida orgânica, mas também nos sistemas físicos. Na física, o princípio da
entropia, também conhecido como a Segunda Lei da Termodinâmica, afirma que,
em qualquer sistema isolado, cada estado sucessivo representa um decréscimo
irreversível da energia ativa. [...] seguindo as mesmas linhas os psicólogos
definiram a motivação como “o desequilíbrio do organismo que conduz à ação
para a restauração da estabilidade”. Freud, em particular, interpretou seu
“princípio de prazer” mostrando que os acontecimentos mentais são ativados por
tensões desagradáveis, e procuram um meio que levam à redução de tensão. [...]
Ele descreveu os instintos básicos do homem como uma expressão, como uma
natureza conservadora de toda matéria viva, como uma tendência inerente ao
retorno a um estado anterior. [...] é bem possível que a principal característica do
organismo vivo seja que ele representa uma anomalia da natureza em travar um
penoso combate contra as leis universais da entropia retirando constantemente
nova energia do ambiente. [...] Somente observando a interação entre a força da
energética da vida e a tendência ao equilíbrio pode-se conseguir uma concepção
mais completa da dinâmica que ativa a mente humana e que se reflete nos seu
produtos. (idem, p. 27-28).
Na imagem, essa necessidade impõe o que chamamos de um eixo sentido, ou seja,
“impõe a todas as coisas vistas e planejadas um 'eixo' vertical, com um referente horizontal
secundário, os quais determinam, em conjunto, os fatores estruturais que medem o equilíbrio.
O eixo visual [...] expressa a presença invisível mas preponderante do eixo no ato de ver.”
(idem, p.33).
Um dos fatores aos quais se referiu Dondis está na complexidade das formas.
Formas mais complexas tendem a atrair mais atenção, exatamente por provocarem mais
tensão. A visualização de imagens com formas geométricas básicas em estados de equilíbrio e
desequilíbrio ressalta, simultaneamente a importância do equilíbrio e as conseqüências do
desequilíbrio porque:
Esse processo de ordenação, de reconhecimento intuitivo da regularidade ou de
sua ausência, é inconsciente e não requer explicação ou verbalização. Tanto para o
emissor quanto para o receptor da informação visual, a falta de equilíbrio e
regularidade é um fator de desorientação. Em outras palavras, é o meio visual mais
eficaz para criar um efeito em resposta ao objetivo da mensagem, efeito que tem o
potencial direto e econômico de transmitir a informação visual.
144
145
Também a simplicidade ou a complexidade da mesma forma pode resultar em
sensações diferentes, porque “As opções visuais são polaridades, tanto de regularidade quanto
de simplicidade [...] de um lado, ou de variação complexa e inesperada [...] de outro. A
escolha entre essas opções determina a resposta relativa do espectador, tanto em termos de
repouso quanto de tensão. A relação entre tensão relativa e equilíbrio relativo pode ser
encontrada em qualquer forma regular.” (idem, p.35).
Utilizar estabilidade ou tensão não é uma questão de certo ou errado e sim de que
modo o emissor pretende afetar o receptor, ou seja, de seu propósito, sua intenção e da
maneira como reforça percepção. A tensão, ou sua ausência, é um importante fator de
composição a ser utilizado sistematicamente, na medida em que a tensão chama mais a
atenção do olho que a harmonia, embora, como observa Dondis:
muitos aspectos de tensão que deveriam ser desenvolvidos, mas, primeiro, é
preciso levar em conta que a tensão (o inesperado, o mais irregular, complexo e
instável) não domina, por si só, o olho. Na seqüência da visão, outros fatores
responsáveis pela atenção e pelo domínio compositivo. O processo de estabelecer
o eixo vertical e a base horizontal atrai o olho com muito mais intensidade para
ambos os campos visuais, dando-lhes automaticamente uma maior importância em
termos compositivos (idem, p.36)
O nivelamento é o segundo elemento e tem relação com o grau de previsibilidade.
Dondis afirma que “O poder do previsível [...] empalidece diante do poder da surpresa. A
estabilidade e a harmonia são polaridades daquilo que é visualmente inesperado e daquilo que
cria tensões na composição.” Em psicologia esses opostos são chamados de nivelamento e
aguçamento. Uma figura é harmoniosa quando seus componentes estão nivelados, caso
contrário provoca um aguçamento. Existe ainda a possibilidade da figura criar ambigüidade
visual por trazer insegurança quanto a um objeto gráfico estar ou não centralizado em um
retângulo, por exemplo. Nesse caos:
obscurece não apenas a intenção compositiva, mas também o significado. O
processo de equilíbrio natural seria refreado, tornar-se-ia confuso e, o que é mais
importante, não resolvido pela fraseologia espacial sem significado [da primeira
figura]. [...] A lei da Gestalt que rege a simplicidade perspectiva vê-se
extremamente transgredida por esse estado tão pouco claro em toda a composição
visual. Em termos de uma perfeita sintaxe visual, a ambigüidade é totalmente
indesejável. De todos os nossos sentidos, a visão é o que consome menos energia.
Ela experimenta e identifica equilíbrio, óbvio ou sutil, e as relações que atuam
entre diversos dados visuais. Seria contraproducente frustrar e confundir essa
função única. Em termos ideais, as formas visuais não devem ser propositalmente
obscuras; devem harmonizar ou contrastar, atrair ou repelir, estabelecer relação ou
entrar em conflito. (idem, p.39)
O terceiro elemento está relacionado à preferência do olho humano favorecer a zona
inferior esquerda de qualquer campo visual. Isto é, “existe um padrão primário de varredura
do campo que segue aos referentes verticais-horizontais, e um padrão secundário de varredura
que reage ao impulso perceptivo inferior-esquerdo”. Bem como uma preferência por um
nivelamento dos objetos presentes na imagem:
Quando o material visual se ajusta às nossas expectativas em termos de eixo
sentido, da base estabilizadora horizontal, do predomínio da área esquerda do
campo sobre a direita e da metade inferior do campo visual superior, estamos
diante de uma composição nivelada, que apresenta um mínimo de tensão. Quando
predominam as situações opostas, temos uma composição de tensão máxima. Em
termos mais simples, os elementos visuais que se situam em áreas de tensão m
mais peso do que os elementos nivelados. O peso, que nesse contexto significa
capacidade de atrair o olho, tem aqui uma enorme importância em termos de
equilíbrio compositivo. (idem, p.41).
Prossegue Dondis, para demonstrar que na composição também deve haver
considerações acerca de 'peso' e do 'contrapeso'.
uma relação direta entre o peso e o predomínio visual das formas e sua
regularidade relativa. A complexidade, a instabilidade e a irregularidade aumentam
a tensão visual, e, em decorrência disso, atraem o olho, como se mostra nas formas
regulares e nas irregulares. Os dois grupos representam a opção entre duas
categorias fundamentais em composição: a composição equilibrada, racional, e
harmoniosa, em contrapartida à exagerada, distorcida e emocional. (idem, p.42).
Outro elemento importante é o princípio do agrupamento, ou seja, da força de
atração, que constitui outro princípio da Gestalt de grande valor compositivo e tem dois níveis
de significado. O primeiro implica que ao aproximarmos os objetos dentro do quadrado nosso
olho se concentrará neles e não na imagem total. O segundo nível é o da similaridade,
segundo o qual são mais harmoniosos os objetos idênticos agrupados .
Um último elemento é a relação Positivo X Negativo, segundo a qual o que domina o
olho na experiência visual é visto como elemento positivo, e como elemento negativo
consideraríamos tudo aquilo que se apresenta de maneira mais passiva.
Não é propósito desta tese descrever completamente a sintaxe da Linguagem Visual e
os elementos apresentados o foram somente a título de ilustrar a existência de uma linguagem
que, de forma análoga à verbal, permite melhor compreender as imagens. Existem outros
aspectos de composição importantes tais como contraste tom, cor, forma, escala e
146
147
técnicas visuais relacionadas à estratégia da própria comunicação. São essas técnicas
unidade vs. fragmentação, economia vs. profusão, minimização vs. exagero, atividade vs.
êxtase, planura vs. Profundidade, e outras que segundo Dondis (idem, p.139): oferecem
“uma grande variedade de meios de expressão visual do conteúdo. Existem como polaridade
de um continuum, ou como abordagens desiguais e antagônicas do significado.”
Por sinal, é através da fragmentação, técnica que consiste na “decomposição dos
elementos e unidades de um design em partes separadas, que se relacionam entre si mas
conservam seu caráter individual” (idem, 145), que é possível representar em uma imagem
pictórica a sensação de movimento na imagem.
Porém, não podemos confundir a sensação do movimento na imagem, dentro da
imagem, com a percepção de que imagens estão em movimento, ou seja, a imagem
cinematográfica, fruto de recurso ótico do olho humano relacionado ao fenômeno da
'persistência da visão'.
3.3. - LINGUAGEM CINEMATOGRÁFICA
Nesta tese denominamos de linguagem cinematográfica ou cinema, qualquer mídia
para apresentação de imagens em movimento, independentemente do tipo da mídia física de
grau de recursividade superior que seja utilizada: celulóide, eletromagnética ou digital. A
seguir apresentaremos brevemente como se desenvolveu a linguagem cinematográfica, por ser
esta passível de utilização na gestalt multimídia das telas dos computadores.
Quando surgiu o cinema, nos anos que se seguiram à Primeira Guerra Mundial, por
volta de 1914 1917, muitos espectadores não conseguiam compreender o novo espetáculo
de figuras em movimento que viam. Assim, durante todo o tempo de projeção de um filme era
preciso que uma pessoa, ao lado da tela normalmente um lençol esticado explicasse o que
estava acontecendo, qual era a história que estava sendo apresentada – contada.
Com isso, segundo Jean-Claude Carrière, autor de A linguagem Secreta do Cinema
(2006) “os filmes não existem ali, na tela, no instante de sua projeção. Eles mesclam às
nossas vidas, influem na nossa maneira de ver o mundo, consolidam afetos, estreitam laços,
tecem cumplicidades” (CARRIÈRE, 2006 p. 8).
Carrière confirma a existência do explicador quando nos conta que o cineasta:
Luis Buñuel ainda conheceu esse costume [...] em sua infância na Espanha, em
torno de 1908 ou 1910. De pé, com um longo bastão, o homem apontava os
personagens na tela e explicava o que eles estavam fazendo. Era chamado
explicador. Desapareceu pelo menos na Espanha por volta de 1920. Imagino
que surgiram tipos como esse mais ou menos em toda parte. Porque o cinema criou
uma nova absolutamente nova linguagem, que poucos espectadores podiam
absorver sem esforço ou ajuda. (idem, p.15)
O cinema pode ser analisado sob diversos pontos de vista, desde que nesta análise
seja excluída toda rigidez metodológica ou ideológica que povoa nossos pensamentos.
Nos dez primeiros anos do cinema, um filme representava apenas uma seqüência de
“tomadas estéticas, fruto direto da visão teatral”. Os acontecimentos, as imagens que
compunham a história, eram apresentados um depois do outro e em seqüência ininterrupta,
dentro de um enquadramento imóvel. “as pessoas tinham curiosidade de saber de que era feita
aquela imagem em movimento; vendo nela uma espécie de nova realidade, buscavam a ilusão,
o truque”. Mas, depois da primeira surpresa compreendiam que a seqüência de
acontecimentos apresentados, ordenados rolo a rolo, era fictícia. “Afinal, não era diferente do
que acontecia no teatro, onde o palco era estático e claramente demarcado”. Os personagens
surgiam e desapareciam, trocavam gestos, apareciam e desapareciam com num passe de
mágica. Carrière explica bem este contexto: “Quando deixavam o campo de visão da câmera,
era como se saíssem para os bastidores. E, como não tinham voz e (quase sempre) cor,
eminentes cabeças concluíram que tudo aquilo era decididamente inferior ao teatro de
verdade.” (idem p.16-17).
Carrière explica que nesta época ainda não havia surgido uma linguagem
autenticamente de cinema até que os cineastas começassem a cortar os filmes em cenas, até
que surgisse a montagem e a edição. O trabalho de montagem é um trabalho que consiste
basicamente em escolher cenas e colocá-las em seqüência. A edição envolve a seleção e a
seqüência de partes de um filme, consiste em construir a dimensão da imagem de um evento,
ou seja, a seleção seqüencial das partes do material produzido. É no processo de conclusão do
filme, que se apresenta a linguagem cinematográfica.
Foi ai, na relação invisível de uma cena com a outra, que o cinema realmente gerou
uma nova linguagem, no ardor de sua implementação, essa cnica aparentemente
simples criou um vocabulário e uma gramática de incrível variedade. Nenhuma
outra mídia ostenta um processo como esse. Podemos tentar descrevê-lo,
primeiramente, em termos elementares. Um homem, num quarto fechado, se
aproxima de uma janela e olha para fora. Outra imagem, outra tomada, sucede a
primeira. Aparece a rua, onde vemos dois personagens a mulher do homem e o
148
149
amante dela, por exemplo. Para nós, atualmente a simples justaposição dessas duas
imagens, naquela ordem, e até na ordem inversa (começando da rua), nos revela,
claramente, sem que precisemos raciocinar, que o homem viu pela janela, a mulher
e o amante na rua. Nós sabemos; s o vimos no ato de ver. Interpretamos,
corretamente e sem esforço, essas imagens justapostas, essa linguagem. Nem
percebemos mais essa conexão elementar, automática, reflexiva; como uma
espécie de sentido extra, essa capacidade já faz parte do nosso sistema de
percepção. oitenta anos, no entanto, isso constituiu uma discreta mas
verdadeira revolução; daí o papel essencial do explicador, apontando os
personagens com o bastão e dizendo: ‘O homem olha pela janela...Vê a mulher
dele com outro homem, na rua...’ E talvez, se a imagem seguinte fosse, por
exemplo, o rosto enraivecido na espreita, desta vez perto da câmera (uma nova
ousadia, nova mudança, novo tamanho da figura, novo uso do espaço) o
explicador continuaria: ‘O homem está furioso. Acabou de reconhecer o amante da
mulher. Está com idéias assassinas... [...] Fiquemos por um momento com o
homem que espreita pela janela a hora da vingança. Agora, a mulher se despede
do amante e se dirige para casa. Olhando para cima, ela o marido na janela, e
treme de medo. Quase podemos ouvir seu coração bater. Se, nesse momento, o
marido for filmado do ponto de vista da mulher, diretamente de baixo para cima,
inevitavelmente vai parecer ameaçador, todo poderoso. Apenas a posição da
câmera produzi esse efeito, independente de nossos próprios sentimentos. Por
outro lado, se virmos a mulher do ponto de vista do marido, de cima para baixo,
ela parecerá amedrontada, vulnerável, culpada. Imaginemos que a cena se passa à
noite. Se o diretor decidir dispor as luzes de modo que o rosto do marido fique
iluminado por baixo, fazendo os dentes brilharem, exagerando os ossos das maçãs
do rosto e as rugas da testa (elemento importante de filmes de horror), o homem
parecerá cruel e aterrador. Por outro lado, uma iluminação suave, impressionista,
pode fazê-lo parecer clemente. [...] tudo faz parte da vida e do amadurecimento de
uma linguagem. [...] Assim, no curto período de alguns anos, empiricamente, em
cima de fracassos e vitórias, elaborou-se a mais surpreendente das gramáticas.
(idem, p.16-17).
A narração de Carrière nos mostra que desde as primeiras seqüências de desenhos até
a sucessão das chapas de projeção da lanterna mágica, “a mão e o olho humanos trabalharam
incansavelmente, e às vezes com surpreendente sucesso, para nos mostra o impossível para
nos mostrar movimento numa imagem estática”. Portanto, se considerarmos somente este
ponto de vista podemos dizer que o cinema representou um grande avanço técnico da
humanidade. Mas a verdadeira inovação – complementa Carrière – empolgante, nunca vista e
talvez nunca sonhada reside na justaposição de duas cenas em movimento, a segunda
anulando a primeira, ao sucedê-la.”(idem, p.17)
O cinema criou um novo espaço com um simples deslocamento do ponto de vista.
“Por exemplo, os olhos de um homem vagueiam por sobre a multidão e, de súbito, param. Se,
nesse momento, outro personagem for imediatamente focalizado, sabemos que o primeiro
homem está olhando para ele. Se a direção do olhar for bem estabelecida, essa relação fica
demonstrada sem sombra de dúvida.” Esses processos narrativos, continua Carrière, essas
impressões ou novas formas de ‘mostrar sentimentos por meio do deslocamento e
associações de imagens, “foram estabelecidos, no principio da década de 1920, com espanto e
apaixonado entusiasmo, comprovado milhares de vezes.” (idem, p.18).
No ano de 1923, quando ainda era estudante em Madri, Luis Buñuel for à cidade de
Paris em busca de alguns filmes que pudessem ilustrar novas técnicas do cinema, como a
técnica de filmar em câmera acelerada, “imagem a imagem, o que permitiria ver o que nunca
havia sido visto a germinação e o crescimento de uma planta, por exemplo.” Entusiasmado
com a ‘novidade’ Buñuel organizou algumas palestras em Madri para apresentar pessoalmente
estas maravilhosas novidades.
Três anos mais tarde, em 1926, Jean Epsteim um realizador de cinema polaco-
francês surpreendeu a todos quando disse: “A gramática cinematográfica é específica do
cinema” (idem, ibidem). Embora esta colocação tenha surpreendido muita gente, finalmente o
cinema começava a ser reconhecido como uma forma de arte com linguagem própria que se
utilizava de códigos próprios e se tornava uma convenção de escala planetária indiferente às
particularidades linguísticas de cada povo. Em breve espaço de tempo o cinema ofuscaria
outras expressões artísticas.
A linguagem era manipulada de maneiras diferentes, conforme se quisesse sugerir
um sonho (neste caso, em primeiro lugar, os olhos do personagem se fechavam),
uma lembrança ou o ímpeto de agir. O rosto e, particularmente, os olhos do ator
projetavam e recebiam sinais que organizavam a narrativa e criavam sentimentos.
As imagens falavam através do olhar [...]. Hoje o espantoso é que, à medida que
nosso século avança, tentamos ainda, de alguma forma, acompanhar essa bizarra
evolução lingüística [...]. Numa mídia visual, nada é percebido mais imediatamente
por uma platéia do que um velho efeito, algo já visto, algo realizado. [...] quase
no começo da aventura, os cineastas perceberam que a memória de imagens pode,
às vezes, ser mais forte e duradoura do que a de palavras e frases. O cinema faz
uso pródigo de tudo que veio antes dele. Quando ganhou a fala em 1930,
requisitou o serviço de escritores; com o sucesso da cor, arregimentou pintores;
recorreu a músicos e arquitetos. Cada um contribuiu com sua visão, com uma
forma de expressão. [...] E foi através da repetição de formas, do contato cotidiano
com todos os tipos de platéias, que a linguagem tomou forma e se expandiu, com
cada grande cineasta enriquecendo, de seu próprio jeito, o vasto e invisível
dicionário que hoje todos nós conhecemos. Uma linguagem que continua em
mutação, semana a semana, dia a dia, como reflexo veloz dessas relações obscuras,
multifacetadas, complexas, contraditórias, as relações que constituem o singular
tecido conjuntivo das sociedades humanas. (CARRIÈRE, 2006, p. 22-23).
A partir de 1930, ao mesmo tempo em que ganhou a fala e que crescia a participação
150
151
de escritores; pintores; músicos e arquitetos nas produções cinematográficas, o cinema
precisou cada vez mais demonstrar que era dotado de uma linguagem própria para ser
reconhecido, de fato, como uma forma de arte. Porém, para Jaques Aumont, autor de A
estética do filme (1994) atribuir-lhe uma linguagem era arriscar-se a congelar suas estruturas,
passar do nível da linguagem ao da gramática; desse modo, em virtude do caráter muito
impreciso da palavra, a utilização de ‘linguagem’ a propósito do cinema deu lugar a múltiplos
mal-entendidos. Estes últimos balizam a história da teoria do cinema até hoje e encontram sua
formulação nas noções de ‘cinelíngua’, gramática do cinema, ‘cine-estilística’, retórica
filmíca etc.” (AUMONT, 2006 p. 157).
Foram os primeiros teóricos do cinema Ricciotto Canudo e Louis Delluc que
falaram pela primeira vez em “linguagem cinematográfica”. Canudo foi crítico de cinema
pertencente ao futurismo italiano. Em 1911, publicou em Paris um artigo intitulado "A
Naissance d'um sixième art. Essai sul le cinématographe", considerado o primeiro texto no
qual se define o cinema como uma arte – a sétima arte – na qual se resumem as demais. Para
Canudo, com o cinema nascia a "arte total", "a plástica em movimento", "a alma da
modernidade", já que reunia e conciliava na sua linguagem e expressão a dimensão plástica da
pintura, a arquitetura e a escultura e a dimensão rítmica da dança, a música e a poesia. Louis
Delluc foi um grande colaborador do cinema francês e crítico cinematográfico. Foi mais
conhecido por seus livros sobre Charles Chaplin, escritos em 1921 e traduzidos para o Inglês
em 1922.
O termo “linguagem cinematográfica” representava, especialmente para os franceses
da época, um novo meio de expressão que opunha o cinema à linguagem verbal, pois estes a
consideravam uma linguagem universal que permitia superar os obstáculos da diversidade das
línguas. Conforme explica Aumont (2006 p. 159) a linguagem cinematográfica “Realiza o
sonho antigo de um ‘esperanto visual’: ‘O cinema anda por toda parte’, escreve Louis Delluc
em Cinema et cie, ‘é um grande meio para os povos dialogarem’. Essa ‘música da luz’ não
precisa ser traduzida, é compreendida por todos e permite reencontrar uma espécie de estado
‘natural’ da linguagem, anterior ao arbitrário das línguas”.
Considerando que o cinema multiplicava os sentidos humanos através da imagem,
que permite reconduzir as representações da vida, das emoções do movimento por meio da
linguagem cinematográfica visual, Canudo, Delluc e Abel Gance renomado cineasta,
produtor e editor de filmes, escritor e ator francês –, para tentar provar a complexidade do
cinema o batizam de ‘sétima arte’. Neste contexto, Gance postulava: “a linguagem das
imagens, que nos reconduz à ideografia das escritas primitivas, ainda não es determinada,
porque nossos olhos não são feitos para elas.”
Embora o cinema estivesse sendo considerado “a sétima arte”, o conceito de
linguagem cinematográfica era contestada por alguns teóricos do cinema. Para os formalistas
russos, por exemplo, esclarece Aumont que existiria arte e, conseqüentemente, linguagem
cinematográfica quando existisse transformação artística do mundo real. Essa transformação
pode intervir se vinculada ao emprego de certos procedimentos expressivos, que resulta de
uma intenção de comunicar um significado”. (AUMONT, idem, p.165)
Mais tarde, o conceito de gramática foi discutido entre os teóricos do cinema:
As gramáticas do cinema desenvolveram-se essencialmente depois da Liberação,
no momento em que a promoção artística do cinema começava a ser reconhecida
mais globalmente. O cinema era, portanto, uma arte total dotada de uma
linguagem. Para conhecer melhor essa linguagem, parecia necessário explorar suas
principais figuras. [...] o cinema, primeira arte realmente popular pela amplidão da
sua audiência, deveria ser explicado a seu grande público, que assistia aos filmes
na maior inocência, sem intuir uma linguagem. [...] A gramática cinematográfica
estuda as regras que presidem a arte de transmitir corretamente idéias por uma
sucessão de imagens animadas, formando um filme (Robert Bataille apud
AUMONT, idem, p.165)
Para Marcel Martin, segundo Aumont todo esse discurso das gramáticas do cinema
não podiam ignorar que aplicado ao cinema, “[...] o conceito de linguagem é bastante
ambíguo. É preciso ver nele aquilo a que chamei o arsenal gramatical e lingüístico,
essencialmente vinculado à técnica dos diversos procedimentos de expressão fílmica ”. (2006
p.170)
Outras discussões, acerca da importância e para esclarecimentos da linguagem do
cinema, foram realizadas ao longo do tempo, até que alguns pioneiros da estética do cinema
enfatizaram suas reivindicações acerca da originalidade desta arte e da sua total autonomia
como meio de expressão e possuidora de materiais próprios de expressão, embora, incorpore
outras linguagens com grau de recursividade inferior a exemplo da linguagem musical.
Segundo Aumont et al (2006 p. 192) para Louis Hjelmslev, o cinema tem várias
linguagens e cada linguagem caracteriza-se por um tipo ou combinação específica de
materiais de expressão, algumas são homogêneas e outras heterogêneas. Por exemplo: “O
material da expressão da música é o som não-fônico, de origem instrumental, na maioria dos
152
153
casos; a ópera é menos homogênea, pois acrescenta os sons fônicos (a voz dos cantores); o
material da expressão da pintura é composto de significantes visuais e coloridos de origem
física diversa, e pode integrar significantes gráficos.”
A linguagem cinematográfica sonora apresenta um grau de heterogeneidade
particularmente importante, pois combina cinco materiais diferentes: a trilha de
imagem compreende as imagens fotográficas que se movem, múltiplas e colocadas
em série, e, acessoriamente, notações gráficas que podem substituir as imagens
analógicas (letreiros) ou a elas se sobrepor (legendas e menções gráficas internas à
imagem). [...] A trilha sonora veio acrescentar três novos materiais da expressão: o
som fônico, o som musical e o som analógico (os ruídos). Esses três materiais
intervêm simultaneamente com a imagem, é essa simultaneidade que os integra à
linguagem cinematográfica, na medida em que, intervindo sozinhos, constituem
uma outra linguagem, a linguagem radiofônica. Um único desses materiais é
específico da linguagem cinematográfica, trata-se, é claro, da imagem em
movimento. É por esse motivo que muitas vezes se tentou a essência do cinema
através dela. [...] O cinema é igualmente heterogêneo em outro sentido, nele
intervêm configurações significantes que necessitam do recurso ao significante
cinematográfico e muitas outras configurações que nada m de especialmente
cinematográficas. [...] São essas configurações significantes que Christian Metz,
depois de Louis Hjelmslev, A.L.Greimas, Roland Barthes e muitos outros,
chamaram de códigos. (AUMONT, idem p. 190).
A denominação de códigos atribuída por Christian Metz às configurações
significantes provocou diversas discussões. Aumont explicam que Metz, inspirado em Louis
Hjelmslev, mobilizou uma certa oposição entre conjuntos concretos (mensagens fílmicas) e
conjuntos sistemáticos, entidades abstratas, que são os códigos “cuja homogeneidade não é
de ordem sensorial ou material, mas da ordem da coerência lógica, do poder explicativo, do
esclarecimento.”. (idem p. 195)
No contexto do cinema os códigos podem ser compreendidos como um certo número
de configurações significantes, estas configurações estão ligadas diretamente a um
determinado tipo de material da expressão, ou seja, para que elas possam intervir é preciso
que a linguagem de recepção tenha alguns traços materiais. Para exemplificar este contexto
Aumont et al (idem p. 196) citam como exemplo o código do ritmo, ou seja, “o conjunto das
figuras fundamentadas em relações de duração; é evidente que esse código poderá intervir
literalmente em uma linguagem que possui um material de expressão temporalizado. É claro
que sempre se poderá comentar o ‘ritmo’ da composição visual em um quadro, mas será num
sentido muito metafórico.”
Portanto, as configurações significantes que podem apenas intervir no cinema são
bem limitadas porque estão ligadas ao material de expressão que é próprio do cinema, ou seja,
à imagem fotográfica em movimento e a determinadas formas de estruturação que também
são características do cinema. Para Aumont (idem, p. 197):
Um exemplo tradicional de código específico é o dos movimentos de mera. Este
diz respeito à totalidade do campo associativo vinculado às relações de fixidez e de
mobilidade que podem intervir em um plano cinematográfico: a qualquer instante,
a câmera pode permanecer fixa ou então produzir uma determinada trajetória
(vertical, horizontal, circular). Cada um dos planos explicita uma escolha, isto é, a
eliminação de todas as figuras não pensantes. Esse código é específico porque
necessita concretamente da mobilização da tecnologia cinematográfica, como
aparece com particular clareza na maioria dos filmes do húngaro Miklos Jancso
(Sirocco d’hiver, 1969; Psaume rouge, 1971 et.), compostos de longuíssimos
planos-seqüência com travelling imensas. O código das escalas de plano, que
constitui muitas vezes o bê-á-das gramáticas cinematográficas,o é específico
do cinema, pois se refere igualmente à fotografia fixa.
Enfim, a imagem mecânica que se move, múltipla e seqüencialmente, é o material da
expressão do cinema. Ao passo que os traços particulares dessa linguagem evoluem, acentua-
se o grau de especificidade de seus códigos. Os da analogia visual, por exemplo, se referem às
imagens figurativas, “só serão fragilmente específicos do cinema ao mesmo tempo em que
nele desempenham um papel de primeiro plano”. Os fotográficos, são ligados à incidência
angular enquadramentos. “O código das escalas de plano, o da nitidez da imagem referem-
se apenas à imagem ‘mecânica’ obtida por uma tecnologia fisicoquímica” logo, são mais
específicos do que os da analogia visual. Já os códigos relacionados à colocação em seqüência
da imagem, são por sua vez mais específicos ainda – embora “se refiram também à fotonovela
e à história em quadrinhos.”
Por último, os únicos códigos que são exclusivamente cinematográficos (e
televisuais, mas as duas linguagens são amplamente comuns) estão ligados ao movimento da
imagem: códigos de movimento de câmera, códigos dos raccords dinâmicos uma figura
como o raccord no eixo é própria do cinema, opõe-se aos outros tipos de raccord e
encontra equivalentes na fotonovela por aproximação.” (AUMONT, idem, p.197-98).
Acabamos de ressaltar a importância do som na produção de conteúdos
cinematográficos. A linguagem musical é outra forma utilizada para transmitir informações e
emoções a humanos, através do sentido auditivo. Do mesmo modo que as outras linguagens,
também a linguagem musical é ouvida através de redes neurais que se formam para permitir
que ousamos os sons, a música, como veremos a seguir.
154
155
3.4 - LINGUAGEM MUSICAL
De acordo com Robert Jourdain, autor de Música, Cérebro e Êxtase: como a música
captura nossa imaginação (1998), foi no século XIX que a música começou a fazer parte da
experiência dos cientistas. A música acústica que significa ciência do som em si foi a
primeira; a psicoacústica estudo de como a mente percebe o som a segunda; a
psicoacústica musical, a terceira uma disciplina ampla que examina todos os aspectos da
percepção e do desempenho musicais . Nesta mesma época, embora lentamente, a ciência do
cérebro foi avançando, “com relutância, um de bilhões de células nervosas foi revelando
alguns dos seus segredos. Hoje, os cientistas podem observar como um ouvido dança em
compasso com uma valsa e a maneira como partes do córtex cerebral ‘acendem-se’, quando
Mozart circula em torno.” (JOURDAIN, 1998 p. 13).
Considerando que hoje os cientistas podem observar como um ouvido dança, que
relevância tem um breve estudo a música no contexto desta pesquisa? Toda relevância quando
fazemos um paralelo entre música e linguagem, pois embora as mentes se comuniquem de
diversas formas, através de símbolos, gestos e etc, apenas a linguagens da música
independentemente de suas diferenças “operam em larga escala e com grande detalhe. E,
embora formas menores de comunicação sejam encontradas em todo o reino animal, os
seres humanos são capazes de produzir e compreender a música e linguagem.” (idem, p.348).
A associação entre música e linguagem é antiga. “Quando Santo Agostinho escreveu
seu De música, no século V, tratou principalmente de poesia. Não é de admirar. Tanto a
música quanto a linguagem têm a ver com longas torrentes de som, altamente organizadas.”
Jourdain (idem p, 349) apresenta uma interessante comparação entre as linguagens verbal e
musical, inclusive quanto à nossa capacidade inata para compreender a ambas:
Não há nenhuma entidade sônica equivalente na experiência humana, ou no mundo
natural (nem mesmo as canções das baleias, de horas de duração, mas cuja
complexidade se revelou menor que a do canto dos pássaros). Aprendemos a
entender tanto a música quanto a linguagem apenas através do contato, e a
produzir frases e melodias sem qualquer treinamento formal em suas regras
subjacentes. Ambas parecem características ‘naturais’, parte integrante dos nossos
sistemas nervosos. O fraseado talvez seja o paralelo mais próximo entre música e
linguagem. [...] o fraseado divide longas torrentes de sons em bocados
compreensíveis. Trabalho de laboratório confirma que nossos cérebros tratam as
frases musicais e as frases faladas de forma parecida, suspendendo a compreensão
ao chegar uma frase e, depois, fazendo uma pausa para engolir a coisa toda. Um
estudo mostrou que os ouvintes têm muito mais problemas para descobrir uma
seqüência de duas notas quando ela abarca duas frases; a mente, simplesmente,
não quer ouvir as duas notas juntas. Resultados parecidos resultam de uma técnica
avançada para a pesquisa lingüística, chamada migração do estalo. Pede-se a
pacientes que lembrem a silaba, de determinada frase, na qual se deu um ‘estalo
ou compreensão repentina. Freqüentemente, eles descrevem um estalo que ocorreu
no meio da frase como se tivesse ocorrido no fim, ponto em que o cérebro decide
firmemente qual será o significado da frase. Descobriu-se que, de modo similar, os
estalos migram para os finais das frases musicais . (idem, p.350).
Embora para muitas pessoas a relação entre música e linguagem seja frágil, alguns
pesquisadores como Jourdain (idem, p.352) continuam a afirmar que a música é um elemento
fundamental para o desenvolvimento da linguagem e vice-versa. “O motivo é que música e
linguagem baseiam-se ambas em hierarquias generativas. Essas hierarquias começam com
uma estrutura de superfície, e esta consiste em padrões de notas ou de palavras que compõem
melodias ou frases.
Desde o final da década de 50, as gramáticas generativas propostas por Noam
Chomsky passaram a dominar a teoria lingüística. Chomsky descreveu muitas
regras que usamos, ao representarmos um entendimento em termos de uma
seqüência de palavras. Poderíamos dizer ‘Jack tocou a guitarra’, ou ‘A guitarra foi
tocada por Jack’, usando diferentes regras para gerar diferentes representações de
superfície da mesma estrutura profunda. A escolha de regras é específica da língua
que você fala, seja inglês ou suaíli, e segundo Chomsky, essas regras se inspiram
numa gramática universal, da qual nascem todas as línguas, e para além da qual
nenhuma língua pode ir. Embora essa gramática universal tenha, até agora,
resistido a uma descrição completa, Chomsky acredita que esteja gravada em
nossos cérebros, supostamente como resultado de centenas de milhares de anos de
evolução. (JOURDAIN, idem, p. 352).
A análise lingüística é importante mas por si não pode dar conta de explicar o elo
existente entre música e linguagem. Análises sobre a relação música e linguagem, para serem
completas, devem considerar os pressupostos da neuropsicologia, pois muitos aspectos da
linguagem estão localizados no cérebro humano. Jourdain (idem, p.354) esclarece esta
afirmação: “Quando ocorrem danos em áreas da linguagem, e esta falha, podemos tentar
verificar se a música falha também. Inversamente, quando as habilidades musicais
desaparecem, por causa de acidentes neurológicos, podemos observar as bem mapeadas áreas
de linguagem e descobrir se estão intactas.”
A afirmação do autor de que é possível observar as áreas de linguagem, torna esta
análise um tanto complexa em decorrência da ambigüidade da lateralização distribuição das
funções entre hemisférios que se estende a certas estruturas do cérebro e que determina o
domínio de certas atividades em cada lado do cérebro, que são, como vimos, características
156
157
básicas das redes neurais.
Fundamental na idéia de lateralização é a noção de que cada lado do rebro
domina certas atividades. Mas dominância não significa controle absoluto.
Nenhum dos dois lados do cérebro tem preponderância absoluta em qualquer
função. O cérebro esquerdo tem contagens mais altas que o direito em várias
tarefas referentes ao processamento da linguagem. É 90 por cento melhor no
reconhecimento de palavras e cerca de 70 por cento melhor na identificação de
silabas sem sentido, ou discurso invertido. Inversamente, o cérebro direito tem
vantagens mais altas em certas tarefas musicais, embora a disparidade de
habilidades dos dois hemisférios seja menos pronunciada do que ocorre com a
linguagem. O cérebro direito é cerca de 20 por cento melhor na identificação de
padrões melódicos e meramente 10 por cento melhor no reconhecimento de sons
que não são do discurso, como gargalhadas, ou gritos de animais. Embora a
linguagem, quase sempre, seja significativamente lateralizada, muitos pacientes
não mostram lateralização alguma no caso da música. Então, é inteiramente errado
conceber a música como se fosse canalizada de forma exclusiva para o rebro
direito, e a linguagem para o esquerdo. Ambos os lados ficam ocupados, em
qualquer tipo de tarefa. Talvez a generalização mais útil sobre os papeis do dois
lados do rebro seja a de que o cérebro esquerdo volta-se particularmente para a
modelagem de relações entre acontecimentos através do tempo, enquanto o cérebro
direito favorece relações entre acontecimentos que ocorrem simultaneamente. [...]
essa dicotomia é clara nas preferências esquerda-direita pelo processamento
musical. [...] as harmonias tendem a ser reconhecidas mais efetivamente pelo
hemisfério direito e o ritmo é favorecido pelo esquerdo. Ambas as habilidades são
centralizadas mais ou menos nas mesmas áreas do córtex temporal, embora a
harmonia tenha uma localização muito mais precisa que o ritmo. (JOURDAIN,
idem, p.355-356).
Embora as habilidades para o processamento musical estejam centralizadas mais ou
menos nas mesmas áreas do córtex temporal, o interessante é que o processamento da
melodia, por exemplo, é feito pelo lado direito, que pode comparar as notas de uma tal
melodia. Porém quando uma melodia aparece como um logo desenvolvimento temático,
demorando vários minutos, é o lado esquerdo quem a processa.
Todas as explicações apresentadas por Jourdain nasceram da realização de pesquisa,
e quase todas com o objetivo de mapear o comportamento musical do cérebro. Entretanto,
estas pesquisas foram realizadas com pacientes ocidentais, “em geral bem-educados, e
empregando exemplos musicais do chamado período da prática comum da música ocidental
(séculos XVIII e XIX). Ninguém sabe quão diferentemente poderiam funcionar os cérebros de
um indonésio ou nigeriano médio, ouvindo a sua própria música. Isto que dizer que ninguém
sabe até que ponto a lateralização da música é condicionada pela experiência. Como os
cérebros são tão idiossincráticos em seu comportamento, estudos efetivos exigem grandes
amostras de dados, obtidos de muitos pacientes.” (JOURDAIN, idem, p.357-358).
Em resumo, neste capítulo discorremos acerca das formas como a máquina
biológica processa informações que recebe do ambiente e é capaz de formular respostas
utilizando-se de várias linguagens. Defendemos que as linguagens com grau de recursividade
inferior são inatas e estão diretamente relacionadas aos órgãos dos sentidos humanos. No
próximo capítulo veremos como procede a máquina artificial, o computador para realizar
operações análogas.
158
159
CAPÍTULO IV - COMPUTADOR UMA NOVA MÍDIA
algum tempo estamos assistindo à substituição de equipamentos eletro-
eletrônicos de comunicação por hardware
25
de computador e software
26
especializado. Esse
fenômeno de digitalização consiste na utilização de processadores eletrônicos e softwares para
processamento de informações em formato digital, em substituição ao processamento de
informações em formato analógico, comum aos equipamentos eletro-eletrônicos.
Alguns exemplos significativos dessa mudança são computadores com softwares
para visualização de filmes, que substituem aparelhos de videocassete acoplados a televisores;
microprocessadores e softwares que reproduzem música transmitida em formato digital mp3;
câmeras de vídeo com processadores e softwares que armazenam imagens em movimento em
DVD – Digital Versatile Disk. É verdade que mais de uma década computadores digitais e
software de DTV Desk Top Video estão sendo empregados nos processos de montagem e
edição de produtos audiovisuais, porém, mais recentemente, podemos observar um esforço
razoável da indústria midiática mundial, no sentido de intensificar e ampliar o uso de
tecnologias digitais em processos de captação, armazenamento e transmissão de todo tipo de
mensagem comunicacional.
Ao considerarmos que a indústria de eletrônica, notadamente a produtora de chip
27
e
microprocessadores, desenvolve tecnologia de uso geral, inclusive como forma de viabilizar
ganhos com a escala de produção, adquire grande importância a indústria de software,
produtora de algoritmos e códigos que “especializam” o uso do hardware.
Na tentativa de antever o impacto dessa verdadeira revolução nas atividades da
indústria midiática procuraremos descrever, sucintamente, as características estruturais e
funcionais da mídia digital e o papel e a relevância do componente software na composição
desses novos sistemas de mídia digital.
Um sistema de mídia digital
28
pode servir a uma diversidade comunicacional
bastante ampla, tal como concebida na figura 7 - Modelo de Sistema
de Mídia Digital.
25 Componentes físicos tais como chips, cabos, dispositivos eletrônicos, e outros utilizados na fabricação de
computadores e outros equipamentos eletrônicos. (www.hyperdictionary.com).
26 Consistem em programas e códigos que instruem os computadores sobre o que fazer" (STRAUBHAAR,
1997, p.195).
27 Chip é o componente que realiza o processamento principal e o controle das partes de um sistema maior, tais
como o processador principal dos microcomputadores ou o processador auxiliar dos discos magnéticos.
(www.hyperdictionary.com). A "integração em larga escala (VLSI) comprime computadores inteiros dentro de
um único chip de silício" (STRAUBHAAR, 1997, p.194)
28 Conjunto de subsistemas compostos por hardware e software desenvolvidos com propósito específico.
Através de um sistema de mídia desse tipo, pessoas presentes em qualquer local
do planeta, utilizando-se de uma miríade de equipamentos emissores e receptores de sinal
digital ou analógico, podem conectar esses periféricos a uma rede de computadores e ter
acesso interativo e on-demand
29
a um enorme conjunto de informações espalhadas por toda a
rede, sem a necessidade de que o usuário precise saber a localização dos conteúdos desejados,
ou de realizar procedimentos complexos para acessá-los.
Da mesma forma, também podemos chamar de mídia digital agregados tecnológicos
com escopo comunicacional mais reduzidos e uso mais especializado, tais como aparelhos
eletrônicos para tocar música, por exemplo.
Sistemas mais amplos como o do Modelo de sistema de mídia digital são compostos
por redes físicas de computadores, representadas pela malha central na figura 7 - Modelo de
Sistema
de Mídia Digital, que se comunicam através de sistemas de telecomunicações,
integrados por redes de cabos telefônicos e da TV por cabos, ondas de rádio, fibra ótica e
satélites, através das quais irão trafegar as informações.
Artefatos eletrônicos periféricos como os representados no topo da figura 7 tais
como telas touch screen
30
, televisores, computadores de qualquer tipo, scanners, impressoras,
aparelhos de telefonia (telefone, videofone ou celular), papel eletrônico e afins irão
possibilitar a interação entre o mundo exterior e as informações disponível nas bases de
conhecimento explícito presentes em diversos pontos da rede. Em outras palavras, são
equipamentos de entrada e saída, necessários à comunicação entre homens e máquinas.
Devidamente programados com software especializados, esses periféricos serão capazes de
conectar-se às redes de comunicação para transmitir e/ou receber eletronicamente os
conteúdos digitais.
Outro componente importante é o subsistema de arquivos eletrônicos digitais (digital
storage systems). Denominados de base de conhecimento, os subsistemas de arquivos,
apresentados na base da figura 7, são hardware e software responsáveis pelo armazenamento e
recuperação das informações digitais em inúmeros pontos da rede. Essas bases de
“conhecimento” ampliam os recursos dos bancos de dados atuais pois, além de armazenarem
29 Contrariamente ao sistema de Broadcast, no sistema on-demand é o receptor, por meio de recursos de
interação, e não o emissor da informação quem escolhe qual informação deseja receber bem como em que
momento .
30 São Telas de terminais gráficos de computador que podem ser acionadas através do toque físico.
160
161
e recuperarem dados textuais e numéricos, possibilitarão o tratamento de media objects
31
, que
podem conter simultaneamente textos, gráficos, som, imagens em movimento, cinema digital,
desenhos vetoriais, desenhos e animações 2D e 3D (duas ou três dimensões), objetos de
realidade virtual (VR)
32
e outros.
Podemos observar que independentemente de tratar-se da amplitude de um Modelo
de sistema de mídia digital ou da reduzida funcionalidade de um tocador de música existente
em arquivo digital mp3, que os componentes do sistema sempre terão sua especialização
vinculada ao software. De uma forma geral, equipamentos periféricos, de telecomunicações e
computadores utilizam softwares especializados para gerar, transportar e armazenar códigos
digitais que representem formas físico-analógicas pré-existentes, tais como textos, gráficos,
sons, ou audiovisuais.
Os softwares utilizados nos sistemas de mídia digital são responsáveis, entre outros,
pelos trabalhos de digitalizar e codificar os conteúdos gerados online ou pré-existentes em
mídia analógica antes da transmissão, e de decodificar e reproduzir o conteúdo após a
transmissão; de modular e demodular os sinais para a comunicação entre os computadores e
os sistemas de telecomunicações analógicos; de comprimir e descomprimir os conteúdos na
entrada e saída dos mesmos no sistema; e, de definir a rota que as informações transmitidas
devem percorrer na rede.
Após focar a relevância dos componentes de arquitetura de sistemas de mídia digital
passaremos a tratar das funcionalidades que os mesmos podem desempenhar.
4.1 - O COMPONENTE SOFTWARE
Os softwares são os componentes da engenharia da computação que especializam o
uso das demais tecnologias empregadas, principalmente do hardware. “Em termos de
emprego, a ponta de software da indústria é de duas vezes maior do que a ponta de hardware,
com mais de 400 mil empregados nos Estados Unidos” (STRAUBHAAR, 1997, p. 207).
Com os softwares formados por milhares de pequenos programas de computador, se
31 São sistemas de arquivos que possibilitam representar conteúdos de multimídia e hipermídia, ou seja, a
combinação de dados, textos, gráficos, imagens em movimento, som, objetos de realidade virtual, etc.
32 São objetos do mundo real representados nos computadores. Além das características físicas dos objetos ou
pessoas, com a VR (virtual reality) podemos representar também os comportamentos naturais dos objetos
representados. Assim, imergem o usuário em um ambiente de som e visão que lhe a impressão subjetiva de
estar em uma realidade alternativa." (STRAUBHAAR, 1997, p. 204)
implementam os códigos com as instruções que irão determinar o conjunto de operações
físicas e lógicas que devem ser realizadas pelo hardware. Segundo Straubhaar (1997, p. 207)
"A indústria de software divide-se em três segmentos: companhias que escrevem programas
de computador personalizados, companhias que vendem softwares pré-empacotados e
companhias que projetam sistemas integrados por computador”
33
.
Somente a indústria de software pré-empacotado é um negócio de mais de US$20
bilhões por ano nos Estados Unidos, cerca de cinco vezes o tamanho de uma indústria de
software muito conhecida, os filmes de cinema” (STRAUBHAAR, 1997, p. 207).
Uma outra maneira de categorizar software é segundo seus objetivos e complexidade,
ou seja, consiste em agrupá-los segundo funções mais amplas, em algo maior, quando, então,
podemos chamar o conjunto de sistema ou subsistema de software.
Nos subsistemas de software coexistem programas que podem ser agrupados em
diversas categorias. Em nosso exemplo de Modelo de sistema de mídia digital, podemos
agrupar em uma categoria denominada Sistemas de Administração de Conhecimento outros
subsistemas, tais como Sistemas Gerenciadores de Bancos de Dados -SGBD's
34
, Sistemas para
Controle de Acesso aos Conteúdos, Sistemas para Indexação Semântica dos Conteúdos. O
Sistema de Administração de Conhecimento, por outro lado, trabalhará em conjunto com
outras categorias de software, dentre as quais os Sistemas Operacionais, "programas de
computador que fornecem funções básicas de operação" (idem, p. 207).
Isso posto, podemos imaginar um subsistema de software para o Modelo de sistema
de mídia digital, composto por um grande número de programas, agrupados em diversas
categorias, e estruturados em um modelo lógico similar ao da figura 8 - Modelo de Subsistema
Aplicativo apresentada em anexo.
À esquerda, na função de entrada (IN), os conteúdos presentes em diversos formatos
analógicos, comuns ao mundo exterior, terão que ser codificados pelo software para um
formato digital, antes de serem introduzidos nos computadores. O processo de digitalização
implica codificação binária, explicada em detalhe no decorrer deste capítulo, para representar
o conteúdo analógico original. Adicionalmente é feita a compressão das informações
codificadas, visando sincronizar a velocidade de entrada da informação digitalizada com a
velocidade de transmissão e armazenamento dos hardwares dos computadores que estejam
33 Esses softwares também são conhecidos como software embarcado. (Nota do autor).
34Software especializado em armazenamento e recuperação dos conteúdos em dispositivos DASD - Direct
Access Storage Devices, magnéticos ou óticos.
162
163
sendo utilizados. A compressão algoritmo matemático que reduz a quantidade de
informações binárias para reduzir o tamanho dos arquivos também irá viabilizar esses
processos físicos em termos de tempo necessário ao processamento e do espaço ocupado nos
dispositivos de hardware.
Na função de saída (OUT) responsável pela transmissão do conteúdo através da rede
de telecomunicações, fica caracterizada a necessidade de software para comprimir e converter
o conteúdo para o meio físico no qual a informação será transmitida. Se, por exemplo, formos
utilizar linhas telefônicas analógicas como veículo de transmissão do conteúdo digital, antes
de iniciar a transmissão teremos que converter o sinal digital para analógico. Ou seja, a
conversão torna-se necessária para adequar a informação a ser transmitida aos veículos que
serão utilizados, e que na figura 8 são apresentados por símbolos representativos da Internet,
satélite, (ondas de) rádio, cabo ótico, telefone, etc. Em alguns casos são desenvolvidos
hardware e softwares embarcados para a realização dessas tarefas. Um exemplo muito
conhecido desse tipo de solução é o MODEM Modulator / Demodulator, equipamento que
“converte dado digital para tons analógicos que podem ser transmitidos pela rede telefônica"
(STRAUBHAAR, 1997, p. 201).
Por último, quando da apresentação do conteúdo ao receptor, os processos de
descompressão e decodificação realizados pelo software irão possibilitar a reversão do
conteúdo para a forma original, ou para sua adequação (formatação) ao equipamento
periférico onde será apresentada.
Os softwares responsáveis pelos processos descritos anteriormente, relacionados às
funções de digitalização, pertencem a uma categoria de software denominada CODEC
Codificação e Decodificação. O estabelecimento de padrões de codec, aceitos e adotados
pelo mercado e indústria de desenvolvedores de hardware e software, irá possibilitar o
compartilhamento dos conteúdos digitais, fazendo com que possamos reproduzir os conteúdos
de arquivos por meio de grande variedade de programas aplicativos, em computador, espaço
e tempo diferentes. Simultaneamente, os CODEC precisam equacionar, ainda, problemas
relacionados ao tamanho dos arquivos gerados, de forma a fazer frente às limitações físicas e
econômicas relacionadas ao processamento, armazenamento e transmissão de grandes
volumes de informação, principalmente em caso de arquivos com imagens em movimento e
som sincronizados. No entanto, antes de detalharmos as particularidades acerca da categoria
de software de CODEC, devemos ampliar um pouco mais nossa compreensão acerca das
diversas categorias de softwares existentes.
O agrupamento de softwares em diversas categorias funcionais, embora bastante
sujeito a controvérsias, nos uma razoável idéia da diversidade existente. Dentre as
categorias mais conhecidas estão os sistemas operacionais, específicos para cada arquitetura
de hardware, tais como computadores, equipamentos de telecomunicações, telefones
celulares, etc. Outras categorias são os softwares de comunicação em redes de computadores,
os softwares de linguagens de programação, os softwares de gerenciamento e administração
de dados, os softwares de automação de escritórios ou de produtividade pessoal; os softwares
de computação gráfica, os softwares aplicativos para processamento de dados corporativos, os
softwares de processamento de informações gerenciais, os softwares de navegação em Internet
e inúmeras outras categorias.
As diversas categorias de softwares operam em "camadas" distintas, e comunicando-
se entre si e com o hardware. Os sistemas operacionais operam na camada mais baixa, no
mais baixo nível, ou seja, diretamente em contato com o hardware, acionando e controlando
as operações físicas (gravação em disco, por exemplo) e lógicas (processamento de
algoritmos, cálculos, movimentações de conteúdos em memória, etc). Esse conceito de
camadas se aplica também para a divisão das categorias de software em sub-camadas. Com
esse procedimento, programas aplicativos da categoria dos sistemas operacionais podem ser
separados em sub-camadas. O componente da sub-camada de mais baixo nível dos sistemas
operacionais é denominado de kernel
35
e acima dele inúmeras outras sub-camadas de
programas da mesma categoria podem operar. São aplicativos tais como interfaces gráficas,
gerenciadores de arquivos e outros, que funcionam acima e em comunicação direta com o
kernel do sistema operacional.
Em camadas superiores e em ligação estreita com o sistema operacional, funcionam
inúmeros softwares de outras categorias, tais como os de conexão de computadores em redes
ou de automação de escritório (editor de texto, planilha, etc).
Nesses casos, os aplicativos da camada superior, ou de mais alto nível, são
dependentes do sistema operacional para realizar as operações com o hardware. Se, por
exemplo, um programa aplicativo de edição de texto necessitar "abrir" um arquivo contendo
um texto, ou seja, transferir o texto contido no arquivo armazenado em dispositivo DASD para
35 Também denominado software básico, é o núcleo, a parte essencial do sistema operacional responsável pelo
controle e acionamento dos componentes físicos dos computadores .
164
165
a memória do computador e apresentar a primeira página no monitor de vídeo, através de uma
interface GUI
36
X-Windows, terá que "solicitar" ao sistema operacional que acione diversos
recursos de hardware para que essas operações sejam realizadas. Na figura 11 - Modelo de
camadas e categorias de software típicas de sistemas LINUX, apresentada em anexo
apresentamos contendo inúmeras camadas do sistema GNU
37
/Linux, com softwares de
diversas categorias.
Diante do que foi exposto acerca das categorias e camadas de software podemos
concluir que, para funcionar apropriadamente, os programas são dependentes uns dos outros e,
todos, dos sistemas operacionais. Estes, por sua vez, são altamente dependentes das
arquiteturas do hardware.
Existem sistemas operacionais preparados para operar em uma única plataforma de
hardware, como são os casos dos sistemas operacionais OS/400 da IBM e o Windows da
Microsoft, que operam respectiva e exclusivamente nas plataformas de hardware IBM
AS-400
38
e INTEL 80x86
39
,. Dizemos que os aplicativos, bem como os sistemas operacionais
desse tipo não são portáveis, ou seja, não operam em outras plataformas ou arquiteturas de
hardware que utilizem processadores diferentes, sem um extenso trabalho de adaptação dos
programas para o processador da nova plataforma.
Existem outros sistemas operacionais que são portáveis para inúmeras plataformas,
dentre os quais destacam-se os sistemas operacionais UNIX
40
e LINUX
41
, que operam em
mais de 200 plataformas diferentes de hardware, inclusive nas plataformas IBM AS-400 e
INTEL 80x86.
Com o intuito de completar nossa compreensão acerca de software, passaremos agora
a uma rápida explicação sobre o que está envolvido em sua construção.
36 Interfaces gráficas com o usuário (GUIs) usam ícones e símbolos para gerar comandos para os
computadores" (STRAUBHAAR, 1997, p. 196)
37 GNU é o acrônimo para GNU is Not UNIX
38 A arquitetura AS-400 da IBM compõe uma série de minicomputadores para uso em pequenos negócios e
departamentos de grandes empresas, lançado em 1988 e ainda em produção nos dias de hoje. Essa arquitetura
utiliza processadores RISC – Reduced Instruction Set Code e suporta processamento multi-usuário e multi-
tarefa.
39 Uma família de microprocessadores Intel que inclui os modelos Intel 80186, lançado em 1982, Intel 80286,
Intel 80386, Intel 486, Intel 8086, e a linha Celeron e Pentium. Esses processadores foram utilizados Pela IBM
na fabricação dos microcomputadores IBM PC-AT – Personal Computer.
40 O sistema operacional UNIX foi desenvolvido pelos Laboratórios Bell, foi liberado para as universidades
em 1974, inclusive seu código-fonte, com permissão para alteração da fonte" (CASTELLS, 2001, p. 18)
41 Em 1991, [...] Linus Torvalds, um estudante de 22 anos da Universidade de Helsinki, desenvolveu um novo
sistema operacional baseado no UNIX, chamado Linux, e o distribuiu gratuitamente pela Internet"
(CASTELLS, 2001, p. 17)
Inicialmente é importante esclarecer que o processo de construção de software se
assemelha muito a outras áreas da engenharia, quanto às atividades de: a) engenharia da
aplicação, responsável pela identificação do problema que pretendemos resolver e pela criação
da solução para resolvê-lo; b) engenharia do produto, responsável pelo projeto e desenho do
produto (no caso o sistema) que será capaz de resolver o problema identificado; c) engenharia
de processo, responsável pela definição dos processos e dos meios para a fabricação do
produto; e, d) engenharia de produção, responsável pela fabricação dos componentes e
montagem do produto final.
Foge do objetivo desta análise discutir com maior profundidade as características das
atividades de engenharia enumeradas como a, b e c. Na maioria das vezes as atividades dessas
áreas são agrupadas sob a denominação de Análise de Sistemas. Interessa-nos apenas discutir
as questões relativas ao item d que diz respeito à fabricação dos componentes de software, e
isso é o que passamos a fazer.
Independentemente de sua categoria, um software terá que ser escrito pelo ser
humano de tal forma que o computador possa "entender" quais operações deve realizar. A
solução para essa exigência consiste na utilização de uma linguagem de programação com a
qual as instruções, necessárias a realização das operações, possam ser especificadas sem
margem de erro e de forma absolutamente clara. Ocorre que, conforme veremos
detalhadamente mais adiante, os processadores entendem somente a linguagem binária,
composta por combinações de zeros e uns, e portanto, de difícil utilização pelo ser humano.
Para resolver esse problema temos que recorrer a softwares tradutores, capazes de converter
os códigos de sinais escritos pelos humanos, denominado código fonte, para os códigos de
sinais que o processador entende, denominado código executável.
Esses softwares “tradutores” compõem a categoria denominada de linguagens de
programação e são bastante numerosos, estando COBOL, FORTRAN, C, C++, C#, Algol,
Pascal, Basic, Pyton, PL/SQL, Natural e JAVA, entre as linguagens mais conhecidas e
utilizadas.
As linguagens de programação realizam suas tarefas de tradução de código fonte de
formas variadas. Algumas delas, pertencentes à sub-categoria das linguagens interpretadas,
operam "entre" o sistema operacional e o aplicativo e fazem a tradução no exato momento em
que o computador está realizando as operações. Têm como vantagem a realização das
operações de forma mais "instantânea", no momento em que o código fonte é submetido ao
166
167
computador. Têm como desvantagens a necessidade da mesma tradução ser realizada tantas
vezes quanto o programa for executado, levar mais tempo para realizar as operações em
virtude da necessidade da intervenção do software tradutor antes de cada operação, e
demandar mais espaço na memória do computador, para que nela caibam tanto o código-fonte
do programa quanto o software da linguagem. Outras, pertencentes à sub-categoria das
linguagens compiladas, fazem a tradução uma única vez e geram o código executável. Nesse
caso, o resultado do processamento esperado poderá ser obtido após a compilação do
programa fonte porém os requisitos de espaço e velocidade de processamento são
compensadores.
Embora as linguagens compiladas aparentem ser mais vantajosa que as interpretadas,
uma desvantagem das compiladas está na dificuldade de portabilidade dos códigos
executáveis para arquiteturas de hardware e de sistemas operacionais diferentes. Para resolver
este problema de portabilidade, algumas linguagens funcionam em uma situação
intermediária, na qual o código fonte é compilado, porém, o código executável gerado não é
para um hardware específico e sim para um outro software "executor". O melhor exemplo de
sucesso dessa subcategoria de linguagens é o ambiente de programação JAVA, cujo
"executor" é denominado Java Engine. Essa técnica de separação de camadas possibilita que
um código executável, gerado em qualquer plataforma de hardware possa ser processada em
qualquer outra plataforma de hardware e de sistema operacional sem a necessidade de
recompilação, desde que nela esteja instalado o "executor ". Isso explica o sucesso da JAVA.
Ao tratar dos softwares “tradutores”, afirmamos que os computadores compreendem somente
os valores zero e um. Chega o momento de detalharmos um pouco mais essa questão, de
forma a compreendermos como os conteúdos do mundo real, quer sejam informações para
processamento ou especificações de códigos de programação, são representados dentro dos
computadores.
4.2 - PADRÕES PARA CODIFICAÇÃO BINÁRIA
Os computadores são máquinas eletrônicas e portanto capazes de tratar somente
energia elétrica. Nessa possibilidade de "sentir" a existência ou não de corrente elétrica é que
reside a base para o processamento de informações nos computadores. Trata-se do
processamento digital binário, ou seja, da representação de dois valores: o valor ZERO,
quando não corrente elétrica; e o valor UM, quando a corrente está presente. A essa
unidade de informação denominamos BIT – Binary digit.
Um importante componente dos computadores, o clock, ou relógio, é responsável por
medir o período de tempo em que o processador irá sentir se ou não corrente. Para isso, o
clock "pulsa" e a cada pulso o computador "sente" se ou não corrente. Dessa forma o
computador pode, enquanto estiver ligado, "sentir" continuamente a corrente elétrica e compor
conjuntos enormes de bits. As pulsações são medidas em HERTZ
42
, ou seja, número de pulsos
por segundo, nas quais o computador é capaz de "sentir " conteúdos de bits.
Ao pulsar 8 vezes, o computador irá "sentir" uma seqüência de 8 bits, contendo zeros
e/ou uns. A essa seqüência é dada a denominação de BYTE
43
e representa a unidade básica
para o processamento da informação, com a qual o computador é capaz de processar e
representar enorme quantidade de objetos informações como imagens sons e outras do
mundo real.
Por ser composto por uma seqüência de 8 bits, a um byte, podem ser atribuídos 256
valores diferentes. Isso porque se o bit mais a direita pode representar dois valores binários,
zero ou um, o bit seguinte à esquerda, combinado com o primeiro, podem, juntos,
representar 2
2
, ou 4 valores: 00, 01, 10 e 11. Ou seja, o valor binário 00 indica que nos dois
"pulsos" medidos não havia corrente; o valor 01, indica que somente no segundo pulso havia
corrente; o valor 10, indica que somente no primeiro pulso havia corrente; e que no valor 11,
em ambos os pulsos a corrente estava presente. Portanto como o Byte é composto por 8 bits e
para cada bit temos duas possibilidades de valor (zero ou um), teremos 2
8
possibilidades, ou
256 combinações diferentes.
Esse número de combinações possibilita que sejam representados, com agrupamentos
binários, letras do alfabeto, números decimais, caracteres especiais (tais como acentuação) e,
42 Unidade de medida que levou o nome de Heinrich Hertz, o primeiro cientista a desenvolver um invento que
permitiu confirmar a possibilidade de se emitir e receber as ondas de rádio. O escocês James Maxwell já havia
previsto a existência de ondas de rádio, matematicamente, em 1864. Entre 1885 e 1889, como um professor da
física no instituto politécnico de Karlsruhe, Alemanha produziu ondas eletromagnéticas em laboratório e mediu
seus wavelength (tamanhos de ondas) e velocidade. Atualmente os microcomputadores PC são capazes de
trabalhar em velocidade superior a dois GigaHERTZ, ou mais de dois 2 bilhões de pulsações por segundo.
43 O termo foi cunhado por Werner Buchholz, funcionário da IBM, em 1956. Foi uma mutação da palavra bite
criada com a intenção de não confundi-la com bit. Em 1962 Buchholz descreveu byte como "um grupo de bits
utilizados para codificar um caractere, ou o número de bits transmitidos paralelamente entre unidades de entrada
e saída.". Arquiteturas mais antigas utilizavam bytes de 6 ou 7 bits ou conter 9 bits ou 36 bits. Os sistemas
PDP-10 da Digital Corporation e o IBM 7030 suportavam bytes cujos tamanhos podiam variar de 1 a 64 bits. A
adoção de bytes compostos de 8 bits aconteceu em 1956 e tornou-se padrão após o lançamento do sistema
operacional IBM /360, em abril de 1964. O sistema ASCII utiliza sete dos oito bits para a codificação de
conteúdos e um bit para controle.
168
169
também, as combinações de operações que se deseja que os computadores realizem. As
operações podem ser de cálculos, apresentação dos resultados no monitor de vídeo, leitura do
que está sendo digitado no teclado ou da movimentação e posição do mouse
44
etc. Ao
combinarmos o conteúdo de vários bytes podemos representar seqüências de textos, números,
ou operações.
No entanto, da mesma forma que nos codec, é fundamental que sejam acordados
quais combinações representam o que, e para isso são criadas convenções de padronização
aceitas por toda a indústria. Os padrões mais importantes para dar significado aos conteúdos
dos bytes são o ASCII American Standard Coding for Information Interchange,
estabelecido pela ANSI- American National Standard Institute, e utilizado nos
microcomputadores padrão IBM PC- Personal Computer e APPLE Macintosh; e o padrão
EBCDIC Extended Binary-Coded Decimal Interchange Code, estabelecido pela IBM, e
utilizados em computadores de médio e grande porte, de sua fabricação. Nesse sentido,
durante a operação, o processador do computador pode comparar o conteúdo dos bytes com o
conteúdo da tabela de códigos e identificar se o byte que está sendo processado possui um
código de operação, uma letra ou um caractere especial. Na tabela apresentada a seguir
demonstramos alguns símbolos e os respectivos códigos binários, nos formatos ASCII e
EBCDIC:
Tabela 1: Codificação Binária
Símbolo Alfa-numérico Código binário ASCII Código Binário EBCDIC
A 0100 0001 1100 0001
B 0100 0010 1100 0010
C 0100 0011 1100 0011
D 0100 0100 1100 0100
! 0010 0001 0101 1010
J 0100 1010 1101 0001
44 Dispositivo eletrônico que controla as coordenadas de posicionamento (cursor) nas telas de computadores,
na medida em que movimentamos manualmente o dispositivo. (www.hyperdictionary.com)
Tabela 1: Codificação Binária
" " (espaço em branco) 0010 0000 0100 0000
Z 0101 1010 1110 1001
5 (número decimal cinco) 0011 0101 1111 0101
Fonte: http://www.natural-innovations.com/computing/asciiebcdic.html
Portanto, conforme podemos observar no exemplo da tabela, a letra Z, maiúscula, é
identificada pelo processador que trabalha com código ASCII cada vez que um byte chega
com o conteúdo 01011010. esse mesmo conteúdo binário representa "!"(ponto de
exclamação) para um outro processador que trabalhe com código EBCDIC. Evidentemente,
os computadores trabalham com um único sistema de códigos, dependendo do tipo de
processador que utilizam e, portanto, necessitam de software de conversão de um sistema de
código para o outro, de forma a possibilitar a transferência das informações codificadas, entre
computadores que trabalham com processadores que utilizam códigos diferentes.
Quanto às operações, cada fabricante de processadores detalha quais códigos
acionam quais operações de seus processadores. A esse padrão de códigos necessários à
elaboração de programas denominamos Instruction Set Codding, ou “Conjunto de códigos de
instrução”.
Até aqui vimos que o principal objetivo de sistemas de mídia digital é possibilitar o
envio e o recebimento de media object, em formato digital, por qualquer usuário da rede a ela
conectado através de algum periférico, bem como o armazenamento desses conteúdos no que
denominamos de subsistemas de bases de conhecimento.
Esclarecemos que os conteúdos, quer estejam presentes em nossas mentes ou em
algum tipo de mídia analógica, terão que ser digitalizados por software de codec, ou seja,
convertidos para formato binário para que possam ser processadas por computadores.
Também vimos como os computadores representam letras, números e caracteres
especiais, além de instruções de operação, utilizando-se somente de corrente elétrica, cuja
existência ou não, a cada pulso do clock, determina o conteúdo dos bytes. Porém, embora
fique claro que podemos nos utilizar um conjunto de bytes para processar grandes volumes de
texto, representados através de uma seqüência de caracteres alfa-numéricos, surge a pergunta
que buscamos responder a seguir: como os computadores representam as imagens?
170
171
Mesmo os computadores mais antigos, que trabalhavam com impressoras de
caracteres e possibilitavam a impressão de 132 caracteres (colunas) em uma linha e 75 linhas
em uma página, permitiam a representação de imagens, embora de qualidade precária. Nada
impedia que determinados caracteres fossem impressos em determinados pontos de
intercessão entre linhas e colunas de forma que o conjunto de pontos impressos lembrasse
algo parecido com uma figura.
A possibilidade de apresentação de imagens nos computadores, com qualidade, só foi
possível após a adaptação e adição de recursos para operação em modo gráfico
45
em
equipamentos CRT- Cathod Ray Tube
46
, similares ao da figura 9 (apresentada em anexo),
para funcionar como periférico de saída (OUTPUT) de informações computacionais. Até
então os CRTs estavam sendo utilizados amplamente em aparelhos de televisão sem os
recursos adicionais requeridos pelos computadores.
Desde os primeiros CRT, o caminho percorrido para chegar aos padrões de qualidade
dos atuais monitores de vídeo gráficos foi árduo e demandou muitas pesquisas e
investimentos, notadamente da IBM e de associações como a VESA-Video Electronics
Standards Association. Os primeiros monitores trabalhavam exclusivamente em modo texto
47
e, portanto, não dispunham de recursos para trabalhar em modo gráfico, exceto de forma
análoga a da impressora citada anteriormente.
Existem muitas formas para classificarmos os monitores de vídeo modernos,
utilizados como periféricos de saída nos computadores:
a) Quanto ao modo de apresentação de conteúdos: modo texto ou gráfico.
b) Quanto à capacidade de representar cores podem ser: monocromáticos, que mostram somente
uma cor no plano frontal (foreground) e outra no plano de fundo (background), possibilitando
somente a apresentação em duas cores (branco e preto, verde e preto ou âmbar e preto); ou
coloridos, também denominados monitores RGB, que podem mostra separadamente sinais
combinados com nas cores Red (vermelho), Green (verde) e Blue (azul), de forma análoga ao das
televisões coloridas.
c) Quanto ao tamanho da parte visível da tela, medindo em polegadas a distância entre os dois
cantos da tela.
45 Sofisticado modo de apresentação de conteúdos com ilimitada variedade de formas e fontes. A tela é tratada
como um bloco de pontos na tela, com os quais são criadas as imagens.
Fonte:www.hyperdictionary.com/search.aspx
46 Um CRT trabalha movimentando feixes de elétrons para frente e para trás na tela. Cada vez (es) que o feixe
passa, acende um ponto de fósforo dentro do tubo de gás, iluminando essa forma a parte ativa da tela. Ao
desenhar linhas de alto a baixo na tela, são criadas as imagens. Fonte: www.electronics-lab.com/action/gallery/
47 Modo texto ou carater, a tela é tratada como um conjunto de blocos nos quais podem ser apresentados
somente caracteres ASCII . Fonte : www.hyperdictionary.com/search.aspx
Quanto à resolução, que indica qual é a densidade com que os pixels- Picture Element, estão
presentes na tela. Os pixels correspondem aos pontos de fósforo que se acendem na tela para
formar a imagem.
Quanto ao tipo de sinal que os mesmos aceitam e que podem ser digital ou analógico. O sinal
analógico é um dos requisitos para assegurar qualidades de apresentação e está presente em todos
os monitores modernos.
Quanto à freqüência do sinal de entrada o que no caso dos monitores capazes de operar com
múltiplas freqüências podem apresentar as imagens em diferentes resoluções, dependendo de como
os dados das imagens são recebidos.
g) Quanto à largura de banda dos sinais aceitos, determinante na velocidade com que a tela é
redesenhada (refresh) em altas resoluções.
h) Quanto à possibilidade de interlace
48
, técnica que possibilita maior resolução do monitor embora
as custas de redução na velocidade de reação do monitor.
i) Quanto à distância entre os pixels, de forma que quanto menor for essa distância mais pixels
serão passíveis de apresentação na tela e, conseqüentemente, mais legível será a imagem.
j) Quanto à luminosidade e contraste presentes em cada pixel.
Em síntese, a qualidade das imagens apresentadas nos monitores atuais dos
computadores depende de todas as características supracitadas e são essas variáveis que
determinam também o maior ou menor espaço ocupado nas memórias das máquinas ou das
placas adaptadoras que interconectam os monitores aos computadores e preparam, na
memória, a imagem que será mostrada.
Embora cada um desses itens de classificação seja importante, sua discussão foge das
questões abordadas neste texto e, portanto, nos preocuparemos em clarificar exclusivamente
como as imagens são formadas, de forma a serem apresentadas pelos CRT's que operam em
modo gráfico.
Nos monitores gráficos as imagens são mostradas através da divisão do espaço da
tela em pixels, organizados em colunas e linhas, com uma distância tão pequena entre os pixel
que eles parecem estar conectados. Quanto maior for a resolução, maior será o número de dpi
- dots per inch (pontos presentes em uma polegada) e mais legível se torna a imagem. Em
cada pixel, a cor apresentada será descrita por um certo número de bits utilizados para
representa-la. Um dot, ou ponto, cuja cor é representada somente por 1(um) bit pode ter
somente 2 cores representadas, uma com valor zero e outra com valor um. Um dot com cor
representada por 8 (oito) bits suporta até 256 cores ou escalas de cinza. Por outro lado, se
48 Consiste em varreduras horizontais rápidas, combinadas com varreduras verticais mais lentas, de modo que a
imagem passa a ser explorada em linhas. Quando completada a varredura vertical, ou quadro, o processo se
repete. Dessa maneira obtém-se a varredura entrelaçada que elimina uma série de dificuldades, fazendo com que
o olho humano veja a imagem sem oscilação e como seqüência contínua de cenas." (VALLEJO, 1998, p. 16)
172
173
forem utilizados 32 bits para representar a cor de um determinado dot, teremos a
possibilidade de representar mais de 16 milhões de cores (true color ou cores reais).
Isso posto, podemos exemplificar um cálculo e avaliar qual será o espaço ocupado
por uma imagem na memória do computador, independentemente do que nela esteja
representado. Se por exemplo queremos mostrar uma imagem que ocupe a totalidade da tela
de um monitor SVGA com 1.024 colunas x 768 linhas de resolução em true color, teremos
que fazer o seguinte cálculo: tamanho = (1. 024 colunas x 768 linhas) x (32 bits de cores por
coluna/linha) e então o resultado será de 25.165.824 bits, ou 3.145.728 Bytes
49
. Outra forma
de avaliarmos adequadamente o tamanho dessa imagem é compararmos o espaço requerido
pela imagem com o existente em um disket de microcomputador, que possui o espaço total de
1,44 Mbytes. Considerando que a imagem ocupa 3,0 Mbytes (1 Mega Byte = 1.024 X 1.024
bytes), serão necessários dois diskets para armazenar apenas uma dessas imagens.
Outro cálculo importante diz respeito à velocidade de transferência e ao impacto
dessa operação, no tempo que essa imagem utilizará para transferir-se entre dois
computadores interconectados em uma rede local com velocidade de 2 Megabits por segundo
(Mb/s). Nesse caso o tempo necessário será de 12 segundos. Se por outro lado a transferência
se der através de linha telefônica discada comum, na velocidade de 19.600 bits/s, esse
processo levará quase 44 minutos.
Nosso próximo assunto trata da fórmula encontrada para resolver os problemas de
espaço ocupado e do tempo para transmissão de imagens, bem como de outros tipos de
conteúdos extensos. Trata-se de software de codec que implementam algoritmos para
comprimir conteúdos, de forma a diminuir-lhes o tamanho, antes que sejam gravados em
arquivos digitais ou encaminhados para transmissão pela rede. Para que seja possível a outros
softwares descomprimirem esses arquivos, sem provocar a perda de conteúdos, é de
fundamental importância que os criadores dos algoritmos de codec divulguem quais forem os
padrões de codec adotados.
Existem basicamente duas formas de especificação de imagens: A primeira implica a
codificação da imagem através de um bitmap, ou seja, de um mapa contendo a posição e o
conteúdo (zero ou um) dos bits que compõem os pixels que formam a imagem, de modo
muito similar ao que foi exposto anteriormente para a formação de imagens em monitores de
49 O tamanho da imagem também pode ser quantificada em 3.072 Kbytes (1 kilobytes = 1.024 bytes), ou 3,0
Mbytes (1 Mega Byte = 1.024 K bytes)
vídeo. As imagens codificadas dessa forma são caracterizadas e denominadas como
imagens do tipo raster
50
. A segunda, denominada vetorial, implica codificação das definições
geométrico-analíticas dos objetos gráficos e de atributos da imagem e não dos pixels que as
compõem. Com a definição vetorial da imagem, o software que apresentará a imagem no
monitor irá "redesenhar" a imagem de acordo com as especificações simbólico-geométricas
dos objetos e aplicar os atributos especificados no arquivo (cor, textura, iluminação, etc). Ou
seja, constrói o bitmap com as definições vetoriais da imagem.
Após a codificação de imagens estáticas em bitmaps podemos aplicar algoritmos de
compressão de forma a torná-las menores, conforme veremos agora. A título de exemplo
vamos imaginar a conversão da imagem de uma folha de papel branca em um arquivo do tipo
raster, na configuração de 1.024 colunas x 768 linhas de resolução em true color. Nesse caso
o arquivo bitmap resultante terá o calculado tamanho de 3.145.728 Bytes, embora todos os
pixels contenham exatamente a mesma seqüência de bits, representando a cor da folha.
Poderíamos construir um algoritmo de compressão bastante simplista que analisasse a cor
presente em cada um dos 1.024 pixels, de cada uma das 768 linhas. No caso do nosso
exemplo, o software de compressão reconheceria que todos os pixels têm o mesmo conteúdo
e, portanto, todos os 3.145.728 Bytes de informação poderiam ser substituídos por outra que
registrasse, por exemplo, a seguinte informação : {1:786432, 0000}, ou seja, a imagem
ocuparia somente 15 bytes.
Evidentemente, uma imagem com mais variações de cor geraria um arquivo maior,
essa variação também pode ocorrer em função de diferentes fórmulas matemáticas
empregadas nos algoritmos de compressão, e, portanto, teremos a possibilidade de representar
a mesma imagem codificada e comprimida por diversas técnicas. Isso posto surge a pergunta:
como sabemos qual algoritmo deve ser aplicado para descomprimir uma certa imagem
previamente comprimida?
O meio mais comum para identificar o padrão de codificação de imagens é atribuir
um sufixo composto por um ponto e letras ao nome do arquivo. Para exemplificar esse
procedimento, tomemos o algoritmo de compressão para imagens do tipo raster conhecido
como JPEG
51
. Quando uma imagem é comprimida pelo algoritmo do JPEG o resultado é
50 De acordo com a www.hyperdictionary.com, raster é a formação que consiste de um conjunto de linhas
horizontais compostas de pixels e é utilizada para formar imagens em CRT's.
51 Padrão criado pelo grupo JPEG -'Joint Photographic Experts Group. O nome formal do padrão é ISO/IEC
IS 10918-1 | ITU-T Recommendation T.81, publicado pela ISO International Standard Organization, em
1986.
174
175
armazenado em um arquivo que ao ser gravado tem atribuído, além do nome do arquivo, uma
extensão. Nesse caso, um arquivo contendo a foto de um gato e comprimido pelo algoritmo
JPEG pode ser chamado "imagem_de_gato1.jpg", indicando o conteúdo do arquivo
(imagem_de_gato1) e o formato (.jpg) em que a imagem se encontra.
Da mesma forma, arquivos contendo desenhos vetoriais também são identificados
com extensão específica, como é o caso do formato CGM (Computer Graphics Metafile for
electronic documents), definido pelo padrão internacional ISO/IEC 8632:1999, para descrever
digitalmente fotografias definidas de forma vetorial, raster, e híbridas de forma bastante
compacta.
Esses dois casos são apenas exemplos de algoritmos e software de compressão para
arquivos gráficos, cuja quantidade de opções pode ser vislumbrada na lista que apresentamos
no anexo 2 e que se encontra em http://www.wotsit.org
Aos padrões de codec digital, identificados segundo os sufixos presentes nos
arquivos gerados pelos mesmos, também é comum a designação de formato ou extensão dos
arquivos para identificar-lhes o conteúdo armazenado.
Algumas extensões ou formatos de arquivos, bastante populares, foram
desenvolvidas por empresas comerciais, tais como a Microsoft quando da criação de seus
softwares, dentre os quais os conhecidos formatos doc e ppt (ou ppp). O padrão de formato
doc estabelece como os textos e suas apresentações (fontes, tamanhos, figuras, estrutura de
documento, imagens, etc) são armazenadas em arquivos digitais, quando utilizamos o
software de edição de textos Word da mesma empresa; enquanto o formato ppt estabelece a
forma de armazenamento dos conteúdos produzidos no software de apresentação Powerpoint.
Aos padrões de codificação de formatos que não são disponibilizados em domínio
público e, via de regra, tem o acesso a essa informação impedidos por força de patentes e
direitos autorais, denominamos de código fechado (ou proprietário). Aos padrões cuja
especificação é colocada em domínio público denominamos código aberto ou Open Source.
Evidentemente que, no caso de padrões de código fechado, ou proprietário, outros
fabricantes de software terão dificuldades de representar de forma adequada o conteúdo de
arquivos com as extensões proprietárias, dificultando sobremaneira a interoperabilidade entre
softwares. Esse mecanismo, por sinal, é muito empregado de forma a assegurar a manutenção
de monopólios em certos segmentos da indústria de software.
Algumas empresas adotam a política de divulgar a estrutura de seus padrões, embora
mantenham os direitos de propriedade sobre os mesmos. Três exemplos bastante
significativos e de grande importância para a indústria gráfica são os padrões estabelecidos
pela empresa ADOBE, para armazenamento digital de conteúdos escritos, compostos por
textos e gráficos: os formatos ps (postscript), eps (encapsulated postscript) e pdf (Portable
Document Format).
Exemplos de padrão aberto são as extensões desenvolvidas pela empresa SUN
Microsystems para os arquivos gerados pelas diversas aplicações de seu pacote Star Office.
Nas aplicações Star Office os arquivos com texto aderem ao padrão identificado com o sufixo
sxw, as planilhas cálculo ao padrão sxc, as apresentações (equivalentes ao Powerpoint) ao
padrão sxi, e os desenhos vetoriais, inclusive em 3D, aderem ao padrão sxd. Outras duas
importantes características desses pacotes abertos da SUN consistem na possibilidade de
serem gravados conteúdos nos formatos HTML HiperText Markup Language e PDF, da
Adobe.
Uma versão gratuita do Star Office é Open Office, cujas funcionalidades são muito
similares às disponíveis no pacote Office da Microsoft, acrescidas de recursos para desenho
vetorial 2D e 3D, equivalentes ao do software conhecido como CorelDraw, e é oferecida pela
organização virtual OpenOffice.org. O Open Office é capaz de ler e gravar arquivos nos
padrões estabelecidos pela Microsoft, apesar dos códigos gerados pelos produtos Microsoft
não serem Open Source.
Uma outra modalidade de padronização de sistemas de codificação é feita por
entidades internacionais aceitas pela totalidade da indústria, como é o caso do conhecido
formato para arquivos de música mp3. Nesse caso, os códigos gerados pelos processos de
codec desse tipo de arquivo obedecem a padrões estabelecidos por entidades tais como a
ISO-International Organization for Standardization, através de grupos de trabalho como o
MPEG-Moving Picture Expert Group. A apresentação de alguns dos padrões estabelecidos
pelo grupo MPEG, para digitalização de sons e imagens em movimento, será o objeto de
discussão no próximo tópico.
O grupo MPEG tem desenvolvido grande esforço para definir padrões necessários à
digitalização de conteúdos audiovisuais, de forma a criar tecnologias que possam conciliar as
demandas por qualidade desse tipo de conteúdo com os requisitos de tempo e espaço
requeridos pelas limitações de hardware e sistemas de telecomunicações. Dentre os principais
padrões já estabelecidos, e de vasta aceitação, encontram-se os padrões MPEG-1; MPEG-2; e
176
177
MPEG-4.
A definição de um padrão é estabelecida através de publicação desse padrão. No
caso, o padrão codec MPEG-1
52
, cujo objetivo foi o de codificar imagens em movimento e
áudio associado para armazenamento em mídia digital, é definido por meio de cinco
especificações técnicas, aprovadas a partir de novembro de 1992. A primeira busca resolver o
problema de combinar um ou mais fluxos de áudio e, ou, vídeo, adicionados com informação
de tempo (time-code), de forma a obter um resultado sincronizado audiovisual único, em
formato adequado para o armazenamento em meio digital ou transmissão por rede de
telecomunicação. A segunda parte específica uma representação de codec que pode ser
utilizada para comprimir seqüência de vídeos – de 625 linhas e 525 linhas – em velocidade de
aproximadamente 1,5 Megabits por segundo. A terceira parte específica uma representação de
codec que pode ser utilizada para comprimir seqüências de áudio, tanto mono como estéreo.
Trata-se da especificação do famoso formato para música mp3. A quarta especificação mostra
como testes podem ser desenhados para verificar se as especificações anteriores foram
implementadas adequadamente. A quinta especificação trata-se de um relatório técnico que
contém os algoritmos necessários à programação de software para implantação dos padrões
MPEG-1.
O padrão codec MPEG-2
53
, denominado "Generic Coding of Moving Picture and
Associated Audio", é composto por 11 especificações técnicas. As especificações 1 -Systems;
2-Video e 3-Audio, foram publicadas em novembro de 1994. A parte 1 trata da combinação
de um ou mais fluxos elementares de vídeo e áudio, bem como de outros dados, em fluxos,
simples ou múltiplos, para transporte ou armazenamento, otimizados para cada tipo de
aplicação (armazenamento em mídia ou transmissão). A parte 2 trata de compressores de
vídeo capazes de lidar com resoluções de cores de forma mais eficiente e bitrates mais
amplos, bem como do padrão MVP- Multiview Profile que permite a codificação eficiente de
duas seqüências de vídeo, a partir de duas câmaras captando a mesma cena com uma pequena
diferença de ângulo entre elas. A parte 3, trata de extensão multicanal do padrão MPEG-1
áudio . As partes 4-Comformance testing e 5- Software simulation, correspondem às idênticas
partes do MPEG-1 e foram publicadas em março de 1996. A parte 6-Extensions for DSM-CC
trata da funcionalidade Digital Storage Media Command and Control, específica um conjunto
de protocolos que podem ser utilizados para suportar videostreams em redes de comunicações
52 Publicado sob o código ISO/IEC 11171 (www.chiariglione.org.mpeg/mpeg_general.html)
53 Publicado sob o código ISO/IEC 13818 (www.chiariglione.org.mpeg/mpeg_general.html)
heterogêneas na modalidade de operação Cliente/Servidor
54
e foi publicada em julho de
1996. As partes 7-Advanced Audio Codding e 9-Extension for real time interface for systems
decoders foram publicadas entre abril de 1997 e julho de 1997, enquanto as demais
permanecem em desenvolvimento ou foram descontinuadas em virtude de desinteresse da
indústria.
O padrão MPEG-4, cuja designação formal é 'ISO/IEC 14496 tornou-se um padrão
internacional nos primeiros meses de 1999 e provê a padronização para a integração dos
paradigmas relacionados aos elementos tecnológicos necessários a produção, distribuição e
acesso a conteúdos, nos campos de televisão digital, aplicações gráficas interativas e
multimídia interativa. Mais informações sobre os padrões MPEG apresentados, e outros
atualmente em desenvolvimento, tais como o MPEG-7 (ISO/IEC 15938) "Mutimedia Content
Description Interface", iniciado em abril de 1997, o MPEG-21 (ISO/IEC 18034) "Multimedia
Framework", iniciado em maio de 2000, bem como de estudos nas áreas de "Digital Cinema"
e "Online gaming" e mesmo explorações nas áreas de "3D AV", "Spatial Audio Coding",
"MPEG Multimedia Middleware", "Simbolic Music Representation", "Video test Sequences",
"MPEG-A Music Player Application Format". Encontrados no sítio www.chiariglione.org.
Por tratar-se de assunto extenso e demandar conhecimentos técnicos mais
especializados não iremos nos aprofundar demais neste tema. Temos que ressaltar porém, que,
no que diz respeito aos padrões de codec de audiovisuais, apresentamos somente uma pequena
variedade de software dessa categoria. Existem inúmeros padrões proprietários que deixamos
de abordar por fugirem do escopo deste artigo.
Para concluir, estamos assistindo à substituição das tecnologias de mídia tradicional e
analógica por sistemas digitais, baseadas em computadores e softwares, como parte da
transformação da Sociedade Industrial em uma nova forma de organização social e modo de
produção: A Sociedade da Informação.
Nessa nova forma de sociedade, a exemplo do que ocorreu com o surgimento da
Sociedade industrial, em que os produtos das fábricas automatizaram o modo de produção no
campo, ceifando os empregos no meio rural e abrindo novas oportunidades de trabalho nas
fábricas somente para pessoas melhor preparadas, os computadores e os softwares estão a
substituir muitas das atividades industriais e de serviços característicos dos meios de produção
54 Redes locais de computadores em que as informações ficam armazenadas em uma maquina específica,
denominada servidor, para serem acessadas por inúmeras outras maquinas conectadas à mesma rede,
denominadas cliente.
178
179
industrial. É notória a substituição de operários de indústria, bancários, telefonistas e outras
funções do gênero, por sistemas automáticos operados por computadores. Como no passado,
abrem-se novas oportunidades de trabalho na indústria de Tecnologias de Informação e
Comunicação-TIC, porém, somente para pessoas capacitadas a lidar com computadores e os
softwares, tanto para sua produção quanto em seu uso para criar produtos inovadores.
Neste texto, evidenciamos que o software é um dos componentes mais importante
dos sistemas digitais, à medida que especializam o uso de hardware e possibilitam o
desenvolvimento de aplicações específicas para as áreas de mídia. Também vimos que
conteúdos, quer estejam presentes em nossas mentes ou em algum tipo de mídia analógica,
poderão digitalizados por software de codec para que possam ser processadas por
computadores. Discorremos sobre a forma como os computadores são capazes de processar
informações e representar digitalmente conteúdos analógico, a partir de um sistema de
códigos binários, e dessa forma processar não somente dados e textos mas também objetos-
pensantes mais complexos, inclusive de realidade virtual.
Trouxemos informações acerca do tamanho da indústria de software e aproveitamos
este momento para reiterar o fato de que ao contrário da indústria de hardware, que requer
pesados investimentos em pesquisa e na construção de meios físicos para sua produção, a
indústria de software depende unicamente da capacidade intelectual de pessoas para
compreender o funcionamento dos componentes dos sistemas de mídia digital, e da
capacidade de utilizar computadores e software de linguagens para escrever mais software.
Este é um dos principais motivos que levará ao uso dos computadores para todas as
atividades da sociedade do conhecimento e como conseqüência teremos que assegurar formas
adequadas de relação entre homens e máquinas.
CAPÍTULO V - DESCRIÇÃO DO MODELO TRANSDISCIPLINAR PARA
COMUNICAÇÃO COM MÍDIAS DIGITAIS
O objetivo desta pesquisa científica foi propor um Modelo Transdisciplinar para
Comunicação com Mídias Digitais que possa nos auxiliar na compreensão da complexa
relação que se estabelece entre pessoas e mídias digitais nos momentos em que o fenômeno da
comunicação é midiatizado por computadores e software.
Tomamos como base para esta pesquisa um modelo referencial teórico proposto por
Stephen W. Littlejohn, sumarizado no Quadro de Generalizações e Conceitos Básicos,
apresentado em Fundamentos Teóricos da Comunicação Humana (1978).
Nesta obra, Littlejohn, ao estabelecer o referencial teórico que norteou sua pesquisa,
discutiu os diversos conceitos dos termos teoria e modelo. Explica as dificuldades comuns a
essas definições ao afirmar que A palavra teoria é quase tão indefinível quanto o termo
comunicação” e alertou para o fato de que, equivocadamente, “ [...] Com muita freqüência, as
pessoas usam o termo teoria para significar qualquer conjectura não-fundamentada sobre
alguma coisa.” (LITTLEJOHN, 1978, p.19).
Pelo contrário, uma importante função da teoria é organizar o conhecimento
cientificamente comprovado obtido acerca de determinado fenômeno ou objeto. Nesse
sentido, o papel das teorias é assegurar que o conhecimento explícito pode ser “organizado
num corpo de teorias, e o investigador inicia seu estudo apoiado no saber organizado de
gerações que o antecederam.” (idem, p.28).
Na mesma obra, Littlejohn declarou sua opção pelo uso do termo teoria, no campo
científico da comunicação, em seu mais lato sentido: “qualquer representação ou explicação
do processo de comunicação” (idem, p.20). É importante observarmos que nessa definição de
teoria aplicada à comunicação, a comunicação é caracterizada como processo, pois, para
Littlejohn, a comunicação “não é um ato singular e unificado mas um processo constituído por
numerosos aglomerados de comportamentos” (idem,p.34).
O conceito de modelo pode ser confundido com teoria que podemos aplicar o
termo modelo a qualquer representação simbólica de uma coisa, processo ou idéia. Alertou-
nos Littlejohn que:
[...] Em vel conceptual, existem modelos que representam idéias e processos.
Tais modelos podem ser gráficos, verbais ou matemáticos. Em qualquer caso, um
modelo é usualmente considerado uma analogia de algum fenômeno do mundo
180
181
real. Assim, os modelos interpretados metaforicamente, de modo que o construtor
do modelo tenta estabelecer paralelos simbólicos entre estruturas e relações no
modelo e aquelas que estão presentes no evento ou processo modelado.
Entretanto, segundo Littlejohn:
[...] para além do critério de 'representação simbólica' existe pouca concordância
sobre o significado preciso de modelo. [...] Hawes definiu uma teoria como uma
explicação e um modelo como uma representação. Para ele, os modelos
representam meros aspectos do fenômeno, sem explicarem as inter-relações entre
as partes do processo modelado. (idem, p.19)
Entretanto, a abordagem de Hawes tampouco é universal, como nos alerta Littlejohn,
ao apresentar um ponto de vista diferente:
Abraham Kaplan, adotou um ponto de vista ligeiramente diferente
55
. As teorias são
de dois tipos gerais. Há as que tratam especificamente de determinado assunto per
se, e as teorias formais que são de caráter geral e podem ser aplicadas a várias
áreas de conteúdo específico. Este último tipo de teoria é um conjunto de símbolos
e relações lógicas entre os símbolos, podendo ser aplicado por analogia a algum
evento ou processo de interesse no momento. Kaplan considerou que esse último
tipo de teoria constitui um modelo. Assim, para Kaplan, todos os modelos são
teorias (um tipo de teoria), mas nem todas as teorias são modelos.” (p.20).
Teorias e modelos, para serem caracterizados como tal, devem possuir quatro tipos
de componentes.
O primeiro componente é seu conjunto de conceitos. “Os conceitos variam imenso
em seu tipo, terminologia, significados e usos, mas situam-se no núcleo de qualquer tentativa
de teorização.” (idem, p.24). Portanto, todas as teorias e modelos são formadas com conceitos,
afinal:
Por sua natureza uma pessoa é um ser que processa conceitos. A totalidade do
mundo simbólico de uma pessoa tudo o que ela sabe ou diz– é função da
formação de conceitos.
56
(idem, p.21)
O segundo componente básico são as relações existentes entre os diversos conceitos
relacionados a uma certa teorização e podem assumir formas de suposição, hipótese, fato ou
lei. De acordo com Littlejohn, as formas dessas relações entre conceitos podem ser definidas
do seguinte modo:
Suposição é a relação presumida ou conjectural, a partir da qual se seguem
55Abraham Kaplan – The conduct of inquiry. San Francisco, Chandler, 1964
56Kunh – Scientific revolutions, p.28
logicamente as outras relações previstas, normalmente implícitas. Embora as
suposições não sejam diretamente testadas, elas são, em última análise, afirmadas
ou refutadas no teste das outras relações na teoria. [...] Hipótese é uma conjectura
de relações a ser testada de algum modo. [...] Uma vez verificada objetivamente
uma hipótese um fato pode ser enunciado.[...]. Enquanto uma relação específica é
um fato, um agrupamento geral de fatos constitui uma lei. Um fato é específico
uma lei é geral. (KAPLAN apud LITTLEJOHN, idem, p.24).
Ao terceiro componente das teorias e modelos podemos chamar de Explicações e
Descrições e servem para explicar os conceitos inerentes às mesmas. Como ressalta
Littlejohn:
Existe uma distinção fundamental entre descrição e explicação. A descrição diz o
que acontece; a explicação não descreve as relações mas tenta dizer por que se
pensa que tais relações existem.” (idem, p.24).
O quarto e último componente de muitas abordagens teóricas é formado pelos
enunciados de valor, com base nos resultados científicos obtidos. Portanto:
A partir de experiências originais (incluindo pesquisa), formulamos os nossos
modelos simbólicos. Somos capazes de considerar, inferir e manipular variáveis
em nossas cabeças, enquanto, ao mesmo tempo, nos concentramos em parâmetros
especificados no mundo real. Da interação desses dois processos, resultam
previsões que são testadas e verificadas. [...] Assim, o desenvolvimento de uma
boa teoria é um processo constante de verificação, formulação e reverificação.
(idem, p.25)
As teorias e modelos também podem ser diferenciadas em função de seu ambito, ou
seja, toda teoria se concentra em certos aspectos do fenômeno pesquisado, às custas de outros
aspectos. Em outras palavras, toda teoria é parcial. “O criador de uma teoria está sempre
tentando sublinhar e explicar o que ele acredita ser importante, nada mais do que isso [...] As
teorias representam vários modos como os observadores vêem o meio à sua volta, mas as
teorias não são em si mesmas a realidade”. Portanto, são de âmbito geral as teorias que
procuram captar os fenômenos como um todo, de forma ampla e abrangente. Têm a vantagem
da integração e da visão geral e a desvantagem da perda de detalhes. As teorias de âmbito
estreito concentram-se em aspectos específicos do fenômeno. Aumentam a nossa
compreensão de aspectos finitos, enquanto deixam de lado as inter-relações mais amplas e os
conjuntos. Nesse sentido, é possível que um bom quadro de referência teórica seja composto
por teorias que enfoquem o problema pesquisado tanto no âmbito geral quanto no âmbito
específico.
182
183
Três outros aspectos metodológicos relevantes às sutis diferenças entre as teorias
podem ser observados quanto ao estilo do enunciado, função e abordagem filosófica
utilizados em suas formulações.
O estilo de enunciado da pesquisa pode ser melhor compreendido a partir da seis
diferentes classificações definidas por Kaplan e relatados por Littlejohn:
Ele descreveu o estilo literário como uma abordagem centrada nos estudos de caso
individuais, conclusões clínicas etc. [...] O estilo acadêmico é mais geral do que o
literário. Primordialmente, é mais verbal do que operacional, e tende para recorrer ao
jargão. A teoria geral da semântica pode exemplificar esse estilo. [...] O estilo erístico
atribui forte ênfase à prova e às proposições formais, e faz grande uso do experimento
e da estatística. Um exemplo dessas teorias da comunicação é a noção de dissonância
cognitiva formulada por Festinger. [...] O estilo simbólico faz uso de formulações
matemáticas. Os termos matemáticos são utilizados para conceituação e comunicação
de idéias [...] sendo exemplos possíveis na área da comunicação a teoria da
informação e a teoria dos jogos. [...] Finalmente temos o estilo mais abstrato de todos
o formal. O estilo formal é completamente isento de conteúdo, no sentido de que
não existe conteúdo empírico. O foco incide inteiramente na derivação formal e
lógica. A diferença entre o estilo formal e o postulacional é apenas o grau. O estilo
formal dota o usuário com um modelo lógico que pode ser aplicado a uma vasta gama
de áreas específicas. Exemplo da teoria formal que está relacionada à comunicação é
a Teoria de Sistemas Gerais, de Bertalanffy. (LITTLEJOHN, idem, p.29-30)
O segundo aspecto metodológico, a distinção existente entre teorias básicas e teorias
aplicadas é o que mais comumente caracteriza o segundo aspecto metodológico-
paradigmático da função das teorias. A teoria básica tende a fazer enunciados descritivos, na
tentativa de melhor expor explicitamente relações existentes suposição, hipótese, fato ou
lei entre os diversos conceitos relacionados a uma certa teoria; enquanto a teoria aplicada
tende a formular enunciados prescritivos, numa tentativa de controle dos fenômenos.
Quanto ao último aspecto, a abordagem filosófica, não uma linha divisória
absoluta entre duas abordagens – Fisicista ou Humanista por exemplo – mas isso não as torna
necessariamente incompatíveis ou compatíveis. A diferença pode ser em ênfase ou uma
questão de grau. A abordagem Fisicista, por exemplo, recorre às analogias das ciências físicas
e aos métodos quantitativos de pesquisa e tende a ser determinista
57
em seu enfoque, enquanto
a abordagem Humanista realça valores humanos e destaca o conhecimento teleológico. A
abordagem filosófica pode influenciar significativamente os métodos e até mesmo os
resultados das pesquisas. Pode adquirir, de certo modo, significado epistemológico que, como
vimos, são dependentes de zeitgeist. Dos contexto epistemológicos podem ser retirados
57 O determinismo é a filosofia que propõe que tudo o que ocorre na vida pode ser explicado em termos de
causalidade passada. Vê o comportamento como sendo causado por eventos passados.
pressupostos, científicos ou não, para definir corpus, direcionamentos e modelos teóricos
iniciais.
Ocorre que muitos questionamentos quanto a eficiência e a eficácia dos métodos
científicos utilizados nas pesquisas, e de suas bases epistemológicas, para formação de
enunciados científicos. Daí surgem muitos debates quanto à validade de serem utilizados, ou
escolhidos entre, métodos racionais, reducionistas, idealistas transcendentais, empíricos,
materialistas dialéticos etc. claramente uma discussão quanto a validade de utilizarmos
métodos de pesquisas bem sucedidos no campo das ciência naturais em outras nas ciências
sociais. No meio dessas discussões surgem argumentos no sentido de que:
Nas ciências sociais, é muito mais significativo pensar em termos de quase-leis e
leis de tendências do que de leis absolutas. As quase-leis são generalizações que se
sabem terem exceções. A lei de tendência, parece mais uma “candidata a lei”, uma
declaração de que determinada relação tende a ocorrer. (LITTLEJOHN apud
KAPLAN, idem, p.24).
A aceitação de quase-leis e leis de tendência, ou seja, a qualidade de incerteza de
uma teoria depende da aceitação da existência de teorias abertas. Da aceitação de que
enunciados podem ser parciais ou condicionais; de que podem ser aproximados ou
determinantes; de que as teorias podem ser inconclusivas, incertas, intermédias ou limitadas; e
de que nas ciências sociais não são absolutas e completas. Para muitos cientistas são esses os
mecanismos de sustentação da anti-ciência e da pseudo-ciência. Para Alan Cromer, autor de
Senso Incomum: A Natureza Herética da Ciência(1997), está no próprio caráter humano uma
das razões para a aceitação de verdades conclusivas da ciência.
Os seres humanos, afinal, gostam de acreditar em espíritos e deuses. A ciência, que
espera que eles vejam as coisas tais como são, e não como crêem ou sentem,
subverte uma paixão humana primária. Em toda sociedade, o cético corre o risco
de ser silenciado, quando não apedrejado, pela malta de crentes. [...] Nossas
faculdades racionais superiores não se desenvolvem espontaneamente, [...] os
sistemas educacionais desenvolvidos através dos milênios foram projetados para
pregar fidelidade às palavras dos textos antigos, não para uma busca
desinteressada da verdade. (CROMER, 1997, p.19)
Nos borborinho de diversas ondas de zeitgeist epistemológico, formam-se culturas
científicas variadas, com um arco de crenças onde misturaram-se verdades e certezas
científicas com crenças da anti-ciência, pseudociência e metafísica. Nesse debate, muitos
acadêmicos hesitam diante de possibilidade de certezas científicas pois acreditam ser
impossível afirmá-las porque “os filósofos demonstraram que nem o conhecimento empírico
184
185
nem o dedutivo, pode ficar livre de erro” embora, comprovadamente, “no caso de um número
finito de entidades discretas, tais como elementos químicos ou os genes humanos, certeza é a
palavra apropriada” (idem, p.18)
Alan Neil Ditchfield, em nota do tradutor dessa obra de Cromer, lembra da influência
de ideologias políticas no combate à ciência:
Lênin, em seu livro Materialismo e empiriocriticismo (Materializmo i
empiriokritisizm, 1909); concluiu que o materialismo dialético é incompatível com
a segunda lei da termodinâmica, anunciada por Clausius e Kelvin, e com a lógica
matemática de Bertrand Russel e Alfred North Whitehead. Tivesse nin tido
formação em ciências exatas, teria rejeitado as construções intelectuais erguidas
com o materialismo dialético. Mas Lênin rejeitou a ciência, em lugar de abandonar
sua pretensão a possuidor de erudição científica. Pela mesma rota, os estudos de
genética de Mendel e Morgan foram censurados pelos guardiães da fé marxista,
como contrários a uma lei de Hegel, a da transformação da quantidade em
qualidade. (DITCHFIELD apud CROMER, idem, nota do tradutor)
De modo a diferenciar o que se compreende nesta tese como ciência é necessário
dizermos que “ciência não é apenas a solução metódica de um determinado problema” afinal:
Todos astrólogo, homeopata, cartomante, feiticeiro, psicanalista faz observações e
trabalha segundo pré-determinada ordem ou plano. Designar tal trabalho como
científico, ou mesmo pré-científico, é não perceber o significado essencial da
palavra ciência. Esses sistemas não-científicos estão presos à tradição e são auto-
referenciados, operando no interior do seu próprio sistema de idéias, exatamente
como Kuhn alega a propósito da ciência. Tais sistemas não-científicos existem
deste tempos paleolíticos. (CROMER, idem, p.21)
A verdadeira ciência busca descrever e explicar as teorias, formular enunciados que
possam ser falseados e usados para futuras previsões.
A primeira vista, a criação de modelos referenciais teóricos como os que Littlejohn
se propôs a realizar, e de fato realizou, apresenta-se como trabalho de difícil realização em
vista da complexidade e abrangência de tal tarefa. No caso da Comunicação social, em parte,
esta dificuldade deve-se ao fato de que “Em virtude da natureza complexa e multidisciplinar
do processo, a comunicação é muito difícil de definir. A palavra comunicação é abstrata e [...]
possui múltiplos significados.” (idem, p.36). De fato, no Dicionário da Comunicação (2001)
os autores Rabaça e Barbosa listam 31 definições somente para o verbete comunicação,
comprovação inequívoca da grande diversidade de teorias relacionadas com a comunicação
por tratar-se de um processo ubíquo e complexo que envolve muitas áreas de interesse
comum. Envolve conceitos diferenciados e algumas vezes complementares e outros até
conflitantes apresentados em teorias ou interpretação de cientistas como: Lasswell,
Schramm, Shannon e Weaver, Osgood, Berelson e Steiner, Redding e Sanborn, Hofstätter,
Luiz Beltrão, Marques de Melo, entre outros.
ainda outro aspecto dessa dificuldade. Nos relata Littlejohn que pesquisas
realizadas por Franklin Knower e por Lee Thayer demonstram que inúmeras disciplinas
possuem interesse comum pela comunicação e embora a natureza dos respectivos interesses
variem, acabam por traçar perfis diferentes para este objeto de estudo:
Knower assinalou três tipos de disciplinas interessadas na comunicação. As
disciplinas de processo são aqueles campos que enfatizam o processo de comunicação
desde um ponto de vista acadêmico: antropologia, sociologia, filosofia, lingüística,
psicologia. As disciplinas do comportamento da comunicação são as que estudam
certas condutas específicas da comunicação: educação, jornalismo, linguagem,
literatura, arte, fala. Finalmente, as aplicações ou disciplinas de conteúdo aplicam os
princípios de comunicação descobertos em outros campos a situações práticas:
agricultura, administração, trabalho, política, saúde pública. Thayer forneceu outro
perfil transversal das disciplinas de comunicação: Pesquisa neurológica e cerebral;
Biológica, patologias da comunicação, fatores humanos; Técnicas de mídias;
Aprendizagem verbal e condicionamento verbal; ngua, lingüística e semântica;
Cognição, pensamento e resolução de problemas; Personalidade estudos psicológicos
e psiquiátricos; Comportamento interpessoal; Estudo de pequenos grupos e redes de
comunicação; Organizações, teoria da organização, comportamento organizacional,
teoria da administração; Sistemas de comunicação e informação, ciências e tecnologia
da comunicação; Comunicação de massa, estudos sócio-culturais e sócio-políticos;
comunicação animal; Simulação; Análise quantitativa e metodologia. (LITTLEJOHN,
idem, p.35)
5.1 - O MODELO REFERENCIAL DE LITTLEJOHN
Para fazer frente a essa complexidade Littlejohn utilizou-se de 3 teorias de âmbito
geral para definir o corpus de sua pesquisa: Teoria Geral dos Sistemas (TGS); Teoria
Cibernética e Teoria da Informação cujo nome atribuído por seus autores foi Teoria
Matemática da Comunicação..
A TGS utiliza abordagem funcionalista para postular conceitos que regem os
sistemas em geral e permite a aplicação dessas generalizações a numerosos fenômenos em
diversas disciplinas. Littlejohn afirma que Existem muitas razões para que a teoria dos
sistemas gerais se adapte tão bem ao estudo da comunicação.” (idem, p.52). Estava ele a
referir-se as contribuições teóricas que Clevenger e Matthews apresentaram em The speech
186
187
communication process
58
. Nessa obra os autores definiram seis dimensões da comunicação
que caracterizam os fenômenos comunicacionais como sistemas abertos:
1. A comunicação é um processo complexo. Os autores se baseiam em algumas idéias
chaves de Leonard Hawes acerca da natureza da comunicação orientada para processo. O
primeiro postulado é o da concateneidade. Os atos comunicativos são concatenados às
correntes de atos de comunicação e, portanto, a comunicação o pode ser dissecada em
fragmentos finitos. O segundo postulado é o da simultaneidade. Os comunicadores
comunicam-se entre si simultaneamente, não em seqüência.
2. É um processo interdependente de duas maneiras: os comunicadores afetam-se mútua e
simultaneamente e as variáveis no processo de comunicação são interdependentes.
3. É um processo adaptativo que envolve feedback, como preconiza a Teoria da Cibernética.
4. A comunicação é um processo padronizado de comportamento governado por regras, uma
propriedade característica dos sistemas abertos.
5. É um processo hierarquicamente ordenado e inclui subsistemas que se relacionam para
atingir um propósito comum.
6. É um processo orientado para a cadeia. Uma das mais importantes aplicações da teoria de
sistemas são as cadeias de informação e a comunicação de massa.
Nas Ciências Sociais, a TGS traz, em sua abordagem de processos categorizados
como sistemas, algumas vantagens significativas, dentre elas: vocabulário comum; um modo
de estudar organizações grandes e complexas; análise holística de processos; ênfase sobre
informação e comunicação em sociedade; Ponto de vista mais relacional que estrutural. Um
argumento convincente e qualificado para o uso da TGS como integradora do conhecimento,
na análise de um sistema de comunicação cujo estudo dos componentes exige a abordagem
transdisciplinar, foi dado por Kenneth Boulding apud Littlejohn (idem, p.48):
A necessidade da teoria dos sistemas gerais é acentuada pela atual situação
sociológica da ciência. [...] Hoje, a crise da ciência é fruto da crescente dificuldade
de diálogo proveitoso entre cientistas como um todo. A especialização ultrapassou
o Ramo. A comunicação entre disciplinas torna-se cada vez mais difícil, e a
República do Saber está se desintegrando em culturas isoladas, com apenas ténues
linhas de comunicação entre elas. (...) Por vezes, é o caso para nos perguntarmos se
a ciência acabará por se imobilizar em pane irreversível, entregue a uma porção de
eremitas enclausurados, cada um resmungando palavras numa linguagem
particular que ele é capaz de entender. (...) A expansão da surdez especializada
significa que alguém que deveria saber algo que outra pessoa sabe é incapaz de
descobrir por falta de ouvidos generalizados. Um dos principais objetivos da
Teoria Geral dos Sistemas é desenvolver esses ouvidos generalizados.
59
58 Theodore Clevenger Jr e Jack Matthews em The speech communication process. Glenview, Scott Foresman,
1971.
59 Kenneth Boulding - “General Systems Theory The skeleton of science, in Buckley Modern
systems research, p.4
A atitude do pensamento holístico é parte integrante do conceito de sistema. O
sistema é considerado como uma Gestalt na qual suas partes se inter-relacionam e se afetam
mutuamente. Podem ser sistemas fechados ou abertos, quando interagem com o meio-
ambiente. A TGS atribui finalidade aos sistemas, para a realização da metas ou execução da
tarefas. O sistema é adaptável, tem por meta um estado final que pode ser alcançado em várias
condições ambientais diferentes. Portanto, a TGS pode ser aplicada para descrever a natureza
de qualquer tipo de processo sistêmico.
A descrição de sistemas é feita através da definição de quatro qualidades intrínsecas
aos sistemas: A primeira é o dos objetos, que representam as partes, elementos ou membros
do conjunto que compõe o sistema; podem ser físicos, abstratos, ou ambas as coisas,
dependendo da natureza do sistema. A segunda qualidade comum aos sistemas é que o próprio
sistema bem como seus objetos podem ser descritos através de atributos, ou seja, das
qualidades ou propriedades de seus objetos. É a existência de determinados atributos
semelhantes que permitem o agrupamento de objetos em classes, por exemplo, o agrupamento
de grande variedade de programas de computador agrupados em uma classe de objetos
denominada 'software'. A terceira é uma qualidade crucial e essencial para a caracterização de
um processo como sistêmico. Trata-se do relacionamento existente entre os objetos
componentes do sistema, ou seja, das relações internas entre os objetos, e implica efeito
mútuo de interdependência e coibição entre os objetos. Em processos de comunicação a troca
de informações entre objetos do sistema é um exemplo típico de relacionamento. A última
qualidade é que os sistemas não podem existir no vácuo, de modo que um objeto pode ser
incluído tanto no sistema quanto no ambiente e todos, sistemas e objetos, são afetados pelo
meio circundante, com o qual trocam energia.
Na perspectiva teleológica
60
dos sistemas, seus componentes devem comportar-se de
acordo com regras básicas ou cânones da TGS e têm que se adaptar ao ambiente com base em
informações de feedback. Este aspecto de auto-regulação e controle dos sistemas é conhecido
como cibernética. A cibernética é, portanto, o estudo da regulação e controle em sistemas,
com ênfase sobre a natureza do feedback. Trata dos métodos pelos quais os sistemas (e seus
subsistemas) usam seu próprio output para aferir o efeito de suas ações e realizar os
ajustamentos necessários. Esse processo fundamental de output-feedback-ajustamento, tema
central da cibernética, é fundamental na relação entre pessoas e tecnologias.
60 Da finalidade, uma causa final, um fim, um propósito.
188
189
Portanto, para analisar especificamente os aspectos de auto-regulação e controle
Littlejohn utilizou-se da Teoria da Cibernética, desenvolvida por Norbert Wiener em 1948, e
que tem macro abordagem focada na explicação dos mecanismos de controle dos sistemas
abertos. A principal vantagem desta teoria está na sua adaptabilidade a crescente dificuldade
de regulação e controle tipicamente encontrados nos sistemas comunicacionais, nos quais os
objetos podem adotar comportamentos ativos ou passivos. Littlejohn (idem, p. 49-50)
descreve bem essa característica da Teoria Cibernética.
[...] a distinção básica é entre comportamento ativo e passivo. Um organismo que
exibe comportamento ativo é a fonte primária da energia envolvida no
comportamento. O próprio organismo ativo está fornecendo o estímulo. No
comportamento passivo o organismo é um receptor de inputs ou estímulos. O
comportamento passivo é primordialmente, uma resposta à energia exterior. Na
categoria do comportamento ativo pode ser estabelecida uma divisão adicional
entre comportamento randômico sem propósito determinado e comportamento
proposital. O comportamento proposital é dirigido para um objetivo ou finalidade;
o comportamento randômico não é.[...] O comportamento proposital pode ser
ainda subdividido em mecanismos complexos e simples de feedback. Na condição
simples, o organismo usa o feedback num sentido restrito, mas não modifica ou
ajusta o comportamento no curso da ação. Os sistemas complexos, entretanto,
usam feedbacks positivos e negativos para se ajustarem e adaptarem durante a
própria ação. [...] os sistemas complexos podem ser preditivos ou não-preditivos.
O comportamento preditivo baseia-se mais na posição ou resposta prevista do que
na resposta real. [...] a predição é mais ou menos acurada, como indicado pela
distinção final no modelo. ( LITTLEJOHN, idem, p.49-50)
Embora a TGS e a Teoria da Cibernética possam ser utilizadas para a compreensão
dos processos e relacionamento entre subsistemas, da descrição de seus atributos, das
características do meio ambiente e de auto-regulação e controle, essas macroteorias não são,
segundo Littlejohn, suficientes para a análise de todos os aspectos de sistemas de
comunicação.
As descrições realizadas mostram claramente que um dos componentes desse
processo de comunicação é a informação trocada entre os subsistemas pessoa e mídia e entre
os subsistemas e o meio ambiente. A análise e descrição das estruturas de informação
envolvidas no modelo desta pesquisa, necessariamente com uma amplitude micro, foram
formuladas à luz da Teoria da Informação desenvolvida por Shannon e Weaver sob a
ótica de Russel Ackoff para possibilitar a análise da informação nos níveis técnico, semântico
e de eficácia em processos comunicacionais humanos.
A natureza semântica da informação, envolvida em processos sistêmicos de
comunicação social, traz consigo o pressuposto de que a interação entre receptores e
emissores é simbólica. Portanto, podem ser explicadas por um conjunto de teorias agrupadas
sob o título de Interacionalismo Simbólico.
Para realizar seu trabalho, tomando por base as premissas que discutimos,
Littlejohn desenvolveu extensa pesquisa em teorias do campo da comunicação, com o
propósito de identificar as que, de algum modo, contribuíam para explicar os objetos,
atributos, processos e relacionamentos dos sistemas envolvidos na comunicação.
Adotou metodologias de pesquisa bibliográfica e descritiva. A pesquisa bibliográfica
permitiu-lhe identificar, a partir de referências teóricas publicadas, quais macroteorias e
microteorias deveriam ser levadas em conta para que se possa entender os tipos de processos
comunicacionais apontados em seu Quadro de Referência para Generalizações e Conceitos-
chave. Tratou-se, portanto, de levantar macroteorias e microteorias de comunicação social e
esse trabalho:
[...] revelou a existência de 11 amplos conceitos e generalizações que estão
vinculados à comunicação. [...] Essas generalizações são de três tipos. Os
primeiros dois são orientações gerais para a comunicação; definem a essência e a
natureza geral do processo. O segundo grupo de generalizações diz respeito a
certos processos básicos que são comuns a toda comunicação humana. Finalmente,
existe um grupo de generalizações que aponta os contextos em que a comunicação
se realiza. (idem, p.36-37)
A pesquisa descritiva foi apropriada para correlacionar e descrever as características,
propriedades e relações das generalizações e conceitos-chave das teorias escolhidas por
Littlejohn na Tabela 2 - Resumo de Conceitos e Generalizações e que apresentamos a seguir.
Nela, como podemos observar, as generalizações e conceitos-chave foram agrupados, em
função de âmbito geral ou estreito aos quais pertenciam, em três áreas: Orientações gerais;
Processos básicos e Contextos de comunicação. Também apresentamos no Apêndice A -
Estrutura de Apresentação dos Fundamentos da Comunicação Humana sumário e pequeno
resumo das generalizações obtidas das teorias tratadas em cada capítulo da obra de Littlejohn.
Desse modo, Littlejohn realizou um extenso e complexo trabalho de pesquisa, pois, como ele
mesmo observou, “Compreender a comunicação não é tarefa fácil. Envolve um esforço
multidisciplinar e multiteórico.” (LITTLEJOHN, idem p. 362).
Tabela 2: Quadro de Conceitos e Generalizações: Littlejohn
Área Generalização Conceito-Chave
190
191
Orientações
gerais
1. A comunicação é um processo complexo Processo
2. O processo de comunicação é primordialmente um processo
de interação simbólica
Interação
simbólica
Processos
básicos
3. A interação simbólica é um processo de emissão e recepção
de mensagens codificadas
Codificação
4. Um sinal é um estímulo que tem significado para pessoas Significado
5. As mensagens são sinais e grupos de sinais formados através
dos processos do pensamento humano
Processos de
pensamento
6. As mensagens fornecem informações Informação
7. A comunicação resulta em mudança
Persuasão e
mudança
Contextos de
comunicação
8. A comunicação interpessoal ocorre no contexto da interação
face-a-face.
Interpessoal
9. A comunicação realiza-se no contexto do pequeno grupo. Pequeno grupo
10. A comunicação realiza-se no contexto da organização Organizacional
11. A comunicação realiza-se no contexto de massa Massa
Fonte: Littlejohn (1978, p. 371).
Ao analisarmos os autores, teorias e hipóteses apresentadas no apêndice-A, vamos
perceber que a maioria das teorias arroladas para a identificação e explicação das
generalizações e posteriormente dos conceitos-chave estão quase que exclusivamente
pautadas pelo paradigma Funcionalista Norte Americano, cujo ícone é a famosa Escola de
Chicago, grupo de escolas e teóricos aos quais Armand e Michèle Mattelart, na obra História
das Teorias da Comunicação (1995, p. 29) chamaram de 'os empirismos do novo mundo', ao
explicar as origens destas correntes funcionalistas:
Desde a década de 1910, a comunicação nos estados Unidos encontra-se ligada ao
projeto de construção de uma ciência social sobre bases empíricas. A escola de
Chicago é a sede. Seu enfoque microsociológico dos modos de comunicação na
organização da comunidade harmoniza-se com uma reflexão sobre o papel da
ferramenta científica na resolução dos grandes desequilíbrios sociais. [...] Os anos
40 vêem instalar-se outra corrente: A Mass Communication Research, cujo
esquema de análise funcional desloca a pesquisa para medidas quantitativas, mais
aptas a responder à exigência provenientes dos administradores da mídia.
O Funcionalismo Americano explicou o processo de comunicação através da Teoria
Geral de Sistemas, Teoria da Cibernética e a Teoria Matemática da Comunicação. Além destas
teorias acolheu também o Pragmatismo e a Semiótica, a metodologia etnográfica e no campo
da Psicologia, o Funcionalismo e Behaviorismo. Também incorporou membros do chamado
“colégio invisível”, como nos explica Mattelart:
Nos anos 40, um grupo de pesquisadores americanos provenientes de horizontes
tão diversos quanto a antropologia, a lingüística, a matemática, a sociologia ou a
psiquiatria tomam rumo inteiramente contrário ao da teoria matemática da
comunicação de Shannon, em vias de se impor como referência dominante. A
história desse grupo, identificado como o “colégio invisível” ou “escola de Palo
Alto” [...] inicia-se em 1942, impulsionada pelo antropólogo Gregory Bateson, que
se associa a Birdhistel, Hall, Goffman, Watzalawik etc. Afastando-se do modelo
linear da comunicação, trabalham a partir do modelo circular retroativo proposto
por Norbert Wiener. [...] sustentam que a teoria matemática deve ser abandonada e
que a comunicação deve ser estudada pelas ciências humanas a partir de um
modelo próprio. (MATTELART, idem, p.67)
Outra observação importante é que no quadro de Littlejohn não constam teorias que
possam explicar o contexto de comunicação diferenciado envolvendo pessoas e sistemas
digitais com propósitos educacionais.
Por fim, constatamos que o zeitgeist epistemológico utilizado envolve os
'paradigmas' utilizados nos campos de conhecimento que antagonizam com a visão naturalista
do homem a favor das Doutrinas Sagradas do Século XIX.
5.2 - A PESQUISA TRANSDISCIPLINAR
Foram duas as principais diferenciações metodológicas desta pesquisa, quando
comparadas à de Littlejohn. A primeira consistiu na abordagem para a definição do corpus da
pesquisa. Tratou-se de uma abordagem de ambito estreito, ou seja, concentrou-se em aspecto
bastante específico da comunicação social: a relação entre pessoas e mídias digitais. Para
analisar essa relação adotamos um modelo experimental de processo comunicacional, que
denominamos Laboratório Virtual de Ciências ou LVC, para midiatizar 'conteúdos' voltados à
aprendizagem de conceitos das ciência naturais entre o aprendiz e o computador. A análise
funcional do LVC, possibilitou-nos definir sujeitos, objetos e relações envolvidas nas
experimentações com o LVC.
192
193
Dessa análise extraímos o primeiro pressuposto diferenciador. Por envolver o
relacionamento entre pessoas máquinas biológicas e mentes e mídias digitais máquinas
eletrônicas e software o processo comunicacional foi compreendido como um sistema
aberto e, por isso também, utilizamos a Teoria Geral de Sistemas para definir as classes de
objeto, atributos e relacionamentos que compõem esse tipo de processo comunicacional.
Como resultado, identificamos dois tipos de 'sistemas' pessoas e mídias digitais que se
comunicam através de interface midiáticas controladas por software. Ao conjunto de atributos
de cada um destes sistemas denominamos, genericamente, natureza.
O segundo pressuposto foi que a comunicação envolve não um, mas dois tipos de
interação: uma sensorial, entre a mídia e a pessoa, e outra simbólica, entre a pessoa e a
mensagem. Portanto, entendemos que a compreensão desse novo tipo de interação
sensorial requer teorias explicativas específicas para a natureza desses dois tipos de relação,
e não somente do Interacionismo Simbólico adotado por Littlejohn.
O terceiro pressuposto foi que as mensagens transmitidas podem ter diferentes
propósitos além dos adotados por Littlejohn e cada um desses propósitos requer cuidados
específicos, tanto na estruturação das mensagens, no uso de linguagens falada, escrita,
visual, cinematográfica, musical como na adequação das mensagens às mídias utilizadas.
Nesse sentido, o caráter da interface hipermídia dos softwares, acrescido de capacidade de
programação e decisão, transforma a comunicação numa relação híbrida cuja explicação
também requer base teórica própria.
O quarto pressuposto é que a assimilação de conceitos científicos presentes nos
exercícios do LVC requer a transposição didática desse conceitos e significados para um
discurso educacional que mantenha não o interesse e a motivação do receptor-aprendiz
mas, também, assegure a eficiência e eficácia do propósito das informações: a aprendizagem.
Para esse propósito, a máquina biológica não pode assumir uma posição passiva na relação
com a mídia, comum nos contextos de comunicação de massa, e portanto aspectos
operacionais das redes de cognição adquirem um significado mais amplo, de modo a
assegurar a atenção do estudante.
O quinto pressuposto é que as mídias, e não somente as mensagens, afetam os
sentidos humanos e, por isso, precisamos saber se as mídias digitais são ou não apropriadas a
finalidades específicas da comunicação, tais como aprendizagem.
A segunda diferenciação metodológica de nossa pesquisa com relação à de Littlejohn
foi com respeito ao recorte epistemológico orientador da análise do objeto deste estudo.
Nesse sentido, diante da necessidade de análise das naturezas humana, da mídia digital e do
tipo de relação que se apresenta com o uso do LVC, estabelecemos um zeitgeist diferente do
adotado por Littlejohn e cujos referenciais teóricos, acreditamos, estão mais compatíveis com
os conhecimentos adquiridos com os avanços da ciência deste limiar de século XXI.
Encontramos novos campos de conhecimento, verdadeiramente científicos, que podem
contribuir com teorias que nos permitirão compreender melhor a natureza dos sistemas
envolvidos em processos de comunicação social.
De forma a atingir o objetivo geral desta pesquisa, quatro objetivos específicos foram
alvo deste trabalho:
1. A partir das orientações gerais da Teoria Geral dos Sistemas e da Cibernética foram
analisados, classificados e rotulados subsistemas, objetos, eventos, ações, informações e
interações sensoriais entre a mídia e a pessoa e simbólica entre a pessoa e a
mensagem – presentes no modelo experimental do Laboratório Virtual de Ciências – LVC,
representativo do processo comunicacional objeto desta pesquisa,
2. Definidas a natureza dos subsistemas componentes humanos, mídias e relações–
identificamos novos Conceitos e Generalizações presentes em processo comunicacional
modelado no LVC,
3. Com base nas qualidades definidas para o LVC e no Quadro Resumo de Conceitos e
Generalizações de Littlejohn (1978, p.371), foram estendidas áreas, conceitos-chave e
generalizações para atender às exigências provocadas pelo novo contexto da relação
híbrida entre o homem e as mídias digitais.
4. A partir da extensão do Quadro Resumo de Conceitos e Generalizações de Processos
Comunicacionais de Littlejohn, foi criado um novo Modelo Transdisciplinar para
Comunicação com dias Digitais, que acrescido ao proposto por Littlejohn permitirá
identificar, dentre múltiplos autores e teorias apresentadas na tese, novas disciplinas que
podem contribuir para formalizar suposições, hipóteses, fatos e leis relativas aos atributos
significativos de cada um dos componentes do processo comunicacional objeto deste
estudo.
5.3 - O MODELO EXPERIMENTAL LVC
De modo a alcançar o objetivo geral delimitamos o corpus da pesquisa à análise da
relação de ensino/aprendizagem entre uma pessoa e uma máquina digital. Para isso diversas
abordagens de pesquisas poderiam ter sido adotadas. Uma primeira abordagem implicaria o
estudo de determinado objeto concreto per se, ou seja, um sistema computadorizado
existente em situação de operação real. Uma segunda abordagem teria sido o estudo de um
processo de comunicação de caráter geral para ser aplicado, por analogia, a outros objetos de
interesse específico. A abordagem adotada, entretanto, foi a de utilizar um modelo
194
195
experimental de referência, e para isso projetamos o LVC Laboratório Virtual de Ciências,
com software representativo de processos comunicacionais voltados ao aprendizado de
ciências. Isso posto, na perspectiva da TGS podemos configurar nosso modelo de forma a
considerar o LVC um subsistema de um modelo maior. Esse modelo maior envolve uma
pessoa – máquina biológica e mente – relacionando-se interativamente com um sistema digital
máquina eletrônica e software através de interfaces gráficas apresentadas em telas de
computador, com o propósito específico de transferir conhecimentos de ciências através de
exercícios de experimentação.
Neste caso, o termo modelo está sendo utilizado para significar representação
simbólica do objeto hipotético que permite estabelecer paralelos com estruturas e relações
percebidas em objetos e fenômenos do mundo real. Nesse sentido, como observamos antes,
o modelo, por si só, não irá revelar a verdade e não deve ser confundido com a realidade em
si. Trata-se de uma construção concentrada em certos aspectos do processo à custa de outros
aspectos considerados de menor importância pelo pesquisador. Em síntese, o modelo
representa a percepção deste pesquisador e não a realidade, embora possa representá-la
metaforicamente. O modelo LVC permitiu a conceituação dos objetos, processos e idéias, que
se apresentam em processos comunicacionais reais análogos. Conceituar este modelo
experimental, implicou, primeiramente, identificar componentes envolvidos no processo de
comunicação analisado, seja do mundo real ou hipotético, de forma a categorizá-los,
atribuindo-lhes nomes, rótulos, palavras símbolos e etc. Com outras palavras, trata-se de
agrupar “coisas e eventos em categorias, de acordo com as características comuns
observadas.” (idem, p.21). Na linguagem da Teoria de Sistemas Abertos as categorias são as
classes de objetos – coisas e eventos.
A pesquisa foi desenvolvida tomando por base o software experimental desenvolvido
especialmente para a realização desta tese. O LVC Laboratório Virtual de Ciências
contempla dois exercícios experimentais de ciências naturais, um de química, outro de física.
As figuras 12 Estados físicos da água; e figura 13 O oxigênio; o alimento do fogo, em
anexo, mostram uma interface hipermídia de cada experiência. O sistema foi criado para
possibilitar a realização de atividades experimentais
61
e de simulações de fenômenos das
ciências naturais em substituição dos laboratórios físicos de ciências, atualmente empregados
61 A atividade experimental é apresentada por Alves Filho, (2000, p.292) como uma alternativa tanto em substituição à
realização de experiências, contextualizada como de domínio coletivo e irrestrito a todo ser humano no seu cotidiano,
quanto à experimentação, de uso exclusivo do cientista, como um dos critérios de validação dos construtos científicos.
na maioria das escolas.
O software experimental LVC é capaz de processar objetos virtuais, tridimensionais,
animados e com recursos, entre outros, de interação, navegação, iluminação e imposição de
leis científicas. No exercício de física, relativo aos estados físicos da água, apresentamos
interface interativa virtual da experiência que busca a compreensão da diferença entre calor e
temperatura. Nessa atividade, os recursos de Realidade Virtual (3D) possibilitam a criação de
uma sala virtual com uma mesa na qual estão disponíveis um suporte e um recipiente com
água, uma tampa para vedação do recipiente, um termômetro embutido no recipiente, um bico
de bunsen com regulagem de intensidade de calor, uma chave para abertura/fechamento de
gás, um acendedor elétrico, um cronômetro e um microscópio eletrônico. Através da interface
de hipermídia, o estudante poderá realizar a atividade experimental: ligar o gás e acender o
bunsen, observar as variações de medição do termômetro e do cronômetro e, através do
microscópio que amplia as moléculas de água possibilitar ao estudante observar o
comportamento das moléculas de H
2
O quanto a velocidade, movimentos e colisões etc
através do vidro do recipiente, à medida que a temperatura aumenta.
Software similar ao modelo LVC pode ser construído com conceitos e recursos de
hipermídia, realidade virtual (RV) e inteligência artificial (IA) para mediar a comunicação
entre pessoas e mensagens apresentadas pela máquina.
Em versão definitiva, que considere as generalizações e conceitos-chave das teorias
pesquisadas nesta tese, imaginamos que o aprendiz poderá repetir a mesma atividade diversas
vezes e, a cada experiência, manipular as variáveis e condições da atividade experimental, tais
como pressão atmosférica, temperatura inicial, misturas etc. Os recursos de hipermídia irão
permitir que o estudante escolha realizar a atividade em um computador stand-alone
62
, ou
conectado em rede local na escola, ou através da Internet, em qualquer local do planeta.
Através da hipermídia o estudante poderá assistir a vídeos, ler, visualizar gráficos, ver e ouvir
instruções sobre como deve ser realizada a atividade. Poderá ainda solicitar detalhes
explicativos ou conteúdos relacionados a cada objeto existente no ambiente e até efetuar os
apontamentos de suas observações de forma que esses apontamentos possam ser socializados
e complementados pelos demais estudantes e professor. Os recursos de IA podem provocar
uma explosão virtual caso o estudante abra o gás e demore para acender o bico de bunsen, ou
ainda registrar as ações do estudante e reconhecer operações equivocadas. Poderá direcionar
62 Computador que trabalha só, sem estar conectado a qualquer rede.
196
197
perguntas ao estudante à medida que a atividade se desenvolve e interpretar, até certo ponto,
se o estudante está registrando os dados das medições corretamente. Com AI também será
possível acompanhar as ações dos estudantes e "comunicar" eletronicamente ao estudante e ao
professor onde aquele está se equivocando, ou criando possíveis problemas de operação.
Esses são apenas alguns exemplos do que se pode fazer com os recursos disponíveis nesse
tipo de ambiente virtual de aprendizagem. Dessa forma, lúdica, menos perigosa, e de certa
forma vivenciada por muitos estudantes acostumados aos videogames, existe grande
possibilidade de que os estudantes compreendam melhor os princípios científicos a que serão
expostos e passem a gostar do fascinante mundo do estudo da ciência.
Não temos dúvida de que a relação entre homem e mídia digital tem grandes desafios
a serem superados por sistemas educacionais parecidos com o LVC, dentre os quais a
adaptação dos humanos às novas situações espaciais, temporais e táteis, introduzidas pelos
sistemas de redes de informações e pela enorme facilidades para utilizar múltiplas linguagens
nas estruturas de hipermídia com a representação simbólica virtual do real, notadamente
com realidade virtual.
Esta pesquisa buscou por novas teorias que expliquem os efeitos que essa gestalt
multimídia trará para o desenvolvimento cognitivo dos jovens, nessa cultura da virtualidade
real, assim descrita por Castells.
Ao longo da história, as culturas foram geradas por pessoas que compartilham
espaço e tempo [...]. Portanto, as configurações espacial-temporais eram
importantíssimas ao significado de cada cultura e a sua evolução diferencial. No
paradigma informacional surgiu uma nova cultura a partir da superação dos lugares
e da invalidação do tempo pelo espaço de fluxo e pelo tempo intemporal: a cultura
da virtualidade real. [...] chamo de virtualidade real um sistema em que a realidade
em si (ou seja, a existência material/simbólica das pessoas) está imersa por
completo em um ambiente de imagens virtuais, no mundo do faz-de-conta, em que
símbolos não o apenas metáforas, mas abarcam a experiência real. [...] Todas as
expressões de todos os tempos e de todos os espaços misturam-se no mesmo
hipertexto, reorganizado e comunicado a qualquer hora, em qualquer lugar, em
função apenas dos interesses dos emissores e dos humores dos receptores.
(CASTELLS, 1999, p. 426-427).
Nos apropriamos desta definição de Castells para ampliar o significado atribuído ao
termo comunicação no escopo desta pesquisa. Trata-se de uma relação entre pessoas e
objetos-pensantes máquinas digitais e software e, portanto, requer uma perspectiva de
comunicação na qual duas unidades básicas uma unidade-fonte e uma unidade-de-destino
que tanto recebem como transmitem informação, interagem através da troca de mensagens.
Cada unidade funciona como fonte e destino, transmissor e receptor de mensagens, um
sistema de comunicação autocontido' (Osgood). A palavra mensagem não representa somente
a transmissão de conteúdos idéias, emoções, habilidades etc. através de símbolos
palavras, imagens, figuras, gráficos etc. (Berelson e Steiner). Mensagem implica transmissão
de informações, sinais físicos, geralmente ondas de luz ou ondas de pressão de ar. (Redding e
Sanborn). Envolve não somente a linguagem escrita e oral, mas também linguagem visual,
linguagem musical. (W. Weaver). A linguagem, principal suporte da comunicação, consiste
em sinais que são entendidos pela mediação dos vários sentidos (Hofstätter). Ressalta o
conceito biológico que identifica a comunicação como atividade sensorial e nervosa (Luiz
Beltrão), um ato de exprimir e transmitir o que se registra ou se passa no sistema nervoso do
indivíduo (Marques de Melo).
Com base na realização dos exercícios no LVC experimental, fomos capazes de
qualificar as interações sensoriais que ocorrem durante as experiências e adotá-las em
modelos teóricos para identificar generalizações e conceitos acerca da natureza humana,
natureza da mídia digital e natureza da relação entre humanos e máquinas.
5.4 - GENERALIZAÇÕES E CONCEITOS DA COMUNICAÇÃO DIGITAL
Na seqüência deste capítulo definimos três Quadros de Generalizações e Conceitos
onde apresentamos áreas, generalizações e conceitos-chave relativos às naturezas da cognição
humana; das mídias digitais e do relacionamento entre humanos e a mídia. Após a
apresentação de cada quadro oferecemos breve descrição acerca das considerações teóricas
que invocaram a identificação das generalizações e escolha dos conceitos selecionados.
5.4.1 – GENERALIZAÇÕES E CONCEITOS DA NATUREZA COGNITIVA HUMANA
Como mencionamos anteriormente, foi a Neurociência Cognitiva que, utilizando-
se de métodos científicos para medir eventos mentais e de tecnologias para recolha de
imagens cerebrais, que iniciou o estudo das relações entre operações da mente e do cérebro. A
neurociência cognitiva, como sabemos, foi o resultado da fusão entre o campo da
neurofisiologia – dedicado ao estudo do funcionamento fisiológico do cérebro – e o campo da
psicologia cognitiva preocupada em estudar como ocorrem as experiências da mente.
198
199
Portanto, “Um dos desafios da neurociência cognitiva é entender a forma como esta
disposição modular de conjuntos de células está organizada no apoio à atividade mental. [...]
de que forma o sentimento, pensamento e experiência consciente dos seres humanos resultam
em atividade mental” (POSNER, 2001, p.33).
Entretanto, é importante observar que a neurociência é capaz de demonstrar como
funciona a máquina humana mas não a mente. Esse é a principal contribuição do campo
Inteligência Artificial (IA) que consiste em desenvolver testes que permitam simular em
computadores as operações mentais do cérebro humano. Essas contribuições não podem,
portanto, ser confundidas com a utilização metafórica de computadores, também nominado de
cérebro eletrônico, como paradigma científico em nosso zeitgeist atual. Sistemas
computadorizados foram objeto de análise detalhada nesta tese e mostramos que é possível
comparar o computador uma máquina eletrônica digital com a máquina humana uma
máquina biológica. Ambas têm 'memórias' e 'processadores' com funcionalidades análogas; e
ambas têm 'sentidos', ou seja, órgãos responsáveis pelo processamento e troca de informações
com o ambiente. Pessoas têm 'mente', computadores m 'software'. Entretanto mesmo os
robôs mais avançados, programados com inteligência artificial, não passam de ferragens,
cabos e programas escritos por humanos. A energia que aciona processadores e memórias de
ambas é de natureza substancialmente diferente. O computador é (quase) uma tábula rasa
lembra-se do que lhe foi programado para buscar nos bancos de dados e esquece-se de tudo ao
ser desligado, posto a dormir. A máquina humana tem instintos e memória sempre ativa e
muito de seu processo de desenvolvimento intelectual ainda é uma incógnita. Dificilmente o
computador pode ser uma metáfora completa da máquina humana. A máquina humana é um
desenvolvimento natural de bilhões de anos e os computadores um desenvolvimento artificial
de menos de 10 décadas. Os 'antepassados' do computador são a eletricidade, o sistema
numérico binário, a máquina de calcular e antigos teares programados a cartão. Ainda assim
os computadores e sua variante, o robô, tem servido para testar as hipóteses levantadas pelos
cientistas da neurociência cognitiva. Somadas, a Neurociência Cognitiva e a Inteligência
Artificial formam a nova Ciência da Mente, cujas teorias nos permitem concluir que o ser
humano é resultado de fenômeno genofenotipado natural na evolução da espécie e, portanto,
os órgãos de sentidos e cérebros – os responsáveis pelas funções cognitivas humanas – são os
aspectos que permitem diferenciá-lo de outros seres vivos.
A partir dessas constatações realizamos nas teorias dessa ciência nossa busca pelos
princípios definidores da natureza da cognição humana, e as traduzimos nas principais
generalizações e conceitos acerca da natureza da cognição humana, conforme apresentamos
na figura 3, a seguir:
200
201
Tabela 3 - Quadro de Generalizações e Conceitos: Natureza da Cognição Humana
ÁREA GENERALIZAÇÕES CONCEITOS-CHAVE
SISTEMA
NEURO-
FISIOLÓGICO
> O cérebro, com estruturas evolucionárias
inatas, desenvolve a mente: produz linguagem e
outras formas de comportamento
> Todas as operações de cognição humana
envolvem atividades desenvolvidas em 5 níveis
estruturais de interação: Sistemas Sensoriais
Biológicos (células), Sistemas de Redes Neurais,
Domínio de Desempenho, Operações Mentais e
Sistemas Cognitivos.
Mecanismos de
Memória
Consciência
Pensamento
Sentimento
Percepção Sensorial
Redes de Atenção
Estado de Vigília
SISTEMA
NEURO-
PSICOLÓGICO
> A Inteligência biológica possui natureza
Multidimensional.
> Inteligências Biológica e Artificial são
funcionalmente similares – metaforicamente.
> Características biológicas das memórias –
inibição retroativa, oscilação, esquecimento e
generalização – são essenciais à aprendizagem.
Julgamento
Criatividade
Capacidade
computacional: cálculo
e processamento de
informações
Lógica ( racional)
Na obra Introdução à Inteligência Artificial (1984) Simons G. L. Apresenta uma
visão interessante da relação do cérebro com linguagens de forma muito similar ao do
funcionamento dos computadores.
É hoje geralmente aceito que a estrutura do cérebro humano o predispõe a aceitar
ligações e informações lingüísticas. Os programas do cérebro manipulam dados
lingüísticos, ordenando-os para serem armazenados e para outros fins (e também
pode ser conveniente considerar os programas do rebro como escritos numa
linguagem, se bem que não de forma a que a fala ou pensamento dependam da
linguagem). Será também de esperar que os vários programas do cérebro estejam
relacionados com estruturas evolucionárias prévias. [...] Neste contexto, é
conveniente considerar que o cérebro produz a linguagem da mesma forma como
produz outras formas de comportamento, a fim de fortalecer o potencial de
sobrevivência de um sistema biológico. (SIMONS, 1984, p. 154).
Simons também demonstra uma razoável semelhança quanto a evolução da
inteligência, que no homem desenvolveu ao longo de milhões de anos,[...] “e o ser humano
alargou o seu espectro de inteligência desde a infância até crescer para a maturidade: de forma
análoga se reconhece à evolução da inteligência do computador”.
Todavia a compreensão do que venha a ser a inteligência não é uma questão simples.
Conforme nos relata Simons várias definições com diferentes significados: Binet julgar
bem, compreender bem, raciocinar bem. Spearman a inteligência geral... envolve
sobretudo a ‘educação de relações e correlações’. Terman – a capacidade para conceptualizar e
para compreender o seu significado. Vernon – ‘capacidade geral de pensamento’ ou ‘eficiência
mental’. Burt habilidade inata, geral e cognitiva. Heim a atividade inteligente consiste na
compreensão do essencial de uma situação e numa resposta reflexa apropriada. Wechsler a
capacidade agregada ou global de um indivíduo agir com propósito, de pensar racionalmente,
e de se adaptar eficientemente ao ambiente. Piaget adaptação ao ambiente físico e social.
(SIMONS, idem, p, 19)
As várias definições do termo inteligência nos mostram que a inteligência biológica
envolve muitas aptidões e grande número de habilidades que lhe permite agir, pensar e se
comportar de forma diferenciada, logo, podemos afirmar que a inteligência biológica possui
natureza multidimensional.
Portanto temos que reconhecer a diversidade de funções da inteligência nos sistemas
biológicos e imaginar a complexidade envolvida na construção de modelos dos processos
mentais humanos em computadores. Nos informa Simons, em umas poucas linhas, acerca de
algumas dificuldades que esse tema apresenta:
É inevitável que aqueles que trabalham na área da inteligência artificial precisem
escrutinar a inteligência natural, a fim de identificarem as características-chave,
atributos definitivos, etc. Não é sequer possível começar a enquadrar inteligência
em artefatos, aque se disponham de alguns conceitos sobre o reconhecimento da
inteligência em sistemas biológicos. Douglas Hafstadter, por exemplo, trabalhando
em IA na Universidade de Indiana, indicou o que ele considera como as
‘habilidades essenciais da inteligência’. Estas incluem a flexibilidade na
capacidade de resposta a situações, a exploração de circunstâncias fortuitas, a
racionalização de mensagens ambíguas ou contraditórias, o encontrar de
similaridades em situações separadas por diferenças, e a geração de novos
conceitos e idéias. O caráter multifacetado da inteligência é, uma vez mais,
evidente. [...] A natureza multidimensional da inteligência sugere que alguns
elementos da inteligência serão mais facilmente estruturados em sistemas
artificiais do que outros. É, por exemplo, muito mais fácil quantificar e medir a
inteligência computacional, do que quantificar e medir elementos, tais como
julgamento ou criatividade. E, a menos que um elemento possa ser quantificado,
de uma forma ou outra, é difícil de ver como é que esse elemento pode ser
capsulado num programa para computador. (idem, p. 21).
É preciso considerar que a inteligência biológica envolve um conjunto de habilidades
que permite ao ser humano agir, pensar, perceber e se comportar de diferentes modos e que
essas habilidades estão relacionadas fisiologicamente tanto ao cérebro quanto ao sistema
nervoso. Mesmo assim, nos explica Simons, essa complexidade não impede que possamos
202
203
utilizar computadores para simular as operações da mente.
É por vezes notado que os milhões de milhões de neurões existentes no cérebro
humano podem dar lugar possivelmente a um quatrilhão de ligações: ainda mais
importante, segundo o Dr. Willian Shoemaker, do Salk Institute, o neurão médio é
tão complexo como um microcomputador completo. Isto pode ser enganador um
único neurão pode ser adequadamente modelado por um número relativamente
pequeno de componentes eletrônicos -, mas chama a atenção para o risco de se
entrar em comparações fáceis entre circuitos de computadores e fioscerebrais.
Não é necessário explorar a forma como os neurões processam informação [...] . É
suficiente que a função do neurão seja hoje apreciada, quase exclusivamente, em
termos de teoria de comunicação e controlo (quer dizer, em termos de cibernética).
Em contraste com circuitos de silício, a eficiência dos neurões depende tanto da
atividade eléctrica (por exemplo, da transferência de íões através de uma
membrana) como da resposta química. Mas o esquema geral é o mesmo em
sistemas artificiais e biológicos: a informação, codificada e modelada de
determinadas maneiras, é transmitida e armazenada de forma adequada ao sistema.
As várias atividades eléctricas, eletrônicas e químicas contribuem todas para o
mesmo fim – a manipulação controlada da informação. (idem, p,71 -72)
Outro grande complicador reside no fato de que muitos processos da inteligência,
para funcionarem adequadamente, são absolutamente dependente do input e ou output de
informações processadas pelos órgãos dos sentidos humanos e nesse caso, aparentemente, os
órgãos que podemos construir artificialmente com a tecnologia e conhecimento que
possuímos hoje ficam muito aquém dos órgãos humanos de modo a possibilitar qualquer tipo
de comparação. Entretanto, devemos observar que a percepção, ou seja, o que é percebido
pelo organismo o é no cérebro e não no órgão do sentido. Essa consideração abre uma janela
de oportunidade para que mesmo sem órgãos sensoriais tão sofisticados possamos simular em
computadores processos de percepção, como demonstrado a seguir:
A forma como o cérebro interpreta a informação que recebe determina,
obviamente, a eficiência do funcionamento do ser humano no mundo. E qualquer
perspectiva da percepção humana é, obviamente, de relevância para a possibilidade
de construir sistemas artificiais com capacidade perceptiva. Em relação a máquina,
a percepção é muitas vezes expressa como reconhecimento de padrão, uma
expressão que sugere imediatamente a uma comparação entre informação recebida
e conhecimento armazenado (‘reconhecimento’ implica um conhecimento prévio).
Tanto em animais como em máquinas, o reconhecimento pode ser facilitado
através do uso de várias técnicas. O empaceiramento de ‘tamplates’ é, por
exemplo, um dos estratagemas mais simples para o reconhecimento e classificação
de padrões. Neste caso, deve existir um tamplate adequado para o tipo de
percepção em causa e para cada um dos padrões a serem reconhecidos. Considere-
se, como simples exemplo de percepção visual, que uma letra isolada (digamos a
letra A) excita, na retina, um dado padrão de receptores. Se estes padrões
específicos estiverem ligados a uma só célula de detecção, esta configuração
(receptores mais detector) representaria um tamplate capaz de detectar a letra A.
Outras configurações teriam por fim detectar outras letras. [...] Os problemas que
afligem o processo perceptivo não são difíceis de detectar. A informação recebida
pode ser parcial, intermitente, ou uma mistura confusa de sinais relevantes e
irrelevantes. Similarmente a informação armazenada para fins de consulta pode
estar incompleta ou misturada com outros dados, dificultando a obtenção de um
empaceiramento claro. E o que é verdadeiro no contexto da percepção visual é
também verdadeiro, mutatis mutandis, para outros tipos de percepção. A percepção
auditiva, por exemplo, pode ser alimentada por dados ou por conceitos, e pode ser
influenciada pelas características dificuldades perceptivas. (SIMONS, 1984,
p.73-74).
Isso não significa que a construção de tamplates seja uma operação técnica simples
de resolver em decorrência das variações que podem existir, por exemplo, no caso de input de
letras, no tamanho ou cor das letras. A relevância da percepção visual também está
relacionada ao fato de que nos computadores o elemento de comportamento, ou de interação
entre a pessoa e o computador pode ser não mais do que uma imagem de écran
63
com
resultados de computação, conforme explica Simons:
A imagem é um meio de transmitir a resposta a uma pergunta, a solução para um
problema, uma decisão que é tomada, etc. É assim uma pessoa pensar sobre um
problema, escrever a solução ou comunicar a outra pessoa a decisão tomada. É
claro, que os computadores também podem produzir listagens de output ou
expressar oralmente as suas conclusões. Este comportamento geração de
imagem, produção de listagens de output, expressão oral representa, do lado do
output, a forma como um sistema inteligente mantém contacto com o mundo
exterior. O mundo exterior dos computadores consiste largamente dos seres
humanos que usam os sistemas de computadores, e por isso o output do
computador é produzido de forma que se pretende que sejam entendidas por
pessoas. (SIMONS, idem, p.130)
A evolução de sistemas computacionais cada vez mais voltada para o
desenvolvimento de programas capazes de interpretar novas formas de visão, gera grandes
expectativa para compreendermos melhor como se o processamento do input/output pelo
cérebro ou para empregar o termo de Simons para compreender uma nova biologia da visão.
Os programas quer em artefatos quer em animais, devem ser capazes de interpretar
nova informação de forma a que o sistema (do qual os programas fazem parte)
obtenha uma imagem do mundo exterior. Por exemplo, o que acontece quando
alguém um objeto vermelho? Existe uma impressão quase instantânea de
urgência, apesar de nem o objecto nem um grupo de luzes vermelhas ter
impressionado o nervo óptico. O que aconteceu foi que o objecto refletiu (ou
emitiu) luz de uma certa freqüência, que causou depois a ocorrência de alteração
fotoquímica na retina, resultando nos apropriados impulsos nervosos que foram
transmitidos aos centros visuais do cérebro através do nervo óptico. Até certo
63 Écran é como os franceses nominaram a tela de terminal de vídeo de computador
204
205
ponto, os impulsos nervosos são mbolos que representam o objecto vermelho e
que podem ser decodificados por um mecanismo informático apropriado (cérebro
ou computador). (idem, p.133)
A biologia da visão está associada a complexidade do olho humano, a um mosaico
de milhões de hastes e cones de modo que cada um deles detecta uma pequena porção de uma
imagem que a lente lhe apresenta. Isso faz com que pequeníssimas alterações elétricas e
químicas envolvam computações digitais análogas.
Muitas das células nervosas da retina não geram simples respostas binárias de sim-
ou-não, mas produzem mudanças classificadas que, subseqüentemente, se
combinam com a influência de respostas binárias de células maiores vizinhas. [...]
existem robots que evitam a luz e robots que procuram a luz, mas não existem
programas de computadores capazes de dar a máquinas uma competência visual
que se aproxime sequer à do ser humano comum.[...] Pode assumir-se que existem
diferenças substanciais entre os processos usados pelos sistemas biológicos, para
facilitarem uma capacidade visual, e os processos análogos que estão a ser
desenvolvidos para máquinas. As células nervosas da retina e o córtex cerebral
dependem de efeitos químicos e eléctricos, enquanto a química é de pouco
interesse para os circuitos do silício. As ligações entre os neurões são muito
numerosas e estão usualmente distribuídas em três dimensões. Existem muito
menos ligações entre os componentes eletrônicos dos computadores digitais, e
estes estão na sua maioria organizados em estruturas bidimensionais. Mas apesar
dos respectivos hardwares da biologia e dos computadores diferirem grandemente,
é provável que ocorram acontecimentos computacionais semelhantes nos
diferentes tipos de sistemas. O seguimento de caminhos computacionais
mapeados pelos sistemas biológicos, oferece vantagens ao projetista de
computadores quando os objetivos se assemelham. A visão em seres humanos é um
notável fenômeno: se for possível ao menos imitar alguns dos seus processos-
chave, estar-se-á decididamente no bom caminho para compreender a forma como
a visão artificial poderá ser aplicada às máquinas. (SIMONS, 1984, p.134-135).
Entretanto, conforme Simons nos informa, nosso conhecimento sobre o sistema
visual humanos, no sentido da mente, ainda é muito pouco conhecido.
[...] a visão é produzida no cérebro pelas complexas configurações de neurões, mas
não seria possível entender a visão se apenas se considerassem as descargas de
neurões e as ligações sinópticas. É também necessário considerar a visão como um
exercício informático. Vista desta forma, é possível mostrar que a visão pode ser
discutida em termos gerais, que são igualmente aplicáveis a sistemas biológicos e a
sistemas artificiais [...] existem hoje muitos programas de computadores
destinados a conseguirem que os sistemas artificiais vejam e reconheçam itens no
seu ambiente. [...] Já foram escritos, ou estão a ser escritos, programas capazes de
reconhecer uma larga variedade de desenhos e imagens: por exemplo, desenhos
animados, desenhos de cenas tridimensionais, fotografias, ‘pares estereofônicos
(para permitirem a derivação de informação aprofundadas), seqüências de
desenhos mostrando objetos em movimento, fotografias de satélite (dando
informação geológica, meteorológica ou militar) e representações de ‘objetos
impossíveis’ (tais como os desenhos de Escher). Alguns dos programas exploram o
conhecimento da forma como seres humanos efetuam tarefas visuais, mas a
atividade visual humana é também governada por algumas regras de utilização que
não podem ser assumidas. Deve realçar-se que os programas da visão existentes
modelam a visão humana de forma muito rudimentar.[...] a visão em animais mais
simples (insectos, por exemplo) pode ser modelada mais fielmente por programas
de visão de computador. (idem, p.75)
Embora a questão da percepção e da visão no contexto dos sistemas artificiais receba
mais atenção dos psicólogos cognitivos, dos roboticistas e de outros investigadores da IA, os
outros sistemas também despertam interesse, pois o sistema auditivo também é importante
para a compreensão da fala [humana] pela máquina, o olfato porque ainda se busca
conhecimento acerca das instâncias em que os sistemas de computadores pudessem cheirar.
Em outras palavras: “Uma larga variedade de sistemas táteis foram desenvolvidos para serem
aplicados em robots modernos, e tais habilidades incluem ondas sensitivas, dedos
respondentes e pele artificial. Alguns microcomputadores são agora munidos com écrans que
respondem ao tacto, e é de esperar que os sistemas táteis venham a ter maior uso no futuro.”
(SIMONS, idem, p.75)
Outra questão da maior importância para o estudo da percepção e da visão no
contexto dos sistemas biológicos e artificiais enfatiza os mecanismos da memória. “Por
exemplo, a rápida recuperação da informação armazenada é essencial quando uma pessoa ou
um computador tem de reagir a uma situação que se altera rapidamente.[...] na realidade, todas
as tarefas cognitivas requerem que a informação seja corrigida, armazenada e processada de
várias formas. Os mecanismos da memória suportam todas as operações inteligentes em seres
humanos e em sistemas computadorizados.” (idem, ibidem)
Algumas experiências foram realizadas para se verificar o tempo médio que um
indivíduo leva para recuperar uma informação armazenada na memória de longo prazo ou de
longa-duração. Estas experiências mostraram que a recuperação da informação envolve
problemas como a variações da velocidade de tempo de uma pessoa para outra, para
reconhecimento das letras, por exemplo, e outras tarefas de reconhecimento. Estes
pesquisadores da IA concluíram que o tempo é um elemento importante e necessário para
recuperação da informação na memória de longo prazo, e que a construção de sistemas
computadorizados artificiais capazes de realizar tarefas cognitivas que simulem a recuperação
de informação pela mente humana é de igual complexidade.
O professor de ciências da computação Roger Schank, um dos primeiros e influentes
206
207
estudiosos da inteligência artificial e da psicologia cognitiva nas décadas de 1970 e 1980,
produziu programas para simular a memória humana. Simons (idem p.78) explica que “Estes
sistemas conseguem armazenar informação política, notícias, etc., reestruturando as suas
memórias sempre que necessário, e podem depois ser peritas em relação à informação
armazenada, respondendo a questões sobre os tópicos quando perguntadas. O sucesso de tais
sistemas sugere que pode ser proveitoso considerar a forma de trabalho da memória humana,
antes de iniciar o desenvolvimento de sistemas de IA”. Nesse sentido,
Vários programas de computadores foram desenvolvidos para modelar aspectos da
atividade da memória humana. Assim, num modelo a que Winograd (1975) deu
evidência, o elemento de memória compreende componentes independentes
controlados por uma unidade de processamento, que mobiliza informação quando
requerido e que codifica informação de input específica em células de memória. E
feito uso de ‘busca’ e de ‘processamento ativo de mensagens’, tendo cada elemento
de memória poder ‘para fazer as suas próprias computações sobre uma mensagem
que é enviada aos elementos da memória, e cada elemento pode decidir
independentemente que ação deve tomar’. É possível que exista este tipo de
arranjo na memória humana, em que itens específicos estão ligados em rede uns
aos outros. Os programas de computadores podem ser às vezes usados para
representar o processamento de input na memória de curta duração, como é o caso
do modelo Waiting Room (Sala de Espera) da autoria de Rutman (1970). Este caso
sugere a existência de uma grande similaridade entre as atividades relevantes a
computadores e a seres humanos. [...] O trabalho sobre os mecanismos da
memória, tal como noutras áreas de investigação, traduz-se em progresso tanto
para a compreensão da psicologia humana como para a potencialidade da
construção de sistemas de IA. (SIMONS, 1984, p. 78-79).
A memória é um fenômeno complexo e dinâmico e, como vimos, pode ser de
longo-prazo ou de longa ou de curta-duração. Tanto as memórias de longa ou de curta duração
podem armazenar palavras, números, músicas, imagens e etc., e, da mesma forma, podem
perder informações “ou adquirir inesperadamente novas ligações e associações”. A memória
de curto prazo ou de curta duração dura minutos ou horas e serve para proporcionar a
continuidade do nosso sentido do presente. A memória de longo prazo ou de longa duração
dura dias, semanas ou anos. Alguns sistemas computacionais foram desenvolvidos com a
finalidade de simular os dois tipos de memórias:
O Sistema EPAM foi desenvolvido, nas décadas de 1950 e 1960, por Edward
Feigenbaum e Hebert Simon, e é agora considerado como o primeiro modelo
informático de várias atividades da aprendizagem-verbal humana. O sistema,
concebido para decorar material sem sentido, classificou alguns aspectos das
memórias de curta e de longa duração. O EPAM permitiu a explicação de
características da memória, tais como inibição retroativa, oscilação, esquecimento
e generalização de estímulos-e-respostas. O programa es escrito em IPL-V, uma
das primeiras linguagens de processamento de listas. O sistema memoriza silabas
sem sentido em séries de listas ou em pares associados. Uma laba estímulo (de
um par associado) é primeiramente apresentada ao EPAM. A outra silaba é então
mostrada a fim de que a associação seja aprendida (com uma primeira
apresentação) ou a fim de que a memória seja refrescada. Este procedimento é
depois repetido para cada par de sílabas. O todo da experimentação é repetido até
que o EPAM possa dar a sílaba-resposta correta para cada silaba-estimulo. No
modo ativo o EPAM procura produzir respostas aos estímulos; e, no modo de
aprendizagem, aprende a associar estímulos com respostas. O facto de o EPAM se
comportar como um ser humano, em experimentações clássicas de decorar, é
particularmente interessante. [...] A oscilação do EPAM ajuda a compreender o
esquecimento. Se bem que se possa pensar que a informação se perde
permanentemente com o tempo (por sobreposição ou por degeneração), no EPAM
o esquecimento ocorre não porque a informação é destruída, mas porque o acesso
se torna temporariamente impossível nas malhas crescentes de novas associações.
(SIMONS, 1984 p. 86-87).
O exemplo acima descrito do sistema EPAM nos mostra que o desenvolvimento
de sistemas de inteligência artificial não pode ser dissociado do sistema biológico de
funcionamento da mente, da memória e desse modo criamos uma sinergia entre as teorias da
neurociência, psicologia cognitiva e inteligência artificial de modo que o desenvolvimento de
teoria em um campo do conhecimento leva necessariamente a progressos científicos em
outros.
208
209
5.4.2 – GENERALIZAÇÕES E CONCEITOS DA NATUREZA DA MÍDIA DIGITAL
A seguir procuramos definir a natureza da mídia digital, a partir da própria definição
do que é mídia. Desenvolvemos o conceito de grau de recursividade das mídias e desse modo
identificamos as quatro mídias com menor grau de recursividade presentes nas interfaces
hipermídia fala, escrita, imagem e música e que constituem veículo de informação entre o
ser biológico e seu ambiente. Para cada uma dessas mídias discorremos sobre suas formas de
input e ou output, ou seja, a linguagem que lhes vida em um grau de recursividade
imediatamente superior.
Nos apropriamos para isso das teorias de Marshall McLuhan, principal cientista a
desenvolver teorias de âmbito geral acerca da Natureza das Mídias.
McLuhan dividiu a história humana de modo muito similar ao que, metaforicamente
chamamos de Ondas. Assim, ao que Alvin Toffler chamou de civilização primitiva,
civilização agrícola, civilização industrial, McLuhan denominou de Era tribal, Era da escrita e
Era da eletrônica, sempre fiel ao zeitgeist de cada era, conceito apresentado graficamente na
figura 10 - Divisão da História segundo McLuhan. Teoriza que foram as invenções
tecnológicas das mídias e não os modos de produção a infra-estrutura teoria defendida
pelos marxistas, os mais importantes fatores para formação das Ondas civilizatórias e das
mudanças de zeitgeist. As formulações de McLuhan foram profundamente influenciadas pela
relação intelectual e obras de seu amigo e professor da Universidade de Toronto Harold Innis,
The Bias of Communication (1964) e Empire of Communication(1972); além de obras de
importantes e reconhecidos autores dos campos da filosofia, literatura, psicologia,
antropologia, história e arte.
Em 1988 Eric McLuhan, filho e colaborador de Marshall McLuhan, compilou e
publicou Laws of Media: The new Science, a última obra de McLuhan, falecido em 1980.
Nela os McLuhan apresentam as Leis que, segundo os autores, podem confirmar sua teoria.
As Leis das Mídias são apresentadas na forma de tetrad, ou seja, com quatro perguntas para
que possam ser refutadas, segundo os postulados de Karl Popper. As perguntas formuladas
são:
1. O que a tecnologia amplia ou intensifica? Com outras palavras, significa que devemos
identificar quais órgãos ou sentidos humanos são afetados pela nova tecnologia.
2. O que a nova mídia torna obsoleto ou desloca? Ou seja quais tecnologias a nova substitui,
a exemplo do deslocamento do rádio da sala para o automóvel após o surgimento da televisão
(deslocou); ou da pintura em seu papel de representação da realidade e transformada em arte
após o desenvolvimento das técnicas fotográficas.
3. O que a nova tecnologia recuperou e que estava obsoleto? Para McLuhan na Era tribal o
órgão do sentido humano dominante era o ouvido e por isso a linguagem falada se constituía
na principal mídia de comunicação. Com o advento da Éra da escrita alfabética o ouvido (a
audição) foi deslocado de seu papel de órgão dominante pelo olho, 'obsoletando' portanto o
ouvido. A invenção do telégrafo que conduziu as invenções do rádio e da televisão
recuperou a importância do sentido auditivo e o ouvido retomou o papel de órgão dominante.
4. O que a nova mídia produz ou se torna quando pressionada a extremo? McLuhan acreditava
que caso o rádio fosse amplificado ao extremo então o sistema de rádio se tornaria um 'Global
village theater', ou seja uma aldeia global.
A partir dessas e outras formulações teóricas de Marshall e Eric McLuhan definimos
o Quadro de Generalizações e Conceitos da Natureza da Mídia Digital, conforme
apresentamos na figura 4, a seguir:
210
211
Tabela 4 - Quadro de Generalizações e Conceitos: Natureza da Mídia Digital
ÁREA GENERALIZAÇÕES CONCEITOS-CHAVE
LAWS OF
MEDIA
> Tecnologias de mídia ampliam ou intensificam
uso de sentidos humanos.
> Novas Tecnologias tornam obsoletas ou
deslocam antigas.
> Nova tecnologia recupera importância de
órgão dominante 'obsoletando'.
> Nova mídia, quando pressionada ao extremo
amplifica sua penetração e uso.
Extensão
Reversão
Obsolescência
Recuperação
Espaços visual
Espaço acústico
Espaço tátil
Espaço e virtual
NATUREZA
DAS MÍDIAS
> dias são extensões (próteses) dos órgãos de
sentidos humanos.
> Linguagem traduz experiência entre sentidos.
> Percepções das configurações visuais de tempo,
espaço, relações causais mudam em função de
predominância de mídias/sentidos.
> Relação mídia/sentido separa pensamento e
ação.
> Meios quentes ou frios afetam diferentemente
as emoções.
> Linguagens adequam-se aos meios-veículos.
> Conflito entre sistemas de sentidos abertos e
fechados afetam comportamentos psicológico e
social.
Sistemas abertos e
fechados
Percepção de tempo
Percepção de espaço
Independencia entre
sentidos
Realidade
Significância do ser
Linguagem Falada
Linguagem Escrita
Linguagem Imagética
Linguagem musical
Gestalt Multimídia
A natureza da mídia digital foi outra área incluída no modelo teórico transdisciplinar
para possibilitar a compreensão da relação entre homens e mídias a palavra, a imagem
pictórica e o som que apresentam uma grande complexidade por afetar diretamente os
sentidos humanos, como explica McLuhan na obra Gutenberg Galaxy (1962):
[O homem] animal fazedor de ferramentas, seja na fala ou na escrita ou no rádio há
muito tem estado envolvido em estender um ou outro dos seus órgãos de sentidos
de tal maneira a perturbar todos os seus outros sentidos e faculdades. Mas tendo
feito estas experiências o homem tem consistentemente se omitido a segui-los com
observações.[...] Linguagem é metáfora no sentido de que ela não somente
armazena mas traduz experiência de um modo para outro. Dinheiro é metáfora no
sentido que armazena habilidades e trabalho e também traduz uma habilidade em
outra. Mas o princípio de troca e tradução, ou metáfora, es no nosso poder
racional de traduzir todos nossos sentidos uns com os outros. Isso nós fazemos a
cada instante de nossas vidas. Mas o preço que pagamos por ferramentas
tecnológicas especiais, seja roda ou o alfabeto ou o rádio, é que estas extensões
massivas de sentido constituem sistemas fechados. Nossos sentidos privados não
são sistemas fechados, mas o infinitamente traduzidos uns para os outros
naquela experiência que nós chamamos consciência con-sciousness. Nossos
sensos estendidos, ferramentas, tecnologia, através dos tempos, têm sido sistemas
fechados incapazes de intercâmbio ou percepção coletiva. Agora na idade elétrica
a própria natureza instantânea de coexistência no meio de nossos instrumentos
tecnológicos criou a crise bastante recente na história humana. [...] Nossas
tecnologias como nossos sentidos privados, demandam agora um intercâmbio e
equilíbrio que torna possível co-existência racional. Enquanto nossas tecnologias
eram o lentas quanto a roda ou o alfabeto ou o dinheiro o fato de serem
separadas, sistemas fechados, era suportável socialmente e psicologicamente, isso
não é verdade agora quando visão e som e movimento são simultâneos e globais
em extensão. Uma relação de intercâmbio entre estas extensões de nossas funções
humanas e agora tão necessárias coletivamente quanto tem sempre sido para nossa
racionalidade privada e pessoal em termos de nossos sentidos privados
(MCLUHAN, 1962, p.4-5).
Na mesma obra McLuhan demonstra como a existência, inexistência ou supremacia
no uso de uma ou outra tecnologia de mídia pode afetar as experiências mentais humanas,
através da comparação entre sociedades que se encontram em estágios civilizatórios
diferentes:
Enquanto a criança do ocidente é desde cedo introduzida aos blocos e construção,
chaves em fechaduras, tapas de água, e uma multiplicidade de itens e eventos que
os constrange a pensar em termos de relações espaço temporais e causas mecânicas
a criança africana recebe uma educação que depende muito mais exclusivamente
da palavra falada que é relativamente carregada com drama e emoção
(J.C.Carothers, p. 308). Ou seja, a criança [...] ocidental está rodeada por
tecnologia visual explicita abstrata de um tempo uniforme e espaço contínuo nos
quais causa” é eficiente e seqüencial e coisas movem-se e acontecem em planos
simples e ordem sucessiva, mas a criança africana vive dentro do implícito mundo
mágico da palavra oral ressonante. Ela encontrao causas eficientes e sim causas
formais de campos de configuração tais como cultiva qualquer sociedade não
letrada. Carothers repete continuamente que africanos rurais” vivem largamente
no mundo de sons um mundo carregado com significância pessoal direta para o
ouvinte enquanto o europeu ocidental vive muito mais em um mundo visual que
é em muito indiferente a ele (idem, p.18-19).
Entretanto, McLuhan atribui as diferentes percepções não somente aos sentidos,
desenvolvidos por milênios em nossa espécie descendente do macaco, mas também à própria
natureza das mídias:
Uma vez que o mundo do ouvido é um mundo hiperestático quente e o mundo do
olho é relativamente frio, mundo neutro, os ocidentais aparentam ser para o povo
da cultura do ouvido um peixe muito frio. [...] sons são em um sentido coisas
dinâmicas ou pelo menos sempre indicadores de coisas dinâmicas, de movimentos,
eventos, atividades para os quais o homem, quando altamente desprotegido dos
azares da vida, nos arbustos ou savana, tem que estar sempre em alerta. [...] sons
212
213
perdem dessa significância na Europa ocidental onde o homem muitas vezes
desenvolve, e precisa desenvolver, uma habilidade marcante para desconsiderá-los.
Enquanto para europeus em geral, “ver é crer”, para o africano rural, realidade
parece residir muito mais no que é ouvido do que no que é dito. [...] de fato, a
pessoa é levada a acreditar que o olho é considerado por africanos menos como um
órgão recebedor do que como um instrumento do desejo, o ouvido sendo o órgão
recebedor principal. (MCLUHAN, idem, p.19-20).
Nesse sentido, em nossa definição de mídias, a palavra, embora seja uma
composição mecânica de sons afeta percepções diferentes ao ser falada ou escrita, conforme
outra explicação de McLuhan:
Carothers reitera que o ocidental depende em alto grau da configuração visual das
relações espaço-temporal sem as quais é impossível ter o senso mecânico de
relações causais tão necessárias para a ordem de nossas vidas, mas suposição bem
diferente da vida perceptual nativa levou-o a perguntar (p.311) qual tem sido o
possível papel das palavras escritas na troca dos hábitos de percepção do stress
auditivo para o stress visual: “quando palavras são escritas se tornam
evidentemente uma parte do mundo visual, como a maioria dos elementos do
mundo visual se tornam coisas estáticas e perdem dessa forma o dinamismo que é
tão característico do mundo auditivo em geral, e do mundo falado em particular.
Elas perdem muito do elemento pessoal no sentido de que a palavra escutada é
mais comumente dirigida a uma pessoa enquanto a palavra vista mais comumente
não é, e pode ser lida ou não enquanto alguém as ditas. Elas perdem os sobretons
emocionais e ênfases que foram descritas [...] portanto, em geral, palavras ao
tornarem-se visíveis compartilham um mundo de relativa indiferença para o
visualizador um mundo do qual o poder” mágico da palavra [falada] tem sido
abstraído. [...] Portanto, em uma sociedade ainda tão profundamente oral como a
Rússia, onde espionagem é feita por ouvido e não por olho, no memorável
julgamento de expurgo de 1930 ocidentais expressaram confusão porque que
muitos confessaram culpa total não por causa do que eles tinham feito, mas pelo
que eles haviam pensado. Numa sociedade altamente letrada, então, a
conformidade visual e comportamental liberta o indivíduo de desvios internos.
Não tanto numa sociedade oral na qual verbalização interna é efetivamente ão
social: nessas circunstancias está implícito que constrangimentos comportamentais
precisam incluir constrangimentos de pensamento. (idem, p.20)
Contrariando até certo ponto o senso contra-intuitivo, é exatamente o fato de a escrita
ser fonética que muda esse estado de coisas, como segue escrevendo McLuhan com base nas
conclusões obtidas nas pesquisas de campo:
Carothers estressa que a que a escrita fonética separou pensamento e ação, não
havia alternativa a não ser manter todos os homens responsáveis por seus
pensamentos tanto quanto por suas ações. Sua grande contribuição tem sido
apontar para o rompimento (separação) do mundo mágico do ouvido e mundo
neutro do olho. E para a emergência do indivíduo destribalizado segue-se
evidentemente que o homem letrado quando nós o encontramos no mundo grego é
um homem partido, um esquizofrênico, como todo homem letrado tem sido desde
a invenção do alfabeto fonético. A mera escrita, entretanto, não tem o poder
peculiar da tecnologia fonética para o homem destribalizado. Dado o alfabeto
fonético com sua abstração de significado do som e a tradução do som para um
código visual e o homem ficou aprisionado na experiência que os transformou.
Nem um modo de escrita pictográfica ou ideográfica ou hierográfica tem o poder
destribalizante do alfabeto fonético. Nem um outro tipo de escrita, exceto a
fonética, tirou o homem do mundo possessivo de total interdependência e inter-
relação que é a rede auditiva. Desse mundo mágico ressonante de relações
simultâneas, que é o espaço oral e acústico, uma rota para a liberdade e
independência do homem destribalizado. Essa rota é via o alfabeto fonético que
deixa o homem rapidamente em graus variados de dualística esquizofrenia. [...]
Aqueles que experimentam a primeira onda de uma tecnologia, seja ela alfabeto ou
rádio, responde mais enfaticamente porque a nova relação de sentido estabelecida
de imediato pela dilatação tecnológica do olho ou ouvido presenteia o homem com
um mundo novo surpreendente que evoca “um novo fechamento vigoroso”, ou um
novo padrão de interdependência entre todos os sentidos em conjunto. Mas o
choque inicial gradualmente dissipa-se à medida que a comunidade inteira absorve
o novo hábito de percepção dentro de todas as suas áreas de trabalho e percepção.
(idem, p.22-23).
Outra questão importante para qual McLuhan nos alerta diz respeito a eventuais
dificuldades com o uso de hipermídia em processos educacionais, em virtude de nessa mídia
ser possível combinar as linguagens sonora, visual e verbal, e dessa forma confundir nossos
sentidos, mesmo sem que nos apercebamos disso:
Se uma tecnologia é introduzida de dentro ou de fora de uma cultura e se isso traz
novo stress ou predominância para um ou outro de nossos sentidos a relação entre
todos os nossos sentidos é alterada, nós não nos sentimos mais da mesma forma,
nem nossos olhos ou ouvidos e outros sentidos permanecem os mesmos. Hipnoses
dependem do mesmo princípio de isolamento de um sentido de forma a anestesiar
os outros. (idem, p.24).
Essa preocupação é deveras significativa ao nos depararmos, a seguir, com uma
experiência descrita por McLuhan na qual relata dificuldades que pessoas enfrentam diante de
exposição a novas mídias, como foi o caso de africanos iletrados expostos ao cinema.
Contatou-se que eles têm uma inabilidade natural para seguir narrativas complexas e também
para compreender dramatizações:
Porque sociedades iletradas não podem ver filmes ou fotos sem muito treino.
Alfabetização dá as pessoas o poder de focar um pouco à frente de uma imagem de
forma que nós vemos a totalidade da imagem ou da foto em uma olhadela. Pessoas
iletradas não têm este hábito adquirido e não olham objetos da mesma forma que
nós, ao contrário eles esquadrinham objetos e imagens da forma como fazemos a
página impressa, segmento por segmento. Portanto, eles não têm um ponto de vista
destacado, eles são completamente integrados com o objeto. Eles vão
enfaticamente para dentro dele o olho é usado, não em perspectiva, mas para tocá-
214
215
lo [...] Uma audiência africana não se senta silenciosamente sem participar ... se é
uma situação onde um personagem canta uma música a música é cantada e a
audiência é convidada 'a participar'. [...] Mas mesmo quando treinados para seguir
filmes os nativos de Ghana não podem aceitar um filme sobre Nigerianos, ele não
pode generalizar sua experiência de filme para filme, tal é a profundidade do
envolvimento em experiências particulares, esse envolvimento empático, natural
para a sociedade oral e para o homem auditivo e tátil. (MCLUHAN, idem,
p.37-39).
No relato dessa mesma experiência McLuhan estressa mais uma vez a importância de
diferenciar meios frios e meios quentes ao comparar o cinema com a televisão:
[...] Brincar com marionetes é um passa-tempo comum. Estivesse a TV disponível
os africanos a compreenderiam mais rapidamente que o filme. Porque com o filme
você é a câmera e o homem iletrado não consegue usar seus olhos como uma
câmera, mas com TV você é a tela. E TV é bidimensional e escultural em seus
contornos táteis. TV não é uma mídia para narrativa, não é tão visual quanto
auditiva e til. Por isso é empática e porque o modo ótimo da imagem da TV é o
cartoon. Visto que o cartoon aparece aos nativos da mesma forma que para nossas
crianças, porque ele é um mundo no qual o componente visual é tão pequeno que o
visualizador tem tanto para fazer quanto em palavras cruzadas. Quando a
tecnologia estende um de nossos sentidos, uma nova transferência de cultura
ocorre tão rápido quanto a nova tecnologia é interiorizada. (idem, p.40).
De fato, a constatação de que audiências africanas iletradas eram incapazes de
perceber a linguagem cinematográfica foi observada muitas vezes, como nos conta Jean-
Claude Carrière no livro A Linguagem Secreta do Cinema (2006), “Mesmo quando
reconheciam algumas das imagens de outro lugar um carro, um homem, uma mulher, um
cavalo –, não chegavam a associá-las entre si. A ação e a história os deixava confusos. Com
uma cultura baseada em rica e vigorosa tradição oral, não conseguiam se adaptar àquela
sucessão de imagens silenciosas, o oposto absoluto daquilo a que estavam acostumados.
Ficavam atordoados. Ao lado da tela, durante todo o filme, tinha que permanecer um homem,
para explicar o que acontecia. (CARRIÈRE, 2006, p.15).
Outra conclusão de McLuhan diz respeito às percepções de tempo e espaço
susceptíveis de mudança em função da predominância de alguma mídia sobre outras mídias:
O visual traz o explícito, uniforme e o seqüencial na pintura na poesia na lógica,
história. Os modos iletrados são implícitos simultâneos e descontinuados estando
no passado primitivo ou no presente eletrônico. [...] Homogeneidade,
uniformidade, repetição, essas são notas componentes básicas de um mundo visual
recentemente emergente de uma matriz auditiva-tátil. [...] Palavra escrita... traduz o
espaço áudio-tátil do homem iletrado sacro” para o espaço visual do homem
civilizado ou letrado ou “profano”. É necessário compreender que pessoas
iletradas se identificam muito mais proximamente com o mundo no qual eles
vivem do que fazem as pessoas letradas do mundo. Quanto mais letradas as
pessoas ficam, mais elas tendem a se descolar do mundo em que elas vivem. [...] O
que acontece é realidade para o iletrado, se cerimônias calculadas para aumentar o
nascimento de animais e a colheita das plantas são seguidas por tais crescimentos
então as cerimônias não são somente conectadas com eles mas são partes deles;
porque sem as cerimônias o crescimento dos animais e das plantas não haveria
ocorrido assim pensa o iletrado. Não é que o iletrado é caracterizado por uma
mente ilógica, sua mente é perfeitamente lógica e ele a usa muito bem, sem dúvida.
Um homem branco educado que se encontre em um momento depositado em um
deserto da Austrália Central dificilmente duraria muito, entretanto o aborígene
gerencia muito bem... . O problema com o iletradoo é que ele seja ilógico, mas
que ele aplica a lógica constantemente, muitas vezes com bases em premissas
insuficientes. Ele geralmente assume que eventos que são associados são
conectados por causalidade... Iletrados tendem a aderir muito rigidamente a regra
de associações como causação, mas, na maioria das vezes, isso funciona, e pela
regra pragmática o que funciona é tomado como verdade (idem, p.57-77).
McLuhan também faz uma importante explanação sobre o que diferencia a imagem
de palavras de imagens pictóricas impressas, ou seja, de fotografias ou desenhos:
A impressão de fotografias, entretanto, diferentemente da impressão de palavras de
tipos móveis trouxe uma coisa completamente nova para a existência tornou
possível pela primeira vez expressões pictóricas de um tipo que poderia ser
repetido com exatidão durante a vida efetiva da superfície de impressão. Essa
repetição exata de sentenças pictóricas teve efeitos incalculáveis sobre
conhecimento e pensamento, sobre ciência e tecnologia, de todo tipo. [...]. Se nós
tentarmos analisar nossas imagens mentais para descobrir suas constituições
primarias, nós as encontraremos compostas por dados sensoriais derivados de
visão e de memória de toque e movimento. Uma esfera, por exemplo, aparece para
o olho como um disco plano achatado -; é o toque que nos informa das
propriedades de espaço e forma, qualquer tentativa por parte do artista em eliminar
este conhecimento é fútil porque sem isso ele não perceberia o mundo da forma
como é. Essa tarefa é ao contrário para compensar a ausência de movimento no seu
trabalho clarificando sua imagem e, portanto, convergindo não somente sensações
visuais mas também essas memórias de tato que nos permite reconstituir a forma
tridimensional em nossas mentes. (idem, p.79-82).
Também é postulado teórico de McLuhan que as mídias, independentemente de quais
mensagens estejam sendo vinculadas, implicam mudanças nos estados mentais dos
indivíduos e nas organizações sociais. Um outro postulado importante de McLuhan é que as
mídias, bem como qualquer tecnologia é uma invenção humana que visa estender o organismo
biológico humano. Assim o dinheiro é uma tecnologia que permite 'guardar o trabalho para
uso futuro', a mídia impressa armazena informação impossível de guardar no cérebro, e o
automóvel substitui as pernas e pés humanos no transporte de seu corpo em maiores
distâncias, em menor tempo e com mais conforto.
216
217
5.4.3 – GENERALIZAÇÕES E CONCEITOS DA NATUREZA DA RELAÇÃO ENTRE
HUMANOS E MÍDIA DIGITAL
O terceiro quadro diz respeito à relação entre a pessoa e a mídia digital
. Tabela 5: Quadro de Generalizações e Conceitos: Natureza da Relação entre Humano e Mídia Digital.
ÁREA GENERALIZAÇÕES CONCEITOS-CHAVE
NATUREZA E
ARTIFÍCIOS DO
MUNDO-
IMAGEM
>Tecnologias e formas de midiatização de imagens criaram
um mundo-imagem.
> o espectador 'evoluiu' além dos parâmetros do ver para
interagir com mundo-imagem real.
> As imagens digitais são afetadas por processos de
compressão e apresentação.
> Nossa relação com mundo-imagem não é neutra.
Mundo-imagens
Imersão no mundo imagem
Conteúdo digital e
compressão
Transformação de imagens
analógicas
ECOLOGIA DAS
IMAGENS
> imagens tornaram-se veículos não somente para a
comunicação de significados mas para a criação de
ambientes.
> não existe 'algo' como uma imagem divorciada de mídias
ou contextos sociais de uso e aplicação.
> A distinção entre o que é natural ou não é natural
desapareceu.
> O campo visual é tão psicológico quanto é 'real' e externo
– não há fronteira visíveis.
Cyberspace
Midiatização virtual
Cultura popular e Ciber-
imaginação
Simulação
Etnografia do virtual
ESTÉTICA DA
INTERAÇÃO
HUMANA E NÃO
HUMANA
> Visualização ou escuta interagem simultaneamente com
processos conscientes e inconscientes.
> 'Inteligência' processada no mundo-imagem torna mais
complexa fronteira entre humanos e imagens.
> Consciência e a conexão entre percepção, concepção são
tão dependentes de imagens quanto da memória, da
linguagem e da interação eletroquímica do cérebro.
> Mediação não é oposição entre o real e virtual. Virtual e o
Real estão dinamicamente interconectados na linguagem
humana.
Hibridização
Imersão
Fantasia
Interação
Devaneios
Jogos de computador
Midiatização
observamos que a interface com a qual o indivíduo se relaciona é composta por
uma imagem e que essa imagem, adicionada de poder do software adquire uma capacidade
nova, torna-se o que chamamos de objeto-pensante. De fato, uma grande quantidade de
inteligência pode ser programada nas interfaces de computador de forma que a relação do
homem com ela se modifica drasticamente.
Na obra How Images Think (2005), Ron Burnett nos apresenta sua visão do
significado das imagens onipresentes em nossas vidas e como essas imagens transcendem
tanto a imagem pictórica quanto a imagem cinematográfica: “Imagens combinam todas as
formas de mídia e são sínteses de linguagem, e visualização. Imagens não são expressões
isoladas dentre muitas, e não são certamente somente objetos ou signos.”
64
(BURNETT,
2005,p.2)
As diversas formas de midiatização de imagens criaram um mundo-imagem com o
qual desenvolvemos uma profunda ligação e até mesmo dependência. Todas as formas são
dependentes de tecnologias e em conjunto formam um cenário-imagem complexo e muitas
vezes incompreensível.
Uma das questões que me preocupa, nos diz Burnett (ibidem, p.42), é o
conhecimento que todos os espectadores precisam ter para entender e experimentar o vasto e
complexo panorama-imagem, em que se encontram diariamente. Isso pode ser visto como
uma questão transparente, mas eu considero crucial tanto quanto uma preocupação cultural
complexa que precisa ser explorada. A razão para isso é que o espectador deixou de ser
espectador na definição tradicional utilizada para o termo. Em algum grau, o espectador
'evoluiu' além dos parâmetros do ver no sentido de distância e separação, “as imagens ali”
para viver dentro dos confinamentos de um mundo onde imagens no sentido mais amplo
interagem com o real todo o tempo.” Nesse sentido as imagens deixam de ser algo virtual, um
meio para representação e passam fazer parte da realidade na qual estamos inseridos.
Continua Burnett, “Estar dentro das imagens não é estar sufocado por elas; ao contrário,
imagens são vistas da brilhante imaginação humana, e talvez isso seja o motivo pelo qual
‘imagens’ são simultaneamente amadas, desejadas, e temidas. Imersão no mundo-imagem é
simplesmente parte do que significa ser humano [...]”.
Ocorre que Burnett faz parte do grupo de cientistas que acredita que para viver nesse
mundo-imagem, e principalmente para produzir imagens, é fundamental não se tome como
neutra nossa relação com as imagens, que suas presenças não as tornem naturais, após todos
esses anos de convivência e evolução nas formas de apresentação.
Fotografia era uma mídia bem desenvolvida no final do século XIX. Mas
imagens em movimento não eram, e os efeitos combinados da rápida
industrialização no Ocidente e a crescente importância de uma variedade de
64 As citações de Ron Burnett são apresentadas neste estudo a partir de traduções livres, feitas pelo autor desta
pesquisa.
218
219
tecnologias significaram que imagens cinematográficas tornaram-se parte do
imaginário popular antes que houvesse qualquer entendimento do porque elas eram
tão atrativas em primeiro lugar. [...] Os mesmos problemas se repetiram com a
televisão e outras mídias, e, mais importante no presente, com o movimento rápido
para formas digitais de produção e criação. [...] À medida que mais e mais formas
de produção de imagens chegaram na cena cultural e à medida em que as imagens
tornaram-se veículos não somente para a comunicação de significados mas para a
criação de ambientes, o problema do desenvolvimento de discursos críticos para
entender esses fenômenos aumentaram. Isso levanta dúvidas sobre a
movimentação de imagens de seus locais convencionais para o bem mais
complexo ambiente do computador. (BURNETT, idem, p.44-45).
Como dissemos antes, nos computadores trafegam somente informações binárias
que são convertidas por softwares em signos representativos das palavras, sons e imagens, e
apresentadas em tela analógica como 'imagem', fisicamente embutida em dispositivo de
hardware de modo similar à televisão e, nesse novo contexto de comunicação, o significado
do termo 'imagem' terá que ser repensado para significar melhor a Gestalt valor maior que a
soma da interface gráfica, dos conteúdos, dos programas, da tela e do próprio computador
que as mídias digitais são capazes de representar. A perspectiva de Burnett é de que as
imagens não são objetos que se apresentam no ambiente mas fazem parte do próprio
ambiente. Ou seja:
Televisão, rádio e Internet estão sempre presentes. A mídia não desaparece quando
espectadores desligam as chaves elétricas, da mesma forma que a eletricidade não
desaparece quando não está sendo utilizada. Essa presença contínua é parte de um
novo ambiente natural e que está sendo construído através da genialidade e
inventividade humana. Não o mundos simulados. A distinção entre o que é
natural e o que não é natural felizmente desapareceu. [...] Dentro desse mundo as
imagens dispersam seus conteúdos através de telas fisicamente instaladas em
qualquer número de tecnologias ou instituições midiáticas. Com outras palavras,
não existe 'algo' como uma imagem divorciada de uma variedade de mídias ou
contextos sociais de uso e aplicação. [...] imagens são cada vez mais instrumentos
inteligentes que podem ser utilizados para variados propósitos de modo que uma
mudança titânica é necessária no discurso que é utilizado para examiná-las. Por
extensão, o significado do termo 'imagem' tem que ser cuidadosamente repensado.
Em outras palavras, não é possível ou desejável falar de construção social de
significado e mensagem sem referenciar imagens como sítios de comunicação,
desinformação
65
, mediação e inteligência. (idem, p.5-8).
Segundo este autor também não é possível separar a imagem do ato de pensar sobre
ela, perspectiva absolutamente fiel às novas descobertas no campo da neurociência cognitiva:
[...] é crucial entender que imagens são tanto mental como físicas, dentro do corpo
e mente, e fora do corpo e mente. Ver imagens é também ver-se com imagens. O
65 O autor utilizou o termo da língua inglesa miscommunication.
campo visual é tão psicológico quanto é 'real' e externo para quem vê. De um
ponto de vista conectivo não é simplesmente possível separar o que está sendo
visto do que está sendo pensado, e a questão é , porque esse tipo de separação seria
sugerida ou mesmo pensada como necessária [...] Não há uma seqüência particular
para a atividade de visualizar. Para ser capaz de ver e entender imagens significa
que sujeitos humanos se envolveram no processo. [...] a competência para ver
imagens não pode ser reduzida a simplicidade de modelos de entrada/saída. (idem,
p.33).
observamos em capítulos anteriores que imagens mexem com nosso inconsciente.
“A maioria dos momentos de visualização ou escuta interagem simultaneamente com
devaneios e processos de pensamento. [...] processos conscientes e inconscientes interagem
não fronteira visíveis, somente um contínuo circular de pontos de entrada e saída
grandemente definido pela 'necessidade' pelas imagens e o prazer e a dor que as imagens
trazem.” (BURNETT, idem, p.48)
Ron Burnett chamou essa nova condição de imagem com software embutido de
imagem-pensante, não no sentido de que elas pensam, mas no sentido de que seu uso provoca
uma hibridização entre pessoas e as mídias digitais:
À medida que mais 'inteligência' é processada no mundo-imagem, a questão da
fronteira entre humanos e imagens torna-se ainda mais complexa. Ao mesmo
tempo, mundos digitais dizem respeito à integração das imagens dentro de cada
aspecto da atividade humana, e portanto justificam a importância de se
compreender como imagens pensam. (idem, p.38).
É fato que desde os primórdios da civilização as imagens têm sido empregadas na
comunicação humana e que imagens juntamente com linguagem verbal são reconhecidamente
importantes na ativação de processos cognitivos humanos, a ponto de Ron Burnett sugerir
que:
Imagens são tão importantes quanto linguagens na formação e ativação de
processos biológicos. Quero dizer que a consciência e a conexão entre percepção,
concepção e a interação eletroquímica do cérebro são tão dependentes de imagens
quanto da memória e da linguagem. A isso deve ser adicionada não somente a
habilidade para perceber o mundo mas também a habilidade para construir
imagens internas na mente [...]. (idem, p.51).
E essa capacidade de perceber o mundo, essa relação com o ambiente é fundamental
no processo evolutivo humano. Nesse sentido ganha maior importância o alerta que nos
Burnett quanto ao papel do mundo-imagem na formação de identidades. “A integração de
220
221
imagens-mundo dentro da fábrica de identidade humana tem implicações que vão muito além
das próprias imagens. Estou fazendo aqui uma afirmação ontológica que conecta tecnologia e
produção de artefatos, dentro da tecnosfera do corpo humano de uma maneira bem mais
holística do que de costume”
As imagens geradas através de algoritmos e códigos nos espaços virtuais dos
computadores podem ser programadas de tal forma que as imagens se transformam em
imagens-pensantes e dessa forma provocam uma hibridização na relação das pessoas com a
mídia digital. Por outras palavras, as mídias digitais deixam de constituir-se simplesmente em
interfaces para midiatização de conteúdos comunicacionais entre emissor e receptor.
Fragmentos dos processos de pensamento, anteriormente presentes somente na mente
humana, são transferidos para as máquinas através do software e, dessa forma, imagens-
pensantes assumem o papel de agentes ativos capazes de interagir e responder a humanos bem
como mediar conversações. Nas palavras de Burnett:
Relações de significados e comunicação dirigem o processo de interação nos
mundos-imagem. A relação entre sujeitos e objetos não podem ser previsíveis por
suas características individuais. sempre um processo de hibridização em
andamento que formata como o significado circula através do uso e abuso da
relação sujeito/objeto. Mas, em graus variados, hibridização produz um resultado
que é maior que as partes. Inteligência move-se envolta e amplia o processo de
pensamento acima das fronteiras da imagem ou do sujeito. [...] o que é descrito
como realidade virtual [...] é evidência do poder desse espaço híbrido de
inteligência, troca, e comunicação. (idem, p.55)
Por último a questão da realidade virtual. Trata-se do processo que estamos
vivendo e está relacionado com a movimentação cultural do real para o virtual. Nos explica
Burnett (idem, p.72) que “imagens são virtuais porque estão distantes do espectador ou
usuários mas são sentidas como se a distância pudesse, e em algumas instancias, devesse ser
superada.”. Ou seja, é uma constante luta entre o desejo de possuir imagens como se fossem
reais e o conhecimento de que somente podem ser sentidas à distância.
De modo algum as tecnologias de realidade virtual, mesmo na modalidade imersiva,
iludem o usuário; não fazem o real ganhar vida. O que fazem é “criar uma consciência dos
muitos planos dos quais a percepção do real depende.” (idem, p.73).
Um aspecto importante da realidade virtual é o modo com essa tecnologia pode
midiatizar o real e o virtual. Burnett nos traz um bom exemplo:
Por isso o conceito de mediação é tão importante. Em nenhum caso é a oposição
entre o real e o virtual. Posto de forma simples, o virtual e o real são fenômenos
dinamicamente interconectados que se cruzam na linguagem que os humanos usam
tanto quanto nas atividades que perseguem. Emprestando de Bruno Lutour, existe
uma série de práticas humanas que fazem o virtual real e o real virtual. Essas
práticas (como esquiar em um ambiente de realidade virtual) são o
profundamente mediadas que o desafio se torna separar muitos dos elementos que
tornam essas experiências possíveis em primeiro lugar. (idem, ibidem)
A profunda modificação na relação do sujeito/objeto no processo comunicacional,
provocada pela característica tecnológica e recursos programáveis da mídia digital, acarreta
um acréscimo significativo de contextos em que a interação terá que se realizar. Nesse
ambiente tecnológico em que vivemos é impossível analisar os processos de comunicação
social somente com base nos preceitos da Interação Simbólica. Não se trata de recusar a
utilização das teorias proposta por Littlejohn na análise de processos comunicacionais
relacionados com os Mass Media, mas de acrescentar novo referencial teórico quando a
comunicação se dá entre máquinas e mentes biológicas e máquinas e mentes digitais.
Assim, a partir do resultado das pesquisas descritas nesta tese projetamos um novo
Modelo Transdisciplinar para Comunicação com Mídias Digitais com novas áreas,
generalizações e conceitos chaves. Não de nossa parte qualquer pretensão de esgotar aqui
este assunto, mas somente de trazer algumas contribuições no sentido de direcionar para
leitura nas próprias obras analisadas as teorias que podem explicar a Natureza Humana, a
Natureza das Mídias e a Natureza da relação de humanos com mídia digital.
222
223
CONCLUSÃO
Iniciamos esta tese com o objetivo de ampliar um Modelo Teórico Transdisciplinar
para Comunicação Humana proposto por Stephen Littlejohn, ou seja, e incluir teorias
específicas para explicar a relação de pessoas com mídias digitais.
Esse objetivo foi definido a partir de nossa constatação de que é sempre necessário
construir um quadro referencial teórico para organizar uma base de conhecimento para nortear
futuras pesquisas no campo da Comunicação Social.
Ao tomarmos conhecimento do modelo elaborado por Stephen Littlejohn em sua
obra Fundamentos Teóricos da Comunicação Humana, e ao perceber que este não
contemplava as novas mídias, decidimos adotá-lo como base e, a partir do que Littlejohn
havia definido, estender esse mesmo modelo teórico de modo a contemplar a comunicação
com mídias digitais. Tratava-se de um modelo que apresentava uma lista de generalizações, e
para cada generalização um conceito chave. Essas generalizações foram agrupadas no que
Littlejohn chamou de três áreas: Orientações gerais; processos básicos; e contextos de
comunicação.
Na área de orientações gerais Littlejohn concentrou macro-teorias, que a seu
julgamento, poderiam descrever todos os tipos de processos comunicacionais. Utilizou-se para
isso da Teoria Geral de Sistemas, Teoria da Informação, Teoria da Cibernética e um conjunto
de macro-teorias relacionadas à abordagem do Interacionismo Simbólico.
Na área dos processos básicos arrolou 5 generalizações observadas em outra
pesquisas, que as identificou como questões tratadas por praticamente todas as escolas de
comunicação. Cada uma das generalizações possui um conceito-chave. Esses conceitos são:
codificação, significado, processos de pensamento, informação, persuasão e mudança.
A terceira área define os contextos nos quais a comunicação pode dar-se e esses
contextos foram definidos como interpessoal, pequeno grupo, organizacional e massa.
A partir desses pressupostos iniciais Littlejohn pôs-se a pesquisar teorias que
trouxessem definições e explicações para cada um dos conceitos-chave e fossem coerentes
com as generalizações e com a linha filosófica do corpo teórico por ele proposto com base nas
macro-teorias de orientações gerais.
De modo a facilitar nossa análise, desenvolvemos um modelo hipotético de
Laboratório Virtual de Ciência LVC para, a partir dele, configurar as condições em que a
relação entre pessoas e máquinas muito possivelmente se dariam.
Ao iniciar o trabalho de análise para adequar as teorias que propunha Littlejohn em
nosso modelo LVC, descobrimos que a quase totalidade das teorias por ele arroladas foram
criadas por membros da escola Funcionalista de Comunicação e escolas Funcionalista e
Behaviorista da Psicologia. Como a maioria dessas escolas teve a maior parte de seu trabalho
feito durante o século XX, numa época em que a segunda Onda – industrialização – estava em
evidência e o paradigma científico ainda era o da energia a vapor, a maioria das definições de
Littlejohn não contemplavam uma definição mais atual da relação entre homens e máquinas.
A Comunicação Social tem se apropriado de teorias de diversos campos do
conhecimento, em especial da filosofia, história, sociologia, antropologia, lingüística e a
psicologia, para explicar fenômenos comunicacionais. Algumas correntes dessas ciências têm
tomado por base os paradigmas filosóficos de Descartes, Rousseau e Locke, cujas doutrinas
são denominadas respectivamente de O Fantasma da Máquina, O Bom Selvagem e A Tábula
Rasa. Essas doutrinas permeiam os posicionamentos ideológicos da quase totalidade de
pressupostos utilizados pelas outras ciências para formular as suas próprias teorias e, portanto,
suas suposições, hipótese, fatos e leis ficam 'condicionadas' a essas doutrinas.
Outra questão relevante está no campo da epistemologia científica, numa luta eterna
entre o uso de métodos empíricos ou da razão nas pesquisas.
Por último, mas talvez um dos aspectos mais importantes, é que as teorias são
criadas à luz do zeitgeist do espírito do tempo que forma o conjunto de crenças e
paradigmas científicos nos quais se apóiam os pesquisadores.
Ocorre que as doutrinas implícitas nas teorias destas escolas estão sendo
questionadas pela Neurociência Cognitiva, Inteligência Artificial, Biologia Genética e
Psicologia Evolucionista quanto à visão da natureza humana e de sua relação com o
ambiente. Por outro lado, as novas mídias digitais, com recursos de hipermídia e de
programação embutidas, estendem a natureza tradicional das mídias convencionais, para
verdadeiros objetos-pensantes. Essa característica de objeto-pensante cria um novo tipo de
relação híbrida entre o homem e mídia digital e para compreendê-la são necessárias teorias
que expliquem a natureza das mídias em geral e da mídia digital em particular.
Ao constatar as dificuldades em aproveitar o modelo proposto por Littlejohn
ampliamos o escopo desta pesquisa e criamos um novo Modelo Transdisciplinar para
Comunicação com Mídias Digitais, com novas áreas, generalizações e conceitos-chave
224
225
relativos à natureza humana, das mídias digitais e da relação homem-mídia digital.
Para a conceituação da natureza humana utilizamos o paradigma evolucionista
iniciado por Darwin, e teorias da biologia, neurociência e psicologia. Para a definição da
natureza das mídias utilizamos as Leis da Mídia de Marchall e Eric McLuhan. Para definir a
relação entre pessoas e mídias digitais utilizamos os pressupostos apresentados por Ron
Burnett em sua obra How Images Think.
Não temos a pretensão de ter esgotado esse tema e acreditamos que, com base nesse
novo modelo, outras pesquisas podem ser feitas para explicar e tentar falsear o que está sendo
apresentado e definido.
Por outro lado, os resultados desta pesquisa nos leva a concluir que as mídias digitais
dispõem de interfaces performáticas imagens-pensantes que permitem mais que a simples
representação estética de conteúdos. Neste contexto, as teorias transdisciplinares que
complementaram o modelo teórico original elaborado por Littlejohn são fundamentais para
estudos na área da comunicação social voltados à compreensão dos complexos processos
comunicacionais que envolvem o relacionamento entre seres humanos e mídias digitais com
propósito de aprendizagem.
Por fim, concluímos que o desenvolvimento do LVC Laboratório Virtual de
Ciências, com software representativo de processos comunicacionais voltados ao aprendizado
de ciências, foi fundamental para que pudéssemos analisar o relacionamento entre seres
humanos e mídias digitais e, assim, incluir novos conceitos e generalizações, provenientes de
outros ramos da ciência com diferentes visões, transdisciplinares, de mundo e estender o
modelo teórico original de Littlejohn.
REFERÊNCIAS
ALVES FILHO, José de Pinho. Interdisciplinaridade e o Ensino de Física. Tese de doutorado.
Universidade Federal de Santa Catarina. 2000.
AIMARD, Paule. O Surgimento da Linguagem na Criança. Porto Alegre: Artmed, 1998.
ARNHEIM, Rudolf. Arte e percepção visual. São Paulo: Pioneira Thomson Learning,2005.
AUMONT, Jaques. A Estética do Filme. Campinas, SP: Papirus, 1995.
BAKHTIN, Mikhail. Marxismo e Filosofia da Linguagem. São Paulo: Editora Hucitec, 2006.
BARTHES, Roland. A aventura semiológica. São Paulo: Martins Fontes, 2001.
BERLO, David. O Processo da Comunicação:Introdução à Teoria e à Prática. São Paulo,
Editora Martins Fontes, 2003.
BREITMAN, Karin Koogan. Web semântica: a Internet do futuro. Rio de Janeiro: LTC,2005.
BRIGGS, Asa. Uma História Social da Mídia: do Gutenberg à Internet. Rio de Janeiro: Jorge
Zahar Ed., 2004.
BUNCH, Bryan H. The Timetables of Technology: A Chronology of the Most Important
People and Events in the History of Technology. New York: Touchstone, 1994.
BURNET, Ron. How images think. Massachusetts:The Mit Press, 2005.
CAPRA, Fritjof. A teia da Vida: uma compreensão científica dos sistemas vivos. São Paulo:
Cultrix, 1996.
CARRIÈRE Jean Claude. A Linguagem Secreta do Cinema. Rio de Janeiro: Nova Fronteira,
2006.
CASTELLS, Manuel. A Sociedade em Rede - A era da informação: economia, sociedade e
cultura ; v.1. 3. ed. São Paulo: Paz e Terra, 1999.
CASTELLS, Manuel. A Galáxia da Internet: reflexões sobre a Internet, os negócios e a
sociedade. Rio de Janeiro: Jorge Zahar Ed., 2003.
CEBRIÁN, Juan Luis. A Rede: como nossas vidas serão transformadas pelos novos meios de
comunicação. Trad. Lauro Machado Coelho. V. 59. São Paulo: Summus, 1999.
CHASSOT, Atico. A ciência através dos tempos. 2. ed. São Paulo: Moderna, 2004.
CHAUI, Marilena. Convite à Filosofia. São Paulo: Editora Ática S.A.,1995.
COSCARRELI, Carla Viana (org.). Novas tecnologias, novos textos, novas formas de pensar.
Belo Horizonte: Autêntica, 2002.
CORNU, Lucienne. Neurocomunicação: para compreender os mecanismos da comunicação e
aumentar as competências. Caxias do Sul, RS:Educs, 2004.
CROMER, Alan. Senso Incomum: A Natureza Herética da Ciência. São Paulo: Faculdade da
Cidade Editora, 1997.
DARWIN, Charles. A Origem das Espécies por Meio da Seleção Natural Tomo III. São
Paulo: Editora Escala, s/d.
226
227
DARWIN, Charles. A Origem das Espécies por Meio da Seleção Natural Tomo II. São
Paulo: Editora Escala, s/d.
DARWIN, Charles. A Origem das Espécies por Meio da Seleção Natural Tomo I. São
Paulo: Editora Escala, s/d.
DAVIDOFF, Linda L. Introdução à Psicologia. São Paulo: McGraw-Hill do Brasil,1983.
DELEUZE, Gilles. A Imagem-tempo. São Paulo:Brasiliense,2005.
DEFLEUR, Melvin. BALL-ROKEACH, Sandra. Teorias da Comunicação de Massa. Jorge
Zahar Editor. Rio de Janeiro, 1993.
DERTOUZOS, Michael. A Revolução Inacabada. São Paulo. Editora Futura, 2002.
DESCARTES, René. Discurso do Método. São Paulo: Editora Escala, s/d.
DESCARTES, René. As Paixões da Alma. São Paulo: Editora Escala, s/d.
DEWEY, J. How we think (rev. ed.). Boston: D.C. Heath. 1933.
DEWEY, J. Como Pensamos: como se relaciona o pensamento reflexivo com o processo
educativo: uma reexposição. São Paulo, Companhia Editora Nacional, 3 ed. 1959.
DEWEY, J. My pedagogic creed. In J. Dewey, Dewey on education (pp. 19-32). New York:
Teachers College, Columbia University. 1959. (Original work published 1897).
DIAMOND, Jared. Armas, Germes e Aço. Rio de Janeiro: Record, 2002.
DIVERIO, Tiarajú A. MENEZES, Paulo B. Teoria da Computação: Máquinas Universais e
Computabilidade.Porto Alegre: Bookman: Instituto de Informática da UFRGS, 2008.
DIZARD, Wilson JR. A Nova Mídia. Jorge Zahar Editor, Rio de Janeiro, 2000.
DIJK, Teun Adrianus van. Cognição, discurso e interação. 4 . ed. São Paulo: Contexto, 2002.
DONIS, A. Dondis. Sintaxe da Linguagem Visual. São Paulo: Martins Fontes, 2003.
DUARTE, Jorge. BARROS, Antônio. Métodos e técnicas de pesquisa e comunicação. São
Paulo: Atlas, 2005.
EPSTEIN, Isaac. Divulgação Científica - 96 VERBETES. São Paulo. Editora: Pontes. 2002.
EPSTEIN, Isaac. O Signo. São Paulo. Editora: Atica. 1997.
EPSTEIN, Isaac. Teoria da Informação. São Paulo. Editora: Atica. 1988.
FERRARI, Pollyana. Jornalismo Digital. . 3a. ed. São Paulo: Contexto, 2006.
FOUCAUT, Michel. As Palavras e as Coisas. Sào paulo: Martins Fontes, 2002.
FRIEDMAN, Thomas. O mundo é Plano. Rio de Janeiro: Objetiva, 2005.
GARDNER, Howard. A Nova Ciência da Mente: Uma história da Revolução Cognitiva. São
Paulo: Editora da Universidade de São Paulo, 2003.
GIOVANNINI, Giovanni (et.al) Evolução na comunicação: do silex ao silício. Trad. Wilma
Freitas Ronald de Carvalho; Rio de Janeiro. Nova Fronteira, 1987.
GIL, Antonio Carlos. Métodos e técnicas de pesquisa social. 5
a
ed. São Paulo: Atlas, 1999.
HUME, David. Investigação sobre o Entendimento Humano. São Paulo: Editora Escala, s/d.
JAKOBSON, Roman. Lingüística e comunicação. São Paulo: Cutrix, 2003.
JOURDAIN, Robert. Música, cérebro e êxtase: como a música captura nossa imaginação.
Rio de Janeiro: Objetiva, 1998.
KOBUSCH, Theo. GUTAS, Dimitre (org). Filósofos da Idade Média. São Leopoldo: Editora
Unisinos, 2003.
LÉVY. Pierre. Cibercultura. Trad. Carlos Irineu da Costa. São Paulo: Ed. 34 Ltda, 1999.
(Coleção TRANS).
LÉVY, Pierre. O que é virtual. Trad. Paulo Neves. São Paulo: Editora 34 Ltda, 1996.
LÉVY, Pierre. As tecnologias da inteligência - O futuro do pensamento na era da informática.
São Paulo: Editora 34, 1993.
LIMA, Lauro de Oliveira. Mutações em educação segundo McLuhan. Petrópolis, RJ: Vozes,
1973.
LITTLEJOHN, Stephen W. Fundamentos Teóricos da Comunicação. Trad. Álvaro Cabral.
Rios de Janeiro: Zahar Editores. 1982.
LUGER, George F. Inteligência artificial: estruturas e estratégias para a solução de problemas
complexos. Porto Alegre: Bookmann, 2004.
PELLANDA, Nize Maria Campos e Eduardo Campos. (org.). Ciberespaço: um hipertexto
com Pierre Lévy. Porto Alegre: Artes e Ofícios, 2000.
MARQUES DE MELO, José (org.). Pedagogia da Comunicação: Matrizes Brasileiras: São
Paulo, Angellara, 2006.
MARQUES DE MELO, José (org.). Midiologia para Iniciantes: Uma viagem Coloquial ao
Planeta Mídia. Caixias do Sul. Ed. UCS, 2005.
MARQUES DE MELO, José (org.). A Esfinge Midiática. Editora Paulus, 2004.
MARQUES DE MELO, José (org.). História do Pensamento Comunicacional. Editora Paulus.
2003.
MARQUES DE MELO, José (org.). Comunicação: Direito à Informação. Campinas: Editora
Papirus, 1986.
MARQUES DE MELO, José (org.). Para uma Leitura Crítica da Comunicação. São Paulo:
Edições Paulinas, 1985.
MARQUES DE MELO, José (org.). Comunicação Social: Teoria e Pesquisa. Petrópolis:
Editora Vozes. 6a ed. 1978.
MARX, Karl. ENGELS, Friederich. O manifesto Comunista (1848). Ed. Ridendo Castigat
Mores. EbooksBrasil.com. RocketEdition, 1999. Disponível em:
www.ebooksbrasil.org/adobeebook/ manifestocomunista.pdf Acesso em: 02 set. 2006.
MATTELART, Armand. Historia das Teorias da Comunicação. São Paulo: Edições Loyola,
1999.
MATURANA, Humberto R. Varela, Francisco J. A Árvore do Conhecimento: as bases
biológicas da compreensão humana. São Paulo: Palas Athena, 2001.
MCLUHAN, Marshall. MCLUHAN, Eric. Laws of Media: The New Science. Toronto:
University of Toronto Press, 1999.
228
229
MCLUHAN, Marshall. Os Meios de Comunicação como extensões do homem. São Paulo.
Editora Cultrix Ltda, 1964.
MCLUHAN, Marshall. A Galáxia de Gutenberg. Tradução de Leônidas Gontijo de Carvalho e
Anísio Teixeira. São Paulo: Editora Nacional, 1962.
MORIN, Edgar. Cultura de Massas no Século XX. O Espírito do Tempo 2 - Necrose. Rio de
Janeiro: Forense Universitária, 2006.
MEYER, Philippe. O Olho e o Cérebro: biofilosofia da percepção visual. São Paulo: Editora
UNESP, 2002.
MORAN, José Manuel. Leituras dos meios de comunicação. São Paulo, Ed. Pancast, 1993.
MORRIS, Desmond. O Macaco Nu: um estudo do animal humano. Rio de Janeiro: Record,
2006
NAISBITT, John. High Tech High Touch: a tecnologia e a nossa busca por significado. São
Paulo. Editora Cultrix, 1999.
NEGROPONTE,Nicholas. A Vida Digital. São Paulo. Companhia das Letras, 1995.
NIELSEN, Jakob. Projetando Websites. Rio de Janeiro: Elsevier, 2000.
PESSIS-PASTERNAK, Guitta. Do Caos à inteligência artificial: quando os cientistas se
interrogam. São Paulo: Editora da Universidade Estadual Paulista, 1993.
PENROSE, Roger. O Grande, o Pequeno e a Mente Humana. São Paulo: Fundação Editora da
UNESP, 1998.
PERUZZO Cicilia M. Krohling. Manual de Metodologia para Elaboração de Relatório de
Qualificação, Dissertação de Mestrado e Tese de Doutorado. Mimeo. Universidade Metodista
de São Paulo. Faculdade de Comunicação Multimídia. Programa de Pós-Graduação em
Comunicação Social (Póscom). São Bernardo do Campo, 2005.
PINKER, Steven. Tábula Rasa: a negação contemporânea da natureza humana. São Paulo:
Companhia das Letras, 2004.
POSNER, Michael I. RAICHLE, E. Marcus. Images Of Mind. Porto: Porto Editora, LDA,
2001.
POPPER, Karl R. A Lógica da Pesquisa Cientifica. 18 . Ed. São Paulo: Cultrix, 1972.
SANTAELLA, Lucia. N TH, Winfried. Imagem: Cognição, semiótica, dia. São Paulo:
Editora Iluminuras Ltda, 1997.
SANTOS, Boaventura de Souza. Um Discurso Sobre as Ciências. 11 ed. Porto: Edições
Afrontamento, 1999.
SAUSSURE, Ferdinand de. Curso de lingüística geral. São Paulo: Cutrix, 2006.
SAUSSURE, Ferdinand de. Escritos de Lingüística Geral. São Paulo: Cultrix, 2004.
SCHACTER, Daniel L. Os Sete Pecados da memória: como a mente esquece e lembra. Rio de
Janeiro: Rocco, 2003.
SEARLE, John R. O Mistério da Consciência. São Paulo: Paz e Terra, 1998.
SCHULTZ, Duane P. História da Psicologia Moderna. São Paulo: Thomson Learning Edições,
2006.
SIEGFRIED, Tom. O Bit e o Pêndulo. Rio de Janeiro. Editora Campus, 2000.
SILVA, Luciano Augusto da. Simulacron: professional game & level design. Curitiba: Free
Editora, 2004.
SILVERSTONE, Roger. Por que Estudar a Mídia? São Paulo, Edições Loyola,2002.
SIMONS, G. L. Introdução à Inteligência Artificial. Portugal, Lisboa: Clássica Editora. 1986.
SQUIRRA. S. Jorn@lismo online. São Paulo. Editora Arte e Ciência. CJE/ECA/USP. 1998.
SQUIRRA. S. O Século Dourado : a comunicação eletrônica nos EUA. São Paulo. Summus,
1995.
SQUIRRA. S. A tecnologia, a sociedade do conhecimento e os comunicadores. Disponível em
www.metodista.br/ev/x-congresso-metodista/programacao/pos-graduacao-em-comunicacao.
Acesso em 02 out. 2008.
STRAUBHAAR, Joseph D. Comunicação, Mídia e Tecnologia. São Paulo: Pioneira Thomson
Learning, 2004.
SCHULTZ , Duane P. SCHULTZ, Sydney Ellen. História da Psicologia Moderna. São Paulo:
Thompson Learning Edições, 2006.
TAURION. Cezar. Software Livre - Potencialidades e Modelos de Negócios. Rio de Janeiro:
Brasport, 2004.
TAURION. Cezar. Software Embarcado - A nova onda da Informática. Rio de Janeiro:
Brasport, 2005.
TOFFLER Alvin. A Terceira Onda: A morte do industrialismo e o nascimento de uma nova
civilização. Rio de Janeiro. Record, 2001.
TRIVIÑOS, Augusto Nibaldo Silva. Introdução à Pesquisa em Ciências Sociais: a pesquisa
qualitativa em educação. São Paulo: Atlas, 1987.
TARNAS, Richard. A Epopeia do Pensamento Ocidental: Para compreender as idéias que
moldaram nosso mundo. Rio de Janeiro: Bertrand Brasil, 2006.
ZABALA, Antoni. Enfoque Globalizador e Pensamento Complexo: uma proposta para o
currículo escolar. Trad. Ernani Rosa. Porto Alegre: ARTMED Editora, 2002.
230
231
APÊNDICE A
ESTRUTURA DE APRESENTAÇÃO DA OBRA FUNDAMENTOS DA
COMUNICAÇÃO HUMANA.
Parte I: INTRODUÇÃO (p.15).
1. A natureza da Teoria da Comunicação
Parte II: ORIENTAÇÕES GERAIS (p.39).
2. Teoria dos Sistemas Gerais Cibernética
3. Interacionismo Simbólico
3.1.Fundamentos: George Herbert Mead;
3.2.Herbert Blumer e a Escola de Chicago;
3.3.Manford Huhn e a Escola de Iowa;
3.4.O Dramatismo de Kenneth Burke;
3.5.Hugh Duncan e Ordem Social;
Generalizações (p.85):
A primeira tese deste capítulo apresentada por Littlejohn é que a comunicação se
constitui num processo de interação simbólica. Há seis proposições teóricas básicas do
interacionismo simbólico:
1) Mente, eu e sociedade são processos de interação pessoal e interpessoal. (Mead).
2) A linguagem é o mecanismo primário que leva à mente e ao eu do indivíduo. Através
da linguagem nós somos humanos. (Mead, Kuhn,Duncan).
3)A mente é a internalização de processos sociais no individuo (Mead e Blumer).
4) Os comportamentos são construídos pelas pessoas (Burke e Duncan).
5) O comportamento de uma pessoa é influenciado por sua definição da situação (Mead e
Blumer).
6) O eu consiste em definições tanto sociais como únicas. (Mead).
Parte III: PROCESSOS BÁSICOS DA COMUNICAÇÃO (P.87)
4. Teoria dos Signos: codificação Verbal e Não-verbal. (p.89)
4.1.Introdução aos signos;
4.2.Teoria de codificação verbal;
4.3.Teorias de signos não-verbais;
4.4.Codificação e comunicação;
Generalizações (p.115).
Exame de uma importante formulação de Michael Nolan. Nolan apresentou um
modelo tridimensional. A primeira dimensão é o canal Os canais são agrupados em
categorias chamadas mídia. Assim, em comunicação, vários sinais são transmitidos por
canais, como voz, face, corpo e objetos. A segunda dimensão, codificação é o processo de
relacionar referentes e signos. A terceira dimensão no modelo é a proposicionalidade. Num
extremo estão as mensagens verbais e não-verbais. No outro extremo estão aqueles
comportamentos que fornecem informação.
1 Sobre Interação simbólica. É um processo de enviar e receber mensagens codificadas.
2 Sobre a Natureza dos Signos. Em resumo: Os signos têm, por natureza, três espécies de
relações. Relacionam-se com objetos. Relacionam-se com o comportamento e relacionam-se
com outros signos. (Morris).
3 Sobre Signos Verbais (Língua). A ngua é uma seqüência estruturada de sons da fala. Em
segundo lugar, os falantes de uma língua devem adquirir um conhecimento intuitivo de
gramática. Em terceiro lugar, as pessoas devem estar aptas a usar seus conhecimentos de
gramáticas para criar e compreender novas frases.
5. Teorias de Significado e Pensamento. (p.118).
5.1. Um Panorama Geral: a Imagem de Boulding;
5.2. Teorias de Significado;
5.3. Teorias de Pensamento;
Generalizações (p. 151).
Acerca do Significado: Um signo é um estímulo que tem significado para as
pessoas. O nexo de significado e pensamento é a imagem. Quase todas as teorias de
significados e pensamento tratam dos modos como os signos se relacionam com a imagem
que as pessoas têm de seu meio circundante, assim como seus próprios estados internos. Tais
imagens afetam e são afetadas por mensagens e relacionam-se com todas as formas de
pensamento. O significado possui três sentidos. Essas perspectivas não se excluem
mutuamente. Em vez de tentar decidir qual é a perspectiva correta, é preferível ver o
significado de um modo multidimensional. (1) Os significados resultam da representação de
um referente suscitada na pessoa por um signo. (2) Os significados manifestam-se na
experiência da pessoa em resultado de signos. A nossa linguagem o que ‘sabemos’ é um
resultado da linguagem que falamos. (3) Os significados são fruto do uso de signos por
pessoas. Os filósofos da linguagem de uso cotidiano preferem não analisar a linguagem nem
averiguar os significados intrínsecos. Em vez disso, descobrem significado nas intenções dos
falantes, quando estes usam a linguagem.
Acerca do Pensamento: Mensagens são signos e grupos de signos modelados
através dos processos do pensamento humano. As teorias apresentadas tratam do que foi
232
233
denominado comunicação intrapessoal - o que acontece na mente do indivíduo tem uma
importante relação com o que se passa entre indivíduos. O tema destas teorias é o
processamento de símbolos. Primeiro – O pensamento envolve o comportamento conceptual.
As pessoas vêem o mundo fragmento por fragmento. Como usuários de signos, rotulamos os
estímulos percebidos. Segundo O pensamento envolve uma lógica de relações, a qual
amadurece durante a infância. Terceiro O pensamento envolve planejamento. (Miller,
Galanter e Pibran) mostram como o comportamento é planejado pelas pessoas. Finalmente
O pensamento envolve a solução de problemas (Dewey) Pensamento reflexivo. Sem a
capacidade de usar signos não comunicaríamos.
6. Teoria da Informação (p.153).
6.1 Conceitos básicos;
6.2. A Teoria Técnica da Informação;
6.3. Sobre Informação Semântica;
6.4. Uma abordagem de eficácia da informação;
Generalizações:(p.161).
A Generalização primária deste capítulo é que as mensagens fornecem informação.
Quatro generalizações secundárias adicionais que se destacam da teoria da informação
ajudam-nos a entender o papel da informação na comunicação. A primeira generalização
ajuda a elucidar o conceito: a informação surge no processo de realização das escolhas.
Segunda a informação é transmitida. A incerteza de uma mensagem, que consiste em
símbolos padronizados, é transmitida através de um canal receptor. Terceira a informação
reduz a incerteza. A informação semântica numa mensagem é função direta da redução da
incerteza na situação. Finalmente a informação altera o estado do organismo. As
mensagens têm impacto sobre o receptor.
7. Teorias de Persuasão e Mudança. (p.162)
7.1. Fundamentos Humanísticos: a Teoria Retórica;
7.2. Uma Teoria Comportamental da Persuasão;
7.3. Teorias Psicológicas da Atitude e Mudança de Atitude;
Generalizações: (p.200)
A comunicação resulta em mudança. Em primeiro lugar – Persuasão é o processo de
induzir mudanças através da comunicação. A abordagem retórica clássica relacionou a
persuasão com o processo de manipulação de mensagens orais com o objetivo de afetar
audiências. Segundo (Fotheringham) A mudança resulta de condições na pessoa e na
mensagem. Terceiro As mudanças ocorrem em atitudes, valores e comportamentos.
Quarto – As mudanças em atitudes, valores e comportamentos são inter-relacionadas.
Parte IV – CONTEXTOS DE COMUNICAÇÃO (p. 203).
8.Teorias de Comunicação Interpessoal. (p. 205)
8.1. Relacionamento;
8.2. Necessidades Interpessoais;
8.3. Ato-Apresentação;
8.4. Revelação e compreensão;
8.5. Percepção Interpessoal;
8.6. Atração Interpessoal;
8.7. Conflito Social;
Generalizações: (p.251).
A comunicação interpessoal ocorre no contexto da interação face-a-face e são quatro
as generalizações subseqüentes: Primeira a comunicação interpessoal é um processo de
estabelecimento e manutenção de relações. Envolve tanto a percepção como a metapercepção
do outro. Segunda os padrões de comunicação interpessoal são estabelecidos na base de
necessidades interpessoais. Terceira a comunicação interpessoal envolve a apresentação do
eu a outros. Quarta uma das metas primárias da comunicação interpessoal é a maior
compreensão entre comunicadores. Quinta compreender envolve o complexo processo de
percepção social. Sexto a comunicação interpessoal resulta em graus variáveis de atração.
Finalmente – o conflito social pode resultar a comunicação interpessoal ou levar a esta.
9. Teorias da Comunicação em pequeno Grupo. (p.253)
9.1. A Natureza dos Grupos;
9.2. Fundamentos: a Teoria do Campo, de Lewin;
9.3. Uma Teoria Empírica Geral;
9.4. Teorias de Manutenção e Motivação de Grupo;
9.5. Análise do Processo de Interação;
9.6. Fases e Desenvolvimento do Grupo;
9.7. Uma Teoria dos Papéis do Grupo;
9.8.Teorias de Efeitos Interpessoais em Grupos;
Generalizações: (p. 284)
234
235
A comunicação se efetua no contexto do pequeno grupo. Em primeiro lugar os
grupos nascem da necessidade da pessoa de ampliar os recursos com vistas à realização de
objetivos pessoais (Lewin). Segundo o grupo constitui um sistema social, envolvendo
inter-relações dinâmicas (Lewin). Terceiro – o grupo tem um grande impacto sobre a vida do
individuo. (Lewin). Quarto quanto maior for a coesão de um grupo, mais o grupo afeta o
individuo. (Lewin, Thibaut e Kelley). Quintoa coesão cria efeitos positivos e negativos em
grupos. (Lewin, Collins e Guetzkow, Cattel e outros). Sexto para sobreviverem, os grupos
devem propiciar um nível ótimo de satisfação a seus membros. (Homans, Thibaut e Kelley).
Sétimo o produto final do grupo depende de dois fatores: o trabalho direto na tarefa e as
relações interpessoais; (Guetzkow, Collins, Bales, Benne, Cattel e outros). Oitavo a
interação em grupos envolve a comunicação na tarefa e a comunicação sócio-emocional. No
trabalho de grupos, os indivíduos assumem papeis de tarefa e de manutenção (Bales).
Finalmente – a natureza da interação muda com o tempo quando o grupo progride através de
fases. (Aubrey Fischer).
10. Teorias da Organização Humana (p. 287)
10.1. Fundamentos;
10.2. A Teoria Clássica Inicial;
10.3. Estruturalismo;
10.4. A Burocracia de Max Weber;
10.5. Escola de Relações Humanas;
10.6. Escola de Sistemas Sociais;
10.7. Funcionalismo Estrutural;
Generalizações:(p. 317).
A comunicação se realiza no contexto da organização e foram apontadas as
seguintes generalizações: Primeira a comunicação é central para a estrutura e a função
organizacionais. (Max Weber). Segunda a comunicação em organizações serve de suporte
às metas de produtividade da organização e às metas pessoais dos membros. (March, Simon).
Terceira a natureza da comunicação em organizações é altamente influenciada pela
estrutura organizacional. Quarta a natureza da comunicação em organizações é altamente
afetada pelas necessidades e motivos humanos de seus membros. Quinta a autoridade
organizacional é uma questão de credibilidade da comunicação. Tal autoridade pode-se
perder na interação real do dia-a-dia. Sexta – a comunicação é uma parte essencial da tomada
de decisões organizacionais. Sétima as redes de comunicação emergem no processamento
de informação.
11. Teorias de Comunicação de Massa (p.319).
11.1. O Processo de Comunicação de Massa: Modelos Gerais;
11.2. Teorias de Audiência, Influencia e Difusão;
11.3. Teorias dos Efeitos da Comunicação;
11.4. Teorias de Comunicação Política: Opinião Publica e Propaganda;
11.5. Um Teoria de Desenvolvimento Nacional;
Generalizações: (p.361)
A comunicação se efetua no contexto de massa e foram apontadas as seguintes
generalizações: Primeira a comunicação de massa envolve mensagens públicas oriundas
de fontes organizacionais, transmitidas através dos mídia para grandes públicos ou
audiências. Segunda a audiência de massa é constituída por muito públicos com distintos
padrões de resposta. Terceira as mensagens de massa são difundidas por uma combinação
de dia e fontes interpessoais. (Rogers). Quarta as formas dos mídia, à parte de seu
conteúdo, afetam a sociedade. (McLuhan). Quinta a comunicação de massa envolve um
complexo processo de interação simbólica. (Edelman, Lippmann, Boorstin e outros). Sexta
a comunicação de massa tem uma alta relação com outras formas sociais significativas.
(Jacques Ellul, Daniel Lerner).
236
237
FIGURA 1 : MODELO DE SISTEMA DE MÍDIA DIGITAL
Criada pelo autor
FIGURA 2 : MODELO DE SUBSISTEMA APLICATIVO.
238
Criada pelo autor
239
FIGURA 3: MODELO DE CAMADAS E CATEGORIAS DE SOFTWARE TÍPICAS
DE SISTEMAS LINUX.
Criada pelo autor
FIGURA. 4 - CRT- CATHOD RAY TUBE
240
fonte: www.electronics-lab.com
241
FIGURA 5: CÉREBROS DO GÊNERO HOMO
Fonte: http://www.wsu.edu/gened/learn-modules/ top_longfor /phychar/culture-
humans-2two.html
FIGURA 6: CRONOLOGIA DA VIDA DAS ESPÉCIES HUMANAS
242
Fonte: http://www.wsu.edu/gened/learn-modules/ top_l ongfor /phychar/culture-
humans-2two.html
243
FIGURA 7: COMPARAÇÃO ENTRE AS CAIXAS DE VOZ DOS SÍMIOS E
HUMANOS
Fonte: http://www.wsu.edu/gened/learn-modules/ top_l ongfor /phychar/culture-
humans-2two.html
FIGURA 8: ESCULTURA DE DAVI, OBRA DE MICHELANGELO
244
245
FIGURA 9: PINTURA CUBISTA: O HOMEM DO CAFÉ
FIGURA 10: FOTOGRAFIA DE FATO REAL – FOME NA ÁFRICA
246
247
FIGURA 11: DIVISÃO DA HISTÓRIA SEGUNDO McLUHAN
FIGURA 12: INTERFACE LVC – O ESTADO FÍSICO DA MATÉRIA
248
249
FIGURA 13: INTERFACE LVC – OXIGÊNIO O COMBUSTÍVEL DO FOGO
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo