Download PDF
ads:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO – PUC/SP
JOSÉ CARLOS SILVESTRE FERNANDES
A ESTÉTICA DO ERRO DIGITAL
MESTRADO EM TECNOLOGIAS DA INTELIGÊNCIA E DESIGN
DIGITAL
SÃO PAULO – 2010
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO – PUC/SP
JOSÉ CARLOS SILVESTRE FERNANDES
A ESTÉTICA DO ERRO DIGITAL
Dissertação apresentada à Banca
Examinadora da Pontifícia Universidade
Católica de São Paulo, como exigência
parcial para obtenção do título de Mestre
em Tecnologias da Inteligência e Design
Digital sob a orientação do Prof. Doutor
Nelson Brissac Peixoto.
MESTRADO EM TECNOLOGIAS DA INTELIGÊNCIA E DESIGN
DIGITAL
SÃO PAULO – 2010
ads:
Banca Examinadora
____________________________
Profa. Dra. Giselle Beiguelman
____________________________
Prof. Dr. Cícero Silva
____________________________
Prof. Dr. Nelson Brissac Peixoto
talora ci si aspetta
di scoprire uno sbaglio di Natura,
il punto morto del mondo, l'anello che non tiene,
il filo da disbrogliare che finalmente ci metta
nel mezzo di una verità.
(Eugenio Montale, I Limoni)
Resumo
A Estética do Erro Digital
Esta dissertação propõe-se a esboçar os princípios de uma estética do Erro na Arte Digital.
Principiamos com um levantamento de obras de Arte Digital que exploram o tema do erro,
bem como com uma definição rigorosa de o que entenderemos por erro, para partir para nossa
principal hipótese: de que o erro é um revelar da Materialidade da Informática. Investigamos
as particularidades desta materialidade e deste revelar, fundamentados em autores como
Hayles, Kittler, Simondon e Fuller. Em seguida, consideramos as reverberações culturais do
estado de erro a partir desta revelação da materialidade: sua conotação de subversão, sua
associação com a cultura hacker, e seu sub-texto de nostalgia. Nossas principais fontes, para
esta segunda parte, são Kittler, Stiegler e Pias. No decorrer da explanação teórica, analisamos
as obras de vários artistas para demonstrar como cada um destes temas e destas preocupações
ocorre em suas obras no que toca o tema do erro; damos particular atenção para os trabalhos
de Ant Scott, JODI, e Cory Arcangel. Adotamos, todavia, uma leitura “anti-hermenêutica” da
maioria das obras, aos moldes daquela praticada por Friedrich Kittler: uma ênfase nos
sistemas técnicos e sociais implicados, e não na interpretação e na busca por significados
contidos nas próprias obras. Ao fim, acreditamos ter apresentado um framework teórico a
partir do qual a estética do erro, um tema relativamente inédito, pode ser pensada e analisada.
Além disso, muitos dos temas porque passamos tem interesse para além da Arte Digital.
Palavras-Chave: Arte e Tecnologia; Estética do Erro; Filosofia da Técnica
Abstract
The Aesthetics of the Digital Error
This dissertation proposes an outline of an aesthetics of the error in Digital Art. We start with
a survey of works in Digital Art that explore the theme of the error, and advance a rigorous
definition of what we call error, to introduce our main hypothesis: that the error is a revealing
of the Materiality of Informatics. We investigate the particularities of this materiality and this
revealing, fundamented in authors such as Hayles, Kittler, Simondon and Fuller. Next, we
consider the cultural reverberations of the error state from this revealing of materiality: its
subversive connotations, its association with hacker culture, and its sub-text of nostalgia. Our
main sources for this second part are Kittler, Stiegler and Pias. Throughout our theoretical
discussion, we analyse the works of many artists to demonstrate how each of these themes
and concerns are explored therein; we give particular attention to the works of Ant Scott,
JODI, and Cory Arcangel. We adopt, however, an “anti-hermeneutic” approach to most
works, molded after the practice of Friedrich Kittler: an emphasis in the technical and social
systems implicated rather than in interpretation and a search for meaning contained in the
works themselves. We hope to finally present a theoretical framework which may support the
analysis and exploration of the aesthetics of error, a fairly unprecedented topic. Moreover,
much of our discussion is of interest in fields beyond Digital Art.
Keywords: Art and Technology; Error Aesthetics; Philosophy of Technics.
SUMÁRIO
1. Introdução 1
1.1 Motivação 5
2. Acerca do Erro 8
2.1 O Que É um Erro 8
2.2 O Erro na Arte Digital 15
2.2.1 JODI 15
2.2.2 Cory Arcangel 19
2.2.3 Glitch Art 21
2.2.4 Ant Scott 25
2.2.5 Glitch Artists 33
2.2.6 Camera Toss 34
3. A Materialidade da Informática 36
3.1 As Duas Transparências 42
3.1.1 Manovich contra Kittler 46
3.1.2 A Materialidade Segundo Katherine Hayles 51
3.1.3 O Regime do Computacional 54
3.2 Conjuntos e Hilomorfismo 63
3.3 Ovelhas Elétricas 70
3.4 Fractais Fracassados 77
4. Subversão e Esquecimento 86
4.1 Subversão 89
4.1.1 Análise de Mídia do Discurso 89
4.1.2 Subversão Sistêmica 94
4.1.2.1 As Paisagens de Ant Scott 96
4.1.2.2 O Glitch Browser 99
4.1.2.3 JODI.ogr 99
4.1.3 Os Erros de Mel 105
4.2 Cory Arcangel e o Futuro da Memória 117
4.2.1 Os Data Diaries 117
4.2.2 Super Mario Memory 122
5. Conclusão 129
6. Referências 131
7. Apêndice 1: Entrevista com Ant Scott 135
8. Apêndice 2: Código de Fractais Fracassados 141
1
INTRODUÇÃO
O erro está por toda parte na Arte Digital. Está em obras já canônicas, como
wwwwwwwww.JODI.org, e em sub-culturas de sites como o flickr.com, em que milhares de
entusiastas compartilham seu apreço pelo estado de erro, sob a alcunha de “Glitch Art”.
Mesmo o nome “net-art”, Vuk Cosic relata, surgiu espontaneamente de um erro. (JANA &
TRIBE, 2006)
Ainda assim, não havia, até o presente momento, nenhum estudo abrangente e extenso sobre o
papel do erro na Arte Digital. O mais próximo, uma monografia de graduação, foi escrito por
Iman Moradi em 2004. Nisto a arte digital contrasta com a música, em que o erro eletrônico é
objeto, já há algum tempo, de estudo e investigação.
Esta dissertação apresenta uma estética do erro digital. Argumentamos que o erro, mais que
um simples desvio, é um estado constitutivo e fundamental do dispositivo. Não conhecemos
um dispositivo até conhecer os seus estados de erro, e seu potencial para estados de erro; sem
a definição de um estado de erro, sequer temos conhecimento seguro de o que seria uma
operação normal. Além disso, argumentamos que o erro posiciona o observador em um ponto-
de-vista privilegiado diante do dispositivo – e de tudo que se conecta a ele.
Definições rigorosas (apesar de operacionais) de erro são apresentadas em 2.1. Em 2.2,
apresentamos um levantamento de artistas que exploraram o erro digital. Nossa lista não
pretende ser em nenhum sentido exaustiva, mas listar os nomes mais representativos ou de
particular interesse para nossa investigação.
O Capítulo 3 formula e avança a seguinte hipótese, que é, em muitos sentidos, a hipótese
fundamental deste trabalho:
2
“Quando um dispositivo entra em estado de erro, toda ilusão de virtualidade é perdida: nossa
atenção volta-se para as camadas de Hardware e Software em que a Informática se processa e
que são ocultadas em sua operação normal. É quando nossa atenção volta-se para o
dispositivo, e experienciamos a Materialidade da Informática.”
O Capítulo 4 investiga as reverberações da revelação da máquina descrita no Capítulo 3 que
fogem do respectivo escopo. Investigamos como esta revelação pode ser entendida como
subversiva, e apresentamos em seguida um exemplo de uma reação bastante diferente – em
que o erro associa-se a um sentimento de nostalgia. Estes exemplos são investigados ainda
nos termos do Capítulo 3, isto é, como uma revelação da materialidade da Informática; nossa
abordagem para falar de subversão e de nostalgia nas obras em questão não é aquela que em
outro contexto seria esperada.
Apesar de nos apoiarmos na análise de obras, é importante entender que esta dissertação não é
só sobre essas obras – não é apenas um levantamento – mas uma tentativa de sistematizar uma
estética do erro. Em alguns momentos, a investigação afasta-se um pouco de exemplos
práticos: quando discutimos o sentido do erro na cultura hacker, por exemplo, encontramos
um apreço cultural rico em associações possíveis e fundamentalmente estético. Infelizmente,
ao fim de nosso levantamento, concluímos que há dimensões neste apreço ainda não se
expressaram na Arte Digital competentemente. Nunca perdemos de vista a Arte Digital; mas
queremos apontar novos rumos tanto quanto queremos mapear o território já explorado.
O tema é quase inédito, e seu campo de possibilidades é quase infinito. É um tema que exige
certa audácia; e consequentemente, certo rigor. O leitor deve estar alerta: ressalvas não são
concessões meramente formais, mas delimitam de maneira importante o que estamos e não
estamos dizendo; definições não são meras descrições, e seu escopo, exceto quando indicado,
abrange a totalidade do texto.
3
Mais importante de tudo: quando falamos no tema do erro, é natural que o vocabulário
utilizado sugira um julgamento de valor. Não intencionamos nenhum julgamento de valor,
mas ao mesmo tempo, por um imperativo de brevidade e clareza, preferimos usar este
vocabulário a propor uma pletora de novas definições ou fazer ressalvas a cada passo que
déssemos. Assim, “normal” denota normativo e estatisticamente esperado, e não conota
“correto”, “desejável” ou “saudável”, por exemplo.
Tomando a audácia como princípio de trabalho, optamos por utilizar o que de mais
sofisticado, para os nossos propósitos, havia na bibliografia disponível. Isto significa que
muitos autores usados – como Friedrich Kittler, Bernard Stiegler, Claus Pias –, apesar de
celebrados na Europa, ainda não receberam um tratamento correspondente na academia
brasileira. Temos consciência disso e tomamos um cuidado especial ao apresentá-los.
Há várias formas de olhar para um erro. Formas de olhar não são definições, embora possam
orientar definições. Consideraremos três:
1. O erro como negação: o erro, provocado ou celebrado, como uma rejeição da máquina
e daquilo que ela representa.
2. O erro como revelação: o erro como um estado que permite um conhecimento
privilegiado da máquina e de nossa relação com ela.
3. O erro generativo: o erro como uma condição em que a máquina produz um output
imprevisível.
Certamente há outras. Este trabalho concentra-se na segunda forma de olhar; as demais
aparecerão apenas quando a investigação da segunda conduzir naturalmente a elas
(acreditamos que estejam interligadas, em um nível mais básico, e que este cruzamento seja
inevitável).
4
A segunda forma de olhar é aquela que olha para dentro da máquina – não para o que aparece
na superfície da tela, nem para o que se projeta, por representação, para além dela. Nossa
abordagem, assim, será “anti-hermenêutica” sempre que possível (o que não será sempre). O
“conteúdo”, em um sentido bem convencional de conteúdo, não nos interessa; não
procuraremos um significado para estas obras por meio de métodos de leitura convencionais.
Ao invés disso, contemplaremos, sempre que isto for possível, o estado de erro produzido
pelo artista, suas condições e suas vicissitudes, e ignoraremos neste gesto o que quer que, sob
interpretação, poderia remeter para além das condições do usuário e da máquina. Não nos
interessa o que estava representado na imagem que foi distorcida, não nos interessa se
provocamos um erro em Super Mario Bros ou em Quake. Interessam-nos os sistemas que
existiam antes, como eles foram desviados, e o que acontece com este desvio. Tentaremos ver
e ouvir circuitos, e descobrir o que aprendemos com esta nova contemplação. Obviamente,
quando inevitável, teremos que exercitar um pouco o ofício da interpretação convencional.
5
1.1 Motivação
Em A Questão da Técnica, Heidegger diz que em sua essência a técnica consiste em uma
maneira de revelar (eine Weise des Entbergens) (HEIDEGGER, 2009). Um revelar que, em
tempos Antigos, esteve sob o controle do homem, mas que nos tempos da técnica moderna
não pode mais ser reduzido à mera agência humana – a técnica apresenta-se como um desafio
(Herausfordern), tanto para o homem quanto do homem para a Natureza.
Refinando esta busca pela essência da técnica, Heidegger chega finalmente no conceito de
enquadramento (Gestell):
Enquadramento (Gestell) significa a coleção das disposições que dispõem o homem, i.e., o
desafiam, a revelar o factual à maneira de ordenamento como reserva. (ibid)
1
Esta definição precisa de alguns comentários. Esta “coleção” é entendida no sentindo em que
o humor (Gemut) é uma coleção de sentimentos – ou seja, ao mesmo tempo que é uma
reunião, é também originário. Reserva (Bestand) é outro conceito apresentado em A Questão
da Técnica, e refere-se à tendência da técnica de transformar os seres em recursos alocados –
ou seja, reduzi-los à função que exercem em um sistema tecnológico.
O homem, segundo Heidegger, não pode ser totalmente reduzido a Bestand; não obstante, ele
vive perenemente sob este risco. Quanto maior este perigo, por outro lado, maior é também o
“poder redentor” da técnica; para Heidegger, o homem que conhece a essência da técnica
descobre-se livre:
Mas quando nós consideramos a essência da tecnologia nós experienciamos o
1
Há tantos termos com significado ou conotações específicos a Heidegger nesta frase que preferimos reproduzir
o original:
Ge-stell heisst das Versammelnde jenes Stellen, das den Menschen stellt, d.h. herausfordert, das Wirkliche in der
Weise des Bestellens als Bestand zu entbergen. (apud SCHÜSSELE, 1999)
6
enquadramento (Gestell) como uma destinação (Geschick) do revelar (Entbergen). Desta
forma nós estamos residindo no espaço livre da destinação, uma destinação que em
nenhum sentido nos confina à compulsão tola de avançar cegamente com a tecnologia ou, o
que dá no mesmo, de rebelar-se desamparadamente contra ela e amaldiçoá-la como obra do
demônio. Muito pelo contrário, quando nós nos abrimos expressamente para a essência da
tecnologia, nós nos vemos inesperadamente tomados por uma afirmação libertadora. (ibid)
Pois:
[T]al destinação (Geschick) não é nunca um destino que compele. Pois o homem torna-se
verdadeiramente livre apenas na medida em que ele pertence ao reino da destinação e se
torna alguém que escuta, embora não alguém que simplesmente obedece. (ibid)
Crucial, portanto, é um entendimento da essência da técnica. E como alcançar este desvelar?
Heidegger recorda que a palavra tekhné designava não só o ofício do ferreiro, mas também o
ofício do artista: ambos os ofícios consistem no trazer-à-tona que Heidegger chama de
Entbergen. Um chamado às armas é lançado:
Porque a essência da tecnologia é em nada tecnológica, reflexão essencial sobre tecnologia
e confrontação decisiva com ela devem acontecer em um reino que é, por um lado,
semelhante em essência à tecnologia, e, por outro, fundamentalmente diferente dela.
Tal reino é a arte. (...) (ibid)
É no espírito do chamado Heideggeriano que esta dissertação foi escrita. Nas obras
investigadas, o tecnológico é desviado de seu comportamento-padrão pelos métodos de uma
outra tekhné: e neste desvio, argumentamos, encontramos ou tentamos encontrar um
desvelamento da essência da tecnologia (no sentido que Heidegger define essência da
tecnologia, ou seja, como a resposta libertadora para a questão “O que é a tecnologia?”).
Argumentamos que o estado de erro é o momento em que a máquina, como objeto, torna-se
mais evidente: que é o momento em que a máquina e seu usuário são removidos do Bestand
e é possível conhecer a máquina, o usuário (enquanto usuário) e o sistema de que foram
desligados com uma clareza que se perde na operação normal, pois o revelar trazido pela
técnica moderna, como Heidegger bem descreve, é ele mesmo velado pelo próprio Gestell.
7
É o desvelamento da tecnologia que procuraremos em um estado de erro. Talvez, com isso,
façamos uma colaboração, ainda que pequena, à libertação que Heidegger promete. Ou, como
diz outro de nossos principais guias:
Quem quer que seja capaz de ouvir ou ver os circuitos no som sintetizado de CDs ou nos
laser storms de um clube noturno encontra a felicidade. Uma felicidade para além do gelo,
Nietzsche teria dito. (KITTLER, 99, p. xli)
2
Nossa investigação parte da Arte, toma a Arte como meio, e nunca se afasta muito da Arte.
Mas sua motivação ulterior jaz fora da Arte, ou, melhor dizendo, não se restringe a
documentar a prática artística. Queremos ver e ouvir estes circuitos – nem que, para isso,
precisemos quebrá-los no processo.
2
Kittler refere-se à famosa frase em O Anti-Cristo: “Para além do Norte, além do gelo, além da morte – nossa
vida, nossa felicidade”
8
2. ACERCA DO ERRO
2.1 O QUE É UM ERRO
No segundo livro da Física, Aristóteles apresenta o que talvez tenha sido a primeira definição
de objeto técnico:
Todas as coisas mencionadas apresentam uma característica por que diferem de coisas que
não são constituídas pela natureza. Cada uma delas tem nelas mesmas um princípio de
movimento e estabilidade (a respeito de posição, de crescimento e decaimento, ou por
modo de alteração). Por outro lado, uma cama e um casaco e qualquer outra coisa do
gênero, qua recebendo estas designações i.e. na medida em que são produtos de arte não
possuem um impulso inato para se transformar. Mas na medida em que são compostos de
pedra ou de terra ou de uma mistura dos dois, elas possuem tal impulso, e só nesta extensão
que parece indicar que a natureza é a fonte ou causa de ser movido e de estar inerte naquilo
que pertence a ela primariamente, em virtude própria e não em virtude de um atributo
concomitante. (ARISTÓTELES, 2009, Livro 2 Capítulo 1)
Aristóteles diferencia os entes naturais, que possuem seu princípio de movimento neles
mesmos, dos objetos técnicos, que não o possuem – uma cama, o exemplo de Aristóteles, não
surge de outra cama; seu substrato, a madeira, exibe a forma de cama apenas incidentalmente
e transforma-se seguindo o princípio da madeira; etc.
Nem mesmo Heidegger desafia realmente esta concepção; para ele, o entendimento da
tecnologia em termos de meios e fins – de seres cuja causa final não reside neles mesmos,
mas que é legada pelo homem – é correta, mas não verdadeira. (Isto é, é correta, mas não nos
revela a essência da tecnologia, não responde realmente a questão “O que é a tecnologia?”)
(HEIDEGGER, 2009)
Bernard Stiegler nota que a definição aristotélica, que esvazia o objeto técnico de causalidade,
norteou um entendimento da tekhné em termos de propósitos e fins, negando ao objeto técnico
uma dinâmica própria. (STIEGLER, 1998) É o projeto de Stiegler reabilitar esta dinâmica.
Quanto a nós, evitaremos também um entendimento meramente passivo e subserviente do
objeto técnico, em sua acepção mais comum de extensões do corpo humano; mas
9
assumiremos como ponto de partida uma definição semelhante em certo sentido à aristotélica,
extraída de Stiegler: técnica é toda organização motivada da matéria inanimada; (ibid) toda
organização da matéria por seres humanos com um propósito.
É esta qualidade definidora do objeto técnico – uma origem na atividade humana e uma
função percebida em função desta origem – que nos permitirá falar em erro, que introduz a
possibilidade mesma de um erro. Ao observar um fenômeno natural, podemos falar em
comportamentos atípicos ou anômalos; mas apenas a funcionalidade do objeto técnico permite
separar comportamentos em convencionais ou errôneos. Mesmo organismos vivos não
comportam a noção de erro: é verdade que sua condição de vivos depende de certos modos de
operação, pelos quais reduzem sua entropia trocando energia com o meio exterior; e que, no
que perturbam a manutenção destes modos de operação, certos elementos e processos podem
ser chamados de patológicos – mas há uma distância imensa entre o patológico de um
organismo e o erro de um sistema.
Se observarmos um dispositivo digital em estado de erro tentando eliminar dele toda
conotação humana – contemplá-lo, por assim dizer, “em estado da natureza”, como se fosse
um fenômeno natural – não conseguiremos encontrar nada que distingua sua operação da
operação considerada normal: muitas vezes não há sequer uma perda de complexidade, e
operações físicas (em especial eletrônicas e elétricas) continuam ocorrendo segundo a mesma
lógica de antes. O estado de erro existe apenas em função do interesse humano no dispositivo;
isto é, de sua função.
Esta perspectiva “da natureza” de um objeto técnico, contudo, é impossível; não só porque
não nos é possível realmente eliminar o vestígio humano de uma organização humana da
matéria, mas porque o uso do dispositivo é constitutivo do objeto técnico – como Flusser
aponta (FLUSSER, 1985), e como já estava latente em Aristóteles. Por exemplo, um projetor
10
de cinema pode ser usado para iluminar e aquecer uma sala; mas quando fazemos isto, o
projetor não é mais um projetor, e tornou-se apenas uma lâmpada. Um projetor é apenas um
projetor se é um dispositivo que projeta imagens.
A diferença crucial, para nós, é entre o projetor em funcionamento normal, o projetor em
estado de erro, e o projetor que se tornou uma lâmpada (ou qualquer outra coisa).
Mas talvez seja melhor falar em modos de operação que em usos ou funções, uma vez que a
redução do objeto técnico a uma ferramenta a serviço da vontade humana é facilmente
criticável – e faremos esta crítica nós mesmos. Em seu ensaio sobre a máquina fotográfica,
Flusser distingue um “aparelho”, como a máquina fotográfica, dos instrumentos do período
industrial – enquanto a máquina industrial é baseada no trabalho (“arrancam objetos da
natureza e os informam”(p. 14)), o aparelho é baseado em informação e é estar programado
que lhe caracteriza. Para Flusser, as fotografias possíveis (“superfícies simbólicas”) já estão
inscritas no próprio dispositivo fotográfico, e o engajamento do fotógrafo não é com um
mundo exterior, mas com esgotar as potencialidades da máquina: “O fotógrafo age em prol do
esgotamento do programa e em prol da realização do universo fotográfico.” (p. 15) Bem
distante de uma ferramenta, um instrumento midiático como a câmera fotográfica, para
Flusser, inverte a relação de funções: seu programa determina a atividade humana a seu
respeito, impõe suas próprias demandas. Fotografar é um jogo; um jogo é uma atividade com
um fim em si mesmo.
Flusser imagina, além disso, uma grande hierarquia de programas – isto é, de modos de
operação, de fins e funções de uso:
Enquanto objeto duro, o aparelho fotográfico foi programado para produzir
automaticamente fotografias; enquanto coisa mole, impalpável, foi programado para
permitir ao fotógrafo fazer com que fotografias deliberadas sejam produzidas
automaticamente. São dois programas que se co-implicam. Por trás destes outros. O da
fábrica de aparelhos fotográficos: aparelho programado para programar aparelhos. O do
11
parque industrial: aparelho programado para programar indústrias de aparelhos fotográficos
e outros. O econômico-social: aparelho programado para programar o aparelho industrial,
comercial e administrativo. O político-cultural: aparelho programado para programar
aparelhos econômicos, culturais, ideológicos e outros. Não pode haver um “último”
aparelho, nem um “programa de todos os programas”. Isto porque todo programa exige
metaprograma para ser programado. A hierarquia dos programas está aberta para cima. (p.
16)
Uma hierarquia aberta, indo ao infinito, em que os objetos naturais de Aristóteles, com seus
princípios de transformação neles mesmos, se perdem de vista completamente.
São estes programas que nos permitem falar em um estado de erro. Um dispositivo técnico, e
em especial um dispositivo técnico informacional, contém em si um conjunto de modos de
operação que lhe são constitutivos; e estes modos de operação impõem-se com a força de
programa. Ou seja: o dispositivo já contém, em si, uma determinação de correto; e,
argumentamos, contém também dentro de si, por consequência, uma determinação do
errôneo. Esta determinação dá-se, em parte, na própria estrutura física do objeto técnico; em
parte, se for um objeto programável (no sentido comum de programável, não no sentido mais
amplo de Flusser), nos programas para ele criados; em parte, no contexto ao seu redor, sua
dependência e interação com outros objetos técnicos e com o meio natural; e, finalmente, em
parte nas convenções e expectativas culturais dos seres humanos que operam o dispositivo.
Mas nem todo desvio acarreta um erro: o erro, como a operação normal, é definido pelos
programas e meta-programas do dispositivo. Retomemos o exemplo de um projetor de cinema
– um dispositivo simples, possivelmente de todo analógico, mas capaz de ilustrar os pontos
significativos aqui. Há um uso bastante convencional para um projetor de cinema e há, além
disso, associações e agenciamentos com outros dispositivos – rolos de filme, telas, salas de
cinema – igualmente programáticos.
12
Uma primeira classe de desvios possíveis diz respeito a situações, por exemplo, em que o
filme se incendeia, ou em que o filme é instalado de cabeça para baixo. Há também outros
possíveis desvios – falhas mecânicas, falhas no fornecimento de energia elétrica – que são
igualmente previsíveis. Estes desvios em relação aos programas do projetor configuram erros
porque seu efeito é o de interromper (ou pelo menos, o de perturbar) o meta-programa de que
faz parte: a exibição do filme. Neste caso, é fácil enxergar que estes erros estão contidos no
programa do dispositivo assim como as fotografias possíveis estão contidas no programa da
câmera fotográfica: o erro, neste caso, é igualmente programático. Em ambientes digitais, que
são o nosso foco de interesse aqui, é comum que existam procedimentos automáticos para
lidar com erros – telas azuis, janelas de alerta, rotinas de tratamento de exceção em linguagens
de programação, logs de erro, etc. O potencial do dispositivo inclui tanto estados
convencionais quanto estados de erro, e o dispositivo contém programas para produzir a
ambos. A distinção entre as duas é também uma característica do programa; uma distinção de
um nível mais alto que o mero mapeamento de seus estados possíveis, mas uma distinção
programática de qualquer forma. A definição destes erros é constitutiva da máquina, e
chamaremos este tipo de erro de erro próprio. Um erro deste tipo pode ser espontâneo –
provocado por uma condição do dispositivo (como um bug de Software), ou por oscilações de
fatores e componentes (como o de abastecimento de energia elétrica) que são também típicos
e constitutivos de seu ambiente; ele pode, também, ser provocado pelo usuário, no papel de
operador da máquina, que se desvia da operação convencional induzindo o erro.
Uma outra situação é obtida quando deslocamos o dispositivo de seu contexto habitual, ou
perturbamos o contexto em que está inserido. Um projetor de cinema pode ser retirado da sala
de cinema e usado para iluminar e aquecer uma sala, para insistir neste exemplo. Se este
deslocamento, ou re-apropriação, não provoca estranhamentos maiores, não temos muito
13
porque batizar isto de um estado de erro. Analogamente, Bolter e Grusin argumentam que
toda mídia “remedia” outras mídias – o que pode representar a troca de dispositivos, ou então
a troca de estratégias de significação, recursos, convenções, linguagens; em suma, um
intercâmbio de programas. (BOLTER & GRUSIN, 2000) Quando, por exemplo, um website
remedia a estética da televisão, não encontramos motivo para falar em um estado de erro por
este desvio das normas; este intercâmbio é, ao menos segundo Bolter e Grusin, uma
característica fundamental de mídias.
Mas há situações em que esta transição é mais brusca. Stan Brakhage famosamente criou
filmes riscando e pintando diretamente sobre o negativo, e colando mariposas e pequenos
objetos sobre ele. A princípio, temos uma remediação de técnicas de artes plásticas para a
mídia do cinema. Mas o desvio aqui é tão grande, seu efeito é tão patentemente contrário às
convenções e expectativas do dispositivo cinematográfico, que o estranhamento provocado
por um erro é inevitável. Da mesma natureza é, no caso digital, fornecer uma entrada de áudio
para um programa que espera dados de imagem. Neste caso, não há realmente uma
remediação, pois não conhecemos o híbrido resultante como um sistema de mídias; os
componentes não se conformam de acordo com o meta-programa que rege sua eficácia como
mídia. Este é um erro programático; e precisamos enfatizar que só se deve falar em erros
deste tipo em casos em que o sistema não parece se normalizar com o intercâmbio de
programas, e não temos a experiência, diante dele, de uma remediação.
Por seu papel-chave nesta dissertação, reforçamos esquematicamente os pontos desta seção:
1. Não há erro se olhamos para o dispositivo “no estado da natureza”; o erro é uma
interpretação humana da operação da máquina;
2. Por outro lado, o objeto técnico caracteriza-se pela determinação humana de seus usos
e funções; o uso é constitutivo da identidade do objeto técnico;
14
3. Assim, o objeto técnico contém, em si, um modo de operação ou um espaço de modos
de operação possíveis definidos como “corretos”; e contém, também, potencialidades
para modos de operação excluídos da noção de “correto”;
4. Um erro provoca uma perturbação no modo de operação do sistema em que a máquina
está inserida (seu meta-programa);
5. Um erro pode originar-se em condições convencionais (erro próprio); ou pode ser
disparado pela inserção de elementos estranhos aos esperados na interação com outros
dispositivos e com o ambiente, ou com o deslocamento do dispositivo de seu contexto
convencional (erro programático).
6. Um erro programático só ocorre se não temos a experiência de uma reconfiguração ou
de uma remediação – i.e., da conformação do sistema a um novo programa de mídias
potencialmente convencional.
15
2.2 O ERRO NA ARTE DIGITAL
2.2.1 JODI.ORG
Conta-se que a expressão “Net Art” nasceu de um erro, quando o artista esloveno Vuk Cosic
encontrou a expressão “net.art” em meio aos caracteres incoerentes de um e-mail
corrompido.(JANA & TRIBE, 2006) Isto foi em 1995; no mesmo ano, o erro era objeto do
pioneiro wwwwwwwww.jodi.org, um website aparentemente desestruturado, tal que a
primeira impressão do visitante é de que ocorreram erros na exibição ou criação do design. Os
artistas comentam em uma entrevista para Tilman Baumgärtel:
We get a lot of email. In the first couple of weeks after we put up the site we got a lot of
complaints. People were seriously thinking that we made mistakes. So they wanted to teach
us. They sent us emails saying: You have to put this tag in front of this code. Or: I am sorry
to tell you that you forgot this or that command on your page. For example the first page is
unformated ASCII. We discovered by accident that it looked very good. But we still get
complaints from people about this. (apud BAUMGÄRTEL, 1997)
http://wwwwwwwww.jodi.org consiste em várias páginas que apresentam ou simulam erros e
comportamentos maliciosos (e, ainda hoje, é comum que o navegador entre realmente em
estado de erro depois de alguns minutos). A colagem de elementos de erro, desordenada e
imprevisível, chama atenção para o próprio código e para as operações do navegador, de uma
forma que acaba por ser mais aflitiva do que retórica. JODI os artistas Joan Heemskerk e
Dirk Paesmans produziram obras de Net Art semelhantes nos anos seguintes, como
404.jodi.org (uma alusão ao código do erro Arquivo Não Encontrado” do protocolo HTTP),
text.jodi.org, oss.jodi.org, e blogspot.jodi.org um blog no estilo Movable Type com claros
problemas em seu template.
JODI explorou caminhas além da Net Art propriamente dita em anos recentes. A instalação
My%Desktop, de 2002, apresentada no Eyebeam Atelier em Nova Iorque, consiste em quatro
16
telas exibindo vídeos de interfaces gráficas (duas de Windows e duas de Apple) sendo
levadas, por operações de um usuário, progressivamente ao caos.(MEDIAMATIC, 2003) O
notável aqui é que o resultado final não é um output da máquina em estado de erro (ao menos
não em seu sentido convencional), mas o resultado de operações humanas que rejeitam,
desconcertantemente, as convenções de utilização da máquina e seus fins projetados.
Mais notáveis são os experimentos de JODI com vídeo-games, pioneiros agora na chamada
“Game Art”. “Jet Set Willy Variations” são variações do jogo Jet Set Willy, de 1984, para um
dos primeiros computadores pessoais, o Sinclair ZX Spectrum. O jogo foi editado por meio de
acerto e erro, experimentando-se alterar byte por byte, e é executado em computadores
modernos por meio de um emulador. Em seguida, JODI dedicou-se aos first-person shooters
(jogos em que a ação é mostrada do ponto-de-vista do personagem controlado pelo jogador,
tridimensionalmente). “SOD” é uma alteração de Castle Wolfenstein; “Untitled Game” são
doze variações de Quake. Os artistas preferem chamar o que fizeram com Quake, entretanto,
de apagamentos e não de edições, uma vez que seu trabalho foi, principalmente, de eliminar
elementos do jogo. Nos jogos de Untitled Game, encontramos Quake reduzido a elementos
gráficos mínimos: jogos preto-e-branco em que os inimigos se tornaram quadrados pretos, em
que vemos o contorno das paredes mas não suas texturas, etc. Na variação mais extrema,
vemos apenas uma tela branca – e resta ao jogador explorar o cenário apenas pelo áudio, que
– e isto converte-se em um comentário sobre o gênero – é mantido inalterado em todas as
variações.
17
Figura 1 Foto de My%Desktop, the Jodi.org
O apagamento do jogo – uma edição destrutiva do Software, que revela seus mecanismos
mais básicos de funcionamento, por vezes, e por outros simplesmente expõe o programa
como tal, é imbuído tanto do tema de subversão e revolta quanto de revelação da
materialidade, e teremos muito a dizer a respeito nos capítulos seguintes. Paesmans diz em
entrevista:
[W]e also battle with the computer on a graphical level. The computer presents itself as a
desktop, with a trash can on the right and pull down menues and all the system icons. We
explore the computer from inside, and mirror this on the net.
When a viewer looks at our work, we are inside his computer. There is this hacker slogan:
"We love your computer." We also get inside people's computers. And we are honored to
be in somebody's computer. You are very close to a person when you are on his desktop. I
think the computer is a device to get into someone's mind. We replace this mythological
notion of a virtual society on the net or whatever with our own work. We put our own
personality there. (BAUMGÄRTEL, 1997)
Um dos autores do celebrado 0100101110101101.org disse a respeito de JODI.org para o
New York Times: ''They are the only Internet-based artists that have created a truly new
18
aesthetic [...] 'They have influenced almost everything on the Internet that is related to art, [...]
'It's like trying to find a painter who was not influenced by Michelangelo.” (MIRAPAUL,
2003) Se tomarmos a declaração como hiperbólica, ainda temos que conceder a influência
pioneira de JODI; ou seja, que “a única estética verdadeiramente nova de toda net.art” é a
estética do erro.
Figura 2 Jet Set Willy Variations, captura de tela.
19
2.2.2 Cory Arcangel
Cory Arcangel é outro artista digital que explorou a estética do erro e vídeo-games. Sua obra
mais famosa é talvez “Super Mario Clouds”, de 2002, um cartucho do jogo Super Mario
Brothers, para o Nintendo Entertainment System, em que quase todos os elementos visuais do
jogo foram apagados: quando iniciamos o jogo, vemos apenas o fundo azul e nuvens brancas
passando. Outros jogos cujos dados foram corrompidos incluem F1 Racer Mod (2004), uma
versão de F1 Racer (também para o Nintendo Entertainment System) em que a pista de
corrida é substituída por uma única grande reta apenas com o carro do jogador, e Super
Abstract Brothers (2000), em que vários elementos visuais do mesmo Super Mario Bros são
substituídos por padrões geométricos simples – em um experimento semelhante, até certo
ponto, ao Untitled Game de JODI.org. Há também Super Mario Movie, um vídeo de
machinima de Super Mario em um cartucho com vários erros. No começo do vídeo, lemos na
tela, em uma fonte de baixa resolução típica dos jogos da época: “AS A VIDEO GAME
GROWS OLD ITS CONTENT AND INTERNAL LOGIC DETERIORIATE.” e em seguida:
“FOR A CHARACTER CAUGHT IN THIS BREAKDOWN PROBLEMS AFFECT EVERY
AREA OF LIFE.”
20
Figura 3 Captura de tela de Super Mario Clouds
Outra obra de Arcangel que nos interessará aqui, e que foge da Game Art, são os Data
Diaries, de 2003. Data Diaries são vídeos criados alimentando core dumps – o conteúdo
“cru”, em binário, da memória do computador em um dado momento – diretamente ao
programa de vídeo Quick Time. O programa tenta ler os dados como um arquivo de formato
de vídeo, e o resultado é uma imprevisível animação de quadrados coloridos. Alexander
Galloway escreve a respeito: “Quicktime plays right through, not knowing that the squiggles
and shards on the screen are actually the bits and bytes of the computer's own brain. The data
was always right in front of your nose. Now you can watch it.“ (GALLOWAY, s.d.) A noção
de que estamos tendo um contato “direto” com os dados - “the data was always right in front
of your nose, now you can watch it” – é escrutinada no princípio do Capítulo 3 (“As Duas
Transparências”). Nosso maior foco aqui, contudo, estará no tema recorrente da memória na
obra de Arcangel, de que estes “diários” da memória computacional são um exemplo, e a que
21
dedicamos um sub-capítulo sob o Capítulo 4 (“Cory Arcangel e o Futuro da Memória”).
Figura 4 Captura de tela de Data Diaries
2.2.3 Glitch Art
JODI.org e Cory Arcangel são dois exemplos de artistas célebres da Arte Digital que
exploraram detidamente uma estética do erro digital e suas ramificações. Nenhum deles,
contudo, iniciou um engajamento formal e declarado com uma “estética do erro”.
Uma primeira formalização da estética do erro foi produzida por Kim Cascone, em seu ensaio
“The Aesthetics of Failure”. Cascone discute o erro na música eletrônica, mas sua influência
estendeu-se para a Arte Digital em geral. Cascone descreve o que chama de uma fase “pós-
digital” da música, em que “o meio não é mais a mensagem; ferramentas específicas se
tornaram a mensagem.” (CASCONE, 2002) Quando os recursos da música digital deixaram
de ser de interesse neles mesmos, uma nova estética emergiu como resultado da “experiência
imersiva de trabalhar em ambientes saturados com tecnologia digital.” Mais
especificamente:
22
[I]t is from the ‘failure' of digital technology that this new work has emerged: glitches,
bugs, application errors, system crashes, clipping, aliasing, distortion, quantization noise,
and even the noise floor of computer sound cards are the raw materials composers seek to
incorporate into their music.
While technological failure is often controlled and suppressed - its effects buried beneath
the threshold of perception - most audio tools can zoom in on the errors, allowing
composers to make them the focus of their work. Indeed, ‘failure' has become a prominent
aesthetic in many of the arts in the late 20th century, reminding us that our control of
technology is an illusion, and revealing digital tools to be only as perfect, precise, and
efficient as the humans who build them. New techniques are often discovered by accident
or by the failure of an intended technique or experiment. (CASCONE, 2002)
E de fato, esta fase “pós-digital” da música eletrônica, baseada extensivamente no estado de
erro – ou, ao menos, em um uso do equipamento para o qual este não foi projetado – é
batizada por Cascone de “Glitch Music”. A Glitch Music, ou Glitch Core, é uma música da
materialidade – que expõe a ilusão de controle e perfeição do equipamento, e portanto, do
virtual – e que tenta, segundo Cascone, integrar à música um novo universo tecnológico de
som, como os futuristas, em outro contexto, tentaram quase um século antes.
A expressão “Glitch” para designar também obras visuais da mesma orientação deve-se,
aparentemente, ao artista Ant Scott, e Iman Moradi é talvez seu primeiro teórico, com sua
dissertação “GLTCH AESTHETICS”, de 2004. (MORADI, 2004) Nos quatro anos que
separam o ensaio de Cascone e a dissertação de Moradi, “Glitch” já havia se estabelecido
como nome de um gênero no mundo da música eletrônica; na arte digital, uma consciência do
erro como objeto e estética era ainda nascente, mas explorada independente por diversos
artistas. Moradi cita o “Glitch Festival and Symposium”, ocorrido em Oslo em 2002, como
particularmente importante para a articulação do gênero. Hoje, “Glitch Art” é já uma
expressão relativamente reconhecida no mundo da Arte Digital – uma consulta ao Google
pela expressão “Glitch Art”, entre aspas, retorna 15.800 páginas em 1/Maio/2009.
23
Moradi distingue, a princípio, o Glitch propriamente dito, a apropriação de um erro não-
intencional, do que chama de “Glitch-Alike”, um erro aparente ou provocado pelo artista, ou a
representação intencional do aspecto de um estado de erro. Moradi apresenta o seguinte
quadro-resumo:
Glitch Puro Glitch-Alike
Acidental Deliberado
Fortuito Planejado
Apropriado Criado
Encontrado Projetado
Real Artificial
(VECTOR, 2009)
Moradi lista os principais elementos da estética do glitch como Fragmentação, Repetição,
Linearidade e Complexidade. Estas são características visuais da obra típica de Glitch Art,
não uma definição conceitual como a que esboçamos anteriormente (seção 2.1). Estas
características visuais levam Moradi a comparar a estética do Glitch com obras cubistas e
abstracionistas do começo do século XX. Por outro lado, Moradi aproxima a Glitch Art
também da introdução de falhas tecnológicas aparentes em filmes (por exemplo de
Aronofsky) ou na pintura (com o exemplo de Dan Hayes).
Em sua apreciação das obras, Moradi parece-nos otimista; um Glitch, para ele, invoca
nostalgia, em especial para aqueles que cresceram nos anos 80, por máquinas do passado; e
um Glitch pode afigurar-se uma revelação da operação da máquina, mas uma que a humaniza
24
em sua capacidade de errar. Moradi nota também um tema de fetichização no Glitch, como
uma extensão da fetichização da tecnologia em geral. Finalmente, Moradi reconhece na
efemeridade e unicidade do erro um tema semelhante à aura de Benjamin: “Its scarcity, and
short lived nature in many instances grants it a special platform. With our ever increasing
drive towards signal perfection it becomes even more collectible and appreciated.” (ibid)
Como praticante da Glitch Art, todavia, a obra de Moradi convida a leituras diferentes.
Destaca-se sua série de cartões-postais, em que uma imagem da palavra persa para coroa
(símbolo da antiga monarquia iraniana) recebe, a cada cartão-postal, um erro aleatório em seu
código binário, até que, no último cartão da série, a imagem se dissolve por completo em
ruído. Como mensagens retratando um país para quem está distante, os cartões-postais
comunicam a dissolução gradual do antigo regime iraniano (e é relevante, aqui, que a
monarquia persa esteja no exílio), conforme o país se moderniza; a princípio, o erro seria
meramente destrutivo, servindo como comentário negativo à imagem original. (MORADI,
2004)
Mas não podemos descartar tão rapidamente que partimos de uma imagem digital de uma
palavra escrita à mão – e na sensual caligrafia persa, em que os movimentos do pincel são
bastante evidentes. Moradi aponta para uma mudança de condições de mídia, em que a
introdução de tecnologias digitais é, se não a causa, ao menos um forte catalisador das
transformações políticas de sua terra natal.
25
Figura 5: da série de cartões-postais de Moradi.
Como principal teórico do Glitch hoje, Moradi levanta vários pontos a que recorreremos no
decorrer desta dissertação. Sou, ademais, grato pelas enriquecedoras discussões que
conduzimos por e-mail durante a pesquisa.
2.2.4 Ant Scott
Moradi credita a Ant Scott a criação da expressão “Glitch Art”, em 2001. Ant Scott (ou Tony
Scott, ou “Beflix!”) é um artista britânico que transitou por diversas mídias e estéticas antes
de chegar à arte do erro computacional, e cuja obra não se restringe, mesmo hoje, ao digital.
No texto que introduz o termo Glitch Art, publicado em seu site, Scott compara a Glitch Art
com a Fractal Art que explorara muitos anos antes, e acaba por descrever o Glitch como a
“Arte Anti-Fractal”. Sua tabela é provocadora:
26
GLITCH ART FRACTAL ART
Artificial Mathematical
Fun and vacuous Attracts geeks
Purely digital Digital and continuous
Found Usually computed
Deterministic and quasi-random Chaotic
Fast, instant gratification Slow to compute
Tiny following (me and a friend) Massively popular 1985-1995
(SCOTT, 2001)
O fractal é computado; é caótico – com o que queremos dizer de comportamento complexo,
em um sentido matemático – e geeky. O Glitch, por outro lado, é descrito quase como pueril:
oferece satisfação instantânea, e é divertido porém raso.
Outros itens demandam algumas explicações; tive a oportunidade de entrevistar Scott (o texto
da entrevista consta como Apêndice) para elucidar alguns destes pontos.
O primeiro item da tabela é um pouco surpreendente: o Glitch é artificial; o fractal é
matemático. Scott diz a respeito:
I see mathematics as being a very concrete thing, which exists independently of discovery,
though I'm not sure I'd label myself a Platonist. My take on it is that fractals are 'real' and
glitch is 'artificial', for the reason that computing Hardware and Software are man-made
and involve many arbitrary decisions, which is why one nucleus of human endeavour
creates Windows, and another creates OSX.
Observamos aqui uma tensão entre, por um lado, uma existência de artefatos computacionais
independente do computador – se dependem dele para se manifestar, estas entidades existem
apesar ou para além dessa dependência – e, por outro lado, um Glitch que, ao celebrar a
especificidade da máquina em que se origina, não pode ser abstraído de suas especificidades
técnicas. Esta tensão é um dos principais temas na discussão do Capítulo 3.
.Quanto ao “determinístico e quase-aleatório” do Glitch:
27
I think it boils down to a question of complexity versus the capacity of the human brain.
For example, let's take a computer-generated fractal as an example of a generative process,
such as an L-system. So you have a rather complicated-looking object in front of your eyes.
But you'll probably be able to discern that something's made it following some rules, even
though it doesn't look classically 'regular'. OK, now imagine a typical Software crash (…).
Again, we have a complicated-looking visual soup, but you probably won't have the same
feeling that this image was part of a sequence of images that were being generated by some
rules. However, that is precisely what it is. (…) So the whole thing is 'generative', but with
a very complex set of rules, so complex in fact that the brain gives up and rationalises it as
being 'random', or if you get a nice-looking glitch or bit of data visualisation, as a 'happy
accident'.” (Ênfase no original)
Tudo que um computador produz é determinístico; um fractal é “caótico” apenas no tipo de
ordem matemática que observamos nele, e um Glitch é “aleatório” apenas na medida em que
o cérebro humano é incapaz de reconstituir os passos de sua produção.
A obra de Ant Scott não se restringe à Arte Digital (e, de fato, ele insiste que o computador é
para ele apenas uma ferramenta, e que não possui nenhum interesse especial na Arte Digital –
é um “artista usando um computador”, não um “artista de novas mídias”). Uma técnica
desenvolvida por Ant Scott é o “Flat Panel Photogram” (ou “Flat Panel Luminogram”), em
que papel sensível à luz é colocado sobre a tela do computador, com um filtro para reduzir a
luminosidade. Fotografias com aparência de glitch são, assim, produzidas diretamente a partir
das imagens da tela do computador, ou, melhor dizendo, da luz emanada pela tela. Alguns
exemplos de Flat Panel Luminograms na obra de Scott são as séries Repetitive Beats, com
padrões quadriculados remanescentes de computadores dos anos 80; a série Skyscrapers, que
sugere paisagens urbanas ameaçadoras; e Generatives, que lembram a geometria de
algoritmos generativos, mas ainda visivelmente pixelados e glitchy. Machineworks são flat
panel luminograms a partir de fotos, distorcidas pela introdução de glitches, de operários
trabalhando; Air Bust são flat panel luminograms que novamente sugerem paisagens urbanas,
em que o artista ao final pingou chá sobre o papel. A marca da gota do chá é mais uma
camada de errôneo em um tour de force de investigação midiática: fotografias são
28
digitalizadas e recebem erros em seu código binário; sua visualização na tela é transferida
diretamente para o papel por um luminograma, procedimento que distorce as imagens (e que
toma a imagem na tela não como uma interface “para o usuário”, mas como dados
primitivos); o papel fotográfico tem sua materialidade evidenciada quando é finalmente
violado pela mancha do chá. A mancha ilustra, também, a explosão de uma bomba sobre a
paisagem; uma explosão que o artista descreve como “a nightmareish saturated hue,
reminiscent of Missile Command on an old 8-bit games console.”
3
Figura 6 Ilustração do processo dos Luminogramas.
3
Descrição da obra em http://beflix.com/works/airburst.php
29
Figura 7: Luminograma da série Machineworks
Seus luminogramas chamam a atenção para camadas de transformações e reapresentação de
dados que normalmente são ignorados: de que a imagem que vemos na tela não é uma
tradução direta do artefato visual abstrato codificado no computador; que esta imagem não
pode ser removida para nenhum outro suporte sem transformações igualmente drásticas.
Os mesmos jogos entre mídias e a mesma atenção para as transformações a cada passo da
manipulação dos objetos computacionais acontecem em obras sem luminogramas. Em Warp,
temos novamente uma visualização de dados da memória do computador como padrões
geométricos na tela. Aqui, contudo, estes padrões não são transferidos para fotografia por
luminograma, mas fotografados com uma câmera digital. O resultado é o surgimento de
padrões de Moiré maculando o preto e branco sólido da imagem, tal como ela existe como
arquivo no computador; e, claro, uma distorção causada pela perspectiva, uma vez que a tela é
fotografada por ângulos oblíquos. A materialidade do computacional implicada aqui não é
30
apenas a do computacional em seu sentido estrito – o de máquinas que manipulam dados –
mas também a das possíveis visualizações destes dados, também produzidas por máquinas.
Em Chroma, novamente temos uma visualização dos dados da memória; e, novamente, uma
distorção chama a atenção para a materialidade desta visualização. A imagem é exibida em
um televisor, que é desregulado (algo com que Nam June Paik já experimentara algumas
décadas antes). Os padrões originais da memória são pretos e brancos, regulares e lineares; a
distorção é desordenada e ricamente colorida.
Figura 8 Da série Warp. Note as linhas curvas adicionadas pela amostragem da câmera fotográfica.
Estas obras são jogos de espelho de mídia: a informação original é transposta e recodificada
repetidamente, até o ponto de partida quase se perder de vista; depois desta série, restam
apenas imagens abstratas, que carregam em si o resíduo das várias mídias cuja combinação
produziu a imagem: que são, por fim, a soma destes resíduos. A cada passo, a materialidade
da representação anterior é evidenciada, pois cada transposição deixa suas marcas sobre a
31
imagem seguinte. Em alguns casos, estas imagens são ao fim reinterpretadas figurativamente:
como paisagens urbanas ameaçadoras (talvez no instante que antecede uma explosão), ou, no
caso de Generatives, por sua semelhança com artefatos computacionais mais convencionais.
O analógico também retorna ao digital: a mancha de chá adquire conotações da linguagem de
vídeo-game 8-bit, a visualização da memória é repetida com tinta acrílico, pinta-se sobre – e a
partir de – fotogramas.
Mais propriamente digitais, há a série Lynmouth – fotografias digitalizadas de uma paisagem,
com erros introduzidos em seu código binário – e a série Glitch, de 25 imagens, uma
compilação de sua produção entre 2001 e 2005. São os chamados “Glitches Puros”: nestas
imagens não temos nenhuma referência da exibição “correta” dos dados, como em Lynmouth,
nem conseguimos deduzir o modo de produção de cada uma delas, nem encontramos um
contexto final em que assumem um papel figurativo. Ainda assim, estas coloridas figuras
abstratas são imediatamente reconhecíveis como produto de estados de erro. O site diz que as
imagens foram produzidas “from computer crashes, Software errors, hacked games, and
megabytes of raw data turned into coloured pixels.” Scott prefere não informar a técnica
específica de cada imagem, obrigando-nos a tomá-las como resultados finais, e não só como
testemunhos de seus processos. Esta série e outras obras de Scott são discutidas no Capítulo 3.
32
Figura 9 Da série Air Burst. Note a mancha de chá.
Quando perguntei sobre possíveis semelhanças entre seu método e o método do Action
Painting, Scott respondeu dizendo que via o Glitch “mais como fotografia do que como
pintura”; isto é, não a produção laboriosa e ex nihilo da imagem, mas sua captura instantânea
em um reino de possibilidades maquínicas. Scott não se mostra interessado nas
especificidades de mídia por elas mesmas, mas as considera como limitações e restrições,
“sem as quais você está perdido”. As regras do jogo, por assim dizer, mas não seu objetivo; é,
em última instância, o efeito plástico da obra que motiva Scott, mesmo que sua técnica
facilmente tome o primeiro plano para muitos apreciadores. Comentei com Scott que alguns
temas recorriam em sua obra, que eram facilmente associáveis com Glitch: paisagens urbanas,
com sua simetria e austeridade, ressoam com a visualização de dados simétricos na memória,
e não só por sua geometria; explosões casam-se facilmente com a idéia de erro; e mesmo a
33
representação constante de paisagens – fotografadas, figurativas ou abstratas – casa-se com o
aspecto visual do Glitch e de visualizações de dados binários, em que o conteúdo é disperso
pela tela sem distinção entre um primeiro plano e um fundo e sem pontos de especial
interesse, como em uma paisagem. Scott respondeu que as associações possíveis entre
glitches e o mundo real são inesgotáveis, mas que gostava da idéia do Glitch como paisagem
– “paisagens de dados”.
2.2.5 Glitch Artists
Uma busca por “glitch” no site de fotografia e vídeo flickr.com, em 5 de Agosto de 2009,
produz 27152 resultados; o grupo “Glitch Art” tem 2698 participantes, e 4175 imagens
associadas. Muitas das imagens não possuem nenhum comentário sobre sua produção. Dentre
as comentadas ou presumíveis, é comum encontrar “Glitches Puros” (i.e., apropriações de
erros que não foram intencionalmente provocados, na definição de Moradi), imagens cujo
código binário foi corrompido, e visualização de dados de maneiras que não as previstas pelos
sistemas (o que alguns passaram a chamar de “databending”: interpretar informações de áudio
ou de texto como imagem ou vídeo, por exemplo). Encontramos alguns glitches produzidos
por outras técnicas – erros de programadores, por exemplo –, e, ao todo, uma variedade muito
grande de efeitos finais.
Algo a ser comentado sobre Glitch Artists é que, apesar de formarem uma comunidade
razoavelmente grande de entusiastas, são pouquíssimos os que participam do circuito de
exposições de Arte Digital. A maioria dos Glitch Artists são amadores em uma cultura
colaborativa, compartilhando seus resultados com uma comunidade – com paralelos mais
fortes com a comunidade de “circuit-bending” do que com vertentes da Arte Digital no
circuito de festivais. Dentre os que fazem uso do Glitch além do hobby, encontramos
34
principalmente designers e VJs, que incluem o Glitch – aqui, a aparência de um erro,
descontextualizada – em composições que, de resto, seguem os parâmetros estreitos
característicos de suas modalidades. Similarmente, o Glitch encontrou um discreto papel na
publicidade
4
, e há plug-ins de Softwares como Jitter e Max/MSP para produzir Glitches
automaticamente.
5
2.2.6 Camera Toss
Terminamos nosso levantamento da estética do erro com uma sub-cultura ainda mais recente
que a da Glitch Art: foi em Agosto de 2005 que Ryan Gallagher cunhou a expressão “Camera
Toss” para sua técnica de arremessar uma câmera fotográfica no momento do disparo
automático, produzindo, com sorte, ricas imagens abstratas. Gallagher presume que a técnica
não seja de todo nova – experimentos com câmeras em movimento certamente precedem o
camera toss – mas é a partir deste ponto que ela ganha um público de aficionados e torna-se
um hobby.(GALLAGHER, 2005) (MOORE, 2005)
Como estética do erro, o Camera Toss é exemplar: um dispositivo é utilizado de maneira
radicalmente contrária àquela para que foi projetado – arriscadamente contrária; o resultado
deste uso é apropriado como obra que, além de seu eventual interesse plástico, expõe o
dispositivo como produtor ativo de imagens, e não como mero receptor indicial da realidade.
Por outro lado, nosso interesse no Camera Toss restringe-se à analogia, pois, embora a
maioria dos camera-tossers utilize máquinas de fotografia digital, o caráter computacional da
fotografia não é, até onde observado, posto em evidência em nenhum momento. É uma mídia
digital, mas o erro não é especificamente digital.
4
MORADI, 2004 cita o exemplo de um comercial para a vodka Absolut.
5
Por exemplo, <http://mac.softpedia.com/get/Multimedia/v002-Glitch.shtml>
35
É interessante notar que se formou em torno do Camera Toss uma sub-cultura semelhante à da
Glitch Art: e enquanto o Glitch teve seus pioneiros entre artistas profissionais e raízes numa
estética do erro até então não-sistematizada, o Camera Toss nasceu já como comunidade no
Flickr (que, em 5 de Agosto de 2009, conta com 6810 membros e 6109 imagens e vídeos); e,
até onde consta, ainda não teve nenhuma penetração como tal no circuito da arte. É possível
que este fenômeno – novas estéticas surgindo em comunidades, colaborativamente, e não a
partir de poucos artistas inseridos em um circuito – venha a se tornar um padrão no futuro.
Figura 1 Exemplo de Camera Toss, encontrado no flickr.com
36
3. A MATERIALIDADE DA INFORMÁTICA
Este capítulo dedica-se à hipótese fundamental desta dissertação. Ela já foi apresentada na
introdução, e é repetida aqui:
Quando um dispositivo entra em estado de erro, toda ilusão de virtualidade é perdida: nossa
atenção volta-se para as camadas de Hardware e Software em que a Informática se processa
e que são ocultadas em sua operação normal. É quando nossa atenção volta-se para o
dispositivo, e experienciamos a Materialidade da Informática.
Esta hipótese pode a princípio parecer óbvia. Uma imagem corrompida chama atenção para o
código binário da imagem (e que ela existe como um código binário codificando um array de
pixels); um erro que faz um jogo ou um website funcionarem de formas radicalmente
inesperadas chama atenção para o caráter computacional e algorítmico destes sistemas; um
uso flagrantemente contrário ao esperado de um dispositivo (como os luminogramas de Ant
Scott) chama atenção para as potencialidades do dispositivo e, por extensão, para sua
materialidade.
37
Figura 2 JPEGged Mona Lisa, de Luciano Testi Paul
Tomemos JPEGGed Mona Lisa, de Luciano Testi Paul. Esta imagem, uma reprodução da
Mona Lisa com erros introduzidos em seu código binário, é um primeiro exemplo, datando de
2001, de uma técnica que se tornaria um clichê alguns anos mais tarde, na chamada Glitch
Art. O que há de interessante aqui é que tenha se tomado, como experimento inaugural,
38
justamente a Mona Lisa, talvez a obra que mais perdeu materialidade de toda a arte do
Ocidente: uma imagem que foi reproduzida à exaustão, tantas vezes e em tantas mídias
diferentes que sua origem como um retrato a óleo perde-se de vista; quando enfim
encontramos a Mona Lisa original, nos sentimos diante de mais um exemplar de uma série
infindável de uma imagem que foi desmaterializada.
Ao corromper justamente esta imagem, Testi Paul mostra o que Magritte foi capaz apenas de
dizer com sua pintura de um cachimbo. Isto não é a Mona Lisa; isto é uma reprodução de uma
imagem (que recua eventualmente a uma pintura), quantizada e codificada em um código
binário, sendo visualizada em um computador. É um acidente feliz que o famoso sorriso da
Mona Lisa tenha sido destruído pelo erro.
Mas há vários problemas com esta hipótese aparentemente óbvia. O que é esta materialidade
de que falamos? Se revelamos apenas camadas inferiores de Software, estamos ainda muito
distantes de qualquer coisa que seja “material” – embora seja possível argumentar que apontar
para camadas inferiores, escondidas, sugere que eventualmente recuaríamos até o material,
isto não é necessariamente verdade. E como sugerir o material, em um meio marcado pelo
empilhamento de abstrações, baseado como é na idéia de virtualidade? Serge Bouchardon
apresentou, na conferência “Electronic Literature in Europe”, um paper chamado “A Estética
da Materialidade”; mas todas as obras discutidas por Bouchardon apenas remetem a camadas
de Software subjacentes; nenhuma realmente alcança o que normalmente se entende por
materialidade. (BOUCHARDON, 2008)
Poderíamos até arriscar uma formulação ao contrário: não só o erro evidencia materialidades,
mas qualquer evidência de materialidade, na Informática, será tomada como um erro. Pois
apontar para a materialidade incorre em corromper o princípio de Engenharia de Software de
39
abstração: por abstração entende-se o procedimento pelo qual as funcionalidades de um
sistema são tomadas como elementos primitivos em um sistema de nível mais alto: isto é,
enquanto em um nível temos um sistema complexo de interações, no outro este sistema será
tomado como um elemento simples, uma caixa-preta, com uma entrada e uma saída, e não
teremos que nos preocupar com o que ocorre dentro deste elemento simples para que esta
operação ocorra. Este princípio de abstração é evidente por toda parte na Informática: em
sistemas operacionais, em linguagens de programação, em protocolos de comunicação, e
mesmo, em menor escala, no projeto de Hardware. Quanto esta abstração é corrompida – e
elementos de um nível mais baixo emergem até o topo e tornam-se evidentes para o usuário –
nós encontramos um erro.
E a rejeição do Hardware, por fim, está presente desde os princípios da computação. Alan
Turing, hoje considerado o pai da computação, já nos lega esta imaterialidade em duas de suas
contribuições mais famosas. Primeiramente, na hoje chamada Máquina Universal de Turing.
Diante da tarefa de definir, formalmente, o que afinal é computação, Turing chegou ao projeto
de uma máquina extremamente simples, que era capaz, contudo, de computar o que qualquer
máquina discreta de estados finitos – isto é, qualquer computador digital no sentido de hoje –
é capaz de computar. (TURING, 2004, p. 58-90) Esta máquina é capaz de simular qualquer
outro computador, inclusive simular outras de si mesma. É o computador fundamental, o Ur-
computador, reduzido à sua forma mais simples.
Não só a existência teórica de uma máquina que é capaz de simular qualquer outra máquina
torna a computação independente do Hardware, e portanto de materialidade, mas a Máquina
Universal de Turing é, ela mesma, imaterial: não se trata de um projeto físico, mas de um
modelo de comportamento que pode ser implementado de várias maneiras; qualquer máquina
que se comporte como descrito é uma Máquina Universal de Turing. E assim, Máquinas
40
Universais de Turing foram implementadas das mais diferentes formas, usando desde
autômatos celulares (WOLFRAM, 2002) até autoramas.
6
A outra contribuição é o igualmente famoso Teste de Turing. A questão, agora, de quando
podemos dizer que uma máquina é inteligente é respondida com o seguinte experimento
mental: suponha um voluntário diante de um terminal de texto, comunicando-se por
mensagens escritas com um ser humano e uma máquina que finge ser um ser humano (este
cenário imaginado, note-se, muito antes de chats na Internet). Se o voluntário não for capaz de
discernir qual dos dois é humano e qual é a máquina, então podemos dizer que a máquina é
inteligente. (TURING, 2004, p. 433-464)
É claro que ser capaz de se comunicar textualmente como um humano não é a única tarefa
para que desejaremos inteligência artificial, nem que o Teste de Turing seja a condição
necessária para a inteligência artificial. O que nós temos, aqui, é a ilustração de um princípio:
que para se declarar que uma máquina é inteligente, interessa-nos, apenas, o seu
comportamento exterior. É completamente irrelevante por quais processos internos a máquina
processa mensagens de entrada e compõe mensagens de saída. A máquina é abstraída, em um
sentido de Engenharia. Katherine Hayles notará as implicações disso não só para a
materialidade das máquinas, mas também para a materialidade do ser humano que se enxerga
segundo estes parâmetros, nesta situação. (HAYLES, 1999)
O auge da era do “virtual” parece ter passado: não falamos mais em “Realidade Virtual” (este
oximoro fantástico) nem acreditamos que caminhamos para isso em um futuro próximo;
discussões sobre Mind-Upload, o sonho, proposto por Hans Moravec(MORAVEC, 1990), de
transferir a consciência do ser humano para um computador, parecem para nós terrivelmente
6
<
http://www.monochrom.at/turingtrainterminal/>
41
datadas. Mesmo as longas discussões filosóficas sobre o que é o Virtual, por autores como
Pierre Lévy, já perderam muito da impressão de relevância que provocavam dez anos atrás.
Mas não podemos dizer que saímos da era do Virtual simplesmente porque seus maiores
excessos foram coibidos; informação, desde sua definição formal por Shannon, é uma
quantidade imaterial (WELLS, 1998), uma questão de previsibilidade de padrões que não
depende de seu substrato material. Como conseqüência, falar em “Materialidade da
Informática” não é, finalmente, menos paradoxal do que falar de seu oposto, a “Realidade
Virtual”.
42
3.1 AS DUAS TRANSPARÊNCIAS
Em Life on the Screen (1995), Sherry Turkle fala de uma curiosa contenda entre usuários dos
primeiros computadores Macintosh, com interface gráfica, e usuários de sistemas de linha de
comando, como o UNIX, pelo conceito de “transparência”. Para os primeiros, uma das
principais virtudes dos Macintoshs era que suas interfaces eram transparentes: não havia nada
entre o usuário e aquilo que ele queria fazer, a máquina não se intrometia mais no caminho.
Para os usuários de UNIX, também, uma das principais virtudes de seus computadores é que
suas interfaces eram transparentes: o sistema UNIX permitia visualizar, em várias camadas, o
que a máquina estava fazendo, enquanto a operação do Macintosh, ao esconder os processos
da máquina, era de interface opaca. Para os usuários de Macintosh, transparência significava
que nada se coloca entre o usuário e artefatos computacionais abstratos; é uma transparência
de simulação, em que a máquina desaparece. Para os usuários UNIX, transparência significa
não haver nada entre o usuário e a máquina; que o caráter mecânico de todas as abstrações
fosse visível.
Turkle associa a transparência UNIX a uma “visão modernista” da computação, e a
transparência Macintosh a uma visão “pós-modernista”. A primeira baseia-se no computador
como uma ferramenta, e pertence a uma “cultura do cálculo”; a segunda toma os objetos da
interface à primeira-vista e o computador como meio para acessá-los, e pertence a uma
“cultura da simulação”.
Turkle, escrevendo em 1995, conclui que a perspectiva “Macintosh”, “pós-modernista” ou
“da cultura da simulação” acabou por prevalecer. Uma boa interface, pensa-se, é aquela que o
43
usuário poderia esquecer que está utilizando, em que o contato com os artefatos
computacionais parece-nos não-mediados.
Muito mudou nestes catorze anos entre Life on the Screen e a presente dissertação; dentre
outros, virtualmente todos os sistemas operacionais de uso doméstico hoje combinam
elementos das duas transparências (algo que Turkle considera revolucionário nos sistemas
Windows da época). O ideal da interface não-mediada, em que a máquina é invisível, também
parece ruir; como Manovich coloca,
The designers no longer try to hide the interfaces. Instead, the interaction is treated as an
event - as opposed to 'non-event', as in the previous 'invisible interface' paradigm. Put
differently, using personal information devices is now conceived as a carefully orchestrated
experience, rather than only a means to an end. The interaction explicitly calls attention to
itself.” (MANOVICH, 2007 )
Bolter e Grusin, em Remediation, citam Erkki Huhtamo também em 1995 dizendo:
Technology is gradually becoming a second nature, a territory both external and
internalized, and an object of desire. There is no need to make transparent any longer,
simply because it is not felt to be in contradiction to the authenticity of the experience.
(HUHTAMO, apud BOLTER e GRUSIN, 2000, p. 42)
Esta legitimação da interface computacional nos ocupará novamente mais tarde. O prognóstico de
Turkle, em 1995, continua ainda válido em termos gerais; o ambiente de simulação triunfou,
realmente, sobre a máquina de calcular. Suas duas transparências, ademais, servem-nos de ponto de
partida para investigar o problema mais básico da Materialidade da Informática.
Na “Cultura da Simulação”, o virtual triunfa sobre o real; “[A tela] is a place where signs
taken for reality may substitute the real. Its aesthetic has to do with manipulation and
recombination.” (TURKLE, 1995, p. 47) Reconhece-se a dependência à máquina, e a
presença de processos de Software subjacentes; mas não se dá muita atenção a isso. Há várias
consequências. Uma é que, lentamente, a “substituição” efetivamente acontece, em uma
44
dimensão psicológica (e Turkle, afinal uma psicóloga, documenta isso principalmente entre
crianças e jovens). Outra é que qualquer evidência de materialidade apresenta-se como erro.
Não que a visão “modernista” não consista também em uma ilusão. Turkle cita um usuário de
PC comentando uma ferramenta de Macintosh: “You are still looking at your machine
through a window. You are just dealing with representations. I like the thing itself. I want to
get my hands dirty.” (apud TURKLE, 1995, p. 39)
Por “a coisa ela-mesma”, imaginamos que o usuário não quer dizer o chaveamento de
corrente elétrica em semicondutores. Seu contato com a Informática, também, se dá toda por
interfaces; interfaces imensamente distantes da máquina, em que mesmo o dado mais bruto é
uma abstração de várias camadas das operações físicas efetivamente ocorrendo. Ainda assim,
o usuário em questão sente que está “sujando as mãos”: ele atribui materialidade a abstrações
computacionais, que apenas “existem” propriamente como representações na interface.
Figura 3 Da série Glitch Puro de Ant Scott
45
A figura 12 pertence à série “Pure Glitch” de Ant Scott. Normalmente, trabalhos de Glitch
Art apresentam um contraste entre a exibição “correta” dos dados na interface e sua corrupção
por erros subjacentes. Nesta série, vemos apenas o Glitch (e é notável que seu caráter de erro
seja imediatamente evidente).
O Glitch Puro da figura 12 foi produzido tomando os dados de um outro arquivo, e lendo a
sequência binária como cores de cada pixel. A primeira impressão que teríamos, portanto, é
que estamos vendo o arquivo – não como ele se apresenta na interface, mas o arquivo em si,
os dados que o compõem, diretamente. Atacamos aqui, primeiramente, a noção de
transparência da “cultura da simulação”.
Mas se pensarmos de novo, é claro que não estamos vendo o arquivo diretamente: para
produzir esta imagem, foi preciso escrever um programa que lesse esta sequência binária e
produzisse o arquivo: o caminho não é mais curto que o da exibição “normal”, não
visualizamos os dados de forma mais direta. Se nos aproximarmos da imagem, notaremos,
além disso, que a imagem tem uma paleta bem mais extensa que as duas cores da codificação
binária: ao ser salva no formato de arquivo em que veio à público (.GIF), a imagem sofreu a
passagem de filtros diversos, com o resultado de que a sequência binária original está
completamente perdida. Não a podemos ver, não a temos armazenada na máquina. A
transparência da “cultura do cálculo” é igualmente denunciada.
Resta ainda, é claro, a percepção de que este arquivo consiste ele mesmo em uma sequência
binária no disco rígido do computador; uma sequência binária que não conhecemos, embora
possamos visualizar – inclusive, pelo mesmo procedimento. Esta visualização, é claro, não
nos dirá nada (um arquivo .GIF é, estatisticamente, muito próximo do ruído branco); e a cada
46
visualização, apenas produziremos novos dados e processos. É o que, ao fim, o Glitch Puro de
Ant Scott parece nos dizer: que não conheceremos abstrações puras, livres da máquina, nem
temos mais como conhecer a própria máquina em sua operação: conhecemos apenas as
operações intermediárias, os processos que ligam o virtual e a máquina, o ideal e o material.
3.1.1 Manovich contra Kittler
Sherry Turkle é uma psicóloga, preocupada principalmente com as relações que usuários
comuns travam com as máquinas. Contudo, tentaremos aqui expandir o alcance da distinção
entre a visão “operacional” e a visão “simulacional” da computação para o trabalho de alguns
teóricos de mídias.
Lev Manovich, um dos mais conhecidos teóricos das novas mídias, inicia sua discussão pela
definição de “New Media Objects”. Um new media object é “composed of digital code; they
are numerical representations.” (MANOVICH, 2002, p. 27) Isto tem duas consequências:
que um new media object pode ser descrito formalmente, matematicamente; e que esta
descrição pode ser submetida a manipulações algorítmicas. Esta definição permite a
Manovich traçar uma distinção clara entre o conteúdo – os dados que compõem o new media
object – e a interface – a maneira com que estes dados são exibidos. O new media object
recebe então uma segunda definição; ele é “one or more interfaces to a multimedia database.
(ibid, p.27)
47
Este modelo – de dados representados por uma interface – é o fundamento da teoria de
Manovich. Objetos de New Media são caracterizados pelo que é chamado alternadamente de
“Database Logic” (MANOVICH, 2002, p. 218) ou “Logic of Selection” (p. 129): são
montagens a partir de uma lista de possíveis escolhas, re-arranjos a partir de um banco de
dados. (Compare-se com a definição já dada por Turkle da Estética da Simulação: “Its
aesthetic has to do with manipulation and recombination.” (TURKLE, 1995, p. 47)) Não que
a colagem seja uma novidade; Manovich argumenta que o computador, ao trazer estas
técnicas para a própria interface, apenas legitima e encoraja este modo de operação. (p. 130)
É fácil associar o modelo conteúdo-interface de Manovich a muito da Glitch Art: se o New
Media Object é uma apresentação de um conjunto de dados, o Glitch é uma investigação das
fronteiras da estética digital, das maneiras possíveis de se representar dados que, enquanto
representações numéricas, não possuem significado direto para o observador humano. É
também sua subversão: a possibilidade de rejeitar as amarras da interface que Manovich toma
como inescapáveis e garantidas.
Há algo que permanece insatisfatório nesta leitura, entretanto. E quanto aos Glitches que são
produzidos utilizando entradas de áudio como sinais de vídeo? E, mais importante: se
tomamos como uma subversão das amarras computacionais em que se apóia a distinção
conteúdo-interface, quais as consequências desta subversão? Se lemos estas obras por
Manovich, estas consequências seriam meramente destrutivas; mas não é o que
experienciamos com os Glitches Puros de Ant Scott.
Manovich pertence a uma visão simulacional, à Turkle, da Informática: seu ponto de partida é
um “objeto de dados” que é uma representação numérica – e portanto uma abstração – e a
função do computador está em permitir o acesso do usuário a este objeto abstrato. Se a
48
escolha da interface, isto é, do modo de visualização, é motivada – se ela não pode ser
separada do conteúdo apresentado – temos “New Media Art”; caso esta escolha seja
arbitrária, e o conteúdo e sua forma de visualização sejam separáveis, temos “New Media
Design” (p. 67) A obra de arte – aquela em que a escolha da interface é inseparável dos dados
– cria “its unique materiality and a unique user experience.” (p. 67) Se tomarmos esta
definição à risca, há poucos trabalhos fora da estética do erro que são inequivocamente Arte
Digital.
Mas ouvimos muito pouco sobre esta materialidade. Uma visão diametralmente oposta é
encontrada no ensaio “Não Existe Software”, de Friedrich Kittler (1997). Kittler lembra-nos
que as operações evidentes ao usuário de um computador traduzem-se em instruções escritas
em uma linguagem de programação; estas instruções por sua vez remetem a instruções de
uma linguagem de nível mais baixo, até que chegamos ao Assembly, ao binário, e, finalmente,
a operações físicas da máquina. Ao mesmo tempo: a execução de um aplicativo (o exemplo
de Kittler é o processador de texto Wordperfect, rodando no sistema DOS – cuja interface,
note-se, é, como a do Unix, de linha de comando) ocorre dentro de um ambiente definido por
outro aplicativo; este por sua vez também está encapsulado, e novamente podemos seguir esta
sucessão até o Hardware – no caso, operações da BIOS que, por motivos de segurança, são
não-programáveis. Desta forma, “Todas as operações de código, apesar de tais recursos
retóricos como call ou return, reduzem-se absolutamente à manipulação de strings locais, isto
é, temo eu, a significantes de diferenças de voltagem.” (p. 150)
Software, portanto, é inseparável do Hardware. Esta dependência, todavia, é obscurecida
sistematicamente por camadas de abstração e, finalmente, por interfaces gráficas. Este
apagamento do Hardware cria uma ilusão que Kittler recua à Máquina de Turing: a prova
matemática de que não há nenhum problema computacionalmente tratável que uma máquina
49
simples não pode computar. Como vimos antes: dadas as devidas instruções, uma Máquina de
Turing, em toda sua simplicidade, é capaz de simular qualquer outro computador. (TURING,
2004, p. 58 - 90) Apenas porque o Hardware tornou-se desimportante que é possível entreter a
ilusão de se operar uma máquina universal e, finalmente, declarar a própria natureza
computável, como se fosse ela mesma executada em uma Máquina Universal – o que Kittler
chama da “Post-Turing Hypothese”. (KITTLER, Hardware: das Unbekannte Wesen, 2009)
Mas “apenas no artigo de Turing (…) existe uma máquina com recursos ilimitados de tempo e
espaço, com um abastaceimento infinito de papel em branco e nenhuma restrição sobre
velocidade computacional.” (KITTLER, 1997, p. 152) (Adicionaríamos também: e à prova de
erro.) Kittler cita Brosl Hasslacher, do Los Alamos National Laboratory:
This means [that] we use digital computers whose architecture is given to us in the form of
a physical piece of machinery, with all its artificial constraints. We must reduce a
continuous algorithmic description to one codable on a device whose fundamental
operations are countable, and we do this by various forms of chopping up into pieces [...]
This is what we actually do when we compute up a model of the physical world with
physical devices. This is not the idealized and serene process that we imagine when usually
arguing about the fundamental structures of computation, and very far from Turing
machines. (HASSLACHER apud KITTLER, 1997, p. 153)
Esta dependência do Software em relação ao Hardware leva Kittler a afirmar que não existe
Software; isto é, que não existe Software como algo separável do Hardware, e portanto a
futilidade, por exemplo, de se registrar direitos autorais sobre um programa.
Kittler representa bem a abordagem “operacional” à Informática: aqui, o computador é ainda
uma máquina física – uma máquina de estados finita implementada eletronicamente – e todos
os artefatos de Software são tomados como abstrações para esta máquina. Mas Kittler está
50
bastante consciente de que, como Turkle também observa, foi a visão oposta, simulacional,
que triunfou em nosso tempo. Em Hardware: das Unbekannte Wesen, Kittler narra o
apagamento do Hardware pelo Software; não apenas o usuário é encorajado por interfaces a
manter distância do Hardware, e o programador a operar em linguagens com alto nível de
abstração, mas o projeto mesmo de Hardware, Kittler nota, ocorre por meio de simulações
computacionais: projetar Hardware é projetar uma simulação em Software do Hardware, que
é executada em outro Hardware (e outro ambiente de Software). Ou seja, o Hardware já
nasce, ele mesmo, como uma entidade de Software, que precisa apenas ser transposto para
outro substrato (da simulação em um computador para o silício). Esta promessa de emulação
universal – já presente na proposta da Máquina de Turing -, para Kittler, é um fato
consumado; e em consequência, o Hardware tornou-se não apenas uma “essência
desconhecida” - sobre a qual nada podemos saber exceto por suas “emanações” de Software,
mesmo no estágio de seu projeto – mas “completamente irrelevante”.
Esta irrelevância, novamente, depende da operação dentro de certos limites. Como Kittler
observa argutamente, é tão possível a uma máquina de Turing calcular a previsão do tempo
para amanhã quanto é impossível que a previsão fique pronta ainda hoje. (ibid) Novamente,
são nos limites físicos de operação – o espaço alocado para memória, o tempo de
processamento (restringido, em última instância, pela velocidade da luz) – que o Hardware
torna-se evidente. Quando esbarramos nestes limites, esbarramos na especificidade do
Hardware: não é o ruído do mundo real ou o fracasso de se representar as idealidades do
Software que nos limitam aqui, mas limitações derivadas da estrutura mesma de um sistema.
Segundo Kittler, a evolução do Hardware corre à frente da evolução do Software que nele se
utiliza; e, como consequência, a evolução do Hardware segue uma lógica intrínseca, em que
soluções anteriores são cristalizadas nos projetos posteriores: “Assim chegam computadores
51
ao mercado cuja arquitetura diz menos respeito ao Estado da Arte que à uma Pré-história ou
uma burocracia corporativa, que sem mais delongas cristalizou-se no Hardware.” (ibid)
Mas há um pouco de pressa. A promessa de emulação universal – uma garantia puramente
teórica de Turing – não se traduz, como sabemos, aos emuladores que temos disponíveis na
prática, que estão longe da transparência da emulação teorizada. Além disso, há mais do que
processos computacionais digitais para se emular, na transição entre Hardwares: JODI
lamentam, por exemplo, que em seu Jet Set Willy Variations a tela de computador não se
comporta da mesma maneira que as telas em que o jogo original era executado, semelhantes
às dos televisores da época. Anton Marini, um dos quatro participantes da Glitch Art
Exhibition 2009 na Suécia, experimentou emular o aspecto visual de uma tela de tubos de
raios catódicos.
7
Este tipo de emulação, tão importante para uma estética digital quanto a
emulação dos processos computacionais digitais, é de outra natureza e não diz respeito a
máquinas de Turing: há uma emulação não de uma máquina de estados finita, mas de um
Hardware analógico associado. E esta emulação não diz respeito nem à teoria de Kittler nem à
de Manovich.
3.1.2 A Materialidade Segundo N. Katherine Hayles
Ninguém se dedicou tão atentamente ao problema da materialidade da Informática quanto
Katherine Hayles; de fato, a expressão mesma, “materialidade da Informática”, é retirada do
título de um capítulo de um de seus livros. Sua investigação, que se concentra sempre na
7
A obra está descrita em < http://abstrakt.vade.info/?p=206>
52
aplicação em obras de interesse literário
8
, e desenvolve-se por três livros: How We Became
Post-Human, Writing Machines, e My Mother Was a Computer.
Em How We Became Post-Human, Hayles parte da proposta de uma distinção entre
“inscrição” e “incorporação”. Inscrição é “normalized and abstract, in the sense that it usually
considered a system of signs independent of any particular manifestation.” (HAYLES, 1999,
p. 198) Que um texto possa ser reproduzido em várias instâncias, com fontes distintas e em
mídias distintas, sem que aquilo que nos interessa no texto tenha sido alterado, é uma prática
inscricional. Uma prática incorporadora, por outro lado, não pode ser separada do meio em
que é instanciada: o exemplo de Hayles é um aceno, que não pode ser destacado da mão
particular que acena. As duas práticas – inscrição e incorporação – não são colocadas como
opostas, mas agindo “in complex syncopation with each other, like two sine waves moving at
different frequencies and with different periods of repetition.” (ibid, p. 198)
Hayles parte em seguida para associar inscrição com o corpo (abstrato, socialmente
construído) e incorporação com a corporalidade (específica, contextual, sujeita a ruído), e
discute a interação entre as duas. A materialidade do corpo não nos interessa diretamente
aqui; mas é o argumento de Hayles que o “pós-humano” – uma relação com o corpo associada
às tecnologias recentes – privilegia práticas inscricionais (o aprendizado deliberado,
transferível, associadas ao corpo) sobre práticas incorporadoras (como aprender a digitar, ou
absorver linguagem corporal inconscientemente, associadas à corporalidade) que seriam,
segundo Hayles, “não-algorítmicas”. Ainda assim, nos é útil a idéia de uma relação
complementar entre inscrição – abstraível; virtual; redutível à informação – e incorporação –
dependente da materialidade da instância. (ibid)
8
Note-se aqui a distinção que esta autora faz entre “literatura” e “o literário”; a segunda, mais ampla, dizendo
respeito a “creative artworks that interrogate the histories, contexts, and productions of literature, including as
well the verbal art of literature proper.” (HAYLES, 2008, p. 4)
53
Em Writing Machines, Hayles (2002) ocupa-se da materialidade de tecnologias digitais, e não
mais da materialidade do corpo em mundo de tecnologias digitais. A seguinte definição de
materialidade é oferecida:
The physical attributes constituting any artifact are potentially infinite (…) From this
infinite array a technotext will select a few to foreground and work into its thematic
concerns. Materiality thus emerges from interactions between physical properties and a
work’s artistic strategies. For this reason, materiality cannot be specified in advance, as if it
preexisted the specificity of the work. An emergent property, materiality depends on how
the work mobilizes its resources as well as on the user’s interactions with the work and the
interpretive strategies she develops (…) In the broadest sense, materiality emerges from the
dynamic interplay between the richness of a physically robust world and human
intelligence as it crafts this physicality to create meaning. (HAYLES, 2002, p. 32-33)
Há muito que se observar aqui. Primeiramente, que os atributos físicos sejam potencialmente
infinitos, e que qualquer materialidade construída será resultado de uma seleção, é algo que
desconsideramos na discussão teórica até aqui, embora algumas das obras descritas dediquem
atenção atenta a este problema. Por que nos preocupamos somente com a materialidade do
processador, ou de operações no processador, e abstraímos a materialidade, por exemplo, da
tela – a que tanto Scott, com seus Luminogramas, quanto JODI, com Jet Set Willy Variations
(e outros, como a emulação de tubos de raios catódicos de Anton Marini) devotaram especial
atenção – ou dos cabos, do metal que encapsula os componentes, etc?
Esta materialidade, portanto, não nos é dada para descobrir, mas precisa ser construída tanto
pelo artista quanto pelo público; não de maneira arbitrária, mas engajados com a “fisicalidade
do mundo real”.
Esta fisicalidade não é definida. Entendemos que seja um espaço “potencialmente infinito” de
possibilidades – restritivo, porém inesgotável – que está contido no objeto técnico; e que, o
que é mais problemático, não teria um significado que antecedesse a intervenção humana.
Embora isto não configure precisamente uma inconsistência nesta gênese da materialidade,
54
esta suposição de uma fisicalidade neutra desconsidera que desde sua produção o objeto
técnico já está submerso em significado (ao contrário – talvez – de um objeto natural, que –
talvez – poderia ser encarado como neutro até a aproximação humana, os recursos que o
artista e o público têm diante de si para construir a materialidade de um objeto técnico nunca
nascerão neutros). Esta historicidade na gênese do objeto técnico será retomada em 3.2.
3.1.3 O Regime do Computacional
Segundo a própria Katherine Hayles, há em seus três livros aqui discutidos – How We Became
Post-Human, Writing Machines, e My Mother Was a Computer – um desenvolvimento
gradual de uma teoria da materialidade na interação homem-máquina. Hayles chama as três
obras de uma trilogia que apresenta uma trajetória “that moves from a binary opposition
between embodiment and information (…) to a broadening and deepening of these ideas into
computation and textuality.” (HAYLES, 2005, p. 3) Esta investigação culmina em um
conceito que Hayles batiza de “intermediação”.
A expressão “intermediação” é apropriada da teoria de autômatos celulares. Segundo Hayles,
chama-se de Intermediação a situação em que o comportamento dos componentes, em um
certo nível da simulação, torna-se um elemento primitivo de uma ecologia de nível mais alto;
que há, enfim, a emergência de artefatos em uma outra ecologia. Seu conceito aplicado à
Crítica Literária e aos Estudos Culturais é, contudo, muito mais amplo. Por intermediação,
entende-se a relação entre dos sistemas tais que um esteja, a princípio, o segundo esteja
hierarquicamente subordinado ao primeiro – emerge, apóia-se, origina-se, constitui-se dele –
mas que, ao mesmo tempo, um laço de retroalimentação faz com o que o comportamento do
segundo sistema re-defina e re-organize o do primeiro; finalmente, que ambos os sistemas
sejam fundamentalmente diferentes, tal que informação, para fluir de um sistema para outro,
55
precise mudar de meio. (HAYLES, 2005) Hayles apresenta diversos exemplos de laços de
intermediação, cuja variedade evidencia a plasticidade de sua definição; há, antes de mais
nada, um laço de intermediação entre homens e máquinas (os segundos constituídos pelos
primeiros, mas re-definido drasticamente o que é e como se comporta o ser humano; e a
necessidade havendo, como tanto enfatizamos, de complexas interfaces entre a linguagem
humana e uma linguagem maquínica humanamente ininteligível); há, além disso, entre
sistemas analógicos e sistemas discretos, eletrônicos ou não (para Hayles, as cadeias de DNA
são um sistema com um laço de intermediação entre processos analógicos – isto é, contínuos,
químicos – e processos digitais – o processo de decodificação, duplicação e ativação de um
código em bases protéicas distintamente discreto (p. 29)); entre corpos e textos, como
discutido em obras anteriores sobre a relação entre corpos e corporealidade, inscrição e
incorporação; e, finalmente, e mais importante, há laços de intermediação entre o que Hayles
batiza de os Regimes da Fala, da Escrita, e do Código ou do Computacional.
O que são os Regimes da Fala, da Escrita e do Computacional? Hayles argumenta que visões-
de-mundo estão “inextricavelmente emaranhadas” (no original, inextricably entwined) às
condições tecnológicas que envelopam os teóricos que as desenvolvem, às tradições
filosóficas, lingüísticas e científicas a que se afiliam, e as contribuições a que almejam. (p. 16)
Estas visões-de-mundo:
[i]mply distinctive ways of constituting communities, dealing with evolutionary changes,
accomodating technological interventions, and describing the operations of systems. (…)
Also at stake are the diverse conflicts and cooperations between their respective
worldviews. (p. 30)
Hayles argumenta, portanto, que visões de mundo se associam a mídias – em seu sentido mais
amplo, com “arquimídias” como a fala e a escrita - e que há uma visão de mundo, uma forma
de organizar o mundo e suas potencialidades, que é indissociável de se ter à disposição mídias
56
computacionais. Esta visão de mundo entrelaça-se, em uma hierarquia dinâmica, com os dois
outros grandes regimes. Ao Regime da Fala, Hayles associa Saussure; ao Regime da Escrita,
Derrida.
De fato, os dois primeiros regimes são uma apropriação de teorias da obra inicial de Derrida,
e uma apropriação que demanda, aos custos de um pequeno desvio para o nosso argumento,
algumas explanações. Ao continuar a proposta de Heidegger de uma Destruktion da
Metafísica Clássica, a partir de uma crítica da assim-chamada “Metafísica da Presença” (uma
identificação do ser ou da essência, ousia, com sua presença, parousia, e uma decorrente
expectativa de um desvelamento do Lógos para o sujeito no clarão de sua presença), Derrida
conclui que a Metafísica da Presença é ela mesma indissociável da linguagem – isto é, das
expectativas que temos sobre como a linguagem funciona, de polaridades como
“significante/significado”, e, em última instância, de um privilégio da fala sobre todos os
outros sistemas sígnicos. O Fonocentrismo – o privilégio da fala – corresponde ao
Logocentrismo, ao ponto de se fundir as duas palavras em um “Fonologocentrismo”. Para
levar a cabo a crítica da Metafísica da Presença, é preciso, Derrida argumenta, abandonar a
teoria da linguagem; e propõe, então, uma Teoria da Escritura, que dela difere em sua rejeição
de um fonologocentrismo evidente no pensamento sobre a linguagem pelo menos desde
Platão. Na Teoria da Escritura, não há mais significantes e significados (isto é, moldes da
“parte visível” e abstrações inevitavelmente idealizadas e voltadas para o Logos), mas sim um
rastro significante em um exercício de articulação, produzindo a escritura por operações de
diferença (différance) que, ao buscar um significado pela distinção, sempre adia e desvia um
almejado significado; que toma a escritura, e não a fala, como ponto de partida; e negando,
por fim, a própria expectativa Husserliana de Intuição – na máxima tão citada de que “[N]ão
há nada fora do texto”. (DERRIDA, 1986, p. 83)
57
Na Gramatologia, Derrida insiste que o fonologocentrismo – o que Hayles chama de “O
Regime da Fala” – já se articula de forma bastante terminada entre os gregos, no Fedro de
Platão e em Da Interpretação de Aristóteles; mas sua crítica dirige-se mais duramente à obra
de Saussure e de outros linguistas, por sua contemporaneidade e porque, afinal, a própria
noção de operações de diferença, que fundamentaria a teoria da escritura, já se apresenta de
forma incipiente como a grande novidade histórica no Curso de Linguística Geral. Derrida
chama de “Desconstrução”, e não mais Destruktion, esta revisão da metafísica clássica por um
esforço por meio do qual evidencia a arbitrariedade do privilégio dado à fala (por sua aparente
imanência; por sua indissociabilidade, até antes da invenção do gramofone, do falante e do
gesto de sua enunciação) e da subsequente marginalização da escritura (como um sistema
subordinado, o “significante do significante” que remete aos signos da fala e não, como a fala,
aos significados voltados para o Logos; por sua exterioridade, sua citabilidade, sua vida
própria independente do sujeito da enunciação) demonstrando a viabilidade uma teoria que
posiciona a escritura, em um sentido bastante amplo, em um papel originário e descreve a
gênese da fala como uma linearização desta escritura primeira. A dificuldade de tal
empreitada – que exige, afinal, utilizar esta mesma linguagem impregnada dos mesmos
preceitos filosóficos de que se quer se libertar – obriga Derrida, como Heidegger, a usar
palavras-chave sob rasura, a se recusar a definir rigorosamente alguns conceitos principais,
etc. O “fim da fala” – isto é, o momento em que a fala perde seus privilégios e se torna um
sistema sígnico dentre outros sistemas sígnicos – é o “advento do jogo”, e corresponde
também ao “fim do livro”, isto é, de uma escritura subordinada à fala – e é uma previsão para
séculos, um clausura que, segundo Derrida, começava a se descortinar e que não se pode dizer
com certeza se chegará realmente à sua conclusão.
58
No vocabulário de Hayles: Em Derrida, portanto, há um Regime da Fala e um Regime da
Escritura; o Regime da Fala é usualmente visto como centralizado e originário, íntimo do
Logos; o Regime da Escrita é usualmente subordinado, um suplemento cuja capacidade de, no
laço de intermediação, re-definir e re-organizar aquilo de que supostamente se origina é
experienciada ao mesmo tempo como uma extensão e uma contaminação. (DERRIDA, 2005)
Diferem Hayles e Derrida em que Derrida propõe-se a atacar esta subordinação, conquanto
Hayles, no papel de uma crítica literária mais interessada nas relações contemporâneas entre
estes dois Regimes, assume tacitamente o privilégio da fala, sem rejeitar a complexidade da
relação entre os mundos da fala e da escrita.
O terceiro regime, o Regime do Computacional, é uma novidade para Derrida. Derrida,
escrevendo em 1967, já observava na Informática então nascente um subversivo potencial
anti-fonocêntrico, pois informações são, em bancos de dados computacionais, organizadas e
manipuladas de formas não-lineares que não podem ser reduzidas de volta para a fala, e
portanto do discurso de um sujeito falante. Escreve Derrida:
Mas, para além das matemáticas teóricas, o desenvolvimento das práticas da informação
amplia intensamente as possibilidades da “mensagem”, até onde esta já não é mais a
tradução “escrita” de uma linguagem, o transporte de um significado que poderia
permanecer falado na sua integridade. Isto ocorre também simultaneamente a uma extensão
da fonografia e de todos os meios de conservar a linguagem falada, de fazê-las funcionar
sem a presença do sujeito falante. Este desenvolvimento, unido aos da etnologia e da
história da escritura, ensina-nos que a escritura fonética, meio da grande aventura
metafísica, científica, técnica, econômica do Ocidente, está limitada no tempo e no espaço,
e limita-se a si mesma no momento exato em que está impondo sua lei às únicas áreas que
ainda lhe escapavam. Mas esta conjunção não-fortuita da Cibernética e das “ciências
humanas” da escritura conduz a uma subversão mais profunda. (DERRIDA, 2005, p.12)
Hayles ecoa esta “subversão mais profunda” (que em Derrida toma a forma do “programa”
herdado da Cibernética) ao apontar que o regime do computacional reduz demandas
ontológicas a um mínimo. No lugar de uma premissa originária (o Logos, os axiomas da
geometria) a partir da qual contingências poderiam desabrochar, o computacional demanda
59
tão-somente uma distinção elementar entre algo e nada (zero e um), e operações lógicas
simples
9
. Ao se libertar de premissas originárias,
The consequences of a simulation are not logically entailed by the starting point, which is
why there is no shortcut to the computational work of running the simulation, and why the
behaviors of complex systems cannot be compressed into more economical expression such
as mathematical equations. Consequently, the Regime of Computation provides no
foundations for truth and requires none, other than the minimalist ontological assumptions
necessary to set the system running. (HAYLES, 2005, p. 23)
Isto é – o mundo do computacional é anti-logocêntrico, e suas representações prescindem de
significantes transcendentais. Esta “ontologia” do computacional, por sua vez, habita uma
complicada zona cinzenta – entre “meios”, “metáforas”, e uma ontologia propriamente dita,
com pretensões ao real. Hayles discute, por exemplo, a abordagem centrada-em-redes de
operações militares, concluindo que a metáfora de redes e sistemas de informação para
descrever operações materiais acaba, por seu acúmulo de laços de retroalimentação
conceituais, por ceder à Informação um papel efetivamente, se não literalmente, ontológico:
um sistema pensado inteiramente em termos de fluxo de informação torna-se, para todos os
fins práticos, um sistema informacional.
Mas para além destas metáforas reificadas, Hayles nota uma equivalência ainda mais
provocadora entre simulações e o mundo real na obra de alguns cientistas. Seu primeiro
exemplo é Stephen Wolfram, matemático que defende, em seu “A New Kind of Science”, que
a simulação por autômatos celulares corresponde a uma revolução no método científico.
Autômatos celulares permitem a simulação de comportamentos físicos extremamente
complexos a partir de princípios de interação incrivelmente simples: estes princípios, e os
autômatos que os efetivam, todavia, não possuem nenhum equivalente conhecido no mundo
da física. Seriam dois sistemas ontologicamente distintos, sem nenhuma premissa originária
9
De fato, apenas uma única operação lógica.
60
em comum, que se comportam de maneiras semelhantes. Para Wolfram, a nova ciência
basear-se-ia na investigação destas correspondências: e qualquer comportamente não-
obviamente simples, “in essentially any system – (...) can be thought of as corresponding to a
computation of equivalent sophistication.” (WOLFRAM, apud HAYLES, 2005, p.19. Grifo
nosso.) Isto quer dizer: “as the rules for any system can be viewed as corresponding to a
program, so also its behavior can be viewed as a computation.” (WOLFRAM, apud
HAYLES, p. 23) Fenômenos físicos são vistos como – e assim, efetivamente se tornam –
computacionais; um método que é radicalmente diferente, não só em seu funcionamento mas
em seus propósitos e pretensões, do método clássico da ciência.
É preciso notar, neste ponto, que estes desdobramentos recentes possuem raízes mais
distantes. Quando Turing argumentou que seu computador digital é mais poderoso que um
computador analógico, e capaz de simular e computar os problemas da Física, Turing
efetivamente legou-nos o “Universo Computacional” de Wolfram: pois embora a simulação
da época de Turing ainda seja norteada por leis da Física, e portanto por uma correspondência
ontológica, a simulação opera-se em um meio ontologicamente distinto daquele que simula: e
com a garantia matemática de que um computador que seja uma máquina de Turing pode
emular qualquer outro computador digital, o substrato simulacional perde-se de vista por
completo. E a fortiori, a abordagem nas ciências humanas baseada em agentes e redes, que
Hayles herda de Bruno Latour e diz estar implícita em sua discussão da materialidade em
Writing Machines, ela mesma pertence e contribui, ironicamente, para o Regime
Computacional que acaba por descrever. (HAYLES, 2005, p.3)
Temos, assim, duas camadas na teoria da materialidade de Hayles. Uma, de Writing
Machines, é informada por uma visão de mundo que rejeita materialidades como princípios e
ocupa-se de interações e interesses; a materialidade de Writing Machines não é uma
61
materialidade ontológica, mas “a materialidade que interessa” (“the materiality that matters”
(HAYLES, 2005, p.3)). Em uma camada subjacente, temos uma teoria sobre um mundo em
que, a correspondência no modo de operação tendo assumido primazia sobre uma
correspondência ontológica que se perde de vista em níveis de abstração e laços de
retroalimentação, a própria materialidade torna-se informacional, isto é, virtual; mas esta
visão de mundo não é hegemônica ou totalizante, mas emergente de e entrelaçada com outras
visões de mundo em que o material não pode jamais ser abstraído do substrato. Que a
materialidade em questão seja justamente a materialidade da Informática – isto é, dos
processos físicos de que emerge o virtual, a operação informacional que pode ser abstraída de
sua materialidade – acaba por fechar como uma última ironia este intricado jogo de espelhos.
Na seção seguinte, discutiremos um último problema concernindo à teoria da materialidade da
Informática, isto é, seu caráter naturalmente distribuído. A característica que mais
forçosamente impele este jogo de espelhos sobre a materialidade, pode-se argumentar, é
justamente que os dispositivos físicos de mídia são, por excelência, distribuídos no tempo ou
no espaço: criados para transmitir informação no espaço ou conservá-la no tempo, um
dispositivo midiático nunca se deixa tornar realmente palpável, mas sempre como um
componente cujas outras partes são necessariamente remotas, e isto torna-se mais e mais
evidente conforme os sistemas de comunicação evoluem de modelos centralizados e ponto-a-
ponto para grandes redes distribuídas. Em obras de Arte Digital que se deixam conhecer na
Internet – a grande maioria de nossos exemplos – qual é o lócus material do erro? Sequer
sabemos onde, fisicamente, os dados estão armazenados; e, muitas vezes, atribuir uma
localização física aos processos que nos interessam é impossível e contraproducente, já que
são intrinsecamente distribuídos. Por fim, as duas últimas seções do capítulo abandonam a
62
discussão mais teórica e ocupam-se de algumas obras cuja discussão ilustra pontos específicos
do que foi exposto nesta seção.
63
3.2 CONJUNTOS E HILOMORFISMO
A discussão em 3.1 assume tacitamente – exceto em poucos momentos – um computador
como uma máquina singular e fechada; um dispositivo total. Há várias insuficiências nesta
proposição: por um lado, a identidade de um objeto técnico não é determinada em si mesmo,
mas forma-se historicamente como parte de uma linhagem; por outro, computadores, como
todo objeto técnico, pertencem a ecologias tecnológicas maiores, e isto é cada vez mais
evidente graças à interligação em rede e ao ocultamento, em conseqüência, do lócus físico da
computação. Esta seção ocupa-se destes dois temas do ponto-de-vista da materialidade da
Informática.
Escrevendo em 1955, e preocupado mais com dispositivos mecânicos e elétricos do que com a
Computação então nascente, Gilbert Simondon propôs uma filosofia do objeto técnico e sua
evolução. Para Simondon, um objeto técnico não deve ser tomado por um exemplar isolado,
ou pela função que desempenha, mas deve sempre ser visto em função de sua gênese. A
unidade, individualidade e especificidade de um objeto técnico são dadas pelas
“características que são consistentes e convergentes com sua gênese” (Simondon, 1980, p. 13)
Assim, o objeto técnico é “uma unidade de vir-a-ser”. A questão de o que é um computador,
por exemplo, não se volta para um aparato específico e suas especificidades técnicas, mas
para uma linhagem de computadores – uma linhagem definida por características que
convergem historicamente, entre gerações de modelos, com a evolução dos objetos técnicos.
Esta gênese do objeto técnico, para Simondon, tem um sentido definido: o objeto técnico
caminha da máquina abstrata para a máquina concreta. Em uma máquina abstrata, os
componentes do sistema desempenham cada um uma função específica; fora desta função,
não devem ter qualquer influência sobre as outras partes do sistema. Em um motor abstrato,
64
assim, “as diferentes partes do motor são como indivíduos que podem ser pensados como
operando cada um em seu turno sem nunca ter que saber da existência do outro.” (p. 15) Em
oposição à máquina abstrata, a máquina concreta é tal que todas as partes atuam em sinergia;
em um motor, uma peça não só exerce sua função, mas desempenha um papel, por exemplo,
na dissipação de calor; as peças são integradas de maneira que o motor não pode ser
decomposto em partes independentes e auto-suficientes: “cada peça crítica é tão conectada às
demais por trocas recíprocas de energia tal que ela não pode ser nada outro do que ela é.” (p.
15)
A transição do abstrato para o concreto é uma questão de eficiência: embora mais simples de
um ponto-de-vista lógico, a máquina abstrata “é mais complicada pois é feita da reunião de
vários sistemas completos.” Ela é, por isso, não apenas mais custosa, mas mais suscetível a
falhas: a máquina concreta, que opera por sinergia das partes, é mais robusta que a máquina
abstrata em que cada componente exerce uma única função. Entendido o objeto técnico em
função de sua gênese, é justamente esta concretude final, já anunciada no modelo primitivo e
abstrato, que definirá sua identidade: “O que estabelece a unidade e a particularidade de uma
linhagem técnica é a estabilidade de um sistema subjacente de invenção ao mesmo tempo
concreto e controlador.” (p. 46)
É natural que o objeto técnico responda, em sua evolução, a demandas econômicas; Simondon
postula, todavia, que o elemento preponderante na evolução do objeto técnico é esta marcha
do abstrato para o concreto, que não se dá por razões exteriores mas é interior ao problema da
técnica. E este processo interior à técnica acaba por reverberar por toda a sociedade: “Não é a
linha de montagem que produz a padronização; é a padronização intrínseca que torna a linha
de montagem possível.” (p. 17)
65
A máquina abstrata é hilomórfica: há uma distinção clara entre forma e matéria, em que a
forma é imposta “de fora” sobre uma matéria tratada como inerte: uma distância e relativa
independência entre os componentes e sua articulação. Na máquina concreta, o hilomorfismo
desaparece: os componentes do objeto técnico não podem ser organizados exteriormente, mas
operam em sinergia e interdependência; o objeto técnico concreto não pode ser “nada outro do
que ele é.” (p. 15) Note-se que a concretude não diz respeito a um enrijecimento das
potencialidades da máquina, como Simondon anuncia já a princípio:
O verdadeiro aperfeiçoamento das máquinas, que se pode dizer aumenta o nível de
tecnicalidade, não tem nada que ver com um aumento de automatismo mas, pelo contrário,
relaciona-se ao fato de que o funcionamento da máquina oculta uma certa margem de
indeterminação. É tal margem que permite a uma máquina ter sensibilidade à informação
exterior. (p. 3-4)
Isto é: não obstante a marcha da máquina rumo à concretude, são as suas margens de
indeterminação que lhe dão eficiência e robustez. No lugar da máquina automática,
funcionando em uma lógica fechada, o dispositivo técnico ideal é capaz de interagir e
responder ao mundo exterior, tanto se adaptando quanto abrindo um leque maior, nesta
indeterminação, de potencialidades.
Simondon estava preocupado com a evolução de dispositivos como motores e tubos de raios
catódicos; embora esteja consciente da reformulação do conceito de Informação acontecendo
em sua época, ainda havia pouco na nascente Informática de interesse para sua investigação.
E a Informática parecerá caminhar na direção oposta à descrita por Simondon: sua evolução,
do hard-wiring das primeiras máquinas ao elevado nível de abstração de hoje, parece voltada
para um maior nível de abstração, para a redução e encapsulamento de componentes e
funcionamentos como caixas-pretas para a operação de níveis superiores; pelo empilhamento,
portanto, de vários níveis de hilomorfismo.
66
Em um nível mais básico, o projeto de sistemas digitais integrados em escala muito grande
(dito VLSI, very large system integration) impõe desafios ao hilomorfismo: é preciso tomar
cuidado, por exemplo, para que a introdução de uma nova depleção metálica não resulte em
uma capacitância parasítica, ao interagir com uma depleção várias camadas – camadas físicas
– abaixo; ou para que não funcione como antena captando outras interações elétricas no
mesmo Hardware. A verificação de todas as possíveis interações problemáticas entre partes é
uma tarefa computacional difícil, cujo processamento pode demorar dias em um computador
pessoal. Esta verificação já é em si considerada uma pequena área de pesquisa, e é um serviço
em que empresas como a Agilent Technologies e a Aldec, Inc. (“The Design Verification
Company”) se especializaram.
Mas “o problema técnico tem a ver mais com a convergência de estruturas a uma unidade
estrutural do que na busca por meio-termos entre demandas conflitantes,” (p. 15) e já no
projeto de Hardware encontramos rapidamente uma lógica de abstração e estruturação que,
buscando simplicidade, instauram fortemente o hilomorfismo ao objeto técnico. A evolução
do objeto técnico informático parece ocorrer segundo uma ironia, em que sua individuação se
dá justamente pelo benefício da hierarquização de abstrações. E no projeto de Software - uma
atividade hilomórfica por definição – princípios como hierarquização, abstração e
transparência norteiam a maior parte das decisões; só rompemos com estes princípios quando,
por um motivo de eficiência, somos obrigados a programar em um nível mais baixo ou de
maneira mais direta do que a lógica estrutural da programação de hoje exige. O motivo para
isto é, normalmente, eficiência: as várias camadas de separação introduzem ineficiência tanto
pelo overhead de dados em sua articulação quanto por seu caráter genérico, não-otimizado
para a tarefa específica em questão. Esta maior eficiência, para Simondon, deveria guiar a
máquina rumo à sua concretude; mas isto é sobreposto pela imensa complexidade da
67
máquina, em que a simplicidade lógica do objeto técnico abstrato – uma simplicidade que
Simondon reconhece – é crucial, e em geral mais importante que pequenos acréscimos de
eficiência que custariam a modularidade e maleabilidade da máquina e dificultariam a
depuração de erros, que são inevitáveis em sistemas tão complexos. Enquanto Kittler sonha,
por uma lógica bastante próxima à de Simondon, com Hardware Puro (KITTLER, 1997) –
pois o máximo de eficiência é obtida se abandonamos todas as abstrações de Software, isto é,
todo hilomorfismo – hoje observamos mais o que Matthew Fuller chama de um “super-
hilomorfismo”: a organização de uma camada inferior torna-se hylé, matéria, para a camada
superior. (FULLER, 2005) Este insight pode explicar por que o tema da materialidade aparece
em obras e leituras de obras em que não há nada de propriamente material em jogo; o
propriamente material perde-se de vista, sob várias camadas de organização-feita-matéria, e
uma destas camadas super-hilomórficas é tomada como de facto material.
Finalmente – e isto será mais útil para nós na discussão do capítulo sub-sequente – Simondon
lembra-nos que o objeto técnico não precisa ser visto, como estamos primariamente fazendo
aqui, como elemento; que o objeto técnico pode ser tomado como elemento, indivíduo, ou
agenciamento, e que cada uma dessas abordagens é característica de uma época. O objeto
técnico tomado como elemento – isto é, como mera ferramenta – associa-se ao otimismo do
século XVIII; o objeto técnico tomado como indivíduo leva à noção de um embate entre
homem e máquina, e aos excessos tecnocráticos do século XIX, a “Era da Termodinâmica”. O
objeto técnico torna-se uma questão imediata de poder. Finalmente, o objeto técnico tomado
como agenciamento
10
, no século XX, é regulatório e estabilizador; o conjunto de objetos
técnicos “assemelham-se à vida” – o que nos permite falar hoje em uma ecologia de
tecnologias ou uma ecologia de mídias – “e coopera com a vida em sua oposição à desordem
10
Convencionaremos “agenciamento” como tradução do termo simondoniano “assemblage” no decorrer desta
dissertação.
68
na remoção de todas as coisas que tendem a deprivar o mundo de seu potencial de mudança.”
(SIMONDON, 1980, p. 9) Como um sistema regulatório, a técnica agora pode ser integrada à
cultura – “que é também essencialmente regulatória” (p. 10) – e, mais ainda, a técnica pode
servir de fundamento para a cultura. A esta revolução de perspectiva diante do técnico – do
Indivíduo para o Conjunto – Simondon associa a transição para uma era de Informação; mas
que se trata, ainda, da Teoria da Informação de Shannon e da Cibernética de Wiener, e não da
Informática.
A noção de objeto técnico como agenciamento de partes heterogêneas, contendo margens de
imprevisibilidade para interagir com o mundo, é retomada por Deleuze e Guattari com o
conceito de agenciamento maquínico: o dispositivo como uma relação de elementos
heterogêneos. O agenciamento maquínico é, ao mesmo tempo, um interstratum (que regula as
relações entre strata e as relações entre conteúdo e expressão de cada stratum) e um
metastratum (em contato com o plano de consistência e inevitavelmente efetuando uma
máquina abstrata). As linhagens na gênese do objeto técnico descritas por Simondon são
também retomadas, sob “filos maquínicos”; podemos falar de um filo maquínico sempre que
“nós encontramos uma constelação de singularidades, prolongável por certas operações, que
converge, e que faz a operação convergir, rumo a um ou vários traços assinaláveis de
expressão.” (DELEUZE e GUATTARI, 2004, p.448) Em última instância, podemos pensar
um único filo maquínico, “idealmente contínuo: o fluxo de matéria-movimento, o fluxo de
matéria em variações contínuas, carregando singunlaridades e traços de expressão” (p. 448)
Esta operação é como “a unidade entre o ser humano e a natureza.” (p. 448) Também os
agenciamentos de Simondon reaparecem como agenciamentos maquínicos: ferramentas não
podem ser tomadas em isolamento, mas existem apenas “em relação às mesclas que tornam
69
possíveis ou que os torna possíveis”, (99) pressupondo uma máquina social que lhes seleciona
e insere em filos.
Matthew Fuller aplica as teorias de Simondon e de Deleuze e Guattari ao caso mais específico
das mídias em “Media Ecologies: Materialist Energies in Art and Technoculture”. Dentre os
exemplos particulares, o mais interessante é o das rádios-pirata de Londres: um sistema
construído em oposição às (ou alojado nas margens de) tentativas de hylomorfismo dos
sistemas radiofônicos; e ademais um problema técnico formidável – como ser, ao mesmo
tempo, invisível para autoridades e visível para o público; como minimizar o dano caso
descobertos, e como se aproveitar de brechas na legislação, em uma mídia tradicionalmente
centralizada – diante do qual é impossível desconsiderar, ao fim, a materialidade de qualquer
um de seus elementos constituintes e da articulação entre eles.
Quando tomamos a tecnologia não mais como objetos isolados, mas como grandes conjuntos
engajados com uma “máquina social”, o erro assume uma conotação política inevitável – não
é apenas o desvelar de uma materialidade abstraída, mas um gesto inevitavelmente
subversivo. Este é um dos temas do capítulo seguinte, e encerraremos nossa discussão teórica
sobre a materialidade da Informática – e assim das mídias digitais – neste ponto; o capítulo
seguinte, que introduzirá o conceito de Aufschreibesysteme, leva esta discussão a uma
formulação mais robusta e sistêmica. Nas duas seções seguintes deste capítulo, tomaremos
alguns exemplos particulares da estética do erro que complementam a discussão teórica que
fizemos até este ponto.
70
3.3 OVELHAS ELÉTRICAS
“Faca só Lâmina”, de Gabriel Menotti, é um filme digital de 1’44’’ feito com uma câmera de
telefone celular cuja lente permaneceu completamente tampada durante toda a filmagem. O
filme resultante, ao invés de uma matriz estática de pixels pretos, é uma animação colorida e
errática, produzida pelos algoritmos da câmera tentando lidar com um input inesperado. Os
blocos da animação são aparentados das distorções normalmente vistas em filme digital de
baixa compressão (especialmente, sem Lapped Transforms em seu processamento); mas na
ausência de quaisquer pontos de referência, estas “distorções”, deixadas à própria sorte,
entram em um laço de retroalimentação positiva, afastando-se da matriz nula que
supostamente estaria sendo codificada. Ademais, na ausência de um “conteúdo” propriamente
dito, a atenção do observador dirige-se a tais efeitos de mídia – que ele é treinado para ignorar
de modo geral. O título é uma referência à máxima de Tagore: “A mind all logic is like a
knife all blade.”
A obra de Menotti coloca o dispositivo em um loop fechado: uma retroalimentação positiva
em que não há nada além do dispositivo e da operação do dispositivo. Mas ele se limita a
curto-circuitar o dispositivo: a tecnologia em estado de Indivíduo, que, ao ser isolada de
qualquer assim-chamado “conteúdo”, é também isolada de seu agenciamento e do circuito a
que pertence. A câmera está isolada: vemos indícios de seu funcionamento interno – uma
iluminação de sua “caixa preta”, diria Flusser – ou então, em um antropomorfismo, de seus
sonhos: ovelhas elétricas.
Mas curto-circuitar apenas o dispositivo, iluminar apenas a caixa preta, são ambições
pequenas demais para os dias de hoje: é mister curto-circuitar o Assemblage. Em Setembro de
2008, pude representar Faca só Lâmina no Festival de Cinema e Vídeo de Vitória.
71
Normalmente, eu teria recusado o convite de imediato – tenho horror a festivais de cinema, e
na verdade antipatizo com cinemas em geral – mas esta era uma oportunidade para um
experimento valiosa demais para ser desperdiçada. Na exibição em Vitória, teríamos a
oportunidade de ver todo o circuito do cinema em loop fechado: da câmera para o projetor
para a tela de cinema, em uma sala de cinema, diante de um público de cinema
exaustivamente treinado para ser um público de cinema, cujas expectativas são de ver um
filme. O circuito do cinema como um todo seria mobilizado: e apenas este circuito. O meio
torna-se a mensagem finalmente.
Convidado a dizer algumas breves palavras antes da sessão, expliquei-lhes cripticamente os
pontos do experimento que estava realizando, sem revelar no que consistia o experimento.
Comecei por convidar o público a se recordar de cenas de black-out: o recurso
cinematográfico em que a imagem subitamente se torna inteiramente preta. Todos nós nos
lembramos de ter visto cenas assim em salas de cinema. Lembrei a eles então que a tela de
cinema é prateada, quase branca; e que, mesmo em uma cena de black-out, luz ainda incide
sobre a tela. O que se apresenta diante dos olhos, portanto, é uma grande superfície prateada
que é, ainda, o objeto mais iluminado da sala; do que nós nos recordamos é preto. E não se
trata, aqui, de uma substituição consciente: nós distintamente lembramos de preto. Em uma
mídia baseada em luz, um black-out é silêncio: a ausência de conteúdo. Este silêncio, longe de
ser um vazio propriamente dito, é ativamente constituído pela mídia, e o público rapidamente
incorpora esta codificação do vazio a um processo inconsciente. Mas este é também o
momento, por outro lado, em que os dispositivos do cinema e as convenções por trás desta e
de outras codificações de efeitos de mídia estão mais evidentes. Adicionei rapidamente, então,
que Faca só Lâmina, filmado com uma câmera de celular, continuava esta investigação na era
72
digital. Agradeci e retornei ao meu assento: não disse nada sobre lentes cobertas, ou sobre
vazios digitais exuberantes.
O filme era o último da sessão, e, ao começar, começa diretamente: título e créditos são
exibidos só no final. Após 20 ou 30 segundos de filme, o projetista, concluindo que um erro
havia acontecido e que o filme não estava realmente sendo exibido, interrompeu a projeção e
concluiu a sessão. Em seguida, no almoço, os participantes do festival vieram me perguntar
sobre o meu filme, e o que tinha acontecido que ele não havia sido exibido.
Ou seja: eles não reconheceram o glitch espalhafatoso como evidência sequer de que algo
tinha dado errado. Não só eles não viram “um filme”, ali: eles não viram nada, nada tinha
acontecido. Quando expliquei a eles o que o filme era e o que ocorrera, eles esperavam que eu
estivesse irritado com a interrupção. Pelo contrário, eu não poderia estar mais contente: o
experimento foi um sucesso.
Experimentos com silêncio (que entenderemos aqui como a ausência de input esperado de
qualquer forma, não apenas aural) não são novidade; nem são loops fechados de mídia. O
exemplo mais famoso do primeiro caso é talvez a peça 4’33’’ de John Cage, em que um
pianista senta-se silenciosamente diante de um piano durante toda a duração da peça. John
Cage, ao descobrir que mesmo dentro de uma câmara anecóica não havia realmente silêncio –
ele conseguia ouvir dois ruídos, produzidos pelo seu próprio corpo (CAGE, 1973) – concluiu
que o silêncio é na verdade apenas atenção seletiva: há sempre um rico mundo de sons ao
nosso redor, e o silêncio é constituído ignorando-se alguns sons para privilegiar outros. O
silêncio está na mente: isto casou bem com suas inclinações Zen-budistas, segundo as quais a
mente cria distinções ilusórias em um mundo em fluxo permanente.
73
Um ano antes da estréia de 4’33’’, Robert Rauschenberg criou seus “White Paintings”: telas
“vazias”, inteiramente brancas. O tratamento conceitual destes quadros por Rauschenberg
variou no decorrer do tempo, e Edward Strickland entre outros suspeita que isto possa ter
acontecido por causa da influência posterior de Cage. Em uma carta para Betty Parsons,
Rauschenberg diz:
They are large white (one white as God) canvases organized and selected with the
experience of time and presented with the innocence of a virgin. Dealing with the suspense,
excitement, and body of an organic silence, the restriction and freedom of absence, the
plastic fullness of nothing, the point a circle begins and ends. (apud STRICKLAND, p. 27)
A brancura sacramental dos quadros é mais tarde substituída por um interesse em mídias: “Eu
sempre pensei nos White Paintings como sendo não passivos, mas hipersensíveis (...) tal que
se pudesse olhar para eles e quase ver quantas pessoas estão na sala pelas sombras incidindo
sobre a tela, ou que horas são.” (apud STRICKLAND, 28) Esta nova percepção da obra
encaixa-se com a reação exaltada de Cage, que olhava para os White Paintings como
“aeroportos para luzes, sombras, e partículas (...) um quadro em constante mutação.” (CAGE,
p. 102-103). De uma metáfora insípida de transcendência, o trabalho assume posteriormente
uma declaração sobre a materialidade do meio da pintura: na ausência de conteúdo, olha-se
para a tela como um objeto material, e para o que quer que possa afetar este material – de
poeira e luz até a presença do observador.
Um exemplo de experimentação com loop-fechado bastante antiga é encontrado nas
colaborações entre Mondrian e Moholy-Nágy e suas gravações vazias (um experimento
recentemente replicado por Otomo Yoshihide e Aoyama Yasutomo
11
); aqui, o dispositivo de
reprodução é – pela primeira vez, que este autor saiba – deliberadamente transformado em um
11
“What is the sound that a record player has in itself?”, pergunta o catálogo da exposição. (YAMAGUCHI
CENTER FOR ARTS AND MEDIA, 2008)
74
dispositivo de produção: os gramofones ou vitrolas produzem ruídos sem discos.
12
Um último
exemplo – para nos restringirmos a só uns poucos – que habita um ponto intermediário entre a
brancura reveladora dos White Paintings e a função produtiva das gravações vazias é “A
Camera Recording ist Own Condition”, de John Hilliard: uma série de fotografias de uma
câmera diante de um espelho, com diferentes ajustes de abertura e velocidade. (FULLER,
2005) O que nós vemos, nestas fotografias, é uma câmera sob diversas condições de
iluminação – mas a iluminação durante a sessão permaneceu constante. Foi a câmera que
produziu a luz.
Figura 13: Captura de tela de Faca só Lâmina.
Mas houve algo de novo no incidente em Vitória nesta narrativa de experimentação. Nos
experimentos de Hilliard, de Yoshihide e de Mondrian e Moholy-Nágy, contemplamos apenas
um dispositivo: o uso convencional da câmera ou do gramofone não realmente se coloca
como assunto aqui, ao menos não diretamente, e nossa preocupação está nas características e
12
Sobre os experimentos de Mondrian e Moholy-Nágy, ver (KITTLER,1999, p. 46); sobre os experimentos de
Yoshihide, ver (YAMAGUCHI CENTER FOR ARTS AND MEDIA, 2008)
75
potencialidades técnicas de um aparato: indivíduo, não agenciamento. A obra de Hilliard
parece além disso sugerir a tese de Flusser, já discutida antes, de que a câmera já contém em
si, como programa, todas as fotografias que podem ser tiradas. As telas em branco de
Rauschenberg, se não cairmos na cilada da hermenêutica óbvia de uma brancura total,
chamam nossa atenção não só para a tela como objeto material, mas também para o contexto
em que é inserida: os efeitos do espaço expositivo sobre as obras, em um sentido também
bastante material. Aqui já temos uma noção mais próxima do agenciamento, mas ainda tímida
e incipiente. Na peça silenciosa de John Cage, a performance espetacular (o pianista sentado
diante do piano, uma partitura em que se lê “tacet” diante dele, abrindo e fechando o tampo
para indicar começo e fim dos movimentos) distrai o público da proposta de ouvir
atentamente aos sons ambientes; na verdade, na ausência de uma exegese prévia, é muito
improvável que esta seja a reação mesmo dos públicos mais educados. O silêncio de 4’33’’
não convida a ouvir os sons ambientes, mas os abafa: é um silêncio ensurdecedor. É mais fácil
que se pense a obra, se desacompanhada de sua exegese, como uma perturbação do recital,
das convenções que definem como se ouve e como se executa música erudita ao vivo, do que
um convite para ouvir o som de uma sala de concerto.
Por aqueles vinte segundos em Vitória, por outro lado, todo o circuito de mídias do cinema foi
curto-circuitado: das lentes fotossensoras da câmera registrando nada até um público de
cinema que, na outra ponta, também não viu nada – por mais exuberante que tenha sido o que
se projetou sobre a tela, por mais complexo que tenha sido tudo que aconteceu entre uma
ponta e outra. Se lembrarmos que as expectativas do público são também constitutivas de uma
mídia em um sentido mais amplo – aprofundaremos esta noção em breve –, este experimento
foi mais longe em seu silêncio do que todos os outros listados: o público foi parte do curto-
circuito, foi parte integrante de uma obra que investiga a materialidade da mídia e suas
76
convenções. E o que aconteceu? Olhando de fora do circuito, uma animação colorida e
espalhafatosa foi interrompida após alguns segundos. Olhando de dentro do circuito, como
nada aconteceu além da operação do circuito, nada foi percebido como um acontecimento.
77
3.4 FRACTAIS FRACASSADOS
Para concluir nossa investigação sobre a materialidade da Informática, e sua íntima relação
com o estado de erro, gostaria de discutir uma obra de minha autoria, que nasceu e foi
desenvolvida conjuntamente às questões teóricas. Chama-se Fractais Fracassados, e tem como
sub-título, um tanto irônico, de “a code poem”.
Figura 14 Captura de tela de Fractais Fracassados
Os Fractais Fracassados são um programa que produz uma animação de um algoritmo de
fractal – os fractais do conjunto de Julia – em estado de erro. O algoritmo é bastante simples e
78
muito conhecido: junto com os fractais de Mandelbrot, com que estão intimamente
relacionados, é o algoritmo de fractal mais conhecido pelo público geral. Nesta obra, o
algoritmo do fractal sofre uma alteração estratégica, que faz com que o cálculo de quase todos
os pixels da imagem incorra em erros; o resultado, longe de mero ruído, é uma ruidosa e
complexa animação que exibe, ela mesma, certa fractalidade. Esta fractalidade não é a
fractalidade do funcionamento convencional do algoritmo, que teria “sobrevivido” ao erro,
mas é ela mesma decorrente dos erros em que o cálculo incorre.
A geometria fractal possui uma grande afinidade com o computacional, e, de fato, um fractal
por si só já sugere o computacional na maioria dos contextos. A geometria fractal foi aplicada
a problemas físicos, e uma distinta fractalidade pode ser observada em muitos objetos e
fenômenos banais (por exemplo, nas folhas de uma samambaia); apesar disso, a geometria
fractal só pôde, por suas categorias intrínsecas, ser realmente investigada quando matemáticos
passaram a dispor de computadores. Além disso, muitos dos fractais mais famosos – e
incluímos aqui os fractais de Julia e de Mandelbrot – não modelam nenhum fenômeno natural,
mas existem apenas como artefatos computacionais.
13
E o que é um fractal? A geometria de um fractal demanda que este possua resolução infinita:
isto é, que a imagem não se torne mais simples, em um sentido formalizado de simples,
conforme se toma uma região maior ou menor de sua geometria (isto é, conforme “mudamos
de escala”, “nos aproximamos” ou “nos afastamos”); além disso, um fractal apresenta auto-
semelhança: a repetição (não necessariamente idêntica, mas ao menos estatística) de padrões
observados em uma escala maior também em escalas menores. Há, além disso, condições
sobre a dimensionalidade do ente geométrico em relação ao espaço que ocupa, para descartar
13
Embora alguns algoritmos fossem conhecidos desde o século XIX, suas características de fractal só foram
descobertas quando foi possível o cálculo exaustivo de vários pontos com computadores.
79
casos triviais – como a circunferência e a linha reta – que tecnicamente suprem os outros
requisitos. (MANDELBROT, 1998)
Um fractal, portanto, é um ente geométrico construído sobre a noção de infinito: a repetição
infinita de um padrão como o contorno de uma linha infinitamente detalhada. E é nestes
termos que fractais acabaram por encontrar seu espaço na cultura popular, como uma entidade
matemática que simboliza um infinito detalhamento e uma infinita repetição.
A dependência da geometria fractal em computadores – uma dependência, inclusive, para a
possibilidade de ser pensada – introduz aqui um curioso paradoxo. Computadores não são
capazes, em nenhum sentido, de codificar a idéia de infinito: há limitação de memória, por um
lado, e uma base discretizada, que não pode subdividir para além do bit, de outra; a tela ou a
impressora são também dispositivos discretos, e a imagem terá que se reduzir a pixels sólidos.
Não há nada “dentro” de um pixel; não há nada “entre” um pixel e outro. Aproximar-se ou
afastar-se desta geometria é, na verdade, recalcular a imagem usando um conjunto diferente
de dados iniciais. Naturalmente, este problema apresenta-se em qualquer simulação de
fenômenos contínuos (e já discutimos isto na seção Manovich versus Kittler, anteriormente);
mas no caso de fractais como o de Julia, esta limitação não é uma tecnicalidade mas encontra-
se no cerne de sua apreciação; e, uma vez que o fractal de Julia não modela nenhum
fenômeno na natureza, mas existe apenas em computadores – o que significa modelar um
processo contínuo, neste caso?
Nos Fractais Fracassados, o algoritmo de um fractal do conjunto de Julia é apresentado com
uma única alteração: ao invés dos valores estreitos e de ponto-flutuante convencionais, os
dados de entrada são todos números inteiros – o que de fato sempre serão, codificados sob
80
bases binárias – e muito grandes, tal que o cálculo facilmente exceda a memória alocada para
cada número: um erro chamado de Overflow Aritmético.
Exceder a memória de objetos de dados mais complexos resulta, em geral, em erros que
interrompem o programa, e ou o programador ou a própria linguagem de programação
precisam monitorar cuidadosamente o gerenciamento da memória. Para tipos de dados
primitivos, como números inteiros, um erro de overflow retorna simplesmente um valor
espúrio (mais sobre isto adiante); a monitoração de operações aritméticas para evitar este erro
seria demasiado custosa e é evitada exceto em casos específicos (por exemplo, quando um
valor espúrio poderia representar uma falha de segurança, os chamados “integer overflow
attack”).
Em um processador moderno, valores inteiros são codificados em complemento de dois
(assim, se 2, codificado em 4 bits, é “0010”, -2 é “1110”), e o bit mais significativo representa
o sinal do número. Quando uma operação artimética ultrapassa o espaço alocado, o bit de
sinal é sobre-escrito como bit de dados, e o que quer que exceda o espaço alocado é
descartado. Esta operação, codificada em binário, é bastante intuitiva; mas em base decimal, o
computador parece produzir valores aleatórios. Considere o seguinte output de um programa
que multiplica um inteiro repetidamente por 10:
100
1000
10000
100000
1000000
10000000
100000000
1000000000
1410065408
81
1215752192
-727379968
1316134912
276447232
-1530494976
1874919424
1569325056
-1486618624
-1981284352
1661992960
-559939584
Podemos formalizar este erro facilmente: Se adicionarmos 2
31
a todos os valores, temos uma
simples aritmética mod(2
32
), para as operações de produto e soma.
Nos fractais fracassados, o erro – que ocorre em nível de Hardware, na unidade lógica
aritmética, e não em Software – faz com o que um algoritmo que se apóia na ilusão de infinito
tenha que encarar, frontalmente, as limitações materiais do meio em que é computado. O
efeito é, a princípio, destrutivo: mas a extremamente estreita aritmética mod(n) do algoritmo
em erro acaba por produzir um fenômeno de aliasing – um erro (e isto também se revela
relevante aqui) típico de amostragem, ao transpor sinais contínuos para o meio digital – que
cria padrões de Moiré. Quando os padrões de Moiré interferem entre si, surge uma nova
fractalidade na imagem.
Uma formalização rigorosa da matemática dos Fractais Fracassados não foi feita; é difícil
justificá-la, uma vez que cada uma das etapas já é bem conhecida, e seria preciso apenas
evidenciar a conexão de uma a outra. De maior interesse, aqui, é o significado deste choque
de um algoritmo de fractal com suas limitações físicas: primeiro, parecemos negar a ilusão do
82
computacional, da possibilidade de um Universo Computacional de que fala Hayles; mas em
seguida, esta ilusão retorna para nós – enquanto ilusão, ruidosa e obviamente computacional –
em uma formulação mais humilde e mais honesta.
Quanto aos aspectos visuais da obra, há três características mais marcantes. Primeiramente, o
ruído sobre toda a imagem. Segundo, a repetição nunca realmente idêntica de padrões simples
– tal que é a diferença entre eles, mais do que a repetição, que se apresenta em primeiro plano
(figura 15). Finalmente, como a própria imagem carrega o tema de distorção, como na figura
16, em que um padrão de círculos concêntricos emerge como a distorção de uma superfície de
padrões de círculos concêntricos.
83
Figura 15 Captura de tela de Fractais Fracassados
84
Figura 16 Captura de tela de Fractais Fracassados
Esta obra foi apresentada em Barcelona em 2009, no E-Poetry Festival. Naturalmente, esta
obra não é um poema no sentido convencional do termo; falamos em “code poem” como se
pode falar, por exemplo, de um poema sinfônico. Mas falamos, também, em um “poema de
código” para apontar para sua relação inextrincável com o código computacional e suas
estratégias de significação. Para apreender a obra, é preciso considerar o código
computacional em três níveis: primeiro, como código-fonte (se não lermos o código-fonte e
reconhecermos o algoritmo, a obra perde seu significado; precisamos pelo menos saber em
que o código-fonte consiste); precisamos entender que não se trata de um algoritmo puro, mas
de instruções para uma máquina física, e assim compreender a causa e a natureza do erro; e
precisamos executar o código – vê-lo significar como output – para então, juntando as três
formas de apreender o código computacional, compor o efeito geral, o “poema”. Estas
85
investigações estão acessíveis mais pormenorizadamente no artigo Code, not Text: For a
Poetics of Code Proper (FERNANDES, 2009).
86
4. SUBVERSÃO E ESQUECIMENTO
A Glitch Art tornou-se bastante popular entre VJs. Alguns VJs, como a holandesa Rosa
Menkman, adotaram o Glitch como o componente principal de suas apresentações; e mesmo
Ant Scott, criador da expressão “Glitch Art”, já aceitou convites de VJing. De maneira geral,
é muito comum hoje encontrar VJs que usam artefatos de glitch em suas apresentações, ainda
que os releguem a um papel secundário. Naturalmente, não são “glitches puros”, ou mesmo
“glitch-alikes” – não são erros acontecendo durante a apresentação – mas o aspecto visual de
glitches, que são reapropriados e integrados ao fluxo da apresentação do VJ.
Esta reapropriação, é fácil de notar, pouco tem a ver com as preocupações do capítulo
precedente. Embora aconteçam, na circunstância excepcional de festivais, apresentações de
VJing em que o VJing é o seu próprio foco, o contexto convencional do VJing é em festas;
em consequência, a edição em tempo real de vídeo, por maior que seja seu potencial na teoria,
serve apenas como uma peça decorativa dentro do sistema maior da festa. Não é esperado, do
público, um olhar atento ou constante: apenas que deixem seus olhos vagarem,
ocasionalmente, pela tela, para logo encontrarem outro foco. A estética do VJing é
incompatível com o olhar contemplativo que nossa discussão da materialidade supõe; a
apresentação é uma sequência de titilações, que não formam um todo coerente nem se abrem
para leituras cuidadosas. Além disso, um erro propriamente dito, em uma apresentação de
VJing, seria desastroso: subordinado ao fluxo de um meta-programa extremamente
convencional (o da festa), o VJ não pode, em termos práticos, flertar em momento algum com
a possibilidade real de uma interrupção.
87
O que estarão glitches fazendo lá? A resposta imediata é que estão lá também para provocar
titilações, como imagens de impacto superficial em rápida sequência. Glitches estão lá, em
outras palavras, pelo seu significado cultural; um significado que, para que possa ter sido
adotado como o foi pela cena de VJs, só pode ser muito difundido e de fácil absorção.
Este capítulo dedica-se a esta outra camada do erro: as reverberações do estado de erro para
além das fronteiras do dispositivo. Não nos ocuparemos de uma hermenêutica destas
representações do estado de erro, no VJing, no design ou na publicidade; seria um exercício
raso e banal. Mostraremos, ao invés disso, como estes temas aparecem em algumas obras já
descritas nos capítulos anteriores. Isto não deve ser lido como um desvio: entenderemos estas
reverberações como uma continuação do que descrevemos no Capítulo 3, para além do
escopo que determinamos então.
Um dos temas é a subversão; um erro, como desvio de uma norma, é por definição
subversivo. Procuraremos este tema na obra de Ant Scott e de JODI; apresentaremos também,
a partir da leitura do poema The Story of Mel, uma discussão da associação entre subversão e
erro na cultura hacker. Para empreender esta discussão, precisaremos, primeiro, de uma rápida
introdução a alguns conceitos de Friedrich Kittler; e precisaremos fazer algumas ressalvas, no
momento oportuno, pois nossa abordagem aqui não será a mais convencional para o assunto.
Há uma outra associação, surpreendentemente antagônica ao tema da subversão, a ser
endereçada. Moradi escreve:
For those born in the 1980s and earlier, 'nostalgia!' Glitches remind us of a time when
things worked imperfectly. They remind us of artefacts from our childhood. Quite a number
of people I have spoken to over the years, express a longing for a time when our use of
technology tolerated what we now class as imperfection, It seems a proportion of our
memories of using consumer electronics are intertwined with accounts of waiting for things
to load, intermittent crashes and interesting forms of malfunction, usually manifested
visually. The ability to tinker and manipulate things manually also seems to be a quality a
lot of people appreciate. (VECTOR, 2009)
88
O Glitch, segundo Moradi, desperta uma nostalgia pelas máquinas “mais imperfeitas” do
passado – e pela sua materialidade mais evidente, conforme se torna claro no final da citação.
Cory Arcangel (já apresentado em 2.2) dedicou algumas de suas obras à estética do erro e à
relação entre tecnologia e memória. Tentaremos iluminar como memória, esquecimento e
nostalgia, em um contexto tecnológico, entrelaçam-se com a estratégia do erro na obra de
Cory Arcangel.
Há, obviamente, mais espaço a ser explorado; estas são duas de várias reverberações do erro
para além do revelar da materialidade da Informática em sentido estrito. São, apesar disso, as
mais frequentemente exploradas, e as que encontramos nas obras mais conhecidas; ou, pelo
menos, aquelas que chamaram mais atenção no pouco que já foi estudado sobre o erro digital.
89
4.1 SUBVERSÃO
4.1.1 Análise de Mídia do Discurso
Em As Palavras e as Coisas, de 1969, Michel Foucault introduz o método que ficaria
conhecido como Análise do Discurso. A Análise do Discurso é uma estratégia de leitura
histórica que se ocupa não do conteúdo do que é enunciado, ou de seus significados, mas das
condições, em cada época, que determinam o que pode ser enunciado; as condições para o
significado, e não o próprio significado. O método da Análise do Discurso foi aplicado ao
Direito, à Medicina e à Teologia, em uma leitura periodizada em três epistemes: a
Renascença, um período “clássico” e um “período moderno”. A análise do discurso é
sistêmica – busca grandes formações discursivas – e anti-hermenêutica – rejeitando o
problema da interpretação e do significado dos enunciados que estuda. Foucault, além disso,
cria uma narrativa histórica baseada em rupturas, e não em continuidades determinísticas.
Foucault reconhece, em obras posteriores, que objetos técnicos não são neutros, mas contém
em si, também, estruturas discursivas:
Práticas discursivas não são pura e simplesmente modos de confecção de discurso. Elas
acontecem em conjuntos técnicos, em instituições, em esquemas comportamentais, em
tipos de transmissão e disseminação, em formas pedagógicas que as impõem e mantém.
(FOUCAULT, 1997, p. 12)
Este pensamento, contudo, permanece secundário em sua investigação, que se concentra em
arquivos textuais.
Este é o ponto de partida para a crítica de Friedrich Kittler, em Gramofone, Filme, Máquina
de Escrever: Foucault, segundo Kittler, interrompe sua análise precisamente no momento em
que arquivos de áudio, fotografias e rolos de filme penetram o mundo dos arquivos e
bibliotecas. Foucault restringir-se-ia à Galáxia de Gutenberg, um período em que as mídias
90
textuais exerciam um monopólio e durante o qual, por isso, sequer havia um conceito de
mídia. Segundo Kittler, o arquivo de Foucault é sinônimo de biblioteca, em seu método de
pesquisa se não em sua teoria. (KITTLER, 90, p. 369) E isto é um problema, porque “A
análise do Discurso não pode ser aplicada a arquivos de som ou rolos de filme.” (KITTLER,
99, p. 5) Em conseqüência, a Análise do Discurso “não avançou muito para além de 1850”.
(KITTLER, 90, p. 369)
“Mídias determinam nossa situação”, Kittler postula. (KITTLER, 90, p. xxxix) Ao propor
uma Análise do Discurso consciente de mídias (uma Medien Diskourse Analysis, como
coloca Wynthrop-Young (KITTLER, 99, p. xvi); que traduziremos para análise de mídia do
discurso, e não análise do discurso de mídia), Kittler, ao mesmo tempo, expande o escopo da
análise do discurso para os dias de hoje e transforma a análise do discurso em uma análise de
mídias – ao lembrar que as mídias da escrita são, afinal, mídias; e que mesmo a escrita, antes
de resultar em arquivo (o objeto de Foucault), é uma forma de comunicação. Ao fazer isto,
Kittler está apenas tomando aquilo que Foucault aponta na citação na página anterior, e
considerando suas conseqüências – o que o próprio Foucault, segundo Kittler, deixou de lado
na maior parte de sua obra.
O método de Kittler impressiona pelo seu caráter fortemente anti-humanístico e anti-
hermenêutico. Conquanto a análise do discurso de Foucault rejeite a tarefa da hermenêutica,
seu foco em documentos escritos ainda supõe tacitamente, segundo Kittler, formações
discursivas inteligíveis. Esta suposição desaparece em Kittler, que, ao se concentrar em
mídias e em “formações pedagógicas”, pode criar uma análise do discurso que em alguns
momentos parece capaz de prescindir do homem por completo; e que está aberta, muito mais
intensamente, à possibilidade do não-significado. Além disso, Kittler utiliza a psicanálise
Lacaniana para estender o alcance de sua análise até o psicológico, mas não até o sujeito. O
91
anti-humanismo de Kittler é tão ferrenho que, famosamente, ele se recusa a dizer “o homem”,
preferindo, sempre, referir-se a “o assim-chamado homem” (der sogennante Mensch).
Tomemos um exemplo. É fácil entender como o conteúdo veiculado pelo rádio difere em
características essenciais daquele veiculado pela escrita. O rádio não permite, por exemplo, a
digressão em detalhes; não permite que o público retorne e re-veja algo mencionado
anteriormente; precisa, em virtude de sua forma de recepção, capturar o interesse de ouvintes
iniciando a audição a qualquer momento, isto é, precisa ser frequentemente impactante e
tópico. (A grande novidade das mídias modernas, segundo Kittler, é a introdução do
tempo.(KITTLER, 99, p. 3)) O conteúdo da transmissão radiofônica assume uma outra forma,
e é novamente fácil entender como um discurso, por exemplo, sobre política, que se dê
primariamente pelo meio radiofônico será distinto de um discurso que se dê primariamente
por via impressa. O alcance desta transformação é virtualmente ilimitado; e esta percepção é
particularmente penetrante na Alemanha – a ascensão de Hitler é frequentemente associada à
ascensão do rádio.
14
Estas condições sobre o que é transmitido já estão contidas no objeto técnico do rádio; como
Flusser diria, o rádio contém um programa determinando esta transmissão. Mas quando o
rádio foi inventado, seu uso planejado era o de comunicação ponto-a-ponto: que a transmissão
ocorresse por difusão e, assim, que qualquer antena dentro de um certo raio seja capaz de
interceptá-la, era, para Marconi, uma deficiência técnica do sistema, não uma
vantagem.(KITTLER, 1999, p.253) Por outro lado, é inevitável que uma tecnologia de
difusão, eventualmente, seja usada para difusão; e que o conteúdo veiculado se torne o
conteúdo de difusão que origina a “mídia de massa”. A primeira transmissão moderna de
14
“That Hitler came to political existence at all is directly owing to radio and public-address systems. This is not
to say these media relayed his thoughts effectively to the German people. His thoughts were of very little
consequence. Radio provided the first massive experience of electronic implosion, that reversal of the entire
direction and meaning of literate Western civilization.” (MCLUHAN apud GENOSKO, 2005)
92
rádio – com notícias e música – aconteceu nas trincheiras da Primeira Guerra, do lado alemão,
como uma apropriação dos rádios usados para comunicação nas trincheiras. (ibid, p. 95)
Como Kittler exclama, “a indústria do entretenimento é, em qualquer sentido concebível da
palavra, um abuso de equipamento militar.”(96-97)
Mas seria possível acusar esta análise de um determinismo tecnológico simplista; ademais,
não há muita novidade até este ponto em relação ao pensamento de Mcluhan. E quanto a
tecnologias que, embora promissoras, acabaram por não vingar, para serem esquecidas ou
retomadas independentemente muito depois?
15
O problema, aqui, está em uma leitura da
tecnologia em estágio de elemento, e não de agenciamentos: mídias formam grandes sistemas
com uma lógica e uma coerência internas, e não podemos tomar um elemento isoladamente.
Em paralelo às estruturas discursivas de Foucault, Kittler propõe o conceito de
Aufschreibesysteme. Um Aufschreibesystem é “a rede de tecnologias e instituições que
permitem a uma dada cultura selecionar, armazenar, e produzir dados relevantes”. (KITTLER,
1990, p. 369) A definição é bastante ampla: um Aufschreibesystem é constituído das
tecnologias disponíveis e das normas e instituições em torno de seu uso – que serão
discursivas, burocráticas, pedagógicas, sociais; este conjunto deve, além disso, ser entendido
como um sistema (ao invés do entendimento basicamente amorfo comunicado por expressões
como “ecologia de mídias”). A análise dos Aufschreibesysteme da Alemanha em torno de
1800, o mais detalhado por Kittler, parte do monopólio, em certo sentido, da escrita (a assim-
chamada “Galáxia de Gutenberg”), e considera as transformações sobre o sistema da escrita
circundando o período: em especial, as campanhas de alfabetização em massa do século
XVIII e a incorporação das universidades ao aparato estatal, com sua nova função de formar
servidores públicos. Ao analisar minuciosamente como as pessoas aprendiam a escrever; a
15
(ZIELINSKI, 2006) e (NOSENGO, 2008) catalogam exemplos de tais tecnologias.
93
relação com a escrita a que esta educação lhes submetia; e a nova função e o novo
funcionamento da produção e circulação da palavra escrita (tanto para educar o público geral
como pela universidade, agora um órgão estatal), Kittler demonstra que o Romantismo
alemão já estava contido, em gérmen, nestas duas reformas. Kittler parte, portanto, das
condições tecnológicas e institucionais de mídia para mostrar, por fim, o enraizamento da
imaginação de Hoffmann e do pensamento de Goethe nas vicissitudes dos Aufschreibesysteme
de sua época. (KITTLER, 1990)
Sobre o termo Aufschreibesystem: literalmente, traduz-se para “sistema de inscrição” ou
“sistema de notação”; os tradutores para o inglês optaram por verter para “discourse
networks”, “redes de discurso”. O neologismo na verdade não foi criado por Kittler, mas
pertence aos delírios do Presidente Schreber. Schreber delirava com uma grande rede que
tinha acesso a seus pensamentos, e que os catalogava burocraticamente. Sempre que Schreber
pensava algo que já havia pensado antes, ouvia uma voz que dizia: “Já recebemos! Já
recebemos!”; uma alucinação enervante que obrigava Schreber a tentar pensar sempre em
coisas novas. (KITTLER, 1990, p. 290-311) A Análise de Mídia do Discurso procede como
no delírio de Schreber: ela parte do estudo das redes em que informação é manipulada, sem se
perguntar sobre seu significado, até chegar, finalmente, nas práticas discursivas e no papel
humano neste sistema. Apoiando-se em Lacan, Kittler então introduz elementos psicanalíticos
em sua análise sem recorrer em momento algum ao problema do significado e da
interpretação. Kittler considera, por exemplo, as associações mais profundas produzidas pela
pedagogia do século XVIII, em sua expectativa de que a alfabetização seja conduzida pelas
mães (que também, mais cedo, devem ler para as crianças), lembrando que a voz é, na
psicanálise Lacaniana, um “objeto parcial”; em outro momento, Kittler adapta os três registros
de Lacan – o real, o imaginário e o simbólico – para os diferentes sistemas de mídia. Embora
94
elementos da psique humana sejam incorporados à análise dos Aufschreibesysteme – e isto é
necessário, porque humanos são componentes do sistema e por ele programados –, a idéia de
sujeito e o “assim-chamado homem” permanecem fora da equação.
Não temos a pretensão, aqui, de apresentar uma análise de mídia do discurso do século XXI.
Ainda assim, prosseguiremos partindo da hipótese desta análise, e presumimos alguns
princípios kittleristas. Em particular:
1. Uma análise de práticas discursivas deve partir das condições de mídia – isto é, do
estudo dos sistemas em que o discurso é produzido, transmitido, recebido e arquivado;
2. O técnico não pode ser reduzido a um efeito do social, do político ou do econômico,
mas deve ser visto como um sistema semi-autônomo com uma lógica interna; ao
mesmo tempo, o técnico não deve ser avaliado isoladamente, mas sempre dentro dos
Aufschreibesysteme que constitui (que serão técnicos, mas também econômicos,
burocráticos, pedagógicos e sociais);
3. “Mídias determinam nossa situação.” Estando nas raízes das práticas discursivas, as
mídias operam como um a priori da cultura e devem ser assim consideradas. Assim,
um estudo do papel humano nos Aufschreibesysteme deve ser realizado sem abandonar
seu caráter sistêmico, e sem substituí-lo por um estudo interpretativo ou
antropocêntrico do que nele é veiculado.
4.1.2 Subversão Sistêmica
Não há, em Kittler, espaço para uma narrativa simples de subversão; mesmo o
experimentalismo mais radical dos Dadaístas é integrado às transformações das condições de
mídia de seu tempo (KITTLER, 1990, p. 206-264) – tornando-se não mais só uma ruptura na
95
História da Arte, mas, principalmente, um sintoma de uma outra, ulterior ruptura de origem
técnico-institucional.
Há a tentação de um discurso simples de subversão aqui: dizer que como as estruturas de
poder (manifestando-se na cultura, na sociedade, e onde mais quer que se manifestem) estão
fundamentadas em um certo arranjo técnico, interromper o funcionamento convencional deste
arranjo – e celebrar este desvio, esta interrupção – realiza um gesto político de subversão em
larga escala. Ou, pelo menos, que é a melhor representação de o que seria um gesto
subversivo – atacando as estruturas de poder desestabilizando o seu a priori técnico; não se
recusando a obedecer a um comando, mas destruindo as próprias vias porque o comando é
produzido e comunicado.
Seríamos injustos com uma leitura tão simplista. Se vemos um discurso de subversão aqui, é
porque o próprio Aufschreibesystem já contém em si as estruturas para esta subversão. Em
outras palavras: assim como o estado de erro, como dito no Capítulo 2, é constitutivo do
sistema – participa da própria identidade do objeto técnico – também esta subversão está
igualmente contida no Aufschreibesystem. Discutiremos isto mais adiante quando falarmos de
JODI novamente.
Ainda assim, há um discurso de subversão inevitável no tema do erro. Estamos, afinal,
falando de desvios da “normalidade”, do comportamento que foi “programado”; falamos,
além disso, de algo cuja conotação destrutiva (quebra, defeito, interrupção) é mais imediata
do que sua conotação reveladora (como no Capítulo 3, em que o erro expõe a materialidade da
máquina) ou generativa (que discutiremos brevemente na Conclusão). Por mais que
queiramos tomar o estado de erro em outros termos, é impossível escapar realmente de suas
conotações de subversão (desobediência a um sistema) e destruição (interrupção do
funcionamento normal; perda de informação). Não descartaremos estas conotações; mas
96
lembraremos que esta conotação é bastante superficial; e que um tema de subversão mais
profundo é encontrado quando enxergamos o dispositivo em que o erro ocorre como parte de
um Aufschreibesystem.
As sub-seções seguintes discutem como o tema da subversão aparece na obra de alguns dos
artistas já discutidos. Em nenhum deles, acreditamos, o tema da subversão é primário – ao
menos em um sentido mais banal de subversão. Ou seja: nenhum deles é primariamente uma
afirmação de cunho político; argumentamos, ao invés disso, que o tema da subversão surge
quase que naturalmente de outras preocupações – em que o enraizamento do político, e não só
do político, no tecnológico acaba por não se deixar evitar, e o erro assume um caráter
subversivo como consequência.
4.1.2.1 As Paisagens de Ant Scott
Retomemos Ant Scott, considerado o pai da “Glitch Art”. Em seus dois quadros “Painted
Skyscrapers”, vemos uma paisagem de arranha-céus, soturna e ameaçadora, sobre a qual o
artista pintou livremente, sobrepondo à paisagem obscura uma colorida aquarela abstrata.
A paisagem soturna é, na verdade, a impressão de um Glitch: uma estrutura cinzenta e
basicamente regular, por cima da qual Scott pintou com aquarela. Paisagens urbanas hostis –
ou Glitches representando tais paisagens - ressurgem na série “Cityscape Photograms”, e em
Air Burst”. Air Burst, segundo o artista, representa uma cidade no momento de uma grande
explosão nuclear – a explosão é representada por uma mancha de chá (o que seria, a rigor,
uma violação do quadro – um erro).
Ant Scott tem uma predileção por paisagens – um glitch é uma “paisagem de dados”, sem um
ponto central em particular. A complicada técnica de Ant Scott – em que uma cadeia de
intervenções e remediações é usada para produzir, ao fim, um objeto que é o legado de todos
97
os meios e técnicas de sua gênese – já foi discutida no capítulo 2. Aqui, olharemos para estas
paisagens de outro modo:
Ant Scott, como vimos, está primariamente preocupado com o apelo visual de suas obras,
como quadros abstratos; e encara o erro como um método, não como um tema de
investigação. Ainda assim, Scott não pôde escapar das conotações destrutivas do erro
computacional. A regularidade de suas paisagens remete a arranha-céus; mas é, antes de mais
nada, a regularidade dos dados, a restritiva e exata regularidade do computacional; e é, por
extensão, toda e qualquer regularidade, toda ordenação forçosa rumo a um homogêneo. Esta
regularidade geométrica, em algumas obras, apresenta a calma de um Mondrian; em outras,
ela é, na melhor das hipóteses, estranho ao humano, e em seu pior abertamente hostil a ele.
O erro digital perturba esta monotonia (em outras partes, a monotonia será desafiada por uma
mudança de mídia, do digital para o mundo analógico das tintas). Mas esta perturbação pode
ser explosiva: não se trata de um re-arranjo criativo, ou da revelação desta regularidade, mas
de algo ainda mais terrível que a paisagem original.
Em outra série, “Machineworks”, encontramos fotografias em preto e branco de operários
trabalhando, distorcidas pelo método do Flat Panel (discutido no capítulo 2), em alguns casos
até o quase irreconhecível. Aqui – numa rara série de Scott com um tema claro e concreto – a
dimensão política do erro é óbvia: a regularidade e exatidão do computacional são
contrastadas abertamente com a regularidade e exatidão da linha de montagem. Perturbar
uma, nesta identidade, é necessariamente perturbar a outra.
Ao mesmo tempo, observamos algo de antiquado neste tipo de subversão, e não é por acaso
que Scott prefere usar fotografias históricas, em preto e branco, no lugar de imagens de
fábricas contemporâneas. Sistemas digitais são, para cada vez mais pessoas no Ocidente,
98
instrumentos de trabalho; fantasiamos uma “era da informação”, ou “pós-industrial”, que não
é mais caracterizada pelo operário na fábrica mas pelo profissional, possivelmente criativo,
diante de um computador. Mas esta identificação – entre a máquina em chão de fábrica e o
computador em um escritório, cada um representando o mesmo “em sua época” – não é tão
fácil.
Como vimos no capítulo precedente, Simondon fala em três estágios de relacionamento com a
tecnologia. O primeiro é o estágio do elemento, em que a tecnologia é uma ferramenta; o
segundo, o estágio do indivíduo. Segundo Simondon, ao estágio do indivíduo pertence o
medo de que o homem esteja sendo substituído pela máquina, ou escravizado pela máquina (a
este estágio pertencem, também, as fantasias de robôs andróides e de uma guerra entre
homem e máquina) – e em resposta a este anseio há o luditismo, a violência direcionada às
máquinas.
16
Nós estamos, agora, no estágio do agenciamento: não encaramos mais a
tecnologia como possíveis mestres ou substitutos – de qualquer maneira, estranhos e hostis ao
homem – mas como grandes sistemas, cujo funcionamento é regulador de outros sistemas
(como o social) e que busca o estado de equilíbrio. As fantasias luditas do estágio do
agenciamento dizem respeito à vigilância constante e à dependência, no dia-a-dia, do homem
à tecnologia: ou seja, um medo de que este sistema regulador venha a se tornar total, que sua
influência sobre os demais sistemas seja sufocante, apagando outros sistemas. Ao retratar
operários em fábricas – uma imagem de uma outra era da tecnologia –, Ant Scott está fazendo
um comentário histórico sobre nossa relação com a tecnologia; não meramente
contemporâneo, mas contrastante entre épocas. Seu uso de fotografias históricas demonstra ao
menos alguma consciência disto.
16
Uma descrição breve e eloquente da história do movimento ludita pode ser encontrada em (PYNCHON, 1984)
99
4.1.2.2 Glitch Browser
Talvez em nenhuma obra a subversão de que falamos esteja tão evidente quanto no Glitch
Browser. Uma colaboração entre Ant Scott, Iman Moradi e o brasileiro Dimitre Lima, o
Glitch Browser é uma espécie de navegador web, que insere pequenas distorções nas páginas
que exibe – tanto no código HTML quanto no hexadecimal das imagens. O Glitch Browser
permite navegar a web em estado de erro – as distorções no código deformam os lay-outs, os
erros nas imagens produzem o típico visual do glitch, etc.
Por certo período, que parece ter terminado, o defacement de websites foi um popular esporte
hacker: invadir um servidor web e fazer alterações na página, que normalmente ficavam
visíveis de alguns minutos a algumas horas, até serem corrigidas pelo webmaster. É uma
manifestação não muito diferente da pichação; e os alvos preferenciais mostravam, via de
regra, uma reprovação do que o website representava (ou, ao menos, um reconhecimento
irreverente e discretamente ressentido de sua importância). Algumas intervenções eram bem-
humoradas, outras abertamente agressivas – mas seu teor subversivo, não só pela invasão e a
intervenção em si, ficavam sempre claras.
O Glitch Browser continua esta tradição, permitindo, simbolicamente, a intervenção em sites
da web; em um segundo momento, podemos nos perguntar quais websites produziriam
visuais interessantes se submetidos aos erros – a dimensão generativa do Glitch –; mas os
primeiros sites que queremos visitar são, justamente, grandes portais e serviços populares,
aqueles que o defacer teria maior prazer em atacar.
4.1.2.3 JODI.org
É possível imaginar um mundo sem um website como wwwwwwwww.jodi.org? Ou, melhor
dizendo: é possível imaginar um mundo em que nenhum artista, confrontado com a web – e
100
com seus vários tipos de código, e com os procedimentos bastante convencionais de criação
de um website, etc. – não pensasse em criar uma página subvertendo todas estas convenções?
Com código propositalmente errado, com um design que parece, também, resultado de erros
de um programador inexperiente, com comportamentos tão inapropriados, para as convenções
da web, que os navegadores acabem travando?
A proposta básica da obra parece óbvia. E como não seria? Seu fundamento está na sensação
de arbitrariedade dos códigos e procedimentos da web. E não só eles são de fato convenções
altamente arbitrárias – cuja lógica pode não parecer intuitiva nos primeiros contatos – mas o
computacional, em si, contem uma arbitrariedade intrínseca: nada em um código
computacional remete a algo fora da máquina; os signos, aqui, apenas conectam-se a outros
signos, do inteligível ao ininteligível, e até, finalmente, a operações invisíveis e inefáveis no
Hardware – que por si só não possuem significado. Esta percepção de arbitrariedade é
necessária para que haja uma abertura para a não-significação: para a manipulação de
símbolos como entes discretos, motivados pelas possibilidades combinatórias e não pela
expressão de um significado.
Kittler traça a linhagem do computador à máquina de escrever.
17
A escrita, naturalmente,
sempre se caracterizou por ser discretizada e externalizada; mas ao libertar a escrita da mão
do autor, e inserir um mecanismo razoavelmente complexo entre autor e texto, a invenção da
máquina de escrever transformou a palavra escrita, de maneira bastante evidente, na
manipulação e arranjo de símbolos arbitrários. Heidegger diz a respeito: “A máquina de
escrever arranca a escrita do reino essencial da mão, i.e., do reino da palavra. A palavra torna-
se ela mesma algo ‘digitado’.” (HEIDEGGER apud KITTLER, 1999, p. 198) E mais adiante:
17
Embora surpreendente à primeira vista, esta genealogia não é imaginativa ou simbólica, mas é narrada com
riqueza de detalhes das primeiras máquinas de escrever até Alan Turing em Gramofone Filme Máquina de
Escrever (KITTLER, 1999, p. 183-266)
101
A máquina de escrever oculta a essência do escrever e do escrito. Ela retira do homem o
privilégio essencial da mão, sem que o homem experiencie esta retirada apropriadamente e
reconheça que ela transformou a relação do ser com sua essência. (ibid, p. 199)
E esta retirada foi a condição essencial para, não muito depois, o nascimento do computador
moderno. Sem esta separação – que, para Heidegger, transforma a relação do ser com sua
essência –, o computador poderia, no máximo, ser uma máquina de calcular no sentido estrito.
Esta “materialidade” do símbolo, aberto à possibilidade de não-significação, pertence ao que
Kittler, adaptando Lacan, chama de Registro do Simbólico: um registro em que os símbolos
remetem apenas a outros símbolos e permitem-se combinar-se entre si, sem uma conexão
ostensiva com o real. (KITTLER, 1999) O Registro do Simbólico é um dos fatos básicos da
Informática; e não é surpreendente que uma das primeiras obras de net.art tenha explorado
este caminho.
Mas wwwwwwwww.JODI.org não é apenas uma colagem dadaísta virtual, ou uma
permutação arbitrária de código. Há algo de hostil em suas páginas, ao ponto que os autores
relatam que muitos tomavam o website, à primeira vista, como um vírus ou outro programa
malicioso. No desvio que os autores fazem das normas do HTML, do Javascript, e do
webdesign em geral, observa-se uma atitude conscientemente destrutiva.
Sua maior evidência está na página inicial. Quando abrimos o website, somos recebidos por
uma sequência aparentemente aleatória de caracteres, em grandes letras verdes, formando
toda um único grande link para a entrada. Quando lemos o código-fonte da página, entretanto,
encontramos, digitado, um esquemático de uma bomba de Hidrogênio.
Novamente, como em Ant Scott, a bomba e a explosão. Naturalmente, o computador não é
capaz de entender o desenho como uma bomba; isto é comunicação humana, uma significação
que é estranha ao mundo de símbolos interconectados em circuito fechado do computacional.
O computador procede normalmente, tratando os símbolos com a mesma arbitrariedade com
102
que todo símbolo é tratado; o resultado, um arranjo incoerente de caracteres, pode ser lido
como os escombros deixados pela explosão. E talvez o resto do website, também, são
escombros desta bomba de Hidrogênio – isto é, da incapacidade da máquina de entender a
linguagem humana, da arbitrariedade cega com que manipula os dados que lhe são
alimentados: de sua fundamental não-significação.
A bomba, aqui, é de qualquer maneira negativa, destruidora. Ao perturbar os códigos e as
convenções, ela não nos leva a uma liberdade maior, nem evidencia novas possibilidades: o
que ela produz é non-sense, são escombros.
Como diz Paesmans, um dos membros de JODI, em uma entrevista:
[W]e also battle with the computer on a graphical level. The computer presents itself as a
desktop, with a trash can on the right and pull down menues and all the system icons. We
explore the computer from inside, and mirror this on the net. (apud BAUMGÄRTEL, 1997)
Tomemos agora o exemplo de Untitled Game, uma série de modificações do jogo Quake.
JODI preferem chamar Untitled Game de apagamentos, e não de edições (HUNGER, 2003): o
que fizeram não foi, como é comum em modificações do gênero, a adição ou substituição de
componentes gráficos, mas a remoção de elementos essenciais do jogo, até inviabilizar sua
operação normal. Em alguns dos jogos da série, vemos os cenários de Quake reduzidos a suas
formas mais básicas: uma tela branca com os contornos das paredes em preto, os elementos de
jogo representados por quadrados e círculos pretos. Esta edição torna a dinâmica do jogo – o
seu funcionamento como um aplicativo, um perspective engine, mais evidentes do que na
riqueza de detalhes do jogo original:
So in the whole made-up scenario of figurative illusion all these coded ‘behaviours’ are not
so obvious to the person who plays the game. But when you have a white space and
there’s just a black square and you see that it is not moving for a while and when you come
close to it, it comes up to you then you start to understand the simple dynamics, the simple
tricks of such a code. (JODI apud HUNGER, 2003)
103
Nas edições mais radicais, o jogo torna-se impraticável em absoluto: somos apresentados a
uma tela completamente branca. Ao mesmo tempo, em todas as edições, o áudio do original é
conservado com seus efeitos sonoros violentos, o que funciona como um comentário ao jogo
original e a jogos do gênero: que estamos editando Quake nunca é perdido de vista.
Aqui há a cilada de uma leitura demasiado fácil. Quake é um jogo violento, em que um
atirador precisa exterminar uma população de monstros. Quando pensamos em editar Quake,
a primeira idéia que virá à mente é que a edição seja um comentário à violência (e à “cultura
da violência”, ou algo semelhante) do jogo: uma “desconstrução” da violência e do heroísmo
em Quake. Não podemos, é claro, nos furtar da violência do jogo original em uma
modificação; mas muitas edições já foram feitas neste espírito, e JODI são, em entrevista para
Hunger (2003), decididamente críticos a esta abordagem fácil. Uma outra leitura, muito mais
subversiva, é esboçada: o entrevistador cita Claus Pias
18
, e sua tese de que first-person
shooters não devem ser entendidos por sua representação visual de violência, mas como uma
otimização da interação do usuário com o computador. Os entrevistados apontam que o
treinamento dos reflexos e do reconhecimento rápido tem a sua utilidade militar (e afirmam
que estes programas são usados em contexto militar, não para ensinar tiro, mas para treinar
habilidades mais básicas)
19
, mas que, em geral, concordam com a tese – e que é este
treinamento e esta interação que desejam subverter.
But it is also true that you don’t become a better shooter or killer but I’m sure that you
become dumb, so that your nervous system is more responsive. Your impulse follows
directly to what you see with your eyes. There is no time to think about something. And in
this way we understand games being part of the entertainment industry.
And this is another reason why we use abstraction in connection to the mathematics of the
code. We are interested in how code does represent an illusion - be it an 3-D illusion or an
aggressive illusion or a movement illusion. (…) (JODI apud HUNGER, 2003)
18
Aprofundaremos um pouco a tese de Claus Pias na discussão sobre Cory Arcangel.
19
Pias dedica uma seção de Computer Spiel Welten ao vínculo entre vídeo-games e a psicologia experimental
com fins militares a partir da Primeira Guerra. (PIAS, p.14-22) “A famosa oferta de recrutamento de Ronald
Reagan a jogadores de video-game já é aqui [nos experimentos da Primeira Guerra] antecipada: ‘Only high-score
men should be selected for tasks which require quick learning and rapid adjustements.’” (p. 18)
104
O treinamento para o uso das mídias é, obviamente, um dos fatos básicos da constituição de
um Aufschreibesystem. JODI consideram este treinamento suspeito – emburrecedor, ao
menos – e agrupam esta suspeita com uma aversão, já com sua longa história, de artistas e
escritores diante da “indústria do entretenimento”. Untitled Game expõe os mecanismos por
meio dos quais o usuário é treinado para interagir com a máquina: como um estado de atenção
particular é reforçado por meio de jogos. Este treinamento, como vimos na seção dedicada a
Kittler, tem um alcance imenso e generalizado; questioná-lo, interrompê-lo, expor o seu
funcionamento interior é muito mais subversivo do que perverter qualquer narrativa interativa
de heroísmo e violência.
E não é esta, afinal, a subversão das demais obras de JODI – a interface é alterada, não para
produzir uma alternativa, sugerir outro modo de funcionamento, mas para interromper o modo
de operação normal e evidenciar seus fundamentos? Esta é a evidência da materialidade que
foi discutida no Capítulo 3: mas no Capítulo 3 consideramos apenas um dos lados do
problema, e ignoramos que há um humano (ou “assim-chamado humano”) em interação com
a máquina. Esta subversão que critica o treinamento a que o usuário é submetido, que critica
os fundamentos de sua relação com a máquina, é uma extensão clara dos temas do Capítulo 3.
Ao mesmo tempo, esta perturbação é uma perturbação de todo o Aufschreibesystem, não só
dos discursos e das formações discursivas, mas de sua possibilidade mesma.
20
Não é
surpreendente, assim, que obras como wwwwwwwww.JODI.org pareçam hostis,
confundíveis com programas maliciosos: esta negatividade, todavia, não tem um objeto
simples – não é um protesto político, ou um comentário sobre uma causa específica. É uma
subversão muito mais básica, muito mais profunda.
20
É preciso repetir o paradoxo: ao mesmo tempo, esta subversão está contida no Aufschreibesystem e é uma
decorrência direta da arbitrariedade inerente ao computacional.
105
4.1.3 Os Erros de Mel
O Jargon File é um compêndio de expressões da cultura hacker iniciado em 1975, no
laboratório de Inteligência Artificial da Universidade de Stanford, e depois mantido e
atualizado por diversos autores até sua última versão, de 2003. A princípio, o Jargon circulava
eletronicamente entre alunos e pesquisadores de algumas universidades – em uma época em
que “hacker”, no sentido tecnológico, e a “cultura hacker” estavam restritos à sub-cultura de
um punhado de universidades americanas, ainda antes do advento dos computadores pessoais.
Em 1990, o Jargon File sofreu uma grande revisão, e foi publicado pela MIT Press, creditando
Guy Steele e Eric Raymond como seus editores. (RAYMOND & STEELE, 2003)
Muito já foi escrito sobre a cultura hacker, mas o Jargon File permanece como a principal
fonte primária de suas origens – um documento conhecido por toda a sub-cultura hacker em
tempos em que tal sub-cultura era ainda pequena o bastante para que algo assim fosse
possível. A edição de 1990 – uma época em que a cultura hacker havia crescido para muito
além de suas proporções originais – tentou ao máximo compilar expressões representativas
das várias vertentes que haviam se formado, distanciando o foco original de laboratórios de
Inteligência Artificial em universidades como Stanford, Caltech e MIT. Embora
razoavelmente desatualizado – muitos verbetes caíram em desuso ou referem-se a tecnologias
obsoletas; e ademais é difícil determinar ao certo o que é a cultura hacker dos anos 2000 – o
“Jargon” continua apreciado não só por seu valor histórico, mas como o documento central de
uma sub-cultura.
No apêndice A do Jargon File, dedicado ao “folclore hacker”, encontramos um poema. “The
Story of Mel” era, originalmente, um texto em prosa: uma mensagem publicada na Usenet por
Ed Nather em 1983, e, ao circular eletronicamente de mão em mão, acabou por tomar a forma
de verso livre. (“In other words, it got hacked on the net. That seems appropriate, somehow.",
106
diz Nather.) Em uma discussão sobre que linguagem “programadores de verdade” utilizam,
Nather relata a história de Mel, uma história real sobre um programador dos tempos em que se
programava diretamente em linguagem de máquina. Os editores do Jargon File comentam a
respeito: “In a few spare images it captures more about the esthetics and psychology of
hacking than all the scholarly volumes on the subject put together.” (ibid)
Os computadores para os quais Mel programava eram “drum-memory computers”:
computadores em que a memória era disposta em um cilindro que era rotacionado a cada
instrução. Já existiam, nesta época, linguagens de programação e compiladores que
permitiriam evitar a linguagem de máquina diretamente; mas Mel recusava-se a utilizá-los:
"If a program can't rewrite its own code",
he asked, "what good is it?"
Havia, também, um “otimizador de código”: um programa que procurava uma boa disposição
para as informações no cilindro, para minimizar o tempo gasto com rotações (o que já seria
uma primeira, fina camada de abstração para além da separação essencial entre Hardware e
Software. ) Mel também recusava-se a utilizar o otimizador, preferindo localizar, ele mesmo,
cada instrução no cilindro. Suas disposições, Nather relata, eram sempre mais eficientes que
as do otimizador.
Mas havia outro motivo para Mel preferir escolher ele mesmo a localização física de cada
linha de código. Um programa em linguagem de máquina, obviamente, é apenas uma
sequência de números; mas há uma distinção, na sintaxe, entre os números que codificam
instruções, números que codificam valores, e números que codificam endereços. Tendo total
controle sobre a disposição destes números, Mel podia burlar estas separações: um número
que codifica uma instrução podia ser re-aproveitado pelo seu valor numérico, por exemplo.
107
Mel foi o mais materialista dos programadores, ou, ao menos, o último programador
materialista. Não só seu código tinha um caráter de inscrição – de saber, afinal, o que
exatamente seria escrito e onde exatamente – mas seu código rejeitava mesmo as abstrações
mais básicas: os números de seu código, independentemente da função que exerciam na
operação da máquina, eram tratados ainda como números: e uma mínima abstração, em que
instruções fossem substituídas por mnemônicos (como “ADD” ou “GOTO”) e as localizações
na memória por apelidos, tornaria seu código indecifrável para um ser humano. Mais do que
isso, Mel programava com plena consciência das operações mecânicas da máquina: se fosse
preciso introduzir um atraso entre uma instrução e outra, Mel não utilizava uma instrução de
delay; ao invés disso, Mel posicionava a instrução seguinte imediatamente antes da instrução
atual, aproveitando o tempo que o cilindro levaria dando uma rotação quase completa para
alcançá-la.
Um dos programas mais populares de Mel era um jogo de Blackjack, que era usado em
demonstrações para potenciais clientes. Este programa tinha, contudo, um problema: ao
distribuir as cartas aleatoriamente, ele dava chances iguais para o computador e seu oponente
humano. Os dirigentes da companhia decidiram que seria melhor que o sorteio das cartas
fosse desigual – que o computador trapaceasse em favor do jogador humano – para agradar
aos clientes.
Mel, a princípio, recusou-se a fazer a alteração; argumentado que:
He felt this was patently dishonest,
which it was,
and that it impinged on his personal integrity as a programmer,
which it did (...)
108
Esta desonestidade percebida, e o que ela diz sobre “the esthetics and psychology of hacking”,
é por si só muito interessante. Mel acabou por ceder à solicitação, mas cometeu um erro no
programa: o computador de fato trapaceava no sorteio das cartas, mas trapaceava a seu favor,
não a favor do usuário. Mel não encarou este erro como um descuido: era evidência de que o
seu inconsciente não permitiu que ele escrevesse código a que impunha objeções éticas. A
partir de então, Mel nunca mais editaria o código do jogo de Blackjack.
Depois que Mel saiu da companhia, Nather foi convidado a tentar localizar e corrigir o erro. É
difícil imaginar o desafio que seria encontrar um bug em um código escrito por Mel: um
código radicalmente materialista, engajado com a operação física da máquina, avesso a
quaisquer concessões a um leitor humano. Houve um segmento do código que intrigou Nather
em particular: um loop sem nenhuma verificação de saída, ou um loop fechado.
Teoricamente, um loop desta natureza rodaria suas instruções eternamente – ou até que o
programa fosse interrompido à força – mas o que acontecia, misteriosamente, é que em certo
ponto a execução saía do loop e prosseguia normalmente.
Nather levou duas semanas para decifrar o que acontecia ali; “When the light went on it
nearly blinded me.” Mel havia armazenado os dados nos campos mais significativos; em
consequência, em certo momento – no momento apropriado para a lógica do programa – estes
dados eram incrementados de maneira a exceder o espaço para eles alocado. O resultado era
um erro de overflow, em que o bit menos significativo do campo de instrução era
incrementado como se fosse o bit mais significativo do campo de dados
21
. Este incremento
resultava numa nova instrução: uma instrução de saltar para a linha 0 do programa. E, de fato,
a instrução a ser executada na saída do loop estava lá, e a execução seguia normalmente.
21
Erros de overflow já foram discutidos na seção sobre os Fractais Fracassados.
109
Nather ficou tão impressionado com a astúcia desta operação que sentiu que não poderia
realmente por as mãos em um código desta natureza (“I didn’t feel comfortable / hacking the
code of a Real Programmer”). Preferiu alegar que não tinha conseguido localizar o erro, o que
não foi recebido como uma grande surpresa.
Dois erros são narrados nesta história. O segundo, o overflow que faz o programa saltar para
fora de um loop, coaduna-se com os temas do capítulo precedente: um programador que burla
a barreira entre o material e o virtual (ou entre a operação física e as abstrações construídas
sobre ela) graças à sua familiaridade com a materialidade da máquina. Se nos afastamos
minimamente da operação da máquina – por exemplo, programando em Assembly – o campo
de instrução deixa de ser um campo numérico e torna-se monolítico; o recurso usado por Mel
não pode mais ser controlado, e seu acontecimento é agora um erro: uma subversão da
abstração da linguagem, que ainda pode ser provocada mas cujas consequências agora serão
imprevisíveis. O primeiro erro é de outra natureza. Não se trata mais, aqui, de um embate
entre abstração e materialidade, mas de um descuido humano que só se torna um erro quando
consideramos o propósito do programador humano e a experiência do usuário humano na
outra ponta, e das expectativas dos dois lados sobre o funcionamento do programa. A
materialidade da máquina aqui exerce pouca influência direta.
O segundo erro impressiona Nather por sua astúcia; seu desconforto por fim em editar o
programa é um capricho estético. O primeiro erro tem conotações éticas (tratadas com uma
gravidade que pode surpreender alguns leitores), e é atribuído não a um desvio calculado em
relação a normas, ou a uma limitação material, ou a um descuido, mas ao inconsciente do
programador.
110
Pode ser um pouco arriscado extrapolar o comentário de Mel sobre seu erro ter tido uma raiz
inconsciente: podemos imaginar que isto é dito em um tom jocoso, como uma desculpa para
se livrar da incumbência. Mas ao mesmo tempo, como Nather diz,
You can learn a lot about an individual
just by reading through his code,
even in hexadecimal
De qualquer forma, a idéia de que uma ação não-propositada pode evidenciar um conteúdo
inconsciente não é nova na arte, tendo sido um dos grandes lemas do grupo surrealista ainda
em Zurique. Hans Arp, em um tom decididamente mais sério, escreve:
O acaso apareceu para nós como um procedimento mágico por meio do qual se poderia
transcender as barreiras da causalidade e da volição consciente, e por meio da qual o olhar e
o ouvido interior tornaram-se mais afiados, tal que novas sequências de pensamentos e
experiências fizessem sua aparição. Para nós, o acaso foi a “mente inconsciente” que Freud
havia descoberto em 1900. (...)
A adoção do acaso tinha outro propósito, um secreto. Era restaurar à obra de arte seu poder
primevo (...) Ao apelar diretamente ao inconsciente, que era parte e parcela do acaso, nós
almejávamos restaurar à obra de arte algo de sua qualidade numinosa de que a arte havia
sido o veículo desde tempos imemoriais... (ARP apud RICHTER, p. 57-59)
Mas talvez seja um exagero comparar a participação do “inconsciente” na História de Mel
com o inconsciente da retórica Dadaísta. Nosso interesse maior, aqui, volta-se a um erro cuja
apreciação não consiste, como no capítulo precedente, de um desvelamento da materialidade
da máquina, de uma violação das camadas de abstração e da separação entre Hardware e
Software. E, além disso, de como esta história, até por sua inclusão ao Jargon, tornou-se um
dos principais exemplos da sensibilidade que mais tarde seria batizada de “cultura hacker”.
Uma discussão do tema da subversão na tecnologia não pode se furtar a um comentário sobre
a cultura hacker. Tentaremos tecer um aqui, embora tentaremos ser o mais breves possível:
não é relevante para nós, aqui, que nos distanciemos muito da prática artística, e também não
111
estamos interessados em obras de “hacktivismo” ou semelhantes diretamente, na medida em
que não explorem, diretamente, a estética do erro. O termo “hacker” ganha sua conotação
tecnológica nos anos 60, nos laboratórios de Inteligência Artifical do
MIT,(BRUNVAND,1996) mas só ganha a prevalência e importância que tem hoje nos anos
80. Como Raymond observa, “in the beginning there were the Real Programmers” (ibid) – a
alcunha de Mel no poema. O Jargon File oferece oito definições:
1. A person who enjoys exploring the details of programmable systems and how to stretch
their capabilities, as opposed to most users, who prefer to learn only the minimum
necessary. (…)
2. One who programs enthusiastically (even obsessively) or who enjoys programming
rather than just theorizing about programming.
3. A person capable of appreciating hack value.
4. A person who is good at programming quickly.
5. An expert at a particular program, or one who frequently does work using it or on it; as
in ‘a Unix hacker’. (Definitions 1 through 5 are correlated, and people who fit them
congregate.)
6. An expert or enthusiast of any kind. One might be an astronomy hacker, for example.
7. One who enjoys the intellectual challenge of creatively overcoming or circumventing
limitations.
8. [deprecated] A malicious meddler who tries to discover sensitive information by poking
around. Hence password hacker, network hacker. The correct term for this sense is cracker.
(RAYMOND & STEELE, 2003)
As definições 2, 4 e 6 apenas falam de entusiasmo e competência. A definição 3 refere-se ao
hack value, o valor percebido de uma tarefa de programação sem propósito aparente – ou seja,
que são programadores caprichosos. As definições 1 e 7 retratam um hacker como alguém
testando os limites de um sistema, e criativamente superando ou contornando estas limitações.
Ou seja: um hacker é entendido como um programador que desafia as regras e as convenções
dos sistemas em que programa – como Mel faz, no poema. A RFC 1392 – um glossário
proposto pela IETF (Internet Engineering Task Force) em 1993 – define ainda: “A person
112
who delights in having an intimate understanding of the internal workings of a system,
computers and computer networks in particular.” (IETF, 1993) A oitava definição será
comentada posteriormente.
É um lugar-comum apontar que a cultura hacker não está restrita ao digital. No apêndice
dedicado a “o que é um hack”, apenas um dos três exemplos é digital – um ataque cômico e
extravagante para mostrar aos programadores da Xerox a gravidade de uma falha de
segurança que já havia sido reportada antes. Os outros dois exemplos relatam intervenções em
partidas de futebol americano; os vários exemplos possíveis conectam-se como testes dos
limites e restrições de um sistema, com fins que não são destrutivos nem de lucro pessoal.
O Jargon File descreve a “ética hacker” em dois princípios: primeiro, a crença de que o
compartilhamento da informação é um bem em si mesmo (e, a partir disto, a prática do código
aberto e um esforço para “facilitar o acesso à informação e a recursos computacionais sempre
que possível”); o segundo princípio, de que a invasão de sistemas (“cracking”) é eticamente
aceitável desde que não resulte em danos, roubo, ou quebra de confidencialidade. Ou seja: que
seja motivada por curiosidade intelectual.
Paul Graham (2004) argumenta que a essência do hacking está na desobediência às regras
(unruliness), e enxerga uma conexão bem próxima entre o hacking e o erro. Lembrando que
“hack”, no seu sentido tradicional, traduz-se com boa precisão para “gambiarra” – em
aparente oposição ao sentido tecnológico, Graham nota:
Believe it or not, the two senses of "hack" are also connected. Ugly and imaginative
solutions have something in common: they both break the rules. And there is a gradual
continuum between rule breaking that's merely ugly (using duct tape to attach something to
your bike) and rule breaking that is brilliantly imaginative (discarding Euclidean
space).(ibid)
Graham nota também que este espírito de desafio às regras motivado pela curiosidade
intelectual possui um inevitável teor político; esta desobediência que é a essência do hacking
113
é também, segundo ele, a essência do espírito americano (“Americanness”). Para Graham, não
só a tolerância para com esta atitude é sinal da saúde da democracia americana (e imagina, por
exemplo, como o lock-picking de Richard Feynman durante a Segunda Guerra Mundial,
abrindo cofres para ler documentos, teria sido recebida no lado inimigo); a resistência contra
as leis de direitos autorais em meio eletrônico, que ele descreve como uma rara unanimidade
na cultura hacker, seria a maior evidência do papel político vital de tal sensibilidade em uma
democracia.
Finalmente, um comentário precisa ser tecido sobre o “cracker” e sobre os desenvolvimentos
da cultura hacker nos anos 80. Em suas origens, a cultura hacker estava limitada a laboratórios
em universidades, simplesmente porque computadores só estavam disponíveis em
universidades e em alguns ambientes corporativos. Muitos dos relatos que encontramos desta
época (ou mesmo de antes, como na História de Mel), referem-se à investigação de
computadores como objetos isolados, ou de linguagens de programação – a máquina como
“indivíduo”, no entendimento de Simondon. A existência da ARPANET nesta época não
desfigurou substancialmente este fato.
Com a primeira geração de computadores pessoais, já com a possibilidade de conexão à rede
pelo sistema telefônico, uma cultura hacker nasceu despregada do meio acadêmico: foram
hackers muitas vezes mais jovens, muitas vezes com laços com a assim-chamada contra-
cultura: observe-se, por exemplo, ex-membros do famoso Legion of Doom como Patrick
Kroupa e Bruce Fancher. Esta associação entre uma “contra-cultura” e a figura do hacker foi
propagada por escritores de ficção científica, mais notavelmente Bruce Sterling, que narra a
história desta sub-cultura em “The Hacker Crackdown”.(1992)
Ainda mais notável que esta associação com a contracultura – que fez com que a
“desobediência às regras” do espírito hacker se aproximasse da “desobediência civil” de uma
114
tradição libertária – é uma mudança de perspectiva sobre o próprio objeto tecnológico. Nesta
nova geração, o interesse não está mais na tecnologia no estágio do Indivíduo – o interesse em
truques possíveis com o Hardware, o sistema operacional, a linguagem de programação – mas
com a grande rede da qual estes computadores passam a ser meros terminais. Ou seja: à
tecnologia no estágio do Agenciamento (Assemblage). Bruce Sterling cunhou a expressão
“ciberespaço” para este Agenciamento: uma metáfora espacial que evidencia que a tecnologia
no estágio de Indivíduo não só deixa de ser o ponto focal, mas é reduzida a um substrato – o
interesse está no espaço virtual construído pela interação destas máquinas, tornado possível e
sustentado por estas máquinas.
22
É imediato que uma mudança de interesse para o Agenciamento – ou, mais propriamente,
para a rede – adquire conotações políticas mais fortes. A experimentação passa a ocorrer em
sistemas (seja a rede telefônica, redes de dados privadas ou a Internet) de uso coletivo, de
implicações coletivas, e, muitas vezes, sob domínio de pessoas que não aprovariam tal tipo de
experimentação. É introduzida, pela primeira vez, a possibilidade do crime digital, de se
aproveitar do conhecimento obtido em explorações tecnológicas. Brunvand é taxativo ao
recusar a alcunha de hacker para estes casos:
The cracker definitely does not follow the Hacker Ethic. Even among legitimate hackers
there are those who add to the Hacker Ethic the belief that system-cracking for fun and
exploration is ethically OK as long as the cracker commits no theft, vandalism, or breach of
confidentiality. It is the hacker who uses his skill for these latter purposes who has crossed
over and become a cracker. (1996)
Mas é preciso encarar que nesta geração dos anos 1980, a fronteira entre o hacker – movido
por pura curiosidade intelectual – e o cracker – que se aproveita maliciosamente deste
22
Uma ressalva precisa ser feita aqui. Poucos discordariam que os engenheiros criadores da Internet merecem a
alcunha de “hackers”; esta dissertação não se pretende a uma discussão da palavra “hacker” e suas múltiplas e
conflitantes conotações. Assinalamos aqui tão-somente uma mudança geral de atitudes entre o que a palavra
hacker sugere em fontes como Brunvand e o Jargon File, por um lado, e a posterior conotação diante da sub-
cultura descrita por Bruce Sterling e exemplificada por publicações como TAP, Phrack e 2600, por outro.
115
conhecimento – é muito mais tênue do que a retórica ao redor da palavra dá a entender.
Patrick Kroupa, hacker emblemático desta geração, narra como a cultura de investigação do
começo dos anos 80 rapidamente abriu caminho para uma busca por lucro pessoal, e, mais
importantemente, por notoriedade – não que uma nova geração tenha substituído a antiga, mas
que a geração anterior, nos termos de Kroupa, teria se corrompido. (KROUPA, 1992) Mas
como isto poderia não acontecer, agora que o sistema cujos erros exploramos é um
Agenciamento em que o componente humano nunca, em momento algum, se permite ignorar?
Em suma, o tema da subversão – no sentido de um desvio em relação ao que é considerado
normal, comum, recomendado ou aceitável – esteve sempre presente na cultura hacker; o
fascínio correspondente pelo “erro”, pela falha percebida ou limitação de um sistema, e suas
potencialidades ocultas, é ainda mais nuclear: o hacker, dos anos 1980 ainda mais que dos
anos 1960, é aquele que explora erros. Esta subversão, em um primeiro momento, tem
consequências sociais muito indiretas (a proteção do livre-pensamento que Graham exalta),
mas, assim como em obras de arte que exploram o erro, contém um forte teor metonímico de
subversão: é um molde para a subversão em um sentido político. Uma segunda geração,
encontrando tecnologia em um estágio de Agenciamento, não pôde mais se furtar do
significado político de forçar os limites de grandes sistemas; seu discurso sobre o erro afasta-
se do esteticismo entusiasmado dos laboratórios de Inteligência Artificial e afina-se com os da
contracultura do começo dos anos 1980. Esta transformação é tecnológica – é a mudança nos
sistemas de comunicações que produz o hacker contracultural, ou que obriga o hacker a se
afiliar com um discurso mais ostensivamente político de subversão. Esta segunda cultura
dominou a imagem pública do “hacker” nos anos 1990 – uma cultura do erro tecnológico que
é não apenas política, mas rapidamente criminosa.
116
Inspirados por esta imagem pública, alguns artistas tentarem se associar com a figura do
hacker. É o caso do Electronic Disturbance Theatre, com seu ativismo Zapatista
23
, e da obra
biennale.py de epidemiC e 0100101110101101.org, um vírus criado para a ocasião da Bienal
de Veneza
24
. Com grande liberalidade, o “espírito hacker” é uma condição para a
possibilidade mesma da Arte Digital; mas quando consideramos tais obras, que se associam
ostensivamente com este espírito, encontramos pouca conexão verdadeira com a cultura
hacker – seja a que se origina na academia nos anos 60 ou a que se origina na contra-cultura
dos anos 80. “Hacker” é aí entendido, por fim, em sua acepção na mídia de massa – ainda que
a ladainha sobre o “significado verdadeiro de hacker” seja disparada apressadamente na
primeira ocasião que se ofereça. Em consequência disso, o fascínio do hacker por falhas de
sistemas, pelos estados de erro e suas potencialidades não parece se traduzir em nenhuma obra
de “hacktivismo” e semelhantes. Ao nosso conhecimento, “o que afinal é um hacker” é uma
questão que ainda não foi atacada seriamente na Arte Digital, que ao invés disso se perde, até
hoje, numa glamourização de suas raízes imaginárias. Esta questão pode ser atacada pelo viés
da estética do erro. Enquanto isso, fala-se em “hacktivismo” e em “Arte Hackeamento”, mas
não se ouve, em parte alguma, ecos da história de Mel.
23
(JANA & TRIBE, 2006)
24
Obra em <0100101110101101.org/home/biennale_py/>
117
4.2 CORY ARCANGEL E O FUTURO DA MEMÓRIA
4.2.1 Data Diaries
Data Diaries, de Cory Arcangel, consiste em uma série de vídeos criados alimentando core
dumps diretamente ao programa de vídeo Quick Time Player. Um “core dump” é um arquivo
contendo tudo que está registrado na memória de um computador em um dado momento; uma
colagem de informações, muitas das quais incompreensíveis e fragmentárias (ocasionalmente,
é possível encontrar informação ainda decifrável para um observador humano); uma
sequência binária em que informações sobre texto, imagens, áudio, vídeo e processos
computacionais são postas lado a lado, na equivalência dos dados digitais.
Este é o mesmo método que Ant Scott utilizou para criar muitos de seus Pure Glitches –
alimentar dados binários a um programa que não o convencional para lê-los; e é um dos
métodos mais comuns e populares de Glitch, se tomarmos a comunidade no Flickr como
referência. É uma estratégia simples, até óbvia – provocar um erro utilizando um input
inesperado – mas com implicações notáveis: aponta, como poucas outras estratégias, para a
base comum por trás de todas as mídias digitais: que seja texto, áudio ou vídeo, para a
máquina há apenas dados binários a manipular; e mesmo comandos e dados internos serão
alocados em igualdade na memória, e evidenciados no core dump.
Em sua introdução à obra, Galloway escreve:
What sets Cory's RAM videos apart is that they don't pretend to hinge on the craftiness of
the conversion. Conversion is not what they are about. The conversions here are incidental,
a trivial detail coming ages before the real fun takes place. And because of this, he eschews
the A-to-B instrumentalism of these other conversion-based works. (GALLOWAY, s.d.)
Galloway está sendo eufemístico; falar em conversão de dados, aqui, é uma maneira
completamente equivocada de encarar a obra. O ponto de partida, a primeira coisa a se
aprender ao se aproximar desta obra, é que não é a transição de uma mídia digital para outra
118
mídia digital que interessa aqui – mas que, no digital, a partir de certo ponto, não existem
mídias. Uma parte das informações em um core dump pode ter pertencido a arquivos de texto,
áudio ou imagem; esta associação, contudo, já está perdida antes do processo da obra
começar, e temos apenas um único grande corpo de dados inacessível ao entendimento
humano.
Mas estes temas já foram discutidos no Capítulo 3. Há algo de diferente nesta obra, que dá a
ela uma dimensão que não encontramos em nossa discussão dos Glitches Puros de Ant Scott.
Primeiramente, a origem dos dados é importante aqui (enquanto em Scott, isto é algo que ele
ostensivamente deseja que seja ignorado): são dados de um core dump, o registro do conteúdo
da memória. Além disso, a sequência de vídeos é diária – um por dia, para a memória de cada
dia. (O primeiro minuto dos vídeos, por isso, é sempre idêntico: são informações de sistema.)
E a obra chama-se data diaries: diários de dados.
É como se o computador mantivesse um diário – registrando, de forma fixa (no disco rígido),
em certo sentido exteriorizada, aquilo que sua memória, volátil, modificará instantaneamente,
e perderá em pouco tempo; para que possa ler, do disco, estes dados intactos no futuro,
evitando o esquecimento.
Por que escrevemos diários? Em A Hermenêutica do Sujeito, Foucault descreve os
hypomnemata – anotações sobre “suas leituras, ou as conversas que teve, ou as aulas que
assistiu” (FOUCAULT, 2004, p. 360), escritas para que não as esquecesse. Mas o propósito
deste exercício não é apenas evitar o esquecimento: escrever é recomendado como parte do
exercício do aprendizado, e Foucault cita Sêneca em seu conselho de alternar a leitura e a
escrita. Primeiro, a escrita pode ser útil como leitura para outros, “no que pode ser chamado
(...) de uma correspondência espiritual – uma correspondência da alma de sujeito para sujeito”
119
(361); ela serve para rememorar “as verdades que se passa para o outro mas que também se
necessita em sua própria vida” (361)
25
Foucault observa que há uma diferença fundamental entre os hypomnemata da Antiguidade e
o diário do século XVI. Embora ambos sejam, claramente, tecnologias do self, não há, nos
hypomnemata, autobiografia; registra-se lições aprendidas e pensamentos, mas não se relata o
desenrolar da vida pessoal, o drama da constituição da personalidade. Há, entre as duas
tecnologias, o advento do Cristianismo; e Foucault argumenta que enquanto o propósito de
escrever hypomnemata é tornar-se um sujeito capaz de dizer coisas verdadeiras (véridiction),
o propósito do diário é tornar-se um sujeito capaz de dizer a verdade sobre si mesmo – isto é,
de confessar. (p. 362)
Escrevemos para não esquecer (para ter como rememorar); escrevemos para estabelecer uma
“comunicação da alma de sujeito para sujeito”; escrevemos para reforçar nossa memória. A
escrita, assim, funciona como um suplemento da memória – um suporte exterior contra o
esquecimento e uma extensão de suas capacidades. (Escrevemos, além disso, como um gesto
espiritual em si próprio, na modalidade da confissão: mas esta escrita é de qualquer maneira
uma exteriorização da memória.)
Um alerta contra este suplemento é soado no Fedro de Platão; um alerta que, ademais, já foi
discutido extensivamente, inclusive neste contexto.
26
Sócrates alerta sobre os perigos de
deixar a memória residir exteriormente, e teme que seu efeito será o de um veneno para a
memória, trazendo o esquecimento. (PLATÃO, 2001) Uma oposição entre uma memória
25
A discussão de Foucault restringe-se à Antiguidade, mais precisamente aos tempos de Sêneca.
26
Winthrop-Young e Wutz comentam que “[D]os muitos clichês educados circulando no vórtex crescente
(widening gyre) dos estudos de mídia, o mais persistente pode ser a garantia de que todas as coisas desagradáveis
que podem ser ditas sobre computadores já estão soletradas na crítica à escrita no Fedro de Platão.” (em
KITTLER, 99, p. xiii)
120
interior (anamnese), de um lado, e extensões exteriores da memória, tecnologias do
esquecimento (hypomnemata), de outro, é claramente demarcada.
A impossibilidade, em última instância, desta oposição; e a suspeita sobre o juízo de valor que
Platão emprega formam o que é talvez a tese mais famosa de Derrida. (DERRIDA, 2006)
Bernard Stiegler parte desta crítica de Derrida, e também das considerações de Foucault sobre
o hypomnemata (que foram deixadas por Foucault como esboço) para apresentar uma teoria
sobre tecnologia e memória.
Stiegler postula, primeiramente, que a memória humana é “originariamente exteriorizada, e
técnica desde o princípio” (STIEGLER, “Technics and Time, 2”, 2009), e que é “a
exteriorização que constitui o interior” (ibid). Ressalta-se, contudo, que em Stiegler o conceito
de “tecnologia da memória” é expandido para além dos hypomnemata de Foucault e, em
última instância, toda tecnologia é uma tecnologia da memória.(idem, “Technics and Time,
2”, 2009) Stiegler descreve, por exemplo, a industrialização como um hypomnemata da
produção: ocorre um esquecimento do know-how do artesão, que abandona a anamnese
(memória interior, em Stiegler) e torna-se hypomnese (memória exterior) codificada no
projeto da máquina que o operário opera. Passamos, aqui, da mnemotécnica para a
mnemotecnologia. (STIEGLER, “Anamnesis and Hypomensis”, 2009) O esquecimento –
epimethéia, conseqüência da hypomnese – exerce um papel central em sua filosofia da
técnica.
Apesar de tudo, Stiegler diz, o alerta de Platão sobre o esquecimento por hypomnese é válido
para os tempos industriais: são tempos caracterizados por um esquecimento crescente, uma
vez que tanto produção quanto consumo foram transladados a hypomnese. (Stiegler faz
também comentários sobre a mídia de massa e o conceito de “tempo real”, que omitiremos
aqui.) Para sermos justos, Stiegler demonstra um otimismo ambíguo quanto à Internet e seu
121
potencial para a demassificação; mas estas cosiderações ainda não foram elaboradas, até onde
sabemos. (ibid)
O diário pertence ao que Foucault chama de hypomnemata e Stiegler chama de “tecnologias
da cognição”; às mesmas categorias pertence o computador – e, conforme o digital alastra-se
por todos os ramos da técnica, o computador simboliza cada vez mais a tecnologia da
memória, aquela em que a negociação da memória – que, Stiegler insiste, é uma negociação
política – é conduzida.
Hypomnemata são também tecnologias da individuação, tecnologias do self ou do sujeito. Isto
já é postulado em Foucault, mas em Stiegler ganha uma formulação ainda mais poderosa.
Stiegler, discípulo de Heidegger, assume o princípio de que o ser é historial
27
; mas a história
do ser é sua memória e, portanto, tecnológica. Assim: “a história do ser é a história de sua
inscrição na tecnicidade.” (STIEGLER, 98, p. 4) Em tempos de “industrialização da
memória”, como Stiegler coloca, as conseqüências disso não podem ser sub-estimadas:
A industrialização da memória explora todos os suportes disponíveis, a tendência
tecnológica
28
invadindo todos os materiais (incluindo o orgânico), e por esta razão é preciso
falar de uma identidade biológica différant investindo e sintetizando os embasamentos
somáticos e germinativos da vida humana, que não são mais uma exteriorização apenas
através da organização do inorgânico mas também através da desorganização do orgânico
para reorganizá-lo e neste sentido, é igualmente uma reinteriorização da exterioridade
técnica do ser humano. (...) Não é mais apenas uma questão de ter que abandonar o
modificador “sapiens” depois de “Homo”; agora o próprio título “Homo” está em questão
e mesmo anterior a isso, o próprio zoon. (STIEGLER, “Technics and Time, 2”, 2009, p.99.
Ênfases no original)
A individuação do diário é diferente da individuação no digital, podemos comentar à Kittler.
E vivemos, como Stiegler aponta, em um tempo de reinteriorização da exterioridade técnica,
ou seja, de uma reconfiguração do ser humano, como organismo, por suas tecnologias da
memória. E assim entendemos a obra de Arcangel: uma justaposição entre tecnologias da
27
Optamos por seguir a convenção já consagrada de traduzir “historische”, referente à disciplina sistemática da
História, como “histórico”, e “geschichtliche”, referente à História que é herdada e habitada pelo ser, como
“historial”.
28
Para uma explanação de o que Stiegler chama de “tendência tecnológica”, vide (STIEGLER, 1998, p. 29-81)
122
memória e entre suas particularidades: a memória do digital (cuja codificação e decodificação
já não são mais acessíveis para nós – fato de suma importância para Stiegler (STIEGLER,
“Anamnesis and Hypomnesis”, 2009)), e diante dela o exercício do diário; e o esquecimento
assombrando todas as partes, tal que a volátil memória do computador acabe, ela mesma,
ganhando hypomnemata. Há, nisso, uma individuação da máquina – como nos exemplos do
Capítulo 3, sentimos que conhecemos a máquina melhor – mas a individuação que está em
jogo, ao final, é a nossa: é a memória originariamente humana (e se acreditarmos em Stiegler,
ironicamente uma memória originariamente exteriorizada) que transita pelos pixels coloridos
dos vídeos de Arcangel.
4.2.2 Super Mario Memory
A preocupação de Arcangel com a relação entre memória e técnica manifesta-se também de
outras formas: a nostalgia é, em nossa leitura, o tema preponderante de obras como Super
Mario Movie e Super Mario Clouds.
Ao falar de vídeo-games, retomaremos o insight de Pias já apresentado na discussão sobre
JODI: vídeo-games são otimizações da interação homem-máquina. Naturalmente, não são
criados com este propósito; mas é este o papel que assumem no Aufschreibesystem (Pias é
um estudante atento de Kittler) do nosso tempo: como treinamento e condicionamento.
Pias escreve:
O jogador aparece nesta posição do sistema como device e segundo programa, cujo output
deve ser reativo em tempo crítico (Ação), que deve compreender as conexões pré-definidas
em um banco de dados (Aventura), ou otimizar uma configuração de dados variáveis.
(Estratégia) (PIAS, 2002, p. 6)
123
O jogador é integrado, e subordinado, ao sistema: ele é menos usuário que dispositivo (device,
em inglês no original). As tarefas que ele realiza são tarefas classicamente computacionais,
delegadas a ele como se fossem delegadas a um outro processador em processamento
distribuído: o jogador torna-se um computador secundário e subordinado de um sistema
computacional maior. A função do vídeo-game no Aufschreibesystem é preparar o usuário
para esta função, isto é, ensinar, treinar e condicionar uma relação com a máquina: o vídeo-
game programa seu usuário. (ibid)
Ao entender o vídeo-game nestes termos, rejeitamos, como em nossa discussão de JODI,
preocupações de natureza hermenêutica: não vamos olhar para o “conteúdo” do jogo e tentar
atribuir significado a ele. Como enfatizamos o acoplamento sistêmico homem-máquina em
nossa análise, retornamos, assim, ao mote do trabalho – explorar condições de erro como
reveladoras da máquina e de nossa relação com a máquina.
Super Mario Clouds, de 2001, é resultado de experimentos de Arcangel com apagamento de
dados de um cartucho do jogo Super Mario Bros, para o Nintendo Entertainment System. Na
exploração destes apagamentos, Arcangel acabou por chegar a um cartucho que, uma vez
inserido, exibia apenas um fundo azul – o céu – e nuvens passando. Todos os outros
elementos do jogo não eram mais visíveis.
O apagamento de dados acabou por desmontar o mecanismo do jogo por completo. Se em
outras obras o estado de erro é mais evidente como um desvio de uma operação para outra de
apresentação igualmente sofisticada, aqui o desvio é tamanho que o jogo simplesmente
desaparece.
O que resta, por fim, é aquilo que há no jogo de inerte; isto é, são os elementos que não são
interativos, que o olhar programado do jogador não encara como algo a que reagir durante o
124
jogo. O modo de atenção típico do jogador – “imerso”, reduzido cognitivamente ao seu papel
na execução do programa – não é invocado. Se Arcangel tivesse deixado uma plataforma na
tela, já seríamos reintegrados ao sistema: imediatamente começaríamos a calcular os possíveis
movimentos sobre esta plataforma, a calcular o nosso output para a máquina se Mario
aparecesse caindo do topo da tela; etc. Os elementos deixados são os únicos que são
inteiramente inertes e decorativos; qualquer outra coisa já conteria em si um cálculo de
affordances de jogo. Esta paisagem contemplativa, ainda assim, é imediatamente reconhecida:
como o fundo do programa que educou a geração de Arcangel para entrar no
Aufschreibesystem do século XXI.
A nostalgia é compreensível; não se trata, apenas, de revisitar um jogo da infância – que foi,
para muitos, também um hábito de infância. Ao apresentar Super Mario Bros apagado tal que
o jogo tenha sido completamente obliterado, Super Mario Clouds permite revisitar o
programa sem ter que se submeter novamente ao programa; isto é, permite-nos reconhecer o
programa sem sermos novamente programados por ele. É uma perspectiva privilegiada; e
qualquer elemento que recuperasse o ritmo do jogo, ou as possibilidades de jogadas dentro do
jogo, acabaria por nos retirar dela. A sensação de revelação que esta perspectiva nos traz
explica o apelo comum e imediato que a obra tem – ao menos para uma geração.
Alguns anos depois de Super Mario Clouds, Cory criou Super Mario Movie, já apresentado
no Capítulo 2. A obra é um cartucho de Super Mario, editado tal que, quando inserido no
console, um filme de 15 minutos é exibido. No princípio, encontramos Mario, protagonista do
jogo, sobre uma caixa com uma interrogação. Texto aparece: “AS A VIDEO GAME GROWS
OLD ITS CONTENT AND INTERNAL LOGIC DETERIORIATE.” Algum tempo depois:
“FOR A CHARACTER CAUGHT IN THIS BREAKDOWN PROBLEMS AFFECT EVERY
AREA OF LIFE.”
125
Os pensamentos de Mario são apresentados como texto. Mario não sabe como foi parar onde
está, não sabe se deve saltar – para onde? – ou continuar ali. Depois de alguns minutos de
indecisão, Mario salta rumo ao desconhecido. O que se segue é uma jornada por um cenário
de Super Mario cheio de glitches. Vários artefatos são imediatamente reconhecíveis como
erros (ou seriam produtos de erros em condições normais); o texto (muitas vezes
aparentemente aleatório) tem caracteres distorcidos pelo que também parece produto de erros;
e, em alguns momentos, a tela é inteiramente tomada por longa sequências de glitches visuais,
típicos de erros de hardware de vídeo-game. Música (de Chiptune) toca o tempo inteiro, com
um pequeno motivo melódico repetido insistentemente durante a maior parte do filme.
No final de sua jornada, Mario pensa (por letras na tela, entremeadas por artefatos de glitch):
“THIS WORLD IS STROBING ME OUT. SOMETHING IS HAPPENING ON MY
BRAIN” Logo em seguida, Mario é, ele mesmo, substituído por um artefato de Glitch – e a
narrativa é, novamente e pela última vez, obliterada por uma sequência de glitches.
Há mais interesses em Super Mario Movie do que um comentário sobre mídias. É bastante
evidente que Arcangel buscou imprimir um apelo plástico e um apelo musical à obra. Há
também um apelo emocional imediato em tomar um objeto de nostalgia e mostrá-lo decaindo,
apagando-se, desaparecendo: um mundo de nossa infância ruindo. Porém mais interessante,
para nós aqui, são as conseqüências desta associação: a destruição de dados como
esquecimento; o apagamento de dados fazendo com que Mario sinta que está perdendo sua
identidade; a estranha sensação de encarar um vídeo-game, isto é, uma poderosa ferramenta
de treinamento cognitivo, sem o seu ritmo característico e sem as affordances de jogo que
aprendemos a calcular inconscientemente.
Mas tudo isto, para um observador astuto, já pode ser encontrado em Super Mario Clouds.
Super Mario Movie não adiciona nada a Super Mario Clouds, mas apenas apresenta seus
126
temas de maneira mais óbvia – entre eles, o do erro. Que o erro é um ponto-chave de Super
Mario Clouds pode não ser óbvio à primeira vista; em Super Mario Movie, há erros
imediatamente reconhecíveis como tais o tempo inteiro. A preocupação com memória e
esquecimento, a estranheza diante de um jogo de vídeo-game de que foi removida sua
dinâmica usual – tudo isto é mais claro em Super Mario Movie, mas já presente em Super
Mario Clouds. Há também um tema da relação entre hypomnese digital e a constituição da
identidade em Super Mario Movie que ecoa não Super Mario Clouds, mas Data Diaries.
O leitor deve notar que demos pouca importância para o conteúdo do jogo e das obras em sua
acepção estrita. Não é relevante para nós o que uma paisagem de um céu azul com nuvens
passando, em um contexto genérico, poderia sugerir; e não nos interessa em absoluto a
premissa original da narrativa do jogo, isto é, que Mario é um encanador cuja missão é salvar
uma princesa. É verdade que tomamos como ponto de partida autores que estão interessados
na especificidade das mídias, o que conduz, portanto, a esta abordagem mais centrada em um
Sitz im Leben e menos em uma hermenêutica em um sentido trivial; mas esta escolha não foi
arbitrária, nem uma questão de inclinações pessoais. Podemos apreciar as qualidades
narrativas ou semióticas de um jogo de vídeo-game em condições normais; o valor desta
apreciação, conquanto polêmico, não é de todo descartado nem mesmo por Kittler e Pias –
mas quando nos vemos diante do estado de erro, e portanto da perda dos pressupostos para
esta significação passível de interpretação como animação ou narrativa, o “conteúdo” original
do jogo torna-se inevitavelmente menos relevante do que o jogo em si mesmo, isto é, o jogo
como atividade, mídia e mecanismo; e é fútil insistir em abordagens interpretativas. Da
mesma maneira que, em Data Diaries, a própria idéia de mídia se dissolve na equivalência do
digital (o “conteúdo” que os dados codificam não existe no nível em que a obra opera, e é
equivocado invocar conceitos midiáticos como “remediação” para discuti-la), também ao se
127
provocar erros menos drásticos a um jogo a superfície interpretável é perdida. Acontece
apenas que em Cory Arcangel esta perda é mais drástica, enquanto no Untitled Game de JODI
este apagamento é gradual, e objeto de uma atenção evidente e deliberada (a trilha sonora
conservada sem alterações, por exemplo, aponta claramente para isto). Por isso, optamos por
reservar as obras de Arcangel com vídeo-games para o último tópico desta dissertação: do
ponto de vista de uma estética do erro, estas são as obras mais desafiadoras, e achamos
conveniente sedimentar nossos conceitos e abordagem com os exemplos mais diretos e
explícitos primeiro.
Pois de fato, nestas três obras, Arcangel usa recursos que são clichês na Glitch Art: muitos
frames de Super Mario Movie poderiam passar pela mais banal Glitch Art, e não há nenhum
recurso de que não se encontre um exemplo análogo no capítulo anterior. Seu interesse no
problema da memória e tecnologia, por outro lado, remove destas obras muito das conotações
típicas do Glitch – há muito pouco de agressivo em seu ruído, por exemplo. A materialidade
do vídeo-game é trazida à tona – como em todo experimento com erro, e como postulamos
como ponto de partida – e é, no caso do Movie, explicitamente o tema da narrativa (i.e., a
deterioração de dados em um cartucho antigo); mas a materialidade da Informática aqui
dificilmente chama tanta atenção a si mesma como em Ant Scott, por exemplo, ou mesmo em
JODI. Em outras palavras: a revelação pelo erro é novamente a mesma, no sentido de que se
dá pelos mesmos procedimentos: mas o que este erro revela, desta vez, é algo bastante
diferente. Podemos olhar para o erro e tentar enxergar a máquina, ou o que há ao redor da
máquina, ou procurar um reflexo nosso contido neste erro. Com a memória, ou melhor, o
esquecimento de Arcangel (ninguém sente nostalgia por aquilo de que se lembra), encerramos
esta investigação: mas há, frisamos, muito ainda para se encontrar nesta revelação do estado
128
de erro – e em circunstâncias outras, inesperadas (e o bom erro é inesperado), há ainda muitos
erros, com muito a nos relatar, esperando para serem cometidos.
129
5. CONCLUSÃO
Na introdução, listamos três maneiras de olhar para o erro. Como um gesto de negação; como
um gesto revelador; e como condições generativas. E dissemos que partiríamos da segunda, e
tocaríamos as outras conforme nossa investigação nos levasse a elas.
O erro negativo foi explorado no Capítulo 4: é o inevitável discurso de negação em desmontar
um sistema (embora esse desmontar já esteja contido no próprio sistema, assim como o erro já
está contido no objeto técnico). Mas o outro olhar – o erro generativo – não foi abordado
diretamente em momento algum, embora tenha estado evidente em vários de nossos
exemplos.
Um erro é verdadeiramente generativo. Obras de arte “generativa”, em geral, são produzidas
por algoritmos determinísticos (ou usando uma aleatoriedade cuidadosamente controlada)
fornecidos pelo programador. Não diferem, em essência, de qualquer outra obra de Arte
Digital: apenas impressionam pela exuberância e complexidade de seu output.
Um erro, por outro lado, pode acarretar um momento em que o programador cede controle à
máquina: o que quer que nasça dali não é uma criação dele, mas algo gerado pelo próprio
computador, da qual ele apenas se apropria – e pode apenas creditar-se por ter criado
condições propícias, mas não de ser, propriamente, autor de seu resultado.
Este é um de vários rumos possíveis para além desta dissertação. Tentamos apresentar, aqui,
uma estética do erro – que sirva de inspiração para artistas, mas que, como investigação
estética (e não meramente discussão de técnicas de artista), tenta iluminar mais do que a
prática artística. Um erro é um gesto revelador: ele nos revela a materialidade da Informática.
Esta revelação mostra para nós o que a máquina é, como é o sistema a que a máquina
pertence, e qual é o nosso papel neste sistema. Esta idéia simples, que podemos resumir em
130
duas frases, foi perseguida pelas várias páginas desta dissertação. E ainda assim, sentimos que
pudemos tocá-la apenas de leve: esta é a primeira formulação de um problema, uma
investigação tateante no escuro. O problema do erro é um dos vários problemas cruciais da
Arte Digital, e dos Estudos de Mídia, que carecem urgentemente de atenção.
É possível que a estética do erro se torne uma sub-área da Arte Digital: pelo menos, esta
parece ser a intenção por trás dos proponentes e divulgadores da “Glitch Art”. Esperamos que,
ao menos, esta dissertação tenha conseguido demonstrar o equívoco de se querer isolar uma
estética do erro: não há apenas um problema de fronteiras, mas um problema essencial. O erro
é essencial para uma verdadeira estética tecnológica. Se um desvio em relação ao
funcionamento convencional recebe o nome de erro e outro não, isto é, em última instância,
uma arbitrariedade: são de desvios do procedimento normal, interrupções do funcionamento,
deslocamentos de contexto perturbadores ao dispositivo que a Arte Digital – toda a Arte
Digital –, em última instância, é feita.
131
6. REFERÊNCIAS
ARISTÓTELES. Physics: Book II. 2009, Disponível em < http://classics.mit.edu/Aristotle/physics.html>
Acesso em 15 out 2009
BAUMGÄRTEL, Tilman. We Love Your Computer: Interview with JODI. Nettime, 1997 Disponível em
<http://dusan.satori.sk/i/txt/jodi01.php> Acesso em: 12 ago. 2009
BOLTER, Jay David e GRUSIN, Richard. Remediation: Understanding New Media. Cambridge, MA: The
MIT Press, 2000
BOUCHARDON, Serge. The Aesthetics of Materiality. Electronic Literature in Europe. Bergen: 2008.
Disponível em: <http://elitineurope.net/node/12>. Acesso em: 12 jun. 2009.
BRUNVAND, Eric. The Heroic Hacker: Legends of the Computer Age. 1996. Disponível em <
http://www.cs.utah.edu/~elb/folklore/afs-paper/afs-paper.html>. Acesso em: 12 ago. 2009
CAGE, John. Silence: Lectures and Writings. Hanover, EUA: Wesleyan, 1973. 288 p.
CAMERA TOSS ON FLICKR Disponível em: <http://www.flickr.com/groups/cameratoss>. Acesso em:
27 jul. 2008. O Camera-Tossing é ainda mais recente que a glitch-art, e apesar de ter um círculo razoável de
aficcionados ainda não recebeu, até onde sabemos, atenção acadêmica.
CASCONE, Kim. The Aesthetics of Failure: Post-Digital Tendencies in Contemporary Computer Music.
Computer Music Journal, Boston: MIT Press, v. 4, n. 24, inverno 2002. Disponível em:
<http://subsol.c3.hu/subsol_2/contributors3/casconetext.html>. Acesso em: 24 out. 2008.
DELEUZE, Gilles e GUATTARI, Felix. A Thousand Plateaus. Trad. Brian Massumi. Minneapolis;
University of. Minnesota Press, 1987.
DERRIDA, Jacques. Gramatologia. São Paulo: Perspectiva, 2004.
--- A Farmácia de Platão. São Paulo: Perspectiva, 2005.
--- Structure, Sign and Play in the Discourse of the Human Sciences. Critical Theory Since 1965, pp. 83-
94. Tallahassee: Florida State Univ. Press, 1986.
FERNANDES, J. Code, not Text: For a Poetics of Code Proper. Colorado: Subito Press, 2008. Disponível
em <
http://streamflowconditions.theprecession.org/works.html?url=code_not_text.html&artist=Jos&eacute;
Carlos Silvestre&title=Code, Not Text>, acesso em 08. dez. 2009
FLUSSER, Vilém. Filosofia da Caixa Preta: Ensaios para uma Futura Filosofia da Fotografia. São Paulo:
HUCITEC, 1985.
FOUCAULT, Michel. As Palavras e as Coisas. São Paulo: Martins, 2007.
--- Essential Works, vol. 1. Londres: Penguin Press, 1997
--- The Hermeneutics of the Subject. Nova Iorque: Picador, 2001.
FULLER, Matthew. Media Ecologies: Materialist Energies in Art and Technoculture. Boston: The Mit
Press, 2005. 279 p.
132
GALLAGER, Ryan. A Camera Toss Interview. 2005. <Disponível em:
http://clickykbd.clarkk.net/cameratoss/camera-toss-interview.html> Acesso em: 12. out. 2009
GALLOWAY, Alexander. Data Diaries. Sem Data. Disponível em:
<http://www.turbulence.org/Works/arcangel/alex.php>. Acesso em: 05 dez. 2009.
GENOSKO, Gary. Marshall Mcluhan: Renaissance for a Wired World. Nova Iorque: Routledge, 2005
GERE, Charlie. Art, Time and Technology. Oxford: Berg - Oxford International Press, 2006. 201 p.
GRAHAM, Paul. The Word “Hacker”. 2004. Disponível em <http://www.paulgraham.com/gba.html>,
acesso em 12. out. 2009
HAYLES, N. Katherine. How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and
Informatics. Chicago, EUA: University Of Chicago Press, 1999. 364 p.
--- Writing Machines: Digital Subjects and Literary Texts. Chicago: University Of Chicago Press, 2005.
--- My Mother Was a Computer: Digital Subjects and Literary Texts. Chicago: University Of Chicago
Press, 2005.
--- Electronic Literature: New Horizons for the Literary. Notre Dame: University of Notre Dame Press,
2008
HEIDEGGER, Martin. The Question Concerning Technology. 2009. Disponível em: <
http://www.wright.edu/cola/Dept/PHL/Class/P.Internet/PITexts/QCT.html> Acesso em 10 out 2009
HUNGER, Francis. Perspective Engines – an Interview with JODI by Francis Hunger. 2003. Disponível
em: <http://www.irmielin.org/writings/jodi_games.pdf> Acesso em 10 out 2009
INTERNET ENGINEERING TASK FOCE (IETF). RFC 1392. 1993. Disponível em:
<http://tools.ietf.org/html/rfc1392> Acesso em 10 out. 2009
JANA, R., TRIBE, M. New Media Art. Köln: Taschen, 2006
KITTLER, Friedrich. Discourse Networks: 1800/1900. Stanford: Stanford University Press, 1992.
--- Gramophone, Film, Typewriter. Stanford: Stanford University Press, 1996.
--- Hardware, das unbekannte Wesen. 2009 Disponível em:
<http://hydra.humanities.uci.edu/kittler/hardware.html>. Acesso em: 12 jan. 2009.
--- Literature, Media, Information Systems. Amsterdam: Routledge, 1997. 160 p. (Routledge Series in
Information Systems).
--- On the Implementation of Knowledge: Towards a Theory of Hardware. 2009 Disponível em:
<http://hydra.humanities.uci.edu/kittler/implement.html>. Acesso em: 12 jan. 2009.
KROUPA, Patrick. Voices in my Head: Mindvox: The Overture. 1992. Disponível em:
<http://www.textfiles.com/history/mindvox> Acesso em: 10. out. 2009
MANDELBROT, Benoit. Objetos Fractais. Lisboa: Ciência Aberta, 1998.
MANOVICH, Lev. The Language of New Media. Boston: The Mit Press, 2002.
133
--- Information as an Aesthetic Event. Londres: 2007 Disponível em <
www.manovich.net/DOCS/TATE_lecture.doc> Acesso em: 12. jun. 2009
MEDIAMATIC. My%Desktop: Mediamatic Exhibition 8. 2003. Disponível em:
<http://www.mediamatic.net/page/6182/em>. Acesso em: 05 dez. 2009.
MIRAPAUL, Matthew. Deliberately Distorting the Digital Mechanism. The New York Times, Nova
Iorque. 21 abr. 2003. Disponível em: <http://www.nytimes.com/2003/04/21/arts/design/21MIRA.html>.
Acesso em: 13 abr. 2009.
MOORE, Scott. Toss a Camera. The Washington Post, Washington, DC. 11 dez. 2005. Disponível em:
<http://www.washingtonpost.com/wp-dyn/content/article/2005/12/08/AR2005120801814.html>. Acesso
em: 05 dez. 2009.
MORADI, Iman. GTLCH AESTHETICS. 2004. 85 f. Dissertação (Honors Degree) - Curso de Multimedia
Design, Departamento de Design Technology, University Of Huddersfield, Huddersfield, Inglaterra, 2004.
MORADI, Iman e SCOTT, Ant. Glitch: Designing Imperfection. No prelo.
MORAVEC, Hans. Mind Children: The Future of Robot and Human Intelligence. Cambridge, MA:
Harvard University Press, 1990.
NOSENGO, Nicola. A Extinção dos Tecnossauros. Campinas: Editora Unicamp, 2008.
PIAS, Claus. Computer Spiel Welten. 2002. 265 f. Tese (Doutorado) - Universität Weimar, 2002.
Disponível em: <http://e-pub.uni-weimar.de/volltexte/2004/37/>. Acesso em: 12 out. 2009.
PLATÃO. Fedro. São Paulo: Martin Claret, 2001.
PYNCHON, Thomas. Is It Ok to be a Luddite? The New York Times Book Review, Nova Iorque, p. 1-41.
28 out. 1984. Disponível em: <http://www.themodernword.com/Pynchon/pynchon_essays_luddite.html>.
Acesso em: 05 dez. 2009.
RAYMOND, E. e STEELE, G. (Comp.). The Jargon File, version 4.4.7. 2003. Disponível em:
<http://catb.org/jargon/>. Acesso em: 14 maio 2009.
RICHTER, HANS. Dada: Art and Anti-Art. New York: Thames & Hudson, 1997. 8vo, pp.246
SANGILD, Torben. The Aesthetics of Noise. Disponível em: <http://www.ubu.com/papers/noise.html>.
Acesso em: 27 jul. 2008.
SCHÜSSELE, Bernd. Martin Heidegger und Die Frage Nach der Technik. 1999. Disponível em: <
http://www.hausarbeiten.de/faecher/vorschau/99807.html> Acesso em: 10 out. 2009
SCOTT, Ant. Anti-Fractal. 2001. Disponível em <http://beflix.com/antifractal.html> Acesso em: 10 out.
2009
SIMONDON, Gilbert. On the Mode of Existence of Technical Objects. Londres: University Of Western
Ontario, 1980.
STERLING, Bruce. The Hacker Crackdown: Law and Disorder in the Electronic Frontier. Nova Iorque:
Bantam, 1992
STIEGLER, Bernard. Technics and Time, 1: The Fault of Epimetheus. Stanford: Stanford University Press,
1998. 316 p.
134
--- Technics and Time, 2: Disorientation. Stanford: Stanford University Press, 2009. 288 p.
--- Anamnesis and Hypomnesis: Plato as the first thinker of proletarianisation 2009. Disponível em:
<http://www.arsindustrialis.org/node/2923>. Acesso em: 12 abr. 2009
STRICKLAND, Edward. Minimalism: Origins. Bloomington: Indiana University Press, 1993.
TURING, Alan. The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial
Intelligence, and Artificial Life Plus The Secrets of Enigma. Oxford: Oxford University Press, 2004.
TURKLE, Sherry. Life on the Screen: Identity in the Age of Internet. New York: Simon & Schuster, 1995.
VECTOR. Porto: Virose, v. 6, jun. 2008. Disponível em: <http://www.virose.pt/vector/>. Acesso em: 15
maio 2009.
WELLS, Richard. Applied Coding and Information Theory for Engineers. New Saddle River: Prentice-
Hall, 1998
WILSON, Stephen. Information Arts: Intersections of Art, Science and Technology. Boston: MIT Press,
2003. 969 p. (Leonardo Books).
WOLFRAM, Stephen. A New Kind of Science. Champaign, IL: Wolfram Media, 2002.
YAMAGUCHI CENTER FOR ARTS AND MEDIA, Without Records. 2008. Disponível em
<http://otomo.ycam.jp/contents_en/without-records/> Acesso em 10. out. 2009
ZIELINSKI, Siegried. Deep Time of the Media: Toward an Archaeology of Hearing and Seeing by
Technical Means. Boston: The MIT Press, 2006.
135
7. APÊNDICE 1: Entrevista com Ant Scott
[Jose]
I gather from your previous interviews that you value the plastic effect of your glitch art
works - whether the work looks pleasant in a visual sense - very highly, perhaps higher than
more conceptual concerns. Am I correct in stating this? How important is it to you that these
works are "glitches" - errors, or at least very unorthodox visualizations of computer data and
operations?
[Ant]
Yes, the purely visual qualities are more important to me than the conceptual aspects. I can explain
why, but first - could you tell me - is this is an old-fashioned view? And does it suggest a lack of
artistic sophistication, or seriousness of intent?
[Jose]
Academics thrive on this kind of conceptual analysis, so it is easy to understand why they would
favour the artist who's willing to do their work for them. One of the things that attracted me to Glitch
Art is that many artists are designers by trade and are unencumbered by this expectation of pre-
formatted "Artist Statements" and other demands of academia - demands which I, as a practicing artist,
find quite misguided and limiting. So answering your question, it is certainly unfashionable in some
circles, but I would not call it "old-fashioned" (as in "dated") or unsophisticated. I do suspect you have
one or two things to say on this front, though. ;)
[A]
OK, super, I'm all for the unfashionable :) In the vein of Tom Moody's article [via your blog], I make
art with computers (mostly), but am most definitely not a new media artist or software artist or net
artist, heaven forbid. So that affords me some wiggle room to escape the death grip of the conceptual
artist statement! I'm gradually learning, very slowly, a bit about how to make visual art and how to
connect with people's brains. Hopefully that is a worthy goal. To me it's a problem in applied
mathematics and human psychology. My old art teacher at school (when I was 14-15) called the
assignments "problems" and our drawings the "answers". So it's like a puzzle to be solved. Interviews
with Bridget Riley are fascinating - she is an extreme analytical experimenter. I'm not generally one
for role models, but if I had to choose one for art, she'd be mine!
Now, this might sound a bit wrong, because I think I'm supposed to be the guy that's always crashing
computer software and visualising data! The thing is, I've been doing much less of that since around
2006. I've got enough examples now of different-looking glitches to extrapolate into the future - I sort
of know what I like, and what particular structural (geometric) aspects of glitches seem to resonate
with people. The colours are very, very, very important too. OK, most of the recent stuff is black and
white photograms, but with the older coloured glitches, it's great fun to adjust the colours to try and get
a sense of forboding, or end-of-the-world fantasy. This comes from the connotations with early home
computers which had a limited colour palette of saturated colours, so when they crashed in a big
pixelly glitch, it was a terrifying visual assault! The slightly disturbing thing is that at the age of 9 and
10, I was writing programs to visualise the RAM with different strides through the data , purely on the
basis of how it looked, so I was definitely tuned in to the aesthetics of that kind of thing from the start.
One of the exact same programs I used then was used for the Chroma and Warp series. Anyway, after
that, it lay dormant for about twenty years, until 2000, when the chance discovery of Jasia Reichardt's
'The Computer in Art' (pub.1971) rekindled these childhood memories.
136
[J]
> How important is it to you that these works are "glitches" -
> errors, or at least very unorthodox visualizations of computer data and
> operations?
Less so now. It was important to begin with, because it's good to have rules to push against. Without
rules you're lost! But now I'm happy to use strips of paper and rusty bits of junk to make photograms
with, provided that the process is heading in a definite direction. These are experiments along a path -
enjoy the journey! I'm experimenting with the idea of correlation. Visual correlation between different
parts of a surface, because that is one of the properties I've extracted from the glitch experiments.
Another aspect is to make my images a bit less abstract. I've been doing abstract cityscapes and
buildings, and have used a ring device to represent either the sun or moon. Why? Because I read
somewhere (I forget who) some artist saying that abstract art should be an abstraction _of something_,
which I thought was pretty neat and seemed like an interesting problem, so I've adopted it. And the
ring device I adapated from a British artist called Paul Davies, who uses a solid disc to represent the
sun or moon. A ring (or an annulus to be technically spot-on) has a greater ratio of edge-to-area than a
disc, which is also a geometric property of solid shapes that get glitched, so that's gone into the mix
too. It's fun, because now it's more accessible to people who aren't just digital artists. What I'm doing
is sneaking the glitch in under people's noses! If you go for the head-first approach, you fail. But now
there are people in their sixties who have my glitch works hanging on the wall, because they look like
cityscapes. A puzzle to be solved. Geometry and psychology. It's quite interesting to play with this
stuff.
[J]
There is a tension there I would like to address. On the one hand, there's the problem-answer relation
you spoke of - the artist carefully picking colours and effects with an end result for the audience in
mind. On the other hand, there's something inherently unpredictable about Glitch: from some point on,
the machine takes control and you can only hope for a fortuitous accident. Glitch is generative, as
Mitchell Whitelaw has put it. And I'm led to think that this unpredictability is an important part of the
whole enterprise: the same images, had they been produced by more deterministic methods, would be
less interesting. So, there is artist's control on one side, and a leap to the computational unknown on
the other. How do you cope with this ambivalence?
[A]
Let me skip to this word 'generative' first. To me it represents the idea of a classical mathematical
algorithm with a handful of input parameters that can be tweaked. If you're looking to describe a
process by which glitches occur (describe the outcome by describing the process) then I believe
'generative' doesn't quite cut it. I think it boils down to a question of complexity versus the capacity of
the human brain. For example, let's take a computer-generated fractal as an example of a generative
process, such as an L-system. So you have a rather complicated-looking object in front of your eyes.
But you'll probably be able to discern that something's made it following some rules, even though it
doesn't look classically 'regular'. OK, now imagine a typical software crash where you get some crud
on the screen, or actually perhaps a better example is the visualisation of an area of RAM as a
rectangle of pixels. Again, we have a complicated-looking visual soup, but you probably won't have
the same feeling that this image was part of a sequence of images that were being generated by some
rules. However, that is precisely what it is. The rules that are being followed consist of many separate
threads of execution, each thread following a deterministic set of machine code instructions, and with
137
lots of race-conditions occurring, which is a layer of temporal complexity. So the whole thing is
'generative', but with a _very_ complex set of rules, so complex in fact that the brain gives up and
rationalises it as being 'random', or if you get a nice-looking glitch or bit of data visualisation, as a
'happy accident'. So the point is, at the risk of contradicting myself, this type of computer-generated
glitch is generative, but I'm not confident that that's what people mean when they use that word. Just to
over-emphasise the point, to describe the generative rules for a computer 'glitch', you need all the rules
for the whole computer, so you start by describing the rules for the execution pipeline, the instruction
set, the registers, the arithmetic units, etc etc. That isn't generative art! Or am I splitting hairs, Jose?
It's a good question, and yes, there is tension. Being a pragmatic sort, I know that by engineering
situations in which random, or rather, deterministic-yet-very-complicated things are encouraged to
happen, I can gather rich visual material containing levels of complexity, beauty and interest that I
could never conceive of making 'by hand', ie. without the assistance of these tools. However, I find
myself getting increasingly frustrated these days with the images never being quite right, because I
haven't got enough control. The only solution I can think of so far is to make lots of experiments, and
hope a few good ones emerge. It's not very efficient,and I don't like the idea of throwing mud at the
wall and hoping a few nice splodges appear - it's not very 'Art' is it?
So, with the first set of glitches I did, I used the computer to make them, but I selected the ones I
preferred, cropped them exactly how I wanted, and changed the colours. These three processes might
seem trivial, but it's important to make the point that a human mind was involved! I'm reminded of
Ken Knowlton's views on computer _assisted_ art, which, to roughly paraphrase are: use the computer
for what it's good at, but don't let it make all the artistic decisions. In any case, the triviality of these
three processes was their strength, because they didn't allow the glitches to get altered very much.
These were the rules I operated within, and they were the _only_ processes allowed, so we come back
to the idea of pushing against rules, which I'd like to give an example of, but first I need to describe
the mathematical idea of 'injective map'. (Bear with me!) When changing the colours in a glitch, I was
actually changing the colour palette, so if I changed red to blue, then _all_ the red areas changed to
blue in the whole image. So, I mapped the colour palette to a different palette, and it had to be an
injective mapping, which means that two different colours in the original palette couldn't be mapped to
the _same_ colour in the new palette. What this means intuitively is that edges don't get lost in the new
colour scheme, so the image remains essentially the same. However, despite this self-imposed rule, I
could cheat! If I felt, artistically, that a glitch was too complicated-looking and I wanted to erase some
of the edges, I could make a new palette which included colours which looked the same, but were not
quite the same. OK, big deal. But then I found a more interesting solution, which was to create palettes
which included pairs of colours of equal perceived value. These are the sorts of colours, which, when
placed next to each other, appear to swim in-and-out, and your brain can't quite tell where the
boundary is. So, again, the effect of this was to simplify glitch images, but staying within the rules.
Glitches usually have a high ratio of edge to area, so this technique worked well enough for them.
I've digressed, so, returning to your question briefly in the context of my other experiments, there's
always an element of unpredictability in the process. The photograms are a nice example, because you
never exactly know how they will turn out until they've been developed. Even if we take the most lo-fi
ones, the cityscape photograms where I made the 'buildings' from strips of paper which I moved
inbetween multiple exposures, there's a huge element of unpredictability because everything's invisible
whilst you're making it. Currently my most fruitful area appears to be using the computer screen to
make photographic exposures, because there I've got lots of control over the glitchy images I like,
allied to the analogue unpredictability of the photographic process, which produces effects that I could
never have imagined. I embrace it all, but chuck out the rubbish and keep the better stuff. But it's fair
to say, the work I produce is very hit-and-miss, but I end up putting most of it on my website anyway
because I'm interested in the feedback, which brings us back to the human psychology side.
[J]
138
" It's not very efficient,and I don't like the idea of throwing mud at the wall and hoping a few nice
splodges appear - it's not very 'Art' is it?" This was the method of Abstract Expressionism, and its
practitioners also had varying approaches to this control-chance dilemma. This is a parallel I would
like to bring up again later, so let's hold it for a while. :)
As for the generative tag - well, I personally think that in a sense all Digital Art is "generative," in the
sense that the machine produces the final output by following a set of instructions it has been given,
assembling and reassembling sub-sets of data. This is what Manovich has called the "Database
Aesthetics" of the Digital Arts. We don't call all of it generative though, so there is some hair-splitting
to be done. I really like your definition (complexity vs capacity of the human mind to deduce the
process, the sets of rules themselves coming into focus, etc.), and I'm afraid I don't have anything to
add to it!
It is interesting you have chose fractals as an example. I have myself experimented with glitching
fractals - seeing what happens when a familiar fractal algorithm is made to face its computational
limitations by incurring in arithmetic overflow errors - and I learn you had intense interest in fractal
mathematics and art before you moved on to glitch. You have even defined Glitch as "anti-fractal art,"
and many themes seem to recur here and there (the "generative" issue being an example). So: do you
think this background with this most rule-based, generative (in the strictest of senses) art has
influenced your later approach when working with its very opposite? Also: I think fractal and
generative art also tend to discount the materiality of the machines - it's more about mathematics and
the virtual than about using a specific calculating machine to create art. I toy with the idea that Glitch
takes the very opposite route and emphasizes that computers are "general purpose" computing
machines, and all that it implies. Where do you stand on this?
[A]
OK, we can return to Abstract Expressionism, as I think there's a material difference in approach.
I think there is some ambiguity over the use of 'generative' versus 'deterministic'. But despite my rant,
it's probably not very important or interesting - we all get the gist of what we're dealing with. After all,
we're not in the software art camp here :)
It is true, in my first ever blog post in 2001, I did set up glitch as the opposite evil twin of fractal. Or
vice-versa. And I completely agree with your analysis of the focus on computers or mathematics
according to whether we're in glitch or fractal territory. Can I be nit-picky about saying fractals are
'virtual'? I see mathematics as being a very concrete thing, which exists independently of discovery,
though I'm not sure I'd label myself a Platonist. My take on it is that fractals are 'real' and glitch is
'artificial', for the reason that computing hardware and software are man-made and involve many
arbitrary decisions, which is why one nucleus of human endeavour creates WIndows, and another
creates OSX.
Of course, this battle between fractals and glitches is tongue-in-cheek. When I was a student, fractals
were like magic, and for exactly the same reason that I now like the glitch:- at the time, it was the best
idea around to produce images of complexity and beauty that could not be otherwise conceived. After
a while, I got bored of it all. Maybe I'll get bored with glitches, but I feel it's a broad enough concept to
keep interested in if you don't settle for capturing jpeg artifacts or video codec errors forever!
I think I can say that the earlier experience of playing with fractals (I didn't do 'Fractal Art' as such)
hasn't had any bearing on the glitch stuff. There was an eight or nine year gap inbetween in which the
only art I did was potato prints.
139
[J]
You have recently experimented with other media, so that your interest is glitch, I take it, is not
limited to situations constrained by the arbitrary decisions behind computational devices, or even to
the computational itself. As you are aware, I have looked into Art History for earlier examples of an
aesthetics of error - works dealing with accidents, imperfection, etc. Could you elaborate on the
"material differences in the approach" you have found in your own work as you shifted through media,
and that you see between works in modern media and in works in traditional media, such as in Action
Painting or Abstract Expressionism? I was planning to leave the parallels in Art History for later, but
since we have landed on theme of specificity of media it becomes kind of pressing - I will second-
guess myself here if you don't mind. :)
[A]
You mentioned Abstract Expressionism in the context of control and chance, which is a fair
observation, but don't you think glitch is much more like photography than painting? In the sense that
you explore the (computer) environment, wait for something interesting (glitchy) to happen, (screen-
)capture the whole image at once, and if it's a dud, you bin it. At least with Action Painting for
example, no one gestural mark has the power to ruin the whole canvas - this is what I was thinking of
as being materially different from glitch art.
Sure, I have experimented a tiny bit with painting (which I didn't enjoy at all) and a fair bit more with
photographic methods. I'm 99% sure it's the visual effect of glitches that appeal rather than the process
by which they're made. The computer is a great tool, as I mentioned earlier, for giving you raw
material, and it's very seductive, but ultimately it feels limiting. As Per Platou said - you can't make a
glitch on purpose - so if we glitch practitioners are cheating anyway in setting up situations that are
conducive to glitches, then why not go all the way and admit there's a sort of output you're
preferentially seeking, and just make it directly? And once we reach that conclusion, it doesn't matter
whether you use paint or paint.exe. This is coming out a bit muddled. Please ask simpler questions.
Direct the difficult ones to Iman.
[J]
Indeed we have ventured into pretty muddled territory, but I have found the conversation quite
enlightening. (And the questions you shot back were pretty hard as well, I'll let you know. :) ) We have
come full-circle to my first question, but before we come to a halt I have one last question, which is
less theoretical but perhaps more difficult to answer:
In "Skyscrapers," "Painted Skyscrapers" and "Cityscape Photograms" you have portrayed urban
landscapes in glitch art works; "Air Burst" presents again an urban landscape as it is X-rayed by a
nuclear air burst. The theme of urban landscapes recurs in "Primitive Operation," and "Air Burst" can
be compared to the threatening chaotic sun in "The Sun Will Kill You." "GL:QU" glitches a ten pound
note, and "Lynmouth" glitches a natural landscape. Skyscrapers are reminiscent of data
representations, and resonate well, in my opinion, with the idea of ordered data versus glitch;
explosions and computer errors are also easy to associate with one another. Glitching money might be
read as a statement; taking a riskier route, the recurring theme of landscapes also seems to me to be
akin to Glitch - whose general appearance suggests "landscapes" of data rather than a portrait of a
particular object. Am I way off here? How did the choices for subject matter come about? Do they
precede the more formal decisions, or do they derivate from an option for Glitch aesthetics?
[A]
140
GL:QU is the odd one out, just ignore that. As for the others you list, yes, there is a growing theme of
mildly threatening urban landscapes! The rectangular forms suggesting man-made structures feel like
a natural home to glitches of the classic 'slip and slide' variety, which are ubiquitous in the natural
world too, crystals, rock strata, striations and the like. The ones in the Glitch series have no intentional
real-world ideas behind them, although I remember thinking that one of them reminds me of tower
blocks with aerials on the roof (#08). 'Landscapes of data' is very neat. You could say, following the
glitch-as-photography metaphor, that it is indeed a landscape in that sense.
(question - not sure what is meant by "option" in this line...."derivate from an option for Glitch
aesthetics")
[J]
I meant to ask: had you already decided that you were doing Glitch Art and consciously looked for
appropriate subject matter - then arriving in urban landscapes and so on -, or did you decide upon
these themes and worked out from there? Or am I posing an egg-or-chicken-dilemma?
[A]
When I started doing the flat-panel photo exposures with a moving image in 2005, the first set I called
Generatives, which were quite free-form and difficult to control, so then I restricted all movement to
the vertical direction only. In this mode, the software was pulling apart solid rectangles, like stretching
a lump of chewing gum with your fingers until it delaminates into stands. The way they turned out
looked like (very unstable) skyscrapers, and I thought it would interesting to give them this name,
something very literal and concrete for a change. It gives the viewer a way in to the image, even if
they decide on a different interpretation, trees or canal boats or people etc., and it's really nice when
that happens. So that's how the urban theme gradually emerged. Besides, the contrarian in me likes the
idea of incorporating the arcane imagery of glitch into something really commonplace and accessible
like landscapes. But to keep the theorists happy, the juxtaposition of glitch and the built environment
is so pregnant with potential concepts, it's like shooting apples in a kettle. It's probably not even worth
verbalising some of them is it? Please say no.
141
8. APÊNDICE 2: Código de Failed Fractals
/* Failed Fractals: a code poem
Jose Carlos Silvestre, 2008
*/
PImage img;
int radius = 1500000;
int c_rel = 1;
int c_ima = 1;
int x, y;
int turn = 0;
void setup()
{
size(600, 600);
}
void draw()
{
background(255,255,255);
img = createImage(600, 600, ARGB);
for(int i=0; i < img.pixels.length; i++) {
x = (i % img.width)*2;
y = (i/img.width)*2;
int cor = 0;
int r = 0;
while(cor < 6 && r < radius) {
int x2 = x*x - y*y + c_rel;
int y2 = 2*x*y + c_ima;
cor++;
r = x2*x2 + y2*y2;
if (r > radius) {
break;}
else {x = x2; y = y2;}
}
switch(cor) {
case 1:
img.pixels[i] = color(0, 0, 0); break;
case 2:
img.pixels[i] = color(100, 100, 100); break;
case 3:
img.pixels[i] = color(130, 130, 130); break;
case 4:
img.pixels[i] = color(170, 170, 170); break;
case 5:
img.pixels[i] = color(200, 200, 200); break;
case 6:
img.pixels[i] = color(220, 220, 220); break; }
142
}
image(img, 0, 0);
// this part varies the parameter c to create
// the animation. it watches for c itself to
// overflow to switch turns.
switch(turn) {
case 0: if(c_rel > 0) c_rel*=2;
else {c_rel=-1; turn=1;}
break;
case 1: if(c_rel <0) c_rel*=2;
else {c_rel=1; turn=2;}
break;
case 2: if(c_ima > 0) c_ima*=2;
else {c_ima=-1; turn=3;}
break;
case 3: if(c_ima <0) c_ima*=2;
else {c_ima=1; turn=4;}
break;
case 4: if(c_ima > 0 && c_rel > 0) {c_rel*=2; c_ima*=2;}
else {c_ima=-1; c_rel=1; turn=5;}
break;
case 5: if(c_ima < 0 && c_rel > 0) {c_rel*=2; c_ima*=2;}
else {c_ima=1; c_rel=1; turn=6;}
break;
case 6: if(c_ima > 0 && c_rel > 0) {c_rel*=3; c_ima*=2;}
else {c_ima=1; c_rel=1; turn=7;}
break;
case 7: if(c_ima > 0 && c_rel > 0) {c_rel*=2; c_ima*=3;}
else {c_ima=1; c_rel=1; turn=8;}
break;
case 8: if(c_ima > 0 && c_rel > 0) {c_rel*=15; c_ima*=2;}
else {c_ima=1; c_rel=1; turn=9;}
break;
case 9:
turn = 0; noLoop();
break;
}
delay(150);
}
void mousePressed() {
loop(); }
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo