A terceira mesa do I Colóquio de Humanidades Digitais teve como título “Algoritmo, estética e subjetividades”, contando com a presença de Profa. Fernanda Bruno (UFRJ), Prof. Edgar Lyra (PUC-Rio) e o pesquisador Pedro Maia (Geneva Graduate Institute). A moderação foi realizada pela coordenadora geral do Laboratório de Humanidades Digitais da PUC-Rio, a Profa. Monah Winograd. Durante a mesa, os professores convidados discutiram diferentes maneiras de relacionar abordagens estéticas e transformações de subjetividades frente à contínua relevância das tecnologias digitais e algoritmos na vida cotidiana.

*

Abrindo a mesa, a Profa. Fernanda Bruno discorreu sobre o que denominou tecnopolítica da falha; seu objetivo era discutir as formas pelas quais as falhas tecnológicas interpelam a política. Considerando que falhas podem ser oportunidades metodológicas e epistemológicas para entender a tecnopolítica, a Profa. Fernanda argumentou que estudar e compreender as maneiras pelas quais as falhas se dão pode ser bastante produtivo para contestar o modo de funcionamento da racionalidade algorítmica, tornando-a mais permeável a negociações.

Tendo como ponto de partida o fato de que as promessas realizadas pela revolução digital não foram entregues, a Profa. Fernanda, seguindo a antropóloga sino-estadunidense Anna Tsing, argumentou que devemos habitar as falhas e agir sobre elas. As grandes duas falhas do nosso tempo, por sua vez, são a falha do projeto neoliberal em garantir uma vida próspera a todas as pessoas que habitam o capitalismo, e também a falha climática, o colapso ambiental do planeta que se aproxima cada vez mais.

Para a Profa. Fernanda, é importante termos em mente que as infraestruturas e os aparatos tecnológicos tendem a se tornar invisíveis e transparentes à medida que eles encapsulam a vida cotidiana, e só passamos a percebê-los e termos noção de como eles gerenciam nossas vidas quando eles falham ou param de funcionar. Um desses exemplos, que guiou o restante da fala da Profa. Fernanda, são precisamente as infraestruturas responsáveis pelo reconhecimento facial e os algoritmos preditivos que utilizam de bancos de dados de reconhecimento facial para policiamento preditivo. Erros graves na construção desse tipo de ferramentas acabam por criminalizar injustamente as pessoas negras, em casos de racismo algorítmico.

É justamente nessas falhas originadas dos aparatos de reconhecimento facial que discussões sobre raça e racismo entram no campo da tecnologia. Dessa forma, é uma demonstração clara do potencial metodológico de se explorar a tecnopolítica da falha, já que questões raciais conseguem ser abordadas precisamente por casos de perfilamento racial que só foram possíveis por conta da introdução dessas tecnologias e algoritmos em contextos de monitoramento de segurança.

Dessa maneira, as falhas também revelam a trajetória complexa dessa tecnologia, como ela pode ser apropriada e ter seu objetivo transformado com o passar do tempo. O caso do reconhecimento facial permitiu que as discussões passassem do campo do reparo ao campo da reparação; essas tecnologias não exigem apenas um reparo técnico, mas sim uma reparação social. A falha torna visível essas trajetórias complexas das tecnologias, abrindo espaço para a inserção de novos atores na discussão, tornando viável contestação e negociação, fato que não era muito comum na cultura algorítmica. 

Por fim, a Profa. Fernanda chama atenção para as possibilidades de contestar o imaginário de otimização que pode ser alimentado ao focarmos na análise e estudo das falhas. Nesse caso, é importante levar em consideração que falhas não são acidentais, mas sim estruturais – os sistemas aprendem com as falhas, e as falhas são, cada vez mais frequentemente, parte do modelo de negócios das grandes empresas. Ainda assim, escapar da lógica de otimização não deve levar ao elogio irrestrito da falha, e deve-se ter cuidado para não se confundir o potencial tecnopolítico da falha com a precarização.

As fricções produzidas pelas falhas nos convocam a repensar nossos relacionamentos com as tecnologias, instigando uma forma menos predatória de interagirmos com elas.

*

Por sua vez, o pesquisador Pedro Maia fez uma série de reflexões sobre regimes estéticos de algoritmos e as políticas que são sustentadas por esses regimes. Partindo da ideia de que o estético faz referência a tudo o que as pessoas experienciam como sensível, seguindo Jacques Rancière,  Pedro enumerou quatro regimes estéticos algorítmicos. São eles:

  1. Regime de controle e visão absoluta. Como os algoritmos possibilitam uma estética em meios visuais, de design. Este regime está relacionado com uma economia de controle e ansiedade. Para este regime, toda tecnologia é inerentemente neutra, e o aspecto visual está conectado ao aspecto emocional. O regime apaga totalmente as práticas, ações e atores que o mantêm vivo e operante. Apaga, também, violências e opressões que sustentam e fazem parte desse regime estético, o que torna possível a política de vigilância e controle.
  2. Regime de essencialização e inevitabilidade. Parte de uma estética cyberpunk. São características deste regime a essencialização da tecnologia, como algo inevitavelmente ruim, algo destrutivo e dominador. Ele favorece paisagens apocalípticas. Também é caracterizado pela corporificação dos computadores, pela simbiose entre computadores e seres humanos. É um regime da dominação da tecnologia sobre o humano, marcado pelo embate entre humanos e máquinas. 
  3. Regime de tech para o bem, também chamado de “AI for good.” Este regime tem como ponto de partida algumas críticas feitas aos algoritmos, principalmente no que diz respeito às questões de gênero e raça. Quer ultrapassar os aspectos negativos e alcançar uma estética de inovação, da sustentabilidade. Este regime entende a ciência como uma série de efeitos negativos, ao mesmo tempo em que admite o potencial positivo da tecnologia. Esteticamente, é marcado pela aproximação do cérebro humano com os algoritmos, conectando o funcionamento das tecnologias com o funcionamento cerebral. Também são características deste regime a esperança no futuro e a crença de que a tecnologia funciona. A política facilitada por essa estética é uma política extremamente liberal, em que um ser humano racional está à frente de tudo e tem grande potencial. O algoritmo é a materialização dessa ideia de esperança na tecnologia.
  4. Regime de multiplicações e gambiarras. Seguindo Prof. José Messias, “gambiarra” neste contexto deve ser entendida como adaptações, usos alternativos da tecnologia. Este regime favorece um cenário de cooperação, multiplicando os cenários possíveis. Aqui, são estimuladas outras conexões com os algoritmos, para além de dominação e subserviência, como por exemplo formas de ativismo, de arte, de reimaginar o espaço político e estético. O foco deste regime é a improvisação, a adaptação, gerando maneiras mais democráticas de se lidar com algoritmos. Lida com o fato de que a tecnologia não é neutra, e, dada essa realidade, propõe seu uso para causas democráticas. Algoritmos também possibilitam a ampliação de conexões entre as pessoas e tecnologias. 

*

O último a falar foi o Prof. Edgar Lyra, que, na sua colocação, explorou as maneiras pelas quais as tecnologias têm transformado as subjetividades, as formas pelas quais as pessoas percebem o mundo e se colocam nele. Fazendo um contraponto com a fala da Profa. Fernanda, o Prof. Edgar se propôs a falar sobre a não-falha, mostrando os diferentes lugares da vida cotidiana em que as tecnologias têm entrado e se instalado. Dada a ubiquidade das tecnologias digitais, não é de se espantar que existam novos processos de subjetivação levados a termo por elas.

Partindo da ideia de hegemonia tecnológica, em que não existem mais fronteiras entre o real e o virtual, o Prof. Edgar examinou diferentes questões relacionadas às transformações tecnológicas recentes, procurando desnaturalizar aquilo que tomamos como certo e corriqueiro nas tecnologias digitais. Ele mencionou transformações na economia do conhecimento; como nos tornamos animais hackeáveis; diferentes percepções de espaço, tempo e orientação; e como a aceleração proporcionada pelas tecnologias digitais pode afetar a vida cotidiana.

A começar pelas transformações na economia do conhecimento, o Prof. Edgar chamou atenção para as maneiras pelas quais os pesquisadores são afetados pelas tecnologias digitais, pois as formas de transitar enquanto se produz conhecimento mudaram. A inserção de métodos digitais também abre novos caminhos para a elaboração de pesquisas e a investigação de novos objetos. 

Por outro lado, os seres humanos deixam rastros virtuais o tempo todo, tornando-se animais hackeáveis, ao ponto em que até mesmo nossas emoções podem ser compiladas e dataficadas. Existe a hackeabilidade desses dados sensíveis por um lado, por parte das grandes empresas; mas, por outro lado, por parte dos acadêmicos, esses dados ainda são inacessíveis, por conta das barreiras impostas artificialmente e servindo a determinados interesses que são impostas ao acesso.

Ainda assim, as tecnologias digitais ainda têm impactos bastante profundos nas maneiras pelas quais as pessoas existem no mundo, especialmente no que diz respeito a espaço, tempo e orientação e também à velocidade do consumo de informações e diversos tipos de mídias. O Prof. Edgar chamou atenção para uma preocupação ontológica ao se pensar o espaço, dando como exemplo a popularização dos video games em primeira pessoa: o personagem fica no centro da tela e o mundo se move em volta, o que é completamente diferente da maneira pela qual nos deslocamos no mundo não-virtual. A questão da aceleração também é relevante, reflexo do imediatismo das tecnologias, que permitem o consumo de conteúdo em velocidade acelerada, que interfere na forma pela qual as pessoas conduzem suas vidas. 

Para o Prof. Edgar, é essencial refletir sobre a hegemonia tecnológica e suas concomitantes transformações. No entanto, um desafio é como interrogar essa hegemonia dentro do próprio enquadramento técnico presente, e também como fomentar essas discussões na universidade e para além da universidade, chegando até mesmo ao nível de políticas públicas de educação, integrando os diferentes segmentos de ensino. O ponto de partida ideal é, portanto, interrogar a ubiquidade das tecnologias nas vidas cotidianas, questionando seus papéis e causando estranhamento no que anteriormente era considerado como natural.

Todas as mesas do I Colóquio de Humanidades Digitais da PUC-Rio, inclusive esta, estão disponíveis na plataforma ECOA da Universidade. Aqueles que assistem às mesas integralmente têm direito a um certificado, emitido pela plataforma.