A primeira mesa do I Colóquio de Humanidades Digitais contou com moderação da Profa. Thula Pires. Os participantes foram a Profa. Caitlin Mulholand (PUC-Rio), o Prof. Miguel Bastos Alvarenga (UFRJ), e o Prof. Deval Desai (University of Edinburgh). A mesa debateu regimes de regulação do uso de tecnologias de coleta, processamento e armazenamento de grandes volumes de dados, assim como o regime brasileiro de proteção de dados pessoais e os desafios regulatórios que este tipo de tecnologia apresenta para a democracia. 

*

Na primeira fala, o professor Deval Desai discutiu a emergência de regimes normativos para gerir a coleção e uso em massa de dados para certos usos públicos. O seu foco é pensar como as normas relevantes passam a ser negociadas a partir de disputas sobre como regular os dados ao invés de simplesmente tomá-las como uma variáveis pré-definidas na equação. Em especial, Desai aborda o que ele chama de regimes de autenticidade em contextos do Sul Global. 

No caso brasileiro, por exemplo, a operação da norma da autenticidade pode ser observada nos casos de moderação e remoção de conteúdo no Facebook. Essa é uma operação tanto técnica quanto legal, que perpassa a identificação de posts, a sua comparação com alguma norma ou critério legal, e eventualmente a remoção de conteúdos considerados impróprios. Para a Meta, por exemplo, a moderação de conteúdo no Facebook é relevante para o bem estar geral uma vez que garante a autenticidade do debate público. Uma esfera pública digital autêntica gera debates públicos razoáveis. A discussão sobre autenticidade no Brasil, no entanto, engloba também a dimensão privada uma vez que a autenticidade é frequentemente invocada em disputas jurídicas que envolvem a honra privada de cidadãos. O debate da mobilização da autenticidade como bem público ou interesses privados demonstra o quanto a norma está aberta para negociações e contestações. 

Na Índia, afirma, o debate se dá de forma diferente. Mesmo que a moderação de conteúdo seja interpretada como fundamental para criar uma esfera pública digital saudável, a tentativa do governo indiano de criar um painel de apelações sobre moderação de conteúdos que não tivesse jurisdição sobre empresas emergentes indianas levou Desai a traçar a disputa no país não como entre interpretações públicas e privadas da norma, mas como uma disputa entre garantir debates públicos autênticos e o nacionalismo de dados. Isso pode ser observado na forma como o governo se preocupa em criar uma nova infraestrutura regulatória para moderação de conteúdo de liberdade de expressão em plataformas estrangeiras, enquanto ignora preocupações legítimas acerca de projetos domésticos como o programa Aadhaar. A iniciativa de identificação biométrica universal é entendida como uma ferramenta crucial para o Estado indiano, permitindo que pessoas participem de diversos programas e serviços sociais. Novamente, o que sustenta a prática de acumulação massiva de dados são enquadramentos normativos relacionados à autenticidade. Para o indivíduo, trata-se de demonstrar sua autenticidade e legitimidade de acessar serviços sociais específicos. Para o Estado, trata-se da autenticação para prevenir fraudes.

Desai concluiu a sua contribuição ressaltando que o modelo oferece riscos à privacidade dos cidadãos e, mesmo assim, tem o potencial de se espalhar pelo Sul Global. A reivindicação de que o Aadhaar foi responsável por uma aceleração na entrega de serviços e pagamentos, aumento na inclusão financeira, e redução da corrupção já encontrou mais adeptos na África Subsaariana e na Ásia. Trata-se, no entanto, de uma tentativa de gerar autenticidade nas esferas sociais e econômicas, sem contudo acompanhar as preocupações sobre regulação do manuseio e processamento de informações pessoais que têm sido vistas na esfera pública. 

*

Na segunda fala da mesa, o pesquisador Miguel Bastos Alvarenga discutiu a operação do direito autoral no contexto da mineração de textos e dados para a Inteligência Artificial. Como afirmado pelo pesquisador, a mineração de textos e dados é cada vez mais essencial para a inovação científica que, por sua vez, é cada vez mais dependente de tecnologias intensivas em dados. Ao mesmo tempo, esse processo implica na extração de dados e informações a partir do conteúdo e materiais de terceiros, criando novos desafios para a regulação de direitos autorais e propriedade intelectual. Não só os textos, livros e obras, mas as próprias bases de dados usadas no aprendizado de máquinas podem ser protegidas por direitos autorais. O dilema é sério uma vez que dada a demanda crescente por pesquisas quantitativas fundamentadas em volumes de pontos de dados cada vez maiores, ou pesquisadores optam por desrespeitar a regulação, ou usam um volume de dados extremamente restrito que produz resultados enviesados e incompletos. 

Tratando do contexto internacional, Alvarenga ressaltou que a União Europeia, na sua diretiva 2019/790, reconheceu a importância para a ciência e economia de relativizar a legislação de direitos autorais de forma a permitir a mineração de textos e dados, determinando a possibilidade de que se use esse tipo de tecnologia para fins de pesquisa. Em 2018, o Japão produziu uma norma dentro da sua legislação de direitos autorais que possibilita qualquer uso que “não permita a apreciação estética ou emocional das ideias ou emoções contidas em obras artísticas”. Movimentos similares foram vistos também em Singapura e nos Estados Unidos.

Não à toa, Alvarenga pontuou, países mais permissivos em relação à mineração são também os países que estão na vanguarda do desenvolvimento tecnológico em Inteligência Artificial e aprendizado de máquinas. O Brasil é um dos países mais restritivos nesse sentido, colocando pesquisadores brasileiros em uma posição de desvantagem quando se trata de encontrar e firmar acordos internacionais de cooperação para a pesquisa. Nesse sentido, o problema da adaptação do direito autoral aos novos desenvolvimentos tecnológicos passou a ser um problema grave nas dinâmicas da geopolítica do conhecimento, dado que o gap de desenvolvimento científico, educacional e econômico tenderá a aumentar entre países do Norte Global, que caminham mais a frente nessas questões, e países do Sul Global. Para Alvarenga, é preciso incentivar a cooperação, a ciência aberta, e o compartilhamento de dados como ferramentas necessárias para a resolução dos grandes desafios da contemporaneidade.

*

Na terceira e última fala da mesa, a professora Caitlin Mulholand deu seguimento à discussão sobre regulação de Inteligência Artificial ao trazer visão comparada dos desdobramentos correntes na Europa, China e Brasil. Para a professora, discutir IA está profundamente relacionado ao debate sobre dados justamente porque é uma tecnologia cuja eficiência depende de grandes quantidades de dados pessoais ou de outra natureza. Por isso, entender esse fenômeno a partir das humanidades depende, antes de tudo, de entender os insumos necessários para alcançar a finalidade de uma IA. São dois: dados e matemática.

De forma a tecer sua contribuição, Mulholand apresentou uma série de questionamentos relevantes para o debate atual sobre regulação de IAs. Segundo ela, já está claro que qualquer regulação de tecnologia, de qualquer natureza, tende a ficar rapidamente defasada. Qual seria, então, o tipo de regulação mais adequada como mecanismo para proteção e promoção de direitos fundamentais humanos? Precisamos de novas leis, ou as leis que temos já dão conta? Precisamos de outra forma regulatória, talvez por meio de diferentes chaves, como a ética, por exemplo? Precisamos de algum tipo de banimento internacional, tratados e acordos internacionais multilaterais que tratem especificamente da proibição de usos de tecnologias de inteligência artificial, especificamente das Lethal Autonomous Weapons Systems (LAWS)? Segundo a professora, existem hoje três grandes campos e tipos regulatórios quando falamos de regulação de inteligência artificial.

O mais tradicional é a regulação pela lei. Tanto na Europa quanto na China e Brasil, tem-se visto uma profusão de projetos de lei que se propõem a regular a IA via legislação. A pergunta que resta, no entanto, é se esse caminho é suficiente. Um segundo campo, portanto, defende a regulação a partir da principiologia ética. Esse caminho é frequentemente defendido por atores do mercado como a OCDE e as Big Techs justamente pois as soft laws principiológicas são recomendações e portanto não são exigíveis. Para Mulholand, no entanto, tratam-se de princípios por vezes etéreos e difíceis de serem cumpridos, deixando a cargo dos desenvolvedores identificar ou não se estão em conformidade com as normas. A terceira forma de regulação é a regulação por meio de arquitetura. Trata-se de embutir na própria arquitetura tecnológica algumas limitações para determinados usos. Esse modelo, no entanto, apresenta sérios desafios quando se trata da necessidade de intervenção humana no projeto de software e a necessidade de garantir explicabilidade na tomada de decisão pela máquina, algo nem sempre viável em sistemas complexos de IA.

Para a professora, considerando essas três formas regulatórias, é fundamental entender os diferentes medos que orbitam a temática. Quem tem medo da regulação e dos princípios éticos? Estamos falando de que princípios? Estipulados por quem? Estados podem escolher uma principiologia própria? No Brasil, por exemplo, existem quatro projetos de lei propostos. Um deles já está no Senado, mas o processo está parado e sofrendo pressão pelo lobby do mercado. É uma lei principiológica que serve para nada ou muito pouco. Para Mulholand, o caminho adiante depende de três movimentos. 

  1. A proposta, amplamente aceita por estudiosos da proibição de IA, em aplicações de ‘alto risco’.
  2. A possibilidade de tecer um acordo internacional que visa determinar limitações no uso de IAs.
  3. Deixar-se claro que não estamos falando de regulação de tecnologia, mas da regulação do uso de tecnologias.

Todas as mesas do I Colóquio de Humanidades Digitais da PUC-Rio, inclusive esta, estão disponíveis na plataforma ECOA da Universidade. Aqueles que assistem às mesas integralmente têm direito a um certificado, emitido pela plataforma.