Agência Pública

Qual é a real ameaça da inteligência artificial nas eleições?

Por
Urna eletrônica com credenciamento por biometria

Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.

Eu sou aquela pessoa que tem um alerta do Google – sim, do Google – no meu e-mail para receber tudo o que sai sobre desinformação. Ossos do ofício. Mas, nos últimos meses, tem chamado atenção o aumento exponencial de notícias, artigos e colunas sobre como a inteligência artificial (IA) é uma enorme ameaça às nossas eleições. 

Esse parece ser o grande tema da vez, e, como desconfio sempre dos grandes temas da vez, resolvi colocar a questão para duas das maiores pensadoras sobre a intersecção entre tecnologia e democracia (ou a falta dela): Letícia Cesarino, antropóloga e autora do livro O mundo do avesso (editora Ubu), e Nina Santos, diretora do Aláfia Lab e coordenadora-geral da organização *desinformante.  

Tive o prazer de mediar um debate entre as duas pesquisadoras na semana passada, durante o evento que celebrou os 13 anos da Agência Pública no Tucarena, na PUC de São Paulo. E, como eu adivinhei, as duas me trouxeram perspectivas novas e refrescantes sobre o tamanho real dessa ameaça. 

Nina chamou atenção para o fato de que 2024 é um grande ano eleitoral no mundo todo. Não apenas por aquelas eleições que, mais uma vez, podem reverter o pouco espaço de respiro que tivemos nos últimos anos, caso Donald Trump seja eleito presidente dos Estados Unidos. 

Segundo o Centro para o Progresso Americano, um instituto sediado nos Estados Unidos, mais de 2 bilhões de pessoas vão às urnas em eleições gerais ou municipais em 2024. Este é o ano em que mais pessoas votarão na história. 

É, ainda, a primeira vez em que a inteligência artificial está ao alcance de todos, barateando bruscamente o custo de produção sintética de todo tipo de conteúdo. “São mais de 60 eleições, e o uso de inteligência artificial está na linha de frente dos debates em todas as realidades. É um fenômeno muito novo”, diz Nina.  

Para ela, “o Brasil sai na frente ao tentar estabelecer regras para lidar com isso e tentar estabelecer limites”. O TSE determinou que qualquer conteúdo multimídia fabricado por meio de IA deverá ser rotulado, proibiu o uso de deepfakes e restringiu o uso de chatbots que finjam ser pessoas. Também obrigou as plataformas a retirar do ar, sem a necessidade de ordem judicial, conteúdos antidemocráticos e discursos de ódio.

Se a nova regra do TSE vai funcionar, aí já é outra questão, apontou Nina Santos. “A gente tá enxergando só 3% do problema.” De fato, os usos são tão novos que fica difícil legislar sobre eles. Ela lembrou, por exemplo, que na Indonésia a tecnologia da OpenAI foi usada para criar chatbots que se comunicavam com os eleitores como se fossem humanos – lembrando que, em setembro do ano passado, Sam Altman, CEO da empresa, recebeu o primeiro “golden visa” do país – durante dez anos ele vai ter tratamento VIP nos aeroportos e tramitações mais rápidas para entrar e sair do país. Um agradinho do governo atual. 

Mas não foi só isso: um avatar criado através da empresa MidJourney ajudou a transformar o atual ministro da Defesa do país, acusado de violações de direitos humanos, na imagem de um vovozinho simpático. Prabowo Subianto acabou vencendo as eleições e toma posse em outubro. 

Já Letícia Cesarino lembrou da fake news que talvez tenha tido o maior impacto durante as eleições primárias norte-americanas. Circulou pelos celulares uma mensagem de áudio gerada por inteligência artificial com a voz do presidente democrata Joe Biden tentando dissuadir eleitores de votar nas primárias de New Hampshire. Esse uso soou um alarme, e agora a empresa MidJourney, que cria vídeos e fotos através de IA, suspendeu qualquer “prompt” que use Donald Trump ou Joe Biden durante o ano todo (prompt é a pergunta que um usuário faz ao robozinho para ele gerar uma imagem, como por exemplo “quero uma foto de Joe Biden andando a cavalo”). 

É preciso, sempre, olhar para o contexto, diz a antropóloga. Como a polarização parece estar cada vez mais enraizada na sociedade – ela cita o livro de Thomas Traumann e Felipe Nunes, Biografia do abismo (ed. Harper Collins) –, existe agora uma franja menor de votos a serem disputados às vésperas do pleito. 

Isso muda significativamente também os usos da desinformação, e uma ação pontual pode definir o resultado. “Ao invés de mudar a opinião, você vai agir num plano mais meta, digamos assim, para dissuadir o eleitor do seu oponente de votar”, explica. 

Mas proibir ou não proibir a IA, diz Letícia, pode não ser a questão. “Hoje em dia se diferencia o deepfake do cheap fake, né?”, pergunta, referindo-se às montagens mais toscas e menos rebuscadas, em contraste com deepfakes, imagens tão bem-feitas que parecem reais. 

“Mas o cheap fake já fazia efeito lá por 2018… Lembremos os áudios de vozes imitando Jair Bolsonaro. Tem gente que simplesmente sabe imitar a voz e as pessoas da internet estão distraídas, e já estão num viés de confirmação”, diz. O problema maior, para ela, é que esses conteúdos navegam em um ecossistema de desinformação que já está consolidado, “onde muita gente já tem uma predisposição para acreditar, mesmo no cheap fake”. 

O problema é, portanto, que a IA não vai “ter necessariamente uma ruptura qualitativa no modo como desinformar”, mas vai apenas “anabolizar a desinformação”. Mas, ao focarmos todo o debate nos usos da IA, ela lembra, podemos estar esquecendo do que mais importa: o

ecossistema de desinformação, mediado pelo oligopólio das Big Techs, permanece intacto. 

Estamos “queimando uma etapa”. 

“É um problema que já existia desde muito antes, e isso não foi ainda endereçado pelo meio político, quando o PL 2.630 [PL das Fake News, que pretendia regulamentar as plataformas digitais] foi enterrado ano passado com todo esse esse lobby, não só da extrema direita, mas das próprias plataformas que não permitiram que o PL avançasse”, diz. “A impressão que eu tenho é que meio que se deixou isso de lado.”  

Resta, para nós que investigamos a desinformação, tentar adivinhar o que vai acontecer nessas eleições quando, mais uma vez, as redes sociais e serviços de mensageria serão campo fértil para toda sorte de milícias digitais. Quanto a isso, tanto Nina quanto Letícia foram peremptórias: “Vamos ver o que vai acontecer, porque são tudo experimentos”. 

Sair da versão mobile