Buscar
Coluna

Qual é a real ameaça da inteligência artificial nas eleições?

2024 terá recorde de votação, com 2 bi de pessoas indo às urnas; também é o ano em que a IA estará ao alcance de todos

Coluna
19 de março de 2024
06:00
Ouça Natalia Viana

Natalia Viana

19 de março de 2024 · 2024 terá recorde de votação, com 2 bi de pessoas indo às urnas; também é o ano em que a IA estará ao alcance de todos

0:00

Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.

Eu sou aquela pessoa que tem um alerta do Google – sim, do Google – no meu e-mail para receber tudo o que sai sobre desinformação. Ossos do ofício. Mas, nos últimos meses, tem chamado atenção o aumento exponencial de notícias, artigos e colunas sobre como a inteligência artificial (IA) é uma enorme ameaça às nossas eleições. 

Esse parece ser o grande tema da vez, e, como desconfio sempre dos grandes temas da vez, resolvi colocar a questão para duas das maiores pensadoras sobre a intersecção entre tecnologia e democracia (ou a falta dela): Letícia Cesarino, antropóloga e autora do livro O mundo do avesso (editora Ubu), e Nina Santos, diretora do Aláfia Lab e coordenadora-geral da organização *desinformante.  

Tive o prazer de mediar um debate entre as duas pesquisadoras na semana passada, durante o evento que celebrou os 13 anos da Agência Pública no Tucarena, na PUC de São Paulo. E, como eu adivinhei, as duas me trouxeram perspectivas novas e refrescantes sobre o tamanho real dessa ameaça. 

Nina chamou atenção para o fato de que 2024 é um grande ano eleitoral no mundo todo. Não apenas por aquelas eleições que, mais uma vez, podem reverter o pouco espaço de respiro que tivemos nos últimos anos, caso Donald Trump seja eleito presidente dos Estados Unidos. 

Segundo o Centro para o Progresso Americano, um instituto sediado nos Estados Unidos, mais de 2 bilhões de pessoas vão às urnas em eleições gerais ou municipais em 2024. Este é o ano em que mais pessoas votarão na história. 

É, ainda, a primeira vez em que a inteligência artificial está ao alcance de todos, barateando bruscamente o custo de produção sintética de todo tipo de conteúdo. “São mais de 60 eleições, e o uso de inteligência artificial está na linha de frente dos debates em todas as realidades. É um fenômeno muito novo”, diz Nina.  

Para ela, “o Brasil sai na frente ao tentar estabelecer regras para lidar com isso e tentar estabelecer limites”. O TSE determinou que qualquer conteúdo multimídia fabricado por meio de IA deverá ser rotulado, proibiu o uso de deepfakes e restringiu o uso de chatbots que finjam ser pessoas. Também obrigou as plataformas a retirar do ar, sem a necessidade de ordem judicial, conteúdos antidemocráticos e discursos de ódio.

Se a nova regra do TSE vai funcionar, aí já é outra questão, apontou Nina Santos. “A gente tá enxergando só 3% do problema.” De fato, os usos são tão novos que fica difícil legislar sobre eles. Ela lembrou, por exemplo, que na Indonésia a tecnologia da OpenAI foi usada para criar chatbots que se comunicavam com os eleitores como se fossem humanos – lembrando que, em setembro do ano passado, Sam Altman, CEO da empresa, recebeu o primeiro “golden visa” do país – durante dez anos ele vai ter tratamento VIP nos aeroportos e tramitações mais rápidas para entrar e sair do país. Um agradinho do governo atual. 

Mas não foi só isso: um avatar criado através da empresa MidJourney ajudou a transformar o atual ministro da Defesa do país, acusado de violações de direitos humanos, na imagem de um vovozinho simpático. Prabowo Subianto acabou vencendo as eleições e toma posse em outubro. 

Já Letícia Cesarino lembrou da fake news que talvez tenha tido o maior impacto durante as eleições primárias norte-americanas. Circulou pelos celulares uma mensagem de áudio gerada por inteligência artificial com a voz do presidente democrata Joe Biden tentando dissuadir eleitores de votar nas primárias de New Hampshire. Esse uso soou um alarme, e agora a empresa MidJourney, que cria vídeos e fotos através de IA, suspendeu qualquer “prompt” que use Donald Trump ou Joe Biden durante o ano todo (prompt é a pergunta que um usuário faz ao robozinho para ele gerar uma imagem, como por exemplo “quero uma foto de Joe Biden andando a cavalo”). 

É preciso, sempre, olhar para o contexto, diz a antropóloga. Como a polarização parece estar cada vez mais enraizada na sociedade – ela cita o livro de Thomas Traumann e Felipe Nunes, Biografia do abismo (ed. Harper Collins) –, existe agora uma franja menor de votos a serem disputados às vésperas do pleito. 

Isso muda significativamente também os usos da desinformação, e uma ação pontual pode definir o resultado. “Ao invés de mudar a opinião, você vai agir num plano mais meta, digamos assim, para dissuadir o eleitor do seu oponente de votar”, explica. 

Mas proibir ou não proibir a IA, diz Letícia, pode não ser a questão. “Hoje em dia se diferencia o deepfake do cheap fake, né?”, pergunta, referindo-se às montagens mais toscas e menos rebuscadas, em contraste com deepfakes, imagens tão bem-feitas que parecem reais. 

“Mas o cheap fake já fazia efeito lá por 2018… Lembremos os áudios de vozes imitando Jair Bolsonaro. Tem gente que simplesmente sabe imitar a voz e as pessoas da internet estão distraídas, e já estão num viés de confirmação”, diz. O problema maior, para ela, é que esses conteúdos navegam em um ecossistema de desinformação que já está consolidado, “onde muita gente já tem uma predisposição para acreditar, mesmo no cheap fake”. 

O problema é, portanto, que a IA não vai “ter necessariamente uma ruptura qualitativa no modo como desinformar”, mas vai apenas “anabolizar a desinformação”. Mas, ao focarmos todo o debate nos usos da IA, ela lembra, podemos estar esquecendo do que mais importa: o

ecossistema de desinformação, mediado pelo oligopólio das Big Techs, permanece intacto. 

Estamos “queimando uma etapa”. 

“É um problema que já existia desde muito antes, e isso não foi ainda endereçado pelo meio político, quando o PL 2.630 [PL das Fake News, que pretendia regulamentar as plataformas digitais] foi enterrado ano passado com todo esse esse lobby, não só da extrema direita, mas das próprias plataformas que não permitiram que o PL avançasse”, diz. “A impressão que eu tenho é que meio que se deixou isso de lado.”  

Resta, para nós que investigamos a desinformação, tentar adivinhar o que vai acontecer nessas eleições quando, mais uma vez, as redes sociais e serviços de mensageria serão campo fértil para toda sorte de milícias digitais. Quanto a isso, tanto Nina quanto Letícia foram peremptórias: “Vamos ver o que vai acontecer, porque são tudo experimentos”. 

Não é todo mundo que chega até aqui não! Você faz parte do grupo mais fiel da Pública, que costuma vir com a gente até a última palavra do texto. Mas sabia que menos de 1% de nossos leitores apoiam nosso trabalho financeiramente? Estes são Aliados da Pública, que são muito bem recompensados pela ajuda que eles dão. São descontos em livros, streaming de graça, participação nas nossas newsletters e contato direto com a redação em troca de um apoio que custa menos de R$ 1 por dia.

Clica aqui pra saber mais!

Se você chegou até aqui é porque realmente valoriza nosso jornalismo. Conheça e apoie o Programa dos Aliados, onde se reúnem os leitores mais fiéis da Pública, fundamentais para a gente continuar existindo e fazendo o jornalismo valente que você conhece. Se preferir, envie um pix de qualquer valor para contato@apublica.org.

Quer entender melhor? A Pública te ajuda.

Aviso

Este é um conteúdo exclusivo da Agência Pública e não pode ser republicado.

Faça parte

Saiba de tudo que investigamos

Fique por dentro

Receba conteúdos exclusivos da Pública de graça no seu email.

Artigos mais recentes