Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.
A busca era inocente e eu não planejava que ela virasse uma coluna. Mas, quando tentei encontrar pelo Google uma reportagem antiga da Pública, da qual não me lembrava o título, a resposta produzida pela IA me obrigou a este texto.
Confesso, fui preguiçosa: escrevi apenas o primeiro nome da autora, Joana, e o tema da reportagem, ONG. O que o Google AI Overview – aquele resuminho que agora vem por cima da busca – produziu em resposta foi um choque pra mim: “A busca pode se referir a Joana de Assis, que foi editora-chefe da Agência Pública, uma ONG de jornalismo investigativo sem fins lucrativos. Joana de Assis foi uma figura central em sua equipe editorial por muitos anos”.
Quem é Joana de Assis? Perguntei a mim mesma. Será que eu tinha esquecido de uma pessoa tão importante na história da Pública?
Ora, Joana de Assis não existe. Nunca existiu. É uma alucinação da ferramenta da IA do Google, que tem cada vez mais sido entuchada goela abaixo em substituição à busca “tradicional” ou “retrô” como a maneira como a Alphabet, empresa dona do Google, quer que o mundo se informe.
Ao adotar o Google AI Overview, a escolha dos executivos do Google foi de empurrar a verdade ainda mais para o fundo do poço. No Brasil, como ainda não temos regulamentação nem regras claras para a IA, o Google tem oferecido, além de respostas feitas por IA no topo da busca, a primeira aba da Busca como “modo IA”. Lembremos que no Brasil mais de 85% dos brasileiros usam a busca do Google para se orientar no mundo online.
Acontece que, quando os executivos do Google decidiram às pressas apostar na IA para competir com o Chat GPT, eles assumiram um risco enorme – o de permitir que toda essa gente seja informada basicamente por invenções. As IAs, por mais que tenham evoluído desde o lançamento do ChatGPT há dois anos, continuam absolutamente imprevisíveis quando falamos de checagem dos fatos. Simplesmente não dá pra saber se o que dizem é verdade ou não.
Pior, a maneira como essas informações são exibidas também é irresponsável. Dois dias depois, quando eu revisitei a mesma página com a pergunta, o Google IA Overview refez a busca, e desta vez me entregou a resposta correta – diga-se, Joana Suarez, autora da reportagem “Mérito Fake”. Mas não havia em nenhum lugar, uma errata, daquela do tipo que todos os jornais e sites de jornalismo do mundo se esforçam para colocar todas as vezes que publicamos uma informação errada. A mentira, espalhada, jamais foi reconhecida, e nem há registro dela, uma vez que não há logagem de respostas antigas do Google AI Overview. A alucinação do Google é tão fugaz quanto a responsabilidade que a empresa acredita ter.
Mas a decisão de jogar no mundo uma ferramenta que sabidamente espalha mentiras, ao mesmo tempo, em que se reduz o tráfego para sites de jornalismo, tem consequências reais e é de responsabilidade de um punhado de executivos que decidiram que assim seria. Os decisores de empresas como Google, Open AI, Anthropic e Meta seguem escondendo-se atrás da falta de compreensão sobre os algoritmos para esquivar-se de responder sobre os malefícios sociais que suas máquinas estão causando. Escondem-se por trás da “inevitabilidade” da adoção da IA, da “revolução” que ela significa, e toda a velha narrativa de que o caminho do futuro é esse.
É muito palavrório. A verdade é simples: estamos recebendo informações mentirosas por decisão de um punhado de homens no Vale do Silício. E esses homens deveriam ser investigados e responsabilizados.
E veja, estou falando apenas de uma das facetas da adoção desenfreada da IA. Não estou nem falando das crescentes evidências de que ferramentas como ChatGPT têm amplificado pensamentos suicidas ou conspiratórios em usuários absolutamente vulneráveis.
Sinto que, quando se trata de tecnologia, nós, jornalistas, passamos muito tempo falando sobre algoritmos – e pouquíssimo investigando as pessoas que tomam as decisões por trás dos algoritmos. Estas são as empresas mais poderosas da história – e seus produtos afetam todos os aspectos de nossas vidas e das democracias. É um enorme desequilíbrio de poder.
Outro exemplo exposto pela jornalista Karen Hao, autora do aclamado livro Império da IA, sobre a Open IA. Durante um debate em que participamos na Conferência Global de Jornalismo Investigativo (GIJC, na sigla em inglês), Karen lembrou que existem trabalhadores mal remunerados que passam seus dias filtrando conteúdos horríveis para determinar o que é seguro para chatbots como o ChatGPT. Isso afeta pesadamente sua saúde mental, como diversas reportagens apontaram. Mas nada disso é resultado do acaso; trata-se de uma consequência da ação tomada pela OpenAI e outras empresas de IA: o fato de que elas decidiram raspar tudo da internet em vez de, por exemplo, usar um conjunto determinado de dados.
“Quando você raspa diretamente da internet, acaba ficando com muito lixo tóxico da internet. Elas poderiam ter usado dados curados. E o efeito não é apenas o trauma psicológico dos trabalhadores que devem realizar a moderação de conteúdo – a mesma decisão está diretamente ligada à série de casos de saúde mental entre os usuários”, me escreveu Karen.
O mundo inseguro da IA que estamos navegando agora – onde pessoas comuns estão sendo incentivadas a se automutilar ou entrar em buracos de coelho por chatbots preditivos, onde dezenas de milhares de trabalhadores têm que filtrar conteúdo prejudicial para que os chatbots de IA possam servir conteúdo rápido e onde há crescentes evidências sugerindo que a IA é uma bolha prestes a estourar – é o resultado da decisão de um punhado de executivos, seja no Vale do Silício ou nas filiais locais dessas empresas.
Portanto, meus votos para 2026 – quando volto a publicar esta coluna depois de uma breve pausa para o fim do ano – é que nós, jornalistas, busquemos investigá-los e responsabilizá-los por suas decisões, arrancando-os das torres de vidro e auto-enganação onde eles ainda são apenas executivos bem-sucedidos querendo melhorar o mundo.
Se você acredita nesta missão, convido para que faça parte desta empreitada, e ajude a sustentar a Pública no próximo ano. Precisamos muito do apoio dos leitores para fazer esse tipo de trabalho sem medo e sem amarras. Clique aqui e junte-se ao jornalismo feito por pessoas reais.
PayPal 


