Buscar
Coluna

Jornalismo ciborgue: uso de IA deve ser debatido nas redações e com o leitor

O jornalismo precisa refletir sobre como usar uma tecnologia que produz um simulacro da realidade

Coluna
24 de setembro de 2023
06:00
Este artigo tem mais de 1 ano

Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.

Um homem bonitão, com cara de cerca de 50 anos, moreno, bronzeado daqueles bem cariocas, óculos escuros e um sorriso de lado a lado, estampava a reportagem publicada pelo UOL em parceria com a Agência Fiquem Sabendo em 17 de julho deste ano. Relaxado, tranquilo, o homem estava atrás das grades, mas parecia estar em clima de férias. Combinava bem com o provocativo título: “O crime compensa: os privilégios dos militares expulsos das Forças Armadas”. O único problema é que o tal homem não existe. É uma imagem criada por inteligência artificial, como informa uma pequena legenda abaixo da foto. 

Antes de seguir, quero só deixar claro que a reportagem de Eduardo Militão e Luiz Fernando Toledo, um levantamento de militares da Aeronáutica e Marinha expulsos por cometerem crimes ou infrações graves e cujas famílias seguem recebendo pensão vitalícia de até R$ 33 mil, é excelente. Não se trata do seu conteúdo. 

O uso de imagem gerada por IA para ilustrar o que seria a “quintessência” do militar condenado é, isso sim, um completo desastre. E não apenas porque muitos leitores podem achar que a figura sorridente de fato é uma pessoa (ou, pior ainda, eu juro que deve haver um ser humano bem parecido com esse cara andando por aí). Pior ainda é a estigmatização, a enxurrada de clichês que desumaniza as pessoas que são foco da matéria. Sim, milico também é gente, e os riscos dos vieses da inteligência artificial também estão em seguir o que informam aqueles que fantasiam sobre determinados grupos sociais – sejam eles negros, brancos, héteros, homens, mulheres, trans ou cis. Crime, punição e recompensas são temas sérios e merecem ser tratados de maneira cuidadosa. 

Não entendo por que essa foto não mereceu tanto debate quanto a famosa montagem feita por Gabriela Biló que sobrepunha a rachadura de um tiro sobre a janela do Palácio do Planalto ao peito do presidente Lula. 

Ambos inventam uma realidade que nunca existiu. Podem funcionar para a arte, mas são fatais para o jornalismo. 

É claro, o fato de a imagem ter sido gerada por IA agrega mais uma camada aos problemas éticos envolvidos no uso de fotomontagens para jornalismo. Um dos maiores problemas da IA é a sua capacidade de nos enganar: imagens geradas artificialmente podem ser facilmente tomadas por fotos de uma realidade que aconteceu; textos escritos artificialmente podem dar a impressão de ter mãos humanas por trás deles. 

A Folha, também, tem se valido de traduções artificiais para artigos internacionais, igualmente sinalizando de maneira discreta que a “tradução foi feita com o auxílio de inteligência artificial”. Uma leitura rápida demonstra que não é só “auxílio” de IA, mas o texto todo feito por IA, pois alguns trechos não fazem muito sentido em português. Como este: “Economista-chefe do Google, Hal Varian afirmou ao tribunal que o número de consultas de pesquisa que o Google recebeu era importante, mas não respondeu o tamanho de sua importância”. 

Nenhum editor-humano deixaria essa frase passar. 

Não sou dessas que vão ficar tripudiando sobre os erros da IA, nem dizer que a máquina é burra, etc., porque os avanços são brutais, acachapantes e sem retorno. 

O problema está muito mais no seu acerto, no simulacro de realidade, do que no seu erro. Se ainda queremos convencer as novas gerações de que a realidade existe de fato, e não apenas interpretações – eu sigo nessa batalha –, é preciso que o jornalismo reflita muito sobre como quer usar e como quer informar ao leitor que está usando inteligência artificial.

Até agora, só vi um posicionamento claro a esse respeito, que veio do site Núcleo, especializado em cobrir tecnologia. O Núcleo foi o primeiro veículo a publicar uma política editorial que tem um quê de manifesto, e abre com a seguinte frase: “O uso de inteligência artificial deve ser aplicado para facilitar o trabalho do jornalismo, não produzi-lo”. A redação do site explica que pode usar IA para fazer sumários das matérias, melhorar a redação de alguns parágrafos, mas jamais para produzir um texto inteiro e nunca sem a leitura de um humano.  

Ocorre que o buraco é mais embaixo. Hoje em dia, o jornalismo já é ciborgue, com a inteligência artificial já sendo amplamente adotada em diversas etapas do processo de construção da notícia. Mente quem diz que não está usando, inclusive esta que vos escreve. 

Não existe uma redação que não esteja usando, por exemplo, alguma ferramenta de transcrição automatizada de entrevistas, um dos gargalos desde sempre do jornalismo e que elimina muitas horas de trabalho (elimina também uma segunda escuta atenta de uma entrevista, alguma nuance é perdida). Também se usa bastante as ferramentas de tradução, que começaram com o Google Translate, avançaram com a transcrição ao vivo de reuniões via Zoom, dispararam com o ChatGPT e hoje já ameaçam entrar na seara da tradução simultânea e das dublagens de filme usando inclusive a voz real do ator, mas falado em outras quantas línguas forem necessárias (o quanto isso é um simulacro da realidade? O quanto isso é a realidade?). 

Robôs escrevendo posts para redes sociais, nem se fala – eu mesma sou uma das maiores advogadas desse uso, como já disse aqui, pois acho que é melhor deixarmos os robôs trabalhando para robôs e nos livrarmos logo de sermos escravos dos algoritmos de redes sociais. 

E, claro, não estou nem ainda falando da pesquisa em si, a busca de informação que já é feita por IA pelo Bing, da Microsoft, pelo menos; já há muito jornalista usando para aquela primeira pesquisa básica.  

Fato é que estamos falando de uma indústria que já é tremendamente impactada, seja no produto final ou nas fases anteriores ao conteúdo que é efetivamente publicado. Fica a pergunta: onde começa o trabalho do ser humano e onde termina o trabalho da máquina? 

Não apenas fica cada vez mais difícil categorizar o que é inteligência artificial; mas a distinção entre o que é produzido com inteligência artificial e o que não é torna-se cada vez mais nebulosa, cinzenta. Difícil traçar a linha divisória. 

A única maneira ética de lidarmos com isso é termos uma conversa franca a respeito, dentro das redações, entre atores da indústria, mas, principalmente, com o leitor.

Não é todo mundo que chega até aqui não! Você faz parte do grupo mais fiel da Pública, que costuma vir com a gente até a última palavra do texto. Mas sabia que menos de 1% de nossos leitores apoiam nosso trabalho financeiramente? Estes são Aliados da Pública, que são muito bem recompensados pela ajuda que eles dão. São descontos em livros, streaming de graça, participação nas nossas newsletters e contato direto com a redação em troca de um apoio que custa menos de R$ 1 por dia.

Clica aqui pra saber mais!

Se você chegou até aqui é porque realmente valoriza nosso jornalismo. Conheça e apoie o Programa dos Aliados, onde se reúnem os leitores mais fiéis da Pública, fundamentais para a gente continuar existindo e fazendo o jornalismo valente que você conhece. Se preferir, envie um pix de qualquer valor para contato@apublica.org.

Aviso

Este é um conteúdo exclusivo da Agência Pública e não pode ser republicado.

Faça parte

Saiba de tudo que investigamos

Fique por dentro

Receba conteúdos exclusivos da Pública de graça no seu email.

Artigos mais recentes