Quase 90% da população brasileira admite já ter acreditado em conteúdos falsos. É o que revela uma pesquisa do Instituto Locomotiva, obtida pela Agência Brasil. Entre as pessoas entrevistadas, no mesmo levantamento, 62% afirmam confiar na própria capacidade de diferenciar informações falsas e verdadeiras de um conteúdo. Mas, com os avanços das tecnologias que geram vídeos por inteligência artificial (IA), cada vez mais realistas, essa percepção pode mudar?
Quem deve ser responsabilizado quando uma inteligência artificial causa danos? O Brasil está preparado para entrar em um ano eleitoral com o uso massivo de IA? O Pauta Pública desta semana recebeu Ergon Cugler, pesquisador de IA & Big Techs para responder essas e outras questões, como o Projeto de Lei (PL) 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. Cugler reconhece que o PL já é um avanço no debate sobre o tema, mas alerta para lacunas, como a falta de clareza sobre as obrigações das empresas e os critérios de risco das tecnologias.
“O projeto é um passo zero para conseguir colocar um mínimo de responsabilização para quem desenvolve a inteligência artificial”, diz. Ainda de acordo com sua avaliação, a plataforma que decide colocar uma IA ao invés de um ser humano para avaliar, moderar e tomar decisões, precisa arcar com a precisão e consequência disso. Por exemplo, “[se o uso da IA] oferece risco de aumentar a desigualdade ou coloca vidas em perigo, ela não pode operar.”
Leia os principais pontos e ouça o podcast completo abaixo.
EP 172 Quem decide o que é real? – com Ergon Cugler
As tecnologias geradas por inteligência artificial avançam de um jeito que está cada vez mais difícil entender, à primeira vista, se uma imagem é real ou não. Quais são as consequências disso para nossa cultura e democracia?
Existem dois principais tipos de conteúdo: os estáticos, imagens, e agora vemos cada vez mais conteúdos audiovisuais, com imagens feitas por inteligência artificial. Estamos falando de vídeos editados com sons e até deepfake de rostos e vozes. Tem pessoas, por exemplo, usando esses recursos para influenciar e induzir opiniões. Vale lembrar que nos Estados Unidos, durante as eleições entre o Joe Biden e o Donald Trump, tiveram áudios falsos sendo divulgados do próprio Biden, como se ele estivesse ligando para as pessoas para elas deixarem de ir na votação das prévias ou então votarem diferente. E as pessoas infelizmente, acreditaram nisso.
A inteligência artificial também pode ser usada de forma maliciosa em outras frentes. Por exemplo, existem hoje bots, robôs, contas automatizadas, que ficam infiltradas em grupos de WhatsApp, em grupos de Telegram, só esperando uma palavra gatilho para chamar a pessoa no privado convidando, por exemplo, para entrar na rede de determinado político ou de determinado grupo.
Então, para muito além da chamada IA generativa, que gera imagem, gera vídeo, deixa às vezes a gente chocado do quão real parece, ela pode estar, muitas vezes, influenciando a política até pelos bastidores, sem nem precisar mostrar uma cara, ainda que seja uma cara gerada por inteligência artificial.
O Brasil está preparado para enfrentar uma campanha eleitoral com a circulação dessas mensagens hiper realistas geradas por inteligência artificial?
As eleições de 2022 são uma evidência de que o Brasil ainda não está preparado para lidar com a velocidade da internet como um todo. Quem dirá o uso de inteligência artificial cada vez mais sofisticado. Hoje, em 2025, já tem vídeos da nova IA do Google [VEO3], que tem gerado imagens tão impressionantes que, mesmo quando a situação é surreal, a gente olha para aquilo e parece muito real.
Então, imagina o seguinte, se a gente tem uma Justiça que ela trabalha por reação, que é legítimo, ela reage a manifestações de grupos, enfim, indivíduos, etc. Imagina o rito que a gente tem no próprio TRE (Tribunal Regional Eleitoral), pensando os TREs regionais e no próprio TSE (Tribunal Superior Eleitoral), no processo de julgamento de decisões do processo eleitoral. É muito mais grave, porque a gente não tem uma estrutura regulatória, inclusive para além do Judiciário. Por isso que é importante pensar uma estrutura regulatória, seja por um Sistema Nacional de Inteligência Artificial ou por um comitê, que é o caso do CGI.br (Comitê Gestor da Internet no Brasil), que já existe há mais de década, e que ainda assim debate-se se ele deveria existir ou não.
O ponto é, o Judiciário, por si só, ele não tem velocidade para conseguir reagir aos avanços da inteligência artificial, porque ele já tem demonstrado que não tem velocidade para reagir suficientemente para a internet tal como ela é. Por isso, além do Judiciário, precisamos de uma estrutura regulatória que atue no preventivo também, e não só no reativo, que consiga, antes de ter problema por decorrência de inteligência artificial. Pensar gatilhos, pensar ações de regulação, pensar punições para quem, por exemplo, está usando de forma maliciosa para ganhar dinheiro ou para ganho eleitoral.
Então, eu entendo, e a sociedade civil tem discutido cada vez mais, que, infelizmente, só a ação do Judiciário não é o suficiente. E vale mencionar de forma muito breve: que é uma discussão que hoje o STF (Supremo Tribunal Federal) faz sobre o artigo 19 do Marco Civil da Internet. E, pelo fato do Congresso Nacional não ter discutido, não ter topado votar o PL da fake news (Projeto de Lei nº 2.630/2020), ou atrasar com a votação desses outros pontos.
Estamos vendo a discussão subindo para o Judiciário, mas carece de um debate mais envolvido da sociedade civil e que vai para uma perspectiva que não necessariamente a gente consiga, enquanto sociedade civil, incidir de forma tão forte. O processo não está sendo discutido na Casa do Povo, no Parlamento, o Judiciário tem assumido para tratar de um problema que é urgente.
O PL 2.338/2023, que regulamenta a inteligência artificial no Brasil, foi aprovado no Senado e encaminhado para a Câmara dos Deputados para aprovação final. Qual é a avaliação que você faz desse projeto? Ele é suficiente para proteger a população do uso indevido das IAs?
O projeto representa um passo inicial para estabelecer um mínimo de responsabilização sobre quem desenvolve tecnologias de inteligência artificial. Considere, por exemplo, qualquer plataforma de comércio eletrônico. Hoje, existem diversas opções nas quais é possível comprar e vender produtos online. Por trás dessas operações, há um sistema automatizado — um algoritmo, uma inteligência artificial — que decide para quem um determinado anúncio será exibido e para quem não será.
Essa mesma inteligência artificial, com base em diferentes parâmetros, pode interpretar erroneamente o conteúdo de um anúncio. Por exemplo, ao tentar vender “bombas de chocolate”, o sistema pode entender que se trata de um item explosivo, não de um doce.
Esse tipo de mediação automatizada precisa ser objeto de responsabilização. Afinal, a decisão de substituir a avaliação humana por um sistema de inteligência artificial foi tomada pela própria plataforma. Portanto, cabe a ela responder pela precisão e pelas consequências dessas decisões. O exemplo citado pode parecer trivial, mas o impacto desse tipo de erro pode ocorrer em diversas áreas.
Tomemos outro exemplo: câmeras de vigilância com reconhecimento facial operado por inteligência artificial. Já existem casos em que essas tecnologias identificam equivocadamente uma pessoa como criminosa. A pessoa é então processada, detida, e permanece semanas em prisão preventiva aguardando julgamento — para, no final, comprovar-se que não era ela. Esse tipo de erro, que pode parecer hipotético ou exagerado, já aconteceu em diversas situações reais — e afeta de forma desproporcional a população negra e parda.
Uma legislação que imponha responsabilidades claras a quem utiliza essas tecnologias força empresas e instituições a investir mais recursos em segurança e precisão. Isso as leva a refletir antes de adotar soluções automatizadas em substituição à decisão humana — especialmente quando se trata de tecnologias mais baratas que colocam em risco pessoas que podem ser injustamente punidas.
Nesse sentido, o projeto de lei é de grande importância. Mas há outros projetos relevantes em tramitação. Destaco dois, de temas correlatos: o PL 2.630/2020, conhecido como PL das Fake News — apesar de o termo “fake news” nem constar no seu texto, que trata, sobretudo, da responsabilização das plataformas digitais pelo conteúdo que nelas circula; e o PL 2.628/2022, conhecido como PL das Crianças e Adolescentes no Ambiente Digital, que propõe regras específicas para a proteção de um público vulnerável a golpes e abusos mediados por inteligência artificial.