Se aprovado como está, o PL 2338, da inteligência artificial (IA), proibirá apenas a produção intencional de conteúdos de exploração sexual de crianças e adolescentes. Segundo o texto, as plataformas não poderão se voltar ou serem usadas especificamente para produzir imagens de exploração infantil, no entanto, abre-se uma brecha para que usos indevidos acabem não sendo responsabilizados. A mudança foi feita na última versão do projeto, apresentada nesta terça-feira (3) no Senado. Antes, o texto proibia a geração de imagens de abuso infantil “independentemente da intencionalidade do agente de IA”. O PL deve ser votado nesta quinta na Comissão Temporária de Inteligência Artificial (CTIA).
Para a analista de relações governamentais do Instituto Alana, Emanuella Halfeld, “se antes a gente tinha um compromisso de tolerância zero [contra o abuso sexual de crianças e adolescentes], agora a gente cai nessa questão de depender de uma interpretação jurídica”. Ela considera que a circulação de imagens de exploração geradas por IA “perpetua o ciclo de violência contra infâncias e adolescências em um país onde existe essa violência material”.
O tema tem estado em debate desde o primeiro relatório, apresentado pelo relator, senador Eduardo Gomes (PL-TO), na CTIA. Nos primeiros dois relatórios, em 7 e 18 de junho deste ano, o projeto propunha a vedação de todos os sistemas que possibilitassem a geração de imagens de abuso infantil. Entretanto, em 4 de julho, a proteção foi condicionada ao “propósito” do desenvolvedor. Após lobby das empresas de tecnologia, a apreciação do PL foi deixada para depois das eleições municipais.
No dia 28 de novembro, Gomes publicou novo texto, acatando parcialmente a emenda 133, do senador Alessandro Vieira (MDB-SE), sob argumento de que condicionar a proibição de imagens de abuso à intencionalidade representava um “enfraquecimento” da proteção de crianças e adolescentes. Ao aceitar a emenda, Gomes escreveu: “com isso, o projeto reforça sua linguagem de proteção a grupos hipervulneráveis, que são mais impactados, tanto negativa quanto positivamente, pelo uso da inteligência artificial”.
Seis dias depois, o senador voltou atrás e rejeitou a mesma emenda com o argumento de que as crianças já estariam suficientemente protegidas pelo projeto. “Alguém fez ele mudar de ideia. […] O lobby [do setor de tecnologia] está tão forte, tão escancarado e tão fora de controle que até uma cláusula que é superprotetora de crianças e adolescentes, um tópico que é tão sensível, o setor privado está passando o trator”, avalia o coordenador de direitos digitais do Instituto de Defesa de Consumidores (Idec), Luã Cruz. “Cada versão do texto é menos direito, é menos proteção”, lamenta.
O risco do feed infantil
Além da tentativa de proibir a geração de imagens de exploração sexual infantil, não importando a intenção do criador do programa, organizações da sociedade civil como o Idec, a Coalizão Direitos na Rede o Instituto Alana têm tentado incluir uma nova camada de proteção à infância e adolescência no PL 2338, voltada à recomendação de conteúdos para crianças e adolescentes em redes sociais.
Os grupos têm articulado para que seja aprovada a emenda 189, do senador Rogério Carvalho (PT-SE), apresentada na última segunda-feira (2), mas já rejeitada por Gomes. A emenda propõe que os sistemas de distribuição de conteúdo em larga escala usados por crianças e adolescentes sejam classificados como de alto risco, o que significaria maiores obrigações e transparência por parte das empresas que os mantêm. Essas plataformas, por exemplo, são as que determinam as recomendações aos usuários das redes sociais, a exemplo de vídeos.
O tema se relaciona a outro artigo do PL, também retirado nesta semana, que tratava da classificação de alto risco quanto à distribuição e à recomendação de conteúdo com base em IA. “Se a gente não consegue proteger todas as pessoas, todos os cidadãos, essa emenda é uma tentativa de proteger um determinado grupo específico”, afirmou Cruz.