Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.
Há alguns dias, estive com o deputado Orlando Silva, relator do finado PL das Fake News. O Superior Tribunal Federal (STF) já havia formado maioria para responsabilizar as Big Techs. Mas, diferentemente do que se poderia pensar, Orlando não estava comemorando, pelo contrário. “Eu só lamento, porque é uma atividade típica do parlamento”, ele me disse. “E se você observar os votos dos parlamentares, dos ministros, mas muito do debate nosso está lá. Muito. Dever de cuidado, risco sistêmico, devido processo para liberdade de expressão, obrigação de transparência, regime de responsabilidade, o projeto de lei inteiro está lá”.
Orlando sem dúvida é a pessoa que mais trabalhou para que o Brasil tivesse uma legislação ponderada que estabelecesse responsabilidades objetivas às gigantes da tecnologia sobre questões de mercado, de conteúdo ilegal e de transparência. Foi atacado de tudo que é jeito, xingado, sabotado, virou memes de baixo calão – nada disso o incomodou.
“Isso é dentro do jogo. Agora, não dá pra você, fora da regra do jogo, usar poder no mercado pra difundir sua posição”. Foi o que aconteceu quando Google e Telegram decidiram espalhar anúncios, usar as próprias plataformas e instigar usuários a se rebelarem contra o PL 2630. O projeto foi para a gaveta e ali morreu.
O que mudou?
Redes sociais, plataformas digitais que publiquem conteúdos dos usuários, microblogs, como X, BlueSky, Facebook, Instagram, YouTube têm que retirar do ar proativamente ou a partir de denúncias do público ou notificação extrajudiciais conteúdos repetidos que promovam: Tentativa de golpe de Estado, abolição do Estado Democrático de Direito, terrorismo, instigação à mutilação ou ao suicídio, racismo, homofobia, crimes contra mulheres, pornografia infantil e tráfico de pessoas. (Não se aplica se se tratar de apenas um conteúdo isolado).
Em caso de crimes contra a honra, é necessário decisão judicial por conta das postagens ou decisão anterior sobre a mesma ofensa.
As plataformas terão que ter um Sistema de autorregulação, publicar relatórios periódicos sobre as denúncias e remoções de conteúdo, demonstrar que têm sistemas de moderação responsivos e ágeis e manter um canal de atendimento do público com curto prazo de análise. Devem, ainda, manter sede no Brasil com PJ registrado no Brasil e representante legal.
Esse é, talvez, o maior avanço que a decisão proferida pelo STF no dia 25 de junho traz: ela é um recado às Big Techs de que é preciso respeitar as instituições e a lei brasileira.
Desde a época do engavetamento do PL, em maio de 2023, as Big Techs apenas pioraram: tivemos a mentirosa orquestração dos Twitter Files, documentos vazados pelo próprio Elon Musk pra organizar uma narrativa falsa sobre censura no Brasil; o embate com o STF que levou à suspensão da rede; os CEOs enfileirados na posse de Donald Trump; o vídeo de Mark Zuckerberg avisando que se aliava ao presidente Trump pra lutar contra regulação pelo mundo e contra “cortes secretos” na América Latina – um recado ao STF; ameaças do governo Trump de sancionar Alexandre de Moraes por “censurar” americanos. Apenas na semana, Trump anunciou que irá impor novas tarifas ao Canadá porque aquele país quer taxar as Big Techs.
Nesse cenário, a decisão do STF, que contém erros e acertos, é a melhor possível. Fato é que, se vamos ter que conviver com um conjunto de normas feitas pelo Supremo e não pelo Congresso, só existe um grande culpado: são as próprias Big Techs.
O Supremo decidiu que o Artigo 19 do Marco Civil da Internet é parcialmente inconstitucional ao determinar que todas as plataformas de internet só podem ser responsabilizadas por conteúdo postado por usuários depois de uma ordem judicial.
Isso agora mudou.
Para o Supremo, há um “estado de omissão” por que o Artigo 19 não confere proteção a direitos fundamentais e à democracia.
O STF estabeleceu regimes de responsabilidade diferenciados. Para provedores de e-mail, aplicativos de reuniões fechadas e serviços de mensagens privadas, como WhatsApp e Telegram, segue valendo o Artigo 19 do Marco Civil. Para marketplaces, como Amazon e Magazine Luiza, vale o Código de Defesa do Consumidor. Para redes sociais, plataformas de conteúdo aberto e serviços digitais com conteúdos criados pelos usuários, como Facebook, Instagram, X, YouTube e similares, valem as novas regras de responsabilização, que descreverei a seguir.
Importante: quando se fala de responsabilização, isso significa indenização – responsabilização civil. Vai doer no bolso, que é o que importa para essas empresas.
Um dos erros da decisão, como apontou Ronaldo Lemos – que se orgulha de ser um dos “pais” do Marco Civil – foi o fato de que o STF não determinou o tamanho das empresas que terão que cumprir as regras. Se fossemos seguir o modelo europeu, apenas empresas gigantes, com mais de 45 milhões de usuários, teriam que seguir a determinação. Agora, não fica claro quem deve seguir.
Outro problema diz respeito à determinação dúbia de responsabilidade sobre “crimes de honra” – injúria e difamação. O STF decidiu, acertadamente, que nesses casos é o Artigo 19 que vale: ou seja, é necessária uma ordem judicial para a retirada do conteúdo. Mas, ao mesmo tempo, decidiu que em casos em que já existe uma ordem judicial, as plataformas devem remover conteúdo sem a necessidade de decisão de um juiz.
Aí a coisa fica complicada: se um juiz decidiu a retirada de um conteúdo a pedido de um político – como é o caso da nossa reportagem censurada a pedido de Arthur Lira – mesmo que a coisa esteja em litígio, então ninguém mais poderá falar sobre o caso nas redes sociais?
Por outro lado, os ministros decidiram bem em relação à necessidade de retirada de conteúdos flagrantemente ilegais pelas plataformas sem necessidade de ação judicial em casos de tentativa de golpe de Estado, abolição do Estado Democrático de Direito, terrorismo, instigação à mutilação ou ao suicídio, racismo, homofobia, crimes contra mulheres, pornografia infantil e tráfico de pessoas.
Se este entendimento já estivesse valendo no 8 de janeiro, as plataformas teriam que ter uma equipe capacitada para filtrar e retirar todas as postagens que levaram golpistas a atacarem o Palácio dos Três poderes. É possível que não tivéssemos visto uma traumatizante insurreição contra uma eleição democrática.
Importante: isso não vale em caso de postagens isoladas e a responsabilização pode ser evitada se a plataforma demonstrar que atuou “diligentemente e em tempo razoável” para retirarem o conteúdo.
Outro grande acerto do STF foi criar dois casos em que a responsabilidade é presumida, ou seja, as plataformas têm que remover postagens ilegais e ponto. Isso vale nos casos de anúncios pagos e conteúdos impulsionados e também em narrativas impulsionadas por robôs.
O STF determinou ainda outras exigências que vão além da moderação. As plataformas terão que ter um sistema de autorregulação, publicar relatórios periódicos sobre as denúncias e remoções de conteúdo, demonstrar que têm sistemas de moderação responsivos e ágeis e manter um canal de atendimento do público com curto prazo de análise. Devem, ainda, manter sede no Brasil com PJ registrado no Brasil e representante legal.
Mas e agora? A decisão ainda pode ser reformada e aprimorada diante dos embargos de declaração, que devem vir aos montes. A própria decisão do STF parece dar a dica do que os ministros esperam. O penúltimo parágrafo chega a ser dramático: “apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”.
Portanto, está dada a largada para uma nova tentativa de legislação. O lobby das Big Techs deve estar em polvorosa, assim como as articulações da sociedade civil que trabalha por direitos digitais.
Mas o avanço não vai ser fácil, uma vez que desde 2023 para cá muita coisa azedou. Criou-se um bloco ultra-fortalecido de extrema direita na Câmara dos Deputados que impede qualquer discussão sobre regulação, afirmando ser “censura”. É normal ver postagens nas redes de deputados da estirpe de Nikolas Ferreira, Gustavo Gayer, Luisa Canziani, afirmando que “vão derrubar qualquer lei” que tente regular as plataformas digitais.
Caberá às próprias Big Techs convencer o bloco bolsonarista que, de repente, é melhor regular. Como elas vão fazer isso, não sei.
Por outro lado, a via do “braço forte” tem também suas limitações. Trump pode até decidir aplicar tarifas comerciais contra o Brasil como medida de retaliação, mas a China está logo ali de olho em quaisquer oportunidades que pintarem. Não podemos esquecer que, embora tenha ameaçado há um mês, o próprio Secretário de Estado Marcio Rubio não anunciou até agora nenhuma atitude contra Alexandre de Moraes. Perder o Brasil de vez em um mundo cada vez mais polarizado e com ânimos de guerra mundial não é totalmente do interesse dos EUA.
Por fim, confiar numa redenção bolsonarista que volte ao poder de mãos dadas com as Big Techs – como ocorreu nos EUA com Trump – também é uma aposta arriscada. Afinal, como se viu ontem no magro protesto na Paulista, e como se viu em recentes pesquisas de opinião, a maioria das pessoas acha que Bolsonaro deve abrir mão da candidatura e tocar a vida.
Ou seja: vai ser muito desafiador aos lobistas e executivos das Big Tech consertar, ou pelo menos mitigar, o estrago que elas mesmas causaram. Ainda bem que são gente muito bem paga, com polpudos bônus anuais, e tenho certeza que em breve irão nos surpreender e dar muito assunto aqui pra essa newsletter/coluna.