Hoje, a Agência Pública traz mais uma parte da série A Mão Invisível das Big Techs, uma investigação transnacional liderada ao lado do Centro Latino-Americano de Investigação Jornalística (CLIP), desta vez escrita a dez mãos com colegas do Canadá, Austrália e Indonésia. Contamos detalhes sobre a batalha do Google e do Facebook contra legislações que pretendem exigir pagamento pelo uso de conteúdo jornalístico. Nossa história revela que nesta batalha contra regulação, as Big Techs lançaram mão, além do cardápio mais tradicional, de novas estratégias que incluíram ameaças, desinformação e contratos para ganhar a simpatia da imprensa – uma estratégia chamada por um ex-executivo de “alugando o seu inimigo”.
Quando perguntamos, eu e a colega canadense Carly Penrose, ao ex-vice-presidente de notícias do Google, Richard Gingras, se houve manipulação algorítmica do Google para frear a votação do PL das Fake News, espalhando aquelas mensagens enganosas – que o PL ia piorar a internet ou que era “censura” – ele foi veemente em afirmar que não. Mas foi essa talvez a ação mais chocante de todo o largo arsenal usado pela Big Tech para assustar a população e os parlamentares e impedir a votação. Como mensuraram os pesquisadores do Netlab (Laboratório de Estudos de Internet e Redes Sociais da Universidade Federal do Rio de Janeiro), as buscas por “PL da censura” saltaram no Google de uma hora para outra, e a busca passou a referenciar o tema, que não era novo, mas havia sido adotado como arma de guerra apenas alguns dias antes.
Duas investigações sobre possível manipulação não deram em nada – em parte, pode-se supor, pela atuação do ex-presidente Michel Temer, contratado pelo Google para intervir no processo. Mas a pulga segue atrás da orelha: houve manipulação algorítmica das Big Techs para frear o PL 2630?
Há muitos indícios que já houve, sim, manipulação algorítmica para fins políticos. E isso muda totalmente a conversa quando falamos da necessidade de se regular as Big Techs. Temos que deixar de lado a suposição que estamos falando de algoritmos neutros, sem qualquer possibilidade de intervenção humana. Ou de empresas que, por pura postura moral, jamais fariam intervenções no seu produto por uma conveniência política, para derrotar uma lei ou um governo.
Pela intrusão dos seus produtos na vida de todas as pessoas – eles mediam nossas conversas, nosso trabalho, nossos amores e nossa vida financeira – essa possibilidade tem que ser levada com enorme seriedade.
Eu já contei nesta coluna como Elon Musk exigiu uma mudança no algoritmo do Twitter quando ele comprou a rede para que seus tweets chegassem a praticamente todo mundo, segundo o livro “Limite de Caracteres”, dos jornalistas Kate Conger e Ryan Mac. Mas Sarah Wynn Williams, no livro “Careless People”, diz ter escutado a mesma informação sobre o alcance da página de Mark Zuckerberg no Facebook. Há diversos outros episódios no livro que sugerem que mexer nos algoritmos é algo que entra na conta da empresa quando pensando em ações políticas que a podem beneficiar.
Um exemplo é uma página criada pela equipe do próprio Facebook para celebrar a visita de Xi Jinping aos EUA em 2015. A página alcançou mais de 5 milhões de seguidores em pouco tempo – o crescimento foi visto por ela como uma movimentação para impressionar o mandatário chinês e permitir a entrada da Meta no país. “O que exatamente foi feito com o algoritmo para aumentar o público? Nós vamos oferecer o mesmo serviço valioso para outros chefes de governo”, escreve Sarah.
Outro episódio detalhado é a batalha do Facebook pela aprovação na Índia do seu produto “Free Basics”, uma versão mais leve do Facebook.
Foi uma campanha avassaladora, que traz muitas semelhanças com o que ocorreu por aqui. Segundo a descrição de Sarah, o Facebook estabeleceu um “war room”, uma sala de guerra para definir o que seria chamado de “India Action Plan” e que um documento interno descreve como “galvanizar apoio público de fato (ou pelo menos a aparência de)”.
Entram no plano táticas tradicionais, como anúncios na TV, cinemas, rádios, artigos de opinião nos jornais. Mas também há “dark posts”, anúncios direcionados que só podem ser vistos pelo público-alvo, no próprio Facebook, que deveriam alcançar 50% dos usuários adultos da Índia. O time do Facebook organiza protestos. Mas também aciona uma ferramenta que permite que qualquer pessoa envie mensagens aos seus contatos avisando que o “Free Basics está correndo risco na Índia”. O “megafone” inclui um botão vermelho através do qual os usuários mandam emails para o governo. A cada email mandado, uma mensagem é enviada para uma lista de contatos avisando que enviaram cartas ao governo. “Muitos usuários reclamaram que mesmo que eles não quisessem enviar o email, apenas por estarem na página do Facebook, fazia com que uma mensagem fosse enviada para o órgão regulador”, diz Sarah. Resultado: mais de 17 milhões de emails enviados aos reguladores.
No caso da Índia, apesar da pressão intensa, o Free Basics foi proibido no país. Mas a história demonstra como a empresa pode, sim, engajar seus engenheiros para “dar amor aos políticos”.
O risco de termos plataformas com tanto poder de criar revolta e mobilização para seu próprio benefício – estratégia conhecida como ‘astroturfing’ – sem que haja nenhuma fiscalização sobre o uso dos algoritmos é ainda mais temerário quando sabemos sobre considerações feitas nos escalões mais altos do Facebook sobre como combater a regulação no mundo.
No livro, Sarah relata uma reunião, em fevereiro de 2016, do Conselho da empresa, que então incluía figuras como o empresário Peter Thiel, o cofundador da Netflix Reed Hastings, e o investidor Marc Andreessen. Na reunião, a equipe de relações governamentais explica que há uma onda de regulações já em curso “e a coisa deve ficar pior”.
Sarah descreve: “A resposta deles é: acordos. O que esses atores diferentes querem? Especialmente os tomadores de decisão, os reguladores, os políticos. E o que o Facebook pode ‘oferecer a eles?’. O que vai frear a regulação e mudar a narrativa global sobre o Facebook?”
A conversa relatada é ainda mais reveladora porque, em seguida, o conselho da empresa passa a discutir “que outras empresas ou indústrias navegaram desafios semelhantes, onde tiveram que mudar a narrativa que diz que eles são um perigo para a sociedade, atraindo grandes lucros, empurrando todas as externalidades para a sociedade e não dando nada em troca”. Depois de algumas sugestões, um executivo finalmente diz o que “todos estão pensando (mas não dizendo): tabaco”.
É nesta batalha que estão inseridas as Big Techs na última década, e que levou o Brasil a ser o foco das pressões americanas. Talvez, como no caso da indústria do tabaco, seja necessária uma convenção internacional para derrotar tamanha força política. Em 2003, a ONU aprovou a Convenção-Quadro sobre Controle do Uso do Tabaco, resultado de um longo processo de enfrentamento de mais de 20 anos contra um dos lobbies mais tradicionais e danosos do mundo. Talvez leve tanto tempo para que as sociedades consigam civilizar as Big Techs, mas uma coisa é certa: só com informação poderemos avançar nesse debate.