O projeto Sentinela Eleitoral é uma aliança entre jornalistas e acadêmicos para investigar as campanhas de manipulação do debate público e a desinformação online nas eleições de 2022, com especial foco naquelas que ameaçam a estabilidade democrática.
Em parceria com o pesquisador David Nemer e o Berkman Klein Center for Internet & Society da Universidade de Harvard, o projeto vai trazer ao público informações exclusivas e análises que geralmente ficam restritas à academia, lançando luz sobre narrativas inautênticas, seus atores e seu financiamento. Entenda mais sobre os conceitos e metodologias usadas pela equipe aqui. E leia o glossário de termos relevantes aqui.
Além dos conteúdos publicados neste site – e que podem ser reproduzidos livremente seguindo as regras de republicação da Agência Pública – o projeto trará toda segunda-feira uma newsletter exclusiva que vai analisar eventos e estratégias para enfraquecer a democracia no Brasil e no Mundo. Assine aqui a newsletter.
Coordenação e edição:
Idealização e curadoria acadêmica:
Edição:
Reportagem:
Parceiros Acadêmicos:
Berkman Klein Center for Internet & Society da Universidade de Harvard
Media Lab da Universidade da Virgínia
Parceiros de Tecnologia:
Trint e 7c0
Veículos parceiros:
Existem sete tipos de “fake news” rodando nas redes sociais. Alguns deles são meros enganos, ou informações retiradas do contexto. Esses não são nosso foco.
Para o Sentinela, interessam aqueles conteúdos fabricados ou disseminados deliberadamente com a intenção de manipular o debate público, de maneira coordenada e não orgânica. Essas campanhas são realizadas por agentes que podem receber recompensas financeiras ou outros tipos de recompensa, como visibilidade, likes ou possibilidade de monetização dos seus canais. Chamamos esse tipo de fake news de “desinformação”.
Campanhas de desinformação seguem um ciclo de vida. Segundo a equipe do Technology and Social Change project (TaSC) da Universidade de Harvard, são cinco estágios: o planejamento ou origem, que inclui a criação de narrativas, imagens, vídeos e outros materiais para serem divulgados online; a disseminação da campanha em variadas plataformas; as respostas e o engajamento de influenciadores, ativistas, políticos e jornalistas; a mitigação, que pode ser feita pelas plataformas de redes sociais, veículos de comunicação ou organizações da sociedade civil ou órgãos públicos; e as adaptações dos atores desinformantes às respostas e à mitigação.
Existem vários métodos para documentar e analisar essas campanhas de manipulação: estudos de caso, pesquisas qualitativa e quantitativas, mapeamento de redes, rastreamento de processos e estudos etnográficos. Outras fontes incluem relatórios sobre ameaças, bibliotecas de anúncios e outros documentos comerciais, pesquisas acadêmicas, declarações públicas de atores relevantes, prints de mídias e textos.
Como metodologia de apuração, mantemos uma base de dados atualizada que monitora 250 grupos em aplicativos de mensagem e centenas de perfis em diferentes redes sociais. Nossa equipe faz o acompanhamento diário das interações nas redes sociais e parte desses dados para fazer levantamentos quantitativos e qualitativos sobre a produção de narrativas.
Muitas vezes, uma “onda” de desinformação é apenas o começo para uma investigação jornalística. A partir daí, buscamos identificar atores envolvidos, repercussões da desinformação no mundo offline, como em atos governamentais, por exemplo, esquemas de financiamento ou apoio que envolvam empresas ou grupos de lobby, além de documentos, entrevistas e outros tipos de registros que ajudem a entender como funciona cada campanha de desinformação. Também utilizamos nas investigações dados da circulação das mensagens nas redes, extraídos a partir de raspagem de dados de hashtags, de perfis e de termos para respaldar as reportagens.
Descrever a circulação de conteúdos desinformativos, dos atores envolvidos e das suas estratégias nas plataformas é uma ferramenta metodológica já utilizada em pesquisas de redes digitais, e que será utilizada neste projeto. Teorias como a Ator-Rede e técnicas como a análise de controvérsias são referências para entender, dentre outros aspectos, como esse conjunto de perfis, plataformas, algoritmos e contextos sociais e políticos transformam e constroem fatos sociais e disputas de significado.
Nos textos escritos no Sentinela, encorajamos os nossos autores a buscarem referências e estudos publicados nos assuntos para auxiliar no entendimento dos seus achados e dados.
Campanhas de desinformação atendem à estratégia definida pela equipe do TASC como “turvar as águas” (‘muddy the waters’, em inglês).
O termo se refere à criação de um ambiente informático confuso e desorientador, no qual é difícil para um cidadão comum separar o que é verdade do que é mentira. Isso acontece quando há uma proliferação de fontes desinformacionais competindo com fontes que relatam fatos, como jornais, sites independentes, a comunidade acadêmica.
A tática é mais relevante em momentos de instabilidade política fabricada para ganho pessoal. Um dos maiores exemplos de ‘turvar as águas’ na política recente foi a campanha de Donald Trump para reverter a sua derrota nas eleições americanas de 2020 – alegando ‘fraude’ – o que levou à invasão do Capitólio por uma turba armada em 6 de janeiro de 2021.
É assim que uma campanha de desinformação pode levar a ações concretas, na vida real. Nosso objetivo com o Sentinela é investigar, documentar e denunciar estratégias que pretendem desestabilizar as eleições brasileiras.
Glossário Sentinela
Assédio online: Campanha orquestrada de ataques verbais violentos, ameaças, assédio sexual ou destruição de reputação de um ou mais alvos.
Caixa Dois: Pagamento de custos de uma campanha política online feitos “por debaixo do pano”, não registrada junto à Justiça Eleitoral; pode ser feito via oferta de serviços ou bens e não apenas pagamento em dinheiro.
Checagem de fatos (fact-checking): Apuração jornalística que confronta narrativas, memes ou declarações com dados, pesquisas e registros para verificar se uma afirmação, história, meme ou vídeo é verdadeira.
Comportamento inautêntico: comportamento proveniente de contas que tentam fazer seus conteúdos parecerem mais populares ou ativos do que são. Geralmente agem de forma coordenada, para tentar influenciar artificialmente as conversas por meio do uso de várias contas, contas falsas, automação e/ou scripts.
Conta automatizada: O mesmo que ‘robô’.
Conta hiper-partidária: contas dedicadas a promover políticos, partidos e/ou ideologias políticas. Geralmente engajam em comportamento inautêntico.
Deep Fake: Conteúdo audiovisual criado por manipulação de imagens que simulam com extremo realismo uma situação ou fala que não aconteceu
Desinformação: Informações que são deliberadamente falsas ou enganosas, muitas vezes espalhadas para ganho ou lucro político, ou para desacreditar um indivíduo, grupo, movimento ou partido político alvo.
Desmonetização: Remoção da capacidade de uma conta, canal ou indivíduo gerar receita com seu conteúdo em uma plataforma.
Desplataformização (De-Platforming): Remover uma conta de uma rede social por ter ferido as regras de uso ou termos de serviço
Engajamento: Quantidades de respostas e interações em um comentário ou conta, tais como likes, emojis, retweets etc. Costumam impulsionar conteúdos através dos algoritmos das redes.
Fake News: Conteúdo falso. Pode ser criado para desinformar ou sem intenção de causar mal.
Impulsionamento: Pagamento para que mensagens em redes sociais tenham maior alcance.
Influenciador: Um indivíduo que possui uma audiência considerável em seus canais da internet e pode influenciar o comportamento de seus seguidores.
Moderação de conteúdo: “Limpeza” de uma rede que pode envolver sinalizar conteúdo falso, reduzir alcance, editar ou excluir postagens.
Monetização: Ferramenta disponibilizada pelas plataformas de redes sociais como Google, Facebook, Twitter, Instagram e Youtube para que os criadores de conteúdo ganhem dinheiro com o conteúdo que produzem.
Plataformas: Empresas que criaram e mantêm redes sociais tais como Google, Facebook/Meta, Instagram, Whatsapp, Telegram, TikTok e Youtube.
Redes sociais: Sites onde quem cria o conteúdo são os próprios usuários e há uma dinâmica de interação entre eles, através da interação perfil-perfil, por meio de grupos, páginas ou outras ferramentas que agrupam conteúdos. Costumam ser mediadas por algoritmos que alteram a distribuição do conteúdo.
Robôs: os “bots” geralmente se referem a contas de mídia social que são automatizadas, às vezes implantadas para fins enganosos, como amplificar artificialmente uma mensagem, manipular um algoritmo ou inflar o engajamento de uma conta.
Verificação: Uma checagem destinada especificamente a conteúdos de desinformação, ou seja, criados para manipular o debate público.
Viralização: conteúdo na internet que é amplamente compartilhado e recebe grande interação de maneira orgânica, mas que às vezes pode receber auxílio de bots ou contas inautênticas para iniciar o compartilhamento.
25 de julho de 2022 | por Mariama Correia
26 de maio de 2022 | por Matheus Santino
Assine a nossa newsletter. Tudo o que você perdeu na semana, no seu email.
Você pode republicar as matérias da Pública de graça no seu site – só precisa seguir algumas regras. Clique aqui e saiba como.