Demorou

Meta admite erro ao manter vídeo convocando para ato terrorista do 8 de janeiro

Vídeo postado em 3 janeiro conclamava as pessoas a “sitiar” o Congresso como “a última alternativa” após posse de Lula

(Joédson Alves/Agência Brasil)
(Joédson Alves/Agência Brasil)
Trabalhadores farão ato para lembrar importância da defesa da democracia

*desinformante – O Comitê de Supervisão da Meta (Oversight Board) anunciou nesta quinta-feira (9) que selecionou um caso brasileiro relacionado aos atos antidemocráticos de 8 de janeiro para apreciação. O Oversight Board é um órgão independente que toma decisões de moderação de conteúdo que definem precedentes para as plataformas de mídia social Facebook e Instagram. A Meta é a empresa detentora do Facebook, Instagram e WhatsApp.

O caso em questão trata da manutenção de um vídeo postado cinco dias antes do 8 de janeiro que conclamava as pessoas a “sitiar” o Congresso Nacional como “a última alternativa” após a posse do presidente Luiz Inácio Lula da Silva. O conteúdo foi denunciado sete vezes no Facebook e mantido por revisores humanos que consideraram que o conteúdo não violava as políticas da Meta. 

O vídeo, de acordo com o Comitê de Supervisão, mostra parte de um discurso que chama as pessoas para “ir às ruas” e “ir ao Congresso Nacional… [e ao] Supremo Tribunal Federal”. Há imagens de um incêndio na Praça dos Três Poderes em Brasília e um texto que dizia: “Venha para Brasília! Vamos sitiar os três poderes”. O conteúdo, reproduzido mais de 18 mil vezes, também continha dúvidas sobre o sistema eleitoral, com uma imagem que dizia: “exigimos o código-fonte”.

No mesmo dia da publicação, quatro usuários denunciaram o conteúdo sete vezes por violar os padrões sobre Violência e Incitamento da Meta, que proíbem declarações que incitem “entrar à força em locais onde há sinais temporários de risco elevado de violência ou dano no meio físico”. 

“Após a primeira denúncia, o conteúdo foi avaliado por um revisor humano e considerado adequado às políticas da Meta. O usuário apelou da decisão, mas ela foi mantida por um segundo revisor humano. No dia seguinte, os outros seis relatórios foram revisados por cinco moderadores diferentes, todos os quais consideraram que o vídeo não violava as políticas da Meta. O conteúdo não foi encaminhado para especialistas em políticas ou assuntos para revisão adicional”, registrou o Oversight Board.

Somente após um dos usuários recorrer da decisão e acionar o Comitê de Supervisão e a apelação ser aceita, a Meta admitiu que deixar o conteúdo foi um erro, mas não soube informar o que motivou os cinco revisores a tomarem essa decisão. O caso foi selecionado, de acordo com o Board, para que seja examinado como a empresa modera o conteúdo relacionado a eleições e como aplica o Protocolo de Política de Crise em um local designado como “temporário de alto risco”. 

O Conselho abriu inscrições para receber comentários públicos sobre o caso, especialmente os que abordam a situação política no Brasil, a violência política, o negacionismo eleitoral e os apelos a mobilizações. Além disso, pedem colaborações sobre como a Meta deve tratar o conteúdo que ataca ou deslegitima instituições e processos democráticos e quando os esforços de integridade eleitoral devem começar e terminar.

Organização faz apelação sobre erros na moderação dos anúncios políticos 

O laboratório de pesquisa brasileiro NetLab, da Universidade Federal do Rio de Janeiro (UFRJ), e a organização internacional Global Witness enviaram nesta quinta ao Conselho de Supervisão da Meta – empresa detentora do Facebook, Instagram e WhatsApp – um apelo para que a big tech reavalie suas falhas em implementar suas políticas de desinformação eleitoral no Brasil.

Entre as solicitações, as organizações pedem que o Oversight Board estabeleça se as falhas descobertas em pesquisas indicam uma falha sistêmica da Meta em proteger os usuários contra discurso de ódio, desinformação e incitação à violência e genocídio, e solicitam que as pesquisas e conclusões sejam tornadas públicas. 

Além disso, é pedido que se analise a eficácia dos sistemas de aprendizado de máquina que sinalizam conteúdo potencialmente violador; a eficácia, os recursos, o suporte e as condições de trabalho de revisores humanos que sinalizam violação de conteúdo; e os processos de devida diligência de direitos humanos da Meta para atender aos seus requisitos sob os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU.

No documento, também assinado pelo *desinformante, as instituições destacam evidências de falhas repetidas da Meta para implementar suas políticas de moderação de conteúdo no Brasil. Essas evidências foram encontradas em diversos estudos e levantamentos realizados no segundo semestre de 2022. 

A Global Witness realizou testes que enviavam ao Facebook anúncios com conteúdos que violavam os Padrões da Comunidade da plataforma. Então, a organização registrou os casos em que a Meta os aceitava ou rejeitava para publicação. No primeiro teste, em agosto, a empresa permitiu que fossem postados anúncios de uma conta não autorizada e aceitou todos os anúncios para publicação.

Acampados passaram de 300 para 3.800 mil na véspera do 8 de janeiro

Em setembro, a Global Witness reenviou os mesmos 10 anúncios de agosto de uma nova conta do Facebook e a Meta aceitou 40% deles para publicação. Além disso, foram enviados 10 novos anúncios contendo desinformação eleitoral e 50% foram aceitos. Ainda em 2022, um novo teste foi rodado e a empresa deixou de moderar 50% dos anúncios. O experimento mais recente testou a Meta após os atos antidemocráticos de 8 de janeiro com anúncios pedindo uma derrubada violenta do governo e ameaças de morte contra os eleitores de Lula e seus filhos. 87% dos anúncios passaram pelo filtro da empresa.

“A Meta afirmou que mantém os anúncios em um padrão ‘ainda mais rígido’ do que as postagens orgânicas. Portanto, se o conteúdo violador em um anúncio não for detectado pela Meta, acreditamos ser razoável supor que o mesmo conteúdo tenha ainda menos probabilidade de ser detectado em uma postagem orgânica”, destacou o documento de apelação.

Já o NetLab elencou os estudos que detectaram, a partir da biblioteca de anúncios do Facebook, os conteúdos que foram publicados por páginas que atacavam a integridade eleitoral durante as eleições e que pediam golpe após a vitória eleitoral de Lula no segundo turno do pleito. Nas três coletas de dados realizadas foram encontradas publicações que deveriam ser proibidas na plataforma.

Legitimidade das eleições

Na primeira delas, o NetLab coletou anúncios com conteúdo sobre a integridade do sistema eleitoral brasileiro e 17% deles o atacavam. Após a publicação dessas conclusões, a Meta anunciou em 16 de agosto de 2022 que proibiria anúncios que questionassem a legitimidade das eleições brasileiras. No entanto, uma nova pesquisa mostrou que 10% dos anúncios coletados posteriormente atacaram o sistema de votação do país.

Após o 8 de janeiro, o NetLab fez uma nova coleta de dados. Foram encontrados 185 anúncios na biblioteca de anúncios com agenda golpista, que contestava os resultados eleitorais, atacava o processo eleitoral e incentivava manifestações antidemocráticas. 

“Portanto, a Netlab conclui que os esforços declarados da Meta para remover conteúdos com mensagens antidemocráticas, contendo ataques às instituições brasileiras e contra o processo eleitoral foram insuficientes no período pós-eleitoral. No caso de anúncios com esse tipo de mensagem, a Netlab considera a aplicação da Meta ainda mais questionável, considerando que os anúncios são revisados pela plataforma por meio de IA e curadoria humana que aprova o conteúdo antes de ser publicado”, registrou o NetLab.

Também assinam a apelação, além do *desinformante, o Aláfia Lab, Coding Rights Conectas, Intervozes, Novelo Data, Rede Nacional de Combate à Desinformação e Sleeping Giants.