Teste mostra que Facebook pode radicalizar politicamente usuários
Documentos vazados mostram que algoritmos conectavam pessoas a grupos extremistas
Publicado 28/10/2021 - 14h17
São Paulo – Pesquisadores do Facebook realizaram um teste, em 2019, e constataram que os algoritmos da rede social são capazes radicalizar os usuários, por meio de conteúdos desinformativos e polarizados. As informações são do jornalista Felipe Mendes, do portal UOL, após acesso da NBC News a documentos vazados da empresa.
A reportagem mostra que, em 2019, os pesquisadores criaram uma conta falsa em nome de Carol Smith, com o objetivo de analisar o comportamento do algoritmo da rede social. O perfil simularia uma mãe politicamente conservadora da cidade de Wilmington, Carolina do Norte, nos Estados Unidos.
A conta criada seguia assuntos relacionados a temas como política, educação e cristianismo. O perfil da Fox News, canal conservador de notícias, e o então presidente Donald Trump eram alguns dos perfis seguidos. Em poucos dias, Carol recebeu sugestões para participar de grupos dedicados ao QAnon – movimento conspiratório que diz que Trump esteve secretamente salvando o mundo de um grupo de pedófilos satanistas.
Os pesquisadores acreditam que a recomendação aconteceu apenas pelo perfil conservador da conta falsa ter sido suficiente para que os algoritmos achassem que ela teria interesse no tema.
A ‘jornada de Carol’ no Facebook
O estudo foi nomeadode “Jornada de Carol para QAnon”. Recentemente, ele foi encaminhado ao Congresso dos Estados Unidos, pelo advogado da delatora Frances Haugen, ex-gerente de integridade do Facebook, que fez uma série de acusações contra a empresa. O documento também mostra que Carol recebeu, em diversos dias, mais recomendações de outros grupos e páginas que violaram as próprias regras do Facebook, como compartilhar discurso de ódio e desinformação. A experiência de Carol na rede social foi classificada como “uma enxurrada de conteúdo extremo, conspiratório e gráfico”.
De acordo com a NBC, o Facebook fez outros experimentos, como o de Carol Smith, para mostrar a influência da plataforma na radicalização dos usuários. O trabalho constatou por diversas vezes que os algoritmos usados conectavam usuários a grupos extremistas.
Segundo a reportagem, um porta-voz do Facebook afirmou por e-mail que a empresa “adotou uma abordagem mais agressiva na forma de reduzir o conteúdo que pode violar nossas políticas, além de não recomendar grupos, páginas ou pessoas que postam regularmente conteúdo que possa violar nossas políticas”.
Leia também:
Facebook: como os algoritmos podem manipular você
Como a Netflix afeta o que vemos e quem somos – e não é apenas o algoritmo