EXPERIMENTO

Teste mostra que Facebook pode radicalizar politicamente usuários

Documentos vazados mostram que algoritmos conectavam pessoas a grupos extremistas

AG. BRASIL
AG. BRASIL
O estudo no Facebook foi nomeada de "Jornada de Carol para QAnon". Recentemente, ele foi encaminhado ao Congresso dos Estados Unidos

São Paulo – Pesquisadores do Facebook realizaram um teste, em 2019, e constataram que os algoritmos da rede social são capazes radicalizar os usuários, por meio de conteúdos desinformativos e polarizados. As informações são do jornalista Felipe Mendes, do portal UOL, após acesso da NBC News a documentos vazados da empresa.

A reportagem mostra que, em 2019, os pesquisadores criaram uma conta falsa em nome de Carol Smith, com o objetivo de analisar o comportamento do algoritmo da rede social. O perfil simularia uma mãe politicamente conservadora da cidade de Wilmington, Carolina do Norte, nos Estados Unidos.

A conta criada seguia assuntos relacionados a temas como política, educação e cristianismo. O perfil da Fox News, canal conservador de notícias, e o então presidente Donald Trump eram alguns dos perfis seguidos. Em poucos dias, Carol recebeu sugestões para participar de grupos dedicados ao QAnon – movimento conspiratório que diz que Trump esteve secretamente salvando o mundo de um grupo de pedófilos satanistas.

Os pesquisadores acreditam que a recomendação aconteceu apenas pelo perfil conservador da conta falsa ter sido suficiente para que os algoritmos achassem que ela teria interesse no tema.

A ‘jornada de Carol’ no Facebook

O estudo foi nomeadode “Jornada de Carol para QAnon”. Recentemente, ele foi encaminhado ao Congresso dos Estados Unidos, pelo advogado da delatora Frances Haugen, ex-gerente de integridade do Facebook, que fez uma série de acusações contra a empresa. O documento também mostra que Carol recebeu, em diversos dias, mais recomendações de outros grupos e páginas que violaram as próprias regras do Facebook, como compartilhar discurso de ódio e desinformação. A experiência de Carol na rede social foi classificada como “uma enxurrada de conteúdo extremo, conspiratório e gráfico”.

De acordo com a NBC, o Facebook fez outros experimentos, como o de Carol Smith, para mostrar a influência da plataforma na radicalização dos usuários. O trabalho constatou por diversas vezes que os algoritmos usados conectavam usuários a grupos extremistas.

Segundo a reportagem, um porta-voz do Facebook afirmou por e-mail que a empresa “adotou uma abordagem mais agressiva na forma de reduzir o conteúdo que pode violar nossas políticas, além de não recomendar grupos, páginas ou pessoas que postam regularmente conteúdo que possa violar nossas políticas”.

Leia também:


Facebook: como os algoritmos podem manipular você

Como a Netflix afeta o que vemos e quem somos – e não é apenas o algoritmo


Leia também


Últimas notícias