Facebook: como os algoritmos podem manipular você

A inteligência coletiva é usada para realizar previsões em mercados financeiros, esportes, eleições e até surtos de doenças

Pixabay
Pixabay
Evidências mostram que as informações são transmitidas por meio de um "contágio complexo", o que significa que quanto mais vezes as pessoas são expostas a uma ideia em um ambiente online, maior a probabilidade de adotá-la e compartilhá-la

Tradução livre a partir de The Conversation – A ex-gerente de produtos do Facebook Frances Haugen testemunhou perante o Senado dos Estados Unidos em 5 de outubro que as plataformas de mídia social da empresa “prejudicam crianças, alimentam a divisão e enfraquecem nossa democracia”.

Haugen foi a principal fonte de uma série de reportagens do Wall Street Journal sobre a empresa. Ela chamou os algoritmos do Facebook de “perigosos”, disse que os executivos da companhia estavam cientes da ameaça, mas colocaram lucros diante das pessoas, e pediu ao Congresso para regular a empresa.

Fazendas de trolls

As plataformas de mídia social dependem fortemente do comportamento das pessoas para decidir sobre o conteúdo que é visto. Em particular, elas observam o conteúdo que as pessoas respondem ou “se envolvem” gostando, comentando e compartilhando. Fazendas de trolls, organizações que espalham conteúdo provocativo, exploram isso copiando conteúdo de alto engajamento e postando-o como seu, o que os ajuda a alcançar um grande público.

Como um cientista da computação que estuda como um grande número de pessoas interage usando tecnologia, entendo a lógica de usar a sabedoria das multidões nesses algoritmos. E também vejo armadilhas substanciais na forma como as empresas de mídia social o fazem na prática.

De leões a curtidas

O conceito de sabedoria das multidões assume que o uso de sinais das ações, opiniões e preferências dos outros como guia levará a decisões sólidas. Por exemplo, previsões coletivas são normalmente mais precisas do que as individuais. A inteligência coletiva é usada para realizar previsões em mercados financeiros, esportes, eleições e até surtos de doenças.

Ao longo de milhões de anos de evolução, estes princípios foram codificados no cérebro humano na forma de vieses cognitivos acompanhados de termos como familiaridade, mera exposição e efeito bandwagon. Se todos começarem a correr, você também deve começar a correr; talvez alguém tenha visto um leão vindo e começou a correr para salvar sua vida. Você pode não saber por que, mas é mais sábio do que perguntar depois.

Regras simples

Seu cérebro capta pistas do ambiente – incluindo seus pares – e usa regras simples para traduzir rapidamente estes sinais em decisões: vá com o vencedor, siga a maioria, copie seu vizinho. Estas regras funcionam muito bem em situações típicas porque são baseadas em suposições sólidas. Por exemplo, elas assumem que as pessoas muitas vezes agem racionalmente, que é improvável que muitos estejam errados, o passado prevê o futuro, e assim por diante.

A tecnologia permite que as pessoas acessem sinais vindos de um número muito maior de outras pessoas, a maioria das quais elas não conhecem. Os aplicativos de inteligência artificial fazem uso intensivo desses sinais de popularidade ou “engajamento”, desde a seleção dos resultados dos mecanismos de busca até a recomendação de música e vídeos, passando por sugerir amigos e classificar posts em feeds de notícias.

Nem tudo que é viral merece ser

Nossa pesquisa mostra que praticamente todas as plataformas de tecnologia web, como mídias sociais e sistemas de recomendação de notícias, têm um forte viés de popularidade (popularity bias). Quando os aplicativos são impulsionados por pistas como engajamento em vez de consultas explícitas de mecanismos de pesquisa, o viés de popularidade pode levar a consequências não intencionais prejudiciais.

Mídias sociais como Facebook, Instagram, Twitter, YouTube e TikTok dependem fortemente de algoritmos de IA para classificar e recomendar conteúdo. Esses algoritmos tomam como entrada o que você gosta, comenta e compartilha – ou seja, conteúdo com o qual você se envolve. O objetivo dos algoritmos é maximizar o engajamento descobrindo o que as pessoas gostam e classificando-o no topo de seus feeds.

Uma cartilha no algoritmo do Facebook.

Na superfície, isso parece razoável. Se as pessoas gostam de notícias confiáveis, opiniões de especialistas e vídeos divertidos, estes algoritmos devem identificar esse conteúdo de alta qualidade. Mas a sabedoria das multidões estabelece uma suposição fundamental aqui: que recomendar o que é popular ajudará o conteúdo de alta qualidade a “borbulhar”.

Testamos essa suposição estudando um algoritmo que classifica itens utilizando uma mistura de qualidade e popularidade. Descobrimos que, em geral, o viés de popularidade tem mais possibilidade de diminuir a qualidade geral do conteúdo. A razão é que o engajamento não é um indicador confiável de qualidade quando poucas pessoas foram expostas a um item. Nesses casos, o engajamento gera um sinal barulhento, e é provável que o algoritmo amplie esse ruído inicial. Uma vez que a popularidade de um item de baixa qualidade é grande o suficiente, ele continuará sendo amplificado.

Algoritmos não são a única coisa afetada pelo viés de engajamento – ele pode afetar as pessoas também. Evidências mostram que as informações são transmitidas por meio de um “contágio complexo“, o que significa que quanto mais vezes as pessoas são expostas a uma ideia em um ambiente on-line, maior a probabilidade de adotá-la e compartilhá-la. Quando as mídias sociais dizem às pessoas que um item está se tornando viral, seus vieses cognitivos entram em ação e se traduzem na irresistível vontade de prestar atenção a ele e compartilhá-lo.

Multidões não tão sábias

Recentemente fizemos um experimento usando um aplicativo de alfabetização de notícias chamado Fakey. É um jogo desenvolvido pelo nosso laboratório que simula um feed de notícias como os do Facebook e Twitter. Os jogadores veem uma mistura de artigos atuais com notícias falsas, anticiência, fontes hiperpartidárias e conspiratórias, bem como fontes tradicionais. Eles ganham pontos por compartilhar ou gostar de notícias de fontes confiáveis e por sinalizar artigos de baixa credibilidade para verificação de fatos.

Descobrimos que os jogadores são mais propensos a gostar ou compartilhar e menos propensos a sinalizar artigos de fontes de baixa credibilidade quando os jogadores podem ver que muitos outros usuários se envolveram com esses artigos. A exposição às métricas de engajamento cria, assim, uma vulnerabilidade.

A sabedoria das multidões falha porque é construída sobre a falsa suposição de que a multidão é composta de fontes diversas e independentes. Pode haver várias razões para isso não ser assim.

Câmaras de eco

Primeiro, devido à tendência das pessoas de se associarem a outras semelhantes, seus círculos on-line não são muito diversos. A facilidade com que os usuários de mídia social podem desfazer amizade com aqueles com quem discordam empurra as pessoas para comunidades homogêneas, muitas vezes referidas como câmaras de eco.

Segundo, porque os amigos de muitas pessoas são amigos um do outro, eles influenciam uns aos outros. Um experimento famoso demonstrou que saber qual música seus amigos gostam afeta suas próprias preferências declaradas. Seu desejo social de se conformar distorce seu julgamento independente.

Terceiro, sinais de popularidade podem ser manipulados. Ao longo dos anos, os mecanismos de busca desenvolveram técnicas sofisticadas para combater as chamadas “fazendas de links” e outros esquemas para manipular algoritmos de pesquisa. As plataformas de mídia social, por outro lado, estão apenas começando a aprender sobre suas próprias vulnerabilidades.

Pessoas com o objetivo de manipular o mercado de informações criaram contas fakes, com trolls e botssociais, e organizaram redes falsas. Eles inundaram a internet para criar a aparência de que uma teoria da conspiração ou um candidato político é popular, enganando tanto algoritmos de plataforma quanto os vieses cognitivos das pessoas ao mesmo tempo. Eles até alteraram a estrutura das redes sociais para criar ilusões sobre opiniões majoritárias.

Reduzindo o engajamento

O que fazer? Plataformas tecnológicas estão atualmente na defensiva. Estão se tornando mais agressivas durante as eleições para derrubar contas falsas e desinformação prejudicial. Mas estes esforços podem ser semelhantes a um jogo de whack-a-mole.

Uma abordagem diferente e preventiva seria adicionar atrito. Em outras palavras, reduzir o processo de disseminação de informações. Comportamentos de alta frequência, como o gosto e o compartilhamento automatizados, podem ser inibidos por testes CAPTCHA, que exigem que um humano responda ou taxas. Isso não só diminuiria as oportunidades de manipulação, mas com menos informações as pessoas poderiam prestar mais atenção ao que veem. Deixaria menos espaço para o viés de engajamento afetar as decisões das pessoas.

Também ajudaria se as empresas de mídia social ajustassem seus algoritmos para confiar menos em sinais de engajamento e mais em sinais de qualidade para determinar o conteúdo que serve a você. Talvez as revelações da denunciante forneçam o impulso necessário.

Esta é uma versão atualizada de um artigo publicado originalmente em 20 de setembro.

Filippo Menczer é professor de Informática e Ciência da Computação da Universidade de Indiana

Leia também:

Partido Verde alemão traz mudança climática ao centro do debate

Série visita site chinês Alibaba no ‘Dia dos Solteiros’, maior maratona global de vendas on-line