Alguns anos atrás, o Facebook percebeu que a Rússia continuava postando informações erradas em toda a rede. A desinformação foi projetada para irritar as pessoas e fazê-las compartilhar com seus amigos e, como as pessoas geralmente são muito fáceis de irritar, a estratégia da Rússia foi muito bem-sucedida. Alguns cientistas políticos de destaque acreditam que a interferência eleitoral do país, dentro e fora do Facebook, levou Donald Trump ao cargo . E passamos boa parte dos últimos três anos e meio discutindo sobre isso.

Cerca de um ano após a eleição, o Facebook introduziu uma ferramenta para informar às pessoas se elas haviam interagido sem querer com o exército russo de trolls. Se você gostou da página de um troll disfarçado, poderia visitar uma parte obscura do Facebook e isso lhe diria. A ferramenta não informa se você visualizou alguma das postagens da página ou mesmo se as compartilhou. Alex Hern escreveu sobre essa falha na época no The Guardian :

O Facebook não informará a esses usuários sua exposição a informações erradas, embora a empresa não tenha dito se é incapaz ou simplesmente não está disposto a fornecer essas informações. Uma fonte próxima à empresa descreveu como “desafiador” identificar e notificar com segurança todos os que foram expostos acidentalmente a propaganda estrangeira.

Avanço rápido de hoje, quando a desinformação com a qual estamos preocupados tem a ver principalmente com o COVID-19. Nas últimas semanas, falamos sobre tentativas de vincular o coronavírus a novas redes 5G, “curas falsas” perigosas baseadas em beber água sanitária e assim por diante. Os relatórios encontraram consistentemente esse tipo de artigo acumulando milhares de compartilhamentos no Facebook. Mais do que a desinformação russa, as fraudes do COVID-19 apresentam riscos claros à saúde pública. Então, o que o Facebook deve fazer sobre isso?

Na quinta-feira, a empresa disse que convidaria pessoas que compartilharam uma farsa a visitar uma página criada pela Organização Mundial de Saúde desmistificando os mitos populares do COVID-19. Aqui está Guy Rosen, vice-presidente de integridade do Facebook, em uma postagem no blog :

Vamos começar a mostrar mensagens no Feed de notícias para as pessoas que gostaram, reagiram ou comentaram sobre informações desagradáveis ​​sobre o COVID-19 que removemos desde então. Essas mensagens conectarão as pessoas aos mitos do COVID-19 desmascarados pela OMS, incluindo aqueles que removemos da nossa plataforma por causar danos físicos iminentes. Queremos conectar pessoas que possam ter interagido com informações desagradáveis ​​sobre o vírus com a verdade de fontes autorizadas, caso vejam ou ouçam essas alegações novamente no Facebook. As pessoas começarão a ver essas mensagens nas próximas semanas.

Se você não leu o parágrafo acima, pode presumir que o sistema do Facebook funcionaria algo como isto: Você compartilha um artigo que diz algo como “bufar macarrão com queijo e cura o coronavírus”, esse artigo é desmascarado por um verificador de fatos independente e, em seguida, o Facebook o vincula à página da OMS sobre mitos sobre macarrão com queijo. Talvez até houvesse uma mensagem dizendo algo como: “Só para você saber, bufar macarrão com queijo não cura o coronavírus. Clique aqui para mais.”

Mas aprendemos que as pessoas são obstinadas e não gostam de saber que foram enganadas. Houve um momento famoso após a eleição de 2016, quando o Facebook começou a rotular postagens falsas como “disputadas” e descobriu que isso fazia as pessoas compartilharem mais. E assim a empresa adotou uma abordagem diferente aqui.

Daqui a algumas semanas, as pessoas que compartilharam postagens do tipo COV com mac e queijo curado verão uma grande história no Feed de notícias. Não está rotulado como “Ei, você foi enganado”. Em vez disso, ele diz: “Ajude amigos e familiares a evitar informações falsas sobre o COVID-19.” Em seguida, os convida a compartilhar um link para o site da OMS, bem como um botão que levará o usuário diretamente ao site.

O objetivo desse tipo de abordagem é tornar as pessoas menos defensivas sobre o fato de estarem erradas e tentar contrabandear algumas boas informações em seus cérebros sem fazê-las se sentirem burras. O apelo para ajudar amigos e familiares também é um toque agradável. Quem não quer ajudar seus amigos e familiares? E o Facebook está colocando as informações diretamente no Feed de notícias – não há necessidade de visitar algum centro de ajuda misterioso enterrado sob camadas de torneiras. (Se você compartilhar uma postagem que contém informações incorretas e foi removida, também receberá uma notificação separada sobre isso.)

Mas essa abordagem também tem desvantagens. Se você não quer saber se você compartilhou acidentalmente uma mentira para todos os seus amigos, esta ferramenta não irá ajudá-lo. E a página da OMS para desmembrar atualmente desmascara 19 trotes diferentes – quais são as chances de você rolar todo o caminho até o que você acidentalmente compartilhou e leu? E no mês que vem, quando essa lista aumentou para 40?

Este não é um problema pequeno. A Avaaz, um grupo de direitos humanos que acompanha de perto as informações erradas, publicou um relatório detalhado esta semana que examinou 100 informações desinformadas, escritas em seis idiomas, que foram compartilhadas no Facebook. Ele descobriu que essas postagens foram compartilhadas mais de 1,7 milhão de vezes e estimadas em 117 milhões de vezes. (O vice fala com os autores .)

Os autores do relatório da Avaaz argumentam que o Facebook deve informar cada pessoa que visualizou desinformação sobre o coronavírus sobre exatamente o que errou. O grupo chegou a realizar um teste desse sistema que, segundo ele, mostra que algo assim pode funcionar:

Para testar a eficácia das correções, um modelo visual hiper-realista do Facebook foi projetado para imitar a experiência do usuário na plataforma. Em seguida, uma amostra representativa da população americana, composta por 2.000 participantes anônimos, escolhida e pesquisada de forma independente pelo ramo de Pesquisa Acadêmica, Política e de Assuntos Públicos da YouGov, recebeu aleatoriamente até 5 notícias falsas baseadas em fatos reais e independentes. exemplos verificados de conteúdo falso ou enganoso sendo compartilhado no Facebook.

Por meio de um modelo aleatório, alguns dos usuários, após verem as notícias falsas, receberam correções. Alguns usuários viram apenas o conteúdo falso ou enganoso, e outros não. Em seguida, os participantes da pesquisa responderam perguntas destinadas a testar se acreditavam nas notícias falsas.

A Avaad disse que seu estudo mostrou que a crença na desinformação diminuiu pelo menos 50% nos participantes do estudo.

Rosen me disse que chamar essas fraudes com uma mensagem especial pode dar-lhes mais visibilidade do que originalmente, ampliando as informações erradas. Talvez você tenha passado por um pedaço de desinformação sem internalizar seu conteúdo; se o Facebook colocar uma grande caixa vermelha no Feed de notícias que diz “a propósito, isso é falso”, os efeitos podem ser contraproducentes.

Ainda assim, ele disse, o Facebook está testando o uso de linguagem que explicitamente diz que uma pessoa está vendo as mensagens da OMS porque viu desinformação. O objetivo é fornecer as mensagens mais eficazes possíveis, disse ele.

Uma possibilidade que vejo é oferecer intervenções diferentes, com base no fato de alguém simplesmente ter visto uma farsa ou ter comentado ou compartilhado ativamente. Indivíduos que compartilham boatos merecem uma resposta mais forte do que alguém que simplesmente viu algo – ou talvez apenas tenha passado por isso – em seu feed.

Comparado ao seu trabalho inicial sobre o problema dos trolls russos, o Facebook adotou uma abordagem intervencionista para impedir a disseminação de informações erradas sobre o COVID-19. Mas também não está claro qual dessas intervenções realmente funciona. Dados os riscos à saúde pública, esperamos que o Facebook aprenda rapidamente.

Deixe uma resposta

Exit mobile version