Conferir desinformação sobre covid não funciona, mas é possível melhorar

Redes sociais poderiam promover conteúdo com maior probabilidade de ser verdadeiro, em vez daquele com potencial de viralizar

Plataformas como Twitter, YouTube, Instagram e Facebook são estruturados para suprimir o aprendizado e promover conteúdo viral
Por Faye Flam
08 de Fevereiro, 2022 | 04:10 PM

Bloomberg Opinion — A direita e a esquerda podem não concordar sobre o que constitui desinformação, mas ambas gostariam que ela sumisse das redes sociais. E enquanto o mundo enfrenta o terceiro ano da pandemia de covid-19, a ameaça que a desinformação médica representa para a saúde pública continua real. Empresas como Twitter e Facebook gostariam de limpar suas plataformas – sem depender de censura ou checagem de fatos.

A censura pode gerar desconfiança quando as empresas de mídia social excluem publicações ou contas sem explicação. E pode até popularizar o perfil daqueles que foram “cancelados”.

Checar os fatos não é uma boa solução para conceitos científicos complexos, porque a ciência não é imutável, mas um sistema de investigação que estabelece teorias provisórias baseadas em dados imperfeitos.

Uma publicação recente do site de checagem de dados Politifact ilustra o problema. A alegação em questão: um meme circulou no Facebook afirmando que os vírus evoluem de forma a se tornar menos virulentos. O Politifact a considerou falsa, mas o virologista da Universidade de Purdue, David Sanders, discorda. “Eu diria que é verdade que os vírus tendem a evoluir para serem menos prejudiciais ao seu hospedeiro”, disse, embora seja um processo que às vezes pode levar décadas – ou mesmo séculos – a partir do momento em que um novo vírus passa de um hospedeiro animal para um humano. Sanders disse que o Politifact confundiu virulência com outras questões, como resistência a drogas. Quando um problema complexo ainda é uma questão de incerteza e debate científico, classificá-lo como “verdadeiro” ou “falso” não funciona.

PUBLICIDADE

Outra limitação da checagem de fatos é que há tanto conteúdo duvidoso circulando pelo Facebook e Twitter que os verificadores humanos só conseguem chegar a uma fração minúscula. Os consumidores podem presumir erroneamente que outros conteúdos foram analisados e são confiáveis.

Não é um meio de busca pela verdade – é programado para entretenimento”, diz Gordon Pennycook, da Universidade de Regina, no Canadá.

Mas ele está convencido de que o Facebook e o Twitter podem ser menos enganosos ao utilizar o poder analítico do cérebro humano.

Uma maneira é aproveitar o fenômeno conhecido como “amplo conhecimento”. Se fizer uma pergunta difícil – como a profundidade do Oceano Pacífico em seu ponto mais profundo – a fontes independentes, elas tendem a convergir para a resposta certa. Mas a mídia social desorienta nossas bússolas alinhamento com as massas.

O crowdsourcing só funciona quando cada pessoa pensa de maneira independente. Nas redes sociais, os usuários obtêm pistas que levam ao assédio moral e à pilhagem, e contas falsas ou “bots” automatizados podem dar a ilusão de que grandes multidões estão impressionadas ou indignadas com uma notícia.

“Não é que [os usuários] não se importem com a precisão dos fatos. Mas, em vez disso, é que o contexto da rede social os distrai e eles esquecem de raciocinar se um fato é preciso ou não antes de decidir compartilhá-lo”, disse seu parceiro de pesquisa David Rand, professor de ciência da gestão e ciências cognitivas do MIT.

Rand admite que caiu nessa armadilha quando compartilhou um boato sobre Ted Cruz – uma declaração em que acreditaria na mudança climática quando o estado do Texas ficasse sob a neve. “Foi bem na época das nevascas no estado. E eu pensava ‘meu Deus, que ironia’”.

PUBLICIDADE

O que Rand e Pennycook descobriram em um estudo recente, publicado na revista Nature, foi que as pessoas melhoraram a veracidade de seus compartilhamentos quando solicitadas a avaliar a veracidade de uma manchete. A ideia era que isso levaria as pessoas a prestar atenção na precisão, o que acreditam ser importante, mesmo quando compartilham coisas com base na probabilidade de viralizar.

Rand e Pennycook descobriram que juntar usuários de mídia social o suficiente para avaliar notícias gerava um efeito de amplo conhecimento, e o sistema produzia respostas que correspondiam a vários verificadores de fatos, assim como os próprios verificadores correspondiam entre si.

“Eram cerca de 10 a 15 leigos, o equivalente a cerca de um verificador”, afirmou Pennycook.

O Facebook e o Twitter podem aproveitar o crowdsourcing para promover conteúdo com maior probabilidade de ser verdadeiro. “Você pode usar isso para informar sua classificação que corresponde à precisão real”, disse Pennycook. “De certa forma, isso tira a responsabilidade de terceiros e a devolve às pessoas”.

Em vez disso, algoritmos em plataformas como Twitter, YouTube, Instagram e Facebook são estruturados para suprimir o aprendizado e alimentar as pessoas com “junk food” que reforça crenças e preconceitos existentes, segundo uma série de modelos e experimentos liderados por Filippo Menczer, professor da Universidade Centro de Redes Complexas e Pesquisa de Sistemas da Universidade de Indiana.

“O conteúdo ao qual estamos expostos nas redes sociais é fortemente afetado por nossas opiniões preexistentes”, contou ele à Bloomberg. E esse é um dos motivos pelos quais assuntos médicos aparentemente apolíticos se tornam politizados. “Entidades políticas têm interesse em usar o que as pessoas estão observando – por exemplo, uma crise sanitária – para manipular as pessoas”.

O mito de “as pessoas estão ficando mais burras” foi adotado tanto pela direita quanto pela esquerda. Não estamos ficando mais burros. Todos estamos com dificuldades para entender o que está acontecendo em um mundo complexo e dividido. Censurar e submeter as redes sociais à checagem de fatos não vai resolver esse problema. Para isso, as plataformas precisam alterar o conteúdo visto pelos usuários.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Faye Flam é colunista da Bloomberg Opinion e apresentadora do podcast “Follow the Science”. Ela escreveu para o Economist, o New York Times, o Washington Post, Psychology Today, Science e outras publicações.

--Esta notícia foi traduzida por Bianca Carlos, localization specialist da Bloomberg Línea.

Veja mais em Bloomberg.com

Leia também