Bloomberg Opinion — A direita e a esquerda podem não concordar sobre o que constitui desinformação, mas ambas gostariam que ela sumisse das redes sociais. E enquanto o mundo enfrenta o terceiro ano da pandemia de covid-19, a ameaça que a desinformação médica representa para a saúde pública continua real. Empresas como Twitter e Facebook gostariam de limpar suas plataformas – sem depender de censura ou checagem de fatos.
A censura pode gerar desconfiança quando as empresas de mídia social excluem publicações ou contas sem explicação. E pode até popularizar o perfil daqueles que foram “cancelados”.
Checar os fatos não é uma boa solução para conceitos científicos complexos, porque a ciência não é imutável, mas um sistema de investigação que estabelece teorias provisórias baseadas em dados imperfeitos.
Uma publicação recente do site de checagem de dados Politifact ilustra o problema. A alegação em questão: um meme circulou no Facebook afirmando que os vírus evoluem de forma a se tornar menos virulentos. O Politifact a considerou falsa, mas o virologista da Universidade de Purdue, David Sanders, discorda. “Eu diria que é verdade que os vírus tendem a evoluir para serem menos prejudiciais ao seu hospedeiro”, disse, embora seja um processo que às vezes pode levar décadas – ou mesmo séculos – a partir do momento em que um novo vírus passa de um hospedeiro animal para um humano. Sanders disse que o Politifact confundiu virulência com outras questões, como resistência a drogas. Quando um problema complexo ainda é uma questão de incerteza e debate científico, classificá-lo como “verdadeiro” ou “falso” não funciona.
Outra limitação da checagem de fatos é que há tanto conteúdo duvidoso circulando pelo Facebook e Twitter que os verificadores humanos só conseguem chegar a uma fração minúscula. Os consumidores podem presumir erroneamente que outros conteúdos foram analisados e são confiáveis.
“Não é um meio de busca pela verdade – é programado para entretenimento”, diz Gordon Pennycook, da Universidade de Regina, no Canadá.
Mas ele está convencido de que o Facebook e o Twitter podem ser menos enganosos ao utilizar o poder analítico do cérebro humano.
Uma maneira é aproveitar o fenômeno conhecido como “amplo conhecimento”. Se fizer uma pergunta difícil – como a profundidade do Oceano Pacífico em seu ponto mais profundo – a fontes independentes, elas tendem a convergir para a resposta certa. Mas a mídia social desorienta nossas bússolas alinhamento com as massas.
O crowdsourcing só funciona quando cada pessoa pensa de maneira independente. Nas redes sociais, os usuários obtêm pistas que levam ao assédio moral e à pilhagem, e contas falsas ou “bots” automatizados podem dar a ilusão de que grandes multidões estão impressionadas ou indignadas com uma notícia.
“Não é que [os usuários] não se importem com a precisão dos fatos. Mas, em vez disso, é que o contexto da rede social os distrai e eles esquecem de raciocinar se um fato é preciso ou não antes de decidir compartilhá-lo”, disse seu parceiro de pesquisa David Rand, professor de ciência da gestão e ciências cognitivas do MIT.
Rand admite que caiu nessa armadilha quando compartilhou um boato sobre Ted Cruz – uma declaração em que acreditaria na mudança climática quando o estado do Texas ficasse sob a neve. “Foi bem na época das nevascas no estado. E eu pensava ‘meu Deus, que ironia’”.
O que Rand e Pennycook descobriram em um estudo recente, publicado na revista Nature, foi que as pessoas melhoraram a veracidade de seus compartilhamentos quando solicitadas a avaliar a veracidade de uma manchete. A ideia era que isso levaria as pessoas a prestar atenção na precisão, o que acreditam ser importante, mesmo quando compartilham coisas com base na probabilidade de viralizar.
Rand e Pennycook descobriram que juntar usuários de mídia social o suficiente para avaliar notícias gerava um efeito de amplo conhecimento, e o sistema produzia respostas que correspondiam a vários verificadores de fatos, assim como os próprios verificadores correspondiam entre si.
“Eram cerca de 10 a 15 leigos, o equivalente a cerca de um verificador”, afirmou Pennycook.
O Facebook e o Twitter podem aproveitar o crowdsourcing para promover conteúdo com maior probabilidade de ser verdadeiro. “Você pode usar isso para informar sua classificação que corresponde à precisão real”, disse Pennycook. “De certa forma, isso tira a responsabilidade de terceiros e a devolve às pessoas”.
Em vez disso, algoritmos em plataformas como Twitter, YouTube, Instagram e Facebook são estruturados para suprimir o aprendizado e alimentar as pessoas com “junk food” que reforça crenças e preconceitos existentes, segundo uma série de modelos e experimentos liderados por Filippo Menczer, professor da Universidade Centro de Redes Complexas e Pesquisa de Sistemas da Universidade de Indiana.
“O conteúdo ao qual estamos expostos nas redes sociais é fortemente afetado por nossas opiniões preexistentes”, contou ele à Bloomberg. E esse é um dos motivos pelos quais assuntos médicos aparentemente apolíticos se tornam politizados. “Entidades políticas têm interesse em usar o que as pessoas estão observando – por exemplo, uma crise sanitária – para manipular as pessoas”.
O mito de “as pessoas estão ficando mais burras” foi adotado tanto pela direita quanto pela esquerda. Não estamos ficando mais burros. Todos estamos com dificuldades para entender o que está acontecendo em um mundo complexo e dividido. Censurar e submeter as redes sociais à checagem de fatos não vai resolver esse problema. Para isso, as plataformas precisam alterar o conteúdo visto pelos usuários.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Faye Flam é colunista da Bloomberg Opinion e apresentadora do podcast “Follow the Science”. Ela escreveu para o Economist, o New York Times, o Washington Post, Psychology Today, Science e outras publicações.
--Esta notícia foi traduzida por Bianca Carlos, localization specialist da Bloomberg Línea.
Veja mais em Bloomberg.com
Leia também