Por que Zuckerberg deveria tirar os óculos de VR e focar no que realmente importa

Eleições de meio de mandato dos EUA estão chegando e as fake news correm soltas pelo Facebook; CEO e co-fundador da plataforma deveria rever prioridades

Por

Bloomberg Opinion — Deveríamos elogiar Mark Zuckerberg. Mesmo diante de críticas sobre a mudança estratégica radical escolhida para o Facebook, ele está implacavelmente focado em transformá-la em uma empresa do metaverso. Outros bilionários da tecnologia podem reagir a comentários negativos, mas Zuckerberg continua impassível, ignorando os críticos para dar entrevistas e apresentações sérias sobre sua visão de realidade virtual.

Mas, embora ele siga ignorando as críticas, o CEO da Meta (META), controladora do Facebook, deveria rever suas prioridades nos próximos meses à medida que os Estados Unidos se aproximam de eleições de meio de mandato no Senado possivelmente tumultuadas.

Ele precisa prestar atenção no Facebook ou vai arriscar deixar que vídeos enganosos sobre fraudes nas eleições viralizem, possivelmente afetando o processo democrático mais uma vez.

Zuckerberg poderia começar fazendo o que milhares de líderes antes dele fizeram: reavaliar suas tarefas.

O projeto do metaverso ainda está em seus primórdios: enquanto o Facebook tem cerca de 3 bilhões de usuários ativos, a Horizon Worlds, plataforma VR que serve de base para a experiência do metaverso, tem apenas 200 mil, segundo documentos internos revelados pelo Wall Street Journal.

Zuckerberg é bem franco ao dizer que o metaverso da Meta não estará totalmente pronto por cinco anos ou mais. Esse é mais um motivo pelo qual seu projeto pode ter o luxo de ser deixado de lado por alguns meses – ou pelo menos durante estes momentos críticos para a democracia.

Até agora, ele não mostrou sinais de mudar o foco. De acordo com o New York Times, a principal equipe eleitoral do Facebook não está mais diretamente subordinada a Zuckerberg, como fez em 2020, quando ele priorizou a eleição daquele ano.

O co-fundador do Facebook também soltou as rédeas dos principais executivos encarregados de lidar com a desinformação eleitoral. O chefe de assuntos globais Nick Clegg divide agora seu tempo entre o Reino Unido e o Vale do Silício, e Guy Rosen, chefe da segurança da informação da empresa, se mudou para Israel, segundo confirmado por um porta-voz da empresa via e-mail.

Pesquisadores que monitoram desinformação nas redes sociais afirmam que há poucas evidências de que o Facebook está mais eficiente para impedir teorias da conspiração agora do que em 2020.

Melanie Smith, que lidera a pesquisa sobre desinformação no Institute for Strategic Dialogue, uma organização sem fins lucrativos em Londres, diz que a empresa não melhorou o acesso aos dados para pesquisadores externos que visam quantificar a disseminação de publicações enganosas. Logo, segundo ela, elas ainda são disseminadas. Smith disse que encontrou grupos do Facebook que recrutavam observadores aparentemente com o objetivo de intimidar eleitores no dia das eleições.

Ela também apontou para um vídeo publicado pelo deputado Matt Gaetz, da Flórida, em sua página do Facebook, dizendo que a eleição de 2020 havia sido roubada. O vídeo foi visualizado mais de 40 mil vezes até o momento da publicação deste artigo. Mesmo tendo sido publicado há um mês, não havia uma nota para alertar o usuário a verificar os fatos.

Smith mencionou publicações recentes no Facebook, compartilhadas centenas de vezes, convidando as pessoas para eventos para discutir como “comunistas chineses” estão concorrendo às eleições locais nos EUA, ou cartazes que afirmam que certos políticos deveriam “ir para a prisão por seu papel nas eleições roubadas”. Publicações de candidatos tendem a se proliferar mais, disse.

A Meta disse que sua principal abordagem para lidar com o conteúdo até meados de 2022 será com alertas de advertência. O problema é que eles não são muito eficazes.

Para mais de 70% das publicações com desinformação no Facebook, esses alertas são aplicados dois dias ou mais após terem sido publicadas – bem depois de viralizarem, de acordo com um estudo realizado pelo Integrity Institute, uma organização de pesquisa sem fins lucrativos liderada por ex-funcionários de grandes empresas de tecnologia. Estudos demonstraram que a desinformação obtém 90% de seu engajamento total nas redes sociais em menos de um dia.

O problema, em última instância, é a maneira como o Facebook mostra o conteúdo que provavelmente manterá as pessoas no site, o que a denunciante Frances Haugen chamou de ranking baseado em engajamento. Uma abordagem melhor seria o “ranking baseado em qualidade”, semelhante ao sistema de classificação de páginas do Google que favorece fontes de informação consistentemente confiáveis, de acordo com Jeff Allen, um ex-cientista de dados da Meta e co-fundador do Integrity Institute.

A crescente ênfase do Facebook em vídeos deve piorar o problema. Em setembro, a desinformação era compartilhada com muito mais frequência via vídeo do que por meio de publicações comuns no Facebook, disse Allen, citando um estudo recente do Integrity Institute.

O conteúdo falso geralmente recebe mais engajamento do que o conteúdo verdadeiro, acrescentou, e por isso tende a ser favorecido por um sistema baseado no engajamento. O estudo de Allen mostrou que o conteúdo de vídeo no Facebook em setembro tinha um “fator de amplificação de desinformação” de 14 para vídeos, enquanto o mesmo era de 4,2 para publicações comuns.

Em 2020, o Facebook implantou medidas rápidas para combater uma onda de publicações dizendo que a eleição estava sendo roubada pelo então presidente eleito Joe Biden, algo que acabou influenciando a invasão do Capitólio dos EUA em 6 de janeiro.

A Meta não deveria ter que adotar medidas tão drásticas novamente. Se Zuckerberg está falando sério sobre conectar pessoas e fazê-lo com responsabilidade, ele deveria sair de sua bolha de realidade virtual e reavaliar o sistema de ranking que mantém os usuários grudados nas suas timelines do Facebook.

No mínimo ele poderia comunicar a seus funcionários, e ao público, que ele está mais uma vez priorizando a integridade eleitoral. O metaverso pode esperar.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e cobre a área de tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous”.

Veja mais em Bloomberg.com

Leia também

Minerva investe R$ 26 milhões em startup de comida congelada Liv Up