Bloomberg Opinion — Em audiência no Congresso na terça-feira (5), a ex-gerente de produtos do Facebook Frances Haugen não precisou convencer as autoridades de que a empresa tem um grande problema. Republicanos e democratas estavam, pela primeira vez, unidos em seu favor e em vários pontos até a chamaram de “heroína”. O que eles precisavam era uma direção. Felizmente, Haugen proporcionou exatamente isso.
Durante a audiência, ela usou o termo “classificação baseada no engajamento” para sintetizar as complexidades dos problemas do Facebook em um único termo neutro. As autoridades tentaram utilizá-lo. “Descobrimos... que o Facebook conduz o que é chamado de ‘classificação baseada no engajamento’?”, perguntou o senador John Thune timidamente.
Ele estava certo. O sucesso do Facebook como negócio se resume a algoritmos que colocam o conteúdo mais estimulante no topo dos feeds de notícias dos usuários. Essas fórmulas são fundamentais para o sucesso do Facebook em envolver os usuários, mas também contribuem para a propagação de teorias da conspiração sobre a rede social[1] e, no Instagram, para atrair adolescentes a distúrbios alimentares. Em um momento poderoso, Haugen observou que, em alguns anos, as mulheres certamente sofreriam de ossos fracos e infertilidade por causa das escolhas do Facebook.
Como testemunha, ela exalava credibilidade, recusando-se a fazer ataques pessoais ao CEO do Facebook, Mark Zuckerberg, ou abordar questões polêmicas a respeito da liberdade de expressão, admitindo quando não tinha uma resposta e usando uma linguagem clara.
Mais devastador ainda para o Facebook foi como o depoimento tranquilo começou a parecer uma intervenção. O Facebook estava escondendo seus problemas, disse Haugen, “e como geralmente acontece fazer quando as pessoas podem esconder seus problemas, elas se metem em confusão”. O Congresso precisava intervir e dizer: “Podemos descobrir como resolver isso juntos”.
Veja mais: Mark Zuckerberg teve uma semana horrível – e ainda é terça-feira
Escândalos anteriores do Facebook levaram as autoridades a diferentes direções – disputas com Zuckerberg, por exemplo, sobre quem está realmente sendo censurado – e, por fim, resultaram em inação. Mas a união de seu apoio e compreensão marcam um momento decisivo.
Confira quais são as quatro decisões que o Congresso pode tomar com base na orientação de Haugen:
Obrigar o Facebook a remover (ou reduzir drasticamente) os algoritmos de classificação baseada em engajamento
Elimine o elemento que vicia e leva as pessoas de volta ao Facebook e Instagram. A alternativa de Haugen é a “classificação cronológica com um pouco de controle de spam”.[2] Isso significa fazer o Facebook voltar ao que era em seus primórdios, quando os feeds de notícias eram simplesmente ordenados por horário de publicação. Os algoritmos ainda podem ser usados para remover spam, embora seus efeitos sejam discutíveis, porém os horários e as pessoas – e não as máquinas – seriam os curadores definitivos da linha do tempo. Isso vai afetar muito os lucros do Facebook, e Zuckerberg pode ter resistido à mudança devido à sua obrigação fiduciária perante os acionistas. É aí que deve entrar o Congresso.
Obrigar o Facebook a gastar mais com moderação de conteúdo
Haugen afirma que o Facebook não deve ser fragmentado. Isso deixaria as equipes de segurança de todo o império sem recursos e sem a capacidade de trabalhar em conjunto. E também fragmentaria o problema em outros menores. Em vez disso, ela sugere uma “mídia social em escala humana”. Com a frequentes falhas da IA do Facebook em encontrar conteúdo prejudicial, os humanos já fazem grande parte do trabalho ao identificar e remover esse conteúdo. Contudo, o Facebook mantém esse trabalho em bases puramente comerciais, terceirizando-o. Uma solução defendida por um estudo recente da Stern School of Business da Universidade de Nova York foi dobrar o número de moderadores de conteúdo do Facebook para 30 mil e contratar muitos deles em tempo integral.
Estabelecer uma agência para auditar os algoritmos e ferramentas do Facebook
Haugen clamou por uma agência reguladora federal que pudesse analisar os “experimentos” internos do Facebook com software e compartilhar essas informações com seu Conselho de Supervisão. O conselho já possui um sistema para aconselhar o Facebook, mas reclamou que o Facebook não fornece os dados necessários para a tomada de decisões. Uma pesquisa interna – como a exposta nos documentos divulgados por Haugen – pode dar mais peso às suas orientações (ou às ordens de uma nova agência) para tornar os sites do Facebook mais saudáveis. Por exemplo, esta pode ordenar que o Facebook eleve fontes de notícias confiáveis, como fez depois da eleição dos Estados Unidos em novembro de 2020; adicione um recurso exigindo que os usuários cliquem em um link antes de compartilhar algo; ou sugira uma pausa para os usuários mais viciados.
Veja mais: Nos EUA, quem saiu ganhando com o apagão do Facebook foi o Snapchat
Obrigar a divulgação periódica de pesquisas
O Facebook deve ser obrigado a divulgar dados sobre o que está acontecendo em seu site (com as devidas proteções de privacidade), como quais publicações são mais compartilhadas ou quais anúncios políticos são acessados. Só então os acadêmicos de fora da empresa podem analisar seus sistemas e relatar suas descobertas.
Nenhuma dessas ideias são exatamente novas, pois já foram sugeridas por defensores dos direitos civis e da privacidade e rebatidas com silêncio e inação por parte dos políticos. Contudo, os esforços desses defensores estabeleceram uma base fundamental para que o depoimento de Haugen finalmente ganhasse impulso. As autoridades vão querer saber a opinião desses grupos sobre as ideias de Haugen e, com sorte, quando precisarem de feedback, haverá um consenso.
[1] O QAnon, teoria conspiratória da extrema direita, se tornou um problema tão grande que um homem da Califórnia levou seus dois filhos para o México e os assassinou sob influência do movimento, segundo autoridades federais que também citaram diversos incidentes de sequestros relacionados ao QAnon.
[2] O Facebook testou a classificação cronológica anos atrás como parte do chamado teste A/B do site, para ver o que faria as pessoas retornarem mais vezes. Mas depois de ver resultados positivos de receita com a classificação baseada em engajamento, a empresa nunca voltou atrás. O Facebook prejudicaria as próprias ações se revertesse o sistema, motivo pelo qual ele precisa ser obrigado a fazê-lo.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Parmy Olson é colunista da Bloomberg Opinion e abrange a área de tecnologia. Ela já escreveu para o Wall Street Journal e para a Forbes e é autora de We Are Anonymous.
Tae Kim é colunista da Bloomberg Opinion e abrange a área de tecnologia. Ele já desempenhou esta função na Barron’s, depois de uma breve carreira como analista de mercado.
Veja mais em Bloomberg.com
Leia também
CVC completa quase uma semana sem sistemas após ataque hacker
© 2021 Bloomberg L.P.