Bloomberg Opinion — Enquanto o Facebook enfrenta outro escândalo, desta vez motivado por sua pesquisa interna sobre os efeitos do Instagram, eu gostaria de me concentrar em algo um pouco diferente que também deveria ser um escândalo: a qualidade dessa pesquisa interna.
O Facebook vem refutando uma matéria do Wall Street Journal, que citou um relatório interno que vazou, sugerindo que o Instagram prejudica os adolescentes ao fomentar inseguranças em torno da “comparação social” e às vezes até pensamentos suicidas. Em seu blog voltado ao público, a empresa publicou um artigo intitulado What Our Research Really Says About Teen Well-Being and Instagram (“O que nossa pesquisa realmente diz sobre o bem-estar dos adolescentes e o Instagram”, em tradução livre). A publicação apontou como o aplicativo foi considerado benigno ou moderadamente positivo e também procurou minimizar a importância da pesquisa, observando que “não mediu relações causais entre o Instagram e problemas do mundo real” e, por vezes, “confiou na opinião de apenas 40 adolescentes”.
O Facebook está certo em um ponto: sua pesquisa interna não demonstra nada. Não é assim que a ciência funciona. Nunca se deve confiar em um único estudo para determinar uma relação, em parte porque qualquer experimento único implica em muitas opções que limitam sua aplicabilidade. O estudo é com adolescentes ou jovens adultos? Homens ou mulheres? Como entrar em contato com eles? Quais perguntas fazer? O acompanhamento é feito depois de seis ou 12 meses? Isso é apenas para o projeto, não estou nem falando sobre a análise. Apenas quando vários estudos com abordagens diferentes obtêm a mesma resposta, é que podemos começar a tirar conclusões sólidas.
Dito isso, pode-se chegar a uma conclusão bastante sólida ao observar a forma como o Facebook tem feito pesquisas ao longo dos anos: ele tem medo de saber a verdade. Afinal, por que não realizar mais estudos? Se for possível que seu produto esteja levando mulheres jovens a se suicidar, você não gostaria de investigar melhor, pelo menos para limpar seu nome? Por que não permitir que pesquisadores externos usem seus dados para obter uma resposta melhor com mais rapidez? Em vez disso, o Facebook permite apenas pequenos estudos internos e tenta mantê-los trancados a sete chaves. Mesmo que vazem, a empresa mantém a negação: os resultados não são conclusivos.
O Facebook não está sozinho em sua aversão ao autoconhecimento. Algo semelhante aconteceu no Google há pouco tempo, quando pesquisadores internos tiveram a audácia de acreditar que eram capazes de fazer um trabalho crítico, escrevendo um artigo sobre como grandes modelos de linguagem como aqueles usados na empresa podem ser ambientalmente prejudiciais e até racistas. No caso, o Google demitiu dois dos fundadores de sua equipe de Inteligência Artificial Ética, Timnit Gebru e Meg Mitchell.
Não sou tão ingênua a ponto de pensar que o constrangimento público obrigará as grandes empresas de tecnologia a permitir o acesso à ciência real sobre o impacto de seus produtos. Fazer isso acontecer é um trabalho para o Congresso ou para a Comissão Federal de Comércio dos Estados Unidos. Nesse ínterim, como Facebook e Google passam por departamentos acadêmicos com ofertas de emprego para PhDs recém-formados e até professores experientes, aqueles que optam por aceitar o dinheiro devem reconhecer que não farão investigações científicas – e ainda por cima devem vazar tudo o que puderem.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Cathy O’Neil é colunista da Bloomberg Opinion. Ela é uma matemática que já trabalhou como professora, analista de fundos de hedge e cientista de dados. Ela fundou a ORCAA, uma empresa de auditoria algorítmica, e é autora de Weapons of Math Destruction.
Veja mais em bloomberg.com
Leia também
Facebook refuta que Instagram seja ‘tóxico’ para adolescentes
Instagram não é lugar para crianças
© 2021 Bloomberg L.P.