Bloomberg Opinion — É difícil não se preocupar quando o chamado padrinho da inteligência artificial (IA), Geoffrey Hinton, diz que está deixando o Google (GOOG) e se arrepende do trabalho de sua vida.
Hinton, que fez uma contribuição crítica para a pesquisa de IA na década de 1970 com seu trabalho em redes neurais, disse a vários meios de comunicação na última semana que grandes empresas de tecnologia estavam avançando muito rápido na implantação de IA ao público.
Parte do problema era que a IA estava alcançando capacidades semelhantes às humanas mais rapidamente do que os especialistas haviam previsto. “Isso é assustador”, disse ele ao jornal New York Times.
As preocupações de Hinton certamente fazem sentido, mas teriam sido mais eficazes se tivessem surgido vários anos antes, quando outros pesquisadores que não tinham aposentadoria a que recorrer tocavam os mesmos alarmes.
De forma reveladora, Hinton em um tuíte procurou esclarecer como o New York Times caracterizou suas motivações, preocupado que o artigo sugerisse que ele havia deixado o Google para criticá-lo. “Na verdade, saí para poder falar sobre os perigos da IA sem considerar como isso afeta o Google”, disse ele. “O Google agiu com muita responsabilidade.”
Embora a proeminência de Hinton no campo possa tê-lo protegido de contra-ataques, o episódio destaca um problema crônico na pesquisa de IA: grandes empresas de tecnologia controlam tanto a pesquisa de IA que muitos de seus cientistas têm medo de expressar suas preocupações por medo de prejudicar suas carreiras.
Você pode entender o porquê. Meredith Whittaker, ex-gerente de pesquisa do Google, teve que gastar milhares de dólares com advogados em 2018 depois de ajudar a organizar a paralisação de 20.000 funcionários do Google por causa dos contratos da empresa com o Departamento de Defesa dos Estados Unidos.
“É muito, muito assustador enfrentar o Google”, disse em entrevista. Whittaker, que agora é presidente do aplicativo de mensagens criptografadas Signal, acabou pedindo demissão da gigante de buscas com um aviso público sobre a direção da empresa.
Dois anos depois, os pesquisadores de IA do Google, Timnit Gebru e Margaret Mitchell, foram demitidos da gigante de tecnologia depois de divulgarem um trabalho de pesquisa que destacava os riscos de grandes modelos de linguagem – a tecnologia atualmente no centro das preocupações sobre chatbots e IA generativa.
Eles apontaram questões como preconceitos raciais e de gênero, inescrutabilidade e custo ambiental.
Whittaker se irrita com o fato de que Hinton agora é objeto de retratos brilhantes sobre suas contribuições para a IA, depois que outros assumiram riscos muito maiores para defender o que acreditavam enquanto ainda trabalhavam no Google.
“Pessoas com muito menos poder e posições mais marginalizadas estavam assumindo riscos pessoais reais para listar os problemas com a IA e as empresas que a controlavam”, diz ela.
Por que Hinton não falou antes?
O cientista se recusou a responder às perguntas sobre isso. Mas ele parece estar preocupado com a IA há algum tempo, inclusive nos anos em que seus colegas lutavam por uma abordagem mais cautelosa da tecnologia.
Um artigo da revista New Yorker de 2015 o descreve conversando com outro pesquisador de IA em uma conferência sobre como os políticos poderiam usar a IA para aterrorizar as pessoas.
Quando perguntado por que ele ainda estava fazendo a pesquisa, Hinton respondeu: “Eu poderia lhe dar os argumentos usuais, mas a verdade é que a perspectiva de descoberta é muito boa”. Foi um eco deliberado da famosa descrição de J. Robert Oppenheimer do apelo “tecnicamente boa” de trabalhar na bomba atômica.
Hinton diz que o Google agiu “com muita responsabilidade” na implantação da IA. Mas isso é apenas parcialmente verdade.
Sim, a empresa encerrou seu negócio de reconhecimento facial devido a preocupações de uso indevido e manteve seu poderoso modelo de linguagem LaMDA em segredo por dois anos, a fim de trabalhar para torná-lo mais seguro e menos tendencioso. O Google também restringiu os recursos do Bard, seu concorrente do ChatGPT.
Mas ser responsável também significa ser transparente, e o histórico do Google de sufocar as preocupações internas sobre sua tecnologia não inspira confiança.
Espera-se que a partida e os avisos de Hinton inspirem outros pesquisadores de grandes empresas de tecnologia a falar sobre suas preocupações.
Os conglomerados de tecnologia engoliram algumas das mentes mais brilhantes da academia graças à atração de altos salários, benefícios generosos e o enorme poder de computação usado para treinar e experimentar modelos de IA cada vez mais poderosos.
No entanto, há sinais de que alguns pesquisadores estão pelo menos considerando ser mais vocais. “Costumo pensar em quando sairia da [inicialização de IA] Anthropic ou deixaria a IA totalmente”, tuitou Catherine Olsson, membro da equipe técnica da empresa de segurança de IA Anthropic na segunda-feira (1), em resposta aos comentários de Hinton.
“Já posso dizer que essa mudança vai me influenciar.”
Muitos pesquisadores de IA parecem ter uma aceitação fatalista de que pouco pode ser feito para conter a maré da IA generativa, agora que ela foi lançada no mundo. Como o cofundador da Anthropic, Jared Kaplan, me disse em uma entrevista publicada na terça-feira (2): “deram com a língua nos dentes”.
Mas se os pesquisadores de hoje estiverem dispostos a falar agora, enquanto isso importa, e não logo antes de se aposentarem, provavelmente todos nos beneficiaremos.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Parmy Olson é colunista de tecnologia da Bloomberg Opinion. Trabalhou anteriormente para o The Wall Street Journal e Forbes, e é autora de “We are Anonymous”.
Veja mais em bloomberg.com
Leia também:
Adidas aposta em modelos clássicos após fim de parceria com Kanye West