Ex-conselheira da OpenAI diz que soube do lançamento do ChatGPT pelo Twitter

Helen Toner, que deixou o conselho no ano passado, comentou pela primeira vez os acontecimentos que levaram à demissão de Sam Altman; empresa disse lamentar declarações

Helen Toner
Por Shirin Ghaffary
28 de Maio, 2024 | 06:59 PM

Bloomberg — Helen Toner, ex-membro do conselho da OpenAI, disse que o colegiado não sabia do então novo ChatGPT em 2022 pela empresa até momentos depois do lançamento - e só ficou sabendo pelo então Twitter.

Em um podcast chamado The TED AI Show, Toner fez o relato mais completo até o momento sobre os eventos que levaram ela e outros membros do conselho a demitir Sam Altman em novembro do cargo de CEO do ano passado.

Nos dias que se seguiram à repentina demissão, muitos dos funcionários da OpenAI ameaçaram se demitir, o que levou à volta de Altman como CEO, enquanto Toner e outros conselheiros saíram.

"Quando o ChatGPT foi lançado em novembro de 2022, o conselho não foi informado com antecedência sobre isso", disse Toner no podcast. "Ficamos sabendo do ChatGPT pelo Twitter."

PUBLICIDADE

O lançamento do ChatGPT pela empresa foi relativamente tranquilo: a OpenAI simplesmente chamou o chatbot de um modelo de inteligência artificial que “interage de forma conversacional”. Mas, nos dias e semanas seguintes, a capacidade do ChatGPT de gerar textos com características humanas fez dele um grande sucesso e ajudou a preparar o caminho para a febre atual da IA generativa.

Leia também: OpenAI cria conselho de supervisão após dissolver equipe de segurança

A OpenAI não comentou de imediato as declarações da ex-conselheira à Bloomberg News. Em uma declaração fornecida ao podcast, o atual chefe do conselho da OpenAI, Bret Taylor, disse: “Estamos desapontados com o fato de a Sra. Toner continuar a revisitar essas questões”.

Ele também disse que uma análise independente da demissão de Sam Altman “concluiu que a decisão do conselho anterior não se baseou em preocupações relacionadas à segurança do produto, ao ritmo de desenvolvimento, às finanças da OpenAI ou às declarações aos investidores, clientes ou parceiros comerciais”.

Taylor também disse que “mais de 95% dos funcionários” pediram a reintegração de Altman e que a empresa continua focada em sua “missão de garantir que a inteligência artificial generativa beneficie toda a humanidade”.

Os motivos do conselho para demitir Altman foram fonte de intensa especulação no Vale do Silício. Na época, o conselho disse apenas que Altman não tinha sido “consistentemente sincero” em suas interações com os diretores. Nos meses que se seguiram, surgiram novos detalhes sobre as tensões entre Altman, o conselho e alguns funcionários.

No podcast, Toner também disse que Altman não teria divulgado seu envolvimento com o fundo da OpenAI que investe em startups. Ela também criticou a liderança de Altman em relação à segurança.

PUBLICIDADE

“Em várias ocasiões, ele nos forneceu informações imprecisas sobre os processos formais de segurança que a empresa tinha em vigor”, disse ela, “o que significa que era basicamente impossível para o conselho saber se esses processos de segurança estavam funcionando bem ou o que precisava ser mudado”.

Toner disse que, após anos de acontecimentos como esse, “nós quatro chegamos à conclusão de que simplesmente não podíamos acreditar nas coisas que Sam estava nos dizendo”.

Em um artigo publicado na revista The Economist no fim de semana, Toner e Tasha McCauley, outra ex-conselheira, expuseram seu pensamento, dizendo que a OpenAI não estava em posição de se regular e que os governos deveriam intervir para garantir que a poderosa IA fosse desenvolvida com segurança.

- Com a ajuda de Rachel Metz.

Veja mais em Bloomberg.com

Leia também

Como a humanização da IA colocou em lados opostos o CEO da Microsoft e a OpenAI