Empresas líderes em IA, incluindo a OpenAI, fazem alerta sobre a tecnologia

Declaração foi assinada por mais de 350 executivos e pesquisadores, em lista que inclui Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT

CEO da OpenAI faz parte de grupo de líderes que alerta sobre riscos da IA em nível comparável ao de pandemia e guerra nuclear
Por Jackie Davalos
30 de Maio, 2023 | 04:35 PM

Leia esta notícia em

Espanhol

Bloomberg — Os CEOs de algumas das empresas líderes em inteligência artificial, incluindo DeepMind, OpenAI e Anthropic, da Alphabet (GOOGL), juntaram-se a um coro crescente de companhias alertando sobre os danos existenciais da tecnologia em rápido desenvolvimento.

Uma breve declaração divulgada nesta terça-feira (30) pela Center for AI Safety, uma organização sem fins lucrativos, disse: “mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

PUBLICIDADE

A declaração foi assinada por mais de 350 executivos e pesquisadores, incluindo Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT, Demis Hassabis, que dirige a DeepMind, e Dario Amodei, CEO da Anthropic, uma startup cofundada por veteranos da OpenAI.

A nota de frase única é o mais recente alerta de alto perfil dos líderes da indústria que chama a atenção para os sérios riscos que a inteligência artificial representa para a sociedade.

Em março, mais de 1.100 líderes da indústria, incluindo Elon Musk, Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley, e Steve Wozniak, cofundador da Apple (AAPL), defenderam uma pausa de seis meses no treinamento de poderosos modelos de IA.

PUBLICIDADE

Apesar dos avisos dos líderes de tecnologia, alguns céticos afirmam que a inteligência artificial não está em um estágio avançado o suficiente para justificar o medo de destruição da humanidade e que o foco em cenários apocalípticos é apenas uma distração de questões como viés algorítmico, racismo e risco de desinformação desenfreada.

“Acho que é uma forma de controlar a narrativa”, disse Sasha Luccioni, pesquisadora da startup de IA Hugging Face. “Deveríamos falar sobre legislação, coisas como os riscos de viés, as formas como a IA está sendo usada que não são boas para a sociedade, mas, em vez disso, estamos nos concentrando nos riscos hipotéticos”, disse ela em entrevista à Bloomberg Technology. “É meio que um hat trick.”

No início deste mês, Geoffrey Hinton - um dos chamados padrinhos da inteligência artificial que passou décadas revolucionando o campo e ajudando a criar as tecnologias avançadas de aprendizado de máquina de hoje - anunciou que ele estava saindo da equipe de pesquisa de IA do Google e disse que as empresas estavam se movendo muito rapidamente na implantação de IA para o público.

PUBLICIDADE

- Com assistência de Ed Ludlow e Caroline Hyde.

Veja mais em Bloomberg.com

Leia também

PUBLICIDADE

Como o Mercado Livre define novos negócios e o plano como plataforma de mídia

Neuralink, de Musk, diz que já pode testar implantes cerebrais em humanos

Airbnb amplia foco em estadia econômica diante de hóspedes sensíveis a preço