Por que o Q*, novo serviço de inteligência artificial da OpenAI, é alarmante?

Quando os sistemas de IA começam a resolver problemas, a tentação é dar a eles mais responsabilidade. Mas isso também exige cautela

Por

Bloomberg Opinion — Quando surgiram notícias na semana passada de que a OpenAI estava trabalhando em um novo modelo de Inteligência Artificial (IA) chamado Q* (pronuncia-se “Q star”), alguns sugeriram que seria um passo importante em direção a uma inteligência artificial poderosa, semelhante à humana, que poderia um dia ficar desonesta.

Certamente, o entusiasmo em torno do Q* aumentou a empolgação com as proezas de engenharia da empresa em um momento em que ela se recupera de um golpe fracassado do conselho. A empolgação com a IA já enganou muitas pessoas muitas vezes antes.

O verdadeiro alerta que devemos ter com o Q* é a direção para a qual esses sistemas estão progredindo. À medida que se aprimoram no raciocínio, será mais tentador dar a essas ferramentas maiores responsabilidades. Mais do que qualquer preocupação com a aniquilação da IA, isso, por si só, deveria nos fazer parar.

A OpenAI não confirmou o que é o Q*, e o CEO reintegrado, Sam Altman, descreveu-o apenas como um “infeliz vazamento”, mas, na mídia, parece algo semelhante a outro sistema no qual o Google, da Alphabet (GOOG), está trabalhando.

O Gemini é o novo grande concorrente do ChatGPT, que não apenas gerará texto e imagens mas também será excelente em planejamento e estratégia, de acordo com o CEO do Google DeepMind, Demis Hassabis. O DeepMind criou um modelo de IA famoso que venceu jogadores campeões do jogo de tabuleiro Go, e o Gemini usará algumas dessas técnicas para resolver problemas.

Com o Q*, a OpenAI parece levar o ChatGPT para uma direção semelhante, uma vez que, de acordo com vários relatórios, o Q* pode realizar cálculos matemáticos de nível escolar. Pode parecer algo inexpressivo, mas combinar recursos matemáticos com um software que também pode escrever textos e criar imagens é algo único, e o ChatGPT até agora tem se esforçado para fazer equações corretamente.

Se ele conseguir, isso poderia se correlacionar com uma melhoria na solução de problemas. Matemática requer compreensão de um problema e descoberta de etapas para resolvê-lo antes de realizar todos os cálculos corretos. Esse processo está um pouco mais próximo de como nós, humanos, pensamos e resolvemos problemas.

As primeiras versões do Gemini já podem executar algumas tarefas que exigem planejamento, de acordo com uma fonte com acesso à futura ferramenta do Google que não quis ser identificada devido a compromissos de confidencialidade.

É difícil encontrar exemplos de tarefas que o Gemini pode realizar, mas a pessoa que usou o modelo disse que é possível, por exemplo, pedir que ele realize uma pesquisa de mercado para um novo produto. Ele então exploraria a internet e traria análises e ideias adicionais. “Com o ChatGPT, você ainda precisa controlar um pouco mais o modelo”, acrescentou.

À medida que mais sistemas de IA conseguirem fazer coisas de forma independente (como conduzir pesquisas), seus operadores humanos provavelmente deixarão de dar a eles tarefas isoladas e passarão a dar a eles uma responsabilidade mais ampla por várias tarefas.

Por exemplo, coordenar com colegas por e-mail ou gerenciar análises. Isso vai parecer tentador para qualquer empresa ávida por se tornar mais eficiente, mas essas ferramentas também prometem substituir empregos, principalmente os de nível básico que facilitam a entrada de jovens em uma nova área.

As empresas que terceirizam mais para a IA também correm o risco de incorporar estereótipos raciais e de gênero em seus sistemas de trabalho. A maioria das empresas precisa escolher entre alguns dos chamados modelos de fundação da OpenAI, do Google ou da Amazon.com (AMZN) para atualizar sua infraestrutura, e esses modelos têm sido apontados não apenas por mostrarem preconceitos arraigados em relação a pessoas com deficiência e minorias raciais mas também por serem altamente inescrutáveis.

A OpenAI e, por extensão, a Microsoft (MSFT) não quiseram divulgar os detalhes de que os pesquisadores independentes precisam para determinar o grau de parcialidade de seus modelos de linguagem.

A Forrester Research previu que cerca de 7 milhões de trabalhadores do conhecimento dos Estados Unidos usarão o Microsoft 365 Copilot em 2024. Enquanto isso, o Google está lançando seu próprio concorrente, o Duet AI, para os mais de 3 bilhões de usuários de sua plataforma corporativa Workspace.

Como essas ferramentas estão imbuídas de mais habilidades estratégicas e de planejamento, falaremos muito mais sobre dar a elas “responsabilidade” em vez de “tarefas”. Mas devemos fazer isso de forma lenta e cuidadosa. A inovação prevista pode não sair como esperado.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous”.

Veja mais em Bloomberg.com

Leia também

Coreia do Sul e SpaceX levam primeiro satélite espião do país ao espaço

CEO da Vale diz que China não pode controlar preço do minério de ferro