Bloomberg Opinion — A Microsoft (MSFT) planeja gastar US$ 80 bilhões em inteligência artificial (IA) este ano, reforçando sua posição como fornecedor líder. Então, por que ela publicou recentemente um artigo de pesquisa que mostrou uma erosão das habilidades de pensamento crítico entre os trabalhadores que usam ferramentas de IA generativas, como o ChatGPT?
Se fôssemos generosos, poderíamos dizer que se tratava de uma investigação científica genuína. O mais provável é que a empresa queira se manter à frente da curva, à medida que a IA perturba determinados trabalhos, e garantir que suas ferramentas continuem úteis para as empresas.
Em uma época em que as grandes empresas de tecnologia correm para tornar os modelos de IA maiores, essa é uma abordagem refrescante e ponderada, tanto para o modelo de negócios do setor quanto para seus resultados sociais.
O estudo, realizado em conjunto com pesquisadores da Carnegie Mellon University, entrevistou 319 profissionais do conhecimento sobre como eles usavam a IA, incluindo um professor que gerava imagens para uma apresentação sobre como lavar as mãos para seus alunos usando o DALL-E 2 e um trader de commodities que gerava estratégias usando o ChatGPT.
Os pesquisadores encontraram um padrão impressionante: quanto mais os participantes confiavam na IA para determinadas tarefas, menos eles mesmos praticavam essas habilidades, como redação, análise e avaliações críticas.
Como resultado, eles relataram um atrofiamento das habilidades nessas áreas. Vários entrevistados disseram que começaram a duvidar de sua capacidade de realizar tarefas como verificar a gramática de um texto ou redigir cartas jurídicas, o que os levou a aceitar automaticamente tudo o que a IA generativa lhes oferecia.
Leia mais: Robôs humanoides são a próxima aposta da Meta para avançar em IA
E era ainda menos provável que eles praticassem suas habilidades quando havia pressão de tempo. “Em vendas, preciso atingir uma determinada cota diariamente ou corro o risco de perder meu emprego”, disse um participante anônimo do estudo. “Portanto, uso a IA para economizar tempo e não tenho muito espaço para refletir sobre o resultado.”
Um estudo recente semelhante da Anthropic, que analisou como as pessoas estavam usando seu modelo de IA Claude, descobriu que a principal habilidade exibida pelo chatbot nas conversas era o “pensamento crítico”.
Isso mostra o cenário de um futuro em que os profissionais acabam se tornando gerentes dos resultados da IA, em vez de criadores de novas ideias e conteúdo, principalmente à medida que os modelos de IA se aprimoram.
O mais recente modelo “Deep Research” da OpenAI, que custa US$ 200 por mês, pode realizar pesquisas na internet e vasculhar imagens, PDFs e textos, para produzir relatórios detalhados com citações.
Um resultado é que o trabalho cognitivo vai se transformar, e rapidamente, de acordo com uma nota de 12 de fevereiro para investidores do Deutsche Bank.
“Os seres humanos serão recompensados por fazer as perguntas certas ao seu agente de IA, da maneira certa, e depois usar seu discernimento para avaliar e iterar as respostas”, escreve o analista de pesquisa Adrian Cox. “Grande parte do restante do processo cognitivo será transferido.”
Por mais assustador que isso pareça, considere que Sócrates já se preocupou que a escrita levaria à erosão da memória, que se esperava que as calculadoras acabassem com nossas habilidades matemáticas e que a navegação por GPS nos deixaria irremediavelmente perdidos sem nossos telefones.
Essa última afirmação pode ser um pouco verdadeira, mas, de modo geral, os seres humanos conseguiram outros usos para seus cérebros quando terceirizaram seu pensamento, mesmo que nossas habilidades matemáticas e de navegação tenham se tornado mais preguiçosas.
O que é diferente com a IA é que ela invade uma parte muito mais ampla de nossa cognição cotidiana. Somos colocados em posições para pensar criticamente com muito mais frequência do que para calcular somas ou traçar rotas – seja ao elaborar um e-mail confidencial ou decidir o que sinalizar para nosso chefe em um relatório.
Isso pode nos deixar menos capazes de realizar o trabalho profissional essencial ou mais vulneráveis à propaganda. E isso nos leva de volta à questão de por que a Microsoft – que ganha dinheiro com as vendas dos modelos de GPT da OpenAI – publicou essas descobertas.
Há uma pista no próprio relatório, onde os autores observam que correm o risco de criar produtos “que não atendem às necessidades reais dos trabalhadores” se não souberem como os trabalhadores do conhecimento usam a IA e como seus cérebros funcionam quando o fazem.
Se as habilidades de raciocínio de um gerente de vendas forem prejudicadas quando ele usar os produtos de IA da Microsoft, a qualidade de seu trabalho também poderá diminuir.
Leia mais: Conselho da OpenAI rejeita oferta de Musk de US$ 97,4 bilhões pela empresa
Uma descoberta fascinante do estudo da Microsoft foi que, quanto mais as pessoas confiavam nas habilidades de suas ferramentas de IA, menor era a probabilidade de verificarem novamente seus resultados. Como a IA ainda tem uma tendência a alucinar, isso aumenta o risco de um trabalho de baixa qualidade.
O que acontece quando os empregadores começam a perceber um declínio no desempenho? Eles podem culpar o trabalhador, mas também podem culpar a IA, o que seria ruim para a Microsoft.
As empresas de tecnologia comercializaram a IA em alto e bom som como uma ferramenta que “aumentará” nossa inteligência, não a substituirá, como esse estudo parece sugerir.
Portanto, a lição para a Microsoft está na forma como ela visa os futuros produtos, não em torná-los mais poderosos, mas em projetá-los de alguma forma para aprimorar, em vez de corroer, as capacidades humanas.
Talvez, por exemplo, o ChatGPT e seus similares possam estimular seus usuários a terem seus próprios pensamentos originais de vez em quando.
Se não o fizerem, as empresas poderão acabar com forças de trabalho que conseguem fazer mais com menos, mas que também não conseguem perceber quando sua eficiência recém-descoberta as está levando para a direção errada.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Parmy Olson é colunista da Bloomberg Opinion e cobre a área de tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World.”
Veja mais em Bloomberg.com
Leia também
De João Fonseca a corredores: como a On entrou na disputa das marcas no Brasil
‘America First’ é a melhor receita para destruir a imagem de um país, diz consultor
Como o café gelado para tomar em casa se tornou aposta de marcas como Danone e Nestlé
© 2025 Bloomberg L.P.