Bloomberg Opinion — A mente humana ainda tem dificuldades de acompanhar o avanço da inteligência artificial. A atual revolução dos Grandes Modelos de Linguagem, ou LLMs, como o ChatGPT, resultou do advento das “redes neurais transformadoras” aproximadamente em 2017.
O que acontecerá nos próximos cinco anos? Podemos confiar em nossas impressões atuais sobre essas ferramentas para julgar sua qualidade, ou elas nos surpreenderão com seu desenvolvimento?
Os LLMs terão implicações significativas em nossas decisões comerciais, nossos portfólios, nossas estruturas regulatórias e a simples questão de quanto nós, como indivíduos, devemos investir para aprender a usá-los.
Só para esclarecer, não sou sensacionalista quanto à IA. Não acho que isso levará ao desemprego em massa nem acredito que a tecnologia vai se rebelar e acabar causando a destruição do mundo. Se as pessoas e instituições conseguirem utilizá-la, acredito que ela será vantagem competitiva e de aprendizagem.
Vou contar uma história sobre um projeto de rede neural chamado AlphaZero, da empresa DeepMind. O AlphaZero foi criado no final de 2017. Quase imediatamente, ele começou a treinar jogando centenas de milhões de jogos de xadrez contra si mesmo. Após cerca de quatro horas, se tornou a melhor entidade enxadrista já criada. Moral da história: nas condições certas, a IA pode melhorar muito rápido.
Os LLMs não conseguem acompanhar esse ritmo, pois estão lidando com sistemas mais abertos e mais complexos, e também exigem investimentos corporativos contínuos. Ainda assim, os avanços recentes são impressionantes.
Não fiquei impressionado com o GPT-2, um LLM de 2019. Mas fiquei intrigado com o GPT-3 (2020) e estou muito impressionado com o ChatGPT, que às vezes é rotulado como GPT-3.5 e foi lançado no final do ano passado. O GPT-4 está a caminho, com um possível lançamento no primeiro semestre deste ano.
Em apenas alguns anos, estes modelos deixaram de ser curiosidades para serem fundamentais na rotina de trabalho de muitas pessoas que eu conheço. Neste semestre vou ensinar meus alunos como escrever um trabalho usando LLMs.
O ChatGPT, modelo lançado no final do ano passado, foi aprovado em uma prova de nível universitário de economia do trabalho. O Anthropic, um novo LLM disponível na fase beta e com previsão de lançamento este ano, passou em uma prova de pós-graduação em direito e economia com respostas claras e agradáveis. É verdade que os resultados atuais dos LLMs nem sempre são impressionantes. Mas tenha estes exemplos – e o AlphaZero – em mente.
Não tenho uma previsão para a taxa de melhoria, mas a maioria das analogias da economia normal não se aplicam. Os carros melhoram modestamente a cada ano, assim como a maioria das coisas que eu compro ou uso. Em contraste, os LLMs podem ter grandes surtos de melhoria.
Mesmo assim, você pode estar se perguntando: “o que os LLMs podem fazer por mim?” Eu tenho duas respostas imediatas.
Primeiro, eles podem escrever código de software. É verdade que eles cometem muitos erros, mas muitas vezes é mais fácil editar e corrigir esses erros que escrever o código desde o início. Eles também tendem a ser mais úteis para escrever as partes chatas do código, liberando programadores humanos talentosos para a experimentação e inovação.
Eles também podem ser professores particulares. Esses tipos de LLM já existem e vão melhorar muito. Eles podem dar respostas muito interessantes a perguntas sobre quase tudo no mundo humano ou natural. Eles nem sempre são confiáveis mas normalmente são úteis para oferecer novas ideias e inspirações. Espero que esses LLMs sejam integrados com serviços de verificação de fatos e busca em breve. Até lá, podem melhorar a escrita e organizar anotações.
Comecei a dividir as pessoas que conheço em três grupos: aqueles que ainda não conhecem os LLMs; aqueles que reclamam de seus atuais LLMs; e aqueles que têm alguma consciência do futuro impressionante que temos pela frente. O intrigante sobre os LLMs é que eles não seguem regras de desenvolvimento – eles são como uma lagarta prestes a virar uma borboleta.
Ficar ansioso com esse tipo de futuro é humano (se é que eu posso usar essa palavra). Mas devemos nos preparar.
Esta coluna não reflete necessariamente a opinião dos conselhos editoriais da Bloomberg Línea, da Falic Media ou da Bloomberg LP e de seus proprietários.
Tyler Cowen é colunista da Bloomberg Opinion. É professor de economia na George Mason University e escreve para o blog Marginal Revolution. É coautor de “Talent: How to Identify Energizers, Creatives, and Winners Around the World.”
Veja mais em Bloomberg.com
Leia também
Inteligência artificial tomará decisões melhores que CEOs, diz Nobel de Economia
WeWork: mil endereços em 3 meses no Brasil sem prédios novos, diz CEO