Bloomberg opinion — Em 1950, Alan Turing, cientista da computação britânico que decodificou o código Enigma durante a Segunda Guerra Mundial, escreveu um artigo no qual ele fazia uma pergunta aparentemente absurda: “as máquinas conseguem pensar?”
O lançamento do ChatGPT, um chatbot assustadoramente realista, no fim do ano passado parece ter nos levado um passo mais perto de uma resposta. Da noite para o dia, um chatbot completo saiu das sombras digitais. Ele consegue fazer piadas, escrever roteiros, resolver problemas em códigos de computador e conversar sobre qualquer coisa. Essa perturbadora nova realidade já é descrita como um “ponto de inflexão” na história da inteligência artificial.
Mas isso já era esperado há tempos. E essa criação específica vem sendo gerada nos laboratórios de ciência da computação há décadas.
Como um teste de sua proposta de máquina pensante, Turing descreveu um “jogo de imitação”, no qual um ser humano interrogaria dois entrevistados em uma sala separada. Um seria um ser humano, e outro, um computador. O entrevistador deveria descobrir qual era qual ao fazer perguntas por meio de um “teletipo”.
Turing imaginou que um computador inteligente responderia perguntas tão facilmente que o entrevistador não conseguiria distinguir um homem de uma máquina.
Embora ele tenha reconhecido que os computadores de sua geração não passariam nem perto de enganarem o entrevistador do teste, ele previu que, até o final do século, “seria possível falar sobre máquinas pensantes sem ser contrariado”.
Seu artigo ajudou a motivar pesquisas sobre inteligência artificial. Mas também gerou um grande debate filosófico, pois o argumento de Turing ofuscou a importância da consciência humana. Se uma máquina conseguisse apenas imitar a aparência do pensamento – mas não ter qualquer consciência de fazê-lo –, seria ela uma máquina pensante?
Por muitos anos, o desafio prático de construir uma máquina que conseguisse jogar o jogo de imitação ofuscou essas questões mais profundas. O principal obstáculo foi a linguagem humana, que, ao contrário de cálculos elaborados, provou ser notavelmente resistente à aplicação do poder da computação.
Mas não foi por falta de tentar. Harry Huskey, que trabalhou com Turing, voltou para os Estados Unidos para construir o que o New York Times taxou de “cérebro elétrico” capaz de traduzir idiomas. O projeto, que o governo federal ajudou a financiar, foi motivado por imperativos da Guerra Fria, que acabaram tornando a tradução de russo para inglês uma prioridade.
A ideia de que palavras podem ser traduzidas individualmente – como na decodificação de um código – rapidamente bateu de frente com as complexidades de sintaxe, sem falar nas ambiguidades inerentes das palavras consideradas individualmente. “Tiro” estaria se referindo à conjugação do verbo “tirar” ou ao substantivo?
Warren Weaver, um dos americanos por trás desses esforços, reconheceu a importância do contexto. Se “tiro” estivesse próximo do sujeito da frase, talvez fosse mais fácil identificar. Weaver chamou essas correlações de o “caráter semântico estatístico do idioma”, um insight que teria implicações significativas nas décadas por vir.
As conquistas dessa primeira geração não são impressionáveis seguindo os padrões de hoje. Os pesquisadores de tradução se viram prejudicados pela variabilidade do idioma e, em 1996, um relatório patrocinado pelo governo concluiu que a tradução automática seria impossível. O financiamento ficou escasso por anos.
Mas outros continuaram pesquisando o que ficou conhecido como Processamento de Linguagem Natural, ou PNL. Esses foram os primeiros esforços para demonstrar que um computador, com regras suficientes para orientar suas respostas, poderia pelo menos tentar jogar o jogo de imitação.
Algo típico desses esforços foi um programa divulgado por um grupo de pesquisadores em 1961. Chamado de “Baseball”, o programa se definiu como o “primeiro passo” para permitir que os usuários “fizessem perguntas ao computador em inglês e recebessem respostas diretamente”. Mas tinha um porém: os usuários podiam apenas fazer perguntas sobre baseball que estavam armazenadas no computador.
Esse chatbot logo foi ofuscado por outras criações da era jurássica da tecnologia digital: o SIR (Busca de Informações Semânticas), lançado em 1964; o ELIZA, que respondia fazendo perguntas como uma terapeuta atenciosa; e o SHRDLU, que permitia que um usuário orientasse o computador a mover blocos de diferentes formas usando linguagem corriqueira.
Mesmo rudimentares, muitos desses experimentos ajudaram a motivar inovações na forma como humanos e computadores podem interagir – como, por exemplo, um computador programado para “ouvir” uma pergunta e responder de forma que pareça confiável e real enquanto reutiliza palavras e ideias da pergunta original.
Outros buscaram treinar computadores para gerar obras originais de prosa e poesia com um mix de normas e palavras geradas aleatoriamente. Nos anos 80, por exemplo, dois programadores publicaram o livro The Policeman’s Beard Is Half Constructed, apresentado como o primeiro completamente escrito por um computador.
Mas essas demonstrações disfarçaram uma revolução mais profunda que ocorria no mundo do PNL. Com o aumento exponencial do poder dos computadores e um conjunto cada vez maior de trabalhos que surgiam em formatos legíveis por máquinas, foi possível criar modelos cada vez mais sofisticados que quantificavam a probabilidade de correlações entre palavras.
Essa fase, que certa vez foi apropriadamente descrita como “intensa filtragem de dados”, decolou com o advento da internet, que ofereceu um conjunto em constante crescimento de textos que poderiam ser usados para derivar diretrizes “suaves” e probabilísticas que permitem a um computador compreender as nuances da linguagem.
Em vez de “normas” definidas que visavam prever cada permuta linguística, a nova abordagem estatística era mais flexível e frequentemente mais correta.
A proliferação de chatbots comerciais cresceu a partir desta pesquisa, assim como outras aplicações: reconhecimento linguístico básico, software de tradução, características de autocorreção onipresentes e outras características agora comuns de nossas vidas cada vez mais digitais. Mas qualquer um que já discutiu com um atendente virtual sabe que os limites definitivamente existem.
No fim, a única forma com que uma máquina poderia jogar o jogo de imitação seria imitar o cérebro humano, com seus bilhões de neurônios interconectados e sinapses. As chamadas redes neurais artificiais operam de maneira muito semelhante, filtrando dados e criando conexões cada vez mais fortes ao longo do tempo através de um processo de feedback.
A chave para fazer isso é outra tática distintamente humana: praticar. Se você treinar uma rede neural fazendo-a ler livros, ela pode começar a elaborar frases que imitam a linguagem desses livros. E se você fizera rede neural ler, digamos, tudo o que já foi escrito, ela pode ficar muito, muito boa em comunicação.
O que é mais ou menos o cerne do ChatGPT. A plataforma foi treinada com um amplo corpus de obras escritas. Aliás, a Wikipédia inteira representa menos de 1% dos textos que o chatbot consumiu para imitar a linguagem humana.
Graças a esse treinamento, o ChatGPT pode certamente vencer o jogo de imitação. Mas algo bastante curioso aconteceu. Pelos padrões de Turing, as máquinas agora conseguem pensar. Mas só foi possível realizar essa proeza sendo menos máquina, com normas rígidas, e mais humano.
É algo que vale a pena considerar em meio a toda a mobilização ocasionada pelo ChatGPT. A imitação é a forma mais sincera de elogio. Mas será que devemos temer as máquinas ou nós mesmos?
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Stephen Mihm é professor de história da Universidade da Geórgia e coautor de “Crisis Economics: A Crash Course in the Future of Finance.”
Veja mais em Bloomberg.com
Leia também
Inteligência artificial tomará decisões melhores que CEOs, diz Nobel de Economia
Dona do jogo Angry Birds recebe oferta de US$ 810 milhões de empresa israelense