Bloomberg — Uma crença subjacente à abordagem do aprendizado de máquina, que consome muita energia, apresentada pela OpenAI e pela Mistral AI é que um modelo de inteligência artificial deve analisar todo o seu conjunto de dados antes de gerar novos insights.
Sepp Hochreiter, um dos primeiros pioneiros da tecnologia que dirige um laboratório de IA na Universidade Johannes Kepler em Linz, Áustria, tem uma visão diferente, que exige muito menos dinheiro e capacidade de computação. Ele está interessado em ensinar os modelos de IA a esquecer com eficiência.
Hochreiter ocupa um lugar especial no mundo da inteligência artificial, tendo escalado os picos mais altos da tecnologia muito antes da maioria dos cientistas da computação. Como estudante universitário em Munique na década de 1990, ele criou a estrutura conceitual que sustentou a primeira geração de modelos ágeis de IA usados pela Alphabet, pela Apple e pela Amazon.
Leia também: Corrida pela IA: em desafio à OpenAI, Alibaba lança modelo que reconhece emoções
Essa abordagem, denominada Long Short-Term Memory, ou LSTM, ensinou aos computadores não apenas como memorizar dados complexos, mas também quais informações descartar. Depois que a MIT Press publicou os resultados de Hochreiter, ele se tornou uma estrela nos círculos de tecnologia e a LSTM o padrão do setor.
Agora, com a crescente preocupação com as grandes quantidades de energia necessárias para alimentar a IA - e com o lento início da Europa no desenvolvimento da tecnologia - o cientista de 58 anos está de volta com um novo modelo de IA baseado nessa abordagem.
Em maio, Hochreiter e sua equipe de pesquisadores lançaram o xLSTM, que, segundo ele, está provando ser mais rápido e mais eficiente em termos de energia do que a IA generativa. Para explicar como ela funciona, ele invoca uma peça mais antiga da tecnologia da informação: o livro.
Toda vez que um leitor pega um romance e começa um novo capítulo, ele não precisa ler cada palavra anterior para saber onde a história parou. Ele se lembrará dos enredos, subenredos, personagens e temas, e descartará o que não for central para a história. Hochreiter acredita que distinguir o que deve ser lembrado do que pode ser esquecido é fundamental para uma computação rápida e eficiente.
Leia também: Apple avança na corrida de IA com chips preparados para MacBook Air e Mac Studio
É também por isso que o xLSTM não depende de data centers de US$ 100 bilhões que sugam e armazenam tudo.
“É um modelo mais leve e mais rápido que consome muito menos energia”, disse Hochreiter.
Embora os hyperscalers tenham dominado o setor por muito tempo, o sucesso da DeepSeek da China no início deste ano mostrou que a ênfase na eficiência pode ser de interesse crescente para os investidores. A empresa começou com apenas 10 milhões de yuans (US$ 1,4 milhão). Desde então, outras empresas de IA também adotaram modelos que funcionam com menos chips. E mesmo antes disso, houve um impulso para lançar modelos de linguagem pequenos mais ágeis e mais acessíveis.
Com a perspectiva de uma guerra comercial entre os Estados Unidos e a Europa se aproximando e a necessidade de soberania tecnológica entrando em foco, Hochreiter acredita que a IA feita sob medida é adequada para a Europa. “Todos mudarão para novos modelos mais adequados à finalidade nos próximos anos”, disse ele. “É importante que nos consolidemos na Europa em torno de tecnologias, algoritmos e métodos que temos em nosso poder.”
Durante uma entrevista em seu instituto de IA, cerca de 150 quilômetros a leste da fazenda na Alemanha onde cresceu, Hochreiter explicou que vê mais valor em trabalhar com dados privados de fabricação e comércio do que com grandes conjuntos de dados linguísticos. “O idioma”, disse ele, “não é o negócio principal da maioria das empresas”.
Leia também: Tencent lança modelo de IA turbo que diz ser mais rápido que o DeepSeek
Nem todo mundo está convencido. Embora o DeepSeek tenha demonstrado que pequenos investimentos podem gerar grandes interrupções no mercado, Hochreiter ainda precisa provar que pode ampliar sua tecnologia. Os cientistas da computação que analisaram a estratégia de Hochreiter observam que os modelos que ele treinou são muito menores do que o ChatGPT. Alguns questionam se o xLSTM será capaz de ser dimensionado e se poderá manter a eficiência computacional presumida quando aplicado a conjuntos de dados maiores que exigem mais poder de processamento.
Essas perguntas poderão ser respondidas quando Hochreiter e sua equipe levarem seu trabalho para o mundo corporativo.
No último ano, seu laboratório deu origem a duas empresas que agora trabalham com produtores europeus de robôs, drones e equipamentos de rede de energia. A primeira, a NXAI, onde Hochreiter atua como cientista-chefe, arrecadou cerca de 20 milhões de euros em uma rodada de financiamento liderada pelo industrial austríaco Stefan Pierer. A segunda, a Emmi AI, dirigida pelo ex-pesquisador da Microsoft Johannes Brandstetter, iniciou suas operações comerciais este mês.
A NXAI não está buscando financiamento de capital de risco - em vez disso, está cortejando empresas para que participem de modelos verticais de IA específicos do setor em setores como automotivo, biotecnologia e robótica. “No momento, há um problema de retorno sobre o investimento em IA”, disse o CEO do NXAI, Albert Ortig. “Queremos criar algo com poder de permanência que não seja vendido por um bilhão de euros depois de alguns anos.”
Em seu laboratório, às margens do rio Danúbio, Hochreiter está confiante de que está no caminho certo.
“Criamos algo melhor”, disse ele.
Veja mais em Bloomberg.com
Leia também: Por que a Microsoft admitiu que a IA pode deixar as pessoas menos inteligentes
©2025 Bloomberg L.P.