Na ‘Woodstock da IA’, CEO da Nvidia aponta ‘novo motor para revolução industrial’

Chamada de Blackwell, a arquitetura apresentada em evento em San Jose, no Vale do Silício, será a base dos novos chips de IA da empresa e terá a capacidade de analisar trilhões de parâmetros

Nvidia CEO Jensen Huang no GTC 2024
18 de Março, 2024 | 08:28 PM

San Jose — A Nvidia (NVDA) apresentou nesta segunda-feira (18) sua nova arquitetura para processadores gráficos de alta capacidade, em um esforço para seguir oferecendo equipamentos que se tornaram a base para os sistemas de inteligência artificial como o ChatGPT, da OpenAI.

O novo mecanismo, chamado de Blackwell, é uma evolução da tecnologia atual Hopper, que está por trás dos chips voltados para inteligência artificial que fizeram a companhia se tornar a terceira maior do mundo em valor de mercado (US$ 2,195 trilhões, no fechamento da última sexta-feira, dia 15), atrás da Apple (AAPL) e da Microsoft (MSFT).

A apresentação foi realizada em evento da Nvidia em San Jose, na Califórnia, que tem participação esperada de cerca de 20.000 pessoas.

O encontro, chamado de GTC (GPU Technology Conference), foi apelidado de “O Woodstock da Inteligência Artificial” pelo analista do Bank of America Vivek Arya, em razão da grande atenção que a empresa recebeu nos últimos anos.

PUBLICIDADE

Segundo a empresa, a nova tecnologia permite que as empresas criem e executem sistemas de IA generativa (usados para criar textos e imagens) capazes de analisar até 10 trilhões de parâmetros ao mesmo tempo. A Nvidia diz que a nova arquitetura tem um custo e um consumo de energia 25 vezes menor do que o anterior.

Em apresentação nesta segunda, o CEO e cofundador da Nvidia, Jensen Huang, classificou o novo sistema como “o motor de uma nova revolução industrial”.

Leia também: Google quer reduzir desperdício de comida no escritório - sem irritar os funcionários

PUBLICIDADE

A nova tecnologia estará por trás do novo NVIDIA GB200 Grace Blackwell, um conjunto de duas GPUs Blackwell e um processador Grace voltado para computação de alta capacidade. O equipamento será vendido em plataformas para servidores, que são usados por empresas que desejem treinar e executar os seus modelos de inteligência artificial.

O lançamento contou com apoio de grandes empresas de tecnologia que prestam serviços de computação em nuvem. AWS, da Amazon (AMZN), Microsoft (MSFT), Google, da Alphabet (GOOGL), e a Oracle (ORCL) estão entre as empresas que devem receber os primeiros equipamentos com a nova tecnologia, segundo a Nvidia.

Cisco (CSCO), Dell, Hewlett Packard Enterprise (HPE), Lenovo, Supermicro, entre outras, por sua vez, fizeram acordos para oferecer servidores baseados nas GPUs Blackwell.

O novo produto da Nvidia é lançado no momento em que a febre da inteligência artificial impulsiona as vendas da companhia para níveis recordes, e eleva a valorização da empresa, bem como a de outras big techs. No quarto trimestre, a Nvidia registrou receita de US$ 22,1 bilhões, um aumento de 265% em um ano, enquanto o lucro líquido chegou a US$ 12,829 bilhões (alta de 491%).

O crescimento da Nvidia nesse mercado e a atenção gerada pelo avanço dos sistemas de inteligência artificial tem feito outros concorrentes se movimentarem.

Em dezembro, a AMD (AMD) apresentou uma nova linha de chips para inteligência artificial chamada MI300, para competir diretamente com os produtos da Nvidia. Enquanto isso, a Intel (INTC) lançou a linha Gaudi 3, que a empresa espera começar a vender neste ano, também com foco no mercado dos chamados “aceleradores de IA”.

Fundada em 1993 nos Estados Unidos, a Nvidia era mais conhecida até poucos anos por suas placas de processamentos gráfico (GPUs, na sigla em inglês) utilizadas principalmente por jogadores de games.

PUBLICIDADE

Nos anos 2000, pesquisadores começaram a notar que poderiam usar os equipamentos para rodar aplicações de inteligência artificial que exigiam o processamento em paralelo de múltiplas operações, algo que as GPUs levavam vantagem sobre as CPUs, como são chamados os microprocessadores que fazem operações tradicionais.

A Nvidia então desenvolveu uma linguagem de programação chamada Cuda voltada justamente para criar aplicações que rodassem nas GPUs. O movimento fez a companhia perceber uma oportunidade de mercado, e ela passou a desenvolver chips de alta capacidade de processamento voltados especificamente para servidores.

Leia também

Por que o sonho da Alemanha de virar uma potência de carros elétricos está em risco

Impacto da IA no mercado de trabalho divide especialistas no SXSW

Filipe Serrano

É editor da Bloomberg Línea Brasil e jornalista especializado na cobertura de macroeconomia, negócios, internacional e tecnologia. Foi editor de economia no jornal O Estado de S. Paulo, e editor na Exame e na revista INFO, da Editora Abril. Tem pós-graduação em Relações Internacionais pela FGV-SP, e graduação em Jornalismo pela PUC-SP.