Opinión - Bloomberg

Por que a Nvidia não será a única empresa a se beneficiar com boom de IA

Os chips de memória estão em baixa, mas a inteligência artificial tem uma demanda que beneficiará empresas como a Samsung, a SK Hynix e a Micron

Fabricantes de chips enfrentarão aumento na demanda pela chamanda memória DRAM
Tempo de leitura: 4 minutos

Bloomberg Opinion — O valor de mercado da Nvidia (NVDA) deu um salto de US$ 207 bilhões nos dois dias após a fabricante de chips dos EUA ter apresentado, no último dia 24, um guidance de receita surpreendentemente boa após uma temporada de más notícias para o setor de semicondutores. No entanto há algumas empresas de tecnologia que podem se beneficiar ainda mais da corrida para adotar a inteligência artificial.

Há várias maneiras de contextualizar essa previsão e a reação subsequente. O número das vendas é 53% maior que o esperado pelos analistas e 33% maior do que o recorde anterior da empresa, de março do ano passado. O ganho no primeiro dia foi o terceiro maior da história dos EUA, e a soma dos dois dias superou a capitalização de mercado de praticamente todas as ações do mundo, com exceção de 48.

Entre as empresas ofuscadas pelo salto de US$ 200 bilhões no valor da Nvidia estão duas das mais importantes facilitadoras da revolução da IA: a coreana SK Hynix e a Micron Technology (MU), que comandam 52% do mercado global de memória dinâmica de acesso aleatório (DRAM).

Juntas, elas valem apenas US$ 140 bilhões. Sua única concorrente, a Samsung, responde por 43% do setor de DRAM – apenas um dos pelo menos quatro setores globais liderados pela empresa – e é negociada a US$ 317 bilhões.

PUBLICIDADE

Se o setor de IA generativa decolar, como acreditam a Nvidia e seus clientes, então gigantes estabelecidas, como a Microsoft (MSFT), e recém-chegadas, como a OpenAI, deverão bater às portas da Samsung, da SK Hynix e da Micron.

As máquinas que processam conjuntos de dados, analisam padrões em vídeo, áudio e texto e produzem réplicas de conteúdo criado por humanos precisarão de chips de memória. Na verdade, as empresas de IA provavelmente comprarão mais DRAM do que qualquer outra fatia do setor de tecnologia na história.

O motivo dessa demanda por chips de memória é bastante simples: os chips de IA da Nvidia diferem dos processadores padrão por absorverem grandes quantidades de dados por vez, analisando os números de uma só vez e, em seguida, oferecendo os resultados. Mas para que essa vantagem de potência seja obtida, eles precisam que as informações sejam inseridas no computador rapidamente e sem atrasos. É aí que entram os chips de memória.

PUBLICIDADE
LEIA +
Quem é o bilionário da Nvidia cuja fortuna subiu 150% neste ano com a febre de IA

Os processadores não leem os dados diretamente de um disco rígido – isso é muito lento e ineficiente. A primeira opção é mantê-los em armazenamento temporário dentro do próprio chip. Mas não há espaço suficiente para armazenar muita coisa – as fabricantes de chips preferem dedicar esse precioso espaço a funções de processamento de números. Portanto, a segunda melhor opção é usar DRAM.

Quando se processam bilhões de informações em uma única unidade, é necessário que esses dados estejam sempre à mão e sejam entregues rapidamente.

A falta de uma DRAM adequada em um sistema deixará o computador significativamente mais lento, neutralizando o valor de gastar US$ 10 mil nos melhores processadores para executar chatbots sofisticados. Isso significa que, para cada processador de IA de ponta comprado, pode ser instalado até 1 Terabyte de DRAM, ou seja, 30 vezes mais do que um laptop de ponta.

Esse apetite por memória significa que a DRAM vendida para uso em servidores deve superar as instaladas em smartphones ainda neste ano, segundo a pesquisadora TrendForce, de Taipei.

PUBLICIDADE
Os sistemas de inteligência artificial serão um dos principais usuários de chips de DRAM nos próximos anos

Esses sistemas também precisam ser capazes de armazenar grandes quantidades de sua produção para que possam ser lidas e gravadas rapidamente. Isso é feito no Flash NAND, os mesmos chips usados em smartphones e na maioria dos laptops modernos. A Samsung é a líder global nesse espaço, seguida pela japonesa Kioxia Holdings (uma cisão da Toshiba) e pela SK Hynix.

Juntas, a DRAM e o NAND foram responsáveis por US$ 8,9 bilhões de receita na Samsung no último trimestre, superando em muito os US$ 4,3 bilhões que a Nvidia obteve de seu negócio de data center, que inclui produtos usados para IA. No entanto, para contextualizar, esse foi o pior desempenho da divisão de memória da Samsung em sete anos, e suas vendas de memória relacionadas à IA são apenas uma fração da receita total.

Ambos os números devem crescer. Para cada chip de IA de ponta vendido aos clientes, outra dúzia de chips DRAM será enviada, e isso significa mais receita para a Samsung, a SK Hynix e a Micron. À medida que a Nvidia cresce, o mesmo acontece com essas três empresas que, coletivamente, controlam 95% do mercado de DRAM.

PUBLICIDADE

Não há dúvida de que a revolução da IA chegou, sendo os chatbots, os mecanismos de pesquisa onipresentes e os processadores de alta potência os maiores beneficiados. Mas aqueles que produzem os chips de memória também não ficarão de fora.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Tim Culpan é colunista da Bloomberg Opinion e cobre tecnologia. Anteriormente cobriu tecnologia para a Bloomberg News.

Veja mais em Bloomberg.com

Leia também

Petrobras: quanto custou o projeto Margem Equatorial, que o Ibama negou

Nvidia atinge US$ 1 trilhão em valor de mercado com boom de IA; ações sobem 4%