Samsung recebe aprovação da Nvidia para fabricar chips para IA, segundo fontes

Avanços da empresa são importantes para capitalizar a crescente demanda por produtos de IA, já que o mercado de chips de memória HBM deve crescer nos próximos anos

Placa com microchips
Por Yoolim Lee - Ian King
03 de Agosto, 2024 | 02:39 PM

Bloomberg — Após uma série de contratempos no desenvolvimento dos chips de memória cruciais para o mercado de inteligência artificial (IA), a Samsung começou a diminuir a diferença em relação à rival SK Hynix.

A empresa fez avanços importantes, incluindo a obtenção da tão esperada aprovação da gigante da IA Nvidia (NVDA) para uma versão de seus chips de memória de alta largura de banda, os chamados HBM3, de acordo com pessoas familiarizadas com o assunto que falaram à Bloomberg News.

A expectativa também é de aprovação da próxima geração, o HBM3E, dentro de dois a quatro meses, disseram as pessoas, que pediram para não serem identificadas por discutirem questões internas.

Leia mais: Trade de IA? Menos ações de chips, mais de energias renováveis e data centers

PUBLICIDADE

Os avanços ocorrem depois de meses de dificuldade, como erros de desenvolvimento que permitiram que a SK Hynix assumisse a liderança no setor.

Historicamente, a Samsung lidera o mercado de chips, capitalizando em sua escala e experiência em engenharia. Como a empresa teve dificuldades no campo de memória de alta largura de banda (HBM), ela optou por substituir o líder da divisão de semicondutores em maio.

“Nunca vimos a Samsung nessa posição”, disse Jim McGregor, analista da Tirias Research. “O setor e principalmente a Nvidia precisam da Samsung, mas precisam que ela funcione a todo vapor.”

A empresa não quis comentar sobre qualquer parceiro específico, mas disse que, em geral, colabora estreitamente com os clientes e que os testes ocorrem tranquilamente.

As últimas conquistas da Samsung provavelmente posicionarão a empresa para capitalizar a crescente demanda por produtos de IA. Estima-se que o mercado de HBM aumente para US$ 71 bilhões em 2027, de US$ 4 bilhões no ano passado, de acordo com o Morgan Stanley (MS).

Quanto mais rápido a Samsung obtiver a aprovação da Nvidia, líder na fabricação de aceleradores de IA, maior será a sua receita.

Gráfico

“A percepção dos investidores sobre a Samsung pode mudar em breve”, escreveram Shawn Kim e Duan Liu, analistas do Morgan Stanley, em um relatório deste mês. “As coisas estão melhorando rapidamente.”

PUBLICIDADE

A dupla escolheu a Samsung como sua stock pick no setor, porque acha que a empresa poderia obter uma participação incremental no mercado de HBM de pelo menos 10% em 2025, acrescentando cerca de US$ 4 bilhões em receita.

Embora ela ainda fique atrás da SK Hynix no setor, esse avanço poderia mudar a percepção dos investidores e contribuir para ganhos das ações.

Quatro pessoas caminhando

Embora a Samsung pareça estar no caminho certo para garantir o selo de aprovação da Nvidia até novembro, a empresa ainda enfrenta desafios para resolver certos problemas, com resultados imprevisíveis, dada a complexidade dos chips de IA.

Segundo as pessoas que falaram à Bloomberg News, há ainda uma chance de que seu cronograma seja postergado para 2025.

Os erros da Samsung ocorreram em um período incomum para a empresa. O presidente executivo Jay Y. Lee passou anos lutando contra promotores por causa de alegações de suborno e corrupção e, nesse meio tempo, os líderes seniores não viam a HBM como uma prioridade.

De fato, o mercado era pouco conhecido e usado até a OpenAI lançar o ChatGPT no final de 2022 e desencadear um frenesi de demanda pelos chips da Nvidia usados para treinar modelos de IA.

Dificuldade de fabricação

Enquanto a SK Hynix se preparava para ganhar fatia no mercado, a Samsung teve dificuldades com os complexos problemas de engenharia dos novos chips. O HBM é composto por uma coleção de chips de memória dinâmica de acesso aleatório (DRAM) empilhados em oito camadas na geração mais recente.

Cada camada gera um calor substancial e, em seguida, elas são embaladas com a unidade de processamento gráfico da Nvidia, ou GPUs, que pode atingir 100°C. A bateria inteira corre o risco de derreter sem os materiais de dissipação e resfriamento adequados.

Leia mais: Disputa em IA pode levar empresas a investir mais que o necessário, diz Zuckerberg

“À medida que você aumenta essas camadas, o desafio de desenvolver um rendimento razoável se torna mais difícil”, disse Jake Silverman, analista da Bloomberg Intelligence. “O problema é térmico: ela esquenta, porque é uma DRAM empilhada. Ela fica muito próxima da GPU, que fica ainda mais quente.”

A Samsung teve problemas para resolver tal acoplamento térmico, de acordo com uma das pessoas, que pediu para não ser identificada por discutir um trabalho confidencial.

Em maio, a empresa tomou medidas drásticas e anunciou que Kyung Kye-hyun, chefe da divisão de semicondutores, deixaria o cargo e Jun Young-hyun assumiria seu lugar.

Jun, que entrou na Samsung em 2000 e ajudou a desenvolver os chips de memória DRAM e flash da empresa, rapidamente aumentou a pressão para encontrar soluções. Jun Young-hyun, de 63 anos, convocou uma série de reuniões para investigar detalhes técnicos e encontrar a causa raiz do problema.

Em uma reunião que durou horas sem intervalo, ele lamentou que o HBM poderia ser parte de um problema mais amplo, de acordo com uma pessoa familiarizada com o assunto.

A Samsung corria o risco de ficar para trás não apenas nos aspectos técnicos dos chips de memória, mas também em termos de urgência na inovação. Para aumentar a colaboração, ele reorganizou a equipe dedicada ao HBM e nomeou um novo chefe.

Gráfico

A Samsung usa uma estratégia de gerenciamento de calor chamada filme não condutor de compressão térmica, ou TC-NCF, para isolar cada camada de DRAM. A SK Hynix, por outro lado, foi pioneira em uma alternativa para melhorar a dissipação de calor e o rendimento da produção.

No entanto, a Samsung optou por manter o TC-NCF e aprimorá-lo, em vez de considerar outras abordagens. Um porta-voz da empresa disse que o TC-NCF é uma “tecnologia bem comprovada” que será usada em produtos futuros.

Leia mais: De Microsoft à Amazon: gastos com IA ganham os holofotes em balanços

Por fim, a empresa modificou o design do HBM para resolver problemas de aquecimento e consumo de energia, disseram as pessoas. Isso levou à aprovação do HBM3 pela Nvidia.

A Samsung disse que Jun, desde que assumiu o controle, tem priorizado a cultura da empresa de discussão coletiva e persistência na solução de problemas. Ela acrescentou que não houve “nenhum problema relacionado ao aquecimento e ao consumo de energia em nossos produtos HBM” e que não fez “nenhuma alteração de design” para clientes específicos.

Expansão da indústria tech em IA

A Samsung pode se beneficiar com o fato de que grande parte do crescimento da IA ainda está por vir.

Empresas como Microsoft (MSFT), Alphabet (GOOGL), controladora do Google, Amazon (AMZN), Apple (AAPL) e Meta (META) têm investido grandes montantes para desenvolver suas capacidades no setor.

A Samsung produz chips HBM3 desde o segundo semestre do ano passado, de acordo com detalhes de seus balanços trimestrais. A expectativa é de que empresas como o Google, que projetam seus próprios recursos de chip, continuem a usar o HBM3 durante a maior parte deste ano.

A companhia começou a fornecer o HBM3 para a Nvidia em seu chip H20, um produto personalizado para a China para atender aos controles de exportação dos EUA.

Quanto ao HBM3E, a tecnologia chegou ao mercado pela primeira vez este ano, quando a Nvidia combinou o chip SK Hynix com seu próprio H200.

A Nvidia continuará a usar o HBM3E em praticamente todos os seus produtos até 2025 e as empresas rivais continuarão a usá-lo mesmo em 2026, disseram analistas da Sanford C. Bernstein em um relatório de julho.

“A Samsung está atrasada, mas a janela do HBM3E permanecerá aberta para que a empresa se atualize”, escreveram os analistas, liderados por Mark Li.

Em um sinal do seu atraso, a Micron Technology (MU) anunciou no início deste ano que a Nvidia havia aprovado seus chips HBM3E para uso com o equipamento de IA da empresa.

A Micron, que historicamente ficou atrás de seus rivais coreanos, agora assume a liderança em algumas áreas de fabricação de memória e introdução de produtos, mais um sinal da erosão do domínio da Samsung.

No entanto, uma vantagem significativa que a Samsung possui são seus recursos financeiros e sua capacidade de produção. Depois de atender aos critérios de aprovação da Nvidia, ela pode aumentar a produção rapidamente, solucionando a escassez que tem impedido a Nvidia e outros defensores da IA.

Gráfico

A SK Hynix não vai desistir. Ela está na rara posição de roubar os holofotes de sua rival de maior destaque – suas ações subiram mais de 150% desde o início de 2023, mais do que o triplo do desempenho da Samsung.

Na semana passada, a SK Hynix disse que acelerou a produção de produtos HBM3E para obter um crescimento de mais de 300%. A empresa também afirmou que planeja produzir em massa chips HBM3E de 12 camadas de última geração neste trimestre e começar a fornecer a um cliente no quarto trimestre, uma indicação provável de que a certificação da Nvidia é iminente.

Sob a liderança de Jun, a Samsung está progredindo. Ela desenvolveu sua própria tecnologia HBM3E de 12 camadas e quer obter a aprovação da Nvidia para essa geração de chips, bem como para o HBM3E de oito camadas. É uma indicação da promessa do mercado.

“Essa é uma oportunidade de receita de US$ 71 bilhões até 2027 (em nossas estimativas), e em crescimento, que não existia há dois anos”, escreveram os analistas do Morgan Stanley. “O principal debate para a Samsung é se ela pode atuar como uma segunda fonte para a Nvidia.”

Veja mais em Bloomberg.com