29 de November de 2023

Impulsionada pela demanda por servidores de IA, a SK Hynix, fornecedora líder da HBM, será responsável por mais de 50% do mercado este ano

O forte impulso das remessas de servidores de IA aumenta a demanda por HBM (memória de alta largura de banda). De acordo com a pesquisa da TrendForce, a participação de mercado da HBM pelos três principais OEMs em 2022 será de 50% para SK Hynix, cerca de 40% para Samsung, e cerca de 40% para Samsung. Micron (Micron) cerca de 10%.

Continua após a publicidade

As especificações de GPU AI de aprendizado profundo de ponta também estimulam as atualizações do produto HBM. Na segunda metade do ano, ele será equipado com NVIDIA H100 e AMD MI300. Os três principais fabricantes planejam produzir em massa as especificações correspondentes do HBM3. Este ano , mais clientes podem apresentar o HBM3. SK Hynix é a única nova geração produzida em massa. Como fornecedores de produtos HBM3, a participação de mercado geral da HBM deve aumentar para 53%. Samsung e Micron iniciarão a produção em massa a partir do final de do ano até o início do ano que vem, com participação de mercado da HBM de 38% e 9%, respectivamente.

Estima-se que as remessas de servidores AI aumentarão 15,4% em 2023

Os servidores DL/ML AI definidos pela NVIDIA são equipados com uma média de 4 ou 8 placas gráficas de ponta e duas CPUs de servidor x86. As principais fontes de compras são dos provedores de nuvem dos EUA Google, AWS, Meta e Microsoft. De acordo com as estatísticas da TrendForce, em 2022, a remessa de servidores high-end equipados com GPGPU aumentará cerca de 9% ao ano, e quase 80% da remessa estará concentrada nos oito principais operadores de nuvem nos sistemas dos EUA e da China. Olhando para 2023, Microsoft, Meta, Baidu e ByteDance lançaram sucessivamente produtos e serviços derivados baseados em IA generativos e estão aumentando ativamente os pedidos. Este ano, a taxa de crescimento anual das remessas de servidores de IA deve atingir 15,4%. De 2023 a 2027, servidor AI A taxa de crescimento anual composta de remessas é de cerca de 12,2%.

AI Server estimula a demanda por servidor DRAM, SSD e HBM a aumentar simultaneamente

De acordo com a pesquisa da TrendForce, espera-se que os servidores AI impulsionem o crescimento da demanda de memória. Nesta fase, a especificação geral da DRAM do servidor é de cerca de 500 ~ 600 GB, e os módulos de servidor AI geralmente usam 64 ~ 128 GB, e a capacidade média pode chegar a 1,2 ~1,7 TB. No caso de SSDs de nível empresarial, os servidores AI buscam velocidades mais altas e os requisitos são atendidos primeiro com DRAM ou HBM. O aumento da capacidade do SSD não é necessário para expandir a capacidade, mas a interface de transmissão dará prioridade ao PCIe 5.0 para alta necessidades de computação de alta velocidade. Comparados com servidores gerais, os servidores AI usam mais GPGPUs. Portanto, com NVIDIA A100 80GB equipada com 4 ou 8 aquisições, o uso do HBM é de cerca de 320~640GB. No futuro, a complexidade gradual dos modelos de IA estimulará mais consumo de memória e, simultaneamente, impulsionará o crescimento da demanda de servidores DRAM, SSD e HBM.

Leia Mais:  Uma noite de domingo de futebol da NFL será ao vivo na TV do Google. Os usuários poderão desfrutar a programação de jogos, destaques e mais, tudo diretamente na tela da sua TV. Como parte deste evento, o Google também oferecerá a opção de comprar um ingresso virtual para ver os jogos.