Como o HBM está a aumentar os preços do DRAM: ▫️Os centros de dados de IA precisam de memória de alta largura de banda (HBM) para cargas de trabalho de IA (velocidade, capacidade). ▫️O HBM é feito empilhando verticalmente 3-4 chips de DRAM. ▫️Os fabricantes de memória (Micron, Samsung SK Hynix) estão a usar DRAM para HBM em vez de PCs e smartphones. ▫️O DRAM representa 15-40% dos custos de PCs e smartphones (o fornecimento está a esgotar-se e a nova capacidade está a ser direcionada para o HBM). ▫️O HBM tem margens operacionais muito melhores em comparação com o DRAM (50% vs. 35%) ▫️Os fabricantes de memória chineses estão a concentrar-se no HBM em vez do DRAM (enquanto isso, a Micron saiu do negócio de DRAM para consumidores). ▫️Até 2030, o HBM representará mais de 50% de toda a receita de DRAM (aumentando de apenas 8% em 2023). *** Estatísticas do The Economist: Vídeo da Bloomberg sobre o HBM da Micron: