Comment le HBM fait grimper les prix de la DRAM : ▫️Les centres de données AI ont besoin de mémoire à large bande passante (HBM) pour les charges de travail AI (vitesse, capacité). ▫️Le HBM est fabriqué en empilant verticalement 3 à 4 puces DRAM. ▫️Les fabricants de mémoire (Micron, Samsung SK Hynix) utilisent la DRAM pour le HBM au lieu des PC et des smartphones. ▫️La DRAM représente 15 à 40 % des coûts des PC et des smartphones (l'offre s'épuise et la nouvelle capacité va au HBM). ▫️Le HBM offre des marges opérationnelles beaucoup meilleures par rapport à la DRAM (50 % contre 35 %). ▫️Les fabricants de mémoire chinois se concentrent sur le HBM plutôt que sur la DRAM (pendant ce temps, Micron a quitté le secteur de la DRAM grand public). ▫️D'ici 2030, le HBM représentera plus de 50 % de tous les revenus de la DRAM (contre seulement 8 % en 2023). *** Statistiques de The Economist : Vidéo Bloomberg de Micron HBM :