Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Oui, je m'intéresse à l'architecture basée à la fois sur ICMS et Enfabrica. C'est une sorte d'accord Mellanox. Mais NVLink serait tellement congestionné autour du GPU, CPU et DPU. Nvidia doit simplifier le passage des données pour kv et poids.

Zephyril y a 16 heures
L'introduction de HBF n'aura pas lieu
Regardez le ICMS de Nvidia et l'accord avec Enfabrica pour comprendre pourquoi
56
Je pense que HBF est beaucoup trop surestimé.
Dans une certaine mesure, même si des modifications logicielles considérables sont apportées, cela pourrait ne pas être inutilisable, mais dire qu'il pourrait remplacer HBM ou que le marché est vaste, c'est de la pure imagination.
Comme il est écrit ici, si cela ne sert qu'à lire presque, cela deviendra des biais ou des poids du même modèle au lieu de kv, mais dans ce cas, ce serait vraiment peu pratique.
[Actualités] Selon des experts, HBF pourrait être intégré aux GPU NVIDIA d'ici 2027-2028, et le marché pourrait dépasser HBM d'ici 2038.
Avec l'augmentation des charges de travail en IA, l'adoption de la mémoire flash à large bande passante (HBF) s'accélère, et les experts prévoient une commercialisation plus rapide que prévu. Selon le Sisa Journal, le professeur Kim Jong-ho de KAIST, largement connu comme le "père de HBM", a suggéré que Samsung Electronics et SanDisk prévoient d'intégrer HBF dans les produits de NVIDIA, AMD et Google d'ici la fin 2027 ou le début 2028. Comme le souligne le rapport, le professeur Kim ajoute que le développement de HBM prend plus de 10 ans, tandis que les entreprises commencent déjà à utiliser l'expertise accumulée en matière de processus et de conception de HBM pour développer HBF, ce qui pourrait permettre une commercialisation beaucoup plus rapide.
De plus, M. Kim prévoit qu'avec l'introduction de HBM6, l'adoption de HBF s'élargira, et que d'ici 2038, le marché de HBF pourrait dépasser celui de HBM. Selon M. Kim, HBM6 ne sera pas un seul empilement de mémoire, mais plusieurs empilements interconnectés comme un immeuble résidentiel. Alors que HBM basé sur DRAM fait face à des limites de capacité, M. Kim pense que HBF de type empilement NAND émergera pour combler cette lacune.
Le rôle de HBF dans l'inférence IA et l'architecture système
Concernant le rôle de HBF dans les charges de travail IA, M. Kim explique que le GPU obtient d'abord les données variables à partir de HBM pendant l'inférence, les traite et génère des sorties. Il pense que HBF assumera ce rôle à l'avenir et fournira une capacité beaucoup plus grande pour soutenir les tâches. HBM est rapide, mais HBF offre environ 10 fois plus de capacité. Comme le souligne le rapport, M. Kim insiste sur le fait que HBF prend en charge un nombre illimité de cycles de lecture, tandis que les cycles d'écriture sont limités à environ 100 000, ce qui signifie que les logiciels des entreprises comme OpenAI et Google doivent être optimisés pour des opérations à forte intensité de lecture.
M. Kim ajoute également que le processus d'approvisionnement en données pour les GPU actuels implique un long chemin de transmission à travers un réseau de stockage, un processeur de données et le pipeline GPU. À l'avenir, il envisage une architecture plus rationalisée qui pourrait traiter directement les données derrière HBM. Cette structure, qui devrait être réalisée avec HBM7, est parfois appelée "usine de mémoire".
Samsung et SK Hynix poussent le développement de HBF
Comme le souligne le rapport, SK Hynix prévoit de dévoiler une version d'essai de HBF à des fins de démonstration plus tard ce mois-ci. De plus, Samsung Electronics et SK Hynix ont signé un protocole d'accord (MOU) pour promouvoir la normalisation de HBF avec SanDisk, et il est également noté dans le rapport qu'ils avancent actuellement leurs efforts par le biais d'un consortium commun. Les deux entreprises développent activement des produits HBF et visent un lancement sur le marché en 2027.
Selon des sources de l'industrie citées dans le rapport, HBF est estimé capable d'atteindre une bande passante de plus de 1 638 Go/s, ce qui représente un bond significatif par rapport aux SSD standard qui offrent généralement environ 7 000 Mo/s via NVMe PCIe 4.0. En termes de capacité, HBF devrait atteindre jusqu'à 512 Go, dépassant largement les 64 Go de HBM4.
54
Cuivre, trou de forage
Mise à niveau avec Google TPU
M9 gris Panasonic c'est trop fort
Le TPU de Google est à la pointe de la technologie CCL (Chip Cl), et les fabricants de forets accueillent cette mise à niveau.
Alors que la plateforme ASIC continue d'évoluer vers des exigences de densité de calcul et de bande passante plus élevées, le TPU développé en interne par Google entre dans une nouvelle phase de mise à niveau des spécifications. Selon des sources de la chaîne d'approvisionnement, Google prévoit d'augmenter le nombre de couches de PCB et la qualité des matériaux CCL de la prochaine génération de plateformes TPU à partir de 2026, offrant ainsi des opportunités de mise à niveau des spécifications aux fabricants de CCL au Japon et à Taïwan. Avec l'augmentation du nombre de couches de circuits imprimés et la complexité des matériaux, la structure de la demande pour les forets dans le processus de fabrication évoluera également.
L'approvisionnement en CCL pour le projet TPU de Google est actuellement principalement soutenu par Panasonic au Japon et Taikoo Technology à Taïwan. En regardant la génération TPU V6e (série Ghost), Panasonic a été confronté à une pénurie de fibres de verre à faible permittivité, ce qui a permis à Taikoo Technology d'entrer dans la chaîne d'approvisionnement et de gagner une part de marché. Selon les estimations de la chaîne d'approvisionnement, le nouveau projet TPU de génération devrait voir Panasonic fournir environ 70 % et Taikoo Technology environ 30 %, suggérant un retour vers une structure d'approvisionnement plus stable.
Selon la conception actuelle, les GhostLite et GhostFish de la série Ghost maintiennent une configuration conservatrice d'environ 22 à 24 couches de PCB et de CCL de grade M7. Cependant, après 2026, la plateforme TPU passera à ZebraFish et SunFish, avec une amélioration significative des spécifications globales. Selon des sources de la chaîne d'approvisionnement, la nouvelle plateforme adoptera des CCL de grade M8/M9, avec un nombre de couches de PCB augmentant respectivement à 36 et 44, et en intégrant des fibres optiques Low Dk de plus haut grade et du cuivre HVLP4, afin de répondre à des exigences de bande passante et de consommation d'énergie plus élevées.
Avec l'augmentation du nombre de couches de PCB et de la qualité des matériaux, la pression sur le processus de fabrication augmente rapidement. Selon des acteurs de l'industrie, la demande de forets pour les cartes AI haut de gamme augmente à un rythme qui dépasse largement le taux de croissance de la production de PCB. Traditionnellement, un foret était utilisé environ 3 000 fois, mais avec l'adoption de cartes AI haut de gamme, sa durée de vie a chuté à moins de 800 utilisations. À l'avenir, avec l'introduction de cartes interposeurs de niveau M9 et de cartes mères ASIC, le nombre d'utilisations d'un seul foret pourrait encore diminuer.
Les analystes de l'industrie estiment que le changement de conception du TPU de Google après 2026 signifie que les ASIC entrent dans une nouvelle phase de "nombre de couches élevé, spécifications de matériaux élevées, valeur ajoutée élevée". Cela se reflétera non seulement dans le prix de vente moyen (ASP) des produits CCL et PCB haut de gamme, mais aura également des répercussions sur les principales chaînes d'approvisionnement en amont telles que les fibres de verre à faible permittivité, le cuivre HVLP haut de gamme et les forets. La chaîne d'approvisionnement ajuste déjà ses configurations pour s'adapter à l'adoption de la nouvelle plateforme.
58
Meilleurs
Classement
Favoris
