Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Sí, estoy profundizando en la arquitectura basada tanto en ICMS como en Enfabrica. Es una especie de acuerdo Mellanox. Pero NVLink estaría tan saturado en torno a GPU, CPU y DPU. Nvidia necesita simplificar el paso de datos para kv y peso.

Zephyrhace 7 horas
La introducción de HBF no ocurrirá
Investiga el acuerdo entre ICMS y Enfabrica de Nvidia para saber por qué
8
Creo que HBF está demasiado sobrevalorado
En algunos casos, si el software se modifica considerablemente, no será imposible de usar, pero sería una ilusión pensar que sustituirá a HBM o que el tamaño del mercado será grande
Como se dice aquí, si está casi cargado aquí, será el sesgo y peso del mismo modelo, no KV, pero eso sería increíblemente inutilizable
Según los expertos, el HBF podría introducirse en las GPUs NVIDIA para 2027~28, y el mercado podría superar al HBM para 2038
Con el auge de las cargas de trabajo de IA, la adopción de la memoria flash de alto ancho de banda (HBF) se está acelerando, y los expertos predicen una comercialización antes de lo esperado. Según Sisa Journal, el profesor de KAIST Kim Jong-ho, conocido popularmente como el "padre de HBM", sugiere que Samsung Electronics y SanDisk planean integrar HBF en los productos NVIDIA, AMD y Google para finales de 2027 o principios de 2028. Como se señala en el informe, Kim añade que, aunque HBM tarda más de 10 años en desarrollarse, HBF podría comercializarse mucho antes, ya que las empresas ya están aprovechando la experiencia en proceso y diseño acumulada en HBM para desarrollar HBF.
Además, Kim predice que la adopción de HBF se expandirá alrededor del momento en que se introduzca HBM6, y que el mercado HBF podría superar a HBM alrededor de 2038. Según Kim, HBM6 no es una sola pila de memoria, sino que varias pilas están interconectadas como en un edificio de apartamentos. A medida que los HBM basados en DRAM enfrentan limitaciones de capacidad, Kim cree que el HBF en forma de pilas NAND surgirá para cubrir esa carencia.
El papel de la HBF en la inferencia de IA y la arquitectura de sistemas
En cuanto al papel de HBF en las cargas de trabajo de IA, Kim explicó que las GPUs primero obtienen datos variables de HBM durante la inferencia, los procesan y generan salida. Kim cree que en el futuro HBF asumirá este papel y proporcionará una capacidad significativamente mayor para apoyar la tarea. HBM es más rápido, mientras que HBF ofrece aproximadamente 10 veces más capacidad. Como se señala en el informe, Kim enfatiza que, aunque HBF soporta ciclos de lectura ilimitados, está limitado a unos 100.000 ciclos de escritura, por lo que el software de empresas como OpenAI y Google debe estar optimizado para operaciones intensivas en lectura.
Kim añadió además que el proceso actual de alimentación de datos a las GPUs implica un largo camino de transmisión a través de la red de almacenamiento, los procesadores de datos y las tuberías de GPU. En el futuro, la empresa imagina una arquitectura más ágil que pueda procesar datos directamente detrás de HBM. Esta estructura, que se espera que se implemente en HBM7, a veces se denomina la "fábrica de memoria".
Samsung y SK hynix están promoviendo el desarrollo de HBF
Como se destaca en el informe, SK hynix planea lanzar una versión de prueba de HBF para demostración a finales de este mes. El informe también señaló que Samsung Electronics y SK Hynix han firmado un memorando de entendimiento (MOU) con SanDisk para promover la estandarización HBF y actualmente están trabajando en esta iniciativa a través de un consorcio conjunto. Ambas empresas están desarrollando activamente productos HBF y tienen como objetivo lanzarlos en 2027.
Según fuentes del sector citadas en el informe, se estima que HBF puede ofrecer anchos de banda superiores a 1.638GB/s, lo que supone un salto significativo en comparación con los SSD estándar que suelen ofrecer alrededor de 7.000MB/s mediante NVMe PCIe 4.0. En cuanto a capacidad, se espera que HBF alcance hasta 512GB, significativamente más que los 64GB de HBM4.
7
Lámina de cobre, fosa de perforación
Google TPUでアップグレード
M9グレーパナソニックつえええ
Los TPUs de Google lideran el camino en tecnología CCL (Chip Cl), y los fabricantes de brocas acogen con satisfacción las mejoras.
A medida que las plataformas ASIC continúan evolucionando hacia mayores requisitos de densidad de cálculo y ancho de banda, los TPUs autodesarrollados de Google están entrando en una nueva fase de actualizaciones de especificaciones. Según fuentes de la cadena de suministro, Google planea aumentar de forma integral el número de capas de PCB y las categorías de materiales CCL para su plataforma TPU de próxima generación a partir de 2026, ofreciendo oportunidades de actualización de especificaciones a los fabricantes de CCL en Japón y Taiwán. A medida que aumenta el número de capas de sustrato y la dificultad de los materiales, también cambia la estructura de la demanda de brocas en el proceso de fabricación.
El suministro de CCL de Google para proyectos TPU está actualmente apoyado principalmente por Panasonic de Japón y Taikoo Technology de Taiwán. Mirando atrás a la generación TPU V6e (serie Ghost), Panasonic sufría una escasez de suministro de fibras de vidrio constantes de bajo dieléctrico, y Swire Technology entró en la cadena de suministro y ganó cierta cuota. Según estimaciones de la cadena de suministro, el proyecto de TPU de nueva generación será suministrado por Panasonic en torno al 70% y Swire alrededor del 30%, lo que sugiere un retorno a una estructura de suministro más estable.
Basándose en el diseño actual, el GhostLite y el GhostFish de la serie Ghost mantienen una configuración conservadora de aproximadamente 22~24 capas de PCB y CCL de grado M7. Sin embargo, después de 2026, la plataforma TPU pasará a ZebraFish y SunFish, lo que mejorará significativamente las especificaciones generales. Según fuentes de la cadena de suministro, la nueva plataforma adopta CCL de grado M8/M9, y el número de capas de PCB aumenta a 36 y 44 capas respectivamente, y se espera que cumpla con mayores requisitos de ancho de banda y consumo energético adoptando fibra óptica Low Dk de mayor calidad y lámina de cobre HVLP4.
A medida que aumenta el número de capas de PCB y grados de material, también lo hace la presión sobre el proceso de fabricación. Según fuentes del sector, la demanda de brocas para placas de IA de alta gama está creciendo a un ritmo que supera significativamente la tasa de crecimiento del valor de producción de PCB. Anteriormente, una sola broca se utilizaba unas 3.000 veces, pero con la adopción de placas de IA de alta gama, su vida útil ha caído drásticamente a menos de 800 veces. En el futuro, si se introducen placas interposer de nivel M9 y placas base ASIC, el número de veces que se usa una sola broca podría reducirse aún más.
Los analistas del sector creen que la transformación del diseño TPU de Google tras 2026 significa que los ASIC han entrado en una nueva etapa de "alto número de suelo, altas especificaciones de materiales y alto valor añadido". Esto no solo se reflejará en el precio medio de venta (ASP) de los productos CCL y PCB de alta gama, sino que también se extenderá a cadenas de suministro clave aguas arriba como la fibra de vidrio de bajo dieléctrico, la lámina de cobre HVLP de alta gama y las brocas de perforación. Las cadenas de suministro están ajustando sus configuraciones con antelación para adaptarse a la adopción de nuevas plataformas.
10
Populares
Ranking
Favoritas
