Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Sí, estoy profundizando en la arquitectura basada tanto en ICMS como en Enfabrica. Es una especie de acuerdo de Mellanox. Pero NVLink estaría tan congestionado alrededor de GPU, CPU y DPU. Nvidia necesita simplificar el paso de datos para kv y peso.

ZephyrHace 13 horas
La introducción de HBF no ocurrirá
Investiga el ICMS de Nvidia y el acuerdo con Enfabrica para descubrir por qué
48
Creo que HBF está sobrevalorado. En algunas partes, aunque no es imposible usarlo con una considerable modificación de software, la idea de que puede reemplazar a HBM o que el tamaño del mercado es grande es una fantasía. Si solo se va a cargar casi lo que se menciona aquí, no será un kv, sino que se convertirá en sesgos y pesos del mismo modelo, pero eso haría que la usabilidad sea muy mala.
[Noticias] Según expertos, HBF podría ser implementado en GPUs de NVIDIA entre 2027 y 2028, y el mercado podría superar a HBM para 2038.
Con el aumento de las cargas de trabajo de IA, la adopción de Flash de alta ancho de banda (HBF) se está acelerando, y los expertos predicen una comercialización más rápida de lo esperado. Según Sisa Journal, el profesor Kim Jong-ho de KAIST, conocido como el "padre de HBM", sugiere que Samsung Electronics y SanDisk planean integrar HBF en productos de NVIDIA, AMD y Google para finales de 2027 o principios de 2028. Como se señala en el informe, el profesor Kim añade que, aunque el desarrollo de HBM lleva más de 10 años, las empresas ya están utilizando la experiencia acumulada en procesos y diseños de HBM para comenzar el desarrollo de HBF, lo que significa que HBF podría comercializarse mucho más rápido.
Además, el Sr. Kim predice que la adopción de HBF se expandirá alrededor de la introducción de HBM6, y que para 2038, el mercado de HBF podría superar a HBM. Según el Sr. Kim, HBM6 no será una sola pila de memoria, sino que múltiples pilas estarán interconectadas como un edificio de apartamentos. A medida que HBM basado en DRAM enfrenta límites de capacidad, el Sr. Kim cree que aparecerá HBF en forma de pilas NAND para llenar esa brecha.
El papel de HBF en la inferencia de IA y la arquitectura del sistema
Sobre el papel de HBF en las cargas de trabajo de IA, el Sr. Kim explica que la GPU primero obtiene datos de variables de HBM durante la inferencia, los procesa y genera la salida. El Sr. Kim cree que en el futuro HBF asumirá este papel y proporcionará una capacidad significativamente mayor para apoyar las tareas. HBM es rápido, pero HBF ofrece aproximadamente 10 veces más capacidad. Como se señala en el informe, el Sr. Kim enfatiza que HBF admite ciclos de lectura ilimitados, mientras que los ciclos de escritura están limitados a aproximadamente 100,000, por lo que el software de empresas como OpenAI y Google necesita optimizarse para operaciones centradas en la lectura.
El Sr. Kim también añadió que el proceso actual de suministro de datos a las GPU incluye una larga ruta de transmisión a través de redes de almacenamiento, procesadores de datos y la tubería de la GPU. En el futuro, imagina una arquitectura más simplificada que pueda procesar datos directamente detrás de HBM. Esta estructura, que se espera que se realice con HBM7, también se conoce como "fábrica de memoria".
Samsung y SK Hynix impulsan el desarrollo de HBF
Como se destaca en el informe, SK Hynix planea mostrar una versión de prueba de HBF a finales de este mes. Además, Samsung Electronics y SK Hynix han firmado un memorando de entendimiento (MOU) para promover la estandarización de HBF con SanDisk, y actualmente están avanzando en sus esfuerzos a través de un consorcio conjunto. Ambas empresas están desarrollando activamente productos HBF, con el objetivo de lanzarlos al mercado en 2027.
Según fuentes de la industria citadas en el informe, se estima que HBF puede lograr un ancho de banda superior a 1,638 GB/s, lo que representa un gran salto en comparación con los SSD estándar que normalmente ofrecen alrededor de 7,000 MB/s a través de NVMe PCIe 4.0. En términos de capacidad, se espera que HBF alcance hasta 512 GB, superando con creces los 64 GB de HBM4.
46
Cobre, broca de perforación
Actualización con Google TPU
M9 gris Panasonic es increíble
El TPU de Google lidera la tecnología CCL (Chip Cl) y los fabricantes de brocas de perforación están dando la bienvenida a la actualización.
A medida que la plataforma ASIC continúa evolucionando hacia requisitos más altos de densidad de computación y ancho de banda, el TPU desarrollado internamente por Google está entrando en una nueva fase de actualización de especificaciones. Según fuentes de la cadena de suministro, Google planea elevar completamente el número de capas de PCB y la calidad de los materiales CCL de la próxima generación de la plataforma TPU a partir de 2026, lo que brindará oportunidades de actualización de especificaciones a los fabricantes de CCL en Japón y Taiwán. Con el aumento en el número de capas de la placa y la dificultad de los materiales, la estructura de demanda de las brocas de perforación en el proceso de fabricación también cambiará.
El suministro de CCL para el proyecto TPU de Google está actualmente respaldado principalmente por Panasonic de Japón y Taikoo Technology de Taiwán. Mirando hacia atrás a la generación TPU V6e (serie Ghost), Panasonic enfrentó una escasez de suministro de fibra de vidrio de baja constante dieléctrica, lo que permitió a Taikoo Technology ingresar a la cadena de suministro y obtener una participación significativa. Según estimaciones de la cadena de suministro, en el nuevo proyecto de TPU de próxima generación, Panasonic representará aproximadamente el 70% del suministro, mientras que Taikoo Technology representará alrededor del 30%, lo que sugiere un regreso a una estructura de suministro más estable.
Según el diseño actual, las series GhostLite y GhostFish mantienen una configuración conservadora de aproximadamente 22 a 24 capas de PCB y CCL de grado M7. Sin embargo, después de 2026, la plataforma TPU se trasladará a ZebraFish y SunFish, mejorando significativamente las especificaciones generales. Según fuentes de la cadena de suministro, la nueva plataforma adoptará CCL de grado M8/M9, aumentando el número de capas de PCB a 36 y 44 capas respectivamente, y adoptará fibra óptica de baja Dk de mayor grado y cobre HVLP4 para cumplir con los requisitos de mayor ancho de banda y consumo de energía.
Con el aumento en el número de capas de PCB y la calidad de los materiales, la presión sobre el proceso de fabricación también está aumentando rápidamente. Según los actores de la industria, la demanda de brocas de perforación para placas de AI de alta gama está creciendo a un ritmo que supera significativamente la tasa de crecimiento del valor de producción de PCB. Tradicionalmente, la vida útil de una broca de perforación era de aproximadamente 3,000 usos, pero con la adopción de placas de AI de alta gama, su vida útil ha disminuido drásticamente a menos de 800 usos. En el futuro, con la introducción de placas interposadoras de nivel M9 y placas madre ASIC, es posible que el número de usos de una broca de perforación disminuya aún más.
Los analistas de la industria creen que la transformación del diseño TPU de Google después de 2026 significa que los ASIC han entrado en una nueva etapa de "alto número de capas, altas especificaciones de materiales y alto valor agregado". Esto no solo se reflejará en el precio de venta promedio (ASP) de los productos CCL y PCB de alta gama, sino que también tendrá un impacto en la cadena de suministro upstream clave, como la fibra de vidrio de baja constante dieléctrica, el cobre HVLP de alta gama y las brocas de perforación. La cadena de suministro está ajustando sus configuraciones con anticipación para adaptarse a la adopción de la nueva plataforma.
46
Parte superior
Clasificación
Favoritos
