Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Creo que HBF está sobrevalorado. En algunas partes, aunque no es imposible usarlo con una considerable modificación de software, la idea de que puede reemplazar a HBM o que el tamaño del mercado es grande es una fantasía. Si solo se va a cargar casi lo que se menciona aquí, no será un kv, sino que se convertirá en sesgos y pesos del mismo modelo, pero eso haría que la usabilidad sea muy mala.
[Noticias] Según expertos, HBF podría ser implementado en GPUs de NVIDIA entre 2027 y 2028, y el mercado podría superar a HBM para 2038.
Con el aumento de las cargas de trabajo de IA, la adopción de Flash de alta ancho de banda (HBF) se está acelerando, y los expertos predicen una comercialización más rápida de lo esperado. Según Sisa Journal, el profesor Kim Jong-ho de KAIST, conocido como el "padre de HBM", sugiere que Samsung Electronics y SanDisk planean integrar HBF en productos de NVIDIA, AMD y Google para finales de 2027 o principios de 2028. Como se señala en el informe, el profesor Kim añade que, aunque el desarrollo de HBM lleva más de 10 años, las empresas ya están utilizando la experiencia acumulada en procesos y diseños de HBM para comenzar el desarrollo de HBF, lo que significa que HBF podría comercializarse mucho más rápido.
Además, el Sr. Kim predice que la adopción de HBF se expandirá alrededor de la introducción de HBM6, y que para 2038, el mercado de HBF podría superar a HBM. Según el Sr. Kim, HBM6 no será una sola pila de memoria, sino que múltiples pilas estarán interconectadas como un edificio de apartamentos. A medida que HBM basado en DRAM enfrenta límites de capacidad, el Sr. Kim cree que aparecerá HBF en forma de pilas NAND para llenar esa brecha.
El papel de HBF en la inferencia de IA y la arquitectura del sistema
Sobre el papel de HBF en las cargas de trabajo de IA, el Sr. Kim explica que la GPU primero obtiene datos de variables de HBM durante la inferencia, los procesa y genera la salida. El Sr. Kim cree que en el futuro HBF asumirá este papel y proporcionará una capacidad significativamente mayor para apoyar las tareas. HBM es rápido, pero HBF ofrece aproximadamente 10 veces más capacidad. Como se señala en el informe, el Sr. Kim enfatiza que HBF admite ciclos de lectura ilimitados, mientras que los ciclos de escritura están limitados a aproximadamente 100,000, por lo que el software de empresas como OpenAI y Google necesita optimizarse para operaciones centradas en la lectura.
El Sr. Kim también añadió que el proceso actual de suministro de datos a las GPU incluye una larga ruta de transmisión a través de redes de almacenamiento, procesadores de datos y la tubería de la GPU. En el futuro, imagina una arquitectura más simplificada que pueda procesar datos directamente detrás de HBM. Esta estructura, que se espera que se realice con HBM7, también se conoce como "fábrica de memoria".
Samsung y SK Hynix impulsan el desarrollo de HBF
Como se destaca en el informe, SK Hynix planea mostrar una versión de prueba de HBF a finales de este mes. Además, Samsung Electronics y SK Hynix han firmado un memorando de entendimiento (MOU) para promover la estandarización de HBF con SanDisk, y actualmente están avanzando en sus esfuerzos a través de un consorcio conjunto. Ambas empresas están desarrollando activamente productos HBF, con el objetivo de lanzarlos al mercado en 2027.
Según fuentes de la industria citadas en el informe, se estima que HBF puede lograr un ancho de banda superior a 1,638 GB/s, lo que representa un gran salto en comparación con los SSD estándar que normalmente ofrecen alrededor de 7,000 MB/s a través de NVMe PCIe 4.0. En términos de capacidad, se espera que HBF alcance hasta 512 GB, superando con creces los 64 GB de HBM4.
Parte superior
Clasificación
Favoritos
