Creo que HBF está demasiado sobrevalorado En algunos casos, si el software se modifica considerablemente, no será imposible de usar, pero sería una ilusión pensar que sustituirá a HBM o que el tamaño del mercado será grande Como se dice aquí, si está casi cargado aquí, será el sesgo y peso del mismo modelo, no KV, pero eso sería increíblemente inutilizable Según los expertos, el HBF podría introducirse en las GPUs NVIDIA para 2027~28, y el mercado podría superar al HBM para 2038 Con el auge de las cargas de trabajo de IA, la adopción de la memoria flash de alto ancho de banda (HBF) se está acelerando, y los expertos predicen una comercialización antes de lo esperado. Según Sisa Journal, el profesor de KAIST Kim Jong-ho, conocido popularmente como el "padre de HBM", sugiere que Samsung Electronics y SanDisk planean integrar HBF en los productos NVIDIA, AMD y Google para finales de 2027 o principios de 2028. Como se señala en el informe, Kim añade que, aunque HBM tarda más de 10 años en desarrollarse, HBF podría comercializarse mucho antes, ya que las empresas ya están aprovechando la experiencia en proceso y diseño acumulada en HBM para desarrollar HBF. Además, Kim predice que la adopción de HBF se expandirá alrededor del momento en que se introduzca HBM6, y que el mercado HBF podría superar a HBM alrededor de 2038. Según Kim, HBM6 no es una sola pila de memoria, sino que varias pilas están interconectadas como en un edificio de apartamentos. A medida que los HBM basados en DRAM enfrentan limitaciones de capacidad, Kim cree que el HBF en forma de pilas NAND surgirá para cubrir esa carencia. El papel de la HBF en la inferencia de IA y la arquitectura de sistemas En cuanto al papel de HBF en las cargas de trabajo de IA, Kim explicó que las GPUs primero obtienen datos variables de HBM durante la inferencia, los procesan y generan salida. Kim cree que en el futuro HBF asumirá este papel y proporcionará una capacidad significativamente mayor para apoyar la tarea. HBM es más rápido, mientras que HBF ofrece aproximadamente 10 veces más capacidad. Como se señala en el informe, Kim enfatiza que, aunque HBF soporta ciclos de lectura ilimitados, está limitado a unos 100.000 ciclos de escritura, por lo que el software de empresas como OpenAI y Google debe estar optimizado para operaciones intensivas en lectura. Kim añadió además que el proceso actual de alimentación de datos a las GPUs implica un largo camino de transmisión a través de la red de almacenamiento, los procesadores de datos y las tuberías de GPU. En el futuro, la empresa imagina una arquitectura más ágil que pueda procesar datos directamente detrás de HBM. Esta estructura, que se espera que se implemente en HBM7, a veces se denomina la "fábrica de memoria". Samsung y SK hynix están promoviendo el desarrollo de HBF Como se destaca en el informe, SK hynix planea lanzar una versión de prueba de HBF para demostración a finales de este mes. El informe también señaló que Samsung Electronics y SK Hynix han firmado un memorando de entendimiento (MOU) con SanDisk para promover la estandarización HBF y actualmente están trabajando en esta iniciativa a través de un consorcio conjunto. Ambas empresas están desarrollando activamente productos HBF y tienen como objetivo lanzarlos en 2027. Según fuentes del sector citadas en el informe, se estima que HBF puede ofrecer anchos de banda superiores a 1.638GB/s, lo que supone un salto significativo en comparación con los SSD estándar que suelen ofrecer alrededor de 7.000MB/s mediante NVMe PCIe 4.0. En cuanto a capacidad, se espera que HBF alcance hasta 512GB, significativamente más que los 64GB de HBM4.