HBFは過大評価すぎると思うなぁ 一部で、さらにかなりのソフトウェアの改修をすれば、使えなくはないけど、HBMの代わりになるとか、市場規模が大きいとかは、妄想でしょう ここに書いてあるように、ほぼ読み込むこことしかしないならば、kvじゃなく、同じモデルのバイアスやウェイトになるけど、それだとめちゃくちゃ使い勝手悪いよね [ニュース] 専門家によると、HBFは2027~28年までにNVIDIA GPUに導入される可能性があり、市場は2038年までにHBMを上回る可能性があるとのこと AIワークロードの増加に伴い、高帯域幅フラッシュ(HBF)の普及が加速しており、専門家は予想よりも早い商用化を予測しています。Sisa Journalによると、「HBMの父」として広く知られるKAISTのキム・ジョンホ教授は、サムスン電子とサンディスクが2027年末または2028年初頭までにNVIDIA、AMD、Googleの製品にHBFを統合する計画を示唆しています。同レポートで指摘されているように、キム教授は、HBMの開発には10年以上かかる一方、企業が既にHBMで蓄積されたプロセスと設計の専門知識を活用してHBFの開発に着手しているため、HBFははるかに早く商用化される可能性があると付け加えています。 さらにキム氏は、HBM6の導入頃にはHBFの採用が拡大し、2038年頃にはHBF市場がHBMを上回る可能性もあると予測しています。キム氏によると、HBM6は単一のメモリスタックではなく、複数のスタックが集合住宅のように相互接続されるとのこと。DRAMベースのHBMが容量限界に直面する中、そのギャップを埋めるためにNANDスタック型のHBFが登場するとキム氏は考えています。 AI推論とシステムアーキテクチャにおけるHBFの役割 AIワークロードにおけるHBFの役割について、キム氏は、GPUは推論中にまずHBMから変数データを取得し、処理して出力を生成すると説明しています。キム氏は、将来HBFがこの役割を担い、タスクをサポートするために大幅に大きな容量を提供すると考えています。HBMは高速ですが、HBFは約10倍の容量を提供します。レポートで指摘されているように、キム氏はHBFは無制限の読み取りサイクルをサポートする一方で、書き込みサイクルは約10万回に制限されているため、OpenAIやGoogleなどの企業のソフトウェアは読み取り集中型の操作向けに最適化する必要があることを強調しています。 キム氏はさらに、現在のGPUへのデータ供給プロセスには、ストレージネットワーク、データプロセッサ、そしてGPUパイプラインを経由する長い伝送経路が含まれていると付け加えた。将来的には、HBMの背後で直接データを処理できる、より合理化されたアーキテクチャを構想している。HBM7で実現すると予想されるこの構造は、「メモリファクトリー」と呼ばれることもある。 サムスンとSKハイニックスがHBF開発を推進 レポートで強調されているように、SKハイニックスは今月下旬にHBFの試用版をデモ用に公開する予定です。また、サムスン電子とSKハイニックスはサンディスクとHBFの標準化を推進するための覚書(MOU)を締結し、現在、共同コンソーシアムを通じてその取り組みを進めていることもレポートで指摘されています。両社はHBF製品を積極的に開発しており、2027年の市場投入を目指しています。 レポートで引用されている業界筋によると、HBFは1,638GB/秒を超える帯域幅を実現できると推定されており、これはNVMe PCIe 4.0経由で通常約7,000MB/秒を提供する標準的なSSDと比較して大幅な飛躍です。容量に関しては、HBFは最大512GBに達すると予想されており、HBM4の64GBを大幅に上回ります。