Saya pikir HBF terlalu dilebih-lebihkan Dalam beberapa kasus, jika perangkat lunak dimodifikasi secara signifikan, bukan tidak mungkin untuk digunakan, tetapi itu akan menjadi khayalan bahwa itu akan menggantikan HBM atau ukuran pasar akan besar Seperti yang tertulis di sini, jika hampir dimuat di sini, itu akan menjadi bias dan bobot model yang sama, bukan KV, tetapi itu akan sangat tidak dapat digunakan Menurut para ahli, HBF dapat diperkenalkan di GPU NVIDIA pada tahun 2027~28, dan pasar dapat melampaui HBM pada tahun 2038 Dengan meningkatnya beban kerja AI, adopsi high-bandwidth flash (HBF) semakin cepat, dan para ahli memprediksi komersialisasi lebih cepat dari perkiraan. Menurut Sisa Journal, profesor KAIST Kim Jong-ho, yang dikenal sebagai "bapak HBM", menyarankan bahwa Samsung Electronics dan SanDisk berencana untuk mengintegrasikan HBF ke dalam produk NVIDIA, AMD, dan Google pada akhir 2027 atau awal 2028. Seperti dicatat dalam laporan tersebut, Kim menambahkan bahwa sementara HBM membutuhkan waktu lebih dari 10 tahun untuk dikembangkan, HBF dapat dikomersialkan lebih cepat karena perusahaan sudah memanfaatkan proses dan keahlian desain yang terakumulasi di HBM untuk mengembangkan HBF. Selain itu, Kim memprediksi bahwa adopsi HBF akan berkembang sekitar waktu HBM6 diperkenalkan, dan pasar HBF dapat melampaui HBM sekitar tahun 2038. Menurut Kim, HBM6 bukanlah tumpukan memori tunggal, tetapi beberapa tumpukan saling berhubungan seperti gedung apartemen. Karena HBM berbasis DRAM menghadapi keterbatasan kapasitas, Kim percaya bahwa HBF dalam bentuk tumpukan NAND akan muncul untuk mengisi kekosongan tersebut. Peran HBF dalam inferensi AI dan arsitektur sistem Terkait peran HBF dalam beban kerja AI, Kim menjelaskan bahwa GPU terlebih dahulu memperoleh data variabel dari HBM selama inferensi, memprosesnya, dan menghasilkan output. Kim percaya bahwa di masa depan HBF akan mengambil peran ini dan memberikan kapasitas yang jauh lebih besar untuk mendukung tugas tersebut. HBM lebih cepat, sedangkan HBF menyediakan kapasitas sekitar 10 kali lebih banyak. Seperti yang dicatat dalam laporan tersebut, Kim menekankan bahwa sementara HBF mendukung siklus baca tanpa batas, itu terbatas pada sekitar 100.000 siklus tulis, sehingga perangkat lunak perusahaan seperti OpenAI dan Google harus dioptimalkan untuk operasi intensif baca. Kim lebih lanjut menambahkan bahwa proses penyampaian data ke GPU saat ini melibatkan jalur transmisi yang panjang melalui jaringan penyimpanan, prosesor data, dan pipeline GPU. Di masa depan, perusahaan membayangkan arsitektur yang lebih efisien yang dapat memproses data langsung di belakang HBM. Struktur ini, yang diharapkan dapat diimplementasikan di HBM7, kadang-kadang disebut sebagai "pabrik memori". Samsung dan SK hynix mempromosikan pengembangan HBF Seperti yang disorot dalam laporan tersebut, SK hynix berencana untuk merilis versi uji coba HBF untuk demo akhir bulan ini. Laporan tersebut juga menunjukkan bahwa Samsung Electronics dan SK hynix telah menandatangani nota kesepahaman (MOU) dengan SanDisk untuk mempromosikan standardisasi HBF dan saat ini sedang mengerjakan inisiatif ini melalui konsorsium bersama. Kedua perusahaan secara aktif mengembangkan produk HBF dan bertujuan untuk meluncurkannya pada tahun 2027. Menurut sumber industri yang dikutip dalam laporan tersebut, HBF diperkirakan mampu memberikan bandwidth melebihi 1.638GB/s, yang merupakan lompatan signifikan dibandingkan dengan SSD standar yang biasanya menawarkan sekitar 7.000MB/s melalui NVMe PCIe 4.0. Dari segi kapasitas, HBF diperkirakan akan mencapai hingga 512GB, jauh lebih tinggi dari 64GB HBM4.