Jag tycker HBF är för överskattad I vissa fall, om mjukvaran modifieras avsevärt, kommer den inte vara omöjlig att använda, men det vore en illusion att den kommer att ersätta HBM eller att marknadsstorleken är stor Som det står här, om den nästan är laddad här, kommer det att vara biasen och vikten för samma modell, inte KV, men det skulle vara extremt oanvändbart Enligt experter kan HBF introduceras i NVIDIA-GPU:er år 2027~28, och marknaden kan överträffa HBM år 2038 Med ökningen av AI-arbetsbelastningar accelererar användningen av högbandbreddsflash (HBF), och experter förutspår en kommersialisering tidigare än väntat. Enligt Sisa Journal föreslår KAIST-professorn Kim Jong-ho, allmänt känd som "HBM:s fader", att Samsung Electronics och SanDisk planerar att integrera HBF i NVIDIA, AMD och Googles produkter senast i slutet av 2027 eller början av 2028. Som nämnts i rapporten tillägger Kim att även om HBM tar mer än 10 år att utveckla, kan HBF kommersialiseras mycket tidigare eftersom företag redan utnyttjar den process och designexpertis som samlats på HBM för att utveckla HBF. Dessutom förutspår Kim att användningen av HBF kommer att öka runt tiden då HBM6 introduceras, och HBF-marknaden kan överträffa HBM runt 2038. Enligt Kim är HBM6 inte en enda minnestack, utan flera stackar är sammankopplade som i ett lägenhetshus. Eftersom DRAM-baserade HBM:er har kapacitetsbegränsningar tror Kim att HBF i form av NAND-stackar kommer att dyka upp för att fylla luckan. HBF:s roll inom AI-inferens och systemarkitektur När det gäller HBF:s roll i AI-arbetsbelastningar förklarade Kim att GPU:er först erhåller variabeldata från HBM under inferensen, bearbetar den och genererar utdata. Kim tror att HBF i framtiden kommer att ta på sig denna roll och tillhandahålla avsevärt större kapacitet för att stödja uppgiften. HBM är snabbare, medan HBF ger ungefär tio gånger mer kapacitet. Som nämnts i rapporten betonar Kim att även om HBF stödjer obegränsade läscykler, är det begränsat till cirka 100 000 skrivcykler, så programvaran från företag som OpenAI och Google måste optimeras för läsintensiva operationer. Kim tillade vidare att den nuvarande processen att mata data till GPU:er innebär en lång överföringsväg genom lagringsnätverket, dataprocessorer och GPU-pipelines. I framtiden ser företaget en mer strömlinjeformad arkitektur som kan bearbeta data direkt bakom HBM. Denna struktur, som förväntas implementeras i HBM7, kallas ibland för "minnesfabriken". Samsung och SK hynix främjar utvecklingen av HBF Som framhållits i rapporten planerar SK hynix att släppa en testversion av HBF för demo senare denna månad. Rapporten påpekade också att Samsung Electronics och SK hynix har undertecknat ett samförståndsavtal (MOU) med SanDisk för att främja standardisering av HBF och arbetar för närvarande med detta initiativ genom ett gemensamt konsortium. Båda företagen utvecklar aktivt HBF-produkter och siktar på att lansera dem 2027. Enligt branschkällor som citeras i rapporten uppskattas HBF kunna leverera bandbredder över 1 638 GB/s, vilket är ett betydande steg jämfört med standard-SSD:er som vanligtvis erbjuder omkring 7 000 MB/s via NVMe PCIe 4.0. När det gäller kapacitet förväntas HBF nå upp till 512GB, vilket är betydligt högre än HBM4:s 64GB.