Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Ja, jag gräver i arkitekturen baserad på både ICMS och Enfabrica. Det är en slags Mellanox-grej. Men NVLink skulle vara så överbelastat kring GPU, CPU och DPU. Nvidia behöver förenkla datapassningen för kv och vikt.

Zephyr18 timmar sedan
HBF-introduktionen kommer inte att ske
Kolla in Nvidias ICMS och Enfabrica-avtal för att ta reda på varför
61
Jag tycker HBF är för överskattad
I vissa fall, om mjukvaran modifieras avsevärt, kommer den inte vara omöjlig att använda, men det vore en illusion att den kommer att ersätta HBM eller att marknadsstorleken är stor
Som det står här, om den nästan är laddad här, kommer det att vara biasen och vikten för samma modell, inte KV, men det skulle vara extremt oanvändbart
Enligt experter kan HBF introduceras i NVIDIA-GPU:er år 2027~28, och marknaden kan överträffa HBM år 2038
Med ökningen av AI-arbetsbelastningar accelererar användningen av högbandbreddsflash (HBF), och experter förutspår en kommersialisering tidigare än väntat. Enligt Sisa Journal föreslår KAIST-professorn Kim Jong-ho, allmänt känd som "HBM:s fader", att Samsung Electronics och SanDisk planerar att integrera HBF i NVIDIA, AMD och Googles produkter senast i slutet av 2027 eller början av 2028. Som nämnts i rapporten tillägger Kim att även om HBM tar mer än 10 år att utveckla, kan HBF kommersialiseras mycket tidigare eftersom företag redan utnyttjar den process och designexpertis som samlats på HBM för att utveckla HBF.
Dessutom förutspår Kim att användningen av HBF kommer att öka runt tiden då HBM6 introduceras, och HBF-marknaden kan överträffa HBM runt 2038. Enligt Kim är HBM6 inte en enda minnestack, utan flera stackar är sammankopplade som i ett lägenhetshus. Eftersom DRAM-baserade HBM:er har kapacitetsbegränsningar tror Kim att HBF i form av NAND-stackar kommer att dyka upp för att fylla luckan.
HBF:s roll inom AI-inferens och systemarkitektur
När det gäller HBF:s roll i AI-arbetsbelastningar förklarade Kim att GPU:er först erhåller variabeldata från HBM under inferensen, bearbetar den och genererar utdata. Kim tror att HBF i framtiden kommer att ta på sig denna roll och tillhandahålla avsevärt större kapacitet för att stödja uppgiften. HBM är snabbare, medan HBF ger ungefär tio gånger mer kapacitet. Som nämnts i rapporten betonar Kim att även om HBF stödjer obegränsade läscykler, är det begränsat till cirka 100 000 skrivcykler, så programvaran från företag som OpenAI och Google måste optimeras för läsintensiva operationer.
Kim tillade vidare att den nuvarande processen att mata data till GPU:er innebär en lång överföringsväg genom lagringsnätverket, dataprocessorer och GPU-pipelines. I framtiden ser företaget en mer strömlinjeformad arkitektur som kan bearbeta data direkt bakom HBM. Denna struktur, som förväntas implementeras i HBM7, kallas ibland för "minnesfabriken".
Samsung och SK hynix främjar utvecklingen av HBF
Som framhållits i rapporten planerar SK hynix att släppa en testversion av HBF för demo senare denna månad. Rapporten påpekade också att Samsung Electronics och SK hynix har undertecknat ett samförståndsavtal (MOU) med SanDisk för att främja standardisering av HBF och arbetar för närvarande med detta initiativ genom ett gemensamt konsortium. Båda företagen utvecklar aktivt HBF-produkter och siktar på att lansera dem 2027.
Enligt branschkällor som citeras i rapporten uppskattas HBF kunna leverera bandbredder över 1 638 GB/s, vilket är ett betydande steg jämfört med standard-SSD:er som vanligtvis erbjuder omkring 7 000 MB/s via NVMe PCIe 4.0. När det gäller kapacitet förväntas HBF nå upp till 512GB, vilket är betydligt högre än HBM4:s 64GB.
59
Kopparfolie, borrgrop
Google TPUでアップグレード
M9グレーパナソニックつえええ
Googles TPU:er leder vägen inom CCL (Chip Cl)-teknologi, och borrbitstillverkare välkomnar uppgraderingar.
I takt med att ASIC-plattformar fortsätter att utvecklas mot högre krav på beräkningstäthet och bandbredd, går Googles egenutvecklade TPU:er in i en ny fas av specifikationsuppgraderingar. Enligt källor i leveranskedjan planerar Google att omfattande öka antalet PCB-lager och CCL-materialkvaliteter för sin nästa generations TPU-plattform med start 2026, vilket ger specifikationsuppgraderingsmöjligheter till CCL-tillverkare i Japan och Taiwan. När antalet substratlager ökar och materialens svårighetsgrad ökar förändras efterfrågestrukturen på borrbitar i tillverkningsprocessen.
Googles CCL-leverans för TPU-projekt stöds för närvarande främst av Japans Panasonic och Taiwans Taikoo Technology. Om man ser tillbaka på TPU V6e-generationen (Ghost-serien) led Panasonic av brist på lågdielektriska konstanta glasfibrer, och Swire Technology gick in i leveranskedjan och tog en viss andel. Enligt leveranskedjans uppskattningar kommer den nya generationens TPU-projekt att levereras av Panasonic till cirka 70 % och Swire till cirka 30 %, vilket tyder på en återgång till en mer stabil leveransstruktur.
Baserat på den nuvarande designen behåller GhostLite och GhostFish i Ghost-serien en konservativ konfiguration med cirka 22~24 lager kretskort och M7-klassad CCL. Efter 2026 kommer dock TPU-plattformen att flytta till ZebraFish och SunFish, vilket avsevärt förbättrar de övergripande specifikationerna. Enligt källor i leveranskedjan använder den nya plattformen M8/M9-klassad CCL, och antalet PCB-lager ökas till 36 respektive 44 lager, och den förväntas möta högre bandbredds- och strömförbrukningskrav genom att använda högkvalitativ Low Dk optisk fiber och HVLP4 kopparfolie.
När antalet PCB-lager och materialkvaliteter ökar, ökar också trycket på tillverkningsprocessen. Enligt branschinsiders växer efterfrågan på borrbitar för avancerade AI-kort i en takt som betydligt överstiger tillväxttakten för PCB-produktionsvärde. Tidigare användes ett enda borr cirka 3 000 gånger, men med införandet av avancerade AI-kort har dess livslängd minskat kraftigt till mindre än 800 gånger. I framtiden, om M9-nivå interposerkort och ASIC-moderkort introduceras, kan antalet gånger en enda borr används minskas ytterligare.
Branschanalytiker anser att Googles TPU-designtransformation efter 2026 innebär att ASIC:er har gått in i en ny fas av "högt golvantal, höga materialspecifikationer och högt mervärde". Detta kommer inte bara att återspeglas i det genomsnittliga försäljningspriset (ASP) för högkvalitativa CCL- och PCB-produkter, utan kommer också att påverka viktiga uppströms leveranskedjor såsom lågdielektrisk glasfiber, högkvalitativ HVLP-kopparfolie och borrbits. Leveranskedjor justerar sina konfigurationer i förväg för att möjliggöra införandet av nya plattformar.
62
Topp
Rankning
Favoriter
