Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Zephyr
DM's open.
De introductie van HBF zal niet plaatsvinden
Bekijk de ICMS en Enfabrica deal van Nvidia om erachter te komen waarom

パウロ14 uur geleden
Ik denk dat HBF te veel wordt overschat.
In sommige kringen, als er aanzienlijke software-aanpassingen worden gedaan, is het misschien bruikbaar, maar het idee dat het HBM kan vervangen of dat de marktgrootte groot is, is waarschijnlijk fantasie.
Als het hier geschreven staat, en het bijna alleen maar lezen is, dan wordt het geen kv, maar de bias of gewichten van hetzelfde model, maar dat zou het gebruiksgemak enorm verminderen.
[Nieuws] Volgens experts bestaat de mogelijkheid dat HBF tussen 2027 en 2028 in NVIDIA GPU's wordt geïmplementeerd, en dat de markt HBM tegen 2038 zou kunnen overtreffen.
Met de toename van AI-werkbelasting versnelt de verspreiding van high-bandwidth flash (HBF), en experts voorspellen een snellere commercialisering dan verwacht. Volgens Sisa Journal suggereert professor Kim Jong-ho van KAIST, die algemeen bekend staat als de 'vader van HBM', dat Samsung Electronics en SanDisk van plan zijn HBF tegen het einde van 2027 of begin 2028 te integreren in producten van NVIDIA, AMD en Google. Zoals in het rapport wordt opgemerkt, voegt professor Kim eraan toe dat de ontwikkeling van HBM meer dan 10 jaar duurt, terwijl bedrijven al beginnen met de ontwikkeling van HBF door gebruik te maken van de expertise in processen en ontwerpen die al met HBM zijn opgebouwd, waardoor HBF veel sneller kan worden gecommercialiseerd.
Bovendien voorspelt Kim dat de adoptie van HBF zal toenemen rond de introductie van HBM6, en dat de HBF-markt rond 2038 HBM zou kunnen overtreffen. Volgens Kim is HBM6 geen enkele geheugenstack, maar worden meerdere stacks met elkaar verbonden als een appartementencomplex. Terwijl DRAM-gebaseerde HBM tegen capaciteitslimieten aanloopt, denkt Kim dat NAND-stack HBF zal opkomen om die kloof te overbruggen.
De rol van HBF in AI-inferentie en systeemarchitectuur
Wat betreft de rol van HBF in AI-werkbelasting legt Kim uit dat de GPU tijdens de inferentie eerst variabele gegevens uit HBM haalt, deze verwerkt en uitvoer genereert. Kim gelooft dat HBF in de toekomst deze rol zal vervullen en aanzienlijk grotere capaciteiten zal bieden om taken te ondersteunen. HBM is snel, maar HBF biedt ongeveer 10 keer de capaciteit. Zoals in het rapport wordt opgemerkt, benadrukt Kim dat HBF onbeperkte leescycli ondersteunt, terwijl schrijfcycli zijn beperkt tot ongeveer 100.000, waardoor software van bedrijven zoals OpenAI en Google geoptimaliseerd moet worden voor leesintensieve operaties.
Kim voegt verder toe dat het huidige proces voor het aanleveren van gegevens aan GPU's een lange transmissieroute omvat via opslagnetwerken, dataprocessoren en de GPU-pijplijn. In de toekomst stelt hij zich een meer gestroomlijnde architectuur voor die direct gegevens kan verwerken achter HBM. Deze structuur, die naar verwachting met HBM7 zal worden gerealiseerd, wordt soms ook wel een 'geheugenfabriek' genoemd.
Samsung en SK Hynix stimuleren de ontwikkeling van HBF
Zoals in het rapport wordt benadrukt, is SK Hynix van plan om later deze maand een proefversie van HBF te demonstreren. Bovendien hebben Samsung Electronics en SK Hynix een memorandum van overeenstemming (MOU) ondertekend om de standaardisatie van HBF met SanDisk te bevorderen, en het rapport wijst erop dat ze momenteel hun inspanningen via een gezamenlijke consortium voortzetten. Beide bedrijven zijn actief bezig met de ontwikkeling van HBF-producten en streven naar een marktintroductie in 2027.
Volgens bronnen uit de industrie die in het rapport worden geciteerd, wordt geschat dat HBF een bandbreedte van meer dan 1.638 GB/s kan bereiken, wat een aanzienlijke sprong is in vergelijking met de standaard SSD's die via NVMe PCIe 4.0 doorgaans ongeveer 7.000 MB/s bieden. Wat betreft de capaciteit wordt verwacht dat HBF tot 512 GB kan bereiken, wat aanzienlijk hoger is dan de 64 GB van HBM4.
Een andere grote Chinese licentieovereenkomst
AbbVie betaalde $650 miljoen vooraf, en RemeGen komt in aanmerking voor tot $4,95 miljard aan totale mijlpaalbetalingen

47239312 jan, 21:05
Nieuws: Onze nieuwste licentieovereenkomst verwelkomt RemeGen's nieuwe bispecifieke antilichaam in onze oncologiepijplijn. Dit helpt onze portefeuille te versterken en kan mogelijkheden ontsluiten voor combinatietherapieën met onze ADC's. Leer meer.
2
YUP
Advertenties zullen super succesvol zijn in ChatGPT of andere chatbots
"Chatlogs kunnen veel rijkere signalen over intentie en voorkeur vastleggen, veel verder dan de vragen die mensen stellen, die nieuw en onthullender zijn dan wat we vroeger zagen."

rohan anil3 uur geleden
Over advertenties gesproken:
Voor aanbevelingssystemen is een heilige graal het grootschalig modelleren van gebruikers en hun interacties over een redelijk lange periode. Dit is moeilijk geweest omdat telemetrie moeilijk is: wie ben je, waar besteed je tijd aan, welke websites bezoek je vaak, wat is je sociale netwerk, en waar denk je aan te kopen?
Aanbevelingssystemen op zich zijn vaak bedrijven met lage marges, en winst komt voort uit het volume van interactie. Dit heeft de prikkels voor bedrijven grotendeels beperkt om zwaar te investeren in dure modellering, omdat de kosten vaak niet logisch zijn. Bijvoorbeeld lange context / transformer schaling.
Nu, met advertenties die in chatbots komen, wordt het gebruikersmodellering-gedeelte aanzienlijk opgevoerd.
Chatlogs kunnen veel rijkere signalen over intentie en voorkeur vastleggen, veel verder dan de vragen die mensen stellen, die nieuw en onthullender zijn dan wat we vroeger zagen.
Ten slotte: Transformer schaling, incontext leren werkt, dus je krijgt per gebruiker model goedkoop.
Dit zal de economie achter advertenties veranderen, omdat het "conversies" zal verhogen.

13
Boven
Positie
Favorieten