Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En stor milstolpe inom AI i gränsskala har just landat, driven av AMD.
@ZyphraAI har framgångsrikt tränat ZAYA1-Base, den första storskaliga Mixture-of-Experts (MoE)-grundmodellen som tränas helt på AMD-plattformen, från beräkning till nätverk till mjukvara.
Denna prestation bekräftar vad vi har byggt mot: AMD Instinct MI300X GPU:er + Pensando Pollara-nätverk + ROCm-programvara = ett produktionsklart, högpresterande alternativ för storskalig AI-träning.
Tillsammans med @ZyphraAI och @IBM Cloud har vi samdesignat och implementerat ett kluster som levererar 750+ PFLOPs (Max Ahievable FLOPS), med 192 GB HBM-minne, 400 Gbps Pollara NIC och en fullt optimerad ROCm-mjukvarustack.
Resultatet:
⚡ En MoE-modell i gränsskala (totalt 8,3 B / 760 M aktiv)
⚡ Tävlingsinriktat resonemang, matematik och kodningsprestation
⚡ Effektiv långkontextträning (upp till 32 K)
⚡ Genombrott inom nätverk, kärnor och systemdesign
Detta bevisar vad som är möjligt när AMD-ekosystemet samarbetar. AMD-plattformen är redo för nästa våg av AI-innovation. Och detta är bara början.
Läs bloggen från @EmadBarsoumPi och @KarimBhalwani här:

Topp
Rankning
Favoriter

