En stor milstolpe inom AI i gränsskala har just landat, driven av AMD. @ZyphraAI har framgångsrikt tränat ZAYA1-Base, den första storskaliga Mixture-of-Experts (MoE)-grundmodellen som tränas helt på AMD-plattformen, från beräkning till nätverk till mjukvara. Denna prestation bekräftar vad vi har byggt mot: AMD Instinct MI300X GPU:er + Pensando Pollara-nätverk + ROCm-programvara = ett produktionsklart, högpresterande alternativ för storskalig AI-träning. Tillsammans med @ZyphraAI och @IBM Cloud har vi samdesignat och implementerat ett kluster som levererar 750+ PFLOPs (Max Ahievable FLOPS), med 192 GB HBM-minne, 400 Gbps Pollara NIC och en fullt optimerad ROCm-mjukvarustack. Resultatet: ⚡ En MoE-modell i gränsskala (totalt 8,3 B / 760 M aktiv) ⚡ Tävlingsinriktat resonemang, matematik och kodningsprestation ⚡ Effektiv långkontextträning (upp till 32 K) ⚡ Genombrott inom nätverk, kärnor och systemdesign Detta bevisar vad som är möjligt när AMD-ekosystemet samarbetar. AMD-plattformen är redo för nästa våg av AI-innovation. Och detta är bara början. Läs bloggen från @EmadBarsoumPi och @KarimBhalwani här: