Een belangrijke mijlpaal in AI op grensniveau is net geland, aangedreven door AMD. @ZyphraAI heeft met succes ZAYA1-Base getraind, het eerste grootschalige Mixture-of-Experts (MoE) fundamentmodel dat volledig op het AMD-platform is getraind, van computing tot netwerken tot software. Deze prestatie valideert waar we naartoe hebben gewerkt: AMD Instinct MI300X GPU's + Pensando Pollara-netwerken + ROCm-software = een productieklare, hoogpresterende alternatieve voor grootschalige AI-training. Samen met @ZyphraAI en @IBM Cloud hebben we een cluster ontworpen en ingezet dat 750+ PFLOPs (Max Achievable FLOPS) levert, gebruikmakend van 192 GB HBM-geheugen, 400 Gbps Pollara NIC's en een volledig geoptimaliseerde ROCm-softwarestack. Het resultaat: ⚡ Een MoE-model op grensniveau (8,3 B totaal / 760 M actief) ⚡ Concurrentiële redeneer-, wiskunde- en programmeerprestaties ⚡ Efficiënte training met lange context (tot 32 K) ⚡ Doorbraken in netwerken, kernels en systeemontwerp Dit bewijst wat mogelijk is wanneer het AMD-ecosysteem samenkomt. Het AMD-platform is klaar voor de volgende golf van AI-innovatie. En dit is nog maar het begin. Lees de blog van @EmadBarsoumPi en @KarimBhalwani hier: