Merkittävä virstanpylväs huipputason tekoälyssä on juuri saapunut, AMD:n tukemana. @ZyphraAI on onnistuneesti kouluttanut ZAYA1-Basen, ensimmäisen laajamittaisen asiantuntijoiden yhdistelmän (MoE) perusmallin, joka on koulutettu kokonaan AMD-alustalla, laskennasta verkottumiseen ja ohjelmistoihin. Tämä saavutus vahvistaa sen, mitä olemme rakentaneet kohti: AMD Instinct MI300X GPU:t + Pensando Pollara -verkot + ROCm-ohjelmisto = tuotantovalmis ja suorituskykyinen vaihtoehto laajamittaiselle tekoälykoulutukselle. Yhdessä @ZyphraAI:n ja @IBM Cloudin kanssa suunnittelimme ja otimme käyttöön klusterin, joka tuottaa 750+ PFLOP:ia (Max Achievable FLOPS), hyödyntäen 192 GB HBM-muistia, 400 Gbps Pollara-verkkoja ja täysin optimoitua ROCm-ohjelmistopinoa. Tuloksena: ⚡ Raja-alueen MoE-malli (yhteensä 8,3 B / 760 M aktiivinen) ⚡ Kilpailullinen päättely, matematiikka ja koodaussuoritus ⚡ Tehokas pitkäaikainen koulutus (jopa 32 K) ⚡ Läpimurtoja verkoissa, ytimissä ja järjestelmäsuunnittelussa Tämä todistaa, mitä on mahdollista, kun AMD-ekosysteemi yhdistyy. AMD-alusta on valmis seuraavaan tekoälyinnovaation aaltoon. Ja tämä on vasta alkua. Lue @EmadBarsoumPi ja @KarimBhalwani blogi täältä: