Um marco importante na IA em escala de fronteira acabou de chegar, impulsionado pela AMD. @ZyphraAI treinou com sucesso o ZAYA1-Base, o primeiro modelo de fundação em grande escala Mixture-of-Experts (MoE) treinado inteiramente na plataforma AMD, desde computação até redes e software. Essa conquista valida o que temos construído: GPUs AMD Instinct MI300X + rede Pensando Pollara + software ROCm = uma alternativa pronta para produção e alto desempenho para treinamento em IA em larga escala. Junto com a @ZyphraAI e a @IBM Cloud, co-projetamos e implantamos um cluster que entrega 750+ PFLOPs (Max Achievable FLOPS), aproveitando 192 GB de memória HBM, NICs Pollara de 400 Gbps e uma pilha de software ROCm totalmente otimizada. O resultado: ⚡ Um modelo MoE em escala de fronteira (8,3 B no total / 760 M ativos) ⚡ Desempenho em raciocínio competitivo, matemática e programação ⚡ Treinamento eficiente em contexto longo (até 32 K) ⚡ Avanços em redes, kernels e design de sistemas Isso prova o que é possível quando o ecossistema AMD se forma. A plataforma AMD está pronta para a próxima onda de inovação em IA. E isso é só o começo. Leia o blog de @EmadBarsoumPi e @KarimBhalwani aqui: