Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Um marco importante na IA em escala de fronteira acabou de chegar, impulsionado pela AMD.
@ZyphraAI treinou com sucesso o ZAYA1-Base, o primeiro modelo de fundação em grande escala Mixture-of-Experts (MoE) treinado inteiramente na plataforma AMD, desde computação até redes e software.
Essa conquista valida o que temos construído: GPUs AMD Instinct MI300X + rede Pensando Pollara + software ROCm = uma alternativa pronta para produção e alto desempenho para treinamento em IA em larga escala.
Junto com a @ZyphraAI e a @IBM Cloud, co-projetamos e implantamos um cluster que entrega 750+ PFLOPs (Max Achievable FLOPS), aproveitando 192 GB de memória HBM, NICs Pollara de 400 Gbps e uma pilha de software ROCm totalmente otimizada.
O resultado:
⚡ Um modelo MoE em escala de fronteira (8,3 B no total / 760 M ativos)
⚡ Desempenho em raciocínio competitivo, matemática e programação
⚡ Treinamento eficiente em contexto longo (até 32 K)
⚡ Avanços em redes, kernels e design de sistemas
Isso prova o que é possível quando o ecossistema AMD se forma. A plataforma AMD está pronta para a próxima onda de inovação em IA. E isso é só o começo.
Leia o blog de @EmadBarsoumPi e @KarimBhalwani aqui:

Melhores
Classificação
Favoritos

