Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AMD
Juntos advance_
Acaba de llegar un hito importante en la IA a escala de frontera, impulsado por AMD.
@ZyphraAI ha entrenado con éxito ZAYA1-Base, el primer modelo fundacional a gran escala de Mezcla de Expertos (MoE) entrenado íntegramente sobre la plataforma AMD, desde computación hasta redes y software.
Este logro valida hacia dónde hemos estado construyendo: GPUs AMD Instinct MI300X + Pensando Pollara red + software ROCm = una alternativa lista para producción y alto rendimiento para el entrenamiento de IA a gran escala.
Junto con @ZyphraAI y @IBM Cloud, co-diseñamos y desplegamos un clúster que ofrece 750+ PFLOPs (Max Achievable FLOPS), aprovechando 192 GB de memoria HBM, tarjetas de red Pollara de 400 Gbps y una pila de software ROCm totalmente optimizada.
El resultado:
⚡ Un modelo MoE a escala fronteriza (8,3 B en total / 760 M activos)
⚡ Razonamiento competitivo, matemáticas y rendimiento en programación
⚡ Entrenamiento eficiente en contexto largo (hasta 32 K)
⚡ Avances en redes, kernels y diseño de sistemas
Esto demuestra lo que es posible cuando el ecosistema AMD se consolida. La plataforma AMD está lista para la próxima ola de innovación en IA. Y esto es solo el principio.
Lee el blog de @EmadBarsoumPi y @KarimBhalwani aquí:

4.6K
Acaba de llegar un hito importante en la IA a escala de frontera, impulsado por AMD.
@ZyphraAI ha entrenado con éxito ZAYA1-Base, el primer modelo fundacional a gran escala de Mezcla de Expertos (MoE) entrenado íntegramente sobre la plataforma AMD, desde computación hasta redes y software.
Este logro valida hacia dónde hemos estado construyendo: GPUs AMD Instinct MI300X + Pensando Pollara red + software ROCm = una alternativa lista para producción y alto rendimiento para el entrenamiento de IA a gran escala.
Junto con @ZyphraAI y @IBM Cloud, co-diseñamos y desplegamos un clúster que ofrece 750+ PFLOPs (Max Achievable FLOPS), aprovechando 192 GB de memoria HBM, tarjetas de red Pollara de 400 Gbps y una pila de software ROCm totalmente optimizada.
El resultado:
⚡ Un modelo MoE a escala fronteriza (8,3 B en total / 760 M activos)
⚡ Razonamiento competitivo, matemáticas y rendimiento en programación
⚡ Entrenamiento eficiente en contexto largo (hasta 32 K)
⚡ Avances en redes, kernels y diseño de sistemas
Esto demuestra lo que es posible cuando el ecosistema AMD se consolida. La plataforma AMD está lista para la próxima ola de innovación en IA. Y esto es solo el principio.
Lee el blog de @EmadBarsoum y @KarimBhalwani aquí:

18.76K
Populares
Ranking
Favoritas


