PANews informó el 12 de septiembre que Tongyi Qianwen de Alibaba lanzó la infraestructura de próxima generación Qwen3-Next y abrió los modelos de la serie Qwen3-Next-80B-A3B basados en esta arquitectura. En comparación con la estructura del modelo MoE de Qwen3, la estructura tiene las siguientes mejoras principales: mecanismo de atención mixta, estructura MoE de alta dispersión, una serie de optimizaciones estables y amigables para el entrenamiento y un mecanismo de predicción de múltiples tokens para mejorar la eficiencia de la inferencia. Basado en la estructura del modelo de Qwen3-Next, Alibaba entrenó el modelo Qwen3-Next-80B-A3B-Base, que tiene 80 mil millones de parámetros y solo activa 3 mil millones de parámetros. El modelo base logra un rendimiento similar o incluso ligeramente mejor que el modelo denso Qwen3-32B, y su costo de entrenamiento (horas de GPU) es menos de una décima parte del de Qwen3-32B, y el rendimiento de inferencia en el contexto de más de 32k es más de diez veces mayor que el de Qwen3-32B, logrando el rendimiento final del costo de entrenamiento e inferencia.