PANews melaporkan pada 12 September bahwa Tongyi Qianwen dari Alibaba merilis infrastruktur generasi berikutnya Qwen3-Next, dan membuka sumber model seri Qwen3-Next-80B-A3B berdasarkan arsitektur ini. Dibandingkan dengan struktur model MoE Qwen3, struktur ini memiliki peningkatan inti berikut: mekanisme perhatian campuran, struktur MoE yang jarang, serangkaian pengoptimalan yang stabil dan ramah untuk pelatihan, dan mekanisme prediksi multi-token untuk meningkatkan efisiensi inferensi. Berdasarkan struktur model Qwen3-Next, Alibaba melatih model Qwen3-Next-80B-A3B-Base, yang memiliki 80 miliar parameter dan hanya mengaktifkan 3 miliar parameter. Model dasar mencapai kinerja yang serupa atau bahkan sedikit lebih baik daripada model padat Qwen3-32B, dan biaya pelatihannya (jam GPU) kurang dari sepersepuluh dari Qwen3-32B, dan throughput inferensi dalam konteks lebih dari 32k lebih dari sepuluh kali lipat dari Qwen3-32B, mencapai kinerja biaya pelatihan dan inferensi terbaik.