PANews rapporterade den 12 september att Alibabas Tongyi Qianwen släppte nästa generations infrastruktur Qwen3-Next och öppen källkod för modellerna i Qwen3-Next-80B-A3B-serien baserade på denna arkitektur. Jämfört med MoE-modellstrukturen i Qwen3 har strukturen följande kärnförbättringar: mekanism för blandad uppmärksamhet, MoE-struktur med hög gleshet, en serie stabila och vänliga optimeringar för träning och en förutsägelsemekanism med flera token för att förbättra inferenseffektiviteten. Baserat på modellstrukturen för Qwen3-Next tränade Alibaba Qwen3-Next-80B-A3B-Base-modellen, som har 80 miljarder parametrar och bara aktiverar 3 miljarder parametrar. Basmodellen uppnår liknande eller till och med något bättre prestanda än den kompakta Qwen3-32B-modellen, och dess träningskostnad (GPU-timmar) är mindre än en tiondel av den för Qwen3-32B, och inferensgenomströmningen i kontexten för mer än 32k är mer än tio gånger så hög som för Qwen3-32B, vilket ger den ultimata tränings- och inferenskostnadsprestandan.