PANews poinformował 12 września, że firma Tongyi Qianwen z Alibaby wypuściła infrastrukturę nowej generacji Qwen3-Next i udostępniła modele z serii Qwen3-Next-80B-A3B oparte na tej architekturze. W porównaniu ze strukturą modelu MoE Qwen3, struktura ma następujące podstawowe ulepszenia: mechanizm mieszanej uwagi, strukturę MoE o wysokiej rzadkości, serię stabilnych i przyjaznych optymalizacji trenowania oraz wielotokenowy mechanizm przewidywania w celu poprawy wydajności wnioskowania. Opierając się na strukturze modelu Qwen3-Next, Alibaba wytrenował model Qwen3-Next-80B-A3B-Base, który ma 80 miliardów parametrów i aktywuje tylko 3 miliardy parametrów. Model podstawowy osiąga podobną lub nawet nieco lepszą wydajność niż model gęsty Qwen3-32B, a jego koszt szkolenia (godziny GPU) jest mniejszy niż jedna dziesiąta kosztu Qwen3-32B, a przepustowość wnioskowania w kontekście ponad 32 tys. jest ponad dziesięciokrotnie wyższa niż Qwen3-32B, osiągając ostateczną wydajność kosztów trenowania i wnioskowania.