Huawei openPangu-Ultra-MoE-718B-modell Ingen Nvidia-teknik används för att bygga den här modellen - bara Ascend AI-chips, CANN inte CUDA. "... tränad från grunden på Ascend NPU, med ett totalt parameterantal på 718B och 39B aktiverade parametrar per token. openPangu-Ultra-MoE-718B är tränad på cirka 19 biljoner tokens och utrustad med förmågan att växla mellan snabbt och långsamt tänkande. Verkar vara en toppmodern modell om inte den bästa öppna modellen som finns tillgänglig för närvarande. Länk nedan - du kan ladda ner den och använda den
27,02K