Техническая архитектура DeepSeek-V4 была раскрыта заранее! Все знают, что текущая архитектура больших моделей MoE объединяет способности AI к выводу и знания в каждом Expert (эксперте). Так возможно ли сделать так, чтобы эксперты использовались только для вывода, а большое количество внешних знаний хранилось в определенной области, формируя архитектуру, подобную описанной в «Призраке в доспехах», где киборг на самом деле состоит из электронного мозга и внешней памяти? DeepSeek это сделала!