Arquitetura Técnica DeepSeek-v4 Exposta Antecipadamente! Todo mundo sabe que a arquitetura atual de grandes modelos MoE integra a capacidade e o conhecimento de raciocínio da IA em cada especialista, então é possível que os especialistas a usem apenas para raciocínio e depois armazenem uma grande quantidade de conhecimento externo em uma área específica, formando uma arquitetura como o Ciborgue descrito em Ghost in the Shell, que na verdade é composto por cérebro eletrônico + memória externa? A DeepSeek conseguiu isso!