Deepseek V4 torna a combattere per il Capodanno, facendo un grande passo avanti nella soluzione del problema della memoria dell'Agente con il lancio di Engram. La memoria è sempre stata un problema centrale e difficile. Il cuore della questione è separare la memoria e il calcolo dell'AI. Attualmente, il modello manca di un meccanismo di ricerca della conoscenza efficiente. Anche di fronte a fatti fissi come "Lady Diana", è necessario utilizzare reti neurali multilivello per "ridefinire", sprecando preziose risorse di calcolo. Introducendo una nuova dimensione di "memoria condizionale", si forma una complementarità con l'attuale MoE (calcolo condizionale). Engram è il modulo di implementazione concreta di questa memoria condizionale. La Silicon Valley non festeggia bene il Capodanno!