Alcuni punti che sono emersi dalla discussione nel corridoio con @JeffDean sull'apprendimento continuo: 1. L'RL/Fine-tuning con le preferenze degli utenti al momento del deployment potrebbe essere pericoloso poiché non possiamo controllare il comportamento dell'agente. 2. Abbiamo bisogno di nuovi paradigmi per il pretraining per abilitare l'apprendimento continuo agentico. 3. Google non sta osservando un rallentamento della legge di scaling attuale del pretraining. Tutti i punti sopra non sono mutuamente esclusivi. Abbiamo bisogno di più discussioni tecniche sul campo piuttosto che di una semplice panoramica dei titoli.