Einige Punkte, die aus der Diskussion im Flur mit @JeffDean über kontinuierliches Lernen hervorstachen: 1. RL/Fine-Tuning mit Benutzerpräferenzen bei der Bereitstellung könnte gefährlich sein, da wir das Verhalten des Agenten nicht kontrollieren können. 2. Wir benötigen neue Paradigmen für das Pretraining, um das agentische kontinuierliche Lernen zu ermöglichen. 3. Google sieht jedoch keine Verlangsamung des aktuellen Pretraining-Skalierungsgesetzes. Alle oben genannten Punkte schließen sich nicht gegenseitig aus. Wir benötigen mehr technische Diskussionen vor Ort, anstatt nur die Schlagzeilen zu überfliegen.