Några punkter som stack ut i korridordiskussioner med @JeffDean om kontinuerligt lärande: 1. RL/Finjustering av användarinställningar vid utrullning kan vara farligt eftersom vi inte kan kontrollera agentens beteende. 2. Vi behöver nya paradigm framåt för förträning för att möjliggöra den agentiska kontinuerliga lutningen. 3. Google ser dock inte en nedgång i den nuvarande lagen om förträningsskalning. Alla ovanstående punkter utesluter inte varandra. Vi behöver fler tekniska diskussioner på plats än att förbise rubrikerna.