Деякі моменти, які запам'яталися під час обговорення в коридорі з @JeffDean щодо постійного навчання: 1. RL/Finetuning з урахуванням уподобань користувача під час розгортання може бути небезпечним, оскільки ми не можемо контролювати поведінку агента. 2. Нам потрібні нові парадигми вперед для попереднього навчання, щоб забезпечити агентне безперервне нахилання. 3. Однак Google не бачить уповільнення чинного закону про масштабування переднавчання. Усі наведені вище пункти не є взаємовиключними. Нам потрібно більше технічних обговорень на місцях, ніж просто ігнорування заголовків.