Alguns pontos que se destacaram na discussão no corredor com @JeffDean sobre aprendizagem contínua: 1. O RL/Fine-tuning com preferências do usuário na implementação pode ser perigoso, pois não conseguimos controlar o comportamento do agente. 2. Precisamos de novos paradigmas para o pré-treinamento que possibilitem a aprendizagem contínua do agente. 3. O Google não está vendo a desaceleração da atual lei de escalonamento do pré-treinamento, no entanto. Todos os pontos acima não são mutuamente exclusivos. Precisamos de mais discussões técnicas no terreno do que apenas passar por cima das manchetes.