与@JeffDean在走廊讨论中突出的几点: 1. 在部署时使用用户偏好的RL/微调可能是危险的,因为我们无法控制代理的行为。 2. 我们需要新的预训练范式,以实现代理的持续学习。 3. 尽管如此,谷歌并没有看到当前预训练规模法则的放缓。 以上所有观点并不是相互排斥的。我们需要更多的实地技术讨论,而不是仅仅掠过头条。