热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
谷歌刚刚发布了《注意力即一切(V2)》
这篇论文可能解决了AI最大的难题:
灾难性遗忘。
当AI模型学习新东西时,它们往往会忘记之前学过的内容。人类并不是这样工作的,而现在谷歌研究有了一个解决方案。
嵌套学习。
这是一种新的机器学习范式,将模型视为一组以不同速度运行的相互关联的优化问题——就像我们的大脑处理信息的方式。
这为什么重要:
大型语言模型(LLMs)并不从经验中学习;它们仅限于训练期间学到的内容。它们无法在不失去先前知识的情况下学习或改进。
嵌套学习通过将模型的架构和训练算法视为同一事物——只是不同的“优化层次”——来改变这一点。
论文介绍了Hope,一个概念验证架构,展示了这种方法:
↳ Hope在语言建模任务上优于现代递归模型
↳ 它比最先进的模型更好地处理长上下文记忆
↳ 它通过以不同频率更新的“连续记忆系统”实现这一点
这类似于我们的大脑如何同时管理短期和长期记忆。
我们可能终于在缩小AI与人类大脑持续学习能力之间的差距。
我在下一条推文中分享了论文的链接!

热门
排行
收藏

