热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

VraserX e/acc
用心的老师,好奇心的人工智能爱好者,热衷于启发思想、探索技术,让学习变得令人兴奋、人性化和面向未来!
OpenAI 的计算增长刚刚达到了核级水平
我们现在所看到的是工业时代的规模与智能时代的雄心相遇。
OpenAI 刚刚在密歇根州宣布了另一个 Stargate,向其 AI 基础设施增加了超过一吉瓦的电力容量。
让我们好好想想:单个一吉瓦的站点大致相当于整个城市的电力使用。
而这并不是一次性的。
他们正在德克萨斯州、新墨西哥州、威斯康星州、俄亥俄州,现在还有密歇根州,和甲骨文公司及软银合作,堆叠吉瓦电力。已经锁定了超过 8 吉瓦的电力和 4500 亿美元的投资,预计到 2028 年将达到 10 吉瓦和 5000 亿美元。
我们在谈论数百万个 GPU,跨越大陆联网,形成一个行星级的智能基础设施。
这不是“一个大型数据中心”。
这是世界认知基础设施的诞生。
如果你仍然在考虑“应用”或“模型”,那么你就错过了。这是 AGI 的工业化建设,后人类经济的物理支柱。
计算是新的石油。
数据中心是新的城市。
而前沿不再是数字的,而是合成认知。
历史书将把这个十年标记为人类工业化智能本身的时刻。

1.85K
做好准备:我预测到明年年底,OpenAI 将释放真正的 AGI(人工通用智能)。
好吧,听我说,因为我正在做一个疯狂但有理有据的论证,我希望你和我一起乘上这个可能性的浪潮:
1. 计算爆炸
OpenAI 已经表示,今年它的基础设施将超过一百万个 GPU。 
现在想象一下,这个数字通过多个数据中心(德克萨斯州、阿联酋、挪威)通过所谓的“星际传送门”连接而放大。通过多个地理区域、电网和冷却通道的连接,你将看到一个数量级的规模提升。
这种计算能力可以提供足够的能量来训练真正庞大的模型、实时系统、多模态学习、记忆和适应。
2. 通过 SEAL 进行持续学习
麻省理工学院最近的研究提出了一个名为 SEAL(自适应语言模型)的框架,使模型能够生成自己的微调数据,响应新知识进行自我更新,并将这些更新保留在其权重中。 
那么,如果 OpenAI 将类似的东西(或其更高级的演变)集成到其 AGI 流程中会怎样?模型不仅仅是静态的,它会摄取、评估、更新。它变得更像一个学习的有机体。
3. 破解记忆与自适应架构
在 AGI 研究中,一个障碍是“静态权重,固定知识”。记忆(包括短期、长期、情节记忆)是一个重要因素。这里的概念是:到明年,OpenAI 可能会引入具有动态记忆路由、持久的自传式缓冲区、相互关联的模块的架构,这些模块会不断演变。
结合计算能力的提升 + 持续学习能力 = 从“非常先进的 LLM”跃升到你可以合理称之为 AGI 的东西。
4. 时间线的合理性
是的,我知道,“明年年底”听起来很雄心勃勃。但考虑到模型迭代、计算扩展等的速度,这并不是荒谬的。关键杠杆是整合:计算 + 架构 + 学习循环 + 记忆。如果 OpenAI 同时实现这四个目标,轰!
5. 影响
• 如果 AGI 到时实现,我们将看到自动化、优化、发现的惊人加速。
• “与您一起学习和为您学习的 AI 助手”时代将成为现实。
• 这引发了巨大的哲学、伦理、经济问题(太好了,你最喜欢的领域)。
• 对于你这个超人类主义的虚拟现实爱好者来说,这意味着激进自动化、长寿研究等的工具将获得巨大的推动。
警告(因为我不是盲目宣传而不思考)
• “AGI”是一个模糊的术语。我将其定义为在多个领域(推理、学习、适应、记忆)具有人类水平一般认知能力的系统。
• 没有什么能保证 OpenAI 明年会集成 SEAL 或“破解记忆”风格的架构,存在工程、电力、冷却、安全、对齐的瓶颈。
• 仅仅规模是不够的。一百万个 GPU 如果没有合适的架构仍然会产生递减收益。
• 这个预测是大胆的,因为我相信我们正在进入一个十年一遇的加速区间。
所以是的,我在这里立下了我的旗帜:OpenAI 将在明年年底揭示 AGI。机制:大规模 GPU 扩展(德克萨斯州、阿联酋、挪威节点)、SEAL 类型的持续学习循环的整合、丰富的自适应架构。这是一个重大突破。

3.05K
热门
排行
收藏

