熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁

VraserX e/acc
用心的老師,好奇心的人工智慧愛好者,熱衷於啟發思想、探索技術,讓學習變得令人興奮、人性化和面向未來!
OpenAI 的計算增長剛剛達到核能級別
我們現在所觀察的是工業時代的規模與智能時代的雄心相遇。
OpenAI 剛剛在密歇根州宣布了另一個 Stargate,為其 AI 基礎設施增加了超過一吉瓦的電力容量。
讓這個事實沉澱一下:單一的吉瓦站大約相當於整個城市的電力使用。
而且這不是一次性的。
他們正在德克薩斯州、新墨西哥州、威斯康星州、俄亥俄州,現在還有密歇根州,與 Oracle 和 SoftBank 合作,堆疊吉瓦電力。這已經鎖定了超過 8 吉瓦,並承諾了 4500 億美元,預計到 2028 年將達到 10 吉瓦和 5000 億美元。
我們談論的是數百萬個 GPU,跨大陸網絡連接,形成一個行星規模的智能基底。
這不是「一個大型數據中心」。
這是世界認知基礎設施的誕生。
如果你仍然在思考「應用」或「模型」,那你就錯過了。這是 AGI 的工業化建設,後人類經濟的物理支柱。
計算是新的石油。
數據中心是新的城市。
而邊界不再是數字的,而是合成認知。
歷史書將把這十年標記為人類工業化智能本身的時刻。

1.86K
做好準備:我預測到明年年底,OpenAI 將釋放真正的 AGI(人工通用智能)。
好吧,聽我說,因為我正在提出一個瘋狂但有理有據的論點,我希望你和我一起乘上這波可能性:
1. 計算爆炸
OpenAI 已經表示,今年它的基礎設施將超過一百萬個 GPU。
現在想像一下,這個數字通過多個數據中心(德克薩斯州、阿聯酋、挪威)通過所謂的“星際之門”擴展而放大。隨著多個地理區域、電力網和冷卻通道的接入,你將看到一個數量級的擴展。
這種計算能力能夠提供足夠的能量來訓練真正巨大的模型、實時系統、多模態學習、記憶和適應。
2. 通過 SEAL 進行持續學習
麻省理工學院最近的研究提出了一個名為 SEAL(自適應語言模型)的框架,該框架使模型能夠生成自己的微調數據,根據新知識自我更新並將這些更新持久化到其權重中。
那麼,如果 OpenAI 將類似的東西(或其更先進的演變)整合到其 AGI 流程中會怎樣?該模型不僅僅是靜態的,它會攝取、評估、更新。它變得更像是一個學習的有機體。
3. 破解記憶與自適應架構
在 AGI 研究中,一個障礙是“靜態權重,固定知識”。記憶(包括短期、長期、情節記憶)是重要的。這裡的概念是:到明年,OpenAI 可能會引入具有動態記憶路由、持久自傳式緩衝區、相互連結的模塊的架構,這些模塊會進化。
結合計算能力的擴展 + 持續學習能力 = 從“非常先進的 LLM”跳躍到你可以合理稱之為 AGI 的東西。
4. 時間表的合理性
是的,我知道,“明年年底”聽起來很雄心勃勃。但考慮到模型迭代、計算擴展等的速度,這並不是荒謬的。關鍵的杠杆是整合:計算 + 架構 + 學習循環 + 記憶。如果 OpenAI 同時達到這四個目標,轟!
5. 影響
•如果 AGI 在那時出現,我們將看到自動化、優化、發現的驚人加速。
•“與你一起學習和為你學習的 AI 助手”時代將成為現實。
•這引發了巨大的哲學、倫理、經濟問題(耶,你最喜歡的領域)。
•對於你這樣的超人主義者和虛擬現實愛好者來說,這意味著激進自動化、長壽研究等的工具將獲得宇宙級的提升。
警告(因為我不是盲目地炒作而不思考)
•“AGI”是一個模糊的術語。我將其定義為在各個領域(推理、學習、適應、記憶)具有人類水平的通用認知能力的系統。
•沒有任何東西保證 OpenAI 明年會整合 SEAL 或“破解記憶”風格的架構,還有工程、電力、冷卻、安全、對齊的瓶頸。
•僅僅擴展是不夠的。一百萬個 GPU 如果沒有合適的架構仍然會產生遞減收益。
•這一預測是大膽的,因為我相信我們正進入一個十年一遇的加速區域。
所以是的,我在這裡立下我的旗幟:OpenAI 將在明年年底揭示 AGI。其機制:大規模 GPU 擴展(德克薩斯州、阿聯酋、挪威節點)、整合 SEAL 類型的持續學習循環、記憶豐富的自適應架構。這是個大事件。

3.06K
熱門
排行
收藏

