熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
在CES大會期間,英偉達全新推出的Rubin架構成了最近市場討論的焦點,什麼MOE架構之外另一重大突破,什麼為Agentic AI時代量身設計等等,我深入看了下,的確感受到老黃“自我革命”那味了:
1)過去英偉達依附的是GPU硬件優勢,踩上了各大AI巨頭都在瘋狂採購算力訓練大模型的紅利期。那時候邏輯很簡單,誰的顯卡多誰就能訓練出最好的模型。
但現在AI戰爭已經從“算力”戰場轉移到“推理”,尤其是Agentic時代到來後,AI需要處理高頻、多步、超長上下文的推理。
這個時候,模型參數動輒萬億,數據吞吐量極大,GPU 算得再快,如果內存傳數據不夠快,GPU 就得空轉,這就是“存力牆”,換句話說,顯卡多已經解決不了問題了,還需要高顯存和帶寬來支撐。Rubin要解決的就是這個問題。
2)所以 Rubin首發的HBM4就好撐第四代高帶寬內存,可以讓帶寬到達22TB/s。但更關鍵的是它配合NVLink 6技術(機架內帶寬260TB/s),把72張卡在邏輯上變成了“一顆巨型芯片”。
這意味著什麼?以前你買顯卡,買的是一個個獨立組件,數據在卡與卡之間傳輸就像快遞要經過好幾個中轉站。現在Rubin通過極高密度的互連,讓數據在不同GPU之間流轉時幾乎感覺不到物理距離,72個工人不再各幹各的,而是共享一個大腦。
我想這才是Rubin真正的殺招:不是單純堆硬件參數,而是讓整個系統數據流轉的重構。
3)如果說MOE( 混合專家模型架構 )是英偉達被DeepSeek等後起之秀堆英偉達“暴力堆卡”商業模式的一次降維打擊,那Rubin怎麼看都是老黃的一次戰略反擊,不在跟你們比誰更省卡,而是直接重構AI的使用成本。當然,出此奇招也意味著英偉達徹底要和暴力堆卡的舊模式說再見了。
老黃算的是另一筆賬,Agentic時代要真正落地到千行百業,就必須跨過Token成本這道坎,這是英偉達守不住的大勢所趨。
在老黃看來,與其等著被谷歌、Meta等大廠自研芯片蠶食市場,又或者被DeepSeek等用模式顛覆供給側市場,還不如主動做破局的那個人。
4)問題來了,自我革命後的英偉達要如何自處?路徑也很清晰,從"賣顯卡"變成"賣系統",從服務少數大廠變成讓AI真正普及。
以前你買H100,英偉達賺的永遠知識那一份顯卡的錢,以後的Rubin會告訴你:你得買整套NVL72機架——72張GPU、NVLink Switch、全液冷系統、機櫃,甚至包括配套的軟件棧,全部打包賣給你。
老黃的算盤也很清楚,看起來打包後的硬件成本更貴了,但附加了極致的推理效率,把採購方AI使用的單元成本給拉下來了,也自然不會丟失市場份額。
但但但,這套玩法對中小玩家的門檻也更高了。只有大廠和雲服務商才能玩得起,會進一步加劇算力壟斷。在當前競爭形勢下堪稱一次豪賭,因為一旦HBM4量產存在問題,就會被AMD、谷歌TPU等抓住窗口期推出的替代方案給替代,那英偉達賣系統的美夢可能沒那麼容易實現了。
熱門
排行
收藏
