我是否錯了,感覺到 AI 正在發生範式轉變? 感覺我們正從一個痴迷於通用 LLM API 的世界,轉向越來越多公司在訓練、優化和運行基於開源(尤其是較小、專門化的模型)的自有模型的世界。 在過去幾週中,一些驗證的跡象: - @karpathy 發布了 nanochat,只需幾行代碼即可訓練模型 - @thinkymachines 推出了微調產品 - @vllm_project、@sgl_project、@PrimeIntellect、Loras、trl 等的受歡迎程度上升... - 在過去 90 天內,HF 上新增了 100 萬個庫(包括 @OpenAI 的第一批開源 LLM) 而現在,@nvidia 剛剛宣布了 DGX Spark,足夠強大,讓每個人都能在家微調自己的模型。 你同意嗎,還是我只是看到了我想要存在的未來?此外,這為什麼會發生(只是 RL/後訓練的出現嗎)?