我是否错了,感觉到人工智能正在发生范式转变? 感觉我们正从一个痴迷于通用 LLM API 的世界,转向一个越来越多公司在训练、优化和运行基于开源(尤其是较小、专业化模型)的自己的模型的世界。 在过去几周里,一些验证的迹象: - @karpathy 发布了 nanochat,只需几行代码即可训练模型 - @thinkymachines 推出了一个微调产品 - @vllm_project、@sgl_project、@PrimeIntellect、Loras、trl 等的日益受欢迎 - 在过去 90 天内,HF 上新增了 100 万个仓库(包括 @OpenAI 的第一个开源 LLM) 而现在,@nvidia 刚刚宣布了 DGX Spark,足够强大,让每个人都能在家微调自己的模型。 你同意吗,还是我只是看到了我希望存在的未来?此外,为什么会发生这种情况(只是 RL/后训练的出现吗)?