AIのパラダイムシフトを感知するのは間違っているのでしょうか? ジェネラリストの LLM API に夢中になっている世界から、オープンソース (特に小規模で特殊なモデル) に基づいて構築された独自のモデルをトレーニング、最適化、実行する企業が増えている世界に移行しているように感じます ここ数週間でいくつかの検証兆候が見られました。 - @karpathyわずか数行のコードでモデルをトレーニングできるnanochatをリリースしました - @thinkymachines、微調整製品を発売 - @vllm_project、@sgl_project、@PrimeIntellect、Loras、trlの人気の高まり,... - 過去 90 日間に HF で 1M の新しいリポジトリ (@OpenAI の最初のオープンソース LLM を含む) そして今、@nvidia発表したばかりのDGX Sparkは、誰もが自宅で自分のモデルを微調整できるほど強力です。 同意しますか、それとも私はただ自分が存在したい未来を見ているだけですか?また、なぜこのようなことが起こるのでしょうか(RL/ポストトレーニングの出現だけですか?