Я ошибаюсь, чувствуя парадигмальный сдвиг в AI? Кажется, мы переходим от мира, одержимого общими LLM API, к миру, где все больше компаний обучают, оптимизируют и запускают свои собственные модели, основанные на открытом исходном коде (особенно меньшие, специализированные). Некоторые подтверждающие знаки всего за последние несколько недель: - @karpathy выпустил nanochat для обучения моделей всего за несколько строк кода - @thinkymachines запустили продукт для дообучения - растущая популярность @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1M новых репозиториев на HF за последние 90 дней (включая первые открытые LLM от @OpenAI) А теперь @nvidia только что анонсировала DGX Spark, достаточно мощный, чтобы каждый мог дообучить свои собственные модели дома. Согласны ли вы, или я просто вижу будущее, которое хочу, чтобы существовало? Также, почему это происходит (просто появление RL/постобучения?)