Чи я помиляюся, відчуваючи зміну парадигми в штучному інтелекті? Відчувається, що ми переходимо від світу, одержимого універсальними API LLM, до світу, де все більше і більше компаній навчають, оптимізують і використовують свої власні моделі, побудовані на відкритому вихідному коді (особливо невеликі, спеціалізовані) Деякі ознаки, що підтверджують лише за останні кілька тижнів: - @karpathy випустили наночат для навчання моделей всього за кілька рядків коду - @thinkymachines запустили продукт для тонкого налаштування - зростання популярності @vllm_project, @sgl_project, @PrimeIntellect, Loras, TRL,... - 1 мільйон нових репозиторіїв на HF за останні 90 днів (включаючи перші LLM з відкритим вихідним кодом від @OpenAI) І ось, @nvidia тільки що анонсували DGX Spark, досить потужний, щоб кожен міг точно налаштувати свої моделі в домашніх умовах. Чи погодитеся ви, чи я просто бачу майбутнє, в якому хочу існувати? Крім того, чому так відбувається (просто поява РЛ/посттренінгу?)