Ai-je tort de sentir un changement de paradigme dans l'IA ? On dirait que nous passons d'un monde obsédé par les API LLM généralistes à un monde où de plus en plus d'entreprises forment, optimisent et exécutent leurs propres modèles basés sur des sources ouvertes (en particulier des modèles plus petits et spécialisés). Quelques signes de validation juste au cours des dernières semaines : - @karpathy a publié nanochat pour former des modèles en seulement quelques lignes de code. - @thinkymachines a lancé un produit de fine-tuning. - popularité croissante de @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1M de nouveaux dépôts sur HF au cours des 90 derniers jours (y compris les premiers LLM open-source de @OpenAI). Et maintenant, @nvidia vient d'annoncer DGX Spark, suffisamment puissant pour que tout le monde puisse affiner ses propres modèles à la maison. Seriez-vous d'accord, ou suis-je simplement en train de voir l'avenir que je souhaite voir ? De plus, pourquoi cela se produit-il (juste l'avènement de RL/post-formation ?)