J'ai pleuré, SOTA n'est qu'une façade, pour vraiment travailler, il faut compter sur le "modèle de bétail" Le fondateur d'OpenRouter, Alex Atallah, vient de tweeter qu'il utilise encore le Kimi-K2-0711 (le Kimi-K2-Instruct de juillet) le plus. Ensuite, il y a openai-o4-mini-high, Claude-3.7-Sonnet, gpt-oss-120b, openai-o3. À première vue, je me suis demandé si cette personne n'était pas déconnectée, ça fait longtemps qu'elle n'a pas utilisé de nouveaux grands modèles ? Mais en y réfléchissant bien, non, ce n'est pas ça, c'est très étrange. C'est vraiment l'utilisation d'un Power User, c'est tellement réel. Si à ce moment-là, on cherche un modèle suffisamment grand en contexte (128K), avec des performances utilisables (SWE-Bench Verified > 65), une forte capacité d'Agent (Tau2-bench > 65), un large éventail de connaissances (un nombre de paramètres assez grand), et qui répond rapidement (modèle non Thinking), il semble qu'il n'y ait que le Kimi-K2-Instruct. En rétro-analyzant, Alex Atallah devrait passer la plupart de son temps à traiter des documents (longs contextes, surtout avec 13,4M de tokens), à utiliser des outils pour analyser et rédiger des rapports (capacité d'Agent), tout cela peut être géré par Kimi-K2-Instruct, puis à écrire des scripts (o4 et Claude-3.7-Sonnet en soutien, voire à les emballer en Agent pour que Kimi-k2 appelle ces modèles pour écrire des scripts). Enfin, Kimi-k2 peut également répondre au point le plus important, la confidentialité des données, car le modèle a des poids ouverts, il peut être déployé sur son propre serveur, aucune information sensible ne sera divulguée à OpenAI ou Anthropic. Même le GPT-OSS-120B en dessous devrait avoir ce sens. Je peux à peu près comprendre pourquoi les nouveaux grands modèles se concentrent sur la capacité d'Agent, les gens utilisent directement l'IA n'est qu'une étape intermédiaire, les utilisateurs avancés utilisent déjà l'IA pour opérer l'IA. Un modèle spécialisé d'Agent pour envoyer et recevoir tous les contextes de l'IA sera forcément le plus utilisé. Post original :