Gråt, SOTA är bara ansikte, och du måste förlita dig på "boskaps- och hästmodellen" för att verkligen fungera Alex Atallah, grundare av OpenRouter, twittrade nyligen att hans största användning är Kimi-K2-0711 (Kimi-K2-Instruct i juli). Sedan finns openai-o4-mini-high, claude-3.7-sonnett, gpt-oss-120b, openai-o3 Det första jag tittade på var, är den här personen på internet och har inte använt en ny stor modell på länge? Men om du tänker noga på det, nej, det är väldigt fel. Det är den verkliga användningen av Power User, det är så verkligt Om du hittar en vid det här tillfället, med tillräckligt stor kontext (128K), stark förmåga att använda (SWE-bench verifierad > 65), stark agentförmåga (Tau2-bench > 65), enorm kunskap (ganska många parametrar) och snabba svar (icke-tänkande modell), verkar det som att bara Kimi-K2-Instruct är den rätta. Baklänges gör Alex Atallah förmodligen det mesta av sitt arbete med dokument (långa kontexter, särskilt med 13,4M tokens), använder verktyg för att analysera och skriva rapporter (Agent-kapabiliteter), vilket Kimi-K2-Instruct kan göra, och sedan skriva skript (o4 och Claude-3.7-Sonnet täcker botten, och till och med omsluter det som en agent för Kimi-k2 att anropa dessa modeller för att skriva skript). Slutligen uppfyller Kimi-k2 också den viktigaste punkten, dataintegritet, eftersom modellen är öppenviktad, kan distribueras på sin egen server och all känslig information inte läcker till OpenAI eller Anthropic. Även följande GPT-OSS-120B borde vara meningsfull här. Jag kan nog förstå varför den nya stora modellen nu är full av agentförmågor, och att den direkta användningen av AI av människor bara är i mittenstadiet, och avancerade användare redan har använt AI för att driva AI. En agentspecifik modell som används för att skicka och ta emot alla AI-kontexter kommer oundvikligen att bli den vanligaste användningen. Originaltråd: