Det er det... Amazon beviste at små språkmodeller kan prestere 500 ganger bedre enn større LLM-er i agentisk verktøykall. NVIDIA har allerede vist denne ideen tidligere, og dette er nok et bevis på at riktig finjustering kan gjøre SLM-er bedre i agentiske applikasjoner enn LLM-er, til en brøkdel av kostnaden. agentfokuserte selskaper må i år ta i bruk utviklingen (datasett, evalueringer, etteropplæring, design) av LLM-er. de har dataene og de riktige lekeplassene for disse LLM-ene. Det er økonomisk meningsløst å bruke proprietære store modeller i de fleste agentiske brukstilfeller. Les denne artikkelen og også NVIDIAs ("Small Language Models are the Future of Agentic AI") for å bli overbevist.