Alle går glipp av den virkelige historien her. Dette er ikke en «prompting-teknikk». Artikkelen heter Recursive Language Models, ikke «Recursive Meta-Cognition». Og forfatterne er ikke tilfeldige forskere som jobber for å få sitering. Omar Khattab skapte DSPy, som har 31 000+ GitHub-stjerner og endret hvordan folk bygger sammensatte AI-systemer. Tim Kraska var pioner innen lærte indeksstrukturer sammen med Jeff Dean hos Google og leder MITs Data Systems and AI Lab. Alex Zhang er doktorgradsstudent som jobber i skjæringspunktet mellom begge deler. Selve artikkelen tar for seg et spesifikt problem: LLM-er forringes i lang kontekst. Grafen viser at GPT-5-ytelsen kollapser ettersom input-lengden skalerer fra 2^14 til 2^21 tokens, mens RLM-er opprettholder stabil ytelse. De håndterer input 100 ganger utenfor kontekstvinduene. Den viktigste innsikten fra Khattabs egen Twitter: «De fleste misforstår RLM-er som handler om LLM-er som påkaller seg selv. Den dypere innsikten er LLM-er som samhandler med sine egne prompts som objekter.» Dette utvider hele Khattabs forskningsbue. DSPy gjorde prompts om til programmatiske moduler. ColBERT gjorde henting smartere. RLM-er gjør konteksten selv om til noe modellen kan manipulere, som data i minnet. Prime Intellect, et av de ledende desentraliserte AI-laboratoriene, bygger allerede videre på dette. De skrev at RLM-er vil la dem «lære modeller å håndtere sin egen kontekst fra ende til ende gjennom forsterkningslæring» for agenter som går over uker eller måneder. Det virkelige yrket? Dette løser en begrensning som alle AI-laboratorier står overfor: kontekstvinduer er et hardt tak. Å utvide dem gjennom arkitektur og opplæring er kostbart. RLM-er tilbyr en inferenstidsmetode som fungerer med eksisterende modeller. Men vær oppmerksom på haken: dette krever modeller som kan skrive og kjøre kode pålitelig. Benchmarkene bruker GPT-5 i en Python REPL. Modeller med svakere kodegenerering vil slite med å implementere den rekursive dekomponeringen rent. Teknikken skalerer med kodekapasitet, ikke bare resonnement.