Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alle går glipp av den virkelige historien her.
Dette er ikke en «prompting-teknikk». Artikkelen heter Recursive Language Models, ikke «Recursive Meta-Cognition». Og forfatterne er ikke tilfeldige forskere som jobber for å få sitering.
Omar Khattab skapte DSPy, som har 31 000+ GitHub-stjerner og endret hvordan folk bygger sammensatte AI-systemer. Tim Kraska var pioner innen lærte indeksstrukturer sammen med Jeff Dean hos Google og leder MITs Data Systems and AI Lab. Alex Zhang er doktorgradsstudent som jobber i skjæringspunktet mellom begge deler.
Selve artikkelen tar for seg et spesifikt problem: LLM-er forringes i lang kontekst. Grafen viser at GPT-5-ytelsen kollapser ettersom input-lengden skalerer fra 2^14 til 2^21 tokens, mens RLM-er opprettholder stabil ytelse. De håndterer input 100 ganger utenfor kontekstvinduene.
Den viktigste innsikten fra Khattabs egen Twitter: «De fleste misforstår RLM-er som handler om LLM-er som påkaller seg selv. Den dypere innsikten er LLM-er som samhandler med sine egne prompts som objekter.»
Dette utvider hele Khattabs forskningsbue. DSPy gjorde prompts om til programmatiske moduler. ColBERT gjorde henting smartere. RLM-er gjør konteksten selv om til noe modellen kan manipulere, som data i minnet.
Prime Intellect, et av de ledende desentraliserte AI-laboratoriene, bygger allerede videre på dette. De skrev at RLM-er vil la dem «lære modeller å håndtere sin egen kontekst fra ende til ende gjennom forsterkningslæring» for agenter som går over uker eller måneder.
Det virkelige yrket? Dette løser en begrensning som alle AI-laboratorier står overfor: kontekstvinduer er et hardt tak. Å utvide dem gjennom arkitektur og opplæring er kostbart. RLM-er tilbyr en inferenstidsmetode som fungerer med eksisterende modeller.
Men vær oppmerksom på haken: dette krever modeller som kan skrive og kjøre kode pålitelig. Benchmarkene bruker GPT-5 i en Python REPL. Modeller med svakere kodegenerering vil slite med å implementere den rekursive dekomponeringen rent. Teknikken skalerer med kodekapasitet, ikke bare resonnement.
Topp
Rangering
Favoritter
