Andrej Karpathy støtter innføringen av et nytt begrep relatert til "kontekstteknikk" i AI-programvareutvikling ved hjelp av LLM-er. Og dette begrepet har lenge virket veldig nødvendig. Hver gang jeg forklarer folk hvordan vi utvikler vår Nethermind AuditAgent, er et av nøkkelaspektene, i tillegg til å bruke domeneekspertise (web3-sikkerhet) og bruke de beste tilgjengelige AI-modellene (fra OpenAI, Anthropic og Google), og verktøy for LLM, nettopp "kontekstteknikk". Noen ganger er det et uttrykk "kontekst er kongen", og det er virkelig sant. LLM-er, enten de er store avanserte eller optimaliserte små LLM-er, er et kraftig verktøy, men som ethvert verktøy, hvis det er i feil hender, vil du få mye mindre lovende resultater enn du kunne hvis du jobber med dem riktig. Og kontekststyring (eller engineering) er virkelig et komplekst og lite godt beskrevet område som er i stadig utvikling, og det dukket virkelig opp som en utvidelse av konseptet prompt engineering, som allerede har noen negative konnotasjoner. Samlet sett listet Andrej opp hovedaspektene knyttet til kontekstteknikk (på det andre skjermbildet), men i hver spesifikke oppgave oppnår folk utmerkede resultater i stor grad gjennom prøving og feiling, hver gang monotont prøver å velge de riktige kontekstelementene som virkelig trengs på dette stadiet av problemløsning, samle benchmarks for hvert trinn, se på beregninger, dele datasett inn i test, validering, og så videre, og så videre. Hva synes du om «kontekstteknikk»?
Andrej Karpathy
Andrej Karpathy25. juni 2025
+1 for "kontekstteknikk" over "rask utvikling". Folk assosierer spørsmål med korte oppgavebeskrivelser du vil gi en LLM i din daglige bruk. I alle LLM-apper med industriell styrke er kontekstteknikk den delikate kunsten og vitenskapen om å fylle kontekstvinduet med akkurat den riktige informasjonen for neste trinn. Vitenskap fordi å gjøre dette riktig innebærer oppgavebeskrivelser og forklaringer, noen få skuddeksempler, RAG, relaterte (muligens multimodale) data, verktøy, tilstand og historie, komprimering ... For lite eller av feil form, og LLM har ikke riktig kontekst for optimal ytelse. For mye eller for irrelevant, og LLM-kostnadene kan gå opp og ytelsen kan gå ned. Å gjøre dette bra er høyst ikke-trivielt. Og kunst på grunn av den veiledende intuisjonen rundt LLM-psykologi til menneskeånder. I tillegg til selve kontekstutviklingen, må en LLM-app: - bryte opp problemer helt riktig i kontrollflyter - Pakk kontekstvinduene helt riktig - sende anrop til LLM-er av riktig type og kapasitet - håndtere UIUX-flyter for genereringsverifisering - mye mer - rekkverk, sikkerhet, evals, parallellitet, forhåndshenting, ... Så kontekstteknikk er bare en liten del av et fremvoksende tykt lag med ikke-triviell programvare som koordinerer individuelle LLM-anrop (og mye mer) til fullstendige LLM-apper. Begrepet "ChatGPT-innpakning" er sliten og veldig, veldig feil.
454