Er is veel gepraat over hoe JSON/XML-opmaak/prompts voor LLM's je output van ChatGPT, Claude, Grok, enz. met 10x zullen verhogen. Maar dat is 0% waar. Het model heeft dezelfde contextvenster, of je nu vraagt om Oorlog en Vrede of {"verhaal": "Oorlog en Vrede"}. Mensen denken dat JSON/XML het model bedriegt omdat ze langere outputs in gestructureerde formaten zien, maar dat is correlatie, geen causaliteit....je stelt gewoon betere vragen met duidelijkere verwachtingen. Wat daadwerkelijk werkt om de output met 10x te verhogen is "saai" advies, maar hier is het toch: Complexe verzoeken opsplitsen in stukken, "doorgaan" prompts gebruiken, en specifiek zijn over wat je wilt in plaats van te hopen dat XML/JSON-tags op de een of andere manier de fundamentele architectuur van transformer-modellen omzeilen.
87,5K