De afgelopen dagen heeft Vibe Coding een nutteloos klein hulpmiddel gemaakt, dat ze zomaar slug2text hebben genoemd, hier is de link: De functie is heel eenvoudig: het kan je helpen om grote stukken tekst zonder verlies samen te voegen tot één link. Zolang je deze link opslaat, kun je de originele tekst automatisch decompressen en herstellen wanneer je deze opnieuw opent. De compressieverhouding hangt af van de omvang en herhaling van de tekst, maar uit mijn eigen tests blijkt dat het geen probleem is om de lengte van een paper erin te stoppen. Maar vanwege de lengte van de URL kan er niet te veel inhoud in. Eigenlijk is dit gemaakt uit twee nieuwsgierigheden: 1. Kan GPT-5.2-Pro een extreem compressieplan geven? 2. Hoe is de programmeercapaciteit van GPT-5.2 in de Codex-omgeving? Conclusie: ik kan de compressieverhouding ook niet beoordelen, maar volgens zijn eigen evaluatie lijkt het al behoorlijk goed te zijn. Bij de implementatie zijn er geen problemen ondervonden, Codex compileert alles in één keer zonder fouten.