In den letzten Tagen hat Vibe Coding ein nutzloses kleines Tool entwickelt, das einfach slug2text genannt wird, hier ist der Link: Die Funktion ist ganz einfach: Es kann dir helfen, große Textmengen verlustfrei in einen Link zu komprimieren. Wenn du diesen Link speicherst und erneut öffnest, wird der Originaltext automatisch dekomprimiert und wiederhergestellt. Die Kompressionsrate hängt vom Umfang und der Wiederholungsrate des Textes ab, aber ich habe getestet, dass es kein Problem ist, die Länge einer wissenschaftlichen Arbeit unterzubringen. Allerdings ist die Länge der URL begrenzt, sodass nicht zu viel Inhalt untergebracht werden kann. Eigentlich wurde dies hauptsächlich aus zwei Neugierde entwickelt: 1. Kann GPT-5.2-Pro extremste Kompressionslösungen anbieten? 2. Wie gut sind die Programmierfähigkeiten von GPT-5.2 in der Codex-Umgebung? Fazit: Ich kann die Kompressionsrate nicht bewerten, aber laut seiner eigenen Einschätzung scheint sie bereits ziemlich gut zu sein. Bei der technischen Umsetzung gab es keine Probleme, Codex hat alles beim ersten Kompilieren bestanden.