W ciągu ostatnich dwóch dni Vibe Coding stworzyło małe, nieprzydatne narzędzie, które nazwali slug2text, a oto jego adres: Funkcja jest bardzo prosta: może pomóc w bezstratnym skompresowaniu dużych fragmentów tekstu do jednego linku. Wystarczy zapisać ten link, a po ponownym otwarciu oryginalny tekst zostanie automatycznie rozpakowany. Współczynnik kompresji zależy od skali tekstu i stopnia powtarzalności, ale z moich testów wynika, że zmieszczenie długości pracy naukowej nie stanowi problemu. Jednak ze względu na długość URL nie można wprowadzić zbyt wielu treści. Właściwie to zrobiłem to głównie z dwóch powodów ciekawości: 1. Jak ekstremalne rozwiązania kompresji może zaproponować GPT-5.2-Pro? 2. Jakie są umiejętności programistyczne GPT-5.2 w środowisku Codex? Wnioski: Nie mogę ocenić współczynnika kompresji, ale według jego własnej oceny wydaje się być całkiem niezły. W realizacji inżynieryjnej nie napotkałem problemów, Codex przeszedł wszystkie kompilacje za pierwszym razem.