Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
W ciągu ostatnich dwóch dni Vibe Coding stworzyło małe, nieprzydatne narzędzie, które nazwali slug2text, a oto jego adres:
Funkcja jest bardzo prosta: może pomóc w bezstratnym skompresowaniu dużych fragmentów tekstu do jednego linku.
Wystarczy zapisać ten link, a po ponownym otwarciu oryginalny tekst zostanie automatycznie rozpakowany.
Współczynnik kompresji zależy od skali tekstu i stopnia powtarzalności, ale z moich testów wynika, że zmieszczenie długości pracy naukowej nie stanowi problemu. Jednak ze względu na długość URL nie można wprowadzić zbyt wielu treści.
Właściwie to zrobiłem to głównie z dwóch powodów ciekawości:
1. Jak ekstremalne rozwiązania kompresji może zaproponować GPT-5.2-Pro?
2. Jakie są umiejętności programistyczne GPT-5.2 w środowisku Codex?
Wnioski: Nie mogę ocenić współczynnika kompresji, ale według jego własnej oceny wydaje się być całkiem niezły. W realizacji inżynieryjnej nie napotkałem problemów, Codex przeszedł wszystkie kompilacje za pierwszym razem.

Najlepsze
Ranking
Ulubione
