這兩天 Vibe Coding 搞了個無用的小工具,隨便取名叫 slug2text,地址在這: 功能很簡單:它能幫你把大段文字,無損壓縮成一個 Link。 只要保存這個 Link,再次打開,原文就能自動解壓還原。 壓縮率取決於文字規模和重複度,但我實測下來,塞進一篇論文的長度也沒問題。但受限於 url 的長度,所以無法塞入太多內容。 其實做這個主要是為了兩個好奇: 1. GPT-5.2-Pro 能給出多極致的壓縮方案? 2. GPT-5.2 在 Codex 環境下的編程能力究竟如何? 結論:我也沒法評估壓縮率,但根據它自己的評估,好像已經很不錯了。工程實現上沒遇到問題, Codex 都是一次編譯即通過。