過去2日間で、Vibe Codingは役に立たないガジェットを作り出しました。それは仮にslug2textと呼ばれ、住所はこちらです: 機能はシンプルで、大きなテキストの塊をロスレスに圧縮して一つのリンクにまとめるのに役立ちます。 このリンクを保存して再度開くと、元のテキストは自動的に解凍され復元されます。 圧縮率はテキストのサイズや繰り返しによって異なりますが、私が測定した限りでは、論文の長さは問題ありません。 しかし、URLの長さのため、あまり多くのコンテンツを詰め込むことはできません。 実は、主に二つの好奇心からそうしました。 1. GPT-5.2-Proはどれだけの究極の圧縮ソリューションを提供できるか? 2. Codex環境におけるGPT-5.2のプログラミング能力とは具体的にどのようなものですか? 結論:圧縮比も評価できませんが、自身の評価によるとかなり良いようです。 工学的な実装には問題がなく、Codexは一つのコンパイルで合格しています。