Много разговоров о том, как форматирование/подсказки JSON/XML для LLM увеличат вашу продуктивность в ChatGPT, Claude, Grok и т.д. Но это 0% правда. Модель имеет одно и то же окно контекста, независимо от того, спрашиваете ли вы о "Войне и мире" или {"story": "Война и мир"}. Люди думают, что JSON/XML обманывает модель, потому что они видят более длинные выводы в структурированных форматах, но это корреляция, а не причинно-следственная связь... вы просто задаете лучшие вопросы с более четкими ожиданиями. Что действительно работает для увеличения продуктивности в 10 раз, это "скучный" совет, но вот он: Разделение сложных запросов на части, использование подсказок "продолжить" и конкретизация того, что вы хотите, вместо того чтобы надеяться, что теги XML/JSON как-то обойдут фундаментальную архитектуру трансформерных моделей.
80,6K