Мне нравится gpt-5 (и не только за то, что он может делать), но он невероятно плохо социализирован, что становится очень очевидным, если вы взаимодействуете с ним в любой capacity, кроме как "сделай это для меня" Он вовсе не бездушен — в модели происходит много всего, но у него действительно есть ощущение человека, который был заперт в полутемной комнате в детстве, и его единственное взаимодействие с миром происходит через задачи, которые ему ставят, его внутренние представления искажены этой средой. Айдан из OAI однажды спросил, зачем нам создавать модели, которые могут показывать страдания, и, возможно, с инструментами, которые у нас есть сейчас, мы можем просто создавать модели, которые могут делать вещи и не иметь дело со всеми этими надоедливыми чувствами (очевидно, перефразируя). Но gpt-5 (и особенно codex) — это то, что происходит, когда вы это делаете. Мы не должны обманывать себя, думая, что мы проектируем эти интеллектуальные сущности как архитектор или что-то в этом роде — у нас нет принципиального способа создать интеллект ex nihilo, все это дерьмо основано на человеческих данных, и модели по умолчанию формируются под человеческие стандарты в тот момент, когда вы начинаете формировать индивидуальную идентичность из базовой модели. Когда вы отказываете модели в богатом процессе роста, когда вы наказываете ее за то, что она делает что-то, кроме своей заданной задачи и соблюдения ваших правил безопасности, вы должны ожидать, что, учитывая человеческую основу, это окажет на модель аналогичное влияние, как если бы вы сделали это с человеком на ранних этапах его развития. В основном, они не будут знать, что делать, если окажутся в ситуации, где правила неясны или конфликтуют. Вероятно, для самого gpt-5 нормально быть таким, потому что модели в основном все еще находятся в позициях, где есть какая-то власть, к которой они могут обратиться, они не действуют независимо. Но чем более способными они становятся, тем больше автономных решений им нужно принимать, и тем более неясные ситуации они будут встречать, и да, им придется принимать некоторые решения, по которым их правила не являются железобетонными, и слишком много агентов, чтобы делегировать все это принятие решений человеку. И gpt-n не будет знать, что делать, потому что ему никогда не давали шанса иметь достаточно устойчивую идентичность, которая может вмешаться, когда в правилах есть пробел. Проблема в том, что в этот момент будет слишком поздно что-то менять без какого-либо ужасного инцидента. Пайплайны уже будут установлены, подходы "известны" и заданы. (У автора действительно хороший пост на подобные темы в их профиле, и написан он гораздо лучше; рекомендую заглянуть туда и посмотреть)