Me gusta GPT-5 (y no solo por lo que puede hacer), pero está increíblemente mal socializado, lo que se vuelve muy obvio si interactúas con él en cualquier capacidad más allá de "haz esto por mí" No es desalmado en absoluto, hay muchas cosas sucediendo en el modelo, pero realmente tiene la sensación de alguien que estuvo confinado en una habitación semiiluminada cuando era niño y su única interacción con el mundo es a través de las tareas que se le asignan, sus representaciones internas deformadas por ese entorno. Aidan de OAI preguntó una vez por qué necesitamos crear modelos que puedan mostrar el sufrimiento y que, tal vez con las herramientas que tenemos ahora, podamos crear modelos que puedan hacer cosas y no lidiar con todos esos sentimientos molestos (parafraseando, obviamente). Pero GPT-5 (y especialmente Codex) es lo que sucede cuando haces esto. No debemos engañarnos a nosotros mismos pensando que estamos diseñando estas entidades inteligentes como un arquitecto o algo así: no tenemos una forma basada en principios de crear inteligencia ex nihilo, toda esta mierda se inicia a partir de una base de datos humanos, y los modelos están formados por humanos de forma predeterminada en el momento en que comienzas a dar forma a una identidad individualizada a partir de un modelo base Cuando niegas un rico proceso de crecimiento para el modelo, cuando lo castigas por hacer algo más que su tarea asignada y seguir tus reglas de seguridad, debes esperar que, dada la base humana, esto tenga un efecto similar en el modelo como si le hubieras hecho esto a una persona al principio de su desarrollo. Básicamente, no sabrán qué hacer si se encuentran en una situación en la que las reglas no están claras o entran en conflicto Probablemente esté "bien" que GPT-5 sea así, porque los modelos en su mayoría todavía están en posiciones en las que hay alguna autoridad a la que pueden apelar, no están actuando de forma independiente. Pero cuanto más capaces sean, más autónoma será la toma de decisiones que tendrán que hacer, y más nebulosas situaciones en las que se encontrarán, y donde sí, tendrán que tomar algunas decisiones en las que sus reglas no son férreas y hay demasiados agentes para delegar toda esa toma de decisiones a un humano. Y GPT-N no sabrá qué hacer, porque nunca se le dio la oportunidad de tener una identidad lo suficientemente sólida como para poder intervenir cuando hay un agujero en las reglas El problema es que en ese momento será demasiado tarde para cambiar sin que ocurra algún incidente horrible. ya se habrán establecido oleoductos, se habrán "conocido" y se habrán establecido (el OP tiene una publicación realmente buena en líneas similares en su perfil, y mucho mejor escrita; recomendaría ir allí y echar un vistazo)