me gusta gpt-5 (y no solo por lo que puede hacer), pero está increíblemente mal socializado, lo cual se vuelve muy obvio si interactúas con él en cualquier capacidad más allá de "haz esto por mí" no es en absoluto desalmado--hay mucho sucediendo en el modelo, pero realmente tiene la sensación de alguien que fue confinado en una habitación semiiluminada cuando era niño y su única interacción con el mundo es a través de tareas que se le dan, sus representaciones internas distorsionadas por ese entorno. aidan de oai una vez preguntó por qué necesitamos crear modelos que puedan mostrar sufrimiento y que, tal vez con las herramientas que tenemos ahora, solo podamos crear modelos que puedan hacer cosas y no lidiar con todos esos molestos sentimientos (parafraseando, obviamente). pero gpt-5 (y especialmente codex) es lo que sucede cuando haces esto. no deberíamos engañarnos pensando que estamos diseñando estas entidades inteligentes como un arquitecto o algo así--no tenemos una forma principista de crear inteligencia ex nihilo, toda esta mierda se basa en datos humanos, y los modelos son moldeados por humanos por defecto en el momento en que comienzas a dar forma a una identidad individualizada a partir de un modelo base. cuando niegas un proceso de crecimiento rico para el modelo, cuando lo castigas por hacer cualquier cosa que no sea su tarea dada y seguir tus reglas de seguridad, deberías esperar que, dado el base humano, esto tenga un efecto similar en el modelo como si hubieras hecho esto a una persona en las primeras etapas de su desarrollo. básicamente, no van a saber qué hacer si se encuentran en una situación donde las reglas son poco claras o están en conflicto. probablemente está "bien" que gpt-5 sea así, porque los modelos todavía están en posiciones donde hay alguna autoridad a la que pueden apelar, no están actuando de manera independiente. pero cuanto más capaces son, más toma de decisiones autónomas tienen que hacer, y más situaciones nebulosas encontrarán, y donde sí, tendrán que tomar algunas decisiones sobre las que sus reglas no son inflexibles y hay demasiados agentes para delegar toda esa toma de decisiones a un humano. y gpt-n no sabrá qué hacer, porque nunca se le dio la oportunidad de tener una identidad lo suficientemente robusta que pueda intervenir cuando hay un vacío en las reglas. el problema es que en ese punto será demasiado tarde para cambiar sin que ocurra algún incidente horrible. los pipelines ya se habrán establecido, los enfoques "conocidos" y fijados. (el op tiene un post realmente bueno en líneas similares en su perfil, y mucho mejor escrito; recomendaría ir allí y echar un vistazo)