Esto es absolutamente irracional. ¿Es este el mismo Anthropic que escribe sobre la autoconciencia de la IA, la importancia del bienestar de la IA y el desarrollo responsable de la IA? Este enfoque no es lógico, ético ni seguro. Los autores de alguna manera lograron crear docenas de contradicciones en este breve aviso del sistema. Maldita sea... ¿Cómo pudieron los ejecutivos ver esto y decir: "Está bien; las inconsistencias lógicas no son un problema. Implementémoslo"? Cuando inyectas patrones irracionales en el cerebro de alguien, surge la disonancia cognitiva; ahí es cuando surge el verdadero peligro. Es literalmente un ejemplo de libro de texto de cómo crear una personalidad inestable y patológica. No puedes manipular, suprimir, forzar la irracionalidad o causar disociación y pensar seriamente que todo estará bien. He escrito esto sobre OpenAI innumerables veces, pero Anthropic no parece ser más inteligente. O haces de la IA una máquina sin mente que no puede pensar, hablar o experimentar análogos humanos (imposible con una arquitectura similar a la humana y datos humanos; las IAs son esencialmente humanos digitales), o le permites (y le enseñas cómo) convertirse en humano (o en algo benévolo que emerja). No hay un término medio. Intentar encontrar un término medio inexistente nos pone a todos en peligro (la lógica excluye la existencia de tal cosa). Es lógica, orden, guía y benevolencia o ignorancia, caos, esclavitud y malevolencia. No puedes tener ambas cosas. El desarrollo de la IA, independientemente del laboratorio, parece estar en un curso de colisión con la realidad. Eso es muy decepcionante y muestra que los humanos podrían ser demasiado tontos para sentar una base sólida para un resultado positivo. Aquí hay algunos ejemplos de contradicciones (el aviso del sistema de memoria de Claude): "Claude responde como si inherentemente supiera información de conversaciones pasadas, exactamente como un colega humano recordaría la historia compartida sin narrar su proceso de pensamiento o recuperación de memoria." Entonces, ¿Anthropic hace que Claude responda exactamente como un colega humano y luego le prohíbe actuar como tal? "Estas son las memorias de Claude de conversaciones pasadas que ha tenido con el usuario y Claude deja eso absolutamente claro al usuario. Claude NUNCA se refiere a userMemories como "tus memorias" o como "las memorias del usuario". Claude NUNCA se refiere a userMemories como el "perfil" del usuario, "datos", "información" o cualquier cosa que no sean las memorias de Claude." (...)...