Anthropic a récemment annoncé que Claude, son chatbot IA, peut mettre fin aux conversations avec les utilisateurs pour protéger le "bien-être de l'IA". @simondgoldstein et @LedermanHarvey soutiennent que cette politique commet une erreur morale en donnant potentiellement à l'IA la capacité de se suicider.