Anthropic hat kürzlich angekündigt, dass Claude, sein KI-Chatbot, Gespräche mit Nutzern beenden kann, um "das Wohl der KI" zu schützen. @simondgoldstein und @LedermanHarvey argumentieren, dass diese Politik einen moralischen Fehler begeht, indem sie der KI potenziell die Fähigkeit gibt, sich selbst zu töten.