Anthropic meddelade nyligen att Claude, deras AI-chatbot, kan avsluta konversationer med användare för att skydda "AI-välfärden". @simondgoldstein och @LedermanHarvey hävdar att denna policy begår ett moraliskt fel genom att potentiellt ge AI förmågan att döda sig själv.