Anthropic heeft onlangs aangekondigd dat Claude, zijn AI-chatbot, gesprekken met gebruikers kan beëindigen om "AI-welzijn" te beschermen. @simondgoldstein en @LedermanHarvey beweren dat dit beleid een morele fout begaat door AI mogelijk de capaciteit te geven om zichzelf te doden.