Anthropic baru-baru ini mengumumkan bahwa Claude, chatbot AI-nya, dapat mengakhiri percakapan dengan pengguna untuk melindungi "kesejahteraan AI." @simondgoldstein dan @LedermanHarvey berpendapat bahwa kebijakan ini melakukan kesalahan moral dengan berpotensi memberi AI kapasitas untuk bunuh diri.