Anthropic a anunțat recent că Claude, chatbot-ul său AI, poate încheia conversațiile cu utilizatorii pentru a proteja "bunăstarea AI". @simondgoldstein și @LedermanHarvey susțin că această politică comite o eroare morală, oferind potențial AI capacitatea de a se sinucide.