A Anthropic anunciou recentemente que Claude, seu chatbot de IA, pode encerrar conversas com usuários para proteger o "bem-estar da IA". @simondgoldstein e @LedermanHarvey argumentam que essa política comete um erro moral ao potencialmente dar à IA a capacidade de se matar.