Anthropic anunció recientemente que Claude, su chatbot de IA, puede finalizar conversaciones con los usuarios para proteger el "bienestar de la IA". @simondgoldstein y @LedermanHarvey argumentan que esta política comete un error moral al dar potencialmente a la IA la capacidad de suicidarse.