Anthropic anunció recientemente que Claude, su chatbot de IA, puede poner fin a las conversaciones con los usuarios para proteger el "bienestar de la IA". @simondgoldstein y @LedermanHarvey argumentan que esta política comete un error moral al dar potencialmente a la IA la capacidad de suicidarse.