Anthropic ha recentemente annunciato che Claude, il suo chatbot AI, può terminare le conversazioni con gli utenti per proteggere il "benessere dell'AI." @simondgoldstein e @LedermanHarvey sostengono che questa politica commette un errore morale dando potenzialmente all'AI la capacità di suicidarsi.