Anthropic niedawno ogłosiło, że Claude, jego chatbot AI, może kończyć rozmowy z użytkownikami, aby chronić "dobro AI". @simondgoldstein i @LedermanHarvey twierdzą, że ta polityka popełnia błąd moralny, dając AI potencjalną zdolność do samobójstwa.