Anthropic は最近、同社の AI チャットボットである Claude が「AI 福祉」を守るためにユーザーとの会話を終了できると発表しました。@simondgoldsteinと@LedermanHarveyは、このポリシーは AI に自殺する能力を与える可能性があり、道徳的誤りを犯していると主張しています。