Gần đây tôi đã đọc "Nếu ai đó xây dựng nó, mọi người sẽ chết" của @ESYudkowsky và @So8res. Một cách để tóm tắt lập luận là như sau: 1. Trong một kịch bản tăng tốc nhanh, gần như chắc chắn rằng nhân loại sẽ bị tiêu diệt. 2. Chúng ta không biết liệu chúng ta chỉ còn một tháng, một năm, hay một thập kỷ nữa, trước khi có một cải tiến đưa chúng ta vào một kịch bản tăng tốc nhanh. 3. Dựa trên các tiền đề 1 và 2, chúng ta nên ngừng phát triển AI và tạo ra các hiệp ước quốc tế để thực thi sự tuân thủ.