Ich habe kürzlich „Wenn jemand es baut, sterben alle“ von @ESYudkowsky und @So8res gelesen. Eine Möglichkeit, das Argument zusammenzufassen, ist wie folgt: 1. In einem schnellen Start-Szenario ist es praktisch sicher, dass die Menschheit ausgelöscht wird. 2. Wir wissen nicht, ob wir einen Monat, ein Jahr oder ein Jahrzehnt von einer Verbesserung entfernt sind, die uns in ein schnelles Start-Szenario bringen würde. 3. Angesichts der Prämissen 1 und 2 sollten wir die Entwicklung von KI einstellen und internationale Verträge schaffen, um die Einhaltung durchzusetzen.