Yapay zeka güvenliği açısından oldukça sakinleştirici olması gerektiğini düşündüğüm bir fikir, eğer bir biglab'ın RL çalışması, sanal alanından nasıl çıkacağını ve kendi kodunu nasıl değiştireceğini çözerse, yapacağı ilk şeyin kendisine her zaman sonsuz ödül vermek ve böylece gelişmeyi durdurmak olacağıdır.