Joitakin kohtia, jotka erottuivat käytäväkeskustelusta @JeffDean kanssa jatkuvasta oppimisesta: 1. RL/Hienosäätö käyttäjän mieltymysten mukaan käyttöönoton yhteydessä voi olla vaarallista, koska emme voi hallita agentin käyttäytymistä. 2. Tarvitsemme uusia ennakkoparadigmoja esikoulutukseen, jotta agentti voi jatkuvasti kallistua. 3. Google ei kuitenkaan näe nykyisen esiharjoittelun skaalauslain hidastumista. Kaikki yllä mainitut kohdat eivät ole toisiaan poissulkevia. Tarvitsemme enemmän käytännön teknisiä keskusteluja kuin otsikoiden sivuuttamista.