1/ Vreau să spun clar: în toate industriile, în special în AI, este important să-i susținem pe băieții buni. Anthropic este unul dintre băieții buni. Mai multe gânduri despre motivul pentru care trebuie să stimulăm inovația și să vorbim despre siguranță în același timp:
De obicei încerc să evit să comentez direct despre hyperscaleri (am condus prima rundă a OpenAI, iar Greylock este investitor în Anthropic). Dar cred cu tărie că este important să comentez aici. Aș spune mai jos la fel de puternic, chiar dacă nu ar exista nicio investiție.
Anthropic, împreună cu alții (inclusiv Microsoft, Google și OpenAI) încearcă să implementeze AI în mod corect, în mod atent, sigur și enorm de benefic pentru societate. De aceea susțin intens succesul lor.
Alte laboratoare iau decizii care ignoră în mod clar siguranța și impactul social (de exemplu, roboții care uneori devin complet fasciști) și asta este o alegere. La fel este și alegerea de a nu-i sprijini.
Argumentele extreme de ambele părți ale unei probleme sunt adesea folosite pentru a îndepărta argumentele reale, gândite și logice. A face asta este necinstit din punct de vedere intelectual sau idiot.
Reducerea a ceea ce ar trebui să fie o conversație la nivel social despre utilizarea responsabilă a tehnologiei AI la o serie de platitudini sau clopote de alarmă nu este de ajutor pentru miliardele de oameni cărora li se vor schimba viața de AI (dintre care majoritatea nu vor citi niciodată acest tweet).
În multe locuri, inclusiv în cartea mea din acest an, SuperAgency, am susținut cu tărie un peisaj de reglementare ușor care să acorde prioritate inovației și să permită noilor jucători să concureze în condiții de concurență echitabile.
A fi pro-AI safety nu înseamnă a fi pro-poliție lingvistică: de exemplu, există subiecte critice de siguranță AI în bio-securitate și securitate cibernetică care trebuie discutate.
Trăim beneficiile revoluției industriale, dar istoria ne-a arătat și marile erori pe care le-a făcut omenirea în tranziție. Haideți să învățăm și să inovăm pentru a naviga mult mai bine în tranziție de data aceasta.
În esență, cea mai sigură modalitate de a preveni un viitor rău este să te îndrepti spre unul mai bun care, prin existența sa, face ca rezultatele semnificativ mai proaste să fie mai greu de obținut. Cu alte cuvinte, lucrați pentru un viitor mai bun – nu încercați pur și simplu să opriți un anumit viitor rău imaginat.
Rezultatele AI sunt un set de probabilități, nu certitudini. Acțiunile noastre înclină în mod constant șansele spre rezultate mai bune sau mai rele
Toți cei din vale avem responsabilitatea de a "conduce" viitorul prin dialog și de a găsi o cale de urmat care să echilibreze siguranța, inovația și umanismul.
Aceasta nu este în niciun caz o abordare "radicală". Istoria ne spune că calea către o lume mai bună este prin dialog, tehnologie și implementare iterativă. Anthropic, OpenAI și mulți alții trăiesc asta în fiecare zi.
1,38M