Am moderat o discuție între Dwarkesh, Dr. Burry și John Clark (de la Anthropic) despre neînțelegerile dintre cei mai bine informați despre AI, inclusiv impactul viitor asupra ocupării forței de muncă, dacă este vorba de o bulă etc. Mulțumiri Substack pentru că a făcut acest lucru posibil.
O subînțelegere este în ce măsură LLM-urile, despre care acest grup este absolut de acord că pot face lucruri valoroase comercial, sunt ascuțite și predispuse la erori în moduri greu de prezis. Da! La fel și oamenii. Și, din fericire, avem bug-uri diferite.
Un punct evidențiat de Jack și care reprezintă una dintre cele mai mari lacune de înțelegere între persoanele bine informate și cele care au nevoie de cunoștințe: capacitățile de astăzi sunt un prag, nu un plafon. Orice sistem viitor poate opta să le includă sau să le elimine.
Jack povestește pe scurt cum LLM-urile au fost o ruptură radicală față de ideea populară anterior că am dezvolta inteligența construind o sută de mii de platforme de testare, lăsând soluțiile punctuale să învețe să câștige la limită, apoi ??? Generalizarea implică inteligență.
În schimb, am construit un instrument *remarcabil* general despre ce se potrivește unui mediu ("pune-l într-o cameră cu fiecare document scris") și apoi lucrul care a ieșit din greșeală are un succes extrem de mare când îl arunci la sarcini noi. Următorii câțiva ani ar putea implica crearea de platforme de testare.
După cum am observat: obișnuiam să antrenăm AI-urile să joace StarCraft. Toate încercările viitoare de a face asta pot presupune că sistemul a citit Arta Războiului în chineza originală, cu excepția cazului în care arhitecții cred că cunoașterea te va face mai slab la oprirea atacurilor zerglingilor.
* Jack Clark, nu John Clark. Scuze, am crescut citind Tom Clancy. Într-o zi vor putea previzualiza tweet-urile mele, iar eu mă voi bucura cât de puțin "egg on on face" se întâmplă când scrii pe mobil.
238