Ho moderato una discussione tra Dwarkesh, il Dr. Burry e John Clark (di Anthropic) sulle divergenze tra il gruppo di persone meglio informate sull'AI, incluso l'impatto futuro sull'occupazione, se si tratta di una bolla, ecc. Grazie a Substack per aver reso tutto ciò possibile.
Una sotto-discordanza riguarda a che grado i LLM, sui quali questo gruppo è assolutamente d'accordo nel ritenere che possano fare cose di valore commerciale, siano irregolari e soggetti a errori in modi difficili da prevedere. Sì! Anche gli esseri umani lo sono. E fortunatamente abbiamo bug diversi.
Un punto evidenziato da Jack e che rappresenta uno dei maggiori divari di comprensione tra le persone ben informate e quelle che devono essere ben informate: le capacità di oggi sono un pavimento piuttosto che un soffitto. Qualsiasi sistema futuro può scegliere di adottarle o scartarle.
Jack racconta brevemente come i LLM siano stati una netta rottura rispetto alla precedente idea popolare secondo cui avremmo sviluppato intelligenza costruendo centomila ambienti di prova, facendo apprendere a soluzioni specifiche come vincere in modo ristretto, poi ??? la generalizzazione implica intelligenza.
Invece, abbiamo costruito uno strumento *notevolmente* generale su cosa si riduce a un ambiente ("mettilo in una stanza con ogni documento scritto") e poi la cosa che ne è uscita si è rivelata incredibilmente efficace quando la si applica a nuovi compiti. I prossimi anni potrebbero comportare la creazione di ambienti di prova.
Come ho osservato: addestravamo le IA a giocare a StarCraft. Tutti i futuri tentativi di farlo possono assumere che il sistema abbia letto L'arte della guerra in cinese originale, a meno che l'architetto(i) non credano che quella conoscenza ti renda peggiore nel fermare le cariche di zergling.
* Jack Clark, non John Clark. Scusa, sono cresciuto leggendo Tom Clancy. Un giorno saranno in grado di visualizzare in anteprima i miei tweet, e gioirò di quanto meno imbarazzo ci sia quando scrivo da mobile.
248