1/ Voglio dichiararlo chiaramente: in tutti i settori, specialmente nell'AI, è importante sostenere i buoni. Anthropic è uno dei buoni. Altre riflessioni su perché dobbiamo alimentare l'innovazione e parlare di sicurezza allo stesso tempo:
Di solito cerco di evitare di commentare direttamente sui hyperscalers (ho guidato il primo round di OpenAI e Greylock è un investitore in Anthropic). Ma sento molto forte l'importanza di commentare qui. Direi quanto segue con la stessa fermezza anche se non esistesse alcun investimento.
Anthropic, insieme ad altri (inclusi Microsoft, Google e OpenAI) sta cercando di implementare l'AI nel modo giusto, in modo riflessivo, sicuro e enormemente vantaggioso per la società. Ecco perché tifo intensamente per il loro successo.
Alcuni altri laboratori stanno prendendo decisioni che chiaramente ignorano la sicurezza e l'impatto sociale (ad esempio, bot che a volte diventano completamente fascisti) e questa è una scelta. Lo è anche scegliere di non supportarli.
Argomenti estremi da entrambe le parti di una questione vengono spesso utilizzati per mettere da parte argomenti reali, riflessivi e logici. Farlo è intellettualmente disonesto o idiota.
Ridurre quella che dovrebbe essere una conversazione a livello sociale sull'uso responsabile della tecnologia AI a una serie di luoghi comuni o campanelli d'allarme non è utile per i miliardi di esseri umani le cui vite saranno cambiate dall'AI (la maggior parte dei quali non leggerà mai questo tweet).
In molti luoghi, incluso il mio libro di quest'anno SuperAgency, ho sostenuto con forza un panorama normativo leggero che dà priorità all'innovazione e consente ai nuovi attori di competere su un piano di parità.
Essere a favore della sicurezza dell'AI non significa essere a favore della polizia del linguaggio: ad esempio, ci sono argomenti critici sulla sicurezza dell'AI nella bio-sicurezza e nella sicurezza informatica che devono essere discussi.
Stiamo vivendo i benefici della rivoluzione industriale, ma la storia ci ha anche mostrato i grandi errori che l'umanità ha commesso nella transizione. Impariamo e innoviamo per affrontare la transizione molto meglio questa volta.
Fondamentalmente, il modo più sicuro per prevenire un futuro negativo è orientarsi verso uno migliore che, per la sua esistenza, rende significativamente più difficili da raggiungere risultati peggiori. In altre parole, lavora per un futuro migliore –– non cercare semplicemente di fermare un particolare futuro negativo immaginato.
Gli esiti doomer e bloomer dell'AI sono un insieme di probabilità, non certezze. Le nostre azioni inclinano costantemente le probabilità verso esiti migliori o peggiori.
Tutti noi nella valle abbiamo la responsabilità di "guidare" il futuro attraverso il dialogo e di trovare un modo per andare avanti che bilanci sicurezza, innovazione e umanesimo.
Questo non è affatto un punto di vista "radicale". La storia ci insegna che il cammino verso un mondo migliore passa attraverso il dialogo, la tecnologia e il dispiegamento iterativo. Anthropic, OpenAI e molti altri vivono questo ogni giorno.
902,13K