Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Ero particolarmente curioso di chiedere a @karpathy perché le auto a guida autonoma abbiano impiegato oltre un decennio per passare da dimostrazioni straordinarie a una certa implementazione. Andrej ha guidato l'AI in Tesla per 5 anni.
Volevo davvero sapere se queste frizioni dovrebbero allungare i nostri tempi per l'AGI, o se erano idiosincratiche alla guida autonoma.
La guida ha un costo di fallimento molto elevato. Gli esseri umani sono conducenti sorprendentemente affidabili - abbiamo un grave incidente ogni 400.000 miglia/7 anni. E le auto a guida autonoma devono eguagliare o superare questo profilo di sicurezza prima di poter essere implementate.
Ma la maggior parte dei settori è simile a questo? Prima dell'intervista, mi sembrava che quasi ogni settore in cui vorremmo inserire l'AGI avesse un costo di fallimento molto più basso. Se ingegneri del software completamente autonomi non potessero commettere errori per 7 anni, l'implementazione sarebbe davvero molto lenta.
Andrej ha fatto un punto interessante che non avevo mai sentito prima: rispetto alla guida autonoma, l'ingegneria del software ha un costo di fallimento più elevato (e potenzialmente illimitato):
> Se stai scrivendo codice di produzione reale, qualsiasi tipo di errore potrebbe portare a una vulnerabilità di sicurezza. Centinaia di milioni di numeri di previdenza sociale personali potrebbero essere divulgati.
> Nella guida autonoma, se le cose vanno male, potresti farti male. Ci sono esiti peggiori. Ma nel software, è quasi illimitato quanto possa essere terribile qualcosa.
> In alcuni modi, l'ingegneria del software è un problema molto più difficile [rispetto alla guida autonoma]. La guida autonoma è solo una delle migliaia di cose che le persone fanno. È quasi come un singolo verticale. Mentre quando parliamo di ingegneria del software generale, c'è una superficie più ampia.
Potrebbe esserci un'altra ragione per cui la transizione da LLM -> AGI ampiamente implementata potrebbe avvenire molto più rapidamente: gli LLM ci forniscono percezione, rappresentazioni e buon senso (per affrontare esempi fuori distribuzione) gratuitamente, mentre questi dovevano essere modellati da zero per le auto a guida autonoma. Ho chiesto ad Andrej di questo:
> Non so quanto stiamo ottenendo gratuitamente. Gli LLM sono ancora piuttosto fallibili e hanno molti gap che devono ancora essere colmati. Non penso che stiamo ottenendo una generalizzazione magica completamente pronta all'uso.
> L'altro aspetto a cui volevo tornare è che le auto a guida autonoma non sono ancora affatto finite. Le implementazioni sono piuttosto minime. Anche Waymo ha pochissime auto. Hanno costruito qualcosa che vive nel futuro. Hanno dovuto ritirare il futuro, ma hanno dovuto renderlo non economico.
> Inoltre, quando guardi queste auto e non c'è nessuno alla guida, c'è più umanità nel loop di quanto potresti aspettarti. In un certo senso, non abbiamo effettivamente rimosso la persona, l'abbiamo spostata in un luogo dove non puoi vederla.

Dwarkesh Patel18 ott 2025
L'intervista di @karpathy
0:00:00 – L'AGI è ancora a un decennio di distanza
0:30:33 – Deficit cognitivi degli LLM
0:40:53 – L'RL è terribile
0:50:26 – Come apprendono gli esseri umani?
1:07:13 – L'AGI si fonderà con una crescita del PIL del 2%
1:18:24 – ASI
1:33:38 – Evoluzione dell'intelligenza e della cultura
1:43:43 - Perché la guida autonoma ha impiegato così tanto
1:57:08 - Futuro dell'istruzione
Cerca il Dwarkesh Podcast su YouTube, Apple Podcasts, Spotify, ecc. Buon ascolto!
123,6K
Principali
Ranking
Preferiti
