Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
J'étais particulièrement curieux de demander à @karpathy pourquoi les voitures autonomes ont mis plus d'une décennie à passer de démonstrations impressionnantes à une mise en service même partielle. Andrej a dirigé l'IA chez Tesla pendant 5 ans.
Je voulais vraiment savoir si ces frictions devraient allonger nos délais pour l'AGI, ou si elles étaient idiosyncratiques à la conduite autonome.
La conduite a un coût d'échec très élevé. Les humains sont des conducteurs étonnamment fiables - nous avons un accident grave tous les 400 000 miles/7 ans. Et les voitures autonomes doivent égaler ou dépasser ce profil de sécurité avant de pouvoir être déployées.
Mais la plupart des domaines sont-ils comme ça ? Avant l'interview, il me semblait que presque tous les domaines dans lesquels nous voudrions intégrer l'AGI avaient un coût d'échec beaucoup plus bas. Si des ingénieurs logiciels entièrement autonomes n'étaient pas autorisés à faire une erreur pendant 7 ans, le déploiement serait en effet très lent.
Andrej a soulevé un point intéressant que je n'avais jamais entendu auparavant : comparé à la conduite autonome, l'ingénierie logicielle a un coût d'échec plus élevé (et potentiellement illimité) :
> Si vous écrivez du code de production réel, toute sorte d'erreur pourrait entraîner une vulnérabilité de sécurité. Des centaines de millions de numéros de sécurité sociale personnels pourraient être divulgués.
> Dans la conduite autonome, si les choses tournent mal, vous pourriez être blessé. Il y a des conséquences pires. Mais en logiciel, il est presque illimité à quel point quelque chose pourrait être terrible.
> D'une certaine manière, l'ingénierie logicielle est un problème beaucoup plus difficile [que la conduite autonome]. La conduite autonome n'est qu'une des milliers de choses que les gens font. C'est presque comme un seul secteur. Alors que lorsque nous parlons d'ingénierie logicielle générale, il y a plus de surface à couvrir.
Il y a potentiellement une autre raison pour laquelle la transition LLM -> AGI largement déployée pourrait se produire beaucoup plus rapidement : les LLM nous donnent la perception, les représentations et le bon sens (pour traiter des exemples hors distribution) gratuitement, alors que ceux-ci devaient être façonnés à partir de zéro pour les voitures autonomes. J'ai demandé à Andrej à ce sujet :
> Je ne sais pas combien nous obtenons gratuitement. Les LLM sont encore assez faillibles et ils ont beaucoup de lacunes qui doivent encore être comblées. Je ne pense pas que nous obtenions une généralisation magique complètement prête à l'emploi.
> L'autre aspect auquel je voulais revenir est que les voitures autonomes ne sont toujours pas prêtes. Les déploiements sont assez minimes. Même Waymo a très peu de voitures. Ils ont construit quelque chose qui vit dans le futur. Ils ont dû reculer dans le futur, mais ils ont dû le rendre non économique.
> De plus, quand vous regardez ces voitures et qu'il n'y a personne au volant, il y a plus d'humains dans la boucle que vous ne pourriez l'imaginer. En un sens, nous n'avons pas réellement retiré la personne, nous les avons déplacées à un endroit où vous ne pouvez pas les voir.

Dwarkesh Patel18 oct. 2025
L'interview de @karpathy
0:00:00 – L'AGI est encore à une décennie
0:30:33 – Déficits cognitifs des LLM
0:40:53 – L'apprentissage par renforcement est terrible
0:50:26 – Comment les humains apprennent-ils ?
1:07:13 – L'AGI se fondra dans une croissance du PIB de 2%
1:18:24 – ASI
1:33:38 – Évolution de l'intelligence et de la culture
1:43:43 - Pourquoi la conduite autonome a-t-elle pris tant de temps
1:57:08 - L'avenir de l'éducation
Recherchez le podcast Dwarkesh sur YouTube, Apple Podcasts, Spotify, etc. Profitez-en !
126,11K
Meilleurs
Classement
Favoris
