Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Ich war besonders neugierig zu fragen, warum selbstfahrende Autos über ein Jahrzehnt von großartigen Demofahrten bis hin zu einer gewissen Bereitstellung benötigten. Andrej leitete 5 Jahre lang die KI bei Tesla.
Ich wollte wirklich wissen, ob diese Reibungen unsere AGI-Zeitpläne verlängern sollten oder ob sie idiosynkratisch für das autonome Fahren waren.
Fahren hat eine wirklich hohe Fehlerrate. Menschen sind überraschend zuverlässige Fahrer - wir haben alle 400.000 Meilen/7 Jahre einen schweren Unfall. Und selbstfahrende Autos müssen dieses Sicherheitsprofil erreichen oder übertreffen, bevor sie eingesetzt werden können.
Aber sind die meisten Bereiche so? Vor dem Interview schien es mir, dass fast jeder Bereich, in den wir AGI integrieren möchten, eine viel niedrigere Fehlerrate hat. Wenn vollautonome Software-Ingenieure 7 Jahre lang keinen Fehler machen dürften, wäre der Einsatz in der Tat super langsam.
Andrej machte einen interessanten Punkt, den ich vorher noch nicht gehört hatte: Im Vergleich zum autonomen Fahren hat Software-Engineering eine höhere (und potenziell unbegrenzte) Fehlerrate:
> Wenn du tatsächlichen produktionsreifen Code schreibst, könnte jeder Fehler zu einer Sicherheitsanfälligkeit führen. Hunderte Millionen persönlicher Sozialversicherungsnummern könnten geleakt werden.
> Im autonomen Fahren, wenn etwas schiefgeht, könntest du verletzt werden. Es gibt schlimmere Ergebnisse. Aber in der Software ist es fast unbegrenzt, wie schrecklich etwas sein könnte.
> In gewisser Weise ist Software-Engineering ein viel schwierigeres Problem [als autonomes Fahren]. Autonomes Fahren ist nur eines von Tausenden von Dingen, die Menschen tun. Es ist fast wie ein einzelnes vertikales Segment. Während wir beim allgemeinen Software-Engineering von mehr Fläche sprechen.
Es gibt möglicherweise einen weiteren Grund, warum der Übergang von LLM -> weit verbreiteter AGI viel schneller geschehen könnte: LLMs geben uns Wahrnehmung, Repräsentationen und gesunden Menschenverstand (um mit Beispielen außerhalb der Verteilung umzugehen) kostenlos, während diese für selbstfahrende Autos von Grund auf neu geformt werden mussten. Ich fragte Andrej danach:
> Ich weiß nicht, wie viel wir kostenlos bekommen. LLMs sind immer noch ziemlich fehleranfällig und sie haben viele Lücken, die noch gefüllt werden müssen. Ich denke nicht, dass wir magische Verallgemeinerung komplett aus der Box bekommen.
> Der andere Aspekt, zu dem ich zurückkehren wollte, ist, dass selbstfahrende Autos noch lange nicht fertig sind. Die Einsätze sind ziemlich minimal. Selbst Waymo hat sehr wenige Autos. Sie haben etwas gebaut, das in der Zukunft lebt. Sie mussten die Zukunft zurückziehen, aber sie mussten es unwirtschaftlich machen.
> Außerdem, wenn du dir diese Autos ansiehst und niemand fährt, gibt es mehr Menschen im Loop, als du vielleicht erwartest. In gewissem Sinne haben wir die Person nicht wirklich entfernt, wir haben sie an einen Ort verschoben, wo du sie nicht sehen kannst.

Dwarkesh Patel18. Okt. 2025
Das @karpathy Interview
0:00:00 – AGI ist noch ein Jahrzehnt entfernt
0:30:33 – Kognitive Defizite von LLMs
0:40:53 – RL ist schrecklich
0:50:26 – Wie lernen Menschen?
1:07:13 – AGI wird in 2% BIP-Wachstum einfließen
1:18:24 – ASI
1:33:38 – Evolution von Intelligenz & Kultur
1:43:43 - Warum autonomes Fahren so lange gedauert hat
1:57:08 - Zukunft der Bildung
Schau dir den Dwarkesh Podcast auf YouTube, Apple Podcasts, Spotify usw. an. Viel Spaß!
126,11K
Top
Ranking
Favoriten
