Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Danksgiving-Woche Leckerbissen: ein episches Gespräch über Frontier AI mit @lukaszkaiser - Mitautor von "Attention Is All You Need" (Transformers) und führender Forschungswissenschaftler bei @OpenAI, der an den Denkmodellen der GPT-5.1-Ära arbeitet.
00:00 – Kalte Eröffnung und Einführung
01:29 – "AI-Verlangsamung" vs eine wilde Woche neuer Frontier-Modelle
08:03 – Niedrig hängende Früchte, Infrastruktur, RL-Training und bessere Daten
11:39 – Was ist ein Denkmodell, in einfachen Worten
17:02 – Chain-of-thought und das Training des Denkprozesses mit RL
21:39 – Łukasz’ Weg: von Logik und Frankreich zu Google und Kurzweil
24:20 – Einblick in die Transformer-Geschichte und was "Aufmerksamkeit" wirklich bedeutet
28:42 – Von Google Brain zu OpenAI: Kultur, Skalierung und GPUs
32:49 – Was kommt als Nächstes für Pre-Training, GPUs und Destillation
37:29 – Können wir diese Modelle noch verstehen? Schaltungen, Sparsamkeit und Black Boxes
39:42 – GPT-4 → GPT-5 → GPT-5.1: was sich tatsächlich geändert hat
42:40 – Nach dem Training, Sicherheit und das Lehren von GPT-5.1 verschiedener Töne
46:16 – Wie lange sollte GPT-5.1 denken? Denk-Tokens und gezackte Fähigkeiten
47:43 – Das Dot-Puzzle des fünfjährigen Kindes, das immer noch Frontier-Modelle bricht
...
Top
Ranking
Favoriten

