Thanksgiving-ukens godbit: en episk samtale om Frontier AI med @lukaszkaiser medforfatter av "Attention Is All You Need" (Transformers) og ledende forsker ved @OpenAI som jobber med resonnementsmodeller fra GPT-5.1-æraen. 00:00 – Kald åpning og intro 01:29 – «AI-nedgang» vs en vill uke med nye frontier-modeller 08:03 – Lavthengende frukter, infrastruktur, RL-trening og bedre data 11:39 – Hva er en resonnementsmodell, i klart språk 17:02 – Tankekjede og trening av tankeprosessen med RL 21:39 – Łukasz' vei: fra logikk og Frankrike til Google og Kurzweil 24:20 – Inne i Transformer-historien og hva «oppmerksomhet» egentlig betyr 28:42 – Fra Google Brain til OpenAI: kultur, skala og GPU-er 32:49 – Hva er neste for fortrening, GPU-er og destillasjon 37:29 – Kan vi fortsatt forstå disse modellene? Kretser, sparsomhet og svarte bokser 39:42 – GPT-4 → GPT-5 → GPT-5.1: hva som faktisk endret seg 42:40 – Etter opplæring, sikkerhet og undervisning av GPT-5.1 ulike toner 46:16 – Hvor lenge bør GPT-5.1 tenke? Resonnement-tokens og tagged abilities 47:43 – Femåringens prikkpuslespill som fortsatt bryter grensemodellene ...