Tratamento da semana de Ação de Graças: uma conversa épica sobre Frontier AI com @lukaszkaiser - coautor de "Attention Is All You Need" (Transformers) e cientista de pesquisa líder na @OpenAI trabalhando em modelos de raciocínio da era GPT-5.1. 00:00 – Abertura fria e introdução 01:29 – "Desaceleração da IA" vs uma semana selvagem de novos modelos de fronteira 08:03 – Frutos de fácil acesso, infra, treinamento RL e melhores dados 11:39 – O que é um modelo de raciocínio, em linguagem simples 17:02 – Cadeia de pensamento e treinamento do processo de pensamento com RL 21:39 – O caminho de Łukasz: da lógica e França para o Google e Kurzweil 24:20 – Dentro da história do Transformer e o que "atenção" realmente significa 28:42 – Do Google Brain para a OpenAI: cultura, escala e GPUs 32:49 – O que vem a seguir para pré-treinamento, GPUs e destilação 37:29 – Podemos ainda entender esses modelos? Circuitos, esparsidade e caixas pretas 39:42 – GPT-4 → GPT-5 → GPT-5.1: o que realmente mudou 42:40 – Pós-treinamento, segurança e ensinando o GPT-5.1 diferentes tons 46:16 – Quanto tempo o GPT-5.1 deve pensar? Tokens de raciocínio e habilidades irregulares 47:43 – O quebra-cabeça do ponto de uma criança de cinco anos que ainda quebra modelos de fronteira ...