Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tratamento da semana de Ação de Graças: uma conversa épica sobre Frontier AI com @lukaszkaiser - coautor de "Attention Is All You Need" (Transformers) e cientista de pesquisa líder na @OpenAI trabalhando em modelos de raciocínio da era GPT-5.1.
00:00 – Abertura fria e introdução
01:29 – "Desaceleração da IA" vs uma semana selvagem de novos modelos de fronteira
08:03 – Frutos de fácil acesso, infra, treinamento RL e melhores dados
11:39 – O que é um modelo de raciocínio, em linguagem simples
17:02 – Cadeia de pensamento e treinamento do processo de pensamento com RL
21:39 – O caminho de Łukasz: da lógica e França para o Google e Kurzweil
24:20 – Dentro da história do Transformer e o que "atenção" realmente significa
28:42 – Do Google Brain para a OpenAI: cultura, escala e GPUs
32:49 – O que vem a seguir para pré-treinamento, GPUs e destilação
37:29 – Podemos ainda entender esses modelos? Circuitos, esparsidade e caixas pretas
39:42 – GPT-4 → GPT-5 → GPT-5.1: o que realmente mudou
42:40 – Pós-treinamento, segurança e ensinando o GPT-5.1 diferentes tons
46:16 – Quanto tempo o GPT-5.1 deve pensar? Tokens de raciocínio e habilidades irregulares
47:43 – O quebra-cabeça do ponto de uma criança de cinco anos que ainda quebra modelos de fronteira
...
Top
Classificação
Favoritos

