Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
Lukasz sobre lo irregular que es realmente el rendimiento de los modelos frontera:
"Se puede decir que el modelo es increíble en la Olimpiada matemática. Y al mismo tiempo, tengo un niño de primero... Tiene cinco años. Tomé un ejercicio de este libro de matemáticas y ninguno de los modelos de frontera es capaz de resolverlo."
¿La tarea? Dos grupos de puntos con un punto compartido, y preguntas si el total es par o impar.
"Lo bueno es que si lo dejas pensar más, puede que realmente lo resuelva... Pero tarda 15 minutos. El niño humano de cinco años tarda 15 segundos."

Matt Turckhace 23 horas
Regalo de la semana de Acción de Gracias: una conversación épica sobre Frontier AI con @lukaszkaiser coautor de "Attention Is All You Need" (Transformers) y científico investigador destacado en @OpenAI trabajando en modelos de razonamiento de la era GPT-5.1.
00:00 – Apertura en frío e introducción
01:29 – "Desaceleración de la IA" frente a una semana salvaje de nuevos modelos fronterizos
08:03 – Fruta fácil, infraestructura, entrenamiento RL y mejores datos
11:39 – ¿Qué es un modelo de razonamiento, en lenguaje sencillo
17:02 – Cadena de pensamiento y entrenamiento del proceso de pensamiento con la vida real
21:39 – El camino de Łukasz: de la lógica y Francia a Google y Kurzweil
24:20 – Dentro de la historia de los Transformers y lo que realmente significa "atención"
28:42 – De Google Brain a OpenAI: cultura, escala y GPUs
32:49 – ¿Qué sigue para el preentrenamiento, GPUs y destilación?
37:29 – ¿Podemos seguir entendiendo estos modelos? Circuitos, esparsidad y cajas negras
39:42 – GPT-4 → GPT-5 → GPT-5.1: qué cambió realmente
42:40 – Post-entrenamiento, seguridad y enseñanza de diferentes tonos GPT-5.1
46:16 – ¿Cuánto tiempo debería pensar GPT-5.1? Fichas de razonamiento y habilidades dentadas
47:43 – El rompecabezas de puntos del niño de cinco años que aún rompe los modelos fronterizos
52:22 – Generalización, aprendizaje infantil y si el razonamiento es suficiente
53:48 – Más allá de los Transformers: ARC, las ideas de LeCun y los cuellos de botella multimodales
56:10 – Códice GPT-5.1 Máximo, agentes de larga duración y compactación
1:00:06 – ¿Se comen las modelos de base la mayoría de las apps? La analogía de la traducción y la confianza
1:02:34 – Qué queda por resolver y hacia dónde podría ir la IA a continuación
2.64K
Populares
Ranking
Favoritas

