Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Aquí todo el mundo se está perdiendo la verdadera historia.
Esto no es una "técnica de estímulo". El artículo se llama Modelos de Lenguaje Recursivo, no "Meta-Cognición Recursiva". Y los autores no son investigadores aleatorios que se burlan de recuentos de citas.
Omar Khattab creó DSPy, que tiene 31.000+ estrellas en GitHub y cambió la forma en que la gente construye sistemas compuestos de IA. Tim Kraska fue pionero en las estructuras de índices aprendidas junto a Jeff Dean en Google y dirige el Laboratorio de Sistemas de Datos e IA del MIT. Alex Zhang es estudiante de doctorado y trabaja en la intersección de ambos.
El artículo aborda un problema específico: los LLM se degradan con un contexto largo. El gráfico muestra el colapso del rendimiento de GPT-5 a medida que la longitud de entrada escala de 2^14 a 2^21 tokens, mientras que los RLM mantienen un rendimiento estable. Gestionan entradas 100 veces más allá de las ventanas contextuales.
La idea clave del propio Twitter de Khattab es: "La mayoría de la gente malinterpreta los RLM como si fueran sobre los LLMs que se invocan a sí mismos. La visión más profunda es que los LLM interactúan con sus propios prompts como objetos."
Esto extiende todo el arco de investigación de Khattab. DSPy convirtió los prompts en módulos programáticos. ColBERT hizo que la recuperación fuera más inteligente. Los RLM convierten el contexto mismo en algo que el modelo puede manipular, como si fuera un dato en la memoria.
Prime Intellect, uno de los principales laboratorios de IA descentralizada, ya está construyendo sobre esto. Escribieron que los RLM les permitirán "enseñar a los modelos a gestionar su propio contexto de principio a fin mediante aprendizaje por refuerzo" para agentes que se extienden durante semanas o meses.
¿El verdadero intercambio? Esto resuelve una limitación a la que se enfrenta todo laboratorio de IA: las ventanas contextuales son un techo duro. Expandirlos a través de la arquitectura y la formación es caro. Los RLM ofrecen un enfoque de tiempo de inferencia que funciona con modelos existentes.
Pero cuidado con el problema: esto requiere modelos que puedan escribir y ejecutar código de forma fiable. Los benchmarks usan GPT-5 en un REPL en Python. Los modelos con generación de código más débil tendrán dificultades para implementar la descomposición recursiva de forma limpia. La técnica escala con la capacidad de código, no solo con la capacidad de razonamiento.
Populares
Ranking
Favoritas
