Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Todo mundo está perdendo a verdadeira história aqui.
Isso não é uma "técnica de incentivo". O artigo se chama Modelos de Linguagem Recursiva, não "Meta-Cognição Recursiva." E os autores não são pesquisadores aleatórios que estão lutando por contagem de citações.
Omar Khattab criou o DSPy, que tem 31.000+ estrelas no GitHub, e mudou a forma como as pessoas constroem sistemas de IA composta. Tim Kraska foi pioneiro em estruturas de índice aprendidas com Jeff Dean no Google e dirige o Laboratório de Sistemas de Dados e IA do MIT. Alex Zhang é um estudante de doutorado trabalhando na interseção de ambos.
O artigo real aborda um problema específico: LLMs se degradam em contexto longo. O gráfico mostra o desempenho do GPT-5 colapsando à medida que o comprimento de entrada escala de 2^14 para 2^21 tokens, enquanto os RLMs mantêm desempenho estável. Eles estão lidando com entradas 100 vezes além das janelas de contexto.
A principal percepção do próprio Twitter de Khattab: "A maioria das pessoas entende mal os RLMs como se tratem de LLMs se invocando a si mesmos. O insight mais profundo é que LLMs interagem com seus próprios prompts como objetos."
Isso estende todo o arco de pesquisa de Khattab. O DSPy transformou prompts em módulos programáticos. O ColBERT tornou a recuperação mais inteligente. RLMs transformam o próprio contexto em algo que o modelo pode manipular, como dados na memória.
A Prime Intellect, um dos principais laboratórios de IA descentralizada, já está construindo sobre isso. Eles escreveram que os RLMs permitirão que eles "ensinem modelos a gerenciar seu próprio contexto de ponta a ponta por meio de aprendizado por reforço" para agentes que duram semanas ou meses.
O verdadeiro negócio? Isso resolve uma limitação que todo laboratório de IA enfrenta: janelas de contexto são um teto rígido. Expandi-los por meio de arquitetura e treinamento é caro. As RLMs oferecem uma abordagem de tempo de inferência que funciona com modelos existentes.
Mas fique atento ao problema: isso exige modelos que possam escrever e executar código de forma confiável. Os benchmarks usam GPT-5 em um REPL em Python. Modelos com geração de código mais fraca terão dificuldade em implementar a decomposição recursiva de forma limpa. A técnica escala com a capacidade de código, não apenas com a capacidade de raciocínio.
Melhores
Classificação
Favoritos
