Herkes burada gerçek hikayeyi kaçırıyor. Bu bir "yönlendirme tekniği" değil. Makalenin adı Recursive Language Models, "Recursive Meta-Cognition" değil. Ve yazarlar, atıf sayısı için uğraşan rastgele araştırmacılar değil. Omar Khattab, 31.000+ GitHub yıldızına sahip DSPy'yi yarattı ve insanların bileşik yapay zeka sistemlerini nasıl inşa ettiğini değiştirdi. Tim Kraska, Google'da Jeff Dean ile birlikte öğrenilmiş indeks yapılarının öncüsü oldu ve MIT'in Veri Sistemleri ve Yapay Zeka Laboratuvarı'nı yönetiyor. Alex Zhang, her ikisinin kesişiminde çalışan bir doktora öğrencisidir. Gerçek makale belirli bir sorunu ele alıyor: LLM'ler uzun bağlamda bozuluyor. Grafik, GPT-5 performansının giriş uzunluğunun 2^14 token'dan 2^21 token'a ölçeklenmesiyle çöktüğünü gösterirken, RLM'ler istikrarlı performans sürdürüyor. Girişleri bağlam pencerelerinin ötesinden 100 kat ötesinde işliyorlar. Khattab'ın kendi Twitter'ından ana içgörüler: "Çoğu insan RLM'leri LLM'lerin kendilerini çağrıştırmasıyla yanlış anlıyor. Daha derin içgörüler, LLM'lerin kendi uyarılarıyla nesne olarak etkileşime girmesidir." Bu, Khattab'ın tüm araştırma gelişimini genişletiyor. DSPy istemleri programatik modüllere dönüştürdü. ColBERT, toplamayı daha akıllı hale getirdi. RLM'ler, bağlamın kendisini, örneğin hafızadaki veri gibi modelin manipüle edebileceği bir şeye dönüştürür. Önde gelen merkeziyetsiz yapay zeka laboratuvarlarından biri olan Prime Intellect, bunun üzerine şimdiden inşa ediyor. RLM'lerin, haftalar veya aylar boyunca çalışan ajanlar için "kendi bağlamlarını uçtan uca yönetmelerini öğretmelerine" izin vereceğini yazdılar. Gerçek ticaret mi? Bu, her yapay zeka laboratuvarının karşılaştığı bir kısıtlamayı çözer: bağlam pencereleri kesin bir tavan gibidir. Mimarlık ve eğitim yoluyla genişletmek pahalıdır. RLM'ler, mevcut modellerle çalışan çıkarım-zaman yaklaşımı sunar. Ama bir pıçaq noktasına dikkat edin: bu, kodları güvenilir şekilde yazıp çalıştırabilen modeller gerektirir. Benchmark'lar GPT-5'i bir Python REPL'de kullanır. Daha zayıf kod üretimine sahip modeller, özyinelemeli ayrıştırmayı temiz bir şekilde uygulamakta zorlanır. Bu teknik, sadece akıl yürütme yeteneğiyle değil, kod yeteneğiyle ölçeklenir.