Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

yan5xu
🤖 AI-nieuweling
Ik heb net even MiroThinker 1.5 grondig onderzocht, en hun manier van Agent compressie is een beetje vreemd, maar als je het begrijpt, is het echt nuttig.
De kernoplossing is het probleem van "hoe 400 keer Tool Use in 256K context te proppen".
Ze hebben een extreem gedurfde operatie uitgevoerd: ze hebben de Observation (de resultaten van de tool) in de think-action-observation van ReAct fysiek gemaskeerd.
Behalve de laatste K rondes, waarbij de originele tekst behouden blijft, zijn alle eerdere honderden rondes van Tool Result vervangen door de zin "Tool result is omitted to save tokens". Maar ze hebben alle <thought> volledig behouden.
Er is hier een zeer tegenintuïtieve plek: deze agent doet zelf deep research, en hij behoudt alleen de laatste K rondes, dat zijn dus 5 rondes van de originele tekst, de eerdere zijn verdwenen, hoe kan hij dan vragen beantwoorden?
Dit brengt een zeer subtiele maar cruciale voorwaarde met zich mee: zolang de Thought voldoende dicht is, komt het eigenlijk steeds dichter bij een Summary.
Elke keer dat een Thought wordt gegenereerd, is het in wezen een informatie-slice van het huidige Observation. T1 heeft al de sleutelgegevens uit O1 "opgeslurpt" toen het werd gegenereerd.
Hoewel O1 is vervangen door een placeholder, blijft T1 bestaan. T1 wordt de "informatiecompressiepakket" van O1. Het is niet nodig om een aparte Summary Agent toe te voegen, deze volledige Thought-keten is op zichzelf al een voortdurend incrementeel bijgewerkte, hoogwaardige "dynamische samenvatting".

4
anthropic is echt een keten van verbanden, met theorie en praktijk.
Bij het uitgeven van skills werd er, gericht op de inflatie van tools en het verspillen van tokens, voorgesteld om Prompt in lagen te laden/hergebruiken, en om code uit te voeren & API/mcp te koppelen (manus noemt dit contextontlasting).
Twee dagen geleden, tegelijkertijd met de uitgave van opus, zijn deze twee methoden vastgelegd op het niveau van de inferentie-API, Tool Search Tool, wat de ontdekking van tools & lazy loading oplost, en Programmatic Tool Calling maakt het mogelijk om code-uitvoerende tools te realiseren. Ik heb het gevoel dat de anthropic API-protocol 😂 zeker de potentie heeft om openai te vervangen.
280
Boven
Positie
Favorieten
