Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

yan5xu
🤖 Principiante dell'intelligenza artificiale
Ho appena approfondito MiroThinker 1.5, e il loro modo di comprimere gli Agent è un po' strano, ma una volta capito, risulta davvero utile.
Il problema centrale è "come inserire 400 utilizzi di Tool in un contesto di 256K".
Hanno fatto un'operazione estremamente audace: hanno applicato una maschera fisica all'Observation (risultato del tool) nella storia di ReAct, che si basa su think-action-observation.
A parte le ultime K iterazioni, hanno sostituito tutti i risultati dei Tool delle centinaia di iterazioni precedenti con la frase "Il risultato del tool è omesso per risparmiare token". Tuttavia, hanno mantenuto intatti tutti i <thought>.
C'è un aspetto molto controintuitivo: questo agent sta facendo una ricerca approfondita, quindi lascia solo le ultime K iterazioni, ovvero 5, e non ha più nulla delle precedenti, come può rispondere alle domande?
Qui c'è un presupposto molto sottile ma cruciale: finché il Thought è sufficientemente denso, in realtà si avvicina all'infinito a un Summary.
Ogni generazione di Thought è essenzialmente un'informazione a fette dell'attuale Observation. Quando T1 viene generato, ha già "mangiato" i dati chiave di O1 nella sua mente.
Anche se O1 è stato sostituito con un segnaposto, T1 è ancora presente. T1 diventa il "pacchetto di compressione delle informazioni" di O1. Non è necessario avere un Agent di Summary separato, questa catena di Thought completa è in sé un "riassunto dinamico" ad alta fedeltà che si aggiorna continuamente.

8
anthropic è davvero un anello che si incastra nell'altro, con teoria e pratica.
Quando si tratta di distribuire skills, è stata proposta, per affrontare l'espansione degli strumenti e lo spreco di token, la stratificazione e il riutilizzo dei Prompt, utilizzando l'esecuzione di codice e concatenando api/mcp (manus chiama questo scarico del contesto) come due metodi.
Due giorni fa, insieme al rilascio di opus, questi due metodi sono stati fissati a livello di API di inferenza, Tool Search Tool, risolvendo la scoperta degli strumenti e il lazy loading, Programmatic Tool Calling per realizzare strumenti di esecuzione del codice. Sento che in futuro il protocollo API di anthropic 😂 ha grandi possibilità di sostituire openai.
281
Principali
Ranking
Preferiti
