Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Det svåraste med att bygga AI-agenter är inte att lära dem att minnas.
Det är att lära dem att glömma.
Min kollega och otroligt talangfulla författare @helloiamleonie precis publicerat vad som kanske är den mest omfattande genomgången av agentminne jag sett – och tro mig, vi behövde alla detta.
Här är den grundläggande utmaningen: LLM:er är statslojala. Varje samtal är en nystart. De minns inte vad du sa för fem minuter sedan, än mindre vad du sa förra veckan. Så hur skapar vi agenter som faktiskt minns?
Två grundläggande minnestyper:
• Korttidsminne: Information i LLM:s kontextfönster (det aktuella samtalet)
• Långtidsminne: Information lagrad externt (tidigare samtal, användarpreferenser, inlärda fakta)
Men här blir det intressant – och förvirrande. Olika ramverk kategoriserar minne olika, till exempel:
CoALAs tillvägagångssätt (inspirerat av mänsklig kognition):
• Arbetsminne (aktuell konversation)
• Semantiskt minne (fakta om användaren)
• Episodiskt minne (tidigare erfarenheter och handlingar)
• Procedurminne (instruktioner och beteenden)
Lettas angreppssätt (arkitekturfokuserat):
• Meddelandebuffert (senaste meddelanden)
• Kärnminne (aktivt hanterade block i kontext)
• Minnesåterkallelse (rå konversationshistorik)
• Arkivminne (explicit lagrad kunskap)
Det svåraste? Glömmer.
Att hantera vad som går in i minnet är superkomplext. Att hantera vad som raderas är ännu svårare. Hur automatiserar man att bestämma vad som är föråldrat? När är gammal information verkligen föråldrad jämfört med när den fortfarande är kontextuellt relevant? Det är här de flesta implementationer har svårt.
Leonie täcker allt från olika minnestyper (arbets-, semantisk-, episodisk-, procedurmässig) till praktiska implementeringsstrategier och det växande ekosystemet av minnesramverk som mem0, Letta och zep....

Topp
Rankning
Favoriter

