トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AIエージェントを作る上で最も難しいのは、記憶力を教えることではありません。
忘れることを教えているのです。
私の同僚であり非常に才能あるライター@helloiamleonie、私が見た中で最も包括的なエージェント記憶の分析を発表しました。信じてください、私たち全員がこれを必要としていました。
核心的な課題はこうです:LLMはステートレスです。すべての会話が新たなスタートです。彼らは5分前にあなたが何を言ったか、ましてや先週何を言ったか覚えていません。では、どうやって実際に記憶を覚えているエージェントを作るのでしょうか?
基本的なメモリタイプは2つあります:
• 短期記憶:LLMのコンテキストウィンドウ内の情報(現在の会話)
• 長期記憶:外部に保存された情報(過去の会話、ユーザーの好み、学習した事実)
しかし、ここからが面白く、そして混乱を招くところです。異なるフレームワークはメモリを異なる方法で分類します。例えば:
CoALAのアプローチ(人間の認知に触発された):
・作業記憶(現在の会話)
・意味記憶(使用者に関する事実)
・エピソード記憶(過去の経験と行動)
・手続き的記憶(命令と振る舞い)
レッタのアプローチ(アーキテクチャ重視):
・メッセージバッファ(最近のメッセージ)
• コアメモリ(アクティブ管理のコンテキスト内ブロック)
・記憶を想起(生の会話履歴)
・アーカイブメモリ(明示的に保存された知識)
一番難しいのは?忘れて。
メモリに何を入力するかの管理は非常に複雑です。削除されるものを管理するのはさらに難しいです。何が時代遅れかをどうやって自動化するのですか?古い情報が本当に時代遅れで、文脈的にまだ重要であるのはいつでしょうか?ここで多くの実装が苦戦します。
Leonieは、作業記憶、セマンティック記憶、エピソード記憶、手続き記憶など様々なタイプから、実用的な実装戦略、そしてmem0、Letta、zepといった成長するメモリフレームワークのエコシステムまで、あらゆる内容をカバーしています。...

トップ
ランキング
お気に入り

