Bagian tersulit dari membangun agen AI bukanlah mengajari mereka untuk mengingat. Itu mengajarkan mereka untuk melupakan. Rekan saya dan penulis yang luar biasa berbakat @helloiamleonie baru saja menerbitkan apa yang mungkin merupakan perincian memori agen paling komprehensif yang pernah saya lihat - dan percayalah, kita semua membutuhkan ini. Inilah tantangan intinya: LLM tidak memiliki kewarganegaraan. Setiap percakapan adalah awal yang baru. Mereka tidak ingat apa yang Anda katakan lima menit yang lalu, apalagi apa yang Anda katakan minggu lalu. Jadi bagaimana kita membuat agen yang benar-benar ingat? Dua jenis memori dasar: • Memori jangka pendek: Informasi di jendela konteks LLM (percakapan saat ini) • Memori jangka panjang: Informasi yang disimpan secara eksternal (percakapan sebelumnya, preferensi pengguna, fakta yang dipelajari) Tapi di sinilah itu menjadi menarik - dan membingungkan. Kerangka kerja yang berbeda mengkategorikan memori secara berbeda, misalnya: Pendekatan CoALA (terinspirasi oleh kognisi manusia): • Memori kerja (percakapan saat ini) • Memori semantik (fakta tentang pengguna) • Memori episodik (pengalaman dan tindakan masa lalu) • Memori prosedural (instruksi dan perilaku) Pendekatan Letta (berfokus pada arsitektur): • Penyangga Pesan (pesan terbaru) • Memori Inti (blok dalam konteks yang dikelola secara aktif) • Ingat Memori (riwayat percakapan mentah) • Memori Arsip (pengetahuan yang disimpan secara eksplisit) Bagian tersulit? Melupakan. Mengelola apa yang masuk ke dalam memori sangat rumit. Mengelola apa yang dihapus bahkan lebih sulit. Bagaimana Anda mengotomatiskan memutuskan apa yang sudah usang? Kapan informasi lama benar-benar ketinggalan zaman versus masih relevan secara kontekstual? Di sinilah sebagian besar implementasi berjuang. Leonie mencakup segala sesuatu mulai dari berbagai jenis memori (kerja, semantik, episodik, prosedural) hingga strategi implementasi praktis dan ekosistem kerangka kerja memori yang berkembang seperti mem0, Letta, dan zep....