Zastanawiałem się nad koncepcją, którą nazwałbym „ontologią kontekstu” - głównie dlatego, że chciałbym mieć jedno miejsce, w którym mógłbym zobaczyć, skąd pochodzi kontekst i w jakich podpowiedziach jest używany.
Pomocny kontekst dla LLM do generowania odpowiedzi lub podejmowania działań może obejmować takie rzeczy jak (1) ogólny cel, (2) bieżące zadanie/obszar skupienia, (3) podsumowane informacje z odpowiednich wcześniejszych zadań, (4) wnioski z wcześniejszych prób itd.
W miarę jak oczekujemy więcej od naszych agentów (dłuższe zadania, bardziej skomplikowane projekty itd.), surowa pamięć szybko staje się ciężka i hałaśliwa, co obniża jakość wyników LLM. Większość złożonych aplikacji AI ma jakiś rodzaj podsumowanego kontekstu (zakładam), oraz wiele źródeł kontekstu.
Pomysł polega na zdefiniowaniu ontologii dla tego, co przechowujesz*, jak to zorganizować i co pobierać dla każdej podpowiedzi w twoim systemie.
*przez przechowywanie niekoniecznie mam na myśli bazę danych AI. Dla mnie wydaje się bardziej holistyczne, aby traktować dane przechowywane w dowolnej aplikacji jako część pamięci AI (np. połączenie API/MCP). Może ta ontologia powinna to również określać.
Idąc o krok dalej, można by stworzyć dynamiczną ontologię, którą AI mogłoby zarządzać i testować, a następnie umieścić ją w środowisku RL, aby agenci mogli samodzielnie poprawiać zarządzanie kontekstem (hipotetycznie).
Nie jestem pewien, czy strategia podsumowania powinna się tutaj znaleźć, ale ma sens na wysokim poziomie. Trudniejsze, ponieważ większość ludzi podsumowuje informacje podczas ich przyswajania, więc musiałbyś ponownie podsumować wcześniejsze przyswojenia za każdym razem, gdy je zmieniasz (w celu testowania zmian i samodoskonalenia) - ale przypuszczam, że ten problem występuje niezależnie.
Nie sądzę, aby cokolwiek tutaj było szczególnie nowe. Po prostu myślę na głos, próbując stworzyć wewnętrzny framework do mapowania różnych strategii, które widziałem.