Inżynieria kontekstu to nie tylko rzucanie większej ilości danych na Twój LLM - chodzi o dostarczenie mu odpowiedniego kontekstu w odpowiednim czasie. W tym wystąpieniu dla @OReillyMedia, nasza inżynier ds. relacji z deweloperami @tuanacelik omawia, jak bloki pamięci pomagają budować agentów, którzy utrzymują uporządkowany kontekst dla złożonych zadań. Demonstruje bloki pamięci artefaktów, używając bota do śledzenia zamówień w restauracji - pokazując, jak destylować całe rozmowy do tylko niezbędnych, uporządkowanych informacji (typ pizzy, dodatki, adres), zamiast przetwarzać całą historię czatu. Kluczowe pojęcia omówione: · Różne typy bloków pamięci (statyczne, ekstrakcja faktów, wektorowe, artefaktowe) · Zarządzanie współczynnikiem kontekstu - równoważenie historii czatu, systemowych podpowiedzi i pamięci · Używanie przepływów pracy agentów do konstruowania i optymalizacji kontekstu krok po kroku Przykład pokazuje, jak bloki pamięci artefaktów mogą przekształcić kręcącą się rozmowę w czyste, uporządkowane zamówienie - dokładnie to, czego potrzebujesz dla agentów produkcyjnych obsługujących zadania w rzeczywistym świecie. Obejrzyj pełne wystąpienie: