Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Avi Chawla
Dagelijkse tutorials en inzichten over DS, ML, LLM's en RAG's • Mede-oprichter @dailydoseofds_ • IIT Varanasi • ex-AI Engineer @ MastercardAI
Ik heb al mijn berichten over AI Agents samengevoegd in één enkele PDF.
Het behandelt:
- Basisprincipes van Agents
- LLM vs RAG vs Agents
- Agentic ontwerppatronen
- Bouwstenen van Agents
- Aangepaste tools bouwen via MCP
- 12 praktische projecten voor AI Engineers
Downloadlink in de volgende tweet.
56,31K
Bouw mensachtige herinneringen voor je Agents (open-source)!
Elk agentisch en RAG-systeem heeft moeite met real-time kennisupdates en snelle gegevensopvraging.
Zep lost deze problemen op met zijn continu evoluerende en temporeel-bewuste Kennisgrafiek.
Net als mensen organiseert Zep de herinneringen van een Agent in episodes, haalt entiteiten en hun relaties uit deze episodes en slaat ze op in een kennisgrafiek:
(raadpleeg de afbeelding hieronder terwijl je leest)
1) Episode Subgrafiek: Vangt ruwe gegevens met tijdstempels, waarbij elk detail behouden blijft voor gemakkelijke historische opvraging.
2) Semantische Entiteit Subgrafiek: Haalt entiteiten (bijv. “Alice,” “Google”) en feiten (“Alice werkt bij Google”) op. Alles is geversioneerd, zodat verouderde informatie wordt vervangen.
3) Gemeenschap Subgrafiek: Groepeert gerelateerde entiteiten in clusters, met samenvattingen voor snellere opvraging.
Zep levert tot 18,5% hogere nauwkeurigheid met 90% lagere latentie in vergelijking met tools zoals MemGPT.
Het is volledig open-source!
302,08K
Evalueer conversatie LLM-apps zoals ChatGPT in 3 stappen (open-source).
In tegenstelling tot enkelvoudige taken, ontvouwen gesprekken zich over meerdere berichten.
Dit betekent dat het gedrag van de LLM consistent, compliant en contextbewust moet zijn over de verschillende berichten, niet alleen nauwkeurig in een eenmalige output.
In DeepEval kun je dat doen in slechts 3 stappen:
1) Definieer je multi-turn testgeval als een ConversationalTestCase.
2) Definieer een metriek met ConversationalGEval in gewone taal.
3) Voer de evaluatie uit.
Klaar!
Dit zal een gedetailleerde uitsplitsing geven van welke gesprekken geslaagd zijn en welke niet, samen met een scoreverdeling.
Bovendien krijg je ook een volledige UI om individuele berichten te inspecteren.
Er zijn twee goede dingen aan dit:
- De hele pipeline is extreem eenvoudig op te zetten en vereist slechts een paar regels code.
- DeepEval is 100% open-source met ~10k sterren, en je kunt het gemakkelijk zelf hosten zodat je gegevens blijven waar je wilt.
Vind de repo in de opmerkingen!
23,56K
Ik heb een RAG-systeem gebouwd dat 36M+ vectoren opvraagt in <0,03 seconden.
De gebruikte techniek maakt RAG 32x geheugen efficiënt!
Bekijk de gedetailleerde uitsplitsing met onderstaande code:

Avi Chawla4 aug, 14:33
A simple technique makes RAG ~32x memory efficient!
- Perplexity uses it in its search index
- Azure uses it in its search pipeline
- HubSpot uses it in its AI assistant
Let's understand how to use it in RAG systems (with code):
45,08K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste