Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
12 MCP, RAG en Agents spiekbriefjes voor AI-ingenieurs (met visuals):
1️⃣ Functieaanroepen & MCP voor LLM's
Voordat MCP's populair werden, vertrouwden AI-werkstromen op traditionele functieaanroepen voor toegang tot tools. Nu standaardiseert MCP het voor Agents/LLM's.
De afbeelding laat zien hoe functieaanroepen & MCP onder de motorkap werken.
Bekijk de thread hieronder 👇

20 apr 2025
Functie calling & MCP voor LLM's, duidelijk uitgelegd (met visuals):
2️⃣ 4 fasen van training van LLM's vanaf nul
Deze visual dekt de 4 fasen van het bouwen van LLM's vanaf nul om ze praktisch toepasbaar te maken.
- Voortraining
- Instructie-fijnstelling
- Voorkeur-fijnstelling
- Redenering-fijnstelling
Hier is mijn gedetailleerde draad hierover 👇

21 jul 2025
4 fasen van training van LLM's vanaf nul, duidelijk uitgelegd (met visuals):
3️⃣ 3 Prompting Technieken voor Redeneren in LLM's
Dit behandelt drie populaire prompting technieken die LLM's helpen om duidelijker na te denken voordat ze antwoorden.
- Chain of Thought (CoT)
- Self-Consistency (of Meerderheidsstemmen over CoT)
- Tree of Thoughts (ToT)
Lees mijn gedetailleerde draad erover hieronder 👇

29 mei 2025
3 technieken om redenering in LLM's te ontgrendelen, duidelijk uitgelegd (met visuals):
4️⃣ Train LLM's met andere LLM's
LLM's leren niet alleen van ruwe tekst; ze leren ook van elkaar.
- Llama 4 Scout & Maverick zijn getraind met Llama 4 Behemoth.
- Gemma 2 en 3 zijn getraind met Gemini.
De visual legt 3 populaire technieken uit.
Lees de thread hieronder 👇

21 mei 2025
Hoe LLM's LLM's trainen, duidelijk uitgelegd (met visuals):
5️⃣ Gecontroleerd & Versterkend fijn-tunen in LLM's
Deze visual behandelt het verschil tussen gecontroleerd fijn-tunen en versterkend fijn-tunen.
RFT stelt je in staat om elke open-source LLM om te vormen tot een redeneermachine zonder gelabelde data.
Lees de thread hieronder 👇

23 apr 2025
Begeleide en versterkende fine-tuning in LLM's, duidelijk uitgelegd (met visuals):
6️⃣ Transformer vs. Mixture of Experts in LLMs
Mixture of Experts (MoE) is een populaire architectuur die verschillende "experts" gebruikt om Transformer-modellen te verbeteren.
De onderstaande visual legt uit hoe ze verschillen van Transformers.
Hier is mijn gedetailleerde thread hierover👇

25 feb 2025
Transformator vs. Mix van experts in LLM's, duidelijk uitgelegd (met visuals):
7️⃣ RAG vs Agentic RAG
Naïeve RAG haalt één keer op en genereert één keer, het kan niet dynamisch naar meer informatie zoeken, en het kan niet redeneren door complexe vragen.
Agentic RAG lost dit op.
Bekijk mijn gedetailleerde uitlegthread hierover👇

17 jan 2025
Traditionele RAG vs. Agentische RAG, duidelijk uitgelegd (met visuals):
8️⃣ 5 populaire Agentic AI ontwerppatronen
Agentic gedragingen stellen LLM's in staat om hun output te verfijnen door zelfevaluatie, planning en samenwerking op te nemen!
Deze visual toont de 5 populaire ontwerppatronen voor het bouwen van AI-agenten.
Bekijk mijn thread hierover voor meer info👇

23 jan 2025
5 meest populaire Agentic AI ontwerppatronen, duidelijk uitgelegd (met visuals):
9️⃣ 5 niveaus van Agentic AI-systemen
Agentische systemen genereren niet alleen tekst; Ze nemen beslissingen, roepen functies aan en voeren zelfs autonome workflows uit.
De visual legt 5 niveaus van AI-agency uit.
Ik heb mijn gedetailleerde uitlegthread👇 gelinkt

21 mrt 2025
5 niveaus van Agentic AI-systemen, duidelijk uitgelegd (met visuals):
🔟 Traditionele RAG versus HyDE
Vragen zijn semantisch niet vergelijkbaar met antwoorden, dus het systeem kan irrelevante context ophalen.
Genereer in HyDE eerst een hypothetisch antwoord (H) op de query. Gebruik vervolgens (H) om relevante context (C) op te halen.
Ik schreef er👇 een gedetailleerde thread over

26 dec 2024
Traditionele RAG vs. HyDE, duidelijk uitgelegd (met visuals):
1️1️⃣ ⃣ RAG versus grafiek RAG
Het beantwoorden van vragen die een globale context nodig hebben, is moeilijk met traditionele RAG, omdat het alleen de top-k relevante brokken ophaalt.
Graph RAG maakt RAG robuuster met graph structures.
Bekijk mijn gedetailleerde thread hieronder👇

31 jan 2025
Traditionele RAG vs. Graf RAG, duidelijk uitgelegd (met visuals):
1️2️⃣ ⃣ KV caching
KV-caching is een techniek die wordt gebruikt om LLM-inferentie te versnellen.
Ik heb mijn gedetailleerde thread hieronder👇 gelinkt

14 feb 2025
KV caching in LLM's, duidelijk uitgelegd (met visuals):
That's a wrap!
If you found it insightful, reshare it with your network.
Find me → @_avichawla
Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.

6 aug, 14:30
12 MCP, RAG en Agents spiekbriefjes voor AI-ingenieurs (met visuals):
254,96K
Boven
Positie
Favorieten