12 MCP-, RAG- och Agents-fusklappar för AI-ingenjörer (med bilder):
1️⃣ Funktionsanrop och MCP för LLM Innan MCP:er blev populära förlitade sig AI-arbetsflöden på traditionella funktionsanrop för verktygsåtkomst. Nu standardiserar MCP det för agenter/LLM:er. Det visuella objektet beskriver hur funktionsanrop och MCP fungerar under huven. Kolla tråden nedan 👇
Avi Chawla
Avi Chawla20 apr. 2025
Funktionsanrop och MCP för LLM, tydligt förklarat (med bilder):
2️⃣ 4 steg av utbildning LLM:er från grunden Denna bild täcker de 4 stegen för att bygga LLM:er från grunden för att göra dem praktiskt tillämpliga. - Förberedande träning - Finjustering av instruktioner - Finjustering av preferenser - Finjustering av resonemang Här är min detaljerade tråd om det 👇
Avi Chawla
Avi Chawla21 juli 2025
4 steg av utbildning LLM:er från grunden, tydligt förklarade (med bilder):
3️⃣ 3 Uppmaningstekniker för resonemang i LLM Detta täcker tre populära uppmaningstekniker som hjälper LLM:er att tänka klarare innan de svarar. - Tankekedja (CoT) - Självkonsekvens (eller majoritetsröstning över CoT) - Tankens (ToT) träd Läs min detaljerade tråd om det nedan 👇
Avi Chawla
Avi Chawla29 maj 2025
3 tekniker för att låsa upp resonemang i LLM, tydligt förklarade (med bilder):
4️⃣ Träna LLM:er med andra LLM:er LLM:er lär sig inte bara av rå text; De lär sig också av varandra. - Llama 4 Scout & Maverick tränades med hjälp av Llama 4 Behemoth. - Gemma 2 och 3 tränades med hjälp av Gemini. Det visuella förklarar 3 populära tekniker. Läs tråden nedan 👇
Avi Chawla
Avi Chawla21 maj 2025
Hur LLM:er tränar LLM:er, tydligt förklarat (med bilder):
5️⃣ Övervakad och förstärkning finjustering i LLM Det här visuella objektet täcker skillnaden mellan övervakad finjustering och finjustering av förstärkning. RFT låter dig förvandla vilken LLM som helst med öppen källkod till ett resonerande kraftverk utan några märkta data. Läs tråden nedan 👇
Avi Chawla
Avi Chawla23 apr. 2025
Övervakad & Förstärkning finjustering i LLM, tydligt förklarad (med bilder):
6️⃣ Transformator vs. blandning av experter på LLM Mixture of Experts (MoE) är en populär arkitektur som använder olika "experter" för att förbättra transformatormodeller. Det visuella objektet nedan förklarar hur de skiljer sig från Transformers. Här är min detaljerade tråd om det👇
Avi Chawla
Avi Chawla25 feb. 2025
Transformator vs. blandning av experter på LLM, tydligt förklarat (med bilder):
7️⃣ RAG vs Agentic RAG Naive RAG hämtar en gång och genererar en gång, den kan inte dynamiskt söka efter mer information och den kan inte resonera sig igenom komplexa frågor. Agentic RAG löser detta. Kolla min detaljerade förklarande tråd om detta👇
Avi Chawla
Avi Chawla17 jan. 2025
Traditionell RAG vs. Agentic RAG, tydligt förklarad (med bilder):
8️⃣ 5 populära Agentic AI-designmönster Agentiska beteenden gör det möjligt för LLM:er att förfina sin produktion genom att införliva självutvärdering, planering och samarbete! Det här visuella objektet visar de 5 populära designmönstren för att skapa AI-agenter. Kolla min tråd på den för mer info👇
Avi Chawla
Avi Chawla23 jan. 2025
De 5 mest populära Agentic AI-designmönstren, tydligt förklarade (med bilder):
9️⃣ 5 nivåer av Agentic AI-system Agentiska system genererar inte bara text; De fattar beslut, anropar funktioner och driver till och med autonoma arbetsflöden. Det visuella förklarar 5 nivåer av AI-byrå. Jag har länkat min detaljerade förklarande tråd👇
Avi Chawla
Avi Chawla21 mars 2025
5 nivåer av Agentic AI-system, tydligt förklarade (med bilder):
🔟 Traditionell RAG vs HyDE Frågor är inte semantiskt lika svar, så systemet kan hämta irrelevant kontext. I HyDE genererar du först ett hypotetiskt svar (H) på frågan. Använd sedan (H) för att hämta relevant kontext (C). Jag skrev en detaljerad tråd om det👇
Avi Chawla
Avi Chawla26 dec. 2024
Traditionell RAG vs. HyDE, tydligt förklarad (med bilder):
1️1️⃣ ⃣ RAG jämfört med graf RAG Att svara på frågor som behöver global kontext är svårt med traditionell RAG eftersom den bara hämtar de översta k relevanta bitarna. Graph RAG gör RAG mer robust med grafstrukturer. Kolla min detaljerade tråd nedan👇
Avi Chawla
Avi Chawla31 jan. 2025
Traditionell RAG vs. Graph RAG, tydligt förklarad (med bilder):
1️2️⃣ ⃣ KV-cache KV-cachning är en teknik som används för att påskynda LLM-inferens. Jag har länkat min detaljerade tråd nedan👇
Avi Chawla
Avi Chawla14 feb. 2025
KV-cachning i LLM, tydligt förklarat (med bilder):
Det är en wrap! Om du tyckte att det var insiktsfullt, dela det igen med ditt nätverk. Hitta mig → @_avichawla Varje dag delar jag med mig av handledningar och insikter om DS, ML, LLM och RAGs.
Avi Chawla
Avi Chawla6 aug. 14:30
12 MCP-, RAG- och Agents-fusklappar för AI-ingenjörer (med bilder):
255,39K