Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
12 MCP-, RAG- och Agents-fusklappar för AI-ingenjörer (med bilder):
1️⃣ Funktionsanrop och MCP för LLM
Innan MCP:er blev populära förlitade sig AI-arbetsflöden på traditionella funktionsanrop för verktygsåtkomst. Nu standardiserar MCP det för agenter/LLM:er.
Det visuella objektet beskriver hur funktionsanrop och MCP fungerar under huven.
Kolla tråden nedan 👇

20 apr. 2025
Funktionsanrop och MCP för LLM, tydligt förklarat (med bilder):
2️⃣ 4 steg av utbildning LLM:er från grunden
Denna bild täcker de 4 stegen för att bygga LLM:er från grunden för att göra dem praktiskt tillämpliga.
- Förberedande träning
- Finjustering av instruktioner
- Finjustering av preferenser
- Finjustering av resonemang
Här är min detaljerade tråd om det 👇

21 juli 2025
4 steg av utbildning LLM:er från grunden, tydligt förklarade (med bilder):
3️⃣ 3 Uppmaningstekniker för resonemang i LLM
Detta täcker tre populära uppmaningstekniker som hjälper LLM:er att tänka klarare innan de svarar.
- Tankekedja (CoT)
- Självkonsekvens (eller majoritetsröstning över CoT)
- Tankens (ToT) träd
Läs min detaljerade tråd om det nedan 👇

29 maj 2025
3 tekniker för att låsa upp resonemang i LLM, tydligt förklarade (med bilder):
4️⃣ Träna LLM:er med andra LLM:er
LLM:er lär sig inte bara av rå text; De lär sig också av varandra.
- Llama 4 Scout & Maverick tränades med hjälp av Llama 4 Behemoth.
- Gemma 2 och 3 tränades med hjälp av Gemini.
Det visuella förklarar 3 populära tekniker.
Läs tråden nedan 👇

21 maj 2025
Hur LLM:er tränar LLM:er, tydligt förklarat (med bilder):
5️⃣ Övervakad och förstärkning finjustering i LLM
Det här visuella objektet täcker skillnaden mellan övervakad finjustering och finjustering av förstärkning.
RFT låter dig förvandla vilken LLM som helst med öppen källkod till ett resonerande kraftverk utan några märkta data.
Läs tråden nedan 👇

23 apr. 2025
Övervakad & Förstärkning finjustering i LLM, tydligt förklarad (med bilder):
6️⃣ Transformator vs. blandning av experter på LLM
Mixture of Experts (MoE) är en populär arkitektur som använder olika "experter" för att förbättra transformatormodeller.
Det visuella objektet nedan förklarar hur de skiljer sig från Transformers.
Här är min detaljerade tråd om det👇

25 feb. 2025
Transformator vs. blandning av experter på LLM, tydligt förklarat (med bilder):
7️⃣ RAG vs Agentic RAG
Naive RAG hämtar en gång och genererar en gång, den kan inte dynamiskt söka efter mer information och den kan inte resonera sig igenom komplexa frågor.
Agentic RAG löser detta.
Kolla min detaljerade förklarande tråd om detta👇

17 jan. 2025
Traditionell RAG vs. Agentic RAG, tydligt förklarad (med bilder):
8️⃣ 5 populära Agentic AI-designmönster
Agentiska beteenden gör det möjligt för LLM:er att förfina sin produktion genom att införliva självutvärdering, planering och samarbete!
Det här visuella objektet visar de 5 populära designmönstren för att skapa AI-agenter.
Kolla min tråd på den för mer info👇

23 jan. 2025
De 5 mest populära Agentic AI-designmönstren, tydligt förklarade (med bilder):
9️⃣ 5 nivåer av Agentic AI-system
Agentiska system genererar inte bara text; De fattar beslut, anropar funktioner och driver till och med autonoma arbetsflöden.
Det visuella förklarar 5 nivåer av AI-byrå.
Jag har länkat min detaljerade förklarande tråd👇

21 mars 2025
5 nivåer av Agentic AI-system, tydligt förklarade (med bilder):
🔟 Traditionell RAG vs HyDE
Frågor är inte semantiskt lika svar, så systemet kan hämta irrelevant kontext.
I HyDE genererar du först ett hypotetiskt svar (H) på frågan. Använd sedan (H) för att hämta relevant kontext (C).
Jag skrev en detaljerad tråd om det👇

26 dec. 2024
Traditionell RAG vs. HyDE, tydligt förklarad (med bilder):
1️1️⃣ ⃣ RAG jämfört med graf RAG
Att svara på frågor som behöver global kontext är svårt med traditionell RAG eftersom den bara hämtar de översta k relevanta bitarna.
Graph RAG gör RAG mer robust med grafstrukturer.
Kolla min detaljerade tråd nedan👇

31 jan. 2025
Traditionell RAG vs. Graph RAG, tydligt förklarad (med bilder):
1️2️⃣ ⃣ KV-cache
KV-cachning är en teknik som används för att påskynda LLM-inferens.
Jag har länkat min detaljerade tråd nedan👇

14 feb. 2025
KV-cachning i LLM, tydligt förklarat (med bilder):
Det är en wrap!
Om du tyckte att det var insiktsfullt, dela det igen med ditt nätverk.
Hitta mig → @_avichawla
Varje dag delar jag med mig av handledningar och insikter om DS, ML, LLM och RAGs.

6 aug. 14:30
12 MCP-, RAG- och Agents-fusklappar för AI-ingenjörer (med bilder):
255,39K
Topp
Rankning
Favoriter