12 folhas de referência de MCP, RAG e agentes para engenheiros de IA (com recursos visuais):
1️⃣ Chamada de função e MCP para LLMs Antes de os MCPs se tornarem populares, os fluxos de trabalho de IA dependiam da chamada de função tradicional para acesso à ferramenta. Agora, o MCP está padronizando para Agentes/LLMs. O visual cobre como a chamada de função e o MCP funcionam sob o capô. Confira o tópico abaixo 👇
Avi Chawla
Avi Chawla20 de abr. de 2025
Chamada de função e MCP para LLMs, claramente explicado (com visuais):
2️⃣ 4 estágios de treinamento de LLMs do zero Este visual cobre os 4 estágios da construção de LLMs do zero para torná-los praticamente aplicáveis. - Pré-treino - Ajuste fino de instruções - Ajuste fino de preferência - Ajuste fino do raciocínio Aqui está meu tópico detalhado sobre isso 👇
Avi Chawla
Avi Chawla21 de jul. de 2025
4 estágios de treinamento de LLMs do zero, claramente explicados (com recursos visuais):
3️⃣ 3 Técnicas de Solicitação para Raciocínio em LLMs Isso abrange três técnicas populares de solicitação que ajudam os LLMs a pensar com mais clareza antes de responder. - Cadeia de Pensamento (CoT) - Autoconsistência (ou votação majoritária sobre CoT) - Árvore dos Pensamentos (ToT) Leia meu tópico detalhado sobre isso abaixo 👇
Avi Chawla
Avi Chawla29 de mai. de 2025
3 técnicas para desbloquear o raciocínio em LLMs, claramente explicadas (com recursos visuais):
4️⃣ Treine LLMs usando outros LLMs Os LLMs não aprendem apenas com o texto bruto; eles também aprendem uns com os outros. - Llama 4 Scout e Maverick foram treinados usando Llama 4 Behemoth. - Gemma 2 e 3 foram treinadas usando o Gemini. O visual explica 3 técnicas populares. Leia o tópico abaixo 👇
Avi Chawla
Avi Chawla21 de mai. de 2025
Como os LLMs treinam LLMs, claramente explicados (com recursos visuais):
5️⃣ Ajuste fino supervisionado e de reforço em LLMs Esse visual aborda a diferença entre o ajuste fino supervisionado e o ajuste fino de reforço. O RFT permite que você transforme qualquer LLM de código aberto em uma potência de raciocínio sem nenhum dado rotulado. Leia o tópico abaixo 👇
Avi Chawla
Avi Chawla23 de abr. de 2025
Ajuste fino supervisionado e de reforço em LLMs, claramente explicado (com recursos visuais):
6️⃣ Transformador vs. Mistura de Especialistas em LLMs Mixture of Experts (MoE) é uma arquitetura popular que usa diferentes "especialistas" para melhorar os modelos do Transformer. O visual abaixo explica como eles diferem dos Transformers. Aqui está meu tópico detalhado sobre isso👇
Avi Chawla
Avi Chawla25 de fev. de 2025
Transformador vs. Mistura de Especialistas em LLMs, claramente explicado (com recursos visuais):
7️⃣ RAG vs RAG Agêntico O RAG ingênuo recupera uma vez e gera uma vez, não pode procurar dinamicamente por mais informações e não pode raciocinar por meio de consultas complexas. O RAG agêntico resolve isso. Confira meu tópico explicativo detalhado sobre isso👇
Avi Chawla
Avi Chawla17 de jan. de 2025
RAG tradicional vs. RAG agente, claramente explicado (com recursos visuais):
8️⃣ 5 padrões de design populares de IA Agentic Os comportamentos agenciais permitem que os LLMs refinem sua produção incorporando autoavaliação, planejamento e colaboração! Este visual descreve os 5 padrões de design populares para a criação de agentes de IA. Verifique meu tópico para mais informações👇
Avi Chawla
Avi Chawla23 de jan. de 2025
5 padrões de design de IA Agentic mais populares, claramente explicados (com recursos visuais):
9️⃣ 5 níveis de sistemas de IA agêntica Os sistemas agenciais não geram apenas texto; Eles tomam decisões, chamam funções e até executam fluxos de trabalho autônomos. O visual explica 5 níveis de agência de IA. Eu vinculei meu tópico👇 explicativo detalhado
Avi Chawla
Avi Chawla21 de mar. de 2025
5 níveis de sistemas de IA agêntica, claramente explicados (com recursos visuais):
🔟 RAG Tradicional vs HyDE As perguntas não são semanticamente semelhantes às respostas, portanto, o sistema pode recuperar um contexto irrelevante. No HyDE, primeiro gere uma resposta hipotética (H) para consultar. Em seguida, use (H) para recuperar o contexto relevante (C). Eu escrevi um tópico detalhado sobre isso👇
Avi Chawla
Avi Chawla26 de dez. de 2024
RAG tradicional vs. HyDE, claramente explicado (com recursos visuais):
1️1️⃣ ⃣ RAG vs RAG Gráfico Responder a perguntas que precisam de contexto global é difícil com o RAG tradicional, pois ele recupera apenas os principais k pedaços relevantes. O RAG de gráfico torna o RAG mais robusto com estruturas de gráfico. Confira meu tópico detalhado abaixo👇
Avi Chawla
Avi Chawla31 de jan. de 2025
RAG tradicional vs. RAG gráfico, claramente explicado (com recursos visuais):
1️2️⃣ ⃣ Cache KV O cache KV é uma técnica usada para acelerar a inferência de LLM. Eu vinculei meu tópico detalhado abaixo👇
Avi Chawla
Avi Chawla14 de fev. de 2025
Cache KV em LLMs, claramente explicado (com recursos visuais):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 de ago., 14:30
12 folhas de referência de MCP, RAG e agentes para engenheiros de IA (com recursos visuais):
254,96K