12 шпаргалок по MCP, RAG и агентам для инженеров ИИ (с визуализациями):
1️⃣ Вызов функций и MCP для LLM Прежде чем MCP стали популярными, рабочие процессы ИИ полагались на традиционный вызов функций для доступа к инструментам. Теперь MCP стандартизирует это для агентов/LLM. Визуализация показывает, как работает вызов функций и MCP под капотом. Проверьте поток ниже 👇
Avi Chawla
Avi Chawla20 апр. 2025 г.
Вызов функций и MCP для LLM, понятное объяснение (с визуальными эффектами):
2️⃣ 4 этапа обучения LLM с нуля Этот визуал охватывает 4 этапа создания LLM с нуля, чтобы сделать их практически применимыми. - Предварительное обучение - Тонкая настройка инструкций - Тонкая настройка предпочтений - Тонкая настройка рассуждений Вот моя подробная нить об этом 👇
Avi Chawla
Avi Chawla21 июл. 2025 г.
4 этапа обучения LLM с нуля, четко объясненные (с визуализацией):
3️⃣ 3 техники подсказок для рассуждений в LLM Это охватывает три популярных техники подсказок, которые помогают LLM мыслить более ясно перед тем, как они ответят. - Цепочка размышлений (CoT) - Самосогласованность (или голосование большинства по CoT) - Дерево мыслей (ToT) Читать мой подробный поток об этом ниже 👇
Avi Chawla
Avi Chawla29 мая 2025 г.
3 техники для разблокировки рассуждений в LLM, четко объясненные (с визуализациями):
4️⃣ Обучение LLM с использованием других LLM LLM учатся не только на сыром тексте; они также учатся друг у друга. - Llama 4 Scout и Maverick были обучены с использованием Llama 4 Behemoth. - Gemma 2 и 3 были обучены с использованием Gemini. На визуале объясняются 3 популярных техники. Читать тред ниже 👇
Avi Chawla
Avi Chawla21 мая 2025 г.
Как LLM обучают LLM, объяснено понятно (с иллюстрациями):
5️⃣ Супервизируемая и усиленная дообучение в LLM Этот визуал иллюстрирует разницу между супервизируемым дообучением и усиленным дообучением. RFT позволяет вам преобразовать любую открытую LLM в мощный инструмент для рассуждений без каких-либо размеченных данных. Читать тред ниже 👇
Avi Chawla
Avi Chawla23 апр. 2025 г.
Супервизированная и усиленная доработка в LLM, четко объясненная (с визуализациями):
6️⃣ Трансформер против Смешанной Экспертизы в LLM Смешанная Экспертиза (MoE) — это популярная архитектура, которая использует различных "экспертов" для улучшения моделей Трансформеров. На визуале ниже объясняется, как они отличаются от Трансформеров. Вот моя подробная нить об этом👇
Avi Chawla
Avi Chawla25 февр. 2025 г.
Трансформер против смеси экспертов в области LLM, понятное объяснение (с визуальными эффектами):
7️⃣ RAG против Agentic RAG Наивный RAG извлекает информацию один раз и генерирует один раз, он не может динамически искать больше информации и не может рассуждать по сложным запросам. Agentic RAG решает эту проблему. Посмотрите мой подробный объяснительный поток по этому поводу👇
Avi Chawla
Avi Chawla17 янв. 2025 г.
Традиционная RAG против агентской RAG, понятное объяснение (с визуальными эффектами):
8️⃣ 5 популярных паттернов проектирования агентного ИИ Агентные поведения позволяют LLM улучшать свои результаты, включая самооценку, планирование и сотрудничество! Эта визуализация изображает 5 популярных паттернов проектирования для создания ИИ-агентов. Посмотрите мою ветку об этом для получения дополнительной информации👇
Avi Chawla
Avi Chawla23 янв. 2025 г.
5 самых популярных паттернов проектирования агентного ИИ, четко объясненных (с визуализациями):
9️⃣ 5 уровней Агентных систем ИИ Агентные системы не просто генерируют текст; Они принимают решения, вызывают функции и даже запускают автономные рабочие процессы. Визуал объясняет 5 уровней агентности ИИ. Я дал ссылку на свою ветку👇 подробного объяснения
Avi Chawla
Avi Chawla21 мар. 2025 г.
5 уровней Агентных систем ИИ, понятно объясненных (с визуальными эффектами):
🔟 Традиционная RAG против HyDE Вопросы семантически не похожи на ответы, поэтому система может получить нерелевантный контекст. В HyDE сначала сгенерируйте гипотетический ответ (H) на запрос. Затем используйте (H) для получения соответствующего контекста (C). Я написал подробную ветку об этом👇
Avi Chawla
Avi Chawla26 дек. 2024 г.
Традиционная RAG против HyDE, понятное объяснение (с визуальными эффектами):
1️1️⃣ ⃣ RAG против Graph RAG Ответить на вопросы, требующие глобального контекста, сложно с помощью традиционной RAG, поскольку она извлекает только релевантные фрагменты в первую очередь. Graph RAG делает RAG более устойчивым благодаря графовым структурам. Ознакомьтесь с моей подробной веткой ниже👇
Avi Chawla
Avi Chawla31 янв. 2025 г.
Традиционный RAG против графового RAG, четко объяснено (с визуализациями):
1️2️⃣ ⃣ Кэширование кВ Кэширование KV — это метод, используемый для ускорения вывода LLM. Я дал ссылку на свою подробную тему ниже👇
Avi Chawla
Avi Chawla14 февр. 2025 г.
Кэширование KV в LLM, понятное объяснение (с визуалами):
That's a wrap! If you found it insightful, reshare it with your network. Find me → @_avichawla Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.
Avi Chawla
Avi Chawla6 авг., 14:30
12 шпаргалок по MCP, RAG и агентам для инженеров ИИ (с визуализациями):
254,96K