Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
12 шпаргалок по MCP, RAG и агентам для инженеров ИИ (с визуализациями):
1️⃣ Вызов функций и MCP для LLM
Прежде чем MCP стали популярными, рабочие процессы ИИ полагались на традиционный вызов функций для доступа к инструментам. Теперь MCP стандартизирует это для агентов/LLM.
Визуализация показывает, как работает вызов функций и MCP под капотом.
Проверьте поток ниже 👇

20 апр. 2025 г.
Вызов функций и MCP для LLM, понятное объяснение (с визуальными эффектами):
2️⃣ 4 этапа обучения LLM с нуля
Этот визуал охватывает 4 этапа создания LLM с нуля, чтобы сделать их практически применимыми.
- Предварительное обучение
- Тонкая настройка инструкций
- Тонкая настройка предпочтений
- Тонкая настройка рассуждений
Вот моя подробная нить об этом 👇

21 июл. 2025 г.
4 этапа обучения LLM с нуля, четко объясненные (с визуализацией):
3️⃣ 3 техники подсказок для рассуждений в LLM
Это охватывает три популярных техники подсказок, которые помогают LLM мыслить более ясно перед тем, как они ответят.
- Цепочка размышлений (CoT)
- Самосогласованность (или голосование большинства по CoT)
- Дерево мыслей (ToT)
Читать мой подробный поток об этом ниже 👇

29 мая 2025 г.
3 техники для разблокировки рассуждений в LLM, четко объясненные (с визуализациями):
4️⃣ Обучение LLM с использованием других LLM
LLM учатся не только на сыром тексте; они также учатся друг у друга.
- Llama 4 Scout и Maverick были обучены с использованием Llama 4 Behemoth.
- Gemma 2 и 3 были обучены с использованием Gemini.
На визуале объясняются 3 популярных техники.
Читать тред ниже 👇

21 мая 2025 г.
Как LLM обучают LLM, объяснено понятно (с иллюстрациями):
5️⃣ Супервизируемая и усиленная дообучение в LLM
Этот визуал иллюстрирует разницу между супервизируемым дообучением и усиленным дообучением.
RFT позволяет вам преобразовать любую открытую LLM в мощный инструмент для рассуждений без каких-либо размеченных данных.
Читать тред ниже 👇

23 апр. 2025 г.
Супервизированная и усиленная доработка в LLM, четко объясненная (с визуализациями):
6️⃣ Трансформер против Смешанной Экспертизы в LLM
Смешанная Экспертиза (MoE) — это популярная архитектура, которая использует различных "экспертов" для улучшения моделей Трансформеров.
На визуале ниже объясняется, как они отличаются от Трансформеров.
Вот моя подробная нить об этом👇

25 февр. 2025 г.
Трансформер против смеси экспертов в области LLM, понятное объяснение (с визуальными эффектами):
7️⃣ RAG против Agentic RAG
Наивный RAG извлекает информацию один раз и генерирует один раз, он не может динамически искать больше информации и не может рассуждать по сложным запросам.
Agentic RAG решает эту проблему.
Посмотрите мой подробный объяснительный поток по этому поводу👇

17 янв. 2025 г.
Традиционная RAG против агентской RAG, понятное объяснение (с визуальными эффектами):
8️⃣ 5 популярных паттернов проектирования агентного ИИ
Агентные поведения позволяют LLM улучшать свои результаты, включая самооценку, планирование и сотрудничество!
Эта визуализация изображает 5 популярных паттернов проектирования для создания ИИ-агентов.
Посмотрите мою ветку об этом для получения дополнительной информации👇

23 янв. 2025 г.
5 самых популярных паттернов проектирования агентного ИИ, четко объясненных (с визуализациями):
9️⃣ 5 уровней Агентных систем ИИ
Агентные системы не просто генерируют текст; Они принимают решения, вызывают функции и даже запускают автономные рабочие процессы.
Визуал объясняет 5 уровней агентности ИИ.
Я дал ссылку на свою ветку👇 подробного объяснения

21 мар. 2025 г.
5 уровней Агентных систем ИИ, понятно объясненных (с визуальными эффектами):
🔟 Традиционная RAG против HyDE
Вопросы семантически не похожи на ответы, поэтому система может получить нерелевантный контекст.
В HyDE сначала сгенерируйте гипотетический ответ (H) на запрос. Затем используйте (H) для получения соответствующего контекста (C).
Я написал подробную ветку об этом👇

26 дек. 2024 г.
Традиционная RAG против HyDE, понятное объяснение (с визуальными эффектами):
1️1️⃣ ⃣ RAG против Graph RAG
Ответить на вопросы, требующие глобального контекста, сложно с помощью традиционной RAG, поскольку она извлекает только релевантные фрагменты в первую очередь.
Graph RAG делает RAG более устойчивым благодаря графовым структурам.
Ознакомьтесь с моей подробной веткой ниже👇

31 янв. 2025 г.
Традиционный RAG против графового RAG, четко объяснено (с визуализациями):
1️2️⃣ ⃣ Кэширование кВ
Кэширование KV — это метод, используемый для ускорения вывода LLM.
Я дал ссылку на свою подробную тему ниже👇

14 февр. 2025 г.
Кэширование KV в LLM, понятное объяснение (с визуалами):
That's a wrap!
If you found it insightful, reshare it with your network.
Find me → @_avichawla
Every day, I share tutorials and insights on DS, ML, LLMs, and RAGs.

6 авг., 14:30
12 шпаргалок по MCP, RAG и агентам для инженеров ИИ (с визуализациями):
254,96K
Топ
Рейтинг
Избранное