Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
As empresas constroem RAG em mais de 100 fontes de dados, não uma!
- A Microsoft o envia em produtos M365.
- O Google o envia em sua pesquisa Vertex AI.
- A AWS o envia em seu Amazon Q Business.
Vamos construir um RAG baseado em MCP com mais de 200+ fontes (100% local):
Os dados corporativos estão espalhados por muitas fontes.
Hoje, vamos construir um servidor MCP unificado que pode consultar 200+ fontes de uma interface.
Pilha de tecnologia:
- @mcpuse criar um cliente MCP local
- @MindsDB para se conectar a fontes de dados
- @ollama para servir GPT-oss localmente
Vamos começar!
Aqui está o fluxo de trabalho:
- O usuário envia uma consulta.
- O agente se conecta ao servidor MCP do MindsDB para encontrar ferramentas.
- Seleciona a ferramenta apropriada com base na consulta do usuário e a invoca
- Finalmente, ele retorna uma resposta contextualmente relevante
Agora, vamos mergulhar no código!
1️⃣ Configuração do Docker
O MindsDB fornece imagens do Docker que podem ser executadas em contêineres do Docker.
Instale o MindsDB localmente usando a imagem do Docker executando o comando em seu terminal.
Confira isso 👇

2️⃣ Iniciar a GUI do MindsDB
Depois de instalar a imagem do Docker, vá para a porta 47334 do host local em seu navegador para acessar o editor MindsDB.
Por meio dessa interface, você pode se conectar a mais de 200 fontes de dados e executar consultas SQL nelas.
Confira isso 👇
3️⃣ Integre fontes de dados
Vamos começar a criar nosso mecanismo de consulta federado conectando nossas fontes de dados ao MindsDB.
Usamos Slack, Gmail, GitHub e Hacker News como nossas fontes de dados federados.
Confira isso 👇

4️⃣ Configuração do servidor MCP
Depois de criar o mecanismo de consulta federado, vamos unificar nossas fontes de dados conectando-as ao servidor MCP do MindsDB.
Adicione a configuração do servidor MCP a um arquivo JSON, conforme mostrado abaixo.
Confira isso 👇

5️⃣ Conecte o cliente ao servidor
Configuramos nosso cliente local via mcp-use e o conectamos ao servidor MCP com apenas 4 linhas de código.
1. Inicialize o cliente MCP a partir de um arquivo de configuração.
2. Conecte o LLM local via Ollama.
3. Crie um agente usando LLM e Client.
4. Execute a consulta.
Verifique isso 👇

Terminado!
Nosso servidor MindsDB MCP agora está conectado a um cliente local via mcp-use!
Oferece duas ferramentas:
- list_databases: Lista todas as fontes de dados conectadas ao MindsDB.
- query: Responde às consultas do usuário sobre os dados federados.
Verifique isso 👇

Por fim, envolvemos nossa configuração em uma interface Streamlit, onde podemos alterar dinamicamente a configuração do MCP e conversar diretamente com o agente.
Confira esta demonstração👇
Isso é tudo!
Se você achou perspicaz, compartilhe-o novamente com sua rede.
Encontre-me → @_avichawla
Todos os dias, compartilho tutoriais e insights sobre DS, ML, LLMs e RAGs.

8 de ago., 14:33
As empresas constroem RAG em mais de 100 fontes de dados, não uma!
- A Microsoft o envia em produtos M365.
- O Google o envia em sua pesquisa Vertex AI.
- A AWS o envia em seu Amazon Q Business.
Vamos construir um RAG baseado em MCP com mais de 200+ fontes (100% local):
105,09K
Melhores
Classificação
Favoritos