As empresas constroem RAG em mais de 100 fontes de dados, não uma! - A Microsoft o envia em produtos M365. - O Google o envia em sua pesquisa Vertex AI. - A AWS o envia em seu Amazon Q Business. Vamos construir um RAG baseado em MCP com mais de 200+ fontes (100% local):
Os dados corporativos estão espalhados por muitas fontes. Hoje, vamos construir um servidor MCP unificado que pode consultar 200+ fontes de uma interface. Pilha de tecnologia: - @mcpuse criar um cliente MCP local - @MindsDB para se conectar a fontes de dados - @ollama para servir GPT-oss localmente Vamos começar!
Aqui está o fluxo de trabalho: - O usuário envia uma consulta. - O agente se conecta ao servidor MCP do MindsDB para encontrar ferramentas. - Seleciona a ferramenta apropriada com base na consulta do usuário e a invoca - Finalmente, ele retorna uma resposta contextualmente relevante Agora, vamos mergulhar no código!
1️⃣ Configuração do Docker O MindsDB fornece imagens do Docker que podem ser executadas em contêineres do Docker. Instale o MindsDB localmente usando a imagem do Docker executando o comando em seu terminal. Confira isso 👇
2️⃣ Iniciar a GUI do MindsDB Depois de instalar a imagem do Docker, vá para a porta 47334 do host local em seu navegador para acessar o editor MindsDB. Por meio dessa interface, você pode se conectar a mais de 200 fontes de dados e executar consultas SQL nelas. Confira isso 👇
3️⃣ Integre fontes de dados Vamos começar a criar nosso mecanismo de consulta federado conectando nossas fontes de dados ao MindsDB. Usamos Slack, Gmail, GitHub e Hacker News como nossas fontes de dados federados. Confira isso 👇
4️⃣ Configuração do servidor MCP Depois de criar o mecanismo de consulta federado, vamos unificar nossas fontes de dados conectando-as ao servidor MCP do MindsDB. Adicione a configuração do servidor MCP a um arquivo JSON, conforme mostrado abaixo. Confira isso 👇
5️⃣ Conecte o cliente ao servidor Configuramos nosso cliente local via mcp-use e o conectamos ao servidor MCP com apenas 4 linhas de código. 1. Inicialize o cliente MCP a partir de um arquivo de configuração. 2. Conecte o LLM local via Ollama. 3. Crie um agente usando LLM e Client. 4. Execute a consulta. Verifique isso 👇
Terminado! Nosso servidor MindsDB MCP agora está conectado a um cliente local via mcp-use! Oferece duas ferramentas: - list_databases: Lista todas as fontes de dados conectadas ao MindsDB. - query: Responde às consultas do usuário sobre os dados federados. Verifique isso 👇
Por fim, envolvemos nossa configuração em uma interface Streamlit, onde podemos alterar dinamicamente a configuração do MCP e conversar diretamente com o agente. Confira esta demonstração👇
Isso é tudo! Se você achou perspicaz, compartilhe-o novamente com sua rede. Encontre-me → @_avichawla Todos os dias, compartilho tutoriais e insights sobre DS, ML, LLMs e RAGs.
Avi Chawla
Avi Chawla8 de ago., 14:33
As empresas constroem RAG em mais de 100 fontes de dados, não uma! - A Microsoft o envia em produtos M365. - O Google o envia em sua pesquisa Vertex AI. - A AWS o envia em seu Amazon Q Business. Vamos construir um RAG baseado em MCP com mais de 200+ fontes (100% local):
105,09K