Crie e sirva LlamaAgents localmente com llamactl - nossa ferramenta CLI para criar, testar e enviar LlamaAgents - construída sobre os fluxos de trabalho do LlamaIndex Coloque seus agentes orientados por fluxo de trabalho em execução em minutos com estes recursos poderosos: 🚀 Inicialize projetos a partir de modelos com 'llamactl init' - escolha entre aplicativos de interface do usuário full-stack ou fluxos de trabalho de API sem periféricos ⚡ Desenvolva localmente com 'llamactl serve' - instala automaticamente dependências, serve fluxos de trabalho como APIs e faz proxy de seu front-end ☁️ Implante no LlamaCloud instantaneamente com 'llamactl deployments create' - aponte para o seu repositório git e envie em segundos 🔄 Execuções de fluxo de trabalho duráveis que podem pausar para entrada humana e retomar sem problemas Pronto para começar? Confira nosso guia completo de introdução: