Construa e sirva LlamaAgents localmente com llamactl - a nossa ferramenta CLI para criar, testar e enviar LlamaAgents - construída sobre LlamaIndex Workflows Coloque os seus agentes orientados por fluxos de trabalho a funcionar em minutos com estas poderosas funcionalidades: 🚀 Inicialize projetos a partir de templates com `llamactl init` - escolha entre aplicações UI de pilha completa ou fluxos de trabalho API sem cabeça ⚡ Desenvolva localmente com `llamactl serve` - instala automaticamente as dependências, serve fluxos de trabalho como APIs e faz proxy do seu frontend ☁️ Implemente no LlamaCloud instantaneamente com `llamactl deployments create` - aponte para o seu repositório git e envie em segundos 🔄 Execuções de fluxo de trabalho duráveis que podem pausar para input humano e retomar sem problemas Pronto para começar? Confira o nosso guia completo de introdução: