Construisez et servez des LlamaAgents localement avec llamactl - notre outil CLI pour créer, tester et expédier des LlamaAgents - construit sur LlamaIndex Workflows Faites fonctionner vos agents pilotés par des workflows en quelques minutes avec ces fonctionnalités puissantes : 🚀 Initialisez des projets à partir de modèles avec `llamactl init` - choisissez entre des applications UI full-stack ou des workflows API sans tête ⚡ Développez localement avec `llamactl serve` - installe automatiquement les dépendances, sert les workflows en tant qu'APIs et proxy votre frontend ☁️ Déployez instantanément sur LlamaCloud avec `llamactl deployments create` - pointez vers votre dépôt git et expédiez en quelques secondes 🔄 Exécutions de workflow durables qui peuvent se mettre en pause pour une intervention humaine et reprendre sans problème Prêt à commencer ? Consultez notre guide complet pour bien démarrer :