Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La plupart des systèmes autonomes aujourd'hui reposent encore sur une confiance aveugle.
Nous faisons confiance aux agents pour qu'ils :
• Agissent comme prévu
• Restent dans les limites
• Évitent les comportements nuisibles
Mais la confiance sans enforcement ne se développe pas, surtout pour les logiciels.

La confiance aveugle ressemble généralement à ceci :
• Clés API larges
• Identifiants à longue durée de vie
• Permissions implicites
• Surveillance a posteriori
Si quelque chose ne va pas, les humains interviennent après que les dégâts sont faits.
C'est réactif, pas une autonomie sûre.
À mesure que les agents deviennent plus capables, la confiance aveugle devient plus risquée.
Plus d'intelligence signifie :
• Un espace d'action plus large
• Une exécution plus rapide
• Un rayon d'impact plus grand
Sans limites strictes, une seule erreur peut se propager instantanément.
Les contraintes programmables modifient le modèle.
Au lieu de faire confiance à l'intention, les systèmes appliquent des règles :
• Ce qu'un agent peut faire
• Combien il peut dépenser
• Quand l'autorité expire
• Quelles actions nécessitent une escalade
Les contraintes sont exécutées par du code, pas par des politiques.
Cela déplace la sécurité du jugement humain vers l'infrastructure.
Les contraintes peuvent être :
• Délimitées (actions spécifiques uniquement)
• Temporelles (limitées à la session)
• Budgétaires (plafonds de dépenses)
• Révocables automatiquement
Pas d'assumptions. Pas de conjectures.
Il est important de noter que les contraintes programmables ne réduisent pas l'autonomie.
Elles l'autorisent.
Lorsque les agents opèrent dans des limites imposées, ils peuvent agir de manière indépendante sans supervision constante ni approbations manuelles.
La confiance, dans ce modèle, devient vérifiable.
Chaque action peut être :
• Autorisée
• Vérifiée par des contraintes
• Enregistrée
• Auditée après exécution
La confiance n'est plus sociale ou subjective, elle est prouvable.
La confiance aveugle demande : « Croyons-nous que cet agent se comportera ? »
Les contraintes programmables demandent : « Que peut faire cet agent ? »
Seule l'une de ces options est sûre.
L'avenir des systèmes autonomes ne dépendra pas de meilleures promesses ou de politiques plus strictes.
Il dépendra d'une infrastructure qui impose des limites par défaut.
C'est pourquoi Kite est construit autour de contraintes programmables, et non d'une confiance aveugle 🪁
206
Meilleurs
Classement
Favoris
