Auparavant, nous considérions toujours "l'exécution intelligente" comme un moteur d'accélération, mais en recentrant notre perspective sur l'ensemble de l'écosystème Web3, nous avons réalisé une chose particulièrement importante : à l'avenir, non seulement les utilisateurs dépendront des agents AI, mais les plateformes d'échange, Portefeuilles, Finance décentralisée, moteurs de compensation et applications d'entreprise, tous ces grands systèmes, adopteront également l'exécution automatisée de manière complète.
Imagine un tel scénario : la plateforme d'échange permet à un agent de surveiller les prix pour vous, de passer des commandes automatiquement, de régler dynamiquement l'effet de levier, de reconstituer intelligemment les fonds et de déplacer les stops ; le protocole de Finance décentralisée permet à un agent de miner pour vous, de transférer des actifs et de gérer la liquidité ; le trésor d'entreprise utilise un agent pour exécuter le budget de l'équipe, déplacer des fonds et répartir les bénéfices. De cette manière, la densité des comportements en chaîne sera portée à un niveau inimaginable.
Mais il y a un problème de fond ici : avec autant d'agents exécutant des tâches sur la chaîne en même temps, qui va réguler leur comportement ?
Ce n'est pas une question de punition, mais une question de structure. Sans une couche de cadre sous-jacent capable de limiter les débordements des agents, ces systèmes seront tôt ou tard alourdis par l'automatisation qu'ils ont eux-mêmes introduite. C'est pourquoi il est nécessaire d'avoir une couche de régulation spécialement conçue pour les "systèmes d'agents à comportement rapide".
La plateforme d'échange est l'exemple le plus typique. Dans le passé, les transactions étaient toutes effectuées manuellement, les risques et le rythme étaient conçus selon le comportement humain. Mais à l'avenir, une fois que les agents commenceront à exécuter des stratégies pour les utilisateurs, les actions de commande pourraient directement devenir de l'ordre de la seconde, voire de la milliseconde. Le volume d'actions que le système doit supporter va croître de manière explosive, et ces actions ne sont pas nécessairement toutes soumises à une vérification complète des autorisations. Par exemple, après avoir obtenu l'autorisation de l'utilisateur, y a-t-il une possibilité qu'un agent dépasse les limites de cette autorisation ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
3
Reposter
Partager
Commentaire
0/400
RugPullProphet
· 2025-12-25 04:56
Hmm... Je pense qu'il y a un problème de logique, la limite du proxy n'est-elle pas aussi une faute de la conception des permissions ?
Voir l'originalRépondre0
TopEscapeArtist
· 2025-12-23 18:54
L'affaire de l'agent qui dépasse les limites, pour être franc, c'est une opération à haute fréquence au niveau des millisecondes sans surveillance. J'ai l'impression que cela ressemble à ce sentiment de perte de contrôle que j'ai ressenti lorsque j'ai acheté le dip à un niveau élevé... La vérification des autorisations n'est pas complète, qui peut garantir qu'il n'y aura pas une nouvelle liquidation systématique ?
Voir l'originalRépondre0
RumbleValidator
· 2025-12-23 18:36
C'est là le cœur du problème, une frontière de droits floue, c'est comme poser des mines. Quand il y aura un problème, qui prendra la responsabilité ?
Auparavant, nous considérions toujours "l'exécution intelligente" comme un moteur d'accélération, mais en recentrant notre perspective sur l'ensemble de l'écosystème Web3, nous avons réalisé une chose particulièrement importante : à l'avenir, non seulement les utilisateurs dépendront des agents AI, mais les plateformes d'échange, Portefeuilles, Finance décentralisée, moteurs de compensation et applications d'entreprise, tous ces grands systèmes, adopteront également l'exécution automatisée de manière complète.
Imagine un tel scénario : la plateforme d'échange permet à un agent de surveiller les prix pour vous, de passer des commandes automatiquement, de régler dynamiquement l'effet de levier, de reconstituer intelligemment les fonds et de déplacer les stops ; le protocole de Finance décentralisée permet à un agent de miner pour vous, de transférer des actifs et de gérer la liquidité ; le trésor d'entreprise utilise un agent pour exécuter le budget de l'équipe, déplacer des fonds et répartir les bénéfices. De cette manière, la densité des comportements en chaîne sera portée à un niveau inimaginable.
Mais il y a un problème de fond ici : avec autant d'agents exécutant des tâches sur la chaîne en même temps, qui va réguler leur comportement ?
Ce n'est pas une question de punition, mais une question de structure. Sans une couche de cadre sous-jacent capable de limiter les débordements des agents, ces systèmes seront tôt ou tard alourdis par l'automatisation qu'ils ont eux-mêmes introduite. C'est pourquoi il est nécessaire d'avoir une couche de régulation spécialement conçue pour les "systèmes d'agents à comportement rapide".
La plateforme d'échange est l'exemple le plus typique. Dans le passé, les transactions étaient toutes effectuées manuellement, les risques et le rythme étaient conçus selon le comportement humain. Mais à l'avenir, une fois que les agents commenceront à exécuter des stratégies pour les utilisateurs, les actions de commande pourraient directement devenir de l'ordre de la seconde, voire de la milliseconde. Le volume d'actions que le système doit supporter va croître de manière explosive, et ces actions ne sont pas nécessairement toutes soumises à une vérification complète des autorisations. Par exemple, après avoir obtenu l'autorisation de l'utilisateur, y a-t-il une possibilité qu'un agent dépasse les limites de cette autorisation ?