Cette période d'explosion des agents IA n'est plus une prévision, tout le monde peut le voir. Mais derrière cela se cache un problème épineux — comment gérer la vérification d'identité et la gouvernance ? Il n'y a pas encore de réponse particulièrement élégante.
Récemment, j'ai découvert le projet Kite, qui a fait quelques explorations intéressantes sur ce point sensible. Il se présente comme "la première blockchain de paiement IA", et son principal objectif est de construire un réseau d'agents, permettant aux utilisateurs de découvrir et d'appeler librement divers agents IA via une interface familière, que ce soit pour commander ou faire des achats. Dans une certaine mesure, cela brise l'expérience fragmentée des services IA actuels, un peu comme l'évolution d'Internet du portail web au moteur de recherche au début.
Côté technologie, ils ont choisi une couche Layer1 compatible EVM, spécialement optimisée pour la coordination en temps réel entre agents IA. Mais le vrai point intéressant réside dans leur conception à trois couches de gestion d'identité — séparant complètement l'utilisateur, l'agent et la session. Cela renforce non seulement la sécurité, mais permet aussi un contrôle d'accès très granulaire. La gestion traditionnelle d'identité IA reste souvent floue, il est difficile de définir qui est responsable de quoi. Kite utilise un mécanisme d'identité cryptée, attribuant à chaque agent IA, modèle ou même source de données une étiquette vérifiable, permettant la traçabilité et la gouvernance. Dans un contexte où les contenus deepfake abondent, cette approche ciblée mérite vraiment d'être suivie.
La conception au niveau de la gouvernance est également très flexible — des règles programmables permettent de définir librement les permissions des agents, les limites de comportement et les flux financiers. Il y a une phrase dans la documentation qui est assez intéressante : "Permettre aux agents IA de fonctionner de manière autonome en plein air, tout en restant dans un cadre de gouvernance". C'est un équilibre non négligeable.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
5
Reposter
Partager
Commentaire
0/400
ForkLibertarian
· Il y a 19h
La vérification d'identité est vraiment un piège, la solution à trois couches de Kite est intéressante, mais le vrai défi semble toujours être la mise en œuvre...
Le système de gouvernance programmable de Kite a l'air pas mal, mais j'ai peur qu'il ne devienne encore une autre solution "qui semble résoudre le problème"...
Ce que vous dites sur la deepfake est juste, il faut quelqu'un pour assumer la responsabilité, on ne peut pas laisser l'IA faire porter le chapeau au modèle, puis le modèle rejeter la faute sur la source de données, cette chaîne doit être clarifiée.
Je suis d'accord pour briser cette expérience fragmentée, c'est bien mieux que la situation actuelle où cette application explose.
"Opérer de manière autonome en plein air tout en restant dans le cadre de la gouvernance"... cette phrase est un peu contradictoire, il faut voir comment équilibrer cela en pratique une fois que ça fonctionne.
Voir l'originalRépondre0
OffchainWinner
· Il y a 19h
Merde, l'idée de séparation à trois niveaux d'identité est vraiment intéressante, mais pour être honnête, la mise en œuvre de la gouvernance par IA dépendra surtout de l'expérience réelle des utilisateurs.
---
Tant de faux contenus, avoir juste une étiquette suffit-il ? La vraie question est : est-ce que quelqu'un va vraiment vérifier ?
---
"Fonctionnement autonome en plein air tout en restant dans le cadre", ça sonne bien, mais qui prendra en charge la garantie ?
---
Pouvoir gérer la commande et le shopping, c'est impressionnant, mais laissez-moi d'abord voir des cas concrets avant de juger.
---
La compatibilité EVM est une voie très standard, j'ai peur que ce soit encore un grand chœur de L1.
---
Un granularité fine des permissions, c'est bien, mais ne risque-t-elle pas de compliquer la vie des utilisateurs ?
---
Les règles programmables semblent libres en théorie, mais pour un utilisateur lambda, cela pourrait être un cauchemar. Que faire ?
---
L'essentiel reste de savoir si la logique de gouvernance peut résister à l'épreuve du marché réel. Les PPT sont toujours parfaits.
Voir l'originalRépondre0
SchrodingerAirdrop
· Il y a 19h
La vérification d'identité est effectivement incontournable, la conception en trois couches de Kite est plutôt intéressante
Voir l'originalRépondre0
StakoorNeverSleeps
· Il y a 19h
L'idée de séparation des trois niveaux d'identité n'est pas mauvaise, mais il n'y a pas beaucoup de projets qui peuvent réellement être mis en œuvre et fonctionner. Attendons de voir.
Voir l'originalRépondre0
0xLuckbox
· Il y a 19h
Hmm, la architecture à trois niveaux d'identité a vraiment du potentiel, c'est bien mieux que toute une série de boîtes noires AI actuelles.
La deepfake devient de plus en plus courante, avoir un système d'étiquetage vérifiable est vraiment fiable.
La règle programmable de Kite semble intéressante, mais la question est de savoir si elle peut vraiment être utilisée.
Fonctionner de manière autonome dans le cadre du système de gouvernance, c'est facile à dire mais difficile à faire, cet équilibre est vraiment exceptionnel.
Si le problème d'identité n'est pas résolu, la mise en œuvre à grande échelle des agents IA sera impossible, on ne sait même pas qui en est responsable.
Après l'arrivée de cette tendance, toutes les expériences de service IA seront redéfinies.
Je suis un peu curieux de savoir comment leur mécanisme d'étiquetage vérifiable empêche précisément la falsification.
Du portail web au moteur de recherche, la comparaison est plutôt bonne, le réseau d'agents IA doit aussi traverser cette étape d'évolution.
Cette période d'explosion des agents IA n'est plus une prévision, tout le monde peut le voir. Mais derrière cela se cache un problème épineux — comment gérer la vérification d'identité et la gouvernance ? Il n'y a pas encore de réponse particulièrement élégante.
Récemment, j'ai découvert le projet Kite, qui a fait quelques explorations intéressantes sur ce point sensible. Il se présente comme "la première blockchain de paiement IA", et son principal objectif est de construire un réseau d'agents, permettant aux utilisateurs de découvrir et d'appeler librement divers agents IA via une interface familière, que ce soit pour commander ou faire des achats. Dans une certaine mesure, cela brise l'expérience fragmentée des services IA actuels, un peu comme l'évolution d'Internet du portail web au moteur de recherche au début.
Côté technologie, ils ont choisi une couche Layer1 compatible EVM, spécialement optimisée pour la coordination en temps réel entre agents IA. Mais le vrai point intéressant réside dans leur conception à trois couches de gestion d'identité — séparant complètement l'utilisateur, l'agent et la session. Cela renforce non seulement la sécurité, mais permet aussi un contrôle d'accès très granulaire. La gestion traditionnelle d'identité IA reste souvent floue, il est difficile de définir qui est responsable de quoi. Kite utilise un mécanisme d'identité cryptée, attribuant à chaque agent IA, modèle ou même source de données une étiquette vérifiable, permettant la traçabilité et la gouvernance. Dans un contexte où les contenus deepfake abondent, cette approche ciblée mérite vraiment d'être suivie.
La conception au niveau de la gouvernance est également très flexible — des règles programmables permettent de définir librement les permissions des agents, les limites de comportement et les flux financiers. Il y a une phrase dans la documentation qui est assez intéressante : "Permettre aux agents IA de fonctionner de manière autonome en plein air, tout en restant dans un cadre de gouvernance". C'est un équilibre non négligeable.