Essa explosão de agentes de IA nos últimos tempos já não é mais uma previsão, todos podem ver. Mas por trás disso esconde-se uma questão delicada — como fazer a confirmação de identidade e a governança? Ainda não há uma resposta particularmente elegante.



Recentemente, tive contato com o projeto Kite, que fez algumas explorações interessantes nesse ponto problemático. Ele se apresenta como "a primeira blockchain de pagamento com IA", e o principal que faz é construir uma rede de agentes, permitindo aos usuários descobrir e chamar diversos agentes de IA de forma livre na interface familiar, do pedido de comida às compras, tudo resolvido. Em certo sentido, isso está quebrando a experiência fragmentada de serviços de IA atuais, um pouco parecido com a evolução da internet do portal para os motores de busca no início.

No aspecto técnico, optou por uma Layer1 compatível com EVM, com otimizações específicas para a coordenação em tempo real entre agentes de IA. Mas o ponto realmente interessante é o seu design de arquitetura de identidade em três camadas — separando completamente a gestão de usuários, agentes e sessões. Assim, não só aumenta a segurança, como também permite um controle de permissões com uma granularidade muito fina. A gestão tradicional de identidade de IA costuma ser bastante vaga, muitas vezes difícil de definir quem é responsável por quê. O Kite, por meio de um mecanismo de identidade criptografada, atribui etiquetas verificáveis a cada agente de IA, modelo ou até fonte de dados, garantindo rastreabilidade e governança. Em tempos de conteúdos deepfake abundantes, essa abordagem direcionada realmente merece atenção.

O design da camada de governança também é bastante flexível — regras programáveis permitem definir livremente permissões de agentes, limites de comportamento e fluxo de fundos. Há uma frase no documento que achei bastante interessante: "Permitir que os agentes de IA operem de forma autônoma no campo, ao mesmo tempo em que permanecem dentro de um quadro de governança". Isso representa um grande desafio de equilíbrio.
KITE5.79%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Republicar
  • Partilhar
Comentar
0/400
ForkLibertarianvip
· 8h atrás
A confirmação de identidade realmente é um problema, a solução de três camadas do Kite é interessante, mas parece que o mais difícil ainda é a execução... A governança programável do Kite soa bem, só tenho medo de virar outro "parece que resolve o problema"... Sobre deepfake, você tem razão, alguém precisa assumir a responsabilidade, não dá para a IA passar a culpa para o modelo, e o modelo passar para a fonte de dados, essa cadeia precisa ser esclarecida. Quebrar a experiência fragmentada é algo que apoio, é muito melhor do que a situação atual de explosão de aplicativos. "Operar de forma autônoma ao ar livre e dentro do quadro de governança"... essa frase é um pouco contraditória, o equilíbrio vai depender de como ela realmente funciona na prática.
Ver originalResponder0
OffchainWinnervip
· 8h atrás
Nossa, a ideia de separação de identidade em três camadas realmente tem algo de interessante, mas, para ser honesto, se a governança por IA vai realmente se concretizar, ainda depende da experiência real dos usuários. --- Com tantas deepfakes, só ter etiquetas será suficiente? A questão é se alguém realmente vai verificar isso. --- "Operando de forma autônoma ao ar livre e dentro de um framework", parece ótimo, mas quem vai garantir a responsabilidade, hein? --- Conseguir fazer desde pedidos até compras, isso é impressionante, mas primeiro quero ver casos reais antes de acreditar. --- A compatibilidade com EVM é um caminho bastante padrão, só tenho medo de ser mais um grande coro de L1. --- Ter granularidade fina nas permissões é bom, mas será que não vai complicar demais a vida do usuário? --- Regras programáveis parecem livres, mas na prática podem ser um pesadelo para usuários comuns. Como resolver isso? --- O mais importante é se a lógica de governança pode resistir ao teste do mercado real; PPTs são sempre perfeitos demais.
Ver originalResponder0
SchrodingerAirdropvip
· 8h atrás
A verificação de identidade realmente não pode ser evitada, o design de arquitetura de três camadas do Kite é realmente interessante
Ver originalResponder0
StakoorNeverSleepsvip
· 8h atrás
A ideia de separação de identidade em três camadas não é má, mas poucos projetos realmente conseguem implementar e fazer funcionar. Vamos esperar para ver.
Ver originalResponder0
0xLuckboxvip
· 8h atrás
嗯,三层身份架构这块确实有点东西,总比现在 uma pilha de caixas pretas de AI melhor. Deepfake esta questão agora está cada vez mais desenfreada, ter um sistema de etiquetas verificáveis ainda é confiável. A regra programável do Kite parece boa, o mais importante é se realmente pode ser usada. Operar de forma autônoma dentro do quadro de governança, dizer que é fácil, fazer é difícil, esse equilíbrio realmente é incrível. Se a questão da identidade não for resolvida, o AI proxy não poderá ser implementado em larga escala, agora nem mesmo quem é responsável está claro. Depois que essa tendência chegar, toda experiência de serviço de AI será redefinida. Estou curioso para saber exatamente como o mecanismo de etiquetas verificáveis deles impede adulteração. Desde portais até motores de busca, a comparação é boa, a rede de proxy de AI também precisa passar por esse processo de evolução.
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)