Antes, costumávamos ver a "execução inteligente" como um motor de aceleração, mas ao redirecionar a perspectiva para todo o ecossistema Web3, percebemos algo muito importante - no futuro, não apenas os usuários dependerão de agentes de IA, mas também os sistemas de grande escala como exchanges, carteiras, Finanças Descentralizadas, motores de liquidação e aplicações empresariais, que também incorporarão execução automatizada.
Imagine a seguinte cena: o exchange permite que um agente monitore os preços, faça pedidos automaticamente, ajuste dinamicamente a alavancagem, faça recompra inteligente e defina stop losses móveis; o protocolo DeFi permite que um agente faça mineração, transfira fundos e gerencie a liquidez; o tesouro corporativo utiliza um agente para executar orçamentos, movimentar fundos e distribuir lucros. Desta forma, a densidade de comportamentos na cadeia será elevada a um nível inimaginável.
Mas há um problema essencial aqui: com tantos agentes a executar tarefas na cadeia ao mesmo tempo, quem irá regulamentar o seu comportamento?
Isto não é uma questão de punição, mas sim uma questão estrutural. Sem uma camada de estrutura subjacente que limite o comportamento dos agentes, esses sistemas acabarão por ser sobrecarregados pela automação que eles próprios introduziram. É por isso que é necessária uma camada de regulamentação especialmente projetada para sistemas de "comportamento ágil dos agentes".
O exchange é o exemplo mais típico. No passado, as operações de negociação eram todas realizadas manualmente, com riscos e ritmos projetados de acordo com o comportamento humano. Mas no futuro, uma vez que os agentes comecem a executar estratégias em nome dos usuários, o ato de fazer pedidos pode se tornar instantâneo, até mesmo em milissegundos. A quantidade de ações que o sistema precisa suportar crescerá exponencialmente, e nem todas essas ações podem passar por uma verificação completa de permissões. Por exemplo, após obter a autorização do usuário, será que um determinado agente pode ultrapassar os limites da autorização?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
16 Curtidas
Recompensa
16
3
Repostar
Compartilhar
Comentário
0/400
RugPullProphet
· 2025-12-25 04:56
Hmm... parece que há um problema nessa lógica, afinal, a violação de limites do proxy ainda é culpa do design de permissões
Ver originalResponder0
TopEscapeArtist
· 2025-12-23 18:54
A questão da sobrecarga de proxy, para ser claro, é uma operação de alta frequência em milissegundos que ninguém está a monitorizar. Como é que eu sinto que isto é semelhante à sensação de perda de controlo que tive quando comprei na baixa em alta? A verificação de permissões não está completa, quem pode garantir que não haverá uma nova liquidação sistemática?
Ver originalResponder0
RumbleValidator
· 2025-12-23 18:36
Este é o verdadeiro cerne da questão, a falta de clareza nos limites de autorização é como colocar minas; quando algo der errado, quem arca com as consequências?
Antes, costumávamos ver a "execução inteligente" como um motor de aceleração, mas ao redirecionar a perspectiva para todo o ecossistema Web3, percebemos algo muito importante - no futuro, não apenas os usuários dependerão de agentes de IA, mas também os sistemas de grande escala como exchanges, carteiras, Finanças Descentralizadas, motores de liquidação e aplicações empresariais, que também incorporarão execução automatizada.
Imagine a seguinte cena: o exchange permite que um agente monitore os preços, faça pedidos automaticamente, ajuste dinamicamente a alavancagem, faça recompra inteligente e defina stop losses móveis; o protocolo DeFi permite que um agente faça mineração, transfira fundos e gerencie a liquidez; o tesouro corporativo utiliza um agente para executar orçamentos, movimentar fundos e distribuir lucros. Desta forma, a densidade de comportamentos na cadeia será elevada a um nível inimaginável.
Mas há um problema essencial aqui: com tantos agentes a executar tarefas na cadeia ao mesmo tempo, quem irá regulamentar o seu comportamento?
Isto não é uma questão de punição, mas sim uma questão estrutural. Sem uma camada de estrutura subjacente que limite o comportamento dos agentes, esses sistemas acabarão por ser sobrecarregados pela automação que eles próprios introduziram. É por isso que é necessária uma camada de regulamentação especialmente projetada para sistemas de "comportamento ágil dos agentes".
O exchange é o exemplo mais típico. No passado, as operações de negociação eram todas realizadas manualmente, com riscos e ritmos projetados de acordo com o comportamento humano. Mas no futuro, uma vez que os agentes comecem a executar estratégias em nome dos usuários, o ato de fazer pedidos pode se tornar instantâneo, até mesmo em milissegundos. A quantidade de ações que o sistema precisa suportar crescerá exponencialmente, e nem todas essas ações podem passar por uma verificação completa de permissões. Por exemplo, após obter a autorização do usuário, será que um determinado agente pode ultrapassar os limites da autorização?