Recentemente, ao estudar os registos de raciocínio de vários sistemas de execução de IA, descobri um fenómeno interessante - o mesmo evento pode levar a conclusões completamente opostas em contextos diferentes. No início, pensei que era culpa do modelo, mas depois percebi que o problema não estava aqui. O verdadeiro cerne da questão é que a informação de entrada não pode ser inferida de forma alguma.
Imagine uma sinalização de preço isolada, um registo de transação confuso, um evento em cadeia incompleto — essas coisas carecem de estrutura, não têm limites, são semanticamente confusas e a cadeia causal está quebrada. Você realmente quer que um sistema automatizado tome decisões com base nessas informações fragmentadas? Isso é como pedir a um médico para operar com uma radiografia desfocada; os resultados são previsíveis.
Este é o ponto que eu sempre quis dizer, mas não consegui: **o maior inimigo da automação na cadeia no futuro não é a falta de dados, mas sim a incapacidade de inferir os dados.**
Não podes permitir que o mecanismo de liquidação seja acionado com base em informações sem fronteiras. Não se pode permitir que o sistema de governança dependa de sinais de semântica confusa para julgar o consenso. Não podes permitir que o Agente execute ações se a cadeia causal estiver quebrada.
Então a questão surge, como resolver? É também por isso que agora estou atento ao projeto APRO. A sua abordagem é muito clara: não está a fornecer "respostas" na cadeia, mas sim "materiais que podem ser inferidos".
Ao observar o seu modelo de decomposição de condições, é fácil de entender. A lógica central é decompor um evento de informações lineares e difusas em múltiplos fragmentos de dados estruturados. Cada fragmento deve satisfazer: ser verificável, ser reproduzível, permitir questionamentos, permitir confirmações cruzadas, ter semântica unificada, poder ser chamado pelo modelo e participar de raciocínios lógicos.
Por outro lado, a informação, desde o momento em que entra na cadeia, precisa ser projetada para uma "forma que possa ser inferida". Isso não é uma otimização que enriquece, mas a infraestrutura de um sistema automatizado na cadeia. Uma vez que essa base esteja estabelecida, a liquidação, a governança e a execução do agente poderão realmente operar de forma estável.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Recentemente, ao estudar os registos de raciocínio de vários sistemas de execução de IA, descobri um fenómeno interessante - o mesmo evento pode levar a conclusões completamente opostas em contextos diferentes. No início, pensei que era culpa do modelo, mas depois percebi que o problema não estava aqui. O verdadeiro cerne da questão é que a informação de entrada não pode ser inferida de forma alguma.
Imagine uma sinalização de preço isolada, um registo de transação confuso, um evento em cadeia incompleto — essas coisas carecem de estrutura, não têm limites, são semanticamente confusas e a cadeia causal está quebrada. Você realmente quer que um sistema automatizado tome decisões com base nessas informações fragmentadas? Isso é como pedir a um médico para operar com uma radiografia desfocada; os resultados são previsíveis.
Este é o ponto que eu sempre quis dizer, mas não consegui: **o maior inimigo da automação na cadeia no futuro não é a falta de dados, mas sim a incapacidade de inferir os dados.**
Não podes permitir que o mecanismo de liquidação seja acionado com base em informações sem fronteiras.
Não se pode permitir que o sistema de governança dependa de sinais de semântica confusa para julgar o consenso.
Não podes permitir que o Agente execute ações se a cadeia causal estiver quebrada.
Então a questão surge, como resolver? É também por isso que agora estou atento ao projeto APRO. A sua abordagem é muito clara: não está a fornecer "respostas" na cadeia, mas sim "materiais que podem ser inferidos".
Ao observar o seu modelo de decomposição de condições, é fácil de entender. A lógica central é decompor um evento de informações lineares e difusas em múltiplos fragmentos de dados estruturados. Cada fragmento deve satisfazer: ser verificável, ser reproduzível, permitir questionamentos, permitir confirmações cruzadas, ter semântica unificada, poder ser chamado pelo modelo e participar de raciocínios lógicos.
Por outro lado, a informação, desde o momento em que entra na cadeia, precisa ser projetada para uma "forma que possa ser inferida". Isso não é uma otimização que enriquece, mas a infraestrutura de um sistema automatizado na cadeia. Uma vez que essa base esteja estabelecida, a liquidação, a governança e a execução do agente poderão realmente operar de forma estável.