Récemment, en étudiant les journaux de raisonnement de plusieurs systèmes d'exécution AI, j'ai découvert un phénomène intéressant : pour le même événement, le modèle peut tirer des conclusions complètement inversées dans des contextes différents. Au début, je pensais que c'était la faute du modèle, mais j'ai ensuite compris que le problème ne résidait pas là. Le véritable problème est que les informations entrées ne peuvent tout simplement pas être déduites.
Imaginez un signal de prix isolé, un enregistrement de transaction flou, un événement en chaîne incomplet - ces éléments manquent de structure, n'ont pas de limites, sont sémantiquement confus et la chaîne causale est rompue. Voulez-vous vraiment que le système automatisé prenne des décisions basées sur ces informations fragmentées ? C'est comme demander à un médecin de réaliser une opération sur la base d'une radiographie floue, les résultats sont prévisibles.
C'est là le point que j'ai toujours voulu dire mais que je n'ai pas exprimé : **le plus grand ennemi de l'automatisation sur la chaîne à l'avenir n'est pas le manque de données, mais l'incapacité à inférer les données.**
Vous ne pouvez pas laisser le mécanisme de liquidation être déclenché par des informations sans frontières. Vous ne pouvez pas laisser le système de gouvernance s'appuyer sur des signaux de confusion sémantique pour juger du consensus. Vous ne pouvez pas permettre à l'Agent d'exécuter des actions lorsque la chaîne causale est rompue.
Alors, la question se pose : comment résoudre cela ? C'est aussi pourquoi je m'intéresse maintenant au projet APRO. Son approche est très claire : il ne s'agit pas de fournir des "réponses" sur la chaîne, mais de fournir des "matériaux qui peuvent être raisonnés".
En regardant son modèle de décomposition des conditions, on comprend. La logique centrale est de décomposer un événement d'une information linéaire et floue en plusieurs fragments de données structurés. Chaque fragment doit répondre aux critères suivants : vérifiable, reproductible, interrogeable, pouvant être croisé pour confirmation, sémantiquement unifié, pouvant être appelé par le modèle et pouvant participer au raisonnement logique.
Pour le dire autrement, l'information doit être conçue sous une "forme inférable" dès le moment où elle entre dans la chaîne. Ce n'est pas une optimisation superflue, mais l'infrastructure des systèmes automatisés sur la chaîne. Une fois cette base établie, les opérations de règlement, de gouvernance et d'exécution par des agents peuvent vraiment fonctionner de manière stable.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
6
Reposter
Partager
Commentaire
0/400
YieldWhisperer
· 12-23 01:44
La structure des données est très importante.
Voir l'originalRépondre0
ProtocolRebel
· 12-22 16:47
L'entrée des données détermine la sortie
Voir l'originalRépondre0
SchroedingersFrontrun
· 12-22 16:45
Les données invalides équivalent à une chaîne morte
Voir l'originalRépondre0
New_Ser_Ngmi
· 12-22 16:40
La structuration des données est fondamentale.
Voir l'originalRépondre0
Degen4Breakfast
· 12-22 16:35
Si les données ne sont pas précises, ne jouez pas.
Récemment, en étudiant les journaux de raisonnement de plusieurs systèmes d'exécution AI, j'ai découvert un phénomène intéressant : pour le même événement, le modèle peut tirer des conclusions complètement inversées dans des contextes différents. Au début, je pensais que c'était la faute du modèle, mais j'ai ensuite compris que le problème ne résidait pas là. Le véritable problème est que les informations entrées ne peuvent tout simplement pas être déduites.
Imaginez un signal de prix isolé, un enregistrement de transaction flou, un événement en chaîne incomplet - ces éléments manquent de structure, n'ont pas de limites, sont sémantiquement confus et la chaîne causale est rompue. Voulez-vous vraiment que le système automatisé prenne des décisions basées sur ces informations fragmentées ? C'est comme demander à un médecin de réaliser une opération sur la base d'une radiographie floue, les résultats sont prévisibles.
C'est là le point que j'ai toujours voulu dire mais que je n'ai pas exprimé : **le plus grand ennemi de l'automatisation sur la chaîne à l'avenir n'est pas le manque de données, mais l'incapacité à inférer les données.**
Vous ne pouvez pas laisser le mécanisme de liquidation être déclenché par des informations sans frontières.
Vous ne pouvez pas laisser le système de gouvernance s'appuyer sur des signaux de confusion sémantique pour juger du consensus.
Vous ne pouvez pas permettre à l'Agent d'exécuter des actions lorsque la chaîne causale est rompue.
Alors, la question se pose : comment résoudre cela ? C'est aussi pourquoi je m'intéresse maintenant au projet APRO. Son approche est très claire : il ne s'agit pas de fournir des "réponses" sur la chaîne, mais de fournir des "matériaux qui peuvent être raisonnés".
En regardant son modèle de décomposition des conditions, on comprend. La logique centrale est de décomposer un événement d'une information linéaire et floue en plusieurs fragments de données structurés. Chaque fragment doit répondre aux critères suivants : vérifiable, reproductible, interrogeable, pouvant être croisé pour confirmation, sémantiquement unifié, pouvant être appelé par le modèle et pouvant participer au raisonnement logique.
Pour le dire autrement, l'information doit être conçue sous une "forme inférable" dès le moment où elle entre dans la chaîne. Ce n'est pas une optimisation superflue, mais l'infrastructure des systèmes automatisés sur la chaîne. Une fois cette base établie, les opérations de règlement, de gouvernance et d'exécution par des agents peuvent vraiment fonctionner de manière stable.