Hier soir, en voyant la facture cloud, je me suis demandé si j’avais encore oublié de fermer certains tâches.
Le prétraitement AI a coûté trois chiffres en dollars, mon moral a été directement brisé. Je voulais réduire la fréquence d’utilisation de S3, mais mon partenaire m’a envoyé la déclaration officielle d’Acurast et @irys_xyz.
Je voulais initialement critiquer « encore une série de coups », mais en regardant de plus en plus, je suis devenu de plus en plus enthousiaste : si l’on peut vraiment faire fonctionner les données et la puissance de calcul dans une boucle vérifiable, cette facture cloud aura enfin une solution.
En résumé, il s’agit d’une boucle fermée de « vérification TEE + données programmables » : Acurast exécute des tâches via un calcul distribué et vérifiable en périphérie (couvrant plus de 140 pays, plus de 146 000 appareils), Irys enregistre les résultats sur des données avec règles — propriété, accès, règlement, déclencheurs, tout est sur la chaîne, la chaîne de production AI/DePIN laisse une trace et est auditée de bout en bout. Les développeurs s’inquiètent surtout : les données ne sont plus de simples fichiers dormants, mais des actifs pouvant s’exécuter automatiquement.
Comment concrétiser cela ? J’ai défini trois étapes :
① Nettoyer/annoter/embeder les données, puis les faire tourner sur Acurast, avec une preuve TEE ;
② Inscrire les échantillons et résultats dans le système multi-comptes Submit→Publish d’Irys, choisir le stockage selon le délai, et utiliser des hooks d’événements pour la règlementation ;
③ Ne rendre accessibles que des « API de données » externes, avec une rémunération basée sur l’utilisation, permettant aux données de générer des revenus.
Ce n’est pas « ajouter un outil », mais changer la structure de coûts : transformer les scripts cloud coûteux en calcul vérifiable, et faire des données facilement perdables en actifs programmables.
Les développeurs pensent : le réseau principal arrive, mais même s’il n’est pas encore là, il faut déjà mettre en place la pipeline, pour que la prochaine facture ne fasse pas battre le cœur à toute vitesse.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Hier soir, en voyant la facture cloud, je me suis demandé si j’avais encore oublié de fermer certains tâches.
Le prétraitement AI a coûté trois chiffres en dollars, mon moral a été directement brisé. Je voulais réduire la fréquence d’utilisation de S3, mais mon partenaire m’a envoyé la déclaration officielle d’Acurast et @irys_xyz.
Je voulais initialement critiquer « encore une série de coups », mais en regardant de plus en plus, je suis devenu de plus en plus enthousiaste : si l’on peut vraiment faire fonctionner les données et la puissance de calcul dans une boucle vérifiable, cette facture cloud aura enfin une solution.
En résumé, il s’agit d’une boucle fermée de « vérification TEE + données programmables » : Acurast exécute des tâches via un calcul distribué et vérifiable en périphérie (couvrant plus de 140 pays, plus de 146 000 appareils), Irys enregistre les résultats sur des données avec règles — propriété, accès, règlement, déclencheurs, tout est sur la chaîne, la chaîne de production AI/DePIN laisse une trace et est auditée de bout en bout. Les développeurs s’inquiètent surtout : les données ne sont plus de simples fichiers dormants, mais des actifs pouvant s’exécuter automatiquement.
Comment concrétiser cela ? J’ai défini trois étapes :
① Nettoyer/annoter/embeder les données, puis les faire tourner sur Acurast, avec une preuve TEE ;
② Inscrire les échantillons et résultats dans le système multi-comptes Submit→Publish d’Irys, choisir le stockage selon le délai, et utiliser des hooks d’événements pour la règlementation ;
③ Ne rendre accessibles que des « API de données » externes, avec une rémunération basée sur l’utilisation, permettant aux données de générer des revenus.
Ce n’est pas « ajouter un outil », mais changer la structure de coûts : transformer les scripts cloud coûteux en calcul vérifiable, et faire des données facilement perdables en actifs programmables.
Les développeurs pensent : le réseau principal arrive, mais même s’il n’est pas encore là, il faut déjà mettre en place la pipeline, pour que la prochaine facture ne fasse pas battre le cœur à toute vitesse.