Lorsque l'IA envahit les plateformes de contenu, comment introduire le staking cryptographique pour retrouver la confiance ?

Auteur : Nancy, PANews

Les médias sociaux actuels semblent toujours animés, mais la « sensation de vie » disparaît peu à peu. Lorsque de nombreux déchets d’IA (AI slop) envahissent les principales plateformes, la falsification et la création de contenu pour attirer du trafic deviennent monnaie courante, et de plus en plus d’utilisateurs authentiques perdent leur envie de partager, voire commencent à fuir.

Face à la prolifération des déchets d’IA, un simple filtrage algorithmique apparaît désormais insuffisant. Récemment, le fonds de capital-risque de premier plan a16z a proposé le concept de médias stakés (Staked Media), utilisant de l’argent réel pour filtrer le bruit de l’IA, ce qui a suscité l’attention du marché.

Lorsque l’IA commence à se copier elle-même, Internet est submergé par du « contenu préfabriqué »

« L’IA commence à imiter l’IA. »

Récemment, les modérateurs du « forum américain » Reddit ont été en crise, luttant contre une masse de contenus générés par l’IA. La section r/AmItheAsshole, qui compte 24 millions d’utilisateurs, voit ses modérateurs se plaindre que plus de la moitié des contenus sont en réalité générés par l’IA.

Au premier semestre 2025, Reddit a supprimé plus de 40 millions de contenus indésirables et faux. Ce phénomène s’est propagé comme un virus sur Facebook, Instagram, X, YouTube, Xiaohongshu et TikTok.

Aujourd’hui, dans une époque où l’information semble exploser mais où la voix authentique se fait de plus en plus rare, le contenu produit par l’IA envahit presque tout Internet, infiltrant silencieusement les esprits. En réalité, avec la généralisation d’outils génératifs comme ChatGPT et Gemini, la création manuelle de contenu est en train d’être remplacée par l’IA, devenant une « usine à la chaîne ».

Selon une étude récente de la société d’optimisation pour les moteurs de recherche Graphite, depuis la mise en ligne de ChatGPT fin 2022, la proportion d’articles générés par l’IA a rapidement augmenté, passant d’environ 10 % cette année-là à plus de 40 % en 2024. En mai de cette année, ce taux a atteint 52 %.

Cependant, ce type de contenu généré par l’IA ressemble souvent à des « plats préemballés », avec des recettes fixes et des processus standardisés, mais manquant d’âme, ce qui le rend fade à la lecture. De plus, l’IA n’est plus maladroite : elle peut imiter le ton humain, voire reproduire des émotions. Des guides de voyage aux disputes sentimentales, en passant par des provocations sociales pour attirer du trafic, l’IA peut tout faire.

Plus grave encore, lorsque l’IA « hallucine », elle peut dire n’importe quoi avec sérieux, créant ainsi du « bruit informationnel » et déclenchant une crise de confiance.

À l’ère de la prolifération de l’IA, établir la confiance médiatique avec de l’argent réel

Face à la déferlante de contenus indésirables générés par l’IA sur Internet, même en améliorant les mécanismes de filtrage et en introduisant l’aide de l’IA, l’efficacité reste limitée. Dans le rapport annuel de référence publié par a16z crypto, Robert Hackett a introduit le concept de médias stakés (Staked Media). (Lecture complémentaire : a16z : 17 nouvelles directions cryptographiques excitantes pour 2026)

Ce rapport indique que, si le modèle traditionnel des médias se targue d’objectivité, ses défauts sont désormais évidents. Internet permet à chacun de s’exprimer, et de plus en plus de professionnels, praticiens et constructeurs transmettent directement leurs points de vue au public. Leur perspective reflète leurs intérêts dans le monde. Ironiquement, le public respecte ces intervenants non pas parce qu’ils sont « supposés être neutres », mais parce qu’« ils ont des intérêts ».

Ce changement de tendance ne résulte pas simplement de l’essor des médias sociaux, mais de « l’émergence d’outils cryptographiques » permettant aux gens de faire des engagements vérifiables publiquement. Avec la baisse drastique des coûts de production de contenu grâce à l’IA, et la facilité accrue du processus (création de contenu basée sur n’importe quel point de vue ou identité, avec possibilité de vérifier la véracité), il ne suffit plus de se reposer uniquement sur la parole humaine (ou robotique). La tokenisation d’actifs, les verrouillages programmables, les marchés de prédiction, et l’historique on-chain offrent une base plus solide pour la confiance : les commentateurs peuvent prouver leur cohérence (en utilisant des fonds pour soutenir leurs opinions) ; les podcasteurs peuvent verrouiller des tokens pour prouver qu’ils ne changeront pas de position ou ne manipuleront pas le marché ; les analystes peuvent lier leurs prévisions à des marchés publics de règlement, créant ainsi des enregistrements vérifiables.

C’est précisément la forme initiale de ce que l’on appelle « médias stakés » : ces médias non seulement partagent une vision alignée avec leurs intérêts, mais peuvent aussi fournir des preuves concrètes de leur crédibilité. Dans ce modèle, la confiance ne provient pas d’une prétendue neutralité ou d’affirmations infondées, mais d’engagements d’intérêts transparents et vérifiables. Les médias stakés ne remplaceront pas d’autres formes de médias, mais viendront compléter l’écosystème médiatique existant. Ils envoient un nouveau signal : ce n’est plus « faites-moi confiance, je suis neutre », mais « voici le risque que je prends, voici comment vous pouvez vérifier que je dis la vérité ».

Robert Hackett prévoit que ce domaine continuera de croître, à l’image des médias de masse du XXe siècle qui, pour s’adapter aux technologies et aux incitations de leur époque (attirer le public et les annonceurs), ont poursuivi une apparence de « objectivité » et de « neutralité ». Aujourd’hui, l’IA facilite la création ou la falsification de tout contenu, mais la véritable rareté réside dans la preuve : ceux qui peuvent faire des engagements vérifiables et soutenir réellement leurs revendications auront un avantage.

Utiliser la mécanique de staking pour augmenter le coût de la falsification, en proposant un mécanisme de double vérification du contenu

Et cette innovation a également été reconnue par des acteurs du secteur crypto, qui ont formulé des recommandations.

L’analyste crypto Chen Jian indique qu’avec la prolifération de fausses informations par les grands médias et les médias indépendants, un même événement peut être rapporté de façon inversée à plusieurs reprises. La cause principale réside dans le faible coût et le fort rendement de la falsification. En considérant chaque diffuseur d’information comme un nœud, pourquoi ne pas utiliser le mécanisme économique de la preuve d’enjeu (Proof of Stake, POS) basé sur la blockchain pour résoudre ce problème ? Il suggère, par exemple, que chaque nœud doive déposer une certaine somme en staking avant de publier une opinion, plus la mise est élevée, plus la confiance est grande ; d’autres peuvent rassembler des preuves pour le contester, et si le défi réussit, le système confisquera la mise et récompensera le challenger. Bien sûr, ce processus soulève aussi des questions de confidentialité et d’efficacité. Des solutions comme Swarm Network combinant ZK (Zero Knowledge) et IA existent, protégeant la vie privée des participants tout en utilisant l’analyse multi-modèles pour aider à la vérification, à l’image de la fonction de vérification de vérité sur Twitter par Grok.

L’influenceur crypto Blue Fox pense également qu’il est possible d’utiliser des techniques cryptographiques comme la preuve à divulgation zéro (zk) pour permettre aux médias ou aux individus de prouver leur crédibilité en ligne, comme une « déclaration écrite » immuable sur la blockchain. Mais une simple déclaration ne suffit pas : il faut aussi « staker » une certaine somme d’actifs, comme ETH, USDC ou d’autres cryptomonnaies, en garantie.

Le principe du staking est simple : si le contenu publié est prouvé comme étant faux, la mise sera confisquée ; si le contenu est authentique, la mise sera restituée après un certain délai, voire même augmentée par des récompenses (tokens émis par les médias stakés ou une part des fonds confisqués aux falsificateurs). Ce mécanisme crée un environnement incitatif à dire la vérité. Pour les médias, le staking augmente certes le coût financier, mais il garantit aussi la confiance authentique du public, ce qui est crucial à l’ère de la désinformation massive.

Par exemple, un YouTuber qui recommande un produit doit « déclarer » et déposer des ETH ou USDC sur la blockchain Ethereum. Si la vidéo est fausse, la mise sera confisquée, et les spectateurs pourront faire confiance à la véracité du contenu. Si le créateur recommande un téléphone, il doit déposer 100 dollars en ETH et déclarer : « Si la fonction de beauté de ce téléphone ne fonctionne pas comme prévu, je rembourserai. » En voyant la mise déposée par le créateur, les spectateurs auront plus confiance. Si le contenu est généré par IA, le créateur perdra sa mise.

Pour juger de la véracité du contenu, Blue Fox propose une double vérification « communauté + algorithme » : la communauté, composée d’utilisateurs ayant déposé des cryptomonnaies, peut voter sur la blockchain ; si plus de 60 % votent pour faux, le contenu est considéré comme tel. L’algorithme peut aussi analyser les données pour aider à valider le résultat du vote. En cas de contestation, le créateur peut lancer une arbitration auprès d’un comité d’experts. Si des votants manipulent malicieusement le processus, leurs fonds seront confisqués. Les participants au vote et le comité d’experts reçoivent des récompenses, financées par les amendes et les tokens médias. Enfin, le créateur peut utiliser la preuve à divulgation zéro pour générer une preuve de véracité dès la source, comme une preuve d’origine authentique d’une vidéo.

Pour ceux qui tentent d’utiliser la mécanique de staking pour fabriquer de fausses informations, Blue Fox recommande d’augmenter le coût à long terme : ce ne sont pas seulement les fonds, mais aussi le temps, l’historique, la réputation et la responsabilité légale. Par exemple, un compte sanctionné sera marqué, et ses publications devront déposer davantage de fonds. Si un compte est sanctionné plusieurs fois, sa crédibilité sera fortement diminuée, voire il pourra faire face à des poursuites légales.

ETH0.46%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)