a16 article : Lorsque l'IA envahit les plateformes de contenu, comment la mise en staking de Crypto peut-elle retrouver la confiance ?

Les médias sociaux sont envahis par du contenu IA indésirable, ce qui réduit la volonté des utilisateurs réels de partager. Le capital-risque de premier plan a16z propose le concept de médias stakés, utilisant un mécanisme de staking d’actifs cryptographiques pour filtrer le bruit IA avec de l’argent réel, afin de reconstruire la confiance dans le contenu par des engagements vérifiables.
(Précédent contexte : Animal Crossing intègre l’IA LLM « augmentation de la jouabilité », streamers essayant : discuter toute une vie sans répétition)
(Complément de contexte : Les jeux générés par IA seraient-ils des copies de Pokémon ? « Fantasia Beasts Paru » en vente sur Steam, vendu à 2 millions d’exemplaires, Nintendo pourrait-il poursuivre en justice ?)

Table des matières

  • Lorsque l’IA commence à se copier elle-même, le réseau est submergé par du « contenu préfabriqué »
  • À l’ère de la prolifération de l’IA, établir la confiance médiatique avec de l’argent réel
  • Utiliser le mécanisme de staking pour augmenter le coût de la falsification, proposer un mécanisme de double vérification du contenu

Les médias sociaux actuels semblent toujours animés, mais le « sentiment de vie » disparaît peu à peu. Avec l’afflux massif de contenu indésirable généré par IA sur toutes les plateformes principales, la falsification et la course aux clics prolifèrent, et de plus en plus d’utilisateurs authentiques perdent leur envie de partager, voire commencent à fuir.

Face à cette prolifération de contenu IA indésirable, une simple modération algorithmique montre ses limites. Récemment, le capital-risque de premier plan a16z a proposé le concept de médias stakés, utilisant de l’argent réel pour filtrer le bruit IA, ce qui a attiré l’attention du marché.

Lorsque l’IA commence à se copier elle-même, le réseau est submergé par du « contenu préfabriqué »

« L’IA commence à imiter l’IA. »

Récemment, les modérateurs du subreddit « Reddit » ont été submergés, luttant contre une quantité massive de contenu généré par IA. Sur le subreddit r/AmItheAsshole, qui compte 24 millions d’utilisateurs, les modérateurs se plaignent que plus de la moitié du contenu est généré par IA.

Au premier semestre 2025, Reddit a supprimé plus de 40 millions de contenus indésirables et faux. Ce phénomène s’est également propagé comme un virus sur Facebook, Instagram, X, YouTube, Xiaohongshu et TikTok.

Aujourd’hui, à une époque où l’information semble exploser mais où la voix authentique se fait de plus en plus rare, le contenu produit par IA envahit presque tout le web, infiltrant silencieusement les esprits. En réalité, avec la popularisation d’outils génératifs comme ChatGPT et Gemini, la création manuelle de contenu est en train d’être remplacée par une « usine à flux continu ».

Selon une étude récente de Graphite, société spécialisée en SEO, depuis la sortie de ChatGPT fin 2022, la proportion d’articles générés par IA a explosé, passant d’environ 10 % à plus de 40 % en 2024. En mai de cette année, cette proportion a atteint 52 %.

Cependant, la majorité de ces contenus IA ressemblent à des « plats préemballés », avec des recettes fixes et des processus standardisés, mais manquent d’âme, ce qui les rend insipides. De plus, l’IA n’est plus maladroite : elle peut imiter le ton humain, voire reproduire des émotions. Qu’il s’agisse de guides de voyage, de disputes sentimentales ou de provocations intentionnelles pour attirer du trafic, l’IA peut tout faire.

Plus grave encore, lorsque l’IA génère des hallucinations, elle peut dire n’importe quoi avec sérieux, créant non seulement du contenu indésirable mais aussi une crise de confiance.

À l’ère de la prolifération de l’IA, établir la confiance médiatique avec de l’argent réel

Face à la prolifération de contenu indésirable généré par IA, même en améliorant la modération et en intégrant l’IA pour aider à la gestion, l’efficacité reste limitée. Dans le rapport annuel majeur publié par a16z crypto, Robert Hackett a présenté le concept de médias stakés.

Ce rapport indique que le modèle traditionnel des médias, qui prône l’objectivité, montre ses limites. Internet permet à chacun d’avoir une voix, et de plus en plus de professionnels, praticiens et bâtisseurs s’adressent directement au public, leurs perspectives reflétant leurs intérêts dans le monde. Ironiquement, le public leur fait confiance non pas « malgré leurs intérêts », mais « précisément parce qu’ils ont des intérêts ».

Ce changement de tendance ne résulte pas simplement de l’essor des médias sociaux, mais de « l’émergence d’outils cryptographiques » permettant aux gens de faire des engagements vérifiables publiquement. Avec la baisse drastique des coûts de génération de contenu massif grâce à l’IA, et la facilité accrue du processus (pouvant générer du contenu basé sur n’importe quel point de vue ou identité pour vérifier la véracité), la simple parole humaine ou robotique ne suffit plus à convaincre. La tokenisation d’actifs, le verrouillage programmable, les marchés de prédiction, et l’historique sur la blockchain offrent une base plus solide pour la confiance : les commentateurs peuvent prouver leur cohérence entre paroles et actes (en mettant en jeu des fonds pour soutenir leurs opinions) ; les podcasteurs peuvent verrouiller des tokens pour prouver qu’ils ne changeront pas de position ou ne manipuleront pas le marché ; les analystes peuvent lier leurs prévisions à des marchés de règlement public, créant ainsi des enregistrements vérifiables.

C’est la forme initiale de ce que l’on appelle « médias stakés » : ces médias non seulement partagent une vision alignée avec leurs intérêts, mais peuvent aussi fournir une preuve tangible. Dans ce modèle, la crédibilité ne vient pas d’une prétendue neutralité ou d’assertions infondées, mais d’engagements d’intérêt transparents et vérifiables. Les médias stakés ne remplaceront pas d’autres formes de médias, mais viendront compléter l’écosystème existant. Ils envoient un nouveau signal : « Ne me croyez pas sur parole, je suis neutre », mais « voici le risque que je prends, voici comment vous pouvez vérifier que je dis la vérité ».

Robert Hackett prévoit que ce domaine continuera de croître, tout comme les médias de masse du XXe siècle ont cherché à s’adapter aux technologies et aux mécanismes d’incitation de leur époque (attirer un large public et des annonceurs), en poursuivant ostensiblement une « objectivité » et une « neutralité ». Aujourd’hui, l’IA facilite la création ou la falsification de tout contenu, mais la véritable rareté réside dans la preuve : ceux qui peuvent faire des engagements vérifiables et soutenir réellement leurs affirmations auront un avantage.

Utiliser le mécanisme de staking pour augmenter le coût de la falsification, proposer un mécanisme de double vérification du contenu

Et cette idée innovante a également été soutenue par des acteurs de la cryptosphère, qui ont formulé des recommandations.

L’analyste crypto Chen Jian a indiqué que, du grand média aux médias personnels, la désinformation abonde, avec des événements rapportés de façon inversée à plusieurs reprises. La cause principale est le faible coût et le fort rendement de la falsification. Si l’on considère chaque diffuseur d’information comme un nœud, pourquoi ne pas utiliser un mécanisme économique basé sur le POS (Proof of Stake) de la blockchain pour résoudre ce problème ? Il suggère, par exemple, que chaque nœud doive staker des fonds avant de publier une opinion, plus le stake est élevé, plus la confiance est grande ; d’autres peuvent rassembler des preuves pour le défier, et si le défi réussit, le système confisquera le stake et récompensera le challenger. Bien sûr, ce processus soulève aussi des questions de confidentialité et d’efficacité. Des solutions comme Swarm Network combinant ZK (Zero Knowledge) et IA existent, protégeant la vie privée des participants tout en utilisant l’analyse multi-modèles pour aider à la vérification, à l’image de la fonction de vérification de vérité sur Twitter par Grok.

L’influenceur crypto Blue Fox pense également qu’il est possible d’utiliser des techniques cryptographiques comme la preuve à connaissance zéro (zk) pour que les médias ou individus puissent prouver leur crédibilité en ligne, comme une « déclaration écrite » sur le web, immuable une fois sur la blockchain. Mais une simple déclaration ne suffit pas : il faut aussi « staker » une certaine quantité d’actifs comme garantie, par exemple ETH, USDC ou d’autres tokens cryptographiques.

Le mécanisme de staking est très simple : si le contenu publié est prouvé comme étant une fausse information, le stake est confisqué ; si le contenu est fiable, le stake est restitué après un certain délai, voire peut donner lieu à des récompenses supplémentaires (comme des tokens émis par les médias stakés ou une part des fonds confisqués aux falsificateurs). Ce mécanisme crée un environnement qui encourage à dire la vérité. Pour les médias, le staking augmente certes le coût financier, mais il garantit la confiance réelle des audiences, ce qui est crucial à l’ère de la désinformation massive.

Par exemple, un YouTuber qui recommande un produit doit « déclarer » sur la blockchain Ethereum en stakant des ETH ou USDC. Si la vidéo est fausse, le stake est confisqué, et les spectateurs peuvent faire confiance à la véracité du contenu. Si un influenceur recommande un téléphone, il doit staker 100 dollars en ETH et déclarer : « Si ce téléphone ne répond pas à mes attentes en matière de mode beauté, je rembourserai. » En voyant que l’influenceur a staké des fonds, les spectateurs seront plus confiants. Si le contenu est généré par IA, l’influenceur perdra son stake.

Pour juger de la véracité du contenu, Blue Fox propose une double vérification par « communauté + algorithme ». La communauté, composée d’utilisateurs ayant un pouvoir de vote (et stakant des cryptos), vote sur la véracité, et si plus de 60 % votent « faux », le contenu est considéré comme faux ; l’algorithme analyse les données pour aider à valider le résultat. En cas de contestation, le créateur peut lancer une arbitration auprès d’un comité d’experts. Si des votants manipulent malicieusement, leurs fonds sont confisqués. Les participants au vote et le comité d’experts reçoivent des récompenses, financées par les confiscations et les tokens médias. De plus, les créateurs peuvent utiliser la preuve à connaissance zéro pour générer une preuve de véracité dès la source, comme une preuve d’origine pour une vidéo.

Pour ceux qui tentent d’abuser du mécanisme de staking avec des fonds importants, Blue Fox recommande d’augmenter le coût à long terme de la falsification, en intégrant non seulement le capital, mais aussi le temps, l’historique, la réputation et la responsabilité légale. Par exemple, un compte confisqué sera marqué, et ses futures publications devront staker davantage. Si un compte est confisqué plusieurs fois, sa crédibilité chute fortement. En cas de récidive grave, il pourrait même faire face à des poursuites légales.

ETH0.9%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)