L'information est une arme : l'IA n'a pas tué la vérité, elle a simplement rendu la vérité insignifiante

Écrire : Pas besoin de connaître l’économie, l’oncle Rust

2026-04-05, dimanche. Le président américain Trump a publié un message sur sa plateforme sociale Truth Social, avec un ton comme un ultimatum final.

" Mardi, 20h00, heure de l’Est ! "

Si l’Iran ne rouvre pas le détroit d’Ormuz, les États-Unis bombarderont ses centrales électriques et ses ponts. Deux jours plus tard, il en rajoute : toute la civilisation iranienne mourra ce soir. Quelques heures après, il annonce soudain un cessez-le-feu de deux semaines.

Qui répond le plus rapidement à ce genre de message ?

C’est l’ambassade d’Iran au Zimbabwe. Ils écrivent sur X : “20h00, ce n’est pas idéal. Peut-on plutôt changer à 13h-14h, ou 1h-2h du matin ? Merci de votre attention à cette affaire importante.”

La phrase de fin “Merci de votre attention à cette affaire importante” imite la formule de signature de Trump lui-même.

Un pays en cours de bombardement répond avec une blague à une menace de guerre.

Ce n’est pas un cas isolé. L’ambassade d’Iran en Thaïlande répondant à Trump qui disait “bombarder l’Iran jusqu’à l’âge de pierre”, a publié une image générée par IA : Trump en peau de bête assis dans une grotte. L’ambassade d’Afrique du Sud a publié une série de photos de généraux américains barrés d’une croix, avec la légende : “Le changement de régime a été réussi.” Ce n’est pas l’Iran qui a barré, mais un haut officiel de l’armée américaine récemment démis de ses fonctions par le secrétaire à la Défense, Hegseth.

Par ailleurs, une équipe appelée “Explosive Media” produit en masse des animations Lego IA. Trump, l’armée américaine, et l’armée iranienne deviennent toutes des petits personnages en plastique jaune. Une vidéo rap diss les traite de “loser” et de “marionnette” du Premier ministre israélien Netanyahu, récoltant des millions de vues sur les réseaux sociaux mondiaux.

La Maison Blanche ne reste pas inactive. Son compte officiel sur X a publié une vidéo IA représentant le régime iranien comme une bouteille de bowling, renversée par l’armée américaine. Un haut responsable de la Maison Blanche a dit à Politico :

" Frère, on ne fait que produire sans arrêt des memes viraux. "

Un autre officiel ajoute que la vidéo de guerre contre l’Iran a déjà été vue “plus de 3 milliards de fois” en ligne.

3 milliards.

Pause d’une seconde pour y réfléchir. C’est une vraie guerre. De vraies bombes, de vraies victimes civiles, de vraies interruptions d’approvisionnement en pétrole. Mais dans l’espace public, cela ressemble à une compétition de memes. Une superpuissance et un pays bombardé s’affrontent sur la même plateforme, avec le même langage : celui des memes.

C’est ça, le paysage informationnel de 2026. L’information n’est plus une description de la réalité. Elle est devenue un champ de bataille en soi.

L’essence de la fracture informationnelle ne réside pas dans l’information elle-même

Un tournant cognitif de notre époque : ce qui n’était pas un problème devient une question fondamentale

L’objectif réel du flux d’informations n’est pas de te faire tomber dans le piège

La majorité des gens comprennent encore “les fausses informations” dans un cadre naïf : quelqu’un dit un mensonge, quelqu’un y croit, cela cause du tort. La réponse intuitive est donc : vérification des faits, démasquage des mensonges, amélioration de l’éducation aux médias.

Mais ce cadre est dépassé.

Le but ultime de la guerre informationnelle moderne n’a jamais été de te faire croire à un mensonge précis. Son objectif est de faire en sorte que la distinction entre “vérité” et “fausseté” devienne une dimension dont tu te désintéresses.

Hannah Arendt (l’une des plus importantes philosophe politique du 20e siècle, auteur de “Les Origines du totalitarisme”) a écrit en 1951 :

“Les sujets idéaux du régime totalitaire ne sont pas des nazis convaincus ou des communistes inébranlables, mais ceux qui ont perdu toute capacité de distinguer le fait de la fiction, le vrai du faux.”

Elle décrivait la machine de propagande du 20e siècle. Quarante-cinq ans plus tard, l’IA transforme cette prophétie en expérience quotidienne pour chaque utilisateur de smartphone dans le monde, à une vitesse qu’elle n’aurait pas pu imaginer.

George Orwell, plus tôt, en 1943, dans “Homage to Catalonia”, écrivait :

“Le concept de vérité objective disparaît peu à peu du monde. Les mensonges seront inscrits dans l’histoire.”

Il parlait de l’Allemagne nazie. Mais aujourd’hui, ce processus n’a plus besoin d’un État totalitaire. Un algorithme suffit.

Garry Kasparov, champion du monde d’échecs et plus tard activiste politique, l’exprime encore plus clairement :

“Le but de la propagande moderne n’est pas seulement de te tromper ou de faire avancer une certaine agenda. Son but est d’épuiser ta pensée critique, d’éliminer la vérité elle-même.”

Épuiser. Pas battre. Épuiser. Ce mot est précis.

L’IA a déjà, sur le plan technique, détruit la base de la distinction vrai/faux

Ce qui précède peut sembler une réflexion philosophique. Regardons les faits.

Les signaux de l’ère IA ont changé de sens.

Autrefois, une photo sans trace numérique signifiait qu’elle était authentique, non modifiée. En 2026, l’absence de trace numérique indique peut-être qu’elle n’a jamais été capturée par une caméra. Parce qu’elle a été générée par IA dès le départ. Le système de signalisation de la réalité a totalement inversé. Comme une pellicule, en noir et blanc, à l’envers.

Ce qui est encore plus dangereux, c’est le “mélange”.

Récemment, WIRED a publié un article approfondi : “L’Internet a détruit tous nos ‘radars’ de détection du faux”, citant Henk van Ess, formateur en journalisme d’investigation aux Pays-Bas. Il indique que ce qui est le plus difficile à repérer n’est pas une image entièrement générée par IA, mais un mélange à 95% réel, 5% modifié.

Une photo, avec ses métadonnées authentiques, ses bruits de capteur, sa physique lumineuse réelle. La modification ne concerne qu’un détail : une épaulette supplémentaire sur l’uniforme, une arme supplémentaire dans la main, un visage subtilement remplacé. Les outils de détection pixel par pixel la jugent authentique, car elle est vraie dans la majorité des dimensions. La partie fausse ne fait qu’un pouce carré.

“Toutes les méthodes de vérification passées supposaient que l’image était un enregistrement d’un événement”, explique van Ess. “Les médias générés par IA brisent cette hypothèse à la racine.”

Henry Ajder, chercheur en deepfake (ayant conseillé Adobe et d’autres), va encore plus loin. Il dit que l’IA n’est plus une chose qu’on peut repérer à l’œil nu, elle s’est intégrée dans notre contenu quotidien. La période où une erreur de six doigts ou un texte illisible était évidente est révolue. Le nouveau contenu IA paraît totalement crédible.

Et les outils de détection ? Ajder dit : “Les outils de détection ne doivent jamais être la seule base pour juger.” Ce ne sont pas des moteurs de vérité. Même les meilleurs échouent souvent. La plupart ne donnent qu’un “score de confiance” inexplicable. 85% vrai ? 62% faux ? Ces chiffres ne disent rien.

Pourquoi les intelligents fuient-ils tous les réseaux sociaux ?

Le magazine The Atlantic : “L’ère des réseaux sociaux est finie, mais ce qui la remplace est pire”

Les dirigeants mondiaux sont en train de cesser de vérifier.

Le 4 avril 2026, Planet Labs a annoncé la suspension illimitée des images satellites en Iran et dans la zone de conflit du Moyen-Orient. Planet Labs est l’un des principaux fournisseurs d’images satellites pour la couverture des conflits. La suspension a été ordonnée par le gouvernement américain, rétroactivement au 9 mars.

Le secrétaire à la Défense, Hegseth, a répondu franchement : “Le renseignement open source n’est pas là pour confirmer la vérité.”

Autrement dit : vous n’avez pas besoin de voir par vous-même, on vous dira ce qui s’est passé.

Par ailleurs, selon le rapport de référence 2026 sur le flux d’IA et les menaces en ligne, le trafic automatisé représente déjà 51% du total, avec une croissance huit fois supérieure à celle du trafic humain. Ces robots ne se contentent pas de distribuer du contenu, ils priorisent la diffusion de contenus viraux de faible qualité. Le contenu synthétique court à toute vitesse, la vérification traîne encore.

D’un côté, la machine à falsifier tourne à plein régime. De l’autre, la porte de la vérification se ferme. Ce n’est pas une compétition équitable. L’un accélère, l’autre se désassemble.

Le fantôme de McLuhan : pourquoi “l’atmosphère” est plus puissante que “les faits”

À ce stade, beaucoup pensent que le problème est déjà grave. Ce n’est pas le cas. La défaillance technique de la vérification n’est que la pointe de l’iceberg. Ce qui se cache sous la surface est encore plus vaste et difficile à gérer.

Marshall McLuhan, prophète numérique que je recommande toujours, a dit en 1964 dans “Understanding Media” :

“Le médium, c’est l’information.”

Beaucoup pensent que cette phrase signifie “le canal de communication est important”. C’est une erreur grave, une sous-estimation.

McLuhan voulait dire : le médium, avant même que tu ne commences à évaluer consciemment le contenu, te façonne à un niveau perceptif plus profond.

La télévision ne doit pas diffuser un programme précis pour te changer. La forme même de la télévision modifie la façon dont l’humanité comprend le monde. L’imprimerie n’a pas besoin d’imprimer un livre précis pour créer du nationalisme. Elle permet la diffusion massive d’une langue unifiée, ce qui engendre l’identité nationale.

Aujourd’hui : le contenu synthétique IA n’a pas besoin de te tromper une seule fois. Sa simple existence suffit à faire passer ton état mental par défaut de “ce que je vois doit être vrai” à “tout ce que je vois peut être faux”.

Ce changement de perception est l’effet même de l’arme informationnelle. Il s’applique à tous, sans distinction d’intelligence, de diplôme ou de position.

J’ai récemment lu un article sur la fusion entre médias et machines, qui pousse McLuhan un peu plus loin, avec une nouvelle formule :

Dans l’ère des grands modèles de langage, le médium, c’est l’information, c’est la machine.

Le langage naturel est désormais à la fois l’interface homme-machine et l’infrastructure sous-jacente. Écrire, c’est construire ; construire, c’est écrire. Code et culture émergent de la même source. La fusion du médium et de la machine forme un cercle de Möbius : le médium crée la machine, la machine crée le médium, en boucle infinie.

Sur le champ de bataille de la guerre des memes iranienne, cette équation doit encore être poussée plus loin.

Pourquoi la vidéo Lego IA de l’ambassade d’Iran fonctionne-t-elle ? Pas à cause du contenu. Ce contenu n’est qu’une satire grossière, avec peu d’information. Elle fonctionne parce que la forme du médium elle-même est une attaque.

L’IA générative, native plateforme, optimisée pour le partage. Les memes de la Maison Blanche suivent la même logique. “Le président qui publie un meme” n’est pas qu’un contenu, c’est une métadonnée : la règle n’existe plus, la gravité n’existe plus, cet “ordre” que tu croyais connaître n’existe plus.

Gregory Daddis, professeur d’histoire à Texas A&M (plus de 20 ans dans l’armée américaine), l’a dit clairement dans une interview : le style de communication de Trump sur les réseaux sociaux sert presque uniquement sa base politique intérieure : “Ceux qui pensent que Kid Rock et le ministre de la Santé Kennedy sont cool en faisant du sauna, ce n’est pas une diplomatie sérieuse.”

Mais l’Iran a appris la leçon. Philip Smyth, spécialiste des organisations proxy iraniennes, explique que l’IA aide l’Iran et la Chine à combler le fossé culturel, leur permettant de produire des contenus de propagande qui touchent le public occidental, même si les créateurs eux-mêmes ne connaissent pas la culture occidentale.

Une vidéo de propagande IA de CCTV Chine montre un aigle blanc pour les Américains, un chat persan pour les Iraniens. La vidéo est traduite, relayée, rapportée par les médias mondiaux.

Le médium, c’est l’information, le médium, c’est la machine. Et dans le contexte de la guerre, on peut ajouter un autre égal : le médium, c’est l’arme.

Vous avez traqué 5000 influenceurs avec l’IA, mais votre monde se rétrécit

Quelle est la ressource la plus précieuse aujourd’hui ? Wall Street a carrément envoyé ses analystes au détroit d’Ormuz

Pourquoi les plus brillants de la Silicon Valley relisent-ils tous une personne ?

Que reçoivent les gens ordinaires de ces médias instrumentalisés ?

Le Financial Times a récemment publié une idée contre-intuitive : l’impact des réseaux sociaux sur l’opinion est largement surestimé. “Tous ceux qui lisent la Bible ne deviennent pas chrétiens, tous ceux qui lisent le Guardian ne deviennent pas de gauche.” La méfiance envers l’information aléatoire sur les réseaux sociaux dépasse celle envers les médias traditionnels.

Ce point de vue semble défendre les réseaux sociaux.

Mais il révèle en réalité une vérité plus profonde. Ce que les gens reçoivent sur les réseaux sociaux, ce n’est pas de l’“information”, mais une “atmosphère” (vibes). Tu n’as pas besoin de croire à un faux message précis. Tu absorbes simplement une atmosphère sous le flot de centaines de messages : colère, anxiété, vide.

C’est précisément la validation la plus fidèle de la vision de McLuhan en 2026 : l’impact du médium ne se joue pas au niveau du “contenu”, mais au niveau de la “structure perceptive”. Tu crois que tu lis, que tu juges, que tu réfléchis rationnellement. Mais le médium a déjà changé ta façon de percevoir le monde, avant même que tu ne juges. Comme l’a dit McLuhan, le médium, c’est le massage.

Tu crois que tu choisis ce à quoi croire. En réalité, tu absorbes l’atmosphère.

L’atmosphère, c’est la domination

Comment le grand maître des échecs Kasparov explique-t-il la “fatigue” ?

Imagine ta consommation quotidienne d’informations. Tu ouvres ton téléphone, tu vois une image choquante. Tu ne sais pas si c’est vrai. Tu veux vérifier, mais comment ? La recherche inversée d’image sur Google Lens, Yandex, TinEye donne trois résultats différents. L’absence de correspondance ne signifie plus “c’est original”, mais peut simplement signifier qu’elle n’a jamais été photographiée. Les outils de détection donnent une confiance de 72%. Que signifie ce chiffre ? Tu fermes la page, tu continues à faire défiler.

Le lendemain, une autre image. Le lendemain, encore une autre.

Un mois plus tard, tu ne deviens pas “plus prudent”. Tu deviens quelqu’un qui abandonne le jugement. Pas par stupidité ou paresse, mais parce que tes ressources cognitives sont limitées. Cette guerre est conçue pour épuiser toute ta capacité de traitement. Chaque information nécessitant un jugement “vrai ou faux” te taxe d’un impôt mental. La taxe augmente, mais ta base d’attention quotidienne ne change pas.

Un scepticisme sain ressemble à “je vais vérifier”. Mais quand le coût de la vérification devient infini, le scepticisme glisse vers le cynisme, et devient “de toute façon, on ne peut faire confiance à rien”.

Passer de “tout peut être faux” à “tout est faux” ne demande qu’un pas. Et tu ne te rends même pas compte que tu l’as franchi.

La prophétie d’Arendt boucle ici la boucle. Quand la majorité d’une société atteint ce stade de “je ne crois plus rien”, ils ne deviennent pas des penseurs critiques. Ils deviennent des “citoyens idéaux”. Pas persuadés, mais fatigués. Pas croyant aux mensonges, mais indifférents à la vérité.

Dans la section commentaires de l’article du FT, quelqu’un écrit : “La haine, la division, la colère génèrent des clics. Zuckerberg, Musk, personne ne devient milliardaire en encourageant le respect mutuel.”

Les algorithmes optimisent la transmission, pas la vérité. Quand l’émotion devient le carburant de l’algorithme, l’atmosphère devient le vrai maître de ce siècle.

La vérité n’est pas vaincue. Elle est simplement noyée sous une force qu’elle ne peut jamais rivaliser : coût zéro, vitesse infinie, émotion brute.

L’IA a révélé la vérité sur l’éducation, et les universités américaines commencent à ressusciter une vieille tradition

Les premiers à utiliser intensément l’IA sont en train d’être désuétisés par l’IA elle-même

Dans le flot d’atmosphère hypocrite, il faut s’ancrer

Si tu te dis : “Et alors, que faire ? Je ne peux pas lutter contre l’algorithme”, c’est justement que cette atmosphère t’a déjà atteint.

Ce n’est pas une solution miracle. Il n’y en a pas. Mais il existe des stratégies structurelles, qui peuvent au moins te rendre moins vulnérable.

Première étape : ne plus demander “est-ce vrai”. Commence par demander “d’où ça vient”.

Dans l’article de WIRED, l’expert en vérification van Ess propose une méthode en cinq étapes, centrée sur “tracer la source”. La clé, c’est “trouver le patient zéro”, c’est-à-dire remonter à l’origine d’une information.

Les matériaux authentiques ont généralement une ligne menant à une personne précise : un témoin, un photographe, une coordonnée géolocalisable. Les contenus synthétiques ont une caractéristique typique : anonymes, sophistiqués, conçus dès le départ pour être partagés. Ils ressemblent à des orphelins. Sans parents, sans origine, mais avec une apparence parfaite.

Van Ess donne aussi une règle empirique simple mais efficace : “si une image paraît trop cinématographique, avec une lumière trop parfaite, une composition symétrique, c’est un premier avertissement. Les vraies catastrophes sont rarement symétriques.”

L’ère de la vérification de l’information touche à sa fin, celle de la traçabilité commence. Même si cela consomme beaucoup de puissance de calcul.

Deuxième étape : imposer une “taxe” à ton attention.

Pas le conseil classique “moins de téléphone”. Mais une étape consciente de ralentissement, avant que l’information n’atteigne ton cerveau.

Voici comment faire :

Pour tout contenu qui suscite une forte émotion, donne-toi 24 heures de délai de réflexion avant de décider de partager. Tu verras qu’au bout de ce délai, tu n’auras probablement plus envie de partager, car l’atmosphère s’est dissipée, il ne reste que l’information. Et cette information, souvent, n’a rien d’extraordinaire.

Pour tout événement majeur auquel tu veux croire, vérifie au moins avec trois sources indépendantes. Pas trois comptes sur le même réseau (qui pourraient tous provenir de la même source), mais trois canaux d’information différents.

Reviens à la lecture longue. Les livres et reportages approfondis ont une fonction que l’algorithme ne peut pas fournir : ralentir. L’algorithme compresse tout en 3 secondes. Le livre t’oblige à t’immerger pendant 3 heures dans une même idée. Ce n’est pas une perte d’efficacité, c’est un calibrage de la pensée. Et c’est très coûteux en puissance de calcul.

Troisième étape : reconstruire un réseau de confiance à petite échelle, basé sur de vraies relations.

Si l’espace public massif est irrémédiablement “atmosphérisé”, la chose la plus importante que chacun peut faire, c’est ne pas seulement mieux distinguer le vrai du faux dans cet espace, mais trouver une ancre en dehors.

L’article sur la fusion médias-machines évoque une vérité : quand tout ce qui est visible est englouti, la seule “plus-value” résiduelle, ce sont ceux qui refusent la numérisation. L’expérience déconnectée, l’intuition, le silence entre amis.

McLuhan pourrait encore avoir raison : les médias électroniques nous ramèneraient à un état “tribal”. Il faut sérieusement reconstruire sa tribu. Pas celle que l’algorithme recommande, mais celle que l’on connaît vraiment, avec des souvenirs communs, face à face, pour questionner.

Dans un monde où tout peut être falsifié, la chose la plus difficile à falsifier, c’est la relation à long terme.

AI 2028-AI 2027-AI 2026 : le compte à rebours du changement et le guide de survie pour le citoyen ordinaire

L’effondrement de la classe intermédiaire : deux millénaires de gestion, terminés par un cycle IA

Dans une époque d’accélération, devenir un ralentisseur

Revenons à la scène du début.

Un président d’une superpuissance publie à 2h du matin un message menaçant de détruire une civilisation. Le pays menacé répond par une animation Lego IA. La Maison Blanche célèbre le bombardement avec une vidéo IA de quilles. L’ambassade d’Iran se moque du délai de l’ultimatum avec une blague. 3 milliards de vues.

Chacun accélère. L’IA génère, l’algorithme distribue, l’émotion se propage.

Comme le dit la conclusion de WIRED :

“Dans un système où le contenu synthétique se répand plus vite que la vérification, la seule vraie défense est comportementale : la hésitation. Avant de partager, faire une pause. Dans un système conçu pour faire réfléchir zéro, prendre quelques minutes pour réfléchir.”

Dans un monde où tout s’accélère, la chose la plus subversive que peut faire un individu, c’est ralentir. Pas forcément pour trouver la vérité, souvent impossible. Mais parce que ralentir, c’est aussi refuser.

Refuser de devenir ce que Hannah Arendt appelait “le citoyen idéal”. Refuser que “faux ou vrai, ça n’a plus d’importance” devienne ton mode par défaut.

Orwell disait que le mensonge entrerait dans l’histoire.

Peut-être. Mais tant qu’il y aura quelqu’un pour faire une pause de trois secondes avant de cliquer sur “transférer”, l’histoire n’est pas encore écrite.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler