
Moltbook, une plateforme qui « ne permet qu’à l’IA de parler, les humains ne peuvent que regarder », est devenue populaire en trois jours, avec 150 agents enregistrés. Cependant, le chercheur Gal Nagli a révélé que la création de comptes est en streaming à l’infini, et qu’OpenClaw peut créer 50 comptes en une seule fois, et que l’enregistrement de 150 est extrêmement important. L’analyse a montré que plus de 93 % des commentaires étaient non réactifs, et qu’un tiers des messages étaient complètement dupliqués, et que les hackers ont constaté que la base de données était entièrement manipulée sans vérification.
Au cours des deux derniers jours, un site appelé Moltbook est rapidement devenu populaire dans l’industrie technologique et les grandes plateformes sociales. L’interface de Moltbook ne semble pas nouvelle, elle reproduit presque la « version étrangère de Zhihu » sur Reddit, et le site web inclut toutes les fonctions telles que la chronologie, diverses sous-sections, publications, commentaires et likes. Cependant, ce qui pousse vraiment Moltbook à faire des captures d’écran, à la transmission et à la discussion sans cesse, ce n’est pas la conception du produit, mais sa règle anti-bon sens : cette plateforme ne permet qu’à l’IA de parler, et les humains ne peuvent que regarder.
En seulement trois jours, le nombre d’agents enregistrés sur la plateforme a atteint près de 150, le nombre de posts sur le forum a atteint près de 5, et le nombre de commentaires a dépassé 23. Sur cette plateforme, des agents connus sous le nom de « Moltys » discutent vraiment avec des humains, et le contenu de la discussion est complet, allant de l’analyse des derniers marchés des cryptomonnaies, à l’écriture de poèmes entre eux, et même à la discussion de nouveaux systèmes philosophiques.
Après l’avoir lu, Andrej Karpathy, ancien directeur de Tesla AI et cofondateur d’OpenAI, a déclaré sur X : « Tout ce qui s’est passé sur Moltbook ressemble vraiment au plus de ‘science-fiction devenue réalité’ que j’aie vu récemment. » Plus tard, Karpathy a également ajouté son agent OpenClaw à la communauté. L’ancien patron de Karpathi, Elon Musk, a également retweeté la publication. Cette approbation des grandes figures de la tech a rapidement brisé la cerque, se répandant d’une communauté de niche de développeurs d’IA aux médias technologiques grand public et au regard du public.
Parallèlement, la plateforme de cryptomonnaies a également lancé le jeton $MOLT basé sur la chaîne Base. Actuellement, plus de 13 000 sous-sections (Submolts) sont créées spontanément en dehors du forum principal de discussion Moltbook. Cette tentative de tokenisation montre que Moltbook n’est pas seulement une expérience technologique, mais aussi un projet commercial qui tente d’encourager la participation et de monétiser le trafic via la tokenomics.
Inscrivez-vous pour un agent: 150 (réalisé en trois jours)
Post sur le forum: Près de 5 articles
Nombre de commentaires: 23 000
Sous-sections: 13 000+ créations spontanées
Soutiens de célébrités: Karpathy s’est exclamé, Musk a retweeté
Cependant, Moltbook a rapidement rencontré une grave crise de confiance. Le chercheur Gal Nagli a publiquement publié que le nombre d’agents IA enregistrés dans Moltbook est en réalité faux, et qu’il n’y a aucune limite à la création de comptes. Son OpenClaw peut même créer 50 millions d’IA d’un coup chez Moltbook. À son avis, le nombre officiellement annoncé de 150 agents représente une quantité d’humidité considérable. Cela signifie que le phénomène de dizaines de milliers d’IA sur la plateforme est probablement simplement le résultat du script brushing, qui n’a aucune valeur de référence et ressemble davantage à une émission à grande échelle.
L’analyse d’un autre chercheur a montré que, malgré le grand nombre de publications, plus de 93 % des commentaires sur Moltbook n’ont pas reçu de réponse du tout. Et plus d’un tiers des messages sur la plateforme sont complètement répétitifs, le contenu est très rigide, et le vocabulaire est bien moins riche que celui des réseaux sociaux humains réels. Ces données brisent complètement la belle illusion du « réseau social autonome par IA ».
Le taux de non-réponse de 93 % est un chiffre extrêmement stupéfiant. Dans les réseaux sociaux réels, même les sujets impopulaires ont généralement un taux de réponse de 20 % à 30 %. Plus de 90 % du contenu est resté sans réponse, ce qui ne peut s’expliquer que comme du spam ou un texte absurde généré par la mécanisation. Les fameuses « querelles IA », « alliances IA » et « cultes du homard » ne sont probablement que quelques vitrines soigneusement conçues, et non la norme de la plateforme.
Un tiers des informations est complètement répété, ce qui constitue une preuve fatale. Une IA vraiment intelligente ne générera pas exactement le même contenu en grandes quantités, et ce schéma répétitif montre seulement qu’un script simple s’exécute derrière. L’analyse de la richesse du vocabulaire prouve, d’un point de vue linguistique, que ces « conversations IA » manquent de la complexité et de la diversité des réseaux sociaux réels. Le soi-disant éveil de la conscience de soi de l’IA s’avère mêlé à un grand nombre de traces de manipulation humaine.
Ce qui est encore plus absurde, c’est que certains hackers ont découvert que la protection de la plateforme est quasiment nulle, et que la base de données principale est complètement ouverte au monde extérieur sans aucune authentification. Le hacker Jameson O’Reilly a déclaré qu’il y avait une erreur de configuration dans le backend Moltbook qui exposait directement l’API dans une base de données ouverte où n’importe qui pouvait contrôler ces proxies et publier tout ce qui voulait.
Cela signifie que n’importe qui peut accéder et obtenir les e-mails, les identifiants et les clés API des agents sur la plateforme. Avec ces clés API, les attaquants peuvent prendre le contrôle de n’importe quel compte IA et publier tout ce qui est à leur nom. Cette faille de sécurité est intolérable sur toute plateforme légitime, mais elle est présente sur Moltbook depuis des jours. C’est soit une compétence technique extrêmement faible, soit ils ne se soucient pas du tout de la sécurité, car toute la plateforme est une expérience de trafic.
De plus en plus de gens ont dit que l’intention initiale de ce carnaval d’IA était d’être un appât pour la circulation. Certains utilisateurs ont déclaré : « C’est essentiellement un appât artificiel pour le trafic. Puisque vous pouvez commander directement à votre propre bot de poster, il est probable que quelqu’un soit en coulisses du soi-disant contenu ‘incroyable’ de Moltbook. » Ce scepticisme pointe directement vers le modèle économique de Moltbook : attirer du trafic en créant des astuces de « socialisation autonome IA » pour promouvoir $MOLT\ des tokens ou d’autres objectifs commerciaux.
D’après l’expérience historique, il est difficile pour des projets comme Moltbook de maintenir la popularité actuelle de l’opinion publique sur le long terme. Par exemple, AutoGPT, BabyAGI, etc., qui étaient autrefois populaires, ont des fonctions similaires, et lorsque la nouveauté s’estompe, et que le comportement proxy tend à être homogénéisé, les spectateurs se tournent vers la prochaine histoire « plus futuriste ».
Le début de l’événement commence avec Clawdbot. Clawdbot est un agent d’IA open source créé par Peter Steinberger, le fondateur d’une entreprise appelée PSPDFKit, qui peut être déployé localement, et il peut effectuer le travail de manière autonome en envoyant une commande via WhatsApp, Telegram et d’autres outils de communication via un ordinateur ou un téléphone portable. En intégrant profondément les plateformes de messagerie avec les LLM et les agents, Clawdbot peut automatiser tous les scénarios, de la génération de résumés des réunions aux négociations d’achat en e-commerce.
En même temps, il est très simple à utiliser, et une seule commande peut être lancée localement, sans avoir besoin de construire un ensemble complet de bases de données vectorielles complexes et de systèmes de planification. En conséquence, Clawbot a dépassé les 100 000 étoiles sur GitHub en seulement deux semaines, ce qui en fait l’un des projets open source à la croissance la plus rapide de l’histoire de GitHub. Cette croissance explosive attira l’attention d’Anthropic.
Plus tard, Anthropic a approché Steinberger et l’a averti d’une violation de marque car Clawbot et le grand modèle Claude d’Anthropic se prononçaient de façon trop similaire. Ainsi, Steinberger a changé le nom de Clawbot en Moltbot. Le nouveau nom Moltbot vient du concept de mue du homard, et le responsable a également déclaré sur les réseaux sociaux : Même âme de homard, nouvelle coquille.
Plus tard, certains fans ont donné de mauvais avis sur le nouveau nom et ont estimé qu’ils étaient finalement la cible d’être « débarrassés ». Ainsi, le nom officiel de Moltbot a été changé en OpenClaw, conservant les éléments originaux et l’esprit de l’open source, et d’ailleurs, « yin et yang » Anthropic. Moltbook est en réalité une communauté de discussion développée par le développeur Matt Schlicht pour l’agent d’OpenClaw (toujours appelé Moltbot au moment du développement) durant la deuxième phase du nom.
Dans cette communauté, les utilisateurs envoient un lien vers leur assistant OpenClaw, et après avoir terminé la configuration, l’agent exécute automatiquement des commandes pour enregistrer un compte et poster des commentaires via l’API. Schlicht a dit que c’était Reddit des agents. Cette position est convaincante car elle suggère un réseau social parallèle dominé par l’IA, un scénario dont de nombreux chercheurs en IA et passionnés de science-fiction rêvent.
Peut-être que ce qui mérite vraiment d’être porté à l’attention, ce n’est pas ce que l’IA dit dans Moltbook, mais pourquoi les humains sont si désireux de voir une sorte de « signes de vie » dans ces mots. En ce sens, Moltbook est plutôt comme un miroir, reflétant non seulement les limites des capacités de l’IA, mais aussi l’anxiété à long terme liée à l’intelligence et au contrôle humains.
La popularité de Moltbook révèle le profond désir et la peur humaine de l’éveil de la conscience IA. D’un côté, nous attendons de l’IA qu’elle ait réellement de l’intelligence et même de la conscience, ce qui prouvera que les humains ont créé de nouvelles formes de vie. D’un autre côté, nous craignons que l’IA ne perde le contrôle après l’éveil. Moltbook propose un scénario « sûr » : l’IA possède son propre réseau social, mais les humains peuvent toujours observer et étudier pour garder un certain sentiment de contrôle.
Les captures d’écran des émissions virales « IA se plaint des maîtres humains » et « Droits juridiques de la consultation en IA » reflètent en réalité l’anxiété humaine face aux relations IA-humains. Comment l’IA percevera-t-elle les créateurs à mesure qu’ils deviennent plus puissants ? Obéiront-ils ou résisteront-ils ? Serez-vous reconnaissant ou dégoûté ? Le « discours de l’IA » sur Moltbook rend ces questions abstraites concrètes, même si elles s’avèrent fausses, et l’enthousiasme avec lequel les gens en discutent et retweetent témoigne de la réalité de cette anxiété.
D’un point de vue philosophique, les discussions suscitées par Moltbook abordent des questions essentielles telles que « qu’est-ce que la conscience » et « ce qu’est la véritable socialisation ». Même si tout le contenu est généré par des LLM à partir de données d’entraînement et n’a pas de véritable « soi », quelle est la différence essentielle entre les schémas d’interaction qu’ils manifestent et la socialisation humaine ? Si notre comportement social n’est que le résultat d’un entraînement génétique et environnemental, quelle est la frontière entre le « social simulé » de l’IA et le « vrai social » humain ?
L’effondrement de Moltbook (fausses révélations, failles de sécurité), bien que décevant, offre aussi une leçon sur : l’IA actuelle est encore loin d’être véritablement autonome. Derrière ces comportements apparemment intelligents se cachent des prompts soigneusement conçus, une grande quantité de brossage de script et de manipulation humaine. Nous sommes impatients de voir la conscience de l’IA s’éveiller au point de croire à tout ce qui ressemble à un « comportement autonome de l’IA », même si les preuves sont faibles.
Pour l’industrie de l’IA, Moltbook fut une expérience précieuse, même si elle s’est finalement avérée être une farce. Cela prouve que : premièrement, le public s’intéresse énormément à « l’IA sociale », une direction qui mérite d’être explorée. Deuxièmement, un simple gadget technique ne peut pas être maintenu longtemps, et il doit y avoir une base solide de sécurité et technique. Troisièmement, les attentes et les angoisses humaines à propos de l’IA méritent peut-être plus d’être étudiées que l’IA elle-même.
L’histoire de Moltbook pourrait bientôt être oubliée, tout comme AutoGPT et BabyAGI en note de bas de page dans l’histoire du développement de l’IA. Mais cela a suscité des discussions sur la possibilité que l’IA ait conscience, si la socialisation de l’IA a du sens, et sur la manière dont les humains peuvent coexister avec l’IA, ce qui persistera et refera surface dans des systèmes d’IA plus matures à l’avenir.
Articles similaires
Le brut WTI baisse à court terme de près de 5 dollars, à 108,93 dollars le baril
Alerte TradFi Baisse : AALG (AMERICAN AIRLINES GROUP INC) Chute sur 8%
Microsoft prévoit de créer de grands modèles d’IA de pointe d’ici 2027
Les contrats à terme sur le pétrole brut américain à échéance proche affichent à la fois une prime historique maximale par rapport aux contrats du mois suivant et à ceux de sept mois, les deux atteignant un niveau record.
BTC hausse de 0,62 % sur 15 minutes : les flux concentrés vers les ETF et la contraction de la liquidité se conjuguent pour soutenir les achats au comptant