Ramp Labs propose une nouvelle solution de partage de mémoire entre agents multiples, réduisant la consommation de tokens maximale de 65%

GateNews

Nouvelles de la Gate News : le 11 avril, la société d’infrastructure IA Ramp Labs a publié ses résultats de recherche « Latent Briefing ». En compressant directement le cache KV des grands modèles, elle permet un partage efficace de la mémoire entre systèmes multi-agents, tout en réduisant fortement la consommation de Tokens sans perte de précision. Dans les architectures multi-agents courantes, l’orchestrateur (Orchestrator) décompose les tâches et appelle de manière répétée le modèle de travail (Worker). À mesure que la chaîne d’inférence s’allonge, la quantité de Tokens augmente de façon exponentielle. L’idée centrale de Latent Briefing consiste à utiliser le mécanisme d’attention pour repérer, dans le contexte, les parties réellement essentielles, puis à supprimer directement les informations redondantes au niveau de la représentation, plutôt que de s’appuyer sur des résumés de LLM lents ou sur des recherches RAG peu stables. Lors des tests sur le banc LongBench v2, la méthode obtient d’excellents résultats : la consommation de Tokens du modèle Worker baisse de 65 %, et pour les documents de longueur moyenne (32k à 100k), le gain médian de Tokens atteint 49 %. Dans l’ensemble, la précision s’améliore d’environ 3 points par rapport à la base de référence, tandis que le surcoût de temps induit par chaque compression ne représente qu’environ 1,7 seconde, soit un gain de vitesse d’environ 20 fois par rapport à l’algorithme original. L’expérience utilise Claude Sonnet 4 comme orchestrateur et Qwen3-14B comme modèle Worker, couvrant des scénarios de documents variés : articles académiques, actes et documents juridiques, romans et rapports gouvernementaux. L’étude montre également que le seuil optimal de compression varie selon la difficulté de la tâche et la longueur du document : les cas difficiles se prêtent à une compression plus agressive pour filtrer le bruit de raisonnement spéculatif, tandis que les documents longs sont mieux servis par une compression légère afin de préserver des informations clés dispersées.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

L’agent Hermes de Nous Research ajoute une fonctionnalité de conservateur pour auto-retirer les compétences inutilisées après 30 jours

Selon Nous Research, le cadre Hermes Agent a ajouté une fonctionnalité de Curator le 29 avril afin de gérer automatiquement le cycle de vie des compétences. La fonctionnalité répond à une limite antérieure, selon laquelle les agents IA pouvaient accumuler des compétences indéfiniment, alourdissant les prompts système sans supprimer celles qui n’étaient plus utilisées. Curator

GateNewsIl y a 10m

Grok lance la version bêta du mode Imagine Agent avec une toile infinie pour des workflows créatifs multi-étapes

Selon des rapports suivis par Beating, la version web de Grok se déploie actuellement en mode Imagine Agent (bêta), un nouvel outil basé sur des agents, construit à partir des capacités existantes de génération d’images et de vidéos de xAI. L’interface remplace la fenêtre de chat traditionnelle par une toile infinie et inclut quatre préréglages

GateNewsIl y a 1h

Billions Network devient le troisième plus grand écosystème d’agents avec plus de 18 000 agents déployés

Selon BlockBeats, le 30 avril, Billions Network est devenu le troisième plus grand écosystème d’Agents par nombre de déploiements, dépassant Ethereum avec plus de 18 000 agents déployés. Le réseau se classe uniquement derrière BNB Chain et Base. Billions a également synchronisé sa fonctionnalité d’identité d’Agent vérifiée sur w

GateNewsIl y a 3h

Ant International relie 150 millions de commerçants via des paiements propulsés par l’IA

Ant International a déclaré que son réseau de paiement relie plus de 150 millions de commerçants à plus de 2 milliards de comptes clients dans le monde, et prend en charge plus de 300 méthodes de paiement dans 220 marchés. L’entreprise traite en moyenne plus de 20 millions de transactions par jour et se développe en Asie,

CryptoFrontierIl y a 6h

OKX lance un protocole de paiements pour les agents pour le commerce des robots d’IA

La plateforme d’échange crypto OKX a introduit son protocole Agent Payments Protocol (APP) mercredi, un standard ouvert conçu pour permettre aux agents d’IA d’effectuer des cycles économiques complets, y compris des paiements, des négociations et le règlement des litiges. Le protocole s’inspire d’offres similaires proposées par des concurrents, notamment x402, incubé par

CryptoFrontierIl y a 7h

Kite lance le déploiement du réseau principal, avec la mise en place d'un contrôle des paiements pour les autorisations d'AI Agent

Selon l’annonce officielle de Kite, l’infrastructure de paiement Kite, dédiée à l’économie des AI Agent, a lancé son mainnet le 30 avril. Pendant la période de lancement du mainnet, Kite Treasury prend en charge les frais de réseau, de sorte que les utilisateurs n’aient rien à gérer côté gas. Kite ouvre aussi au public Kite Agent Passport, qui sert de couche d’autorisation et de contrôle des paiements pour les agents.

MarketWhisperIl y a 8h
Commentaire
0/400
Aucun commentaire