Selon le suivi de 1M AI News, l’actrice hollywoodienne Milla Jovovich (œuvres représentatives : « Le Cinquième Élément », la série « Resident Evil ») et le fondateur d’entreprise crypto, Ben Sigman, fondateur de Libre, une plateforme de prêt décentralisée, ont co-développé un système open source de mémoire pour l’IA, MemPalace. Publié sur GitHub sous licence MIT, le projet a reçu 5500 étoiles en trois jours. Sigman indique que tous les deux ont passé des mois à développer ce projet avec le Claude d’Anthropic ; dans l’historique des commits, Claude Opus 4.6 est répertorié comme co-auteur du code.
La force concurrentielle principale de MemPalace réside dans ses résultats aux tests de référence. Sur le benchmark standard de l’industrie pour la recherche de mémoire, LongMemEval, une recherche 100 % locale (sans appeler aucune API externe) atteint 96,6 % de Recall@5. En activant le réordonnancement avec un modèle optionnel Haiku, le projet obtient un score parfait : toutes les 500 questions sont correctes. Les responsables du projet affirment qu’il s’agit du meilleur score jamais enregistré sur ce benchmark, qu’il s’agisse d’un produit gratuit ou payant. Sur deux autres benchmarks, ConvoMem affiche 92,9 % et indique dépasser de plus de deux fois les produits d’IA mémoire Mem0 ; LoCoMo obtient un score parfait dans toutes les catégories d’inférence multi-sauts. Le code des tests de référence est publié avec le dépôt, afin d’être reproductible.
Contrairement aux solutions courantes de bases de données vectorielles, MemPalace imite la technique de « palais de la mémoire » utilisée par des orateurs de la Grèce antique pour organiser l’information. Le système transforme les journaux de conversation de l’utilisateur en une structure à quatre niveaux : Aile (Wing, classée par personnes ou projets) → Salle (Room, thème précis) → Garde-robe (Closet, résumé compressé) → Tiroir (Drawer, enregistrements de dialogue mot à mot). Dans la même aile, les salles liées sont connectées horizontalement via le « Hall » ; entre différentes ailes, elles sont reliées par des références croisées via le « Tunnel ». Les tests du projet montrent qu’avec cette structure à elle seule, la précision de la recherche peut augmenter de 34 %.
Le projet a également créé un dialecte de compression sans perte nommé AAAK, conçu spécifiquement pour des agents IA. Il compresse le contexte utilisateur de plus de mille tokens en environ 120 tokens, soit un taux de compression d’environ 30 fois. AAAK est un texte purement structuré ; il ne nécessite aucun décodeur spécial ni aucun ajustement. Tout grand modèle de langage capable de lire du texte peut le comprendre directement. Le système intègre aussi une détection des contradictions : il peut repérer, avant la sortie, des incohérences concernant des éléments comme les noms, les pronoms, l’âge, etc.
L’ensemble du système fonctionne entièrement en local : il ne dépend pas de services cloud, ne nécessite pas de clés API et n’est pas payant. Il prend en charge l’intégration via le protocole MCP avec des outils comme Claude, ChatGPT, Cursor (fournissant 19 outils MCP), et il prend aussi en charge la génération de résumés de contexte via des commandes avec des modèles locaux comme Llama, Mistral, etc.
Le passage de Jovovich dans un domaine transversal a quelque chose de surprenant pour le milieu tech. Le dépôt du projet est enregistré sous son compte GitHub : sur 7 commits, 4 sont réalisés par elle, dont le commit initial contenant l’ensemble du code central. Elle a publié sur Instagram une vidéo présentant le projet.