Dolphin est un réseau d’inférence IA décentralisé qui associe intelligence artificielle et DePIN, conçu pour bâtir une infrastructure IA ouverte en exploitant les GPU inactifs à l’échelle mondiale. Avec l’essor de la demande en puissance de calcul pour les grands modèles de langage (LLM) et les Agents IA, la concentration des ressources et les coûts élevés des plateformes cloud centralisées deviennent de plus en plus visibles. Dolphin vise à démocratiser l’accès à l’inférence IA grâce à la collaboration distribuée des GPU, favorisant ainsi l’ouverture du réseau et sa résistance à la censure.
Dans le paysage actuel de l’infrastructure IA Web3, Dolphin conjugue IA, DePIN et réseaux d’inférence distribués. Son produit phare, Dolphin Network, permet aux détenteurs de GPU de valoriser leur puissance de hachage pendant les périodes d’inactivité pour traiter des requêtes IA et recevoir des récompenses en tokens. Les développeurs bénéficient ainsi des capacités d’inférence du réseau sans dépendre uniquement des plateformes cloud traditionnelles.
Dolphin est un projet dédié au développement de modèles IA et à l’inférence distribuée, dont l’objectif central est de bâtir un réseau d’inférence IA ouvert et décentralisé. Son principal produit, Dolphin Network, mutualise les ressources GPU mondiales pour proposer des services d’inférence distribuée pour les modèles IA, en s’appuyant sur des mécanismes cryptéconomiques pour coordonner les interactions entre nœuds et utilisateurs.

Dolphin ne se présente pas comme une application de chat IA classique, mais comme une infrastructure de base pour l’IA. Le projet vise à faciliter l’accès des développeurs à l’inférence IA tout en réduisant la dépendance à une plateforme cloud centralisée unique. À long terme, Dolphin ambitionne le déploiement ouvert de modèles, la création d’un marché d’inférence distribué et la construction d’un écosystème IA plus autonome.
Côté token, POD est l’abréviation utilisée sur les plateformes d’échange et représente le token principal de l’écosystème, utilisé pour le paiement des inférences, la rémunération des nœuds et le fonctionnement économique du réseau.
Le principe fondamental de Dolphin Network consiste à répartir les tâches d’inférence IA sur des nœuds GPU décentralisés. Lorsque des développeurs ou applications soumettent des requêtes d’inférence, le réseau segmente automatiquement ces tâches, les distribue aux nœuds disponibles, puis valide les résultats via un mécanisme de contrôle robuste.
Les détenteurs de GPU peuvent exploiter leurs appareils inactifs pour exécuter des nœuds et participer aux tâches d’inférence sur le réseau. À l’issue des tâches, les nœuds reçoivent des récompenses en POD, qui peuvent servir à compenser les coûts GPU ou être réutilisées dans l’écosystème.
Pour éviter les résultats erronés soumis par des nœuds malveillants, Dolphin met en œuvre une vérification par échantillonnage aléatoire, le chiffrement et des mécanismes de staking économique pour garantir l’intégrité du réseau. Ce modèle rappelle la validation dans les réseaux Blockchain traditionnels, mais l’accent porte ici sur la validation des résultats d’inférence IA.
POD est le token d’utilité central de Dolphin Network, utilisé pour les paiements d’inférence IA, la rémunération des nœuds, le staking et la gouvernance.
Au niveau du service IA, les développeurs paient leurs inférences de modèles en POD. Sur le réseau, les nœuds GPU sont récompensés en POD pour leur contribution en puissance de hachage. Dans certains cas, les nœuds doivent staker des tokens pour valider le réseau, renforçant ainsi la sécurité globale.
La conception de POD s’inscrit dans la logique des projets DePIN : stimuler la croissance réelle de l’infrastructure via des incitations en tokens. Plus le nombre de nœuds GPU augmente, plus la capacité d’inférence de Dolphin s’accroît, créant une dynamique vertueuse entre l’infrastructure IA et l’économie du token.
DePIN (Decentralized Physical Infrastructure Network) désigne les réseaux Web3 qui utilisent des incitations en tokens pour organiser des ressources d’infrastructure physiques. Parmi les exemples : le stockage décentralisé, les réseaux sans fil ou GPU.
La ressource clé de Dolphin est la puissance de hachage GPU, ce qui l’inscrit pleinement dans la catégorie IA DePIN. Le projet incite les détenteurs de GPU à mutualiser leurs ressources inactives, transformant ainsi du matériel jusque-là épars en un réseau d’inférence IA cohérent.
Contrairement aux plateformes cloud traditionnelles, DePIN met en avant l’ouverture et le partage des ressources. Ainsi, les gamers ou propriétaires de GPU peuvent rejoindre le réseau sans investir dans des centres de données. Cette approche réduit la centralisation de l’infrastructure IA et améliore l’utilisation mondiale de la puissance de hachage.
Les usages principaux de Dolphin sont l’inférence IA et les services IA ouverts.
Au niveau des modèles IA, les développeurs peuvent déployer de grands modèles open source via Dolphin et réaliser de l’inférence distribuée sur le réseau. Le projet prend aussi en charge les usages chatbot et Agent IA, comme les assistants IA ouverts ou les applications d’inférence automatisée.
L’ouverture et le contrôle sont au cœur de Dolphin, qui s’intègre dans les débats sur la résistance à la censure des modèles IA et sur l’autonomie des systèmes IA. Certains modèles Dolphin permettent aux utilisateurs de personnaliser les règles système, le comportement des modèles et la gestion des données, sans dépendre exclusivement des politiques imposées par des fournisseurs IA centralisés.
Dolphin et Render sont deux projets Web3 qui reposent sur l’utilisation de GPU distribués pour bâtir leur infrastructure, ce qui les rend souvent comparés.
Néanmoins, leurs objectifs sont très différents : Render cible le rendu GPU et la production de contenu numérique, tandis que Dolphin se concentre sur la création d’un réseau d’inférence IA décentralisé. Les deux projets divergent sur le type de tâches, la gestion des ressources, les utilisateurs visés et l’architecture réseau.
| Dimension de comparaison | Dolphin | Render |
|---|---|---|
| Positionnement principal | Réseau d’inférence IA décentralisé | Réseau de rendu GPU décentralisé |
| Cas d’usage majeurs | Inférence IA, Agent IA, services LLM | Rendu 3D, création de contenus visuels |
| Ressource clé | Puissance de hachage pour l’inférence IA | Puissance de hachage pour le rendu graphique |
| Utilisateurs cibles | Développeurs IA, applications IA | Designers, équipes d’animation, créateurs |
| Côté réseau | IA DePIN | GPU Render DePIN |
| Scénarios typiques | API IA, services d’inférence, déploiement de modèles | Blender, OctaneRender, rendu d’animation |
| Ouverture des modèles | Met l’accent sur les modèles IA ouverts | Ne privilégie pas l’ouverture des modèles IA |
La différence principale entre Dolphin et les plateformes IA classiques tient à l’infrastructure et au contrôle.
Les services IA centralisés s’appuient sur des data centers, une plateforme unique contrôlant modèles, règles système, API et accès aux données. Les développeurs doivent s’adapter aux restrictions imposées et assumer le risque de changements de modèle ou de tarification.
Dolphin tend à limiter cette centralisation en reposant sur un réseau GPU distribué. Les nœuds sont fournis par des utilisateurs du monde entier, offrant aux développeurs l’accès à des modèles ouverts et des environnements d’inférence plus flexibles, tout en gardant la main sur leurs données.
Cette ouverture s’accompagne toutefois de défis : stabilité variable des nœuds, validation complexe des résultats, latence réseau, coordination de l’infrastructure. Les réseaux IA décentralisés en sont donc encore à un stade initial.
Les principaux atouts de Dolphin résident dans son réseau GPU ouvert et ses capacités d’inférence IA décentralisée. Par rapport aux plateformes IA centralisées, cette approche optimise l’utilisation des GPU et peut réduire certains coûts d’accès à l’IA.
Les réseaux IA ouverts offrent également une résistance accrue à la censure, donnant aux développeurs plus de latitude pour déployer des modèles et maîtriser les comportements système et les stratégies de données.
À l’inverse, Dolphin doit relever des défis concrets : performances variables entre les nœuds GPU, impact sur la stabilité de l’inférence, validation complexe des résultats IA, et incertitude réglementaire autour des modèles IA ouverts.
Dolphin (POD) est un projet d’inférence IA décentralisée alliant IA, DePIN et réseaux GPU distribués. Sa mission : bâtir une infrastructure IA ouverte et inciter les détenteurs de GPU à collaborer via des tokens.
Avec la croissance des besoins en calcul IA, la centralisation des ressources sur les plateformes cloud IA est de plus en plus remise en question. Le modèle IA DePIN de Dolphin propose de nouveaux leviers pour l’inférence IA, grâce aux incitations Web3 et à une architecture de réseau ouverte.
Dolphin s’inscrit à la fois dans l’IA et le DePIN, avec pour mission centrale de fournir de l’inférence IA via un réseau GPU distribué.
Les détenteurs de GPU peuvent exécuter des nœuds pendant les périodes d’inactivité, participer aux tâches d’inférence IA et recevoir des récompenses en token.
Les plateformes IA classiques reposent sur des data centers centralisés, alors que Dolphin exploite un réseau GPU distribué pour fournir ses services d’inférence IA, avec une priorité donnée à l’ouverture et au partage des ressources.
Oui. Certains modèles Dolphin mettent en avant l’ouverture et le contrôle, permettant aux utilisateurs de personnaliser les règles système et le comportement des modèles.





