L’infrastructure du réseau Ethereum a réussi la seconde mise à niveau « limitée aux paramètres Blob », portant la valeur cible Blob de chaque bloc de 10 à 14, et la limite supérieure de 15 à 21. Cette mise à niveau constitue la étape finale prévue du hard fork Fusaka lancé en décembre dernier, marquant l’entrée de la stratégie d’extension de la capacité de disponibilité des données d’Ethereum via une approche modulaire et paramétrée dans une phase de maturité.
Une capacité Blob plus élevée signifie que le réseau Layer 2 Rollup pourra empaqueter des données de transaction à moindre coût sur la chaîne principale Ethereum, permettant de maintenir des frais de transaction utilisateur très faibles plus longtemps. Cette évolution technologique renforce non seulement la position d’Ethereum en tant que couche de règlement décentralisée, mais jette aussi les bases d’un écosystème DApp plus prospère et d’une réévaluation potentielle de la valeur du marché.
Une évolution sereine : Ethereum achève le dernier chapitre de la mise à niveau Fusaka
Dans un contexte de compétition où le monde de la cryptographie évolue rapidement, Ethereum affiche une philosophie de mise à niveau différente de celle des autres blockchains publiques : il ne cherche pas une révolution immédiate, mais privilégie une optimisation progressive, soigneusement conçue, pour étendre ses capacités de manière stable. Cette semaine, cette philosophie a été illustrée par une nouvelle démonstration. Le réseau Ethereum a réussi à synchroniser la seconde bifurcation « limitée aux paramètres Blob », ce qui constitue non seulement une conclusion parfaite de la mise à niveau majeure Fusaka lancée en décembre dernier, mais aussi une clarification de la méthodologie centrale pour l’expansion future d’Ethereum — passant d’une dépendance à des hard forks majeurs annuels à une approche plus flexible et efficace de réglages paramétriques.
Les ajustements techniques précis de cette mise à niveau semblent mineurs, mais ont une portée profonde. La valeur cible Blob par bloc est passée de 10 à 14, et la limite maximale de 15 à 21. Il ne s’agit pas d’une action isolée, mais de la seconde moitié d’une stratégie « en deux étapes » soigneusement orchestrée : lors de la première mise à jour BPO, environ une semaine après l’activation de Fusaka, ces deux valeurs ont été portées respectivement de 6 et 9 à 10 et 15. Cette augmentation progressive de capacité, comparable à l’élargissement par étapes d’une voie rapide très fréquentée, a pour objectif principal d’accroître le débit tout en laissant le temps au réseau d’observer et d’adapter la charge supplémentaire, garantissant ainsi la stabilité et la sécurité du système dans son ensemble.
Le compte officiel X d’Ethereum a expliqué cela de façon très précise : « La bifurcation BPO permet à Ethereum d’ajuster de manière indépendante et efficace certains paramètres (tels que la valeur cible Blob), sans attendre le prochain hard fork annuel. » Ce changement de mode de mise à niveau marque une étape plus mature et agile dans la gouvernance et le processus de développement d’Ethereum. L’extension de capacité du réseau n’est plus une « explosion » incertaine, mais un processus continu pouvant être ajusté en fonction des besoins réels et des retours de données. Cela fournit une infrastructure prévisible et durable pour le développement florissant de l’écosystème Layer 2 Rollup.
Comprendre « Blob » : le composant modulaire central de l’extension de capacité d’Ethereum
Essence : un paquet de données volumineux temporaire, destiné spécifiquement aux Rollups Layer 2 pour publier en lot des données de transaction à faible coût sur la chaîne principale Ethereum.
Nom technique : Binary Large OBjects (objets binaires volumineux)
Cycle de stockage : les données sont automatiquement supprimées après 18 jours de stockage sur la chaîne principale, équilibrant ainsi coûts et sécurité.
Introduction : lancé pour la première fois lors de la mise à niveau Dencun en mars 2024, il constitue le cœur du Proto-Danksharding.
Évolution de capacité : après Fusaka, deux bifurcations BPO ont porté la valeur cible Blob par bloc de 6 à 14, et la limite maximale de 9 à 21.
Rôle central : transformer le rôle d’Ethereum de « tout exécuter » à « vérifier et stocker en toute sécurité », clé de l’architecture modulaire.
Décryptage du Blob : pourquoi le considérer comme « l’autoroute de données » modulaire d’Ethereum
Pour comprendre l’importance de cette augmentation des paramètres Blob, il faut revenir à une question fondamentale : dans la narration de la blockchain modulaire, quel rôle joue la chaîne principale Ethereum ? La réponse : une couche de sécurité, de décentralisation et de haute confiance pour la « disponibilité des données et le règlement ». Le Blob est le vecteur technologique central qui porte ce rôle. On peut l’imaginer comme une voie de transmission spécialisée, rapide et à faible coût, reliant l’« atelier d’exécution » Layer 2 au « bureau de notaire » de la chaîne principale Ethereum.
Avant l’apparition du Blob, la publication de données par Rollup sur la chaîne principale nécessitait d’utiliser tout l’espace Calldata, ce qui était coûteux et concurrençait l’espace de bloc pour les transactions ordinaires. La finesse du Blob réside dans sa capacité à créer un canal de données indépendant et peu coûteux. Rollup peut compresser des milliers de transactions, les empaqueter dans un Blob, et les « stocker temporairement » sur la chaîne principale à très faible coût. Tous les participants du réseau peuvent vérifier ces données dans une fenêtre de 18 jours, assurant que l’opérateur Rollup n’a pas mal agi. Ensuite, les données sont automatiquement effacées, évitant une croissance infinie de l’état de la chaîne principale. Cette conception équilibre parfaitement disponibilité des données, sécurité et économie.
L’augmentation des paramètres élargit directement cette « autoroute de données ». Plus de capacité Blob signifie qu’en un temps donné, des réseaux Rollup comme Arbitrum, Optimism, Base, zkSync Era pourront soumettre davantage de lots de transactions à la chaîne principale. Cela est crucial pour maintenir, voire réduire davantage, les frais de transaction utilisateur Layer 2. Bien que depuis la mise à niveau Dencun, les frais moyens sur Layer 2 aient chuté à quelques cents ou même quelques millièmes de dollar, la croissance explosive de l’écosystème implique une demande continue pour l’espace Blob. Augmenter l’offre de manière anticipée et progressive vise à éviter que la demande future ne fasse exploser les coûts de Gas Blob, transférant ainsi l’avantage du faible coût aux utilisateurs finaux. Les données on-chain montrent que le taux d’utilisation actuel du Blob est encore bien en dessous de la nouvelle limite, ce qui indique que cette mise à niveau est un investissement infrastructurel prospectif, laissant suffisamment d’espace pour la croissance future.
La « pierre angulaire » Layer 2 : coûts plus faibles et environnement de développement plus stable
Le bénéficiaire direct de cette extension Blob est sans aucun doute l’ensemble de l’écosystème Layer 2 construit sur Ethereum. Pour les utilisateurs finaux, la conséquence la plus immédiate sera la stabilité et la faiblesse des frais de transaction. Par exemple, sur le réseau Base utilisant Optimistic Rollup, le coût moyen d’une transaction peut rester longtemps proche de zéro (comme indiqué dans les rapports, 0,000116 USD). Cet avantage de coût extrême est une condition clé pour attirer le prochain milliard d’utilisateurs dans le monde blockchain. Que ce soit pour des échanges DeFi de petite taille, la création de NFT ou la participation à des jeux blockchain, les utilisateurs n’auront plus à s’inquiéter des frais de Gas imprévisibles.
Pour les développeurs et projets Layer 2, l’augmentation de la capacité Blob signifie des coûts d’exploitation plus prévisibles et une performance réseau plus stable. Christine Erispe, défenseure des développeurs Ethereum aux Philippines, souligne que l’augmentation de la valeur cible Blob réduit la probabilité que le réseau soit « en limite » (proche de la capacité maximale), ce qui est précisément la phase où les frais Blob atteignent leur pic et où la soumission de lots devient chaotique. Un environnement de frais plus stable et une soumission de données plus fiable permettent aux projets Layer 2 de se concentrer davantage sur l’innovation produit et l’expérience utilisateur, plutôt que de s’inquiéter constamment des coûts de publication de données sous-jacentes.
Cette optimisation continue de l’infrastructure sous-jacente redéfinit la compétition entre blockchains. Comme le dit Andrew Gross, responsable de la diffusion technique de Blockscout, l’architecture modulaire d’Ethereum a transformé « la disponibilité des données en une ressource contrôlable ». Cela signifie qu’à mesure que la demande applicative croît, Ethereum peut s’adapter en ajustant ses paramètres (comme le nombre de Blob) pour une extension élastique, sans sacrifier ses propriétés fondamentales de décentralisation et de sécurité. Cela répond à la récente déclaration de Vitalik Buterin selon laquelle Ethereum est devenue un « réseau décentralisé entièrement nouveau et plus puissant », cherchant à démontrer que le compromis entre sécurité, décentralisation et scalabilité — le fameux « triangle impossible » — est en train d’être habilement concilié par la conception modulaire.
La voie à suivre : gouvernance paramétrique et vision du « vérification en tant que service »
À l’avenir, la réussite de cette mise à niveau BPO sert de modèle clair pour le développement ultérieur d’Ethereum. La gouvernance paramétrique deviendra la nouvelle norme pour l’extension des capacités du réseau. Que ce soit pour augmenter encore la capacité Blob, ajuster la durée de stockage ou la tarification Gas, ces modifications pourront être effectuées via un consensus communautaire et une mise à jour du réseau relativement légers. Cela confère à Ethereum une agilité sans précédent, lui permettant de répondre rapidement aux besoins de l’écosystème.
Une vision plus lointaine mène à un Danksharding complet. La version Proto-Danksharding (via Blob) n’est qu’une étape préliminaire vers cette vision. Le Danksharding complet vise à étendre l’échantillonnage de disponibilité des données à l’ensemble du réseau, permettant aux nœuds de garantir la fiabilité d’un bloc de données en ne téléchargeant et vérifiant qu’une petite partie. Cela permettra une augmentation exponentielle de la capacité de données. La récente introduction de PeerDAS (échantillonnage de disponibilité des données peer-to-peer) lors de la mise à niveau Fusaka est une étape clé vers cet objectif. La croissance progressive de la capacité Blob peut être vue comme un test de pression et une préparation écologique pour accueillir le Danksharding final.
Par ailleurs, à mesure que Blob devient un produit standardisé de disponibilité des données, un marché secondaire autour du « vérification en tant que service » pourrait émerger. Des couches de disponibilité des données spécialisées comme EigenDA, Celestia, et Avail proposent déjà des alternatives à l’utilisation native d’Ethereum Blob. À l’avenir, les Rollups pourront choisir dynamiquement entre Blob natif d’Ethereum et des solutions tierces en fonction des coûts, hypothèses de sécurité et intégration. Cette compétition favorisera la baisse des coûts de disponibilité des données et la spécialisation des services. En optimisant en permanence le rapport qualité-prix de ses Blob natifs, Ethereum s’assure de rester compétitif dans ce marché clé.
Pour Ethereum lui-même, un écosystème Layer 2 à la fois évolutif, à faible coût et très actif générera une demande continue pour ETH en tant que moyen de paiement des frais de Gas de la couche de base. Bien que les utilisateurs Layer 2 paient directement en USDC ou autres tokens, la soumission de données et la vérification de sécurité sous-jacentes nécessitent inévitablement de consommer de l’ETH. Ainsi, l’expansion du Blob, en soutenant un écosystème florissant, est profondément liée à la capture de valeur à long terme d’ETH. Elle ne vise pas à stimuler directement le prix à court terme, mais à renforcer la base fonctionnelle du réseau, construisant un socle plus solide et plus vaste pour sa valeur intrinsèque. En ce sens, chaque ajustement technique discret est une étape dans la construction d’une « ville décentralisée » plus large et plus solide, prête à accueillir le futur flux d’utilisateurs et de transactions.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Ethereum a achevé une mise à niveau clé pour l'extension : la capacité de Blob encore augmentée, les frais Layer 2 atteindront de nouveaux plus bas
L’infrastructure du réseau Ethereum a réussi la seconde mise à niveau « limitée aux paramètres Blob », portant la valeur cible Blob de chaque bloc de 10 à 14, et la limite supérieure de 15 à 21. Cette mise à niveau constitue la étape finale prévue du hard fork Fusaka lancé en décembre dernier, marquant l’entrée de la stratégie d’extension de la capacité de disponibilité des données d’Ethereum via une approche modulaire et paramétrée dans une phase de maturité.
Une capacité Blob plus élevée signifie que le réseau Layer 2 Rollup pourra empaqueter des données de transaction à moindre coût sur la chaîne principale Ethereum, permettant de maintenir des frais de transaction utilisateur très faibles plus longtemps. Cette évolution technologique renforce non seulement la position d’Ethereum en tant que couche de règlement décentralisée, mais jette aussi les bases d’un écosystème DApp plus prospère et d’une réévaluation potentielle de la valeur du marché.
Une évolution sereine : Ethereum achève le dernier chapitre de la mise à niveau Fusaka
Dans un contexte de compétition où le monde de la cryptographie évolue rapidement, Ethereum affiche une philosophie de mise à niveau différente de celle des autres blockchains publiques : il ne cherche pas une révolution immédiate, mais privilégie une optimisation progressive, soigneusement conçue, pour étendre ses capacités de manière stable. Cette semaine, cette philosophie a été illustrée par une nouvelle démonstration. Le réseau Ethereum a réussi à synchroniser la seconde bifurcation « limitée aux paramètres Blob », ce qui constitue non seulement une conclusion parfaite de la mise à niveau majeure Fusaka lancée en décembre dernier, mais aussi une clarification de la méthodologie centrale pour l’expansion future d’Ethereum — passant d’une dépendance à des hard forks majeurs annuels à une approche plus flexible et efficace de réglages paramétriques.
Les ajustements techniques précis de cette mise à niveau semblent mineurs, mais ont une portée profonde. La valeur cible Blob par bloc est passée de 10 à 14, et la limite maximale de 15 à 21. Il ne s’agit pas d’une action isolée, mais de la seconde moitié d’une stratégie « en deux étapes » soigneusement orchestrée : lors de la première mise à jour BPO, environ une semaine après l’activation de Fusaka, ces deux valeurs ont été portées respectivement de 6 et 9 à 10 et 15. Cette augmentation progressive de capacité, comparable à l’élargissement par étapes d’une voie rapide très fréquentée, a pour objectif principal d’accroître le débit tout en laissant le temps au réseau d’observer et d’adapter la charge supplémentaire, garantissant ainsi la stabilité et la sécurité du système dans son ensemble.
Le compte officiel X d’Ethereum a expliqué cela de façon très précise : « La bifurcation BPO permet à Ethereum d’ajuster de manière indépendante et efficace certains paramètres (tels que la valeur cible Blob), sans attendre le prochain hard fork annuel. » Ce changement de mode de mise à niveau marque une étape plus mature et agile dans la gouvernance et le processus de développement d’Ethereum. L’extension de capacité du réseau n’est plus une « explosion » incertaine, mais un processus continu pouvant être ajusté en fonction des besoins réels et des retours de données. Cela fournit une infrastructure prévisible et durable pour le développement florissant de l’écosystème Layer 2 Rollup.
Comprendre « Blob » : le composant modulaire central de l’extension de capacité d’Ethereum
Décryptage du Blob : pourquoi le considérer comme « l’autoroute de données » modulaire d’Ethereum
Pour comprendre l’importance de cette augmentation des paramètres Blob, il faut revenir à une question fondamentale : dans la narration de la blockchain modulaire, quel rôle joue la chaîne principale Ethereum ? La réponse : une couche de sécurité, de décentralisation et de haute confiance pour la « disponibilité des données et le règlement ». Le Blob est le vecteur technologique central qui porte ce rôle. On peut l’imaginer comme une voie de transmission spécialisée, rapide et à faible coût, reliant l’« atelier d’exécution » Layer 2 au « bureau de notaire » de la chaîne principale Ethereum.
Avant l’apparition du Blob, la publication de données par Rollup sur la chaîne principale nécessitait d’utiliser tout l’espace Calldata, ce qui était coûteux et concurrençait l’espace de bloc pour les transactions ordinaires. La finesse du Blob réside dans sa capacité à créer un canal de données indépendant et peu coûteux. Rollup peut compresser des milliers de transactions, les empaqueter dans un Blob, et les « stocker temporairement » sur la chaîne principale à très faible coût. Tous les participants du réseau peuvent vérifier ces données dans une fenêtre de 18 jours, assurant que l’opérateur Rollup n’a pas mal agi. Ensuite, les données sont automatiquement effacées, évitant une croissance infinie de l’état de la chaîne principale. Cette conception équilibre parfaitement disponibilité des données, sécurité et économie.
L’augmentation des paramètres élargit directement cette « autoroute de données ». Plus de capacité Blob signifie qu’en un temps donné, des réseaux Rollup comme Arbitrum, Optimism, Base, zkSync Era pourront soumettre davantage de lots de transactions à la chaîne principale. Cela est crucial pour maintenir, voire réduire davantage, les frais de transaction utilisateur Layer 2. Bien que depuis la mise à niveau Dencun, les frais moyens sur Layer 2 aient chuté à quelques cents ou même quelques millièmes de dollar, la croissance explosive de l’écosystème implique une demande continue pour l’espace Blob. Augmenter l’offre de manière anticipée et progressive vise à éviter que la demande future ne fasse exploser les coûts de Gas Blob, transférant ainsi l’avantage du faible coût aux utilisateurs finaux. Les données on-chain montrent que le taux d’utilisation actuel du Blob est encore bien en dessous de la nouvelle limite, ce qui indique que cette mise à niveau est un investissement infrastructurel prospectif, laissant suffisamment d’espace pour la croissance future.
La « pierre angulaire » Layer 2 : coûts plus faibles et environnement de développement plus stable
Le bénéficiaire direct de cette extension Blob est sans aucun doute l’ensemble de l’écosystème Layer 2 construit sur Ethereum. Pour les utilisateurs finaux, la conséquence la plus immédiate sera la stabilité et la faiblesse des frais de transaction. Par exemple, sur le réseau Base utilisant Optimistic Rollup, le coût moyen d’une transaction peut rester longtemps proche de zéro (comme indiqué dans les rapports, 0,000116 USD). Cet avantage de coût extrême est une condition clé pour attirer le prochain milliard d’utilisateurs dans le monde blockchain. Que ce soit pour des échanges DeFi de petite taille, la création de NFT ou la participation à des jeux blockchain, les utilisateurs n’auront plus à s’inquiéter des frais de Gas imprévisibles.
Pour les développeurs et projets Layer 2, l’augmentation de la capacité Blob signifie des coûts d’exploitation plus prévisibles et une performance réseau plus stable. Christine Erispe, défenseure des développeurs Ethereum aux Philippines, souligne que l’augmentation de la valeur cible Blob réduit la probabilité que le réseau soit « en limite » (proche de la capacité maximale), ce qui est précisément la phase où les frais Blob atteignent leur pic et où la soumission de lots devient chaotique. Un environnement de frais plus stable et une soumission de données plus fiable permettent aux projets Layer 2 de se concentrer davantage sur l’innovation produit et l’expérience utilisateur, plutôt que de s’inquiéter constamment des coûts de publication de données sous-jacentes.
Cette optimisation continue de l’infrastructure sous-jacente redéfinit la compétition entre blockchains. Comme le dit Andrew Gross, responsable de la diffusion technique de Blockscout, l’architecture modulaire d’Ethereum a transformé « la disponibilité des données en une ressource contrôlable ». Cela signifie qu’à mesure que la demande applicative croît, Ethereum peut s’adapter en ajustant ses paramètres (comme le nombre de Blob) pour une extension élastique, sans sacrifier ses propriétés fondamentales de décentralisation et de sécurité. Cela répond à la récente déclaration de Vitalik Buterin selon laquelle Ethereum est devenue un « réseau décentralisé entièrement nouveau et plus puissant », cherchant à démontrer que le compromis entre sécurité, décentralisation et scalabilité — le fameux « triangle impossible » — est en train d’être habilement concilié par la conception modulaire.
La voie à suivre : gouvernance paramétrique et vision du « vérification en tant que service »
À l’avenir, la réussite de cette mise à niveau BPO sert de modèle clair pour le développement ultérieur d’Ethereum. La gouvernance paramétrique deviendra la nouvelle norme pour l’extension des capacités du réseau. Que ce soit pour augmenter encore la capacité Blob, ajuster la durée de stockage ou la tarification Gas, ces modifications pourront être effectuées via un consensus communautaire et une mise à jour du réseau relativement légers. Cela confère à Ethereum une agilité sans précédent, lui permettant de répondre rapidement aux besoins de l’écosystème.
Une vision plus lointaine mène à un Danksharding complet. La version Proto-Danksharding (via Blob) n’est qu’une étape préliminaire vers cette vision. Le Danksharding complet vise à étendre l’échantillonnage de disponibilité des données à l’ensemble du réseau, permettant aux nœuds de garantir la fiabilité d’un bloc de données en ne téléchargeant et vérifiant qu’une petite partie. Cela permettra une augmentation exponentielle de la capacité de données. La récente introduction de PeerDAS (échantillonnage de disponibilité des données peer-to-peer) lors de la mise à niveau Fusaka est une étape clé vers cet objectif. La croissance progressive de la capacité Blob peut être vue comme un test de pression et une préparation écologique pour accueillir le Danksharding final.
Par ailleurs, à mesure que Blob devient un produit standardisé de disponibilité des données, un marché secondaire autour du « vérification en tant que service » pourrait émerger. Des couches de disponibilité des données spécialisées comme EigenDA, Celestia, et Avail proposent déjà des alternatives à l’utilisation native d’Ethereum Blob. À l’avenir, les Rollups pourront choisir dynamiquement entre Blob natif d’Ethereum et des solutions tierces en fonction des coûts, hypothèses de sécurité et intégration. Cette compétition favorisera la baisse des coûts de disponibilité des données et la spécialisation des services. En optimisant en permanence le rapport qualité-prix de ses Blob natifs, Ethereum s’assure de rester compétitif dans ce marché clé.
Pour Ethereum lui-même, un écosystème Layer 2 à la fois évolutif, à faible coût et très actif générera une demande continue pour ETH en tant que moyen de paiement des frais de Gas de la couche de base. Bien que les utilisateurs Layer 2 paient directement en USDC ou autres tokens, la soumission de données et la vérification de sécurité sous-jacentes nécessitent inévitablement de consommer de l’ETH. Ainsi, l’expansion du Blob, en soutenant un écosystème florissant, est profondément liée à la capture de valeur à long terme d’ETH. Elle ne vise pas à stimuler directement le prix à court terme, mais à renforcer la base fonctionnelle du réseau, construisant un socle plus solide et plus vaste pour sa valeur intrinsèque. En ce sens, chaque ajustement technique discret est une étape dans la construction d’une « ville décentralisée » plus large et plus solide, prête à accueillir le futur flux d’utilisateurs et de transactions.