AU CAS OÙ VOUS L'AVEZ MANQUÉ : dans environ 3 semaines, Ethereum va activer PeerDAS - une méthode de stockage de données novatrice augmentant le débit maximal du réseau de 8 fois ! c'est la plus grande amélioration de scalabilité depuis l'introduction des rollups de couche 2 - et une accélération majeure vers la singularité d'Ethereum. décomposons la technologie derrière PeerDAS de la manière la plus simple possible. 1. à mesure que de plus en plus d'applications grand public et d'institutions choisissent Ethereum en raison de sa neutralité crédible et de son temps de fonctionnement de 100 %, le volume des transactions augmente de manière spectaculaire. 2. pour répondre à cette demande, les validateurs doivent installer des capacités de stockage et de bande passante de plus en plus grandes (et rapides) - encore gérables aujourd'hui mais progressivement hors de portée pour les validateurs indépendants comme les stakers à domicile. 3. deux solutions : abandonner les stakers à domicile qui sont la source de la décentralisation d'Ethereum (mauvais), ou trouver des moyens de rendre le stockage et la validation des données de transaction beaucoup plus efficaces afin que les stakers à domicile puissent suivre (bon). 4. entrez PeerDAS - une méthode de division et de distribution des données de transaction en morceaux, où chaque validateur n'a besoin de vérifier et de stocker qu'1/16 des données originales pour qu'elles soient préservées dans leur intégralité - une amélioration d'efficacité massive. 5. comment cela fonctionne : au lieu d'envoyer toutes les données de transaction à chaque nœud du réseau, PeerDAS les partitionne en 128 morceaux et distribue une séquence aléatoire d'au moins 8 morceaux à chaque nœud pour vérification et stockage. 6. le réseau est ensuite divisé en 128 groupes de nœuds - "réseaux de commérages" - chacun responsable du stockage et de la vérification de son propre morceau de données. chaque nœud appartient à au moins 8 de ces groupes. collectivement, ils stockent toutes les données, mais individuellement, ils stockent et traitent beaucoup moins, éliminant les contraintes de ressources comme un goulot d'étranglement pour les améliorations de scalabilité. 7. c'est comme décomposer la vérification et le stockage de l'ensemble des données en morceaux plus petits qui peuvent être effectués indépendamment et en parallèle, avec des résultats ensuite regroupés, réduisant l'effort requis de chaque participant. 8. le truc, c'est que tant que >=50 % des morceaux ont été vérifiés et stockés par différents nœuds, les données originales peuvent être restaurées dans leur intégralité à partir de ces fragments, comme un DVD rayé qui jouerait toujours le film s'il n'est pas trop endommagé. 9. le nom de ce truc est "codage d'effacement". un peu comme une approbation multisig nécessite un seuil k/N pour pousser une transaction, le codage d'effacement permet de diviser les données en N morceaux et de choisir le seuil k nécessaire pour restaurer les données originales. dans PeerDAS, N morceaux est 128 et k est 64 - un seuil de 50 %. 10. donc, bien que chaque nœud puisse participer à la vérification et au stockage, le réseau n'a en réalité besoin que de 50 % des données pour récupérer l'original, avec quelques réserves. c'est un obstacle suffisamment élevé pour résister aux attaques coordonnées sur la chaîne, et suffisamment bas pour permettre des améliorations d'efficacité. 11. mécaniquement, chaque bloc, le nombre minimum de morceaux de données qu'un seul nœud validateur doit télécharger, stocker et servir aux pairs est de 8 sur 128. ...