ICYMI: Over ongeveer 3 weken zal Ethereum PeerDAS inschakelen - een nieuwe methode voor gegevensopslag die de maximale netwerkkapaciteit met maar liefst 8x verhoogt! Het is de grootste schaalvergroting sinds de introductie van Layer-2 rollups - en een belangrijke versnelling richting de singulariteit van Ethereum. Laten we de technologie achter PeerDAS op de eenvoudigste manier mogelijk uitleggen. 1. Naarmate meer consumenten-apps en instellingen voor Ethereum kiezen vanwege geloofwaardige neutraliteit en 100% uptime, groeit het volume van transacties dramatisch. 2. Om aan deze vraag te voldoen, moeten validators steeds grotere (en snellere) opslagcapaciteit en bandbreedte installeren - nog steeds beheersbaar vandaag de dag, maar geleidelijk buiten bereik voor onafhankelijke validators zoals thuis-stakers. 3. Twee oplossingen: thuis-stakers, die de bron zijn van de decentralisatie van Ethereum, in de steek laten (slecht), of manieren vinden om de opslag en validatie van transactiegegevens veel efficiënter te maken, zodat thuis-stakers kunnen bijbenen (goed). 4. Maak kennis met PeerDAS - een methode om transactiegegevens in stukken te splitsen en te distribueren, waarbij individuele validators slechts 1/16e van de oorspronkelijke gegevens hoeven te verifiëren en op te slaan om deze volledig te behouden - een enorme efficiëntiewinst. 5. Hoe het werkt: in plaats van de hele transactiegegevens naar elke enkele node in het netwerk te sturen, partitioneert PeerDAS het in 128 stukken en distribueert een willekeurige volgorde van ten minste 8 stukken naar elke node voor verificatie en opslag. 6. Het netwerk wordt vervolgens opgesplitst in 128 groepen nodes - "gossip-netwerken" - die elk verantwoordelijk zijn voor het opslaan en verifiëren van hun eigen gegevensstuk. Elke node behoort tot ten minste 8 van deze groepen. Gezamenlijk slaan ze alle gegevens op, maar individueel slaan ze aanzienlijk minder op en verwerken ze, waardoor hulpbronnenbeperkingen als een bottleneck voor schaalvergroting worden geëlimineerd. 7. Het is alsof je de verificatie en opslag van de hele data opsplitst in kleinere stukken die onafhankelijk en parallel kunnen worden uitgevoerd, met resultaten die vervolgens worden samengevoegd, waardoor de inspanning die van elke deelnemer vereist is, wordt verminderd. 8. De truc is dat zolang >=50% van de stukken zijn geverifieerd en opgeslagen door verschillende nodes, de oorspronkelijke gegevens volledig kunnen worden hersteld uit deze fragmenten, zoals een bekrast DVD die de film nog steeds afspeelt als deze niet te erg beschadigd is. 9. De naam van deze truc is "erasure coding". Een beetje zoals een multisig goedkeuring die een k/N-drempel vereist om een transactie door te voeren, stelt erasure coding in staat om gegevens in N stukken te splitsen en de drempel k te kiezen die nodig is om de oorspronkelijke gegevens te herstellen. In PeerDAS is N stukken 128 en k is 64 - een drempel van 50%. 10. Dus terwijl elke node deelneemt aan verificatie en opslag, heeft het netwerk eigenlijk slechts 50% van de gegevens nodig om de oorspronkelijke te herstellen, met enkele kanttekeningen. Dit is een hoge drempel om gecoördineerde aanvallen op de keten te weerstaan, en laag genoeg om efficiëntieverbeteringen mogelijk te maken. 11. Mechanisch gezien is het minimum aantal gegevensstukken dat een enkele validator-node moet downloaden, opslaan en aan peers moet aanbieden, 8 van de 128. ...