Avem literalmente acel nivel de performanță în TOOL. Folosește consensul non-BFT pentru a realiza tranziția stării comune pentru toți utilizatorii care încearcă să intre în următorul bloc. Deci este limitat doar de lățimea de bandă a lanțului subiacent. Dar dacă îl lansăm pe un lanț cu spațiu de bloc abundent (suntem deschiși la cereri), 😁 s-ar potrivi cu performanța lui Mega cu siguranță, fiind în același timp mai flexibil decât modelul său de secvențiere cu rotație tz.
BREAD | ∑:
BREAD | ∑:1 nov., 23:37
Marele contor pe care fiecare alt-L1 îl va aduce la Mega este "putem face pre-conf-uri pre-pre-conf, bro" - dar acesta nu este nivelul. Creșterea nivelului este că putem executa tx în același timp cu pre-conf-urile lor, DAR PUTEM REFLECTA IMEDIAT ACEST LUCRU ȘI ALTOR UTILIZATORI. Putem face asta pentru că oferim garanții de 99,999% că odată ce le este dată acea chitanță tx (< 10ms timp de execuție + distanța până la secvențiator) este finală. Există ~0 risc ca acea tranzacție să fie bifurcată. Această încredere înseamnă că alți utilizatori pot acționa IMEDIAT asupra acestor informații fără să-și facă griji că nu vor fi adevărate din cauza a ceva în afara controlului lor. Componabilitate instantanee a ecosistemului. Acest lucru se va întâmpla la un prag sub ceea ce este literalmente posibil pentru lanțurile cu consens. Ar trebui să redefinească fizica. Deci, dacă aceste lanțuri alternative nu plănuiesc să-l reînvie pe Sir Isaac Newton pentru a-l aduce pe fundație, vor fi pentru totdeauna dezavantajate împotriva lui Mega. Iată un exemplu de la aceeași echipă care demonstrează modul în care interacționează 2 perspective ale utilizatorilor. Unul cumpără și celălalt își actualizează imediat prețul pe curbă, deoarece acel nou preț este prețul permanent nou și nu "probabil noul preț pentru următoarele 3". Lucrul sălbatic este că @problemchild nu crede că aceasta este starea finală și că există mai mult suc de stors pentru aplicația sa pentru consumatori. Sunt gata să scot aceste lucruri la dispoziție pentru optimizooors pentru a vedea cât de departe poate fi dusă
Lucrul interesant este că, pentru a fi cel mai performant, TOOL nu necesită colocare cu validatori L1, ci mai degrabă o colocare a participanților la TOOL, astfel încât aceștia să-și poată realoca dinamic infrastructura între regiunile pentru a fi localizate acolo unde are loc cea mai mare activitate, în timp ce nu este o cerință strictă, astfel încât sistemul va fi mai redundant și deschis la diferite modele de utilizare care ar evolua în mod natural.
tbf, cred că cel mai bun scenariu este mult mai ușor de realizat cu modelul tău, dar este și un compromis, deoarece forțează modele de utilizare specifice. Așa că nu voi susține că TOOL este mai performant sau "mult mai bun" decât Mega, deoarece operăm pe un plan diferit al spațiului de compromis. Dar cu siguranță nu este "mai rău" în general haha.
Deci, în general, mă simt susținător și curios să văd cum se va desfășura ciclul de adoptare al lui Mega și nu cred că este un concurent foarte direct pentru ATM-ul TOOL, deoarece Mega este un L2 cu opinii maxime, iar TOOL este un cadru neutru pentru L1, al cărui scop este să fie suficient de flexibil pentru a reprezenta nevoile bazei de utilizatori subiacente. de cele mai multe ori să nu le forțeze să acționeze într-un anumit mod sau să reproiecteze aplicațiile de la zero.
16,22K