Literalmente tenemos ese nivel de rendimiento en TOOL. Utiliza un consenso no BFT de bajo overhead para lograr la transición de estado común para todos los usuarios que intentan entrar en el siguiente bloque. Así que solo está limitado por el ancho de banda de la cadena subyacente. Pero si lo implementamos en una cadena con espacio de bloque abundante (estamos abiertos a solicitudes 😁), sin duda igualaría el rendimiento de Mega, mientras que sería más flexible que su modelo de secuenciador de rotación tz.
BREAD | ∑:
BREAD | ∑:1 nov, 23:37
El gran argumento que cada alt-L1 va a presentar contra Mega es "también podemos hacer pre-confs, hermano"—pero ese no es el verdadero avance. El verdadero avance es que podemos ejecutar tx en el mismo tiempo que sus pre-confs PERO TAMBIÉN PODEMOS REFLEJAR ESO INMEDIATAMENTE A OTROS USUARIOS. Podemos hacer eso porque ofrecemos un 99.999% de garantías de que una vez que se les entrega el recibo de tx (<10ms de tiempo de ejecución + distancia al secuenciador), es final. Hay un riesgo de ~0 de que esa transacción sea excluida. Esa confianza significa que otros usuarios pueden actuar INMEDIATAMENTE sobre esa información sin preocuparse de que no sea cierta debido a algo fuera de su control. Composabilidad instantánea del ecosistema. Esto sucederá en un umbral por debajo de lo que es literalmente posible para cadenas con consenso. Como, tendrían que redefinir la física. Así que, a menos que estas alt-cadenas planeen revivir a Sir Isaac Newton para llevarlo a la fundación, estarán para siempre en desventaja frente a Mega. Aquí hay un ejemplo del mismo equipo que demuestra cómo interactúan 2 perspectivas de usuarios. Uno comprando y el otro recibiendo su precio en la curva actualizado de inmediato, porque ese nuevo precio es el precio permanentemente nuevo y no "probablemente el nuevo precio durante los próximos 3s." Lo sorprendente es que @problemchild no piensa que este sea el estado final y que hay más jugo que exprimir para su aplicación de consumidor. Estoy listo para sacar estas cosas a la luz para que los optimizadores vean hasta dónde se puede llevar.
Lo interesante es que para ser el más eficiente, TOOL no requiere colocalización con los validadores de L1, sino más bien una colocalización de los participantes de TOOL, para que puedan reasignar dinámicamente su infraestructura entre regiones y ubicarse donde ocurre la mayor actividad, aunque tampoco es un requisito estricto, por lo que el sistema será más redundante y abierto a diferentes patrones de uso que evolucionarían de forma natural.
la verdad, creo que el mejor de los escenarios es mucho más fácil de lograr con tu modelo, pero también es un compromiso ya que obliga a patrones de uso específicos. Así que no diré que TOOL es más eficiente o "mucho mejor" que Mega, ya que operamos en diferentes planos del espacio de compromisos. Pero ciertamente no es "peor" en general jaja.
En general, me siento apoyador y curioso por ver cómo se desarrollará el ciclo de adopción de Mega, y no creo que sea un competidor muy directo de TOOL en este momento, ya que Mega es un L2 maximalista y TOOL es un marco neutral para L1, cuyo objetivo es ser lo suficientemente flexible como para representar las necesidades de la base de usuarios subyacente, en su mayoría sin forzarlos a actuar de una manera particular o rediseñar aplicaciones desde cero.
16,22K