La escasez de GPU en la IA nunca se trató de los chips. Tenemos muchos. La verdadera crisis es que aún no podemos usar la mayoría de ellos. Aquí está el porqué 🧵
@cot_research 2/ Mira la brecha: La computación voluntaria como Folding@Home funciona bien en hardware de consumo. ¡Incluso @pewdiepie está haciendo un gran trabajo y contribuyendo! Sin embargo, las cargas de trabajo de IA modernas fallarán. Mismo grupo de hardware. Resultado muy diferente. ¿Por qué?
3/ Los entornos de IA modernos (inferencia o entrenamiento) asumen condiciones estériles: - GPUs idénticas - Enlaces estables y de baja latencia Sin embargo, el mundo real es un caos de máquinas heterogéneas e internet con retrasos. Aquí, la pila tecnológica estándar colapsa.
4/ Muchas de las llamadas redes de computación "descentralizadas" no han alcanzado el ajuste producto-mercado porque tratan este lío como un caso marginal. Construyen mercados para agregar GPUs inactivas, pero la agregación no es coordinación. Si el hardware no puede comportarse como una máquina coherente, es... un poco inútil
5/ La coordinación es ascendente. En redes de computación: si no resuelves primero la coordinación del hardware fragmentado, nada de lo que construyas importa. La fiabilidad y la experiencia del desarrollador son problemas descendentes.
6/ @YottaLabs es el primer equipo que he visto abordar esto desde cero y hacer un progreso sólido. Al reconstruir la pila de IA, desde el programador hasta la capa de comunicación, han llevado el rendimiento de computación descentralizada a un ~15% de los clústeres centralizados.
7/ Lo que es aún más interesante es el modelo de negocio de @YottaLabs. El mercado es secundario. Están construyendo un foso de datos en resiliencia operativa que Google no puede replicar: el optimizador inteligente. Yotta alimenta cada pico térmico y cada contratiempo de red de vuelta a su optimizador. Más sobre esto más tarde.
53