¡0G entrena el LLM distribuido más grande hasta ahora - ¡más de 100B de parámetros!! El último avance de 0G demuestra que se pueden entrenar LLMs de más de 100B de parámetros en clústeres descentralizados incluso con internet lento. Esto destruye el mito de que los modelos de IA masivos requieren supercomputadoras centralizadas y abre la puerta a una nueva era de IA abierta, de bajo costo y accesible globalmente. La infraestructura de datos descentralizada de 0G es la columna vertebral, permitiendo una IA escalable, privada y resistente a la censura para todos. Resumen: → DiLoCoX resuelve el problema de coordinación de cómputo. → 0G resuelve el problema de acceso, propiedad y disponibilidad de datos. → Juntos, desbloqueamos el futuro de una IA verdaderamente descentralizada y abierta. ¿Por qué es este un avance importante? El entrenamiento tradicional de modelos masivos (como GPT-3) depende de clústeres de GPU centralizados y de alta velocidad con interconexiones ultrarrápidas (por ejemplo, NVIDIA NVLink, Infiniband). Eso es caro, centralizado y limitado a unos pocos jugadores (OpenAI, Google, Meta, etc.). DiLoCoX demuestra que ahora es posible entrenar modelos de más de 100B de parámetros en clústeres descentralizados utilizando solo 1Gbps de ancho de banda; el tipo de configuración disponible para la mayoría de los laboratorios de investigación o redes impulsadas por la comunidad. ¡El futuro de la IA está aquí! 0G Labs FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15 ago, 08:53
Se está produciendo un cambio importante en los fundamentos de la IA, y 0G Labs lo está liderando. El último artículo de @sandy_carter en @Forbes captura el último avance de @0G_Research: 0G entrena el LLM distribuido más grande hasta ahora - más de 100B de parámetros. Sumérgete →
2.66K