0G обучает крупнейшую распределённую LLM на сегодняшний день - более 100 миллиардов параметров!! Последний прорыв 0G доказывает, что LLM с более чем 100 миллиардами параметров можно обучать на децентрализованных кластерах даже при медленном интернете. Это разрушает миф о том, что массивные модели ИИ требуют централизованных суперкомпьютеров и открывает двери для новой эры открытого, недорогого и глобально доступного ИИ. Децентрализованная инфраструктура данных 0G является основой, обеспечивая масштабируемый, частный и устойчивый к цензуре ИИ для всех. Кратко: → DiLoCoX решает проблему координации вычислений. → 0G решает проблему доступа к данным, собственности и доступности. → Вместе мы открываем будущее поистине децентрализованного, открытого ИИ. Почему это важный прорыв? Традиционное обучение массивных моделей (таких как GPT-3) зависит от централизованных, высокоскоростных кластеров GPU с ультрабыстрыми соединениями (например, NVIDIA NVLink, Infiniband). Это дорого, централизовано и ограничено несколькими игроками (OpenAI, Google, Meta и др.). DiLoCoX доказывает, что теперь возможно обучать модели с более чем 100 миллиардами параметров на децентрализованных кластерах, используя всего 1 Гбит/с; такой тип настройки доступен большинству исследовательских лабораторий или сетей, поддерживаемых сообществом. Будущее ИИ уже здесь! 0G Labs FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15 авг., 08:53
Ведется значительный сдвиг в основах ИИ, и 0G Labs возглавляет его. Последняя статья @sandy_carter на @Forbes охватывает последнее достижение @0G_Research: 0G обучает крупнейшую распределенную LLM на сегодняшний день - более 100 миллиардов параметров. Погружайтесь →
2,71K