Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G обучает крупнейшую распределённую LLM на сегодняшний день - более 100 миллиардов параметров!!
Последний прорыв 0G доказывает, что LLM с более чем 100 миллиардами параметров можно обучать на децентрализованных кластерах даже при медленном интернете.
Это разрушает миф о том, что массивные модели ИИ требуют централизованных суперкомпьютеров и открывает двери для новой эры открытого, недорогого и глобально доступного ИИ.
Децентрализованная инфраструктура данных 0G является основой, обеспечивая масштабируемый, частный и устойчивый к цензуре ИИ для всех.
Кратко:
→ DiLoCoX решает проблему координации вычислений.
→ 0G решает проблему доступа к данным, собственности и доступности.
→ Вместе мы открываем будущее поистине децентрализованного, открытого ИИ.
Почему это важный прорыв?
Традиционное обучение массивных моделей (таких как GPT-3) зависит от централизованных, высокоскоростных кластеров GPU с ультрабыстрыми соединениями (например, NVIDIA NVLink, Infiniband). Это дорого, централизовано и ограничено несколькими игроками (OpenAI, Google, Meta и др.).
DiLoCoX доказывает, что теперь возможно обучать модели с более чем 100 миллиардами параметров на децентрализованных кластерах, используя всего 1 Гбит/с; такой тип настройки доступен большинству исследовательских лабораторий или сетей, поддерживаемых сообществом.
Будущее ИИ уже здесь! 0G Labs FTW


5 авг., 08:53
Ведется значительный сдвиг в основах ИИ, и 0G Labs возглавляет его.
Последняя статья @sandy_carter на @Forbes охватывает последнее достижение @0G_Research: 0G обучает крупнейшую распределенную LLM на сегодняшний день - более 100 миллиардов параметров.
Погружайтесь →

2,71K
Топ
Рейтинг
Избранное