Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Web3Caff Research (Web3 精英的一线军火库)
С развитием технологий AI все больше данных передается централизованным сущностям, что вызывает у пользователей и других субъектов опасения по поводу суверенитета данных и безопасности. В то же время, применение AI-агентов в специализированных сценариях становится все более распространенным, и некоторые из этих сценариев могут затрагивать личную конфиденциальность пользователей. Поэтому децентрализованные частные данные станут опорой крупнейшей отрасли будущего. В связи с этим Nillion запустила свою первую децентрализованную сеть слепых вычислений, которая имеет собственный набор сопутствующих базовых настроек. Эти инструменты помогают строителям создавать мощные приложения, которые могут безопасно использовать высокоценные данные. Ранние строители сообщества Nillion создают инструменты для безопасного хранения и вычисления данных для частного прогнозирования AI, медицинского обслуживания, хранения безопасных данных, таких как сертификаты, а также для безопасных рабочих процессов с торговыми данными.
Что касается финансирования, Nillion завершила раунд финансирования в 25 миллионов долларов, возглавляемый Hack VC, в октябре 2024 года, среди инвесторов были HashKey Capital, Animoca Brands и другие, а также ангельские инвесторы из проектов Arbitrum, Worldcoin и Sei. На самом деле, еще в 2022 году Nillion завершила финансирование в 20 миллионов долларов, когда его возглавила Distributed Global. Эти два раунда финансирования позволили Nillion накопить 45 миллионов долларов, что обеспечило проекту достаточную поддержку для развития.
Сеть Nillion делится на две части: координационный уровень (Coordination Layer) nilChain и Petnet (сеть с повышенной конфиденциальностью, Privacy Enhancing Technology Network). Petnet позволяет строителям использовать технологии повышения конфиденциальности (PET) для хранения и вычисления данных при условии, что данные остаются зашифрованными.

3,09K
Как Web2, так и Web3 AI-агенты основываются на крупных языковых моделях (LLM) как на ключевой технологической основе. Можно сказать, что восход LLM сделал AI-агентов реальностью и проложил путь к их коммерциализации.
После ранних накоплений технологий LLM в 2022 году пережили взрыв применения. OpenAI выпустила GPT-3.5, которая снова достигла значительного прогресса в области технологий обработки естественного языка, но на тот момент AGI еще не достигла уровня "агента". С 2023 года множество компаний по всему миру начали выпускать несколько открытых крупных языковых моделей (LLM), включая LLaMA, BLOOM, StableLM, ChatGLM и другие. Платформы для создания AI-агентов, такие как Voiceflow, также начали появляться, и в августе 2023 года более 130 000 команд уже строили AI-агентов на Voiceflow. После 2024 года конкуренция в области LLM постепенно усиливается, новые версии LLM, такие как Gemini 2.0 и DeepSeek R1, постоянно выходят, а снижение затрат на использование, все более мощные аналитические возможности и больше инструментов AI-агентов побуждают все больше людей попробовать свои силы.
С повышением производительности LLM AI-агенты перестают быть лишь концепцией в исследовательской области и становятся реальными инструментами. В 2024 году Microsoft интегрировала 10 автономных AI-агентов в Dynamics 365, которые могут автоматически выполнять процессы обслуживания клиентов, продаж, финансов, складирования и другие. В конце того же года Google выпустила многомодальную большую модель Gemini 2.0 и на ее основе представила три новых прототипа агентов, включая универсального большого модельного помощника Project Astra и помощника по программированию Jules. В 2025 году OpenAI выпустила первого AI-агента Operator, который может автоматически выполнять такие сложные операции, как написание кода, бронирование путешествий и покупки в электронной коммерции. С выходом AI-агентов от компаний, работающих с LLM, их основной целью является привлечение разработчиков и создателей к использованию своей технологии LLM, расширение областей применения и увеличение доходов. Этот переход от исследований к применению также знаменует собой новый этап развития технологии AI-агентов.
442
Долгое время технология нулевых знаний считалась "теоретически идеальной, но медленной на практике" из-за высокой вычислительной нагрузки и медленной скорости процесса генерации, что затрудняло ее соответствие строгим требованиям времени создания блоков в блокчейне и препятствовало ее применению в реальных сценариях. Однако в 2025 году эта ситуация была полностью изменена, производительность ZK больше не является основным препятствием для ее применения.
Знаковым прорывом стала разработка системой доказательства SP1 Hypercube командой Succinct. Она успешно продемонстрировала способность генерировать ZK-доказательства для более чем 93% блоков основной сети Ethereum в 12-секундном временном интервале (Slot) на кластере потребительских GPU, среднее время доказательства составило всего 10,3 секунды. Что касается того, почему Succinct SP1 Hypercube смогла добиться такого значительного технологического прогресса, это можно просто понять как результат двух основных улучшений:
🔹 Процесс генерации ZK-доказательства требует кодирования данных транзакций блокчейна в математический многочлен, и этот кодированный результат помогает сформировать окончательное доказательство. Это можно представить как упаковку большого количества беспорядочных вещей в чемодан. Ранее использовавшийся многочлен назывался Univariate Polynomials, он не совсем соответствовал структуре данных блокчейна, как если бы вы пытались положить квадратные предметы в круглую коробку, всегда остаются пустоты или сжатия, что делает подготовку кодирования трудоемкой и неэффективной. SP1 Hypercube изобрела новый многочлен (Multilinear Polynomials), который лучше соответствует многомерным характеристикам данных транзакций, что эквивалентно проектированию прямоугольного чемодана, который идеально заполняет вещи. Это значительно сократило время подготовки кодирования данных, ускорив генерацию доказательства с минут до секунд, что позволяет осуществлять его в реальном времени;
🔹 Ранее генерация доказательства напоминала ручную упаковку одним человеком, весь процесс проходил шаг за шагом и не мог быть разделен. Теперь SP1 Hypercube использует новый алгоритм (включая рекурсивную агрегацию и оптимизированные протоколы), который позволяет разбивать большое доказательство на несколько мелких задач, каждая из которых обрабатывается независимо, а затем легко объединяется в полное доказательство. Преимущество разделения заключается в том, что оно позволяет в полной мере использовать параллельные вычисления многоядерных CPU или GPU, как если бы несколько человек одновременно упаковывали вещи, что значительно увеличивает общую скорость, позволяя соответствовать ритму Ethereum, создающему блок каждые 12 секунд, и обеспечивать доказательства в реальном времени.

14,64K
Топ
Рейтинг
Избранное