Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Web3Caff Research (Web3 精英的一线军火库)
W miarę postępu technologii AI, coraz więcej danych jest przekazywanych do scentralizowanych podmiotów, co budzi obawy użytkowników i innych podmiotów dotyczące suwerenności danych i bezpieczeństwa. Jednocześnie rośnie liczba zastosowań agentów AI w różnych scenariuszach, z których niektóre mogą dotyczyć prywatności użytkowników. Dlatego zdecentralizowane dane prywatne staną się filarem największego przemysłu przyszłości. W związku z tym Nillion wprowadził swoją pierwszą zdecentralizowaną sieć obliczeń w ukryciu, która posiada własny zestaw podstawowych ustawień, a za pomocą tych narzędzi wspólnie pomagają budowniczym tworzyć potężne aplikacje, które mogą bezpiecznie wykorzystywać dane o wysokiej wartości. Wczesni budowniczowie społeczności Nillion tworzą narzędzia do prywatnej prognozy AI, bezpiecznego przechowywania i obliczeń w opiece zdrowotnej, rozwiązań do przechowywania danych zabezpieczonych, takich jak certyfikaty, oraz bezpiecznych przepływów pracy dla danych transakcyjnych.
Jeśli chodzi o finansowanie, Nillion zakończył w październiku 2024 roku rundę finansowania na kwotę 25 milionów dolarów, prowadzone przez Hack VC, a inwestorami byli HashKey Capital, Animoca Brands i inni, a także aniołowie inwestycyjni z projektów takich jak Arbitrum, Worldcoin i Sei. W rzeczywistości, już w 2022 roku Nillion zakończył rundę finansowania na kwotę 20 milionów dolarów, której liderem był Distributed Global. Te dwie rundy finansowania pozwoliły Nillion na zgromadzenie łącznej kwoty 45 milionów dolarów, co zapewniło projektowi wystarczające wsparcie do rozwoju.
Sieć Nillion dzieli się na dwie części: warstwę koordynacyjną (Coordination Layer) nilChain oraz Petnet (sieć technologii zwiększającej prywatność, Privacy Enhancing Technology Network). Petnet umożliwia budowniczym korzystanie z technologii zwiększającej prywatność (PET) do przechowywania i obliczania danych przy zachowaniu ich szyfrowania.

2,56K
Niezależnie od tego, czy chodzi o AI Agent w Web2, czy Web3, wszystkie opierają się na dużych modelach językowych (LLM) jako podstawowej technologii. Można powiedzieć, że wzrost LLM sprawił, że AI Agent stał się rzeczywistością i utorował drogę do jego komercjalizacji.
Po wczesnym gromadzeniu technologii, LLM w 2022 roku przeżył eksplozję zastosowań. OpenAI wydało GPT-3.5, które ponownie osiągnęło znaczące postępy w dziedzinie przetwarzania języka naturalnego, ale w tym czasie AGI nie osiągnęło jeszcze poziomu „Agenta”. Od 2023 roku wiele firm na całym świecie zaczęło wydawać różne otwarte duże modele językowe (LLM), w tym LLaMA, BLOOM, StableLM, ChatGLM. Pojawiły się również platformy do tworzenia AI Agent, takie jak Voiceflow, a w sierpniu 2023 roku ponad 130 000 zespołów budowało AI Agent w Voiceflow. Po 2024 roku konkurencja w zakresie LLM zaczęła się zaostrzać, a nowe wersje LLM, w tym Gemini 2.0 i DeepSeek R1, były nieustannie wprowadzane, co prowadziło do stopniowego obniżania kosztów użytkowania, coraz silniejszych możliwości analitycznych oraz większej liczby narzędzi AI Agent, co zachęcało coraz więcej osób do działania.
W miarę jak wydajność LLM stale rośnie, AI Agent przestał być jedynie koncepcją w dziedzinie badań, a stał się narzędziem w rzeczywistości. W 2024 roku Microsoft zintegrował 10 autonomicznych inteligentnych agentów w Dynamics 365, które mogą automatycznie realizować procesy związane z obsługą klienta, sprzedażą, finansami, magazynowaniem i innymi. Google na koniec tego samego roku wydało multimodalny model Gemini 2.0 i na jego podstawie wprowadziło trzy nowe prototypy inteligentnych agentów, w tym uniwersalnego asystenta dużego modelu Project Astra oraz asystenta programowania Jules. W 2025 roku OpenAI wprowadziło pierwszego AI agenta Operatora, który potrafi automatycznie realizować złożone operacje, takie jak pisanie kodu, rezerwacja podróży i zakupy w e-commerce. W miarę jak firmy LLM bezpośrednio wprowadzają AI Agent, ich głównym celem jest przyciągnięcie deweloperów i twórców do korzystania z ich technologii LLM, rozszerzenie scenariuszy zastosowania i zwiększenie przychodów. Ta przejrzystość od badań do zastosowań oznacza również, że technologia AI Agent wkracza w nowy etap rozwoju.
433
Od dłuższego czasu technologia dowodów zerowej wiedzy była uważana za "teoretycznie doskonałą, praktycznie powolną" z powodu wysokiego kosztu obliczeniowego i wolnej prędkości procesu generowania, co utrudniało spełnienie surowych wymagań czasowych bloków w blockchainie, hamując jej zastosowanie w rzeczywistych scenariuszach. Jednak w 2025 roku sytuacja ta uległa całkowitej zmianie, a wydajność ZK przestała być główną przeszkodą w jej zastosowaniu.
Jednym z przełomowych osiągnięć jest system dowodów SP1 Hypercube opracowany przez zespół Succinct. Udało mu się wykazać zdolność generowania dowodów ZK dla ponad 93% bloków głównej sieci Ethereum w czasie 12 sekund w oknie czasowym (Slot), z średnim czasem dowodu wynoszącym zaledwie 10,3 sekundy. Jeśli chodzi o to, dlaczego Succinct SP1 Hypercube osiągnął tak duży postęp technologiczny, można to w prosty sposób zrozumieć jako wynik dwóch głównych ulepszeń:
🔹 Proces generowania dowodu ZK wymaga zakodowania danych transakcji blockchaina w matematyczny wielomian, a ten wynik kodowania pomaga w tworzeniu ostatecznego dowodu. Można to sobie wyobrazić jako pakowanie dużej ilości chaotycznego bagażu do walizki. Wcześniej używany wielomian nazywał się wielomianami jednowymiarowymi (Univariate Polynomials), które nie pasowały do struktury danych blockchaina, jakby używać okrągłej walizki do pakowania kwadratowych przedmiotów, zawsze pozostawałyby luki lub byłyby ściśnięte, co prowadziło do czasochłonnych i nieefektywnych przygotowań kodowania. SP1 Hypercube wynalazł nowy wielomian (wielomiany wielowymiarowe - Multilinear Polynomials), który lepiej odpowiada wielowymiarowym cechom danych transakcji, co odpowiada zaprojektowaniu prostokątnej walizki, która idealnie wypełnia bagaż. W ten sposób znacznie skrócono czas przygotowania kodowania danych, przyspieszając generowanie dowodów z poziomu minut do sekund, co umożliwia działanie w czasie rzeczywistym;
🔹 Wcześniej generowanie dowodu przypominało ręczne pakowanie przez jedną osobę, cały proces odbywał się krok po kroku, nie można go było podzielić. Teraz SP1 Hypercube wykorzystuje nowy algorytm (w tym rekurencyjną agregację i zoptymalizowane protokoły), który pozwala na podział dużego dowodu na wiele małych zadań dowodowych, z których każde jest przetwarzane niezależnie, a następnie łatwo łączone w kompletny dowód. Korzyścią z podziału jest możliwość pełnego wykorzystania równoległego przetwarzania na wielordzeniowych CPU lub GPU, jakby wiele osób jednocześnie pakowało bagaż, co znacznie zwiększa ogólną prędkość, umożliwiając nadążanie za tempem Ethereum, które generuje blok co 12 sekund, co pozwala na generowanie dowodów w czasie rzeczywistym.

14,63K
Najlepsze
Ranking
Ulubione