Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Web3Caff Research (Web3 精英的一线军火库)
Với sự tiến bộ của công nghệ AI, ngày càng nhiều dữ liệu được cung cấp cho các thực thể tập trung, dẫn đến mối lo ngại của người dùng và các thực thể khác về quyền sở hữu và an ninh dữ liệu. Đồng thời, việc ứng dụng AI Agent trong các tình huống cụ thể ngày càng gia tăng, một số tình huống có thể liên quan đến quyền riêng tư cá nhân của người dùng. Do đó, dữ liệu cá nhân phi tập trung sẽ trở thành trụ cột lớn nhất của ngành công nghiệp trong tương lai. Vì vậy, Nillion đã ra mắt mạng tính toán mù phi tập trung đầu tiên của mình, với một bộ thiết lập cơ sở hạ tầng riêng, thông qua những công cụ này, nó hỗ trợ các nhà phát triển xây dựng các ứng dụng mạnh mẽ có thể sử dụng dữ liệu có giá trị cao một cách an toàn. Các nhà phát triển đầu tiên trong cộng đồng Nillion đang tạo ra các công cụ cho AI dự đoán cá nhân, giải pháp lưu trữ và tính toán an toàn trong chăm sóc sức khỏe, giải pháp lưu trữ dữ liệu an toàn cho chứng nhận, cũng như quy trình làm việc an toàn cho dữ liệu giao dịch.
Về tài chính, Nillion đã hoàn thành vòng gọi vốn 25 triệu USD do Hack VC dẫn dắt vào tháng 10 năm 2024, với các nhà đầu tư như HashKey Capital, Animoca Brands, cùng với các nhà đầu tư thiên thần từ các dự án như Arbitrum, Worldcoin và Sei. Thực tế, từ năm 2022, Nillion đã hoàn thành vòng gọi vốn 20 triệu USD, với nhà đầu tư dẫn dắt là Distributed Global. Hai vòng gọi vốn này đã giúp Nillion tích lũy tổng số tiền gọi vốn lên đến 45 triệu USD, cung cấp đủ nguồn lực cho sự phát triển của dự án.
Mạng lưới Nillion được chia thành hai phần: lớp điều phối (Coordination Layer) nilChain và Petnet (Mạng công nghệ tăng cường quyền riêng tư, Privacy Enhancing Technology Network). Trong đó, Petnet cho phép các nhà phát triển sử dụng công nghệ tăng cường quyền riêng tư (PET) để lưu trữ và tính toán dữ liệu trong khi vẫn giữ cho dữ liệu được mã hóa.

3,27K
Dù là AI Agent của Web2 hay Web3, đều lấy mô hình ngôn ngữ lớn (LLM) làm nền tảng công nghệ cốt lõi. Có thể nói, sự trỗi dậy của LLM đã biến AI Agent thành hiện thực và mở đường cho việc thương mại hóa nó.
Sau khi tích lũy công nghệ ban đầu, LLM đã bùng nổ ứng dụng vào năm 2022. OpenAI phát hành GPT-3.5, đạt được những bước tiến lớn trong công nghệ xử lý ngôn ngữ tự nhiên, nhưng vào thời điểm đó, AGI vẫn chưa đạt đến cấp độ “Agent”. Bắt đầu từ năm 2023, nhiều nhà sản xuất trên toàn cầu đã lần lượt phát hành nhiều mô hình ngôn ngữ lớn mã nguồn mở (LLM) bao gồm LLaMA, BLOOM, StableLM, ChatGLM, v.v. Các nền tảng tạo AI Agent như Voiceflow cũng xuất hiện, và vào tháng 8 năm 2023, đã có hơn 130.000 đội ngũ xây dựng AI Agent trên Voiceflow. Sau năm 2024, sự cạnh tranh giữa các LLM ngày càng trở nên gay gắt, với các phiên bản nâng cấp và LLM mới liên tục được ra mắt, bao gồm Gemini 2.0, DeepSeek R1, nhờ vào sự cạnh tranh này, chi phí sử dụng dần giảm, khả năng phân tích ngày càng mạnh mẽ và nhiều công cụ AI Agent hơn khiến nhiều người háo hức tham gia.
Khi hiệu suất của LLM không ngừng cải thiện, AI Agent không còn chỉ là khái niệm trong lĩnh vực nghiên cứu, mà đã trở thành công cụ trong thực tế. Năm 2024, Microsoft đã tích hợp 10 AI Agent tự chủ vào Dynamics 365, những agent này có thể tự động hoàn thành các quy trình công việc như dịch vụ khách hàng, bán hàng, tài chính, kho bãi, v.v. Google vào cuối năm đó đã phát hành mô hình lớn đa phương thức Gemini 2.0, và dựa trên đó đã cho ra mắt ba nguyên mẫu agent mới, bao gồm trợ lý mô hình lớn tổng quát Project Astra và trợ lý lập trình Jules. Năm 2025, OpenAI đã ra mắt AI Agent đầu tiên có tên Operator, có khả năng tự động thực hiện các thao tác phức tạp như viết mã, đặt vé du lịch và mua sắm thương mại điện tử. Khi các công ty LLM trực tiếp ra mắt AI Agent, mục tiêu cốt lõi của họ là thu hút các nhà phát triển và người xây dựng sử dụng công nghệ LLM của mình, mở rộng các trường hợp ứng dụng và tăng doanh thu. Sự chuyển giao này từ nghiên cứu sang ứng dụng cũng đánh dấu giai đoạn phát triển mới của công nghệ AI Agent.
443
Trong một thời gian dài, công nghệ chứng minh không biết (ZK) đã được coi là "hoàn hảo về lý thuyết, chậm chạp trong thực tế" do chi phí tính toán cao trong quá trình tạo ra và tốc độ chậm, khó đáp ứng yêu cầu khắt khe về thời gian tạo khối của blockchain, cản trở việc ứng dụng của nó trong các tình huống thực tế. Tuy nhiên, vào năm 2025, tình hình này đã hoàn toàn thay đổi, hiệu suất ZK không còn là rào cản chính đối với việc ứng dụng của nó.
Một bước đột phá mang tính biểu tượng là hệ thống chứng minh SP1 Hypercube do đội ngũ Succinct phát triển. Nó đã thành công trong việc chứng minh khả năng tạo ra chứng minh ZK cho hơn 93% khối trên mạng chính Ethereum trong khoảng thời gian 12 giây (Slot), với thời gian chứng minh trung bình chỉ là 10,3 giây. Về lý do tại sao Succinct SP1 Hypercube có thể đạt được bước tiến công nghệ lớn như vậy, có thể hiểu đơn giản là nhờ vào hai cải tiến chính sau đây:
🔹 Quá trình tạo ra chứng minh ZK cần mã hóa dữ liệu giao dịch blockchain vào một đa thức toán học, kết quả mã hóa này giúp hình thành chứng minh cuối cùng. Có thể tưởng tượng như việc nhét một đống hành lý lộn xộn vào một chiếc hộp. Đa thức trước đây được gọi là Đa thức đơn biến (Univariate Polynomials), không phù hợp với cấu trúc dữ liệu blockchain, giống như việc dùng hộp tròn để nhét đồ vật hình vuông, luôn có khoảng trống hoặc bị nén, dẫn đến việc chuẩn bị mã hóa tốn thời gian và công sức, hiệu quả thấp. SP1 Hypercube đã phát minh ra đa thức mới (Đa thức đa biến - Multilinear Polynomials), phù hợp hơn với đặc tính đa chiều của dữ liệu giao dịch, tương đương với việc thiết kế ra một chiếc hộp hình chữ nhật, có thể lấp đầy hoàn hảo hành lý. Nhờ đó, thời gian chuẩn bị mã hóa dữ liệu đã được rút ngắn đáng kể, giúp việc tạo chứng minh từ cấp phút được tăng tốc xuống cấp giây, đạt được thời gian thực;
🔹 Trước đây, việc tạo chứng minh giống như một người tự tay đóng gói, toàn bộ quá trình diễn ra từng bước một, không thể tách rời. Bây giờ, SP1 Hypercube sử dụng thuật toán mới (bao gồm tổng hợp đệ quy và tối ưu hóa giao thức), cho phép tách chứng minh lớn thành nhiều nhiệm vụ chứng minh nhỏ, mỗi nhiệm vụ nhỏ được xử lý độc lập, sau đó dễ dàng kết hợp thành chứng minh hoàn chỉnh. Lợi ích của việc tách rời là có thể tận dụng tối đa CPU hoặc GPU đa nhân để tính toán song song, giống như nhiều người cùng lúc đóng gói hành lý, từ đó tốc độ tổng thể tăng vọt, có thể theo kịp nhịp độ tạo khối của Ethereum mỗi 12 giây.

14,64K
Hàng đầu
Thứ hạng
Yêu thích