Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

汉松
Tworzenie aplikacji dla dużych fabryk i dużych modeli | Adwent AI | Uczenie się przez całe życie | Smak to wszystko, czego potrzebujesz
W czwartej części artykułu o vLLM od zera, zwracamy uwagę na inny, wydawałoby się prosty, ale kluczowy komponent architektury Transformer: RMSNorm (normalizacja średniej kwadratowej).
Najpierw przyjrzyjmy się, czym jest normalizacja. Załóżmy, że właśnie zdałeś egzamin końcowy, a wyniki z trzech przedmiotów są już dostępne:
Matematyka: 120 punktów (maksymalnie 150)
Angielski: 80 punktów (maksymalnie 100)
Fizyka: 160 punktów (maksymalnie 200)
Który przedmiot zdałeś najlepiej? Jeśli porównasz bezpośrednio 120, 80, 160, dojdziesz do wniosku, że fizyka jest najlepsza. Ale prawda jest taka, że wszystkie trzy przedmioty zdałeś tak samo dobrze.
Matematyka: 120/150 = 80%
Angielski: 80/100 = 80%
Fizyka: 160/200 = 80%
To jest sedno normalizacji: przekształcenie danych o różnych wymiarach i zakresach do jednolitego standardu w celu porównania.
Dlaczego sieci neuronowe potrzebują normalizacji?
Wyobraź sobie, że grasz w grę w głuchy telefon. Pierwsza osoba mówi "Lubię jabłka", a do dziesiątej osoby dociera to jako "Lubię ananasy". To jest problem, z którym borykają się głębokie sieci neuronowe.
Każda warstwa sieci wykonuje pewne obliczenia na wejściu, a następnie przekazuje wyniki do następnej warstwy. Problem polega na tym, że wraz ze wzrostem liczby warstw, te wartości stają się coraz bardziej niekontrolowane — albo rosną w sposób eksplozjny, albo znikają bez śladu. Podobnie jak w grze w głuchy telefon, informacja w trakcie przekazywania stopniowo się zniekształca.
Dodanie warstwy normalizacji do modelu może zmniejszyć prawdopodobieństwo eksplozji lub znikania gradientów, a proces treningu modelu staje się bardziej stabilny. Technika normalizacji ewoluowała od BatchNorm, przez LayerNorm, aż do RMSNorm, stając się standardem w dużych modelach.
Mój artykuł zabierze Was w podróż przez historię ewolucji technik normalizacji, a zainteresowani mogą zapoznać się z oryginałem.


63,98K
Umiejętności agenta Claude'a to w zasadzie forma "odciążania kontekstu", przenosząca obszerne informacje o umiejętnościach poza kontekst, ładując je na żądanie. Co ciekawe, niedawno Manus podzielił się również kilkoma wskazówkami na temat "odciążania kontekstu". Manus ma wiele narzędzi, ale nie informuje modelu o pełnych definicjach tych narzędzi. Jak więc wie, jakie narzędzia są dostępne i jak je wywołać? Wyobraź sobie, że dostajesz nowy komputer, jak dowiesz się, jakie narzędzia są dostępne? Zwykły użytkownik otworzy listę aplikacji, programista użyje `ls /usr/bin`, aby zobaczyć, jakie polecenia są dostępne.
Podobnie, rozwiązanie Manus polega na tym, że w systemowym podpowiedzi mówi modelowi, że w określonym folderze znajduje się wiele wstępnie zainstalowanych narzędzi wiersza poleceń. Najczęściej używane narzędzia (ls, grep, cat, less, more itp.) są domyślnie wbudowane w systemową podpowiedź. Nie trzeba mówić modelowi, jak używać tych narzędzi, wystarczy wymienić ich nazwy, a następnie powiedzieć, że może użyć parametru --help, aby dowiedzieć się, jak korzystać z narzędzi. Najlepsze jest to, że te modele operacji powłoki są już wyuczone, więc ich zdolność do generalizacji jest bardzo silna; aby dodać nowe narzędzie, wystarczy umieścić polecenie w folderze.
Zauważyłem, że Manus naprawdę wprowadza w życie filozofię Uniksa: KISS (Keep It Simple, Stupid).


宝玉17 paź 2025
Agent Skills 是很好的东西,可以引导 Agent 获取某些技能,而且制作起来很方便。
制作一个技能,就好像给新员工写一份入职手册。不需要为每一个不同任务都专门打造一个独立的智能体,而是只要共享特定领域的专业知识,任何人都可以快速将智能体变成对应领域的高手。
我之前提到过朋友做一个基于他们 Design System 的 Agent,需要通过提示词引导 Agent 去 grep 检索文档,现在就更简单了,只要在全局或者项目目录下的 .claude/skills 下面添加目录,并且放一个包含meta信息的 SKILL\.md 文件,就可以引导 Agents 去学习使用这些 Skill。
官方也给了一个例子就是 PDF Skill,就是包含了一系列 PDF 操作的说明和脚本,Agent 借助这些脚本,就可以操作 PDF,比如提取表单之类。也就是说 Skill 不仅可以包含文档,还可以包含可执行的脚本。
需要注意的是 Skill 里面的 Meta 信息是默认会加载到上下文文的,其余信息用到才会加载。



136,57K
Najlepsze
Ranking
Ulubione

