Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

汉松
Développement d’applications de grandes usines et de grands modèles | L’avènement de l’IA | Apprenant tout au long de la vie | Le goût est tout ce dont vous avez besoin
Dans le quatrième article de notre série sur la réalisation de vLLM à partir de zéro, nous tournons notre attention vers un autre composant apparemment simple mais crucial de l'architecture Transformer : RMSNorm (normalisation par racine carrée moyenne).
Commençons par examiner ce qu'est la normalisation. Supposons que vous veniez de passer vos examens finaux et que les résultats de trois matières soient sortis :
Mathématiques : 120 points (sur 150)
Anglais : 80 points (sur 100)
Physique : 160 points (sur 200)
Quelle matière avez-vous le mieux réussie ? Si vous comparez directement 120, 80 et 160, vous concluez que la physique est la meilleure. Mais en réalité, les trois matières ont été réussies de manière équivalente.
Mathématiques : 120/150 = 80%
Anglais : 80/100 = 80%
Physique : 160/200 = 80%
C'est là le cœur de la normalisation : transformer des données de dimensions et de plages différentes en une norme unifiée pour les comparer.
Pourquoi les réseaux de neurones ont-ils besoin de normalisation ?
Imaginez que vous jouez à un jeu de téléphone arabe. La première personne dit "J'aime les pommes", et à la dixième personne, cela devient "J'aime les ananas". C'est le problème auquel sont confrontés les réseaux de neurones profonds.
Chaque couche du réseau effectue des calculs sur l'entrée, puis transmet le résultat à la couche suivante. Le problème est qu'avec l'augmentation du nombre de couches, ces valeurs deviennent de plus en plus incontrôlables - soit elles explosent, soit elles disparaissent sans laisser de trace. Comme dans le jeu de téléphone arabe, l'information se déforme progressivement au cours de la transmission.
L'ajout de couches de normalisation dans le modèle peut réduire la probabilité d'explosion ou de disparition des gradients, rendant le processus d'entraînement du modèle plus stable. La technique de normalisation a évolué depuis BatchNorm jusqu'à LayerNorm, et enfin jusqu'à RMSNorm, devenant un standard pour les grands modèles.
Mon article vous fera découvrir l'histoire de l'évolution des techniques de normalisation, ceux qui sont intéressés peuvent consulter le texte original.


63,98K
Les compétences d'agent de Claude sont essentiellement une forme de "déchargement contextuel", qui déplace les informations de compétence longues hors du contexte et les charge au besoin. Fait intéressant, récemment, Peak de Manus a également partagé quelques astuces de "déchargement contextuel". Manus dispose de nombreux outils, mais ne fournit pas la définition complète de ces outils au modèle. Alors, comment sait-il quels outils sont disponibles et comment les appeler ? Imaginez que vous avez un nouvel ordinateur, comment sauriez-vous quels outils sont disponibles ? Un utilisateur ordinaire ouvrirait la liste des applications, tandis qu'un programmeur utiliserait `ls /usr/bin` pour voir quelles commandes sont disponibles.
De la même manière, la solution de Manus consiste à informer le modèle, dans les invites système, qu'il existe de nombreux utilitaires de ligne de commande préinstallés dans un dossier spécifique. Les outils les plus couramment utilisés (ls, grep, cat, less, more, etc.) sont intégrés par défaut dans l'invite système. Il n'est pas nécessaire de dire au modèle comment utiliser ces outils, il suffit de lister les noms des outils et de lui indiquer qu'il peut utiliser le paramètre --help pour comprendre comment utiliser les outils. Ce qui est génial, c'est que ces modèles d'opérations shell ont tous été appris, donc leur capacité de généralisation est très forte ; pour ajouter de nouveaux outils, il suffit de placer une commande dans le dossier.


宝玉17 oct. 2025
Agent Skills 是很好的东西,可以引导 Agent 获取某些技能,而且制作起来很方便。
制作一个技能,就好像给新员工写一份入职手册。不需要为每一个不同任务都专门打造一个独立的智能体,而是只要共享特定领域的专业知识,任何人都可以快速将智能体变成对应领域的高手。
我之前提到过朋友做一个基于他们 Design System 的 Agent,需要通过提示词引导 Agent 去 grep 检索文档,现在就更简单了,只要在全局或者项目目录下的 .claude/skills 下面添加目录,并且放一个包含meta信息的 SKILL\.md 文件,就可以引导 Agents 去学习使用这些 Skill。
官方也给了一个例子就是 PDF Skill,就是包含了一系列 PDF 操作的说明和脚本,Agent 借助这些脚本,就可以操作 PDF,比如提取表单之类。也就是说 Skill 不仅可以包含文档,还可以包含可执行的脚本。
需要注意的是 Skill 里面的 Meta 信息是默认会加载到上下文文的,其余信息用到才会加载。



136,57K
Meilleurs
Classement
Favoris

