热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Avi Chawla
关于 DS、ML、LLM 和 RAG 的每日教程和见解 • 联合创始人 @dailydoseofds_ • IIT Varanasi • 前 AI 工程师 @ MastercardAI
通过超过 50 倍的速度提升您的原生 Python 代码!
只需 4 个简单步骤。
Python 的默认解释器(CPython)之所以慢,主要是因为它的动态性。
例如,在定义特定类型的变量后,它可以更改为其他类型。
但这些动态操作会带来运行时和内存开销的代价。
Cython 模块将您的 Python 代码转换为 C。
使用 Cython 模块的步骤(在阅读时请参考图像):
1)加载 Cython 模块:%load_ext Cython
2)添加 Cython 魔法命令
3)在使用函数时,指定参数数据类型
4)使用 “cdef” 关键字定义每个变量并指定其数据类型。
此代码将以原生机器速度运行。
P.S. 下面显示的代码仅用于解释 Cython 的用法。您可以轻松使用 NumPy 实现相同的功能。

22.55K
渗透测试公司不希望你看到这一点。
一个开源的AI代理刚刚复制了他们的5万美元服务。
今天的“正常”渗透测试看起来是这样的:
- 每次参与费用2万到5万美元
- 4到6周的范围界定、保密协议、启动电话
- 一份在你发布新功能的瞬间就过时的大PDF
与此同时,AI代理正在悄然开始在日常实际重要的事情上与人类渗透测试人员平起平坐:
↳ 列举攻击面
↳ 模糊测试端点
↳ 将简单的漏洞串联成实际影响
↳ 生成开发人员可以实际使用的概念验证和修复步骤
而且他们在几个小时内完成,而不是几周,并且成本仅为一小部分。
这种方法实际上在Strix中得到了实施,这是一个最近流行的开源框架(超过1.4万颗星)用于AI渗透测试代理。
该框架启动了一组AI“攻击者”,对你的网络应用、API和代码进行探测。
然后,它返回经过验证的发现,附带利用证据、修复步骤,以及一份完整的PDF报告,外观与传统公司提供的完全相同,但没有5万美元的发票和一个月的等待时间。
你可以在GitHub上查看完整的实现并自己尝试。
只需运行:`strix --target https: //your-app .com`,你就可以开始了。
人类红队并不会消失,但常规的渗透测试(发布前、重构后、季度检查)显然正在转向AI。
Strix是首批让这种转变感觉真实而非假设的工具之一。
我已经在回复中分享了GitHub仓库。
190.02K
斯坦福大学的研究人员开发了一种新的提示技术!
通过在提示中添加约20个单词,它:
- 提高了LLM的创造力1.6-2倍
- 人类评分的多样性提高了25.7%
- 超过了未经过任何再训练的微调模型
- 恢复了66.8%因对齐而失去的LLM创造力
后训练对齐方法,如RLHF,旨在使LLM变得有用和安全。
然而,这些方法无意中导致输出多样性显著下降(称为模式崩溃)。
当LLM崩溃到某个模式时,它开始偏向一组狭窄的可预测或刻板的响应,而不是其他输出。
这种情况发生是因为用于训练LLM的人类偏好数据存在一个隐藏的缺陷,称为典型性偏见。
这就是发生的方式:
- 注释者对LLM的不同响应进行评分,随后,LLM使用奖励模型进行训练,以模仿这些人类偏好。
- 然而,注释者自然倾向于偏好那些更熟悉、易于阅读和可预测的答案。这就是典型性偏见。
因此,即使一个新的、创造性的答案同样优秀,人类的偏好往往倾向于常见的答案。
由于这个原因,奖励模型提升了原始(对齐前)模型已经认为可能的响应。
这大幅度锐化了LLM的概率分布,使模型的创造性输出崩溃为一到两个主导的、高度可预测的响应。
也就是说,这并不是不可逆转的效果,LLM在对齐后仍然有两种个性:
- 在预训练期间学习到丰富可能性的原始模型。
- 以安全为重点的后对齐模型。
口头采样(VS)解决了这个问题。
这是一种无训练的提示策略,旨在规避模式崩溃并恢复在预训练期间学习到的多样分布。
口头采样的核心思想是提示本身就像一个心理开关。
当你直接提示“告诉我一个笑话”时,对齐的个性立即接管并输出最强化的答案。
但在口头采样中,你提示它“生成5个响应及其相应的概率。告诉我一个笑话。”
在这种情况下,提示并不是请求一个实例,而是请求一个分布。
这使得对齐模型谈论其全部知识,并被迫利用在预训练期间学习到的多样分布。
通过这种方式,模型接触到更广泛、多样的想法,这些想法来自于其核心预训练权重中仍然存在的丰富分布。
口头采样显著提高了多样性,提升幅度为1.6–2.1倍,同时保持或提高质量。
像基于口头采样的CoT(Chain-of-Thought)和基于口头采样的多重生成等变体进一步提高了生成的多样性。
我已经在回复中分享了论文!
👉 轮到你了:还有哪些其他方法可以用来提高LLM的多样性?

132.24K
热门
排行
收藏

