跳转至主要内容
行情
扫链
追踪
信号
跟单
兑换
资产
邀请计划
更多
产品
DeFi
市场
洞察中心
Eco Hub
安全中心
开发者中心
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
Wallet API
探索 Wallet API
API 文档
API Key 管理
区块链浏览器
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
X Campaign
参与活动,赢取丰厚奖励
奖励中心
领取奖励和空投
预警
语言
货币
颜色设置
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
Türkçe
返回
返回
学院
帮助中心
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
-5.44%
USELESS
-11.88%
IKUN
-2.75%
gib
-6.29%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
-5.37%
ALON
-19.57%
LAUNCHCOIN
-5.14%
GOONC
-4.46%
KLED
-23.54%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
-0.7%
Boopa
-0.97%
PORK
-9.8%
主页
vLLM
vLLM
12月8日 21:18
🎉恭喜 @Zai_org 团队推出 GLM-4.6V 和 GLM-4.6V-Flash —— 在 vLLM Recipes 中为希望在自己的 GPU 上运行它们的团队提供了零日服务支持。 GLM-4.6V 专注于高质量的多模态推理,具有长上下文和原生工具/函数调用,而 GLM-4.6V-Flash 是一个 9B 变体,经过调优以实现更低的延迟和更小的占用;我们的新 vLLM Recipe 提供了即用型配置、多 GPU 指导和以生产为导向的默认设置。 如果您正在构建推理服务并希望在您的技术栈中使用 GLM-4.6V,请从这里开始:
Z.ai
12月8日 20:14
GLM-4.6V系列来了🚀 - GLM-4.6V (106B):旗舰视觉语言模型,具有128K上下文 - GLM-4.6V-Flash (9B):超快、轻量级版本,适用于本地和低延迟工作负载 GLM视觉模型系列首次原生函数调用 权重: 立即尝试GLM-4.6V: API: 技术博客: API定价(每百万个令牌): - GLM-4.6V:$0.6 输入 / $0.9 输出 - GLM-4.6V-Flash:免费
43.38K
525
vLLM
12月3日 00:17
🎉 祝贺 Mistral 团队推出 Mistral 3 系列! 我们很自豪地分享,@MistralAI、@NVIDIAAIDev、@RedHat_AI 和 vLLM 紧密合作,为整个 Mistral 3 系列提供了完整的 Day-0 支持。 这次合作使得以下功能得以实现: • NVFP4 (llm-compressor) 优化的检查点 • Mistral Large 3 的稀疏 MoE 内核 • 预填充/解码分散服务 • 多模态 + 长上下文推理 • 在 A100 / H100 / Blackwell 上高效推理 🙏 非常感谢 @MistralAI、@NVIDIAAIDev 和 @RedHat_AI 的强大合作伙伴关系和工程努力,使 Day-0 优化成为可能。 如果您想要整个 Mistral 3 系列最快、最有效的开源部署路径——vLLM 今天就已准备就绪。
Mistral AI
12月2日 23:08
介绍 Mistral 3 系列模型:各个规模的 Frontier 智能。Apache 2.0。详细信息见 🧵
30.66K
494
vLLM
2025年11月30日
喜欢这个:一位社区贡献者构建了 vLLM Playground,使推理变得可视化、互动和便于实验。 从可视化配置切换到自动命令生成,从 GPU/M 芯片支持到 GuideLLM 基准测试 + LLMCompressor 集成——它将整个 vLLM 生命周期带入一个统一的用户体验。 对 micyang 的这份深思熟虑、精致的贡献表示由衷的赞赏。 🔗
24.06K
304
热门
排行
收藏