4 月 24 日消息,蚂蚁集团旗下百灵大模型团队正式发布面向即时任务执行的万亿级综合旗舰模型 ——Ling-2.6-1T。
Ling-2.6-1T 采用了 MLA(Multi-head Latent Attention)与 LinearAttention 的混合架构设计,核心思路是摒弃行业内普遍追求的“慢思考”多步推理模式,转而以“快思考”机制实现高效推断,仅凭极低的 Token 开销直达结果,从而显著压缩输出成本和推理延迟。
这一技术路线在万亿参数量级的大模型中较为罕见,也标志着蚂蚁百灵在模型效率与智能能力之间寻求了一种新的平衡。
据官方介绍,此前的旗舰模型 Ling-1T 便已在受限输出 Token 条件下于多项复杂推理榜单上达到 SOTA 水平,而 Ling-2.6-1T 则在此基础上进一步强化了效率维度的突破。
width=”850″ height=”1093″>
在性能表现方面,Ling-2.6-1T 的能力提升相比早期旗舰 Ling-1T 实现了全方位的跃迁。根据 Artificial Analysis 的评测数据,其综合智能水平已与 GPT-5.4(非推理模式)处于同一档次。
在具体基准测试中,该模型在高难度推理任务 AIME2026 上显著领先于其他非思考型模型,展现出强劲的瞬时复杂问题求解能力。
在 Agent 执行能力方面,Ling-2.6-1T 在 SWE‑bench Verified、TAU2‑Bench、BFCL‑V4 等多个主流榜单中位居前列,无论是从代码生成到缺陷修复的完整工程流,还是复杂 API 协同调用,均能稳定胜任。
此外,该模型支持 256K 超长上下文,并在指令遵循测试 IFBench 中表现优异,可确保在多重约束条件下的执行准确率与逻辑一致性。
Ling-2.6-1T 目前已在上线之初同步提供 API 服务,开发者可通过官方平台或 OpenRouter 直接调用,Ling-2.6-1T 与当前主流 Agent 框架保持高度兼容,适用于需要稳定执行的复杂场景。
IT之家注:百灵团队还透露该模型将于近期正式开源,届时开发者可进一步基于其进行本地部署与二次开发。
width=”1440″ height=”384″>
width=”1440″ height=”322″>
width=”1440″ height=”474″>
width=”1440″ height=”319″>
width=”1440″ height=”319″>
随着 Ling-2.6-1T 的发布,蚂蚁百灵的模型产品矩阵进一步清晰。除该款万亿级非推理旗舰模型外,其 Ling 系列还包含 Ling‑Lite、Ling‑Plus 等不同规模版本,并与 Ring 系列长思考模型、Ming 系列多模态模型协同布局,覆盖从轻量部署到综合旗舰的多层次需求。
蚂蚁集团宣布,为方便开发者快速体验,现已在 OpenRouter 与官方平台同步提供一周免费 API 调用。
width=”850″ height=”1093″>
相关阅读:
-
《蚂蚁集团百灵大模型 Ling-2.6-flash 发布,匿名上线一周日均 tokens 调用达 100B 级》
