蚂蚁开源正式发布并开源了其最新旗舰级即时模型——Ling-2.5-1T。这款模型在深度思考模型提升智能上限的基础上,通过平衡效率与效果,进一步拓宽了智能应用的覆盖范围,让AGI(通用人工智能)不仅更强大,也更加普及。
Ling-2.5-1T作为百灵家族的最新成员,在模型架构、token效率、偏好对齐等多个维度进行了全面升级。该模型拥有高达1T的总参数(激活63B),预训练语料库从之前的20T扩展至29T。借助混合线性注意力架构和精细的数据策略优化,Ling-2.5-1T能够高效处理长达1M token的上下文信息。
在token效率方面,Ling-2.5-1T引入了“正确性+过程冗余”的复合奖励机制,进一步拓展了即时模型在效率与效果之间的平衡边界。在相同token效率条件下,其推理能力显著超越前代模型,接近需要消耗约4倍输出token的前沿思考模型水平。
此外,Ling-2.5-1T还通过精细化偏好对齐策略,如双向强化学习反馈和Agent-based指令约束校验,大幅提升了在创意写作、指令遵循等任务上的表现。同时,基于大规模高保真交互环境的Agentic RL训练,使Ling-2.5-1T能够原生适配Claude Code、OpenCode、OpenClaw等主流智能体产品,并在通用工具调用基准BFCL-V4上达到开源领先水平。
经过全面评估,Ling-2.5-1T在知识、推理、智能体交互、指令遵循、长文本处理等多个基准评测上均实现了显著提升。与前代模型Ling-1T相比,Ling-2.5-1T展现了全方位的能力增强。在与主流大尺寸即时模型如DeepSeek V3.2、Kimi K2.5、GPT 5.2的对比中,Ling-2.5-1T在复杂推理和指令遵循能力上展现出明显优势。
Ling-2.5-1T的开源地址已公布,用户可通过Hugging Face和ModelScope平台获取更多信息和使用该模型。 |