蚂蚁百灵大模型(Ling)今日宣布,其万亿参数级旗舰模型 Ling-2.6-1T 正式开源。该模型延续了上周发布时的技术核心,不再盲目追求超长思考链或参数规模冗余,而是通过创新的 MLA 与 LinearAttention 混合架构实现“快思考(Fast-Thinking)”机制,旨在解决万亿级模型在真实生产流中的智效比难题。

QQ20260430-101501.jpg

实测数据显示,Ling-2.6-1T 在 Artificial Analysis 的完整评测中表现出惊人的 Token Efficiency,仅需16M tokens 即可完成全部评估,输出成本仅为同类模型的约四分之一。在综合智能水平上,该模型已对标 GPT-5.4(非推理模式);而在推理、代码实现、工具调用及多步任务执行等实战指标上,Ling-2.6-1T 均达到了目前开源领域的 SOTA(业内最高)水平。

QQ20260430-101519.jpg

针对开发者痛点,该模型系统性优化了指令执行与工具适配能力。在蚂蚁内部的实际应用中,它能自主完成反馈分类、日志分析及代码修复,支持262k 超长上下文承接。此次开源不仅降低了万亿级模型的使用门槛,更标志着 AI 智能体(Agent)开发进入了“高智效、即时执行”的新阶段。