螞蟻百靈大模型(Ling)今日宣佈,其萬億參數級旗艦模型 Ling-2.6-1T 正式開源。該模型延續了上週發佈時的技術核心,不再盲目追求超長思考鏈或參數規模冗餘,而是通過創新的 MLA 與 LinearAttention 混合架構實現“快思考(Fast-Thinking)”機制,旨在解決萬億級模型在真實生產流中的智效比難題。

QQ20260430-101501.jpg

實測數據顯示,Ling-2.6-1T 在 Artificial Analysis 的完整評測中表現出驚人的 Token Efficiency,僅需16M tokens 即可完成全部評估,輸出成本僅爲同類模型的約四分之一。在綜合智能水平上,該模型已對標 GPT-5.4(非推理模式);而在推理、代碼實現、工具調用及多步任務執行等實戰指標上,Ling-2.6-1T 均達到了目前開源領域的 SOTA(業內最高)水平。

QQ20260430-101519.jpg

針對開發者痛點,該模型系統性優化了指令執行與工具適配能力。在螞蟻內部的實際應用中,它能自主完成反饋分類、日誌分析及代碼修復,支持262k 超長上下文承接。此次開源不僅降低了萬億級模型的使用門檻,更標誌着 AI 智能體(Agent)開發進入了“高智效、即時執行”的新階段。