聖誕節當天,知名邊緣AI初創公司Liquid AI正式發佈了其最新實驗性模型LFM2-2.6B-Exp,這一僅有2.6B(26億)參數的小型開源模型,在多項關鍵基準測試中表現出色,尤其在指令跟隨能力上超越了參數量高達數百億的DeepSeek R1-0528,引發業界廣泛熱議,被譽爲“最強3B級模型”。
模型背景:純強化學習驅動的實驗突破
LFM2-2.6B-Exp基於Liquid AI第二代Liquid Foundation Models(LFM2)系列的2.6B基礎模型,通過純強化學習(RL)方式進行後訓練優化,無需監督微調暖啓動或大型教師模型蒸餾。該模型繼承了LFM2的混合架構優勢,結合短程門控捲積和分組查詢注意力(GQA),支持32K上下文長度,專爲邊緣設備(如手機、筆記本、物聯網設備)設計,實現高效本地部署。
Liquid AI強調,該實驗檢查點主要針對指令跟隨、知識問答和數學推理等領域進行優化,適用於代理工作流、RAG檢索、數據提取、創意寫作和多輪對話等場景。

性能亮點:小身材爆發大能量
在最新基準測試中,LFM2-2.6B-Exp展現出驚人表現:
- IFBench(指令跟隨基準):得分大幅領先同級模型,甚至超越參數量263倍的DeepSeek R1-0528。
- GPQA(研究生級知識問答):達到約42%,遠超傳統3B模型。
- IFEval(指令嚴格遵循):超過88%,擊敗衆多10B+參數模型。
- GSM8K(數學推理):得分高達82%以上,優於Llama3.23B和Gemma3系列。
此外,該模型在CPU上的預填充和解碼速度是競品的2倍,內存佔用極低,支持bfloat16量化,真正實現“手機級PhD推理”。
開源意義:加速邊緣AI普及
LFM2-2.6B-Exp已完全開源,模型權重上傳至Hugging Face平臺,開發者可免費下載並集成到本地應用中。這不僅證明了強化學習在小模型上的巨大潛力,也進一步推動了邊緣AI生態發展,讓高性能AI從雲端走向人人可及的設備端。
AIbase點評 LFM2-2.6B-Exp的發佈標誌着小型模型時代加速到來:無需巨量參數,通過智能訓練範式即可實現前沿性能。對於追求隱私、低延遲和低成本的開發者與企業,這款模型無疑是當前最佳選擇之一。未來,隨着RL技術和混合架構的持續迭代,3B級開源模型或將接近AGI水平,並在任何設備上流暢運行。感興趣的讀者可立即前往Hugging Face下載體驗,開啓邊緣智能新篇章。
地址:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp
