クリスマスの当日、有名なエッジAIスタートアップであるLiquid AIは、最新の実験モデルLFM2-2.6B-Expを正式にリリースしました。この2.6B(26億)パラメータしかない小型オープンソースモデルは、複数の重要なベンチマークテストで優れた性能を示し、特に命令に従う能力において数百億パラメータを持つDeepSeek R1-0528を上回り、業界内で広く注目されています。このモデルは「最強の3B級モデル」として称賛されています。

モデルの背景:強化学習によって駆動される実験的突破

LFM2-2.6B-Expは、Liquid AIの第2世代のLiquid Foundation Models(LFM2)シリーズの2.6Bベースモデルをもとに構築されており、監督付き微調整や大型教師モデルの蒸留を必要としない純粋な強化学習(RL)によって後処理を行っています。このモデルはLFM2のハイブリッドアーキテクチャの利点を引き継ぎ、短距離ゲート畳み込みとグループクエリ注意機構(GQA)を組み合わせており、32Kのコンテキスト長をサポートしています。これはエッジデバイス(スマートフォン、ノートパソコン、IoTデバイスなど)向けに設計され、効率的なローカル配備が可能です。

Liquid AIは、この実験チェックポイントが主に命令に従うこと、知識質問、数学的推論などの分野で最適化されていると強調しており、代理ワークフロー、RAG検索、データ抽出、クリエイティブライティング、マルチラウンド対話などのシナリオに適用可能です。

image.png

性能の特徴:小さな体格にもかかわらず大規模な力

最新のベンチマークテストでは、LFM2-2.6B-Expは驚異的なパフォーマンスを発揮しました:

- IFBench(命令に従うためのベンチマーク): 同クラスのモデルよりも大幅に高いスコアを記録し、パラメータ数が263倍のDeepSeek R1-0528をも上回りました。

- GPQA(大学院レベルの知識質問): 約42%に達し、従来の3Bモデルを大きく上回りました。

- IFEval(命令厳密に遵守): 88%以上を記録し、多くの10B以上のパラメータを持つモデルを下回りました。

- GSM8K(数学的推論): スコアは82%以上に達し、Llama3.23BやGemma3シリーズよりも優れています。

さらに、このモデルはCPUでのプレフィルとデコード速度が競合製品の2倍であり、メモリ使用量は非常に低く、bfloat16量化に対応しており、「スマホレベルのPhD推論」を実現しています。

オープンソースの意義:エッジAIの普及を加速

LFM2-2.6B-Expは完全にオープンソースとなっており、モデルの重みはHugging Faceプラットフォームにアップロードされています。開発者は無料でダウンロードし、ローカルアプリケーションに統合することが可能です。これにより、強化学習が小規模モデルに与える大きな潜在力を証明するだけでなく、エッジAIエコシステムの発展をさらに促進し、高性能なAIがクラウドから誰でも利用できるデバイス端へと移行する可能性を高めています。

AIbaseコメント LFM2-2.6B-Expのリリースは、小型モデル時代の加速を示しています。巨大なパラメータ数が必要ないという、知的なトレーニングパターンを通じて先端性能を実現することが可能です。プライバシー、低遅延、低コストを求める開発者および企業にとって、このモデルは現在の最適な選択肢の一つです。今後、RL技術とハイブリッドアーキテクチャの継続的な改善が進めば、3B級のオープンソースモデルはAGIに近づき、あらゆるデバイス上でスムーズに動作するようになるかもしれません。興味のある読者は、すぐにHugging Faceでダウンロードして体験してください。エッジインテリジェンスの新しい章を開きます。

アドレス:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp