アリババグループの百靈大モデルは、今日、最新のメンバーであるLing-2.6-flashを正式にオープンソース化することを発表しました。このモデルは、BF16、FP8、INT4など複数の量化バージョンを同時にリリースし、世界中の開発者により柔軟なハードウェア対応選択肢を提供し、AIの導入門檻をさらに下げる狙いがあります。
パフォーマンスの高いモデルとして、Ling-2.6-flashのパラメータ総数は104Bで、アクティベーションパラメータは7.4Bです。これまでこのモデルは、国際的な主要な評価プラットフォームで匿名の姿で注目を集め、開発者のフィードバックに基づき、中英語の切り替えやコードの対応などの複数回の深層最適化が行われました。

推論効率に飛躍的変化
技術構造面では、Ling-2.6-flashは先進的なハイブリッド線形構造を導入し、計算能力を大幅に解放しました。主流のH20 GPU環境において、その推論速度は最大で1秒間に340トークンに達し、トランジット能力は業界の同種競品を大きく上回っています。
スピードの優位性だけでなく、このモデルは知能効率比でも驚異的な性能を示しています。評価データによると、同じ複雑度のタスクを完了する場合、Ling-2.6-flashが使用するトークン数は同等クラスのモデルの10分の1にとどまり、企業の長期的な運用コストを効果的に削減しています。
エージェントシーン向けの強化
現在人気のあるエージェントアプリケーションに特化して、アリババグループはモデルに特化した能力向上を行いました。複雑なツール呼び出しや長経路のタスク計画においても、Ling-2.6-flashは非常に強い論理実行力とタスク成功確率を示しています。
現在、このモデルはHugging FaceやModelScopeなどの主要なオープンソースコミュニティに同時公開されています。今回の深いオープンソース化を通じて、アリババグループは多くの垂直領域の開発者を支援し、データプライバシーを確保しつつ、大規模モデルの応用の新しい境界を探求することを願っています。
