最近、シリコンベースのフローアイモデルサービスプラットフォームは、アントグループのバーリンチームが最新にオープンソースしたLing-mini-2.0を正式リリースしました。この新しいモデルは、先進的な性能を維持しながらも、非常に高速な生成能力を示しており、小規模ながらも大規模なエネルギーを持つ突破を示しています。

Ling-mini-2.0はMoEアーキテクチャを採用しており、総パラメータ数は16Bですが、生成中に各Tokenごとに1.4Bのパラメータのみがアクティブ化されるため、生成速度が大幅に向上しています。この設計により、タスク処理時に優れた性能を維持しつつ、10B以下のDense言語モデルやより大規模なMoEモデルと効果的に比較できるようになっています。最大の文脈長は128Kに達し、モデルの適用範囲が大きく拡張されています。

ベンチマークテストでは、Ling-mini-2.0は複数の分野での推論タスクで優れたパフォーマンスを示しました。プログラミング、数学、知識集約型の推論タスクにおいても、Ling-mini-2.0は満足のいく結果を収め、その強力な総合的推論能力を示しています。特に難易度の高いタスクにおいて、このモデルは多くの同種製品よりも優れた性能を発揮しています。
また、Ling-mini-2.0は生成速度にも優れています。2000トークン以内の質問応答タスクにおいて、生成速度は1秒あたり300以上のトークンを超え、従来の8B Denseモデルの2倍以上です。出力長が増えるにつれて、このモデルの速度も向上し、最大で7倍の相対的な高速化が可能です。
開発者による使用を容易にするために、シリコンベースのフローアイプラットフォームは多様な接続方法とAPIドキュメントを提供しており、開発者がプラットフォーム上でモデルの比較と組み合わせを行うことをサポートしています。これにより、生成型AIアプリケーションを簡単に実装することが可能になります。プラットフォーム内には、開発者が無料で利用できる多数の大規模モデルAPIも用意されており、AI技術の普及と応用をさらに推進しています。
ポイント:
🧠 Ling-mini-2.0は総パラメータ数16Bで、1トークンごとに1.4Bのパラメータのみが活性化され、効率的な生成を実現します。
🚀 モデルは最大128Kの文脈長をサポートし、強力な推論能力を示します。
💻 シリコンベースのフローアイプラットフォームは、開発者がさまざまな大規模モデルAPIを簡単に使用できるようにする多様な接続方法を提供しています。
