このたび、シリコンベースのフローアイテム大規模モデルサービスプラットフォームは、アントグループの百靈チームが最新にオープンソースしたLing-flash-2.0を正式にリリースしました。これは、このプラットフォームでリリースされた130番目のモデルです。

Ling-flash-2.0は、MoEアーキテクチャに基づく大規模言語モデルであり、100億パラメータを持ち、アクティブ化時には6.1億パラメータ(非埋め込みアクティブ4.8億)のみを使用します。20TB以上の高品質なデータセットによる予トレーニング、監督微調整、および多段階の強化学習を経て、アクティブ化された6億以上のパラメータで、40億パラメータのDenseモデルと同等の優れた性能を示しています。

image.png

Ling-flash-2.0は、複雑な推論、コード生成、フロントエンド開発などの分野で優れた性能を発揮し、最大128Kの文脈長をサポートし、ユーザーにより強力なテキスト処理能力を提供します。また、価格も比較的手頃で、入力は100万トークンあたり1元、出力は100万トークンあたり4元です。国内サイトと国際サイトの新規ユーザーはそれぞれ14元または1ドルの体験用ギフトを獲得できます。

Ling-flash-2.0は、40億パラメータ以下のDenseモデル(Qwen3-32B-Non-ThinkingやSeed-OSS-36B-Instructなど)およびより大きなアクティブパラメータを持つMoEモデル(Hunyuan-A13B-InstructやGPT-OSS-120B/lowなど)と比較して、より強力な複雑な推論能力を備えています。特に創作系タスクにおいても非常に競争力があります。

さらに、Ling-flash-2.0のアーキテクチャは細心の設計を経て、高速な推論が可能です。Ling Scaling Lawsの指針に基づき、Ling2.0は1/32のアクティブ率を持つMoEアーキテクチャを採用し、多くの詳細な最適化を施しています。これにより、小規模なアクティブを持つMoEモデルでもDenseアーキテクチャの性能優位性を得ることができます。H20で展開する場合、Ling-flash-2.0の出力速度は1秒あたり200以上のトークンに達し、36BのDenseモデルと比べて3倍以上高速です。

シリコンベースのフローアイテムプラットフォームは、開発者に迅速で経済的かつ信頼性のある大規模モデルAPIサービスを提供することを目的としています。Ling-flash-2.0だけでなく、プラットフォームには多言語、画像、音声、動画などのモデルが集まり、開発者のさまざまなニーズに対応しています。開発者はプラットフォーム上でさまざまなモデルを自由に比較・組み合わせ、効率的なAPIを簡単に呼び出し、ジェネレーティブAIアプリケーションのベストプラクティスを支援することができます。

国内サイトでのオンライン体験

https://cloud.siliconflow.cn/models

国際サイトでのオンライン体験

https://cloud.siliconflow.com/models

注目ポイント:

🌟 Ling-flash-2.0は、MoEアーキテクチャに基づく100億パラメータの言語モデルで、強い複雑な推論能力を持っています。

⚡ モデルは最大128Kの文脈長をサポートし、高速な推論体験を提供し、1秒あたり200以上のトークンの出力速度が可能です。

💰 新規ユーザーは国内サイトと国際サイトでそれぞれ14元または1ドルの体験用ギフトを獲得できます。シリコンベースのフローアイテムプラットフォームは、多様な大規模モデルサービスを提供し、開発者のイノベーションを支援しています。