OpenClawを代表とする自律的実行型エージェントが注目を集める中、AIの応用は「対話インタラクション」から「タスク実行」へと加速的に進化していることが示されている。企業がその恩恵を享受する一方で、計算リソースの浪費やセキュリティ・コンプライアンスなどの複数の課題にも直面している。こうした中で、エージェントが真正にスケーラブルかつ持続可能な形で導入されるためには、業界全体が共通して関心を持つ重要なテーマである。
3月26日、北京の中央中关村フォーラムでの未来産業発展イノベーションフォーラムにおいて、アリババグループのアントデータ科の大モデル技術革新部総経理であるチャン・ペン氏は講演の中で、OpenClawの爆発的な人気により、企業向けAIの新しいパラダイムの変革がもたらされ、大規模モデルの産業現場への導入が「パラメータの競争」から「トークン効率の競争」へとシフトすると述べた。

図説:アントデータ科の大モデル技術革新部総経理チャン・ペン氏が中央中关村フォーラムで講演
OpenClawのようなエージェントの急速な普及は、自主的実行型エージェントに対する市場の需要を反映しているが、現実的な産業環境では導入に大きな課題が伴う。特に、業界のルールや業務フローに対して深い理解が欠如しているため、複雑なタスクを処理する際には頻繁にツールを呼び出し、結果としてトークンの消費量が有効な出力に比べて圧倒的に多い。実際に、いくつかの高頻度呼び出しの場面では、OpenClawのトークンコストが統合型エージェントのコストの数十倍乃至百倍にも達するという。このような高投入低収益のモデルは、産業分野におけるスケーラブルな応用において持続可能性の問題を抱えている。
「大規模モデルの産業分野への導入の後半戦では、モデルのパラメータ規模の競争ではなく、単位トークンあたりの効率の継続的な向上が核心的なテーマとなる。」とチャン氏は語る。彼は、企業が実際のシナリオとニーズに基づき、大規模モデルと小規模モデルを組み合わせたAIソリューションを選択することで、より低い計算リソースコストでより高いビジネス価値を実現できると提唱している。
金融分野を例に挙げると、この分野では毎日大量の高頻度で低遅延が必要なタスクを処理する必要がある—意図の迅速な識別、重要な情報の抽出、検索と並べ替えなど。これらのタスクは、高同時接続性、高速応答性、高精度の要件を備えており、従来の業界向け推論用の大規模モデルでは強力だが、これらのシナリオでは「鶏を割るのに斧を使う」と同じで、コストが高く、応答が遅く、リソースの無駄が生じる。
「産業が本当に必要なのは、専門性、厳格さ、コンプライアンスを確保しつつ、最適なコストパフォーマンスと応答速度を実現するAIソリューションである。」とチャン氏は述べた。彼は、大規模パラメータモデルは複雑な推論と深い分析において優れた性能を発揮し、小規模パラメータモデルは高頻度の小規模タスクにおいて低遅延と高コスト効果を提供することができることを指摘し、産業では大小モデルを組み合わせたソリューションが、より効率的で低コストで現実的なシナリオの問題解決を可能にすると考えている。
中央中关村フォーラムでは、アントデータ科は軽量型金融専用モデル「Ling-DT-Fin-Mini-2.5」を発表した。これは、「Ling DT」シリーズの大規模モデルの初のモデルである。同モデルは、最新の混合線形アテンション構造をベースにした軽量型MoEモデルであり、金融分野における高同時接続性・低遅延のタスクシーンに特化して最適化されており、専門性の深さを維持しながら、推論コストをスケーラブルな導入水準まで圧縮することが可能である。このモデルは、業界の主流となる同レベルの汎用モデルと比較して、推論速度が100%速く、同じタスク量を処理する際のハードウェアコストが顕著に低下しており、金融機関にとって実質的なコスト削減と効率改善の価値をもたらす。
実際、AIエージェントが産業のコアシーンに加速的に浸透し、実際のタスクを遂行するようになると、大小モデルの組み合わせは業界のトレンドとなってきている。最近では、OpenAIもGPT-5.4miniとnanoという2つの小さなモデルを順次リリースし、低遅延と高コスト効果を主に掲げ、実行層のサブエージェントの主力として活用している。
