中国製の大規模モデルが新たな高みに到達しました。MiniMaxは本日、最新のコード処理とスマートエージェント専用の大規模モデル「M2.1」を正式にオープンソース化しました。100億のアクティベーションパラメータを持つスパース構造により、多言語プログラミング、実際のコード生成、ツール呼び出しなどの主要なシーンで全面的な突破を遂げました。信頼性の高いベンチマークであるSWE-MultilingualおよびVIBE-Benchにおいて、M2.1は同種のオープンソースモデルを大幅に上回り、グーグルのGemini3ProやAnthropicのClaude4.5Sonnetなど閉鎖型のトップモデルをも超え、オープンソースのコードモデルが「性能で閉鎖型を圧倒する」新しい段階に入ったことを示しています。

image.png

実際のプログラミングシーンで全面的に優位、多言語SOTA

M2.1は開発者の日常的なコード作業とネイティブなAIエージェント(Agent)のために設計されています。その主な利点は以下の通りです:

- 多言語プログラミングのSOTA:Python、JavaScript、Java、Go、Rust、C++などの主要言語で、現在のオープンソースモデルの中で最高水準に達しており、特に跨言語移行能力と複雑なプロジェクト文脈理解において突出しています。

- 実際のエンジニアリングタスクでの強さ:SWE-Multilingual(ソフトウェアエンジニアリング多言語基準)において、M2.1のコード修正の正確率とエンド・トゥ・エンドのタスク完了率は、Gemini3ProやClaude4.5Sonnetを大きく上回っています。

- エージェント協力の最適化:ツール呼び出し、API統合、エラー診断などのエージェントの核心的な能力に対して、VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)で優れた性能を発揮し、高信頼性のAI開発者エージェントを構築するための強力な基盤を提供します。

スパース活性化構造、高性能で低コストな推論

M2.1は混合エキスパート(MoE)のスパース活性化機構を採用しており、推論時に約100億のパラメータ(全体のパラメータ数より大きい)のみをアクティブにします。これにより、パフォーマンスを維持しつつ、計算リソースの消費を大幅に削減し、開発者がコンシューマー向けGPUやクラウドインスタンスで効率的に動作させることができるようになります。これにより、高性能なコードモデルの「一般人化」が促進されます。

オープンソースエコシステムの急速な爆発、中国モデルが後れを取らない

注目すべきは、M2.1の公開の前日、Zhipu AIがGLMシリーズの新モデルをオープンソース化したことです。このモデルはSWE-Benchの単一言語テストにおいてM2.1とほぼ同等の性能を示し、中国のオープンソース大規模モデルが専門分野で爆発的な力を示していることを共同で証明しています。MiniMaxチームは発表において、初期のテストパートナーからのフィードバックに感謝し、M2.1が「実際に開発者のために生まれた」工程化された製品であり、単なるランキングを更新するモデルではないことを強調しました。

AIbaseは、M2.1の公開は技術的なマイルストーンであり、重要なシグナルを放出しています。垂直的な専門分野において、オープンソースモデルは閉鎖型の巨頭を全面的に挑戦し、あるいはそれ以上に勝る能力を持っていることが明らかになりました。開発者がAPIに依存せず、自由に配置・微調整・コードモデルを監査できるようになるとき、AIプログラミングの真の民主化時代が本格的に始まるのです。そして、MiniMaxが牽引するこのオープンソース革命は、世界中の開発者ツールチェーンの未来の枠組みを再構築しています。

公式ドキュメント:https://www.minimax.io/news/minimax-m21