NVIDIAがAI大規模モデル分野で再び衝撃的なニュースを発表しました。3月12日、NVIDIAはAIエージェント(エージェント)専用に設計された新世代のオープンソース大規模モデル「Nemotron 3 Super」を正式にリリースしました。このモデルは非常に高い推論効率と優れたタスク成功率により、オープンソースコミュニティの注目を集めています。

構造革新:推論速度が300%向上

Nemotron 3 Superは、イノベーティブなMamba-MoE混合構造を採用しており、パラメータ総数は1200億で、アクティブパラメータは120億です。この設計により、強力な性能を維持しながらも、推論速度が3倍に、スループットは5倍に増加しています。さらに、最大1Mの超長文脈をサポートし、マルチエージェント協働におけるよくある「目標のずれ」や「文脈爆発」問題を効果的に解決しています。

実力を示す:オープンソース界の「性能の限界」

さまざまな権威ある評価で、Nemotron 3 Superは目覚ましい成果を収めています。それはArtificial Analysisの効率性と開放性ランキングでトップに立つだけでなく、NVIDIAが自社開発したAI-QエージェントがDeepResearch Benchで二つのランキングで1位を獲得するのにも貢献しました。注目すべき点は、このモデルが人気のあるエージェントタスクOpenClawにおいて85.6%の成功確率を達成し、閉鎖型の大規模モデルであるClaude Opus 4.6やGPT-5.4に近づいていることです。

「ヘーゲル」プラットフォームへの対応:NVFP4トレーニングをサポート

自社ハードウェアの優位性を最大限に活かすために、Nemotron 3 SuperはBF16およびFP8形式をサポートするだけでなく、英語の最新Blackwellプラットフォームおよびその以降の構造に対応してNVFP4トレーニングを特別にサポートしています。この特徴により、大規模モデルのトレーニングコストがさらに低下し、計算能力の利用効率が向上します。

エコシステムとの連携:大手企業が一斉に統合

現在、Nemotron 3 SuperはPerplexity、Palantir、シーメンス、デルなどの複数のテクノロジー大手企業によって統合され、AWS、Azure、Google Cloudなどの主要クラウドプラットフォームでも同時に公開されています。オープンソースで無料のこのモデルは、開発者にとって低コストで高性能な代替案を提供し、現在の閉鎖型大規模モデルの市場構造に大きな影響を与えています。