2026年のラスベガスで開催されたCES国際家電見本市において、人工知能のリーダーであるNVIDIAは、待ちに待った次世代AIプラットフォーム「ルビン(Rubin)」を正式に発表しました。このプラットフォームのコアとなる新スーパーチップ「ベラ・ルビン(Vera Rubin)」が初登場し、これはNVIDIAが高性能計算分野でまた一つ飛躍的な進歩を遂げたことを示しています。

AIbaseによると、ルビンプラットフォームは現在のエージェントAIや大規模な推論モデルにさらに効率的な演算力を提供することを目的としています。ベラ・ルビンチップは革新的な統合設計を採用しており、単一のプロセッサに1つのベラ(Vera)CPUと2つのルビン(Rubin)GPUが搭載されています。ブラックウェル(Blackwell)アーキテクチャに比べて、新プラットフォームは効率性で質的飛躍を遂げています。NVIDIA公式データによれば、同じ混合エキスパートモデル(MoE)をトレーニングする場合、ルビンプラットフォームに必要なGPU数は以前の四分の一にとどまっています。

また、コアチップだけでなく、NVIDIAは補助的なNVLink6スイッチやConnectX-9スーパーカードなどのネットワークおよびストレージコンポーネントも紹介しました。これらの技術は、ベラ・ルビンNVL72サーバーを構成し、非常に大規模なスーパーコンピューティングクラスターを構築できます。

企業にとって、新アーキテクチャの直接的な利点はコストの大幅な削減です。AIbaseが入手した情報によると、ルビンプラットフォームにより、AI推論フェーズにおける「トークン(Token)」処理コストは90%低下します。これは、膨大な言語、画像、動画データを処理する際、エネルギー消費や運用総コストが大幅に最適化されることを意味しています。AMDやグーグル、アマゾンなどのテクノロジー大手が自社チップを開発しているにもかかわらず、NVIDIAは毎年製品を一代ずつ更新するスピードを維持し、世界のAI演算力市場での筆頭地位を堅持しようとしています。

ポイント:

  • 🚀 新アーキテクチャのリリース: NVIDIAは正式にルビン(Rubin)プラットフォームを発表し、その中には新しいCPUとGPUコアを統合したベラ・ルビン(Vera Rubin)スーパーチップが含まれます。

  • 📉 効率の大幅向上: 以前の製品に比べて、同様のAIモデルをトレーニングするために必要なGPU数は75%減少し、推論コストは九割下がります。

  • 🌐 フルスタックの演算力ソリューション: 新プラットフォームはスイッチからストレージまでをカバーする完全なエコシステムを備えており、テラパラメータ規模の複雑なAIモデルの推論を支えることを目的としています。