CES2026において、NVIDIAはロボット分野における最新の展開を体系的に披露しました。ベースモデルやシミュレーションプラットフォーム、エッジコンピューティングハードウェアに至るまで、「物理AI」向けの完全なテクノロジースタックが正式に登場しました。NVIDIAは明確にシグナルを発信しています。その目的は単なる点での支援ではなく、汎用ロボットのデフォルトプラットフォームとなることであり、スマートフォン時代におけるAndroidのような役割を担うことを目指しています。
この戦略の背景には、AI業界全体の軸の移動があります。センサーのコストが継続的に低下し、シミュレーション技術が成熟し、複数のタスクで汎化できるモデルが次々と登場する中、人工知能はクラウド上の推論から、現実の物理世界で感知・思考・行動を行うロボットシステムへと進化しています。NVIDIAはこうした変化の中で、下部の入口を獲得しようと試みています。

AIbaseによると、NVIDIAはCES期間中に「物理AI」の全スタックエコシステムの核心的な詳細を明らかにしました。同社は複数のオープンなロボットベースモデルを公開し、ロボットが多タスク・多環境で推論・計画・自己適応ができるようにしています。これにより、従来の単一で固定されたタスクに限られていた制約が突破されました。関連モデルはHugging Faceにも同時にアップロードされ、開発の障壁がさらに低下しています。
具体的には、新しいモデルシステムには以下の主要なコンポーネントが含まれます。Cosmos Transfer2.5とCosmos Predict2.5は世界モデルとして、シミュレーション環境で合成データを生成し、ロボットの戦略を評価します。Cosmos Reason2は推論型の視覚言語モデル(VLM)であり、AIが物理世界を理解し、それに基づいて行動できるようにします。一方、Isaac GR00T N1.6は人間のように動作するロボット向けの新世代の視覚言語アクション(VLA)モデルです。GR00TはCosmos Reasonを中枢としており、人間のようなロボットの全身レベルの制御を実現し、移動しながら複雑な操作を可能にしています。
ソフトウェアとトレーニングの面では、NVIDIAはIsaac Lab-Arenaを発表しました。これはGitHub上でホストされるオープンソースのシミュレーションフレームワークであり、物理AIプラットフォームの重要な構成要素となっています。このプラットフォームは仮想環境でロボットの能力を安全にテストでき、業界が長年抱えてきた課題を解決することを目的としています。ロボットのタスクの複雑さが増すにつれて、精密な掴みやケーブルの設置など、現実環境でのテストは高コスト、長期化、リスクが伴うことが多くあります。Isaac Lab-Arenaはタスクのシナリオ、トレーニングツール、そしてLibero、RoboCasa、RoboTwinなどの既存ベンチマークを統合し、業界にとって初めて統一的で再利用可能な評価およびトレーニングの基準を提供します。
このシステムを支えるのは、オープンソースの「指挥センター」として設計されたNVIDIA OSMOです。OSMOはデータ生成からシミュレーション、モデルトレーニングに至るまで、すべてのプロセスをつなぎ、デスクトップとクラウドの両方の環境をカバーし、ロボット開発に統一されたスケジューリングと管理能力を提供します。
ハードウェアの面では、NVIDIAはBlackwellコアを搭載したJetson T4000グラフィックカードを同時発表しました。これはJetson Thorシリーズに属しており、40〜70ワットの電力消費で最大1200テラフロート演算を提供し、複雑なロボットの推論と制御のための高コストパフォーマンスなエッジ側計算のアップグレードソリューションとして位置付けられています。また、64GBのメモリを備えています。
NVIDIAはさらにHugging Faceとの協力を深化させました。双方はIsaacとGR00T技術をHugging FaceのLeRobotフレームワークに統合し、NVIDIAの約200万のロボット開発者とHugging Faceの1,300万以上のAI構築者のエコシステムを結びつけました。Hugging Faceプラットフォーム上にあるオープンソースの人形ロボットReachy2は、Jetson Thorチップ上で直接実行できるようになり、開発者は閉じたシステムに依存することなく、さまざまなモデルとアルゴリズムをテストできます。
