英偉達研究團隊於2026年4月16日正式發佈了3D 場景生成系統 Lyra2.0,該技術旨在通過單張照片構建大規模、高連貫性的虛擬環境,攻克了長距離相機路徑下的圖像失真難題。在具身智能訓練需求激增的背景下,Lyra2.0的問世標誌着 AI 在3D 空間理解與實時環境模擬領域取得重大突破。

技術層面,Lyra2.0能夠利用單張照片生成延伸範圍達90米的3D 環境。針對傳統視頻模型因“遺忘”導致的空間失真與誤差累積問題,研究人員採用了雙重創新策略:系統不僅實時存儲每一幀的3D 幾何信息,確保相機重回舊位時環境的一致性,還在訓練中引入帶有缺陷的輸出數據,使模型具備自我糾偏能力。基準測試結果顯示,Lyra2.0在圖像質量與相機控制等維度均優於 GEN3C、Yume-1.5等六個競爭對手,且其快速版本的生成效率提升了13倍。

目前,Lyra2.0已實現與 Nvidia Isaac Sim 等物理引擎的無縫銜接,生成的3D 場景可直接導出爲網格模型。這一閉環流程使得機器人能夠在完全由 AI 生成的環境中進行高效仿真訓練,極大降低了對現實世界大規模3D 數據採集的依賴。儘管該系統目前仍侷限於靜態場景,但其對3D 生成規模與穩定性的提升,已然爲自動駕駛及通用機器人(AGI)的物理感知進化提供了更具想象力的基礎設施支撐。