在3D 重建這個一直被視爲“硬骨頭”的 AI 領域,蘋果公司剛剛秀出了一項足以改變遊戲規則的黑科技。

最新報道,蘋果AI 研究團隊發佈了一項名爲 LiTo(表面光場標記化)最新模型。它的核心突破在於:僅憑一張普通的2D 平面圖像,就能重建出完整的3D 對象,且細節還原度達到了物理級別的真實感。

image.png

長期以來,單圖生成3D 模型最大的痛點在於“光影的一致性”。當你旋轉視角時,物體表面的反射、高光往往會變得扭曲或失真。而LiTo模型通過引入創新的“潛在空間”(Latent Space)表示法,成功攻克了這一難題。它不再是死記硬背像素,而是通過數學向量掌握了光線與表面交互的底層規律。

簡單來說,LiTo具備了極強的“腦補”能力。哪怕只有一張正面照,它也能精準預測出物體背面在不同光照條件下的鏡面高光和菲涅爾反射。在官方公佈的對比測試中,LiTo在多視角光影還原度上,已經顯著超越了目前行業領先的 TRELLIS 模型。

image.png

爲了打磨這個“細節控”AI,研究人員使用了數千個3D 對象,在150個視角和3種光照條件下進行了高強度訓練。這種對光影近乎偏執的追求,顯然是在爲空間計算生態鋪路。

image.png

想象一下,未來你只需用 iPhone 拍一張照片,LiTo就能瞬間將其轉化爲一個栩栩如生的3D 模型,並無縫置入 Vision Pro 的虛擬空間中。這種從2D 內容到3D 資產的極簡跨越,或許正是蘋果在 AI 賽道上實現“後發制人”的關鍵殺手鐗。