3D再構築という常に「ハードボーン」と見なされてきたAI分野において、アップルはゲームを変えるほどの画期的なテクノロジーを披露しました。
最新の報道によると、アップルのAI研究チームは、LiTo(表面光場マーカー化)と呼ばれる最新モデルを公開しました。その核心的な突破点は:通常の2D平面画像1枚で、完全な3Dオブジェクトを再構築できることであり、細部の再現度は物理的なリアルさに達しています。

長期間にわたり、1枚の画像から3Dモデルを作成する際の最大の課題は「光と影の整合性」でした。視点を回転させたときに、物体の表面の反射やハイライトが歪んだり、失真したりすることがありました。しかし、LiToモデルは、革新的な「潜在空間(Latent Space)」表現法を導入することで、この課題を解決しました。これは単に画像のピクセルを暗記するのではなく、数学的なベクトルを使って、光と表面との相互作用の下地の法則を理解したのです。
簡単に言うと、LiToは非常に強力な「推測能力」を持っています。正面の写真さえあれば、物体の裏面が異なる照明条件でどのように鏡面ハイライトやフィネル反射をするかを正確に予測できます。公式発表された比較テストでは、LiToは、現在業界で最も進んでいるTRELLISモデルよりも、多視点の光と影の再現度で顕著に優れています。

この「細部にこだわる」AIを磨くために、研究者は数千もの3Dオブジェクトを用いて、150の視点と3種類の照明条件下で高強度のトレーニングを行いました。このような光と影に対する几尽きない追求は、空間計算エコシステムのために準備をしていることを示しています。

想像してください。未来には、iPhoneで1枚の写真を撮るだけで、LiToがその写真を瞬時に生々しい3Dモデルに変換し、Vision Proの仮想空間にスムーズに配置できるようになります。2Dコンテンツから3Dアセットへの極めてシンプルな移行は、おそらくアップルがAIのレースで「後発で勝つ」ための重要なキラークイックとなるでしょう。