Meta FAIR 實驗室近日發佈了一項名爲“Sparsh”的人工多模態指尖觸覺感知技術,該技術可賦予機器人近似人類的觸覺感知能力,有望在機器人操控領域帶來革命性的變化。

Sparsh 模型採用自監督學習的方式,利用超過46萬張觸覺圖像進行預訓練,無需人工標註數據,即可學習通用的觸覺表徵。

image.png

該模型能夠支持多種類型的視覺觸覺傳感器,包括 DIGIT、GelSight2017和 GelSight Mini,並顯著提升了機器人在觸覺感知任務上的性能,如力估計、滑動檢測、姿態估計、抓取穩定性預測和織物識別等。 研究人員還構建了一個名爲 TacBench 的標準化基準測試平臺,用於評估不同觸覺傳感器和模型在各種任務上的表現。

測試結果表明,Sparsh 模型在 TacBench 的六項任務中均表現出色,尤其是在數據量有限的情況下,其性能遠超傳統的特定任務和特定傳感器模型。 例如,在力估計和滑動檢測任務中,即使只使用1% 的標註數據,Sparsh 模型也能取得令人滿意的結果。 這意味着 Sparsh 可以幫助機器人更好地理解物體的物理特性,並進行更精細的操控。

Sparsh 模型的發佈標誌着 AI 觸覺感知領域取得了重大突破。 未來,隨着更多數據的積累和模型的進一步優化,Sparsh 有望徹底改變機器人與物理世界交互的方式,推動機器人技術在更廣泛的領域得到應用。

論文地址:

https://scontent-sjc3-1.xx.fbcdn.net/v/t39.2365-6/464969941_1107633400780143_7479102347328147009_n.pdf?_nc_cat=103&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=y8Ui1HEw3BQQ7kNvgFe-ePu&_nc_zt=14&_nc_ht=scontent-sjc3-1.xx&_nc_gid=AeaFsuZziasVwPfMQsEoZqu&oh=00_AYAMqxGq0ATCySDxZWB0ZT8BgSkogYmj13c9f3ytVtkmSg&oe=672DEEE4