在具身智能飛速發展的今天,如何讓機器人擁有像人類一樣靈敏的“觸覺”感知,正成爲行業突破的關鍵。2026年1月27日,國家地方共建人形機器人創新中心聯合多家科研團隊,正式發佈了名爲 “白虎-VTouch” 的跨本體視觸覺多模態數據集。 這一成果不僅填補了大規模視觸覺數據的空白,更爲全球機器人開發者提供了一座極具價值的“數字礦山”。

海量數據沉澱:超6萬分鐘的“感官記憶”

作爲目前全球規模最大的同類開源數據集之一,白虎-VTouch 在數據廣度與深度上都實現了質的飛躍:

超長交互時長:包含超過60,000分鐘 的機器人真實交互數據。

多維感官對齊:數據集深度整合了視覺影像、觸覺反饋以及機器人關節位姿等多模態信息。

物理特性捕捉:通過高精度傳感器記錄,使 AI 能夠學習到物體在接觸過程中的細微物理變化與形變邏輯。

跨本體範式:打破硬件間的“感知壁壘”

該數據集最大的亮點在於其**“跨本體”**特性。 它不再侷限於單一型號的機器人,而是涵蓋了不同構型(如人形機器人、輪式機器人、機械臂等)的感知數據。 這種通用性的數據架構,能夠幫助 AI 模型在不同硬件之間實現感知的快速遷移與泛化,讓更多形態的機器人能快速掌握精細操作的能力。

賦能具身智能:從“看見”到“摸透”

長期以來,機器人的操作往往依賴於視覺,但在處理透明物體、光線昏暗環境或精細組裝任務時,視覺往往會“失靈”。 “白虎-VTouch” 的發佈,標誌着機器人正從單一的“視覺主導”進化到“視觸融合”的新階段。 這一數據集將爲家居家政、工業精密製造、醫療輔助等場景提供更堅實的底層支持。

隨着該數據集的開源,全球機器人領域有望迎來一波感知算法的迭代潮。 當機器人的指尖不再冰冷遲鈍,一個真正具備靈巧操作能力的具身智能時代正加速到來。