在機器人向“具身智能”全面邁進的今天,如何讓鋼鐵之軀擁有像人類一樣靈敏的“觸感”,成爲了突破精細化操作瓶頸的關鍵。2026年1月26日,國地中心聯合緯鈦機器人正式發佈了全球首個、也是目前規模最大的跨本體視觸覺(Vision-Based Tactile Sensor)多模態數據集——白虎-VTouch。這一數據集的誕生,不僅填補了機器人視觸覺交互領域的空白,更爲全球機器人開發者提供了一座高價值的數字礦山。

image.png

全球最大規模:60,000分鐘的“真實觸感”

不同於以往單一、碎片化的實驗數據,白虎-VTouch 在規模和完整性上實現了量級跨越:

數據體量驚人:數據集規模超過60,000分鐘,包含約9072萬對真實的物體接觸樣本。

全維度覆蓋:整合了視觸覺傳感器數據、RGB-D 深度數據以及關節位姿數據,實現了多模態信息的深度對齊。

高精度記錄:其搭載的傳感器支持640×480分辨率與120Hz 高刷新率,能夠捕捉到接觸過程中極細微的物理變化。

跨本體範式:從“青龍”到“手持終端”

該數據集最核心的突破在於其**“跨本體”**的採集特徵。它打破了單一設備的數據孤島,涵蓋了多種主流機器人構型:

人形機器人:以全尺寸人形機器人“青龍”爲代表的複雜動力學構型。

類人形輪式:涵蓋了 D-Wheel 等靈活的輪臂複合型機器人。

智能終端:甚至包括了手持式 pika 夾爪等智能終端設備。

這種跨本體的覆蓋,意味着開發者訓練出的算法將具備更強的通用性,能夠讓不同形態的機器人快速“習得”相似的感知能力。

“矩陣式”任務:讓機器人走進煙火氣

爲了讓 AI 真正解決現實問題,白虎-VTouch 圍繞四大真實應用場景,構建了極其系統化的任務矩陣:

家居家政:應對複雜的家庭環境交互。

餐飲服務:精準處理易碎、柔性物體的抓取。

工業製造:在精密組裝環節實現力控調整。

特種作業:在極端或特殊環境下的精細化操作。

該任務結構涵蓋了100多個原子技能和260多個接觸密集型任務。研究數據顯示,在引入視觸覺感知後,68% 的任務獲得了更完整、連續的接觸狀態描述,這對於機器人實現失敗恢復和精準力控具有決定性意義。

隨着 白虎-VTouch 相關研究成果與數據集說明的陸續開放,全球機器人產業或將迎來一波“感知覺醒”的浪潮。當機器人不再只是靠“看”來摸索世界,而是能通過“觸碰”來理解物理法則,具身智能的未來纔算真正觸手可及。