身体知能が急速に発展する今日、ロボットが人間のように感覚的な「触覚」を備えているかどうかが業界の突破の鍵となっています。2026年1月27日、国家と地方が共同で設立した人形ロボットイノベーションセンターは、複数の研究チームと協力して、「バイコウ-VTouch」というクロスボディ視触覚マルチモーダルデータセットを正式に公開しました。この成果は、大規模な視触覚データの空白を埋め、世界中のロボット開発者にとって非常に価値ある「デジタルマイン(金鉱)」を提供します。
膨大なデータの蓄積:6万時間を超える「感覚記憶」
現在、世界最大級のオープンソースデータセットの一つであるバイコウ-VTouchは、データの広さと深さにおいて質的な飛躍を遂げています:
長い相互作用時間:ロボットの実際の相互作用データを60,000分以上含んでいます。
多面的な感覚の整合:ビジュアル画像、タッチフィードバック、ロボットの関節姿勢などのマルチモーダル情報を深く統合しています。
物理特性の捉え方:高精度センサーによる記録により、AIが物体の接触過程における微細な物理的変化や変形の論理を学ぶことができます。
クロスボディの枠組み:ハードウェア間の「感覚の壁」を打ち破る
このデータセットの最大の特徴はその「クロスボディ」性です。これは単一のロボットモデルに限定されるものではなく、人形ロボット、車輪型ロボット、アーム型ロボットなどさまざまな構造を持つロボットの感覚データを含んでいます。このような汎用性のあるデータ構造により、AIモデルが異なるハードウェア間で感覚を迅速に移行・一般化できるようになり、より多くの形状のロボットが正確な操作能力を迅速に習得できるようになります。
身体知能の強化:「見る」から「触る」へ
長年にわたって、ロボットの操作は視覚に依存していましたが、透明な物や明かりの弱い環境、精密な組み立て作業では視覚が「機能しなくなる」ことがあります。「バイコウ-VTouch」の公開は、ロボットが単なる「視覚主導」から「視覚と触覚の融合」への新しい段階に進化していることを示しています。このデータセットは、家庭用家政、工業精密製造、医療補助などのシーンにおいて、より堅牢な下位サポートを提供するでしょう。
