昨日、オープンソースされた高精度空間認識モデルのLingBot-Depthに続いて、アリババグループ傘下のリンボテクノロジーは本日、身体知能大規模モデルであるLingBot-VLAを全面的にオープンソースすることを発表しました。リアルなロボット操作シーンを対象とした「知能基盤」として、LingBot-VLAは複数の本体間、複数のタスク間で汎化能力を実現し、後学習コストを大幅に削減し、「1つの脳で多数の機械」の実用化を推進しています。
上海交通大学がオープンソースした身体知能評価基準GM-100(100の実際の作業タスクを含む)テストでは、LingBot-VLAは3つの異なる実際のロボットプラットフォーム上で、Pi0.5の13.0%と比較して、跨本体汎化平均成功確率を15.7%(Depthなし)に向上させました。深度情報(Depthあり)を導入することで、空間認識能力が強化され、平均成功確率はさらに17.3%に上昇し、実機評価の成功記録を更新し、実際のシナリオにおける性能上の優位性を証明しました。

(図説:GM-100実機評価において、LingBot-VLAはPi0.5を上回る跨本体汎化性能を示す)
RoboTwin2.0のシミュレーションベンチマーク(50のタスクを含む)の評価では、強い環境ランダム化の干渉(例えば照明、雑物、高さの変動)に直面して、LingBot-VLAは独自の学習可能なクエリアライメント機構により、深さ情報を高度に統合し、操作成功確率がPi0.5より9.92%向上し、仮想シミュレーションから実際の導入まで、全体的な性能のリードを実現しました。

(図説:RoboTwin2.0シミュレーション評価において、LingBot-VLAはPi0.5を上回る跨タスク汎化性能を示す)
長期間にわたり、本体の違い、タスクの違い、環境の違いなどのため、身体知能モデルの実装には大きな汎化性の課題がありました。開発者は、異なるハードウェアやタスクに対して大量のデータを繰り返し収集して後学習を行う必要があり、これにより導入コストが直接上昇し、業界ではスケーラブルな展開ルートが形成されませんでした。
これらの問題に対処するため、LingBot-VLAは20,000時間以上の大量実機データに基づいて事前トレーニングを行い、9種類の主流二アームロボット構成(AgileX、Galaxea R1Pro、R1Lite、AgiBot G1など)をカバーしており、同じ「脳」が異なる構成のロボットにシームレスに移行できるようにし、タスクや環境の変化時にも成功率と耐障害性を維持します。高精度空間認識モデルであるLingBot-Depthと併用することで、LingBot-VLAはより高品質な深度情報表現を得ることができ、視力のアップグレードにより「より正確に見、より正確に動作する」ことを実現します。
LingBot-VLAは堅実な基盤能力により、下流タスクの適合門檻を大幅に低下させ、80件のデモデータのみで高品質なタスク移行を実現できます。また、ベースコードライブラリの深い最適化により、トレーニング効率はStarVLA、OpenPIなどの主要フレームワークの1.5〜2.8倍となり、データと計算リソースのコストの両方を削減しました。
今回のオープンソースでは、モデル重みだけでなく、データ処理、効率的な微調整および自動評価を含む完全なコードライブラリも同時に公開されました。この取り組みにより、モデルトレーニングのサイクルが大幅に短縮され、商業化への計算リソースと時間の門檻が低くなり、開発者が自社のシナリオに迅速に適合でき、モデルの実用性が大幅に向上します。
アリババリンボテクノロジーCEOのジュ・シンは、「身体知能が大規模に応用されるためには、効率的な身体知能基盤モデルが不可欠であり、これは利用可能性と利用コストを直接決定します。私たちはLingBot-VLAのオープンソースを通じて、身体知能の限界を探求し、身体知能の研究開発をすぐに再利用可能で検証可能、そしてスケーラブルな実用段階へと推進したいと考えています。AIが物理世界に急速に浸透・普及し、誰一人として無視されることなくサービスを提供できるよう支援したいと思っています。」と語りました。
LingBot-VLAはアリババがオープンソースした最初の身体知能基盤モデルであり、アリババがAGIの開発で行った新たな探求成果でもあります。ジュ・シン氏は、「アリババグループはオープンソースとオープンな模範を通じてAGIを探索しています。そのためInclusionAIを構築し、基礎モデル、マルチモーダル、推論、新しいアーキテクチャおよび身体知能を含む包括的な技術体系とオープンソースエコシステムを構築しました。LingBot-VLAのオープンソースは、InclusionAIの重要な実践です。」と語りました。「世界中の開発者と協力し、身体知能技術のイテレーションとスケーリングの応用を加速し、AGIの到来をより早く実現したいと思います。」
