空間智能迎來重要開源進展。1月27日,螞蟻集團旗下具身智能公司靈波科技宣佈開源高精度空間感知模型 LingBot-Depth。
該模型基於奧比中光 Gemini330系列雙目3D 相機提供的芯片級原始數據,專注於提升環境深度感知與三維空間理解能力,旨在爲機器人、自動駕駛汽車等智能終端賦予更精準、更可靠的三維視覺,在“看清楚”三維世界這一行業關鍵難題上取得重要突破。這也是螞蟻靈波科技在2025外灘大會後首次亮相後,時隔半年在具身智能技術基座方向公佈重要成果。
在NYUv2、ETH3D等權威基準評測中,LingBot-Depth展現出代際級優勢:相比業界主流的 PromptDA與PriorDA,其在室內場景的相對誤差(REL)降低超過70%,在挑戰性的稀疏SfM 任務中RMSE誤差降低約47%,確立了新的行業精度標杆。

(圖說:在最具挑戰的稀疏深度補全任務中,LingBot-Depth性能整體優於現有多種主流模型。圖中數值越低代表性能越好。)
在家庭和工業環境中,玻璃器皿、鏡面、不鏽鋼設備等透明和反光物體物體十分常見,但卻是機器空間感知的難點。傳統深度相機受制於光學物理特性,在面對透明或高反光材質時,往往無法接收有效回波,導致深度圖出現數據丟失或產生噪聲。
針對這一行業共性難題,螞蟻靈波科技研發了“掩碼深度建模”(Masked Depth Modeling,MDM)技術,並依託奧比中光 Gemini330系列雙目3D 相機進行 RGB-Depth 數據採集與效果驗證。當深度數據出現缺失或異常時,LingBot-Depth 模型能夠融合彩色圖像(RGB)中的紋理、輪廓及環境上下文信息,對缺失區域進行推斷與補全,輸出完整、緻密、邊緣更清晰的三維深度圖。值得一提的是,LingBot-Depth 模型已通過奧比中光深度視覺實驗室的專業認證,在精度、穩定性及複雜場景適應性方面均達到行業領先水平。
實驗中,奧比中光 Gemini330 系列在應用LingBot-Depth 後,面對透明玻璃、高反光鏡面、強逆光及複雜曲面等極具挑戰的光學場景時,輸出的深度圖依然平滑、完整,且物體的輪廓邊緣非常銳利,其效果顯著優於業內領先的3D 視覺公司 Stereolabs 推出的 ZED Stereo Depth 深度相機。這意味着在不更換傳感器硬件的前提下,LingBot-Depth 可顯著提升消費級深度相機對高難物體的處理效果。

(圖說:[上圖]搭載 LingBot-Depth 後,奧比中光 Gemini330系列在透明及反光場景下深度圖的完整性和邊緣清晰度明顯提升,[下圖]其效果優於業界領先的ZED 深度相機)
LingBot-Depth 的優異性來源於海量真實場景數據。靈波科技採集約1000萬份原始樣本,提煉出200萬組高價值深度配對數據用於訓練,支撐模型在極端環境下的泛化能力。這一核心數據資產(包括2M 真實世界深度數據和1M 仿真數據)將於近期開源,推動社區更快攻克複雜場景空間感知難題。
據瞭解,螞蟻靈波科技已與奧比中光達成戰略合作意向。奧比中光計劃基於 LingBot-Depth 的能力推出新一代深度相機。
本週螞蟻靈波將陸續開源多款具身智能方向模型。
