空间智能迎来重要开源进展。1月27日,蚂蚁集团旗下具身智能公司灵波科技宣布开源高精度空间感知模型 LingBot-Depth。

该模型基于奥比中光 Gemini330系列双目3D 相机提供的芯片级原始数据,专注于提升环境深度感知与三维空间理解能力,旨在为机器人、自动驾驶汽车等智能终端赋予更精准、更可靠的三维视觉,在“看清楚”三维世界这一行业关键难题上取得重要突破。这也是蚂蚁灵波科技在2025外滩大会后首次亮相后,时隔半年在具身智能技术基座方向公布重要成果。

在NYUv2、ETH3D等权威基准评测中,LingBot-Depth展现出代际级优势:相比业界主流的 PromptDA与PriorDA,其在室内场景的相对误差(REL)降低超过70%,在挑战性的稀疏SfM 任务中RMSE误差降低约47%,确立了新的行业精度标杆。

QQ20260127-122552.png

(图说:在最具挑战的稀疏深度补全任务中,LingBot-Depth性能整体优于现有多种主流模型。图中数值越低代表性能越好。)

在家庭和工业环境中,玻璃器皿、镜面、不锈钢设备等透明和反光物体物体十分常见,但却是机器空间感知的难点。传统深度相机受制于光学物理特性,在面对透明或高反光材质时,往往无法接收有效回波,导致深度图出现数据丢失或产生噪声。

针对这一行业共性难题,蚂蚁灵波科技研发了“掩码深度建模”(Masked Depth Modeling,MDM)技术,并依托奥比中光 Gemini330系列双目3D 相机进行 RGB-Depth 数据采集与效果验证。当深度数据出现缺失或异常时,LingBot-Depth 模型能够融合彩色图像(RGB)中的纹理、轮廓及环境上下文信息,对缺失区域进行推断与补全,输出完整、致密、边缘更清晰的三维深度图。值得一提的是,LingBot-Depth 模型已通过奥比中光深度视觉实验室的专业认证,在精度、稳定性及复杂场景适应性方面均达到行业领先水平。

实验中,奥比中光 Gemini330 系列在应用LingBot-Depth 后,面对透明玻璃、高反光镜面、强逆光及复杂曲面等极具挑战的光学场景时,输出的深度图依然平滑、完整,且物体的轮廓边缘非常锐利,其效果显著优于业内领先的3D 视觉公司 Stereolabs 推出的 ZED Stereo Depth 深度相机。这意味着在不更换传感器硬件的前提下,LingBot-Depth 可显著提升消费级深度相机对高难物体的处理效果。

5bb53c659f33ffc0aefe4508f26d8607.png

(图说:[上图]搭载 LingBot-Depth 后,奥比中光 Gemini330系列在透明及反光场景下深度图的完整性和边缘清晰度明显提升,[下图]其效果优于业界领先的ZED 深度相机)

LingBot-Depth 的优异性来源于海量真实场景数据。灵波科技采集约1000万份原始样本,提炼出200万组高价值深度配对数据用于训练,支撑模型在极端环境下的泛化能力。这一核心数据资产(包括2M 真实世界深度数据和1M 仿真数据)将于近期开源,推动社区更快攻克复杂场景空间感知难题。

据了解,蚂蚁灵波科技已与奥比中光达成战略合作意向。奥比中光计划基于 LingBot-Depth 的能力推出新一代深度相机。

本周蚂蚁灵波将陆续开源多款具身智能方向模型。