当前位置:会议论坛 > 正文

蚂蚁灵波开源大招,全靠 LingBot-Depth

发布日期:2026/01/28


近日,蚂蚁集团旗下具身智能公司灵波科技正式开源高精度空间感知模型 LingBot-Depth,搭载该模型的奥比中光 Gemini 330 系列相机,在深度精度和像素覆盖率上已超越顶级深度相机,为机器人空间感知技术突破带来新可能。

机器人与物理世界顺畅交互的核心前提,是精准回答 “我在哪”。但传统空间定位感知易受镜面反射、无纹理表面等影响产生深度误差,导致机器人环境几何信息失真,难以完成精准操作。而 LingBot-Depth 模型通过创新的掩码深度建模(MDM)机制,将传感器天然深度缺失作为 “原生掩码”,利用 RGB 图像视觉上下文信息智能补全缺失深度,成功破解这一痛点。

实测数据显示,该模型在 NYUv2、ETH3D 等主流 3D 视觉基准评测中表现亮眼:室内场景相对误差(REL)较业界主流模型降幅超 70%,稀疏 SfM 任务均方根误差(RMSE)降低约 47%。在实际应用中,它能让灵巧手抓取透明、反光物体的成功率提升 30%~78%,其中透明收纳箱抓取成功率从 0% 跃升至 50%。

更具行业价值的是,LingBot-Depth 无需更换高端传感器,就能让消费级 RGB-D 相机实现超高性能,完美契合工业、服务机器人领域对 “高精度 + 低成本” 感知方案的需求。目前,蚂蚁灵波已开源模型代码、检查点,并计划近期开源 300 万个 RGB 深度对(含 200 万真实数据 + 100 万合成数据)。

此次全链路开源不仅为开发者提供了高效的技术底座,更有望倒逼 RGB-D 相机硬件优化升级,提升模型在真实场景中的鲁棒性,加速机器人、自动驾驶汽车等智能产品从技术概念走向落地应用