IT之家附官方详细介绍如下:
在流式三维重建领域,蚂蚁几何精度、灵波流式时序一致性与运行效率的开源平衡,一直是维重行业公认的核心难点。
不同于传统三维重建“先采集、建模后处理”的蚂蚁模式,流式重建要求系统“边看边理解”,灵波流式一边接收新画面,开源一边持续完成定位与建图,维重同时还要严格控制计算与存储开销,建模这对模型的蚂蚁设计提出了极高要求。
针对这一痛点,灵波流式我们打造了 LingBot-Map,开源以纯自回归式建模为核心,维重基于几何上下文 Transformer,建模在不依赖未来帧信息的前提下,逐帧处理当前及历史画面,持续输出精准的相机位姿和深度信息,实时还原场景三维结构,真正实现“所见即所建”。
我们引入了几何上下文注意力机制(GCA),能够高效组织与利用跨帧几何信息,在保留关键历史数据的同时,大幅减少冗余计算,兼顾重建质量与运行效率。
这一设计借鉴了经典 SLAM 系统对空间信息分层管理的思路,但突破了传统方法依赖手工设计和复杂优化的局限,将核心逻辑交由模型统一学习完成,在长序列场景下也能保持稳定表现。
多个权威基准完成严苛测试:
在 Oxford Spires 数据集(大尺度、复杂光照、高标准)上:
在大场景重建中展现出更强的稳定性。
在 ETH3D、7-Scenes、Tanks and Temples 等多个主流基准上,LingBot-Map 在位姿估计和三维重建质量两个维度全面领先现有流式方法。
其中 ETH3D 基准:重建 F1 分数达到 85.70,较第二名提升超过 8%,场景还原精度大幅提升。
除精度外,LingBot-Map 还兼顾实时性与长时稳定运行能力:
这意味着,在机器人导航、避障、操作、交互等需要连续在线处理的真实场景中,它能稳定输出可靠的空间感知结果,为上层应用提供坚实支撑。
自今年 1 月以来,我们相继开源:
围绕空间感知、具身决策、世界模拟等关键环节,持续夯实具身智能“智能基座”的技术布局。此次 LingBot-Map 的开源,进一步补齐了实时空间理解与在线三维建图的关键能力拼图。
目前,LingBot-Map 的模型和代码已正式在 Hugging Face 和 Model Scope 开源。我们期待更多开发者、研究团队加入进来,一起探索流式三维重建的更多可能,推动技术落地,让机器人更稳定、更高效地理解和适应真实物理世界,赋能更多行业创新。
开源地址:
魔搭社区 ModelScope:
HuggingFace:
GitHub:
Paper:
Homepage: