继空间感知与具身大模型之后,蚂蚁灵波团队正式开源了其交互式世界模型LingBot-World。该模型旨在为具身智能、自动驾驶等领域提供一个高保真、逻辑一致且可实时操控的“数字演练场”。

image.png

LingBot-World 解决了具身智能训练中“真机数据稀缺、成本高昂”的核心痛点。通过在虚拟环境中模拟物理规律,智能体可以进行低成本的“试错”,并将习得的行为因果关系迁移至现实世界。

该模型展现出多项突破性技术特性:

  • 长时序一致性:实现了近10分钟的连续稳定生成。即使镜头移开60秒后返回,场景中的物体结构与外观依然保持一致,有效解决了视频生成中的“细节塌陷”问题。

  • 高保真实时交互:支持动作驱动生成(Action-conditioned generation),生成吞吐量约 16FPS,端到端交互延迟控制在 1秒以内。用户可通过键盘、鼠标或文本指令实时改变环境,如调整天气或视角。

  • Zero-shot 泛化能力:采用混合数据策略,结合网络视频与虚幻引擎(UE)合成管线进行训练。用户仅需输入一张真实的城市照片或游戏截图,模型即可生成对应的可交互视频流,无需针对特定场景额外训练。

目前,蚂蚁灵波团队已将LingBot-World的模型权重及推理代码全面开源。

Website:

https://technology.robbyant.com/lingbot-world

Model:

https://www.modelscope.cn/collections/Robbyant/LingBot-world

https://huggingface.co/collections/robbyant/lingbot-world

Code:

https://github.com/Robbyant/lingbot-world

划重点:

  • 🌍 数字演练场:LingBot-World能够模拟真实的物理因果关系,为 AI 机器人提供低成本试错空间。

  • ⏱️ 超长记忆力:支持长达10分钟的逻辑一致性生成,告别长视频常见的“物体变形”现象。

  • 🎮 实时操控感:具备16FPS 的生成速率,实现了毫秒级的动作响应与环境即时反馈。

  • 🖼️ 极简部署:具备 Zero-shot 能力,单张照片即可“幻化”为可交互的3D 模拟世界。