蚂蚁灵波开源 LingBot-World:打造具身智能的“实时可交互”世界模型
2026年1月29日 14:59·AIBase
继空间感知与具身大模型之后,蚂蚁灵波团队正式开源了其交互式世界模型

LingBot-World 解决了具身智能训练中“真机数据稀缺、成本高昂”的核心痛点。通过在虚拟环境中模拟物理规律,智能体可以进行低成本的“试错”,并将习得的行为因果关系迁移至现实世界。
该模型展现出多项突破性技术特性:
长时序一致性:实现了近10分钟的连续稳定生成。即使镜头移开60秒后返回,场景中的物体结构与外观依然保持一致,有效解决了视频生成中的“细节塌陷”问题。
高保真实时交互:支持动作驱动生成(Action-conditioned generation),生成吞吐量约 16FPS,端到端交互延迟控制在 1秒以内。用户可通过键盘、鼠标或文本指令实时改变环境,如调整天气或视角。
Zero-shot 泛化能力:采用混合数据策略,结合网络视频与虚幻引擎(UE)合成管线进行训练。用户仅需输入一张真实的城市照片或游戏截图,模型即可生成对应的可交互视频流,无需针对特定场景额外训练。
目前,蚂蚁灵波团队已将
Website:
https://technology.robbyant.com/lingbot-world
Model:
https://www.modelscope.cn/collections/Robbyant/LingBot-world
https://huggingface.co/collections/robbyant/lingbot-world
Code:
https://github.com/Robbyant/lingbot-world
划重点:
🌍 数字演练场:
能够模拟真实的物理因果关系,为 AI 机器人提供低成本试错空间。LingBot-World ⏱️ 超长记忆力:支持长达10分钟的逻辑一致性生成,告别长视频常见的“物体变形”现象。
🎮 实时操控感:具备16FPS 的生成速率,实现了毫秒级的动作响应与环境即时反馈。
🖼️ 极简部署:具备 Zero-shot 能力,单张照片即可“幻化”为可交互的3D 模拟世界。




