智源发布多模态世界大模型悟界·Emu3.5,可实现跨场景具身操作

AI快讯网 10月30日消息,智源发布多模态世界大模型 Emu3.5,以自回归方式实现了对多模态序列的“Next-State Prediction (NSP)”,获得了可泛化的世界建模能力。在场景应用层面,模型不仅能实现跨场景的具身操作、具备泛化的动作规划与复杂交互能力,也能完成文图生成、图片编辑与时空变换。(广角观察)

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!