无需 3D 模型 / 物理引擎:谷歌 DeepMind 联合开发力提示技术,AI 生成视频可模拟真实运动

2025-06-04 发布 · 浏览33次 · 点赞0次 · 收藏0次

6 月 4 日消息,科技媒体 The Decoder 昨日(6 月 3 日)发布博文,报道称谷歌 DeepMind 团队携手布朗大学,为视频生成模型开发“力提示”(force prompting)技术,可以在无需 3D 模型或物理引擎的情况下,生成逼真的运动效果。

用户只需指定力的方向和强度,就能操控 AI 生成的视频内容,该技术支持全局力(如风吹过整个画面)和局部力(如特定点的敲击)两种力量。这些力以矢量场形式输入系统,随后被转化为自然流畅的运动。

Deepmind's

研究团队基于 CogVideoX-5B-I2V 视频模型,加入 ControlNet 模块处理物理控制数据,信号通过 Transformer 架构生成视频,每段视频包含 49 帧,仅用 4 台 Nvidia A100 GPU 训练一天完成。

训练数据完全为合成:全局力数据包括 1.5 万段不同风力下旗帜飘动的视频;局部力数据则有 1.2 万段滚动球体和 1.1 万段花朵受冲击反应的视频。

在生成过程中,文本描述中在加入“风”或“气泡”等物理术语后,模型会自动建立正确的力与运动关系。训练样本结合文本提示、起始图像和物理力(全局力为完整矢量场,局部力为方向、位置和强度的动态信号),并通过随机化背景、光线和视角增加多样性。

尽管训练数据有限,模型展现出强大的泛化能力,能适应新物体、材质和场景,甚至掌握简单物理规则,如相同力下,轻物移动距离比重物远。

用户测试中,“力提示”技术在运动匹配度和真实感上优于纯文本或运动路径控制的基准模型,甚至超越依赖真实物理模拟的 PhysDreamer(仅在图像质量上稍逊)。然而,复杂场景中仍存缺陷,例如烟雾有时无视风力,人体手臂偶尔像布料般移动。

DeepMind 首席执行官 Demis Hassabis 近期表示,新一代 AI 视频模型(如 Veo 3)正逐步理解物理规则,不再局限于文本或图像处理,而是开始表征世界的物理结构。他认为这是通向更通用 AI 的关键一步,未来 AI 可能不再仅仅依赖数据,而是能在模拟环境中通过经验学习。

附上参考地址

无需 3D 模型 / 物理引擎:谷歌 DeepMind 联合开发力提示技术,AI 生成视频可模拟真实运动 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。