可灵 2.6 的 Motion Control,可以把一张人物的静态图片和一段动作参考视频结合起来使用。在视频生成过程中,它既能很好地保持人物的一致性,又能比较真实地还原人物的细节动作。

AI 创作博主 Alex 对 Motion Control 的两种模式,“匹配图像” 和 “匹配视频” 做了深入的讲解。搞清楚这两种模式各自的特点和适用场景,能让我们在实际创作时用得更顺手。

“匹配图像” 模式最长可以生成 10 秒的视频,侧重于保留角色本身的细节,比如脸型、皮肤纹理和服装等。系统会在尽量不破坏原始形象的前提下,让静态画面沿着参考动作动起来,所以整体动作幅度会比较克制,适合那些对人物一致性要求很高的场景。

“匹配视频” 模式最多可以生成 30 秒的视频,更关注角色的骨骼动作和镜头运动。像走路、转身、前后景深变化、镜头平移这些空间动作,都会表现得更准确一些。不过为了贴合参考动作,角色有时可能会被拉伸,或者比例上会做一些调整。

Alex 还分享了一个比较经典的 Motion Control 工作流。一般会从 Nano Banana Pro 开始,先生成一张高质量的 “起始帧”,把角色外观先定下来。接着,可以自己拍一段表演视频,作为 Motion Control 的动作参考。

当然,你也可以直接用可灵的文生视频功能,生成一段动作参考视频。只需要描述一些简单、基础的动作,比如站立、行走、跳跃之类就够了。这一步不需要追求画面质量,只要动作清楚,因为这段视频主要是作为后续反复使用的动作模板。

最后,把这段动作参考视频交给可灵 2.6 的 Motion Control,再配合最初生成的角色图片,就能把动作 “套” 到角色身上了。文字提示在这里是可选的,更多是用来影响背景、光线等环境因素,真正决定角色怎么动的,还是那段动作参考视频。

通过可灵 2.6 的 Motion Control,我们可以把同一套动作稳定地应用到不同角色、不同场景中,这也是它在视频制作里最常被用到的地方。