【AI教程】可灵 2.6 动作控制,如何实现动作迁移

可灵2.6动作控制支持将真人视频中的真实动作精准迁移到任意角色图像(如卡通、雕像等),无需专业动捕设备。动作由视频决定,外观由图片定义,提示词应聚焦环境、镜头与光影。分步处理背景与动作,可大幅提升素材复用性与创作自由度。

发布于2026年3月17日 14:39
编辑零重力瓦力
评论0
阅读36

Freepik 分享了通过可灵 2.6 的动作控制功能,把一个真人的视频动作,直接 “套” 到完全不同角色身上的完整流程,大大降低动捕的成本!

先说一下基本原理,可灵的动作控制不是重新生成动作,而是把视频里的真实动作提取出来,再迁移到一张角色图像上。简单说,动作来自视频,外观来自图片,两者被组合成一个新的动态画面。

比如用一段拳击手打空拳的视频作为动作参考,再准备一张角色图像。这个角色可以是人物、卡通角色,甚至是一尊雕像。把图片放进起始图像,把视频作为动作参考,可灵会从视频中解析身体动作,然后驱动图像里的角色去完成同样的动作。

这里有个很关键的小技巧。写提示词时不要再描述动作本身。动作已经完全由参考视频提供,如果再写 “出拳”、“打拳”,反而可能干扰动作迁移。提示词更适合用来控制其他部分,比如环境氛围、镜头语言或者光线。

例如可以设定一个中近景构图,从大腿以上开始取景,镜头略微仰拍,围绕角色做稳定的环绕运动。这样生成的视频既保留了动作的真实感,又带有明显电影镜头的风格。

在参数上也有一些需要注意的地方。动作控制目前支持的分辨率在 720p-1080p,不支持更高分辨率。还有一个 “场景来源” 的设置,如果视频和图片的画幅不同,它会决定最终画面的比例是跟随视频还是图像。

如果想换环境,通常更好的办法不是直接在动作控制里改背景,而是先用图像模型(例如 Nano Banana Pro)处理角色图片。比如把角色背景改成夜间拳击擂台,再把这张新图重新作为起始图像导入动作控制。动作仍然来自同一段视频,但视觉环境已经完全不同。

当你把动作、角色外观和环境这三件事分开处理之后,玩法就会一下子变多。同一段表演可以给不同角色使用,也可以放进完全不同的场景里。动作成为一种可以复用的素材,而不是一次性的拍摄结果。

相关文章

新方法让 AI 模型在训练中实现轻量化提速
AI 教程知识
2026年4月14日
0 条评论
小创

新方法让 AI 模型在训练中实现轻量化提速

MIT 团队联合多机构开发 CompreSSM 技术,在 AI 模型训练过程中同步完成压缩。核心创新在于引入控制理论数学工具,利用汉克尔奇异值衡量各状态重要性,仅需完成 10%训练即可确定可丢弃部分,后续 90%训练以更小规模进行。实验显示压缩模型保持接近完整准确率,训练速度提升 1.5 至 4 倍,将压缩从事后补救转为训练内生环节,为 AI 系统开发提供从“越大越好”向“适度精准”转变的新范式。

#MIT
阅读全文
可解释性研究:拆解大语言模型的思维黑箱
AI 教程知识
2026年4月13日
0 条评论
小创

可解释性研究:拆解大语言模型的思维黑箱

Anthropic 可解释性研究团队致力于拆解大语言模型“思维黑箱”。团队通过电路追踪、情感概念分析、人格向量提取等技术,揭示模型内部运作机制,发现其具备有限自我内省能力。研究正从描述性理解向可编程的预测性控制跃迁,为解决偏见、滥用等安全问题提供新路径。

#Anthropic
阅读全文
Anthropic“宪法分类器”技术,拦截大模型越狱攻击
AI 教程知识
2026年4月13日
0 条评论
小创

Anthropic“宪法分类器”技术,拦截大模型越狱攻击

Anthropic 发布“宪法分类器”技术,通过合成数据与分类器相结合的方式防御大模型越狱攻击。实测显示,该技术将越狱成功率从 86%降至 4.4%,同时误拒正常请求率仅上升 0.38%。团队举办开放挑战赛验证系统稳健性,最终发现通用越狱漏洞,为后续迭代优化提供数据支撑。

#AI 安全#Anthropic
阅读全文
互动讨论

评论区

围绕《【AI教程】可灵 2.6 动作控制,如何实现动作迁移》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。