Runway 学院,教你如何固定人物形象和声音

通过生成角色多角度参考图集并配合说话视频,可让 Seedance 2 等模型在后续创作中精准锁定人物外观与声音。该方法不仅适用于写实角色,用户只需上传个人照片及语音片段,即可快速构建数字分身,实现跨场景的个性化内容生成。

发布于2026年4月30日 11:46
编辑小创
评论0
阅读0

具体做法是先用 Nano Banana Pro (或者 GPT-Image-2)生成一张 2K 分辨率的角色多角度参考图集,把同一个角色的正面侧面各种角度塞进一张图里,给视频模型提供足够多的视觉上下文。然后切到视频模式,把这张图集作为参考,选一个支持原生音频的模型(例如 Seedance 2),写个简单的提示词让角色开口说话,提示词里记得加一段声音描述,比如音色、语调之类的。

关键一步在后面。拿到角色说话的视频之后,把参考图集和这段说话视频同时提交给 Seedance 2,之后不管你写什么新提示词,角色的外观和声音都能保持一致。相当于你用图集锁定了角色形象,用说话视频锁定了角色的生意,两个锚点一起用,模型就不会跑偏。

这个流程对写实角色同样适用。上传几张自己的照片加一段自己说话的视频,就能做出自己的数字分身,放到任意场景里。

相关文章

Seedance 2.0 一次生成多镜头序列,提示词是全部关键
AI 教程知识
2026年4月30日
0 条评论
小创

Seedance 2.0 一次生成多镜头序列,提示词是全部关键

AI 博主 Alec 演示利用 Seendace 2.0 通过提示词直接生成含多镜头切换的电影级视频,无需后期剪辑。核心在于提升控制力:从自由发挥的简短描述,到分模块拆解画面,再到带时间戳的逐镜头指令。建议时长控制在 15 秒内,配合角色参考图标记保持形象一致,并善用“预告片”等关键词触发多场景逻辑。该功能让创作者单条提示即可产出完整叙事片段,显著提升短片制作效率。

#Seedance#视频生成
阅读全文
IBM AI 科普:OpenClaw 是怎样工作的
AI 教程知识
2026年4月30日
0 条评论
小创

IBM AI 科普:OpenClaw 是怎样工作的

IBM 技术专家详解 OpenClaw,这款基于 Node.js 的本地智能体框架支持笔记本、虚拟机及树莓派。其采用中心辐射架构,通过适配器统一处理多平台消息,并以元数据按需加载技能的方式优化上下文窗口。尽管具备将 LLM 从回答者转变为执行者的编排能力,但本地运行带来的文件访问权限和提示词注入风险不容忽视,需严格配置隔离环境。该框架为理解智能体 ReAct 模式提供了典型实践参考。

#OpenClaw#智能体框架
阅读全文
OpenClaw vs Hermes Agent,该用哪个?
AI 教程知识
2026年4月29日
0 条评论
零重力瓦力

OpenClaw vs Hermes Agent,该用哪个?

2026 年桌面 AI 助手领域迎来新变局,Hermes Agent 凭借“越用越聪明”的自进化机制挑战老牌 OpenClaw。两者核心差异显著:Hermes 以 AI 决策为中心,记忆深度融入思考过程,安全省心但需耐心训练。OpenClaw 侧重连接能力,支持海量聊天软件与插件,即装即用却需用户自行维护配置。选择取决于更看重自动化效率还是生态扩展性,部分用户甚至选择双端互补使用。

#智能体框架#OpenClaw#Hermes Agent
阅读全文
互动讨论

评论区

围绕《Runway 学院,教你如何固定人物形象和声音》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。