如何用 AI 制作超逼真的虚拟网红
Pierrick Chevallier 分享了一套高效AI虚拟网红制作流程:先用Midjourney等工具生成高一致性人像场景图,再通过可灵、Runway等转为带动作的视频,最后用Rendernet完成配音与精准口型同步——支持形象锁定与动作控制,亦可用于个性化“云旅游”。
Midjourney Niji 推出了个性化功能
Niji·journey上线个性化生图功能:用户需在nijijourney.com/rank对至少200张图评分,训练专属审美模型;生成时在提示词末尾加--p即可调用,支持分享或复用他人个性化代码,持续评分还能持续优化匹配度。
15分钟让你的 AI 图像栩栩如生
AI创作者Framer分享了一套15分钟搞定的AI动画工作流:用Midjourney定角色、实拍动作视频,再通过Viggle融合动作与形象,DomoAI以原图风格转绘强化一致性,最后去背合成至目标场景(如花卉生长视频),全程无需绿幕与动捕。
9 个 Luma Dream Machine v1.6 运镜效果视频演示
Luma Dream Machine v1.6 新增镜头运动控制功能,仅需在提示词中加入 Pan、Push、Pull、Orbit、Crane 等关键词,即可精准生成平移、推进、拉远、环绕、吊臂升降等运镜效果。9 个实拍级演示视频直观呈现其对动态叙事与画面表现力的实质性提升。
Luma v1.6 终于可以手动设置镜头运动方式了
Luma Dream Machine v1.6 上线手动镜头控制,支持推进、拉出、平移、环绕、吊臂升降等12种运镜方式;目前需在提示词框输入“camera”调出设置菜单,操作路径尚不直观,后续将优化交互。
如何用 AI 在5分钟内制作一个精致的 3D 模型
用Tripo AI工具,5分钟即可从文字或T-pose三视图生成高精度3D模型,支持自动骨骼绑定、基础动画预览及GLB/FBX等多格式导出;中文界面,每月600免费积分约可生成24个基础模型。
Runway 视频延长功能操作教程
Runway Gen-3上线视频延长功能,单次可延5秒或10秒,最多至40秒;需先用Midjourney(推荐Creative模式)生成并放大分镜图,再在Runway图生视频,延长前可输入新提示词引导画面变化。注意提前关闭水印——免费用户暂不可用。
如何让 AI 通过延时摄影实现时间流逝的效果
Luma 可用两张同背景、不同年龄的人脸图(如 Midjourney 生成)生成平滑延时过渡视频,配合“face stays still”提示词稳定构图;多组图像串联剪辑后,能呈现人生跨度、四季更迭等时间流逝效果,操作简单且适用场景广泛。
Runway 结合实景拍摄 制作逼真的视频特效
Runway 新推实景融合特效工作流:用户拍摄真实画面后,截取关键帧作为首帧或尾帧输入 Gen-3,配合提示词即可生成如植物瞬时生长等自然动态特效,再用剪映或 Premiere 无缝合成,无需绿幕与专业建模,大幅降低高质量视频特效制作门槛。