#视频生成
AI 结合真人实拍制作死侍动画工作流
博主enigmatic_e公开一套AI+实拍死侍动画工作流:真人表演动作拍摄后,用Viggle绑定死侍形象生成绿幕素材,再经AnimateDiff优化流畅度,Runway将静态背景转为动态,最终在剪辑软件中合成并添加晃动镜头特效。
真人实拍与 AI 结合制作特效视频工作流
创意博主enigmatic_e公开一套低成本特效视频工作流:用Ideogram生成AI背景,Viggle自动抠像合成绿幕效果,AE完成实拍人物与背景合成,最后通过ComfyUI提升画质——无需专业设备,个人也能制作电影级特效。
Luma Dream Machine v1.6 支持 5 种运镜方式
Luma Dream Machine v1.6上线,文生视频与图生视频均支持5种运镜:移动、平移、推进、环绕、起吊臂;输入“camera”即可调出菜单。目前仅Luma与可灵(限文生视频)具备该能力,显著提升AI视频的镜头表现力。
Runway 视频延长功能操作教程
Runway Gen-3上线视频延长功能,单次可延5秒或10秒,最多至40秒;需先用Midjourney(推荐Creative模式)生成并放大分镜图,再在Runway图生视频,延长前可输入新提示词引导画面变化。注意提前关闭水印——免费用户暂不可用。
如何让 AI 通过延时摄影实现时间流逝的效果
Luma 可用两张同背景、不同年龄的人脸图(如 Midjourney 生成)生成平滑延时过渡视频,配合“face stays still”提示词稳定构图;多组图像串联剪辑后,能呈现人生跨度、四季更迭等时间流逝效果,操作简单且适用场景广泛。
AI 创意短片:如果他们生活在现代
AI创意短片《如果他们生活在现代》用幽默手法重构六位历史人物的当代生活:贝多芬打碟、爱因斯坦登TED讲台、埃及艳后逛免税店、莫扎特试听黑胶、梵高在咖啡馆作画、莎士比亚执导新片;图像由Freepik新模型Mystic生成,视频由可灵制作。
Runway 结合实景拍摄 制作逼真的视频特效
Runway 新推实景融合特效工作流:用户拍摄真实画面后,截取关键帧作为首帧或尾帧输入 Gen-3,配合提示词即可生成如植物瞬时生长等自然动态特效,再用剪映或 Premiere 无缝合成,无需绿幕与专业建模,大幅降低高质量视频特效制作门槛。
Runway 自动理解图片内容 并生成与之匹配的视频
Runway Gen-3 新增图生视频功能:上传单张图片,系统自动理解画面内容并生成匹配视频;支持自定义镜头运动与情节走向,提升生成结果的可控性与表现力。
如何使用 Runway 多运动画笔制作真实的场景
Runway 多运动画笔通过分层+差异化运动强度,模拟人眼视差:将画面划分为远近不同图层,用5种画笔分别涂抹各层物体,近处运动幅度大、远处小,让生成的动态场景更自然真实。