大家都知道,用 AI 做图像和视频,就像抽卡。不停生成、碰运气,偶尔出一张不错的,但很难稳定复现,更谈不上掌控镜头。
在这期视频中,AI Master 分享了一套方法,把 “碰运气” 变成 “可控流程”。从一张图出发,精控每个拍摄角度,制作一部精致的影片。
思路很简单,只需三步。
第一步,做一张 “主镜头” 图像。(可采用任何图像生成模型)
这不是随便一张图,而是整个项目的基础。角色长什么样,穿什么,场景在哪,光线是冷是暖,整体是写实还是风格化,这些都在这一步确定下来。后面所有角度、所有视频,都从这张图衍生。
关键点不在于提示词有多复杂,而在于你是否真的想清楚自己要什么。先把角色和风格锁死,再继续往下走。如果这张图你自己都不满意,后面只会不断返工。
第二步,用参考图生成 “无限角度”。(须使用 Nano Banana Pro、Qwen Image Edit 这类图像编辑模型)
很多人生成不同角度时,会把原来的描述再写一遍,例如,4K、电影感、真实光影……其实没必要。把第一步的主图作为参考图上传,AI已经能读取角色、风格和光线信息。你只需要告诉它,我要什么角度。
比如:
特写、广角、鸟瞰、低角度、高角度、荷兰角、微距、过肩、手持。
你会发现,只改变摄像机角度,其他元素基本保持一致。角色没变,衣服没变,环境没变,光线没漂移。这就是参考图提示的价值。把“风格控制权”交给图像本身,而不是每次重新用文字描述。
不同角度不只是视觉变化,它们自带叙事功能,例如:
1. 特写让观众贴近情绪
2. 大特写放大冲突
3. 低角度强化力量感
4. 高角度让人物显得孤立
5. 鸟瞰建立空间关系
6. 广角交代环境
7. 荷兰角制造不稳定
8. 手持增加临场感
当你开始从 “镜头语言” 角度思考,而不是只想着 “生成一张好看的图”,创作方式就变了。
第三步,把图像变成真正的镜头。
这一步用的是带首帧、尾帧控制的视频模型,比如可灵3.0。最简单的方式,是上传一张图,让它做一个缓慢推进或轻微运动。画面会动起来,但结构还是单镜头。
更有意思的是首帧+尾帧控制。上传两个不同角度的图,模型会自动生成从A到B的转场,比如从虚焦到清晰,从广角推到特写。你不用手动剪辑,它会补齐中间的运动过程。
再往上,就是多镜头模式。每个镜头3到5秒,分别设置起始帧和动作描述,最后生成一段完整序列。广角开场,切特写,再拉到鸟瞰,全程角色一致。你不是在拼素材,而是在安排镜头顺序。
这里有个很重要的变化
你不再反复 “生成片段再看运气”,而是先设计镜头结构,再让模型执行。
从一张基础图开始,到十个角度,再到三镜头组合,最后拼成30秒的短片。角色一致,风格一致,光影稳定。改变的只有角度和运动。
这也是业余玩法和成熟工作流之间的差别。前者在追求 “出图质量”,后者在追求 “镜头控制”。
当你把主镜头锁定,把参考图用好,再利用首尾帧和多镜头功能,AI不再是随机生成工具,而是一个可调度的摄影系统。
从某种角度看,这更像是在学导演,而不是学提示词。
