如何让 AI 出图从“抽卡”变成“精修”?AI Master 分享了自己的独家秘籍,核心就一句话:用 JSON 结构化提示词替代自然语言。
很多人遇到过这种情况,花半小时生成一张满意的图,然后想改个椅子颜色,结果整张图全崩了。原因很简单,你把主体、灯光、材质、构图全揉在一段话里,模型每次都得重新猜你哪句话对应哪个元素,猜错了就连带改掉你没让它动的东西。
JSON 提示词的好处是给每个元素分配一个独立字段。扶手椅是扶手椅,灯光是灯光,相机参数是相机参数。你要改颜色,模型精确知道动哪个槽位,其余保持像素级一致。
实操流程也不复杂。把参考图丢进 Gemini,让它把图片信息提取为结构化 JSON,4 秒出结果。每个物体都有独立条目,包含材质、颜色、位置,你直接编辑对应字段就行。AI Master 演示了只改“扶手椅颜色”从奶油色到酒红色,地毯没动、灯没变、视角完全一致。
这个方法能高效的前提是模型本身支持结构化理解。Gemini 原生架构能理解元素间的关系,JSON 等于在用它的母语跟它对话。但同样的方法放到 Midjourney 上反而更差,因为 MJ 本身是为氛围感和美学探索设计的,结构化反而限制了它的发挥。
AI Master 还分享了几个实用的使用场景。例如,风格迁移,从参考图中只提取“怎么拍的”而非“拍了什么”,包括布光方案、镜头型号、调色倾向,然后把这套摄影 JSON 应用到完全不同的主体上。写具体摄影器材、参数的名称很关键,比如“85mm”和“人像镜头”出来的结果差别很大,因为模型是在海量带标注照片上训练的,真实器材名能精确激活对应的视觉特征。
对于角色一致性,可以用一个叫“角色圣经”的锁定 JSON 块,写一次,逐字粘贴到不同场景提示词中,只改场景和灯光字段,角色身份不动。有个反直觉的细节,参考图控制在 6 张以内效果最好,超过 6 张,模型反而会收到冲突信号导致准确性下降。如果已经上传了参考图,文字描述就要尽量精简,只标注 Character A 就够了,两个信息源有时会互相打架。
同样的 JSON 方法用在 Veo 3.1 视频生成上也成立,结构相同只需加上物体运动、镜头变化、时长和音频相关的描述即可。有个容易踩的坑,如果配音生成出来没声音,检查角色是否被描述为幼童,Veo 3.1 有安全协议会在场景出现幼童时禁止音频生成,把年龄调到年轻成人就恢复了。
JSON 提示词的本质不是让 AI 更聪明,是让你和 AI 的沟通变得可靠,让生成结果更可控,让提示词可复用。从每次都要抽卡,变成一次只动一个变量的确定性系统。