ChatGPT 新图像模型把 AI 味压到了更低
两年前,判断一张图是不是 AI 生成,往往不用费太多力气。尤其碰到带文字的图片,破绽几乎一眼可见。比如让图像模型生成一份墨西哥餐厅菜单,它很可能会凭空造出“enchuita”“churiros”“burrto”“margartas”这种像英文又不像菜名的词。现在,这个时代基本过去了。
当测试 OpenAI 最新的 ChatGPT Images 2.0 时,模型已经能生成一份足以直接摆进餐厅使用的墨西哥菜单,普通顾客大概率不会察觉异常。当然,文中把 ceviche 标到 13.50 美元,多少还是会让人对鱼的新鲜程度起点疑心。

下面这张是两年前 DALL-E 3 生成的结果。那时候, ChatGPT 还不具备图像生成功能。

过去, AI 图像生成器在拼写上的短板几乎是行业通病。一个关键原因在于,它们大多基于扩散模型 ( diffusion models )。这类模型的工作方式,是从噪声中一步步重建图像。 Lesan AI 创始人兼 CEO Asmelash Teka Hadgu 在 2024 年接受 TechCrunch 采访时解释过,扩散模型本质上是在重构输入内容,而图像里的文字只占极少数像素,模型更容易优先学习那些覆盖面积更大的视觉模式。说白了,在这种训练逻辑下,文字一直不是重点。
后来,研究人员开始尝试别的路径,比如自回归模型 ( autoregressive models )。这类模型会预测图像接下来应该长什么样,工作方式更接近大语言模型 ( LLM )。这也解释了为什么新一代图像模型在排版、文字和复杂结构上突然进步这么快。不过, OpenAI 在本周的媒体沟通会上拒绝回答一个关键问题。 ChatGPT Images 2.0 到底采用了哪一类底层模型,公司没有明说。
OpenAI 给出的说法是,新模型具备“思考能力”。按照官方描述,这种能力让它可以联网搜索、基于一条提示词生成多张图,并对生成结果进行复核。落到实际用途上,这意味着 Images 2.0 不只是会画图,它已经能更稳定地生产营销素材,比如自动适配不同尺寸的广告图,也能生成多格漫画这种过去很容易翻车的复杂内容。
OpenAI 还表示, Images 2.0 在非拉丁文字的渲染上也更强,日语、韩语、印地语、孟加拉语这些语言的文本表现都有提升。模型的知识截止时间是 2025 年 12 月。如果提示词涉及更晚发生的新闻事件,生成内容的准确性可能会受影响。
按照 OpenAI 在新闻稿中的表述, Images 2.0 在图像生成的精确度和保真度上达到了一个前所未有的水平。它不仅能理解更复杂的视觉概念,也能更有效地把这些要求真正落实到图像里。指令遵循、细节保留,以及那些过去最容易让图像模型失手的元素,比如小尺寸文字、图标、用户界面元素、密集构图和细微风格约束,现在都被列为它的强项,输出分辨率最高可达 2K 。
代价也很直接。它不像在 ChatGPT 里打一行问题那样几乎即时返回。生成复杂内容需要时间,但速度也没有慢到不可接受。像一组多格漫画,几分钟内就能完成。这对多数内容生产场景来说,已经够用了。
OpenAI 表示,从周二起,所有 ChatGPT 和 Codex 用户都可以使用 Images 2.0 。付费用户能够生成更高级的输出结果。公司也会同步开放 gpt-image-2 API ,价格将根据输出质量和分辨率来定。


