跳转到主要内容

一句话结论

你需要选这个
精确的尺寸 / 画质控制(含 4K)、要求与 OpenAI 官方完全一致gpt-image-2(官转)
可预测的统一价($0.03/张)、出图速度更快、参数极简gpt-image-2-all(官逆)
两个模型底层都是 OpenAI gpt-image-2,差别在通道性质(官方直连 vs 逆向)、计费方式、端点形态、参数粒度。
后缀 -all 的含义:用来区分官方正式模型和官方逆向模型。本站 -all 后缀 = 逆向模型(官逆),不带后缀 = 官方直连(官转)。

完整对比表

维度gpt-image-2-all(官逆,高性价比)gpt-image-2(官转,正式版)
模型名gpt-image-2-allgpt-image-2
通道性质官方逆向(与 ChatGPT 网页版能力平移)官方直连(OpenAI Images API)
计费方式按次计费:固定 $0.03/次按量计费:按 token 实计,官网同价;本站充值加赠后约 8.5 折
典型成本/张$0.03(不区分尺寸 / 画质)实测 $0.03 – $0.2(与提示词长度、size、quality 正相关)
令牌分组默认分组(Default)默认分组(Default)
令牌类型按次计费按量优先 均可仅支持按量优先(本模型按 token 计费,按次计费令牌不可用)
推荐端点/v1/chat/completions(对话式,主推)/v1/images/generations + /v1/images/edits
备选端点/v1/images/generations/v1/images/edits(仅官方两个端点)
上传图片格式base64 或 https URL(chat 端点)multipart file(编辑接口)
输出图片格式b64_json已带前缀)或 url(R2 CDN)b64_json纯 base64,无前缀
上传图片数(编辑)多张(chat 模式理论上限较高)最多 5 张image[]
mask 局部重绘❌ 不支持✅ 支持(要求带 alpha 通道)
指令遵循优秀
生成速度60 秒100-120 秒,复杂场景 + 4K 可达 3-5 分钟
分辨率控制仅能在提示词里描述,输出在 1K-2K 之间size 参数精确控制,1K / 2K / 3840×2160 4K
常见输出尺寸16:9 → 1672×941、9:16 → 941×1672、1:1 → 1254×12548 个预设 + 任意合法自定义尺寸
画质参数❌ 不支持 qualitylow / medium / high / auto
透明背景❌ 不支持(background: transparent 会报错)
中文提示词✅ 原生✅ 原生
文字渲染高还原度高还原度(high 档位最强)
内容限制较少(更宽松)较严格(OpenAI 官方策略)
API 文档GPT-Image-2-All 概览GPT-Image-2 概览
🔑 如何创建或管理令牌https://api.apiyi.com/token
在控制台创建令牌时可以选择分组(Default 默认即可)和令牌类型(按次计费 / 按量优先)。调用 gpt-image-2(官转)必须使用「按量优先」类型的令牌,否则会因计费方式不匹配被拒。

选型场景

gpt-image-2-all(官逆)的场景

💰 成本可预测

单价稳定 $0.03/张,无尺寸 / 画质阶梯,适合大批量生产、成本必须封顶的场景(信息图、营销物料、电商素材批量)。

⚡ 出图速度优先

约 60 秒出图,比官转快接近一倍,前端实时交互体验更好

🗨️ 对话式工作流

主推 /v1/chat/completions,多轮迭代改图、文生图、带图编辑用同一端点,集成最简单

🌏 中文 + 营销文字

中文提示词原生友好、招牌 / 海报 / 信息图文字还原度高,适合面向中文用户的内容生产

gpt-image-2(官转)的场景

🖼️ 需要精确控尺寸

size 参数支持任意合法尺寸(含 3840×2160 4K)。电影海报、桌面壁纸、视频封面等需要精确控制比例 / 分辨率的场景必选。

🎚️ 需要画质档位

quality 支持 low/medium/high/auto。草稿用 low 省成本,终稿 high 出印刷级效果

🎯 mask 局部重绘

支持 alpha 通道蒙版,精准修改图片局部区域而保留其余部分

🔌 与 OpenAI 官方一致

走官方 Images API,字段与行为完全与官方一致。已有基于 OpenAI 官方 SDK 的代码 / 系统可零改动迁移,长期更稳。

关键差异详解

1. b64_json 格式差异(迁移坑!)

# gpt-image-2-all:b64_json 已含前缀,可直接用作 <img src>
all_b64 = resp["data"][0]["b64_json"]
# "data:image/png;base64,iVBORw0KGgo..."
img_tag = f'<img src="{all_b64}">'  # ✅ 直接用

# gpt-image-2:b64_json 是纯 base64,无前缀,需自己 decode 或拼前缀
official_b64 = resp.data[0].b64_json
# "iVBORw0KGgo..."
with open("out.png", "wb") as f:
    f.write(base64.b64decode(official_b64))  # ✅ 写文件
img_tag = f'<img src="data:image/png;base64,{official_b64}">'  # ✅ 浏览器渲染
从一个切到另一个时,b64_json 处理代码必须改,否则会拿到损坏的 data URL 或 decode 失败。

2. 分辨率控制方式

gpt-image-2-all(写在 prompt 里):
"横版 16:9 电影画幅,黄昏时的海边老灯塔"   → 输出约 1672×941
"竖版 9:16 手机壁纸,赛博朋克城市雨夜"      → 输出约 941×1672
"1024×1024 方形 LOGO,极简猫咪线条"          → 输出约 1254×1254
gpt-image-2size 参数严格控制):
client.images.generate(
    model="gpt-image-2",
    prompt="...",
    size="2048x1152",   # ✅ 精确按此输出
    quality="high"
)

3. 上传 / 输出格式差异

操作gpt-image-2-allgpt-image-2
上传参考图base64 data URL 或 https URL(在 chat messages 的 image_url 里)multipart image[] 文件字段
下载生成图默认 url(R2 CDN,24 小时有效期),可改 b64_json(带前缀)b64_json纯 base64,需 decode)
多图融合chat 端点多个 image_url 即可image[] 数组重复传入,最多 5 张

4. 价格示例(粗算)

场景gpt-image-2-allgpt-image-2
1024×1024 草图$0.03~$0.006(low)
1024×1024 中等画质$0.03~$0.053(medium)
1024×1024 高画质$0.03~$0.211(high)
2048×1152 高画质$0.03~$0.20+(按 token 实计)
3840×2160 4K 高画质❌ 不支持 4K按 token 实计,显著高于 1K
编辑 / 多图融合$0.03输入 token 显著上升,单次成本可达 $0.1+
结论:批量、低画质场景用 gpt-image-2-all 不一定省(草图 1K low 实际更便宜);中-高画质 + 不需要 4K 的中间区段,gpt-image-2-all 的 $0.03 更稳更可预算。需要 4K 或精细参数控制必选 gpt-image-2

客户端调用建议

设置项gpt-image-2-allgpt-image-2
超时(保守值)300 秒360 秒(4K 高画质实测可达 3-5 分钟)
重试策略5xx 与超时指数退避 2 次同左
并发chat 端点天然并发友好单次 1 张,需要多张请并发
请求 IDrequest-id 响应头x-request-id 响应头

常见问题

可以。两者都走默认分组(Default),同一个 API Key 同时调用即可,无需额外配置。
有可能。当出图意图不够明确时,gpt-image-2-all 的 chat 端点可能返回纯文字。强化办法:在用户提示词的开头追加固定前缀如「生成图片:」或 system 提示词约束输出。
  • 沿用官方 SDK / 要求与 OpenAI 官方一致:选 gpt-image-2(官转),需要删掉 input_fidelity、避开 background: transparent,其它字段不动
  • 想顺便降低成本:选 gpt-image-2-all(官逆),统一 $0.03/张,迁移到 chat 端点最简洁
可以。常见做法:主用 gpt-image-2-all(成本可预测、速度快),兜底用 gpt-image-2(需要 4K 或精细控制时切过去)。两个模型响应字段不同,业务层做一次格式归一即可。

相关文档