# 余额查询 API
Source: https://docs.apiyi.com/api-capabilities/balance-query
获取账户余额、已使用额度和请求次数等信息,实现主动余额告警控制
## 接口概述
余额查询接口用于获取当前账户的额度使用情况,包括总配额、已使用额度、剩余额度和请求次数等信息。
这个接口可帮助客户以简单的方式获取账号余额,以便更主动、自由地控制余额告警。
## 如何获取 Authorization
访问 `api.apiyi.com/account/profile` 个人中心页面
在页面最下方找到"账号选项 - 系统令牌"部分
输入当前的账户密码后,会得到一个 AccessToken,该密钥可用于后续接口的查询数据
## 接口信息
| 项目 | 说明 |
| --------- | ------------------------------------- |
| **接口URL** | `https://api.apiyi.com/api/user/self` |
| **请求方法** | `GET` |
| **认证方式** | Authorization Header |
| **响应格式** | JSON |
## 请求说明
### 请求 Headers
| Header名称 | 必填 | 说明 |
| --------------- | -- | ------------------------ |
| `Authorization` | 是 | API访问令牌,格式:直接填写token字符串 |
| `Accept` | 否 | 建议设置为 `application/json` |
| `Content-Type` | 否 | 建议设置为 `application/json` |
### 请求参数
该接口为 GET 请求,**不需要**传递任何请求体(body)参数。
## 响应说明
### 成功响应示例
```json theme={null}
{
"success": true,
"message": null,
"data": {
"id": 19489,
"username": "testnano",
"display_name": "testnano",
"role": 1,
"status": 1,
"email": "",
"quota": 24997909,
"used_quota": 10027091,
"request_count": 339,
"group": "ceshi",
"aff_code": "ZM0H",
"inviter_id": 0,
"access_token": "...",
"ModelFixedPrice": [...]
}
}
```
### 核心响应字段说明
| 字段名 | 类型 | 说明 |
| ---------------------- | ------- | ---------------------- |
| `success` | Boolean | 请求是否成功 |
| `message` | String | 错误信息(成功时为null) |
| `data.username` | String | 用户名 |
| `data.display_name` | String | 显示名称 |
| `data.quota` | Integer | **剩余额度**(当前可用余额,单位:额度) |
| `data.used_quota` | Integer | **已使用额度**(单位:额度) |
| `data.request_count` | Integer | **总请求次数** |
| `data.group` | String | 用户所属组 |
| `data.ModelFixedPrice` | Array | 模型价格列表(可忽略) |
### 额度换算说明
500,000 额度 = \$1.00 美金 (USD)
**计算公式:**
* 美金金额 = 额度 ÷ 500,000
* 剩余额度 = quota(quota 本身就是当前剩余余额)
* 剩余美金 = quota ÷ 500,000
**示例:**
* `quota: 24997909` → \$49.99 USD(当前剩余余额)
* `used_quota: 10027091` → \$20.05 USD(已使用)
## 错误响应
### HTTP 401 - 认证失败
```json theme={null}
{
"success": false,
"message": "Unauthorized"
}
```
**原因:** Authorization令牌无效或已过期
**解决方法:** 检查并更新API令牌
### HTTP 403 - 权限不足
```json theme={null}
{
"success": false,
"message": "Forbidden"
}
```
**原因:** 当前令牌无权访问该接口
**解决方法:** 联系管理员确认权限配置
## 代码示例
### cURL 示例
```bash theme={null}
curl --compressed 'https://api.apiyi.com/api/user/self' \
-H 'Accept: application/json' \
-H 'Authorization: YOUR_TOKEN_HERE' \
-H 'Content-Type: application/json'
```
**重要提示:** 必须添加 `--compressed` 选项,因为API返回的是gzip压缩内容,否则会得到乱码。
**快速测试(替换YOUR\_TOKEN\_HERE):**
```bash theme={null}
export APIYI_TOKEN='YOUR_TOKEN_HERE'
curl --compressed -s 'https://api.apiyi.com/api/user/self' \
-H 'Accept: application/json' \
-H "Authorization: $APIYI_TOKEN" \
-H 'Content-Type: application/json' | \
jq '.data | {quota, used_quota, request_count}'
```
说明:`-s` 选项隐藏进度条,`--compressed` 自动解压gzip响应
### Python 示例(基础版)
```python theme={null}
import requests
{/* 配置 */}
url = "https://api.apiyi.com/api/user/self"
authorization = "YOUR_TOKEN_HERE" # 替换为你的令牌
{/* 请求头 */}
headers = {
'Accept': 'application/json',
'Authorization': authorization,
'Content-Type': 'application/json'
}
{/* 发送请求 */}
response = requests.get(url, headers=headers, timeout=10)
{/* 检查响应 */}
if response.status_code == 200:
data = response.json()
user_data = data['data']
{/* 提取核心信息 */}
quota = user_data['quota']
used_quota = user_data['used_quota']
request_count = user_data['request_count']
{/* 计算美金金额 */}
{/* 注意:quota 就是当前剩余余额 */}
remaining_usd = quota / 500000
used_usd = used_quota / 500000
{/* 打印结果 */}
print(f"剩余额度:${remaining_usd:.2f} USD ({quota:,} 额度)")
print(f"已使用:${used_usd:.2f} USD ({used_quota:,} 额度)")
print(f"请求次数:{request_count:,} 次")
else:
print(f"请求失败:HTTP {response.status_code}")
print(response.text)
```
### Python 示例(完整优化版)
我们提供了完整的优化版脚本 `quota_optimized.py`,包含以下特性:
完整的异常处理和错误捕获
安全管理令牌,避免硬编码
美观的表格展示和数字格式化
自动计算美金金额
**使用方法:**
```bash theme={null}
{/* 方式1:使用环境变量(推荐) */}
export APIYI_TOKEN='YOUR_TOKEN_HERE'
python quota_optimized.py
{/* 方式2:命令行参数 */}
python quota_optimized.py 'YOUR_TOKEN_HERE'
```
**输出示例:**
```
============================================================
📊 APIYI 账户余额信息
============================================================
用户名称:testnano (testnano)
------------------------------------------------------------
剩余额度:24,997,909 额度 ($49.99 USD)
已使用: 10,027,091 额度 ($20.05 USD)
请求次数:339 次
============================================================
💡 换算说明:500,000 额度 = $1.00 USD
============================================================
```
## 常见问题
请参考上方"如何获取 Authorization"部分的步骤说明,或访问控制台的个人中心页面获取系统令牌。
否,查询账户余额接口不会消耗您的配额额度。
建议查询间隔不少于1秒,避免频繁请求触发限流。
该字段返回各个AI模型的定价信息。如果您只关心余额信息,可以忽略该字段。
`quota` 字段就是当前的剩余额度。如果 `quota` 为 0 或接近 0,说明账户余额不足,需要及时充值。
**问题:** 执行curl命令时得到乱码,或者jq报错 "Invalid numeric literal"
**原因:** API返回的是gzip压缩内容(`Content-Encoding: gzip`),curl没有自动解压。
**解决方案:** 添加 `--compressed` 选项让curl自动解压:
```bash theme={null}
{/* ✅ 正确(带 --compressed) */}
curl --compressed 'https://api.apiyi.com/api/user/self' \
-H 'Authorization: YOUR_TOKEN' | jq
{/* ❌ 错误(缺少 --compressed) */}
curl 'https://api.apiyi.com/api/user/self' \
-H 'Authorization: YOUR_TOKEN' | jq
```
## 注意事项
**安全性提醒**
* 切勿在代码中硬编码 Authorization 令牌
* 建议使用环境变量或配置文件管理敏感信息
* 不要将包含令牌的代码提交到公开仓库
**请求限制**
* 建议设置合理的请求超时时间(推荐10秒)
* 避免过于频繁的查询请求
* 务必处理网络异常、超时、认证失败等错误情况
* 建议记录错误日志便于排查问题
* API返回gzip压缩内容,使用curl时必须添加 `--compressed` 选项
* Python的requests库会自动处理gzip解压,无需额外配置
# Claude 模型调用指南
Source: https://docs.apiyi.com/api-capabilities/claude
API易第一时间上架 Claude 全系列模型,支持 OpenAI 兼容格式和 Anthropic 原生格式调用,可在 Claude Code 中直接使用。
API易 是 Claude 模型的官方合作伙伴,通过 **AWS Bedrock** 和 **Anthropic 官网直连**双通道接入,确保第一时间上架 Anthropic 官方最新模型,如 Claude Opus 4.5、Sonnet 4.5 等。
## 核心优势
AWS Bedrock + 官网直连双通道,新模型同步上线,无需等待
支持 OpenAI 兼容格式和 Anthropic 原生格式,灵活切换
完美支持 Claude Code 桌面应用,一键配置即可使用
AWS + 官网双线路冗余,保障服务稳定性和可用性
## 可用模型
API易 支持 Claude 全系列模型,包括最新发布的 Opus 4.5:
| 模型系列 | 模型名称 | 推荐场景 | 价格(输入/输出) |
| -------------- | ---------------------------- | --------- | ----------- |
| **Opus 4.5** | `claude-opus-4-5-20251101` | 复杂编程、深度推理 | \$5 / \$25 |
| **Sonnet 4.5** | `claude-sonnet-4-5-20250929` | 通用智能、代码生成 | \$3 / \$15 |
| **Haiku 4.5** | `claude-haiku-4-5-20251001` | 快速响应、高并发 | \$1 / \$5 |
| **Opus 4.1** | `claude-opus-4-1-250806` | 高级任务(旧版) | \$15 / \$75 |
推荐使用最新的 4.5 系列模型,性能更强、价格更低。Opus 4.5 编程能力登顶 SWE-bench(80.9%),价格仅为 4.1 的 1/3。
## OpenAI 兼容格式调用
API易 支持标准的 OpenAI SDK 调用 Claude 模型,只需修改 `base_url` 和 `model` 参数即可。
### Python 示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="claude-opus-4-5-20251101",
messages=[
{
"role": "user",
"content": "用 Python 实现一个快速排序算法,并解释时间复杂度。"
}
],
# 可选:设置推理深度
extra_body={
"output_config": {"effort": "medium"} # low/medium/high
}
)
print(response.choices[0].message.content)
```
### Node.js 示例
```javascript theme={null}
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'your-apiyi-key',
baseURL: 'https://api.apiyi.com/v1'
});
const response = await client.chat.completions.create({
model: 'claude-sonnet-4-5-20250929',
messages: [
{
role: 'user',
content: '分析这段代码的性能瓶颈...'
}
]
});
console.log(response.choices[0].message.content);
```
### cURL 示例
```bash theme={null}
curl https://api.apiyi.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer your-apiyi-key" \
-d '{
"model": "claude-haiku-4-5-20251001",
"messages": [
{
"role": "user",
"content": "你好,介绍一下你自己。"
}
]
}'
```
## Anthropic 原生格式调用
API易 完整支持 Anthropic 官方 SDK 的原生 `/messages` 端点,无需任何转换。
### Python 原生 SDK
```python theme={null}
import anthropic
client = anthropic.Anthropic(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com"
)
message = client.messages.create(
model="claude-opus-4-5-20251101",
max_tokens=8192,
messages=[
{
"role": "user",
"content": "设计一个高可用的微服务架构,并解释核心设计理念。"
}
],
# 设置推理深度
output_config={
"effort": "high" # low/medium/high
}
)
print(message.content[0].text)
```
### 流式响应
```python theme={null}
import anthropic
client = anthropic.Anthropic(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com"
)
with client.messages.stream(
model="claude-sonnet-4-5-20250929",
max_tokens=4096,
messages=[
{"role": "user", "content": "写一篇关于 AI 发展趋势的文章..."}
]
) as stream:
for text in stream.text_stream:
print(text, end="", flush=True)
```
### 视觉理解(多模态)
Claude 支持图像输入,适合 UI 分析、图表解读等场景:
```python theme={null}
import anthropic
import base64
client = anthropic.Anthropic(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com"
)
# 读取图片并编码为 base64
with open("screenshot.png", "rb") as f:
image_data = base64.b64encode(f.read()).decode('utf-8')
message = client.messages.create(
model="claude-opus-4-5-20251101",
max_tokens=4096,
messages=[
{
"role": "user",
"content": [
{
"type": "image",
"source": {
"type": "base64",
"media_type": "image/png",
"data": image_data
}
},
{
"type": "text",
"text": "这是一个网页截图,请用 React + Tailwind CSS 实现相同的 UI。"
}
]
}
]
)
print(message.content[0].text)
```
## 推理深度控制(effort 参数)
Claude 模型支持通过 `output_config.effort` 参数调节推理深度(官方文档:`platform.claude.com/docs/en/build-with-claude/effort`):
| 模式 | 说明 | 适用场景 | Token 消耗 |
| ---------- | ----------- | ----------- | ----------------- |
| **low** | 快速响应,推理深度较浅 | 简单问答、快速原型 | 低 |
| **medium** | 平衡质量与速度(默认) | 大多数编程任务 | 中等(比 high 节省 76%) |
| **high** | 深度推理,质量最高 | 复杂架构设计、难题分析 | 高 |
### Anthropic 原生格式设置 effort
```python theme={null}
message = client.messages.create(
model="claude-opus-4-5-20251101",
max_tokens=4096,
messages=[{"role": "user", "content": "优化这段 SQL 查询..."}],
output_config={
"effort": "medium" # low/medium/high
}
)
```
### OpenAI 格式设置 effort
```python theme={null}
response = client.chat.completions.create(
model="claude-opus-4-5-20251101",
messages=[{"role": "user", "content": "设计一个分布式缓存系统..."}],
extra_body={
"output_config": {"effort": "high"} # low/medium/high
}
)
```
### cURL 示例
```bash theme={null}
curl https://api.apiyi.com/v1/messages \
-H "x-api-key: your-apiyi-key" \
-H "anthropic-version: 2023-06-01" \
-H "content-type: application/json" \
-d '{
"model": "claude-opus-4-5-20251101",
"max_tokens": 4096,
"messages": [{
"role": "user",
"content": "分析微服务与单体架构的权衡"
}],
"output_config": {
"effort": "medium"
}
}'
```
effort 参数目前主要适用于 Claude Opus 4.5,其他模型(Sonnet/Haiku)的支持情况请参考官方文档。
## 最佳实践
### 1. 模型选择建议
* **复杂编程任务**:使用 `claude-opus-4-5-20251101` + `high` 或 `medium` 模式
* **日常代码生成**:使用 `claude-sonnet-4-5-20250929`,性价比最高
* **快速问答/高并发**:使用 `claude-haiku-4-5-20251001`,速度快成本低
* **多模态任务**:优先选择 Opus 或 Sonnet,视觉理解能力更强
### 2. 成本优化技巧
* **优先使用 medium 模式**:Opus 4.5 的 medium 模式输出质量接近 Sonnet,但 token 消耗仅 24%
* **充值加赠活动**:通过 API易 充值享受最高 20% 加赠,实际成本低至 8 折
* **合理使用缓存**:对于重复的 Prompt 或上下文,启用 prompt caching 节省成本
* **按需降级**:简单任务使用 Haiku 或 Sonnet,复杂任务再用 Opus
### 3. 提示词优化
Claude 模型对清晰、结构化的提示词响应更好:
```python theme={null}
# 推荐:清晰的任务描述
prompt = """
任务:重构以下 Python 代码
要求:
1. 提升性能(时间复杂度从 O(n²) 降至 O(n log n))
2. 增加错误处理和类型提示
3. 添加单元测试
代码:
[粘贴代码]
"""
# 不推荐:模糊的指令
prompt = "帮我改一下这段代码"
```
### 4. 长上下文使用
Claude Opus 4.5 支持 20 万 token 上下文,适合代码库级别分析:
```python theme={null}
# 示例:分析整个代码库
files_content = ""
for file in ["main.py", "utils.py", "models.py"]:
with open(file) as f:
files_content += f"\n\n# {file}\n{f.read()}"
response = client.chat.completions.create(
model="claude-opus-4-5-20251101",
messages=[{
"role": "user",
"content": f"分析以下代码库的架构设计,并提出优化建议:\n{files_content}"
}]
)
```
## 技术规格对比
| 参数 | Opus 4.5 | Sonnet 4.5 | Haiku 4.5 |
| ------------- | -------------- | -------------- | -------------- |
| **上下文长度** | 200,000 tokens | 200,000 tokens | 200,000 tokens |
| **最大输出** | 64,000 tokens | 8,192 tokens | 8,192 tokens |
| **知识截止** | 2025年3月 | 2024年10月 | 2024年10月 |
| **多模态** | ✅ 图像输入 | ✅ 图像输入 | ✅ 图像输入 |
| **推理控制** | ✅ effort 参数 | ❌ | ❌ |
| **SWE-bench** | 80.9% | 77.2% | 73.3% |
## 常见问题
### 如何在 Claude Code 中使用 API易?
只需在 Claude Code 设置中配置:
* **Base URL**: `https://api.apiyi.com`
* **API Key**: 您的 API易 密钥
* **Model**: `claude-opus-4-5-20251101` 或其他 Claude 模型
### OpenAI 格式和 Anthropic 原生格式有什么区别?
* **OpenAI 格式**:使用 `/v1/chat/completions` 端点,兼容 OpenAI SDK
* **Anthropic 格式**:使用 `/v1/messages` 端点,支持 Anthropic 官方 SDK 全部特性
* **推荐**:如果使用 Claude Code 或 OpenAI SDK,选择 OpenAI 格式;如果需要 Anthropic 特有功能(如 tool use),选择原生格式
### effort 参数如何影响性能和成本?
* **high 模式**:推理深度最大,输出质量最高,但 token 消耗最多(约 3-4 倍于 medium)
* **medium 模式**:平衡质量与成本,输出质量接近 Sonnet,token 消耗仅为 high 的 24%
* **low 模式**:快速响应,适合简单任务,token 消耗最少
### API易 的双通道是什么?
API易 通过 **AWS Bedrock** 和 **Anthropic 官网直连**两条线路接入 Claude 模型:
* **AWS Bedrock**:稳定性高,延迟低,适合企业级应用
* **官网直连**:第一时间获取新模型,功能完整
* **自动切换**:系统智能选择最优线路,保障服务可用性
### 如何获取 API易 密钥?
访问 API易 官网(`apiyi.com`)注册账号,充值后即可在控制台获取 API 密钥。新用户注册即送额度,充值享受最高 20% 加赠。
## 相关资源
* [Claude Opus 4.5 发布公告](/news/claude-opus-4-5-launch)
* [OpenAI SDK 使用指南](/api-capabilities/openai-sdk)
* [多模态视觉理解](/api-capabilities/vision-understanding)
* [Anthropic 官方文档](https://docs.anthropic.com)
API易 第一时间上架 Anthropic 最新模型,支持 OpenAI/Anthropic 双格式调用,完美兼容 Claude Code。立即注册体验!
# 废弃模型列表
Source: https://docs.apiyi.com/api-capabilities/deprecated-models
查看即将下线和已废弃的模型列表,及时迁移到推荐替代模型。
## 说明
本页面列出即将下线和已废弃的模型,帮助您了解模型生命周期,提前做好迁移准备。
如果您正在使用即将废弃的模型,请尽快迁移到推荐的替代模型,以避免服务中断。
## ⚠️ 废弃模型预告
以下模型即将下线,请在预计下线日期前完成迁移。
| 模型名称 | 模型ID | 预计下线日期 | 推荐替代模型 | 备注 |
| ----------------------------------- | ------------------------------------- | ------ | ------------------ | ----------------- |
| Gemini 2.0 Flash Lite | `gemini-2.0-flash-lite` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 |
| Gemini 2.0 Flash Lite 001 | `gemini-2.0-flash-lite-001` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 |
| Gemini 2.0 Flash | `gemini-2.0-flash` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 |
| Gemini 2.0 Flash 001 | `gemini-2.0-flash-001` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 |
| Gemini 2.0 Flash Lite Preview 02-05 | `gemini-2.0-flash-lite-preview-02-05` | 待定 | `gemini-2.5-flash` | Preview 版本 |
谷歌 Gemini 模型废弃详情请参考官方文档:`ai.google.dev/gemini-api/docs/deprecations`
## 🚫 已下线模型
以下模型已废弃,不再可用。如果您的应用仍在调用这些模型,请尽快切换到替代模型。
| 模型名称 | 模型ID | 下线日期 | 替代模型 | 备注 |
| ---------------------- | ----------------------------------------------------------------------------------------- | ---------- | ------------------------- | ------------------------------------------------------------------------- |
| GPT-4 | `gpt-4` | 2026-02-27 | `gpt-5.2` | 一代目强者,已停用 |
| GPT-4(32K) | `gpt-4-32k` | 2026-02-27 | `gpt-5.2` | 一代目强者,已停用 |
| Grok 4 | `grok-4` | 2026-03-12 | `grok-4-1-fast-reasoning` | 已下线,请迁移至新版 |
| Grok 4 0709 | `grok-4-0709` | 2026-03-12 | `grok-4-1-fast-reasoning` | 已下线,请迁移至新版 |
| Sora 2 视频生成(逆向) | `sora_video2` / `sora_video2-landscape` / `sora_video2-15s` / `sora_video2-landscape-15s` | 2026-04-26 | `sora-2-pro`(官方版) | 逆向通道下线,请迁移至 [Sora 2 官方版](/api-capabilities/sora-2-video-official) |
| Sora 2 角色生成 | `sora-character` | 2026-04-26 | `sora-2-pro`(官方版) | 逆向通道下线,请改用官方 [Sora 2 官方版](/api-capabilities/sora-2-video-official) |
| Sora Image 生图/编辑(逆向) | `sora_image` | 2026-04-26 | `gpt-image-2-all`(新版官逆) | 逆向通道下线,请迁移至 [GPT-Image-2-All](/api-capabilities/gpt-image-2-all/overview) |
| GPT-4o Image 生图/编辑(逆向) | `gpt-4o-image` | 2026-04-26 | `gpt-image-2-all`(新版官逆) | 逆向通道下线,请迁移至 [GPT-Image-2-All](/api-capabilities/gpt-image-2-all/overview) |
本页面会持续更新,建议定期查看以获取最新的模型废弃信息。
# FLUX 历史版本
Source: https://docs.apiyi.com/api-capabilities/flux/historical-versions
FLUX.1 [pro] / [pro] 1.1 / [pro] 1.1 Ultra / [dev] 历史版本规格、定价与迁移到 FLUX.2 的建议
本页仅记录 APIYI **仍可调用**的 FLUX.1 \[pro] 系列文生图模型。最新一代 FLUX.2 与图编辑专用 FLUX.1 Kontext 见 [FLUX 总览](/api-capabilities/flux/overview)。
## 版本一览
| 版本 ID | 发布时间 (UTC+0) | APIYI 单价 | 状态 | 推荐使用场景 |
| -------------------- | ------------ | ---------- | ------ | --------------- |
| `flux-pro-1.1-ultra` | 2024-11 | \$0.0500/次 | 🟡 维护中 | 老项目超高分辨率(4MP) |
| `flux-pro-1.1` | 2024-10 | \$0.0350/次 | 🟡 维护中 | 老项目文生图标杆 |
| `flux-pro` | 2024-08 | \$0.0400/次 | 🟡 维护中 | 初代 pro,老接入兼容 |
| `flux-dev` | 2024-08 | \$0.0200/次 | 🟡 维护中 | 开发/测试,开源权重可本地部署 |
**新项目建议直接用 FLUX.2**:`flux-2-pro` 与 `flux-pro-1.1` 同档位但画质、多图、长 prompt、4MP 全面提升,价格相近甚至更低。详见下方迁移建议。
## 各版本详细规格
### `flux-pro-1.1-ultra`
* **发布时间**:2024-11(UTC+0)
* **APIYI 单价**:\$0.0500/次(官方 \$0.06,节省 17%)
* **最大输出分辨率**:约 4MP(FLUX.1 系列里最高)
* **核心特性**:超高分辨率、可选 raw 模式(更接近真实摄影质感)
* **已知限制**:单参考图、无 hex 色控、无 grounding search
* **官方介绍**:`docs.bfl.ai/flux_models/flux_1_1_pro_ultra_raw`
### `flux-pro-1.1`
* **发布时间**:2024-10(UTC+0)
* **APIYI 单价**:\$0.0350/次(官方 \$0.04,节省 12.5%)
* **最大输出分辨率**:约 1.6MP(1024×1536 等)
* **核心特性**:在 1.0 基础上提升画质和提示词遵循,行业标杆
* **已知限制**:单参考图、prompt 短(无 32K)
* **官方介绍**:`docs.bfl.ai/flux_models/flux_1_1_pro`
### `flux-pro`
* **发布时间**:2024-08(UTC+0)
* **APIYI 单价**:\$0.0400/次(官方 \$0.04,同价)
* **最大输出分辨率**:约 1.6MP
* **核心特性**:BFL 第一代商用 pro,文生图基础款
* **已知限制**:画质和遵循度低于 1.1,新项目无理由继续使用
### `flux-dev`
* **APIYI 单价**:\$0.0200/次
* **最大输出分辨率**:约 1MP
* **核心特性**:开源权重版(FLUX.1 \[dev],非商用 license),可本地部署
* **已知限制**:质量低于 \[pro] 系列,主要用于研究、原型、本地推理验证
* **官方权重**:`huggingface.co/black-forest-labs/FLUX.1-dev`
## 迁移建议
FLUX.2 全面替代 FLUX.1 \[pro]:4MP 输出(vs 1.6MP)、最多 8 张多参考图(vs 1 张)、32K tokens prompt(vs 短)、原生 hex 色控、文字渲染特化。价格在 1MP 内同档位下基本持平甚至更低。
拿同一批 prompt 在 `flux-pro-1.1` 与 `flux-2-pro` 各跑一轮,重点对比:文字清晰度、多对象一致性、品牌色还原。多数场景 FLUX.2 \[pro] 全面胜出。
业务流量先 10% 切到 `flux-2-pro`,观察质量与成本一周后逐步全量。低分辨率(1MP 内)单价基本持平、4MP 场景 FLUX.2 显著更便宜。
多数参数兼容,但需注意:
* FLUX.1 \[pro] 系列单参考图,FLUX.2 改用 `image[]` 数组(OpenAI 兼容)
* FLUX.1 不支持 `prompt_upsampling`,FLUX.2 \[pro/max/flex] 支持
* 老版的部分自定义比例标识(如 `aspect_ratio`)在 FLUX.2 中改用 `width`/`height` 或 `size` 字符串
## 旧版调用示例
```python theme={null}
{/* 调用任意历史版本,仅 model 字段不同,其余参数与 OpenAI Images API 兼容 */}
from openai import OpenAI
import requests
client = OpenAI(api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1")
resp = client.images.generate(
model="flux-pro-1.1-ultra",
prompt="A serene mountain landscape at golden hour, raw photo style",
size="2048x1536"
)
# data[0].url 仅 10 分钟有效
url = resp.data[0].url
with open("legacy.jpg", "wb") as f:
f.write(requests.get(url, timeout=30).content)
```
## 计费差异
按典型用量估算(每张固定单价):
| 版本 | APIYI 单价 | 100 张 | 1,000 张 | 10,000 张 |
| -------------------- | ---------- | ---------- | ----------- | ------------ |
| `flux-pro-1.1-ultra` | \$0.05 | \$5.00 | \$50.00 | \$500.00 |
| `flux-pro-1.1` | \$0.035 | \$3.50 | \$35.00 | \$350.00 |
| `flux-pro` | \$0.04 | \$4.00 | \$40.00 | \$400.00 |
| `flux-dev` | \$0.02 | \$2.00 | \$20.00 | \$200.00 |
| **`flux-2-pro`(新版)** | **\$0.03** | **\$3.00** | **\$30.00** | **\$300.00** |
| **`flux-2-max`(新版)** | **\$0.07** | **\$7.00** | **\$70.00** | **\$700.00** |
**如何选**:新项目优先 FLUX.2(`flux-2-pro` 综合最优,`flux-2-max` 旗舰)。仅当老项目对接已固化、不便回归测试时,再继续维持 FLUX.1 \[pro] 系列调用。`flux-dev` 可继续作为开发环境的低成本占位选项。
## 相关文档
* [FLUX 总览](/api-capabilities/flux/overview) - 全模型矩阵与选型
* [文生图 Playground](/api-capabilities/flux/text-to-image) - FLUX.2 + FLUX.1 通用调试
* [图片编辑 Playground](/api-capabilities/flux/image-edit) - 多图融合 + 编辑
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/flux/image-edit
api-reference/flux-edit-openapi.yaml POST /v1/images/generations
FLUX 图片编辑 API 参考与在线调试 — 上传参考图(最多 8 张)+ 指令进行单图改图、多图融合,FLUX.2 全系列 + FLUX.1 Kontext 通用
右侧的交互式 Playground:在 **Authorization** 中填入 API Key(格式:`Bearer sk-xxx`),把参考图的**公网 URL** 填到 `input_image`,多图融合继续填 `input_image_2` … `input_image_8`,然后填 `prompt`、`model` 一键发送即可。Playground 只支持 URL 输入;如需用 base64 data URL,请复制下方代码示例到本地调试。
**场景说明**:本页用于「基于一张或多张参考图改图 / 多图融合」。**FLUX 系列文生图与图片编辑共用同一端点 `/v1/images/generations`**(与 OpenAI gpt-image 不同,FLUX 没有独立的 `/edits` 路径):传入 `input_image` 即触发编辑模式,不传则走纯文本生成。请求是 `application/json` 格式,所有参考图字段都是 URL 字符串(也可在本地代码中传 base64 data URL)。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/flux/text-to-image)。
**⚠️ 关键差异 / 注意事项**
* **端点路径**:`/v1/images/generations`(与文生图共用,**不是** `/v1/images/edits`)
* **Content-Type**:`application/json`(apiyi 的 FLUX 通道要求 JSON,不是 multipart)
* **所有参考图字段是字符串**:`input_image` / `input_image_2` … `input_image_8`,值为公网 URL(推荐)或 `data:image/...;base64,xxx` data URL
* **多图上限因模型而异**:FLUX.2 \[pro/max/flex] 最多 **8 张**,FLUX.2 \[klein] 最多 **4 张**,FLUX.1 Kontext 系列原生只支持 **1 张**
* **单张参考图 ≤ 20MB 或 20MP**,格式 `png` / `jpg` / `webp`
* **输入分辨率**:最小 64×64,最大 4MP;dimensions 必须是 16 的倍数
* **结果 URL 仅 10 分钟有效** — `data[0].url` 必须立即下载
* **不传 `aspect_ratio` 时,输出尺寸自动匹配第一张输入图**
**📎 多图融合顺序有意义**
`input_image` / `input_image_2` / `input_image_3` … 的编号 **就是 prompt 中「image 1 / image 2 / image 3」的引用依据**。建议在 prompt 中显式指代,例如:
> Place the person from image 1 into the scene from image 2, applying the color palette of image 3.
每张图必须为可公网访问的 URL(推荐 ≤ 20MB),或 `data:image/png;base64,xxx` 格式 base64 data URL。
## 代码示例
### cURL(双图融合 · URL)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "flux-2-pro",
"prompt": "自然融合这两个图片",
"input_image": "https://static.apiyi.com/apiyi-logo.png",
"input_image_2": "https://images.unsplash.com/photo-1762138012600-2ab523f8b35a",
"seed": 42,
"output_format": "jpeg"
}'
```
### cURL(三图融合 · URL)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "flux-2-pro",
"prompt": "The person from image 1 is petting the cat from image 2, the bird from image 3 is next to them",
"input_image": "https://example.com/person.jpg",
"input_image_2": "https://example.com/cat.jpg",
"input_image_3": "https://example.com/bird.jpg",
"seed": 42,
"output_format": "jpeg"
}'
```
### cURL(单图编辑 · Kontext)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "flux-kontext-pro",
"prompt": "Convert this architectural photo into a pencil sketch style, preserve all structural details",
"input_image": "https://your-oss.example.com/architecture.jpg"
}'
```
### cURL(本地文件 · base64 data URL)
```bash theme={null}
# 先把本地图片转为 base64 data URL(macOS / Linux)
B64=$(base64 -w0 < person.png 2>/dev/null || base64 < person.png | tr -d '\n')
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d "$(jq -nc --arg img "data:image/png;base64,$B64" '{
model: "flux-2-pro",
prompt: "把图1风格化为油画",
input_image: $img
}')"
```
### Python(requests · 双图融合)
```python theme={null}
import requests
resp = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={
"Authorization": "Bearer sk-your-api-key",
"Content-Type": "application/json",
},
json={
"model": "flux-2-pro",
"prompt": "自然融合这两个图片",
"input_image": "https://static.apiyi.com/apiyi-logo.png",
"input_image_2": "https://images.unsplash.com/photo-1762138012600-2ab523f8b35a",
"seed": 42,
"output_format": "jpeg",
},
timeout=120,
)
image_url = resp.json()["data"][0]["url"]
# data[0].url 仅 10 分钟有效,立即下载
with open("fused.jpg", "wb") as f:
f.write(requests.get(image_url, timeout=30).content)
```
### Python(requests · 本地文件 base64)
```python theme={null}
import base64, requests, mimetypes
def to_data_url(path: str) -> str:
mime = mimetypes.guess_type(path)[0] or "image/png"
with open(path, "rb") as f:
b64 = base64.b64encode(f.read()).decode()
return f"data:{mime};base64,{b64}"
resp = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={
"Authorization": "Bearer sk-your-api-key",
"Content-Type": "application/json",
},
json={
"model": "flux-2-pro",
"prompt": "把图1人物放进图2场景",
"input_image": to_data_url("person.png"),
"input_image_2": "https://your-oss.example.com/scene.jpg",
},
timeout=120,
)
print(resp.json()["data"][0]["url"])
```
### Python(OpenAI SDK · extra\_body 注入 input\_image)
```python theme={null}
from openai import OpenAI
import requests
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
# OpenAI SDK 的 images.generate() 走 /v1/images/generations + JSON,
# BFL 原生字段通过 extra_body 直接拼到 JSON 请求体里
resp = client.images.generate(
model="flux-2-pro",
prompt="自然融合这两个图片",
extra_body={
"input_image": "https://static.apiyi.com/apiyi-logo.png",
"input_image_2": "https://images.unsplash.com/photo-1762138012600-2ab523f8b35a",
"seed": 42,
"output_format": "jpeg",
},
)
image_url = resp.data[0].url
with open("fused.jpg", "wb") as f:
f.write(requests.get(image_url, timeout=30).content)
```
### Node.js(fetch · 多图融合)
```javascript theme={null}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Authorization': 'Bearer sk-your-api-key',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'flux-2-pro',
prompt: '自然融合这两个图片',
input_image: 'https://static.apiyi.com/apiyi-logo.png',
input_image_2: 'https://images.unsplash.com/photo-1762138012600-2ab523f8b35a',
seed: 42,
output_format: 'jpeg',
}),
});
const { data } = await resp.json();
const img = await fetch(data[0].url);
const fs = await import('node:fs');
fs.writeFileSync('fused.jpg', Buffer.from(await img.arrayBuffer()));
```
## 参数说明速查
| 字段 | 类型 | 必填 | 默认 | 说明 |
| ---------------------------------- | ------- | -- | ------- | --------------------------------------------------------------------------------------------------------- |
| `model` | string | 是 | — | FLUX 模型 ID,多图融合推荐 `flux-2-pro` / `flux-2-max`,单图改图也可用 `flux-kontext-max` / `flux-kontext-pro` |
| `prompt` | string | 是 | — | 编辑 / 融合指令,最长 32K tokens;多图场景用「image 1 / image 2 / image 3」指代 image / input\_image\_2 / input\_image\_3 顺序 |
| `input_image` | string | 是 | — | 参考图 1。公网 URL(推荐)或 `data:image/...;base64,xxx` data URL |
| `input_image_2` \~ `input_image_8` | string | 否 | — | 第 2–8 张参考图,URL 或 data URL。FLUX.2 \[pro/max/flex] **最多 8 张**,\[klein] **4 张**,Kontext 不支持 |
| `aspect_ratio` | string | 否 | 跟随首图 | 例如 `1:1` / `16:9` / `9:16` / `4:3` / `3:2` |
| `seed` | integer | 否 | 随机 | 固定可复现 |
| `safety_tolerance` | integer | 否 | `2` | 0(最严)– 6(最宽松) |
| `output_format` | string | 否 | `jpeg` | `jpeg` / `png` |
| `prompt_upsampling` | boolean | 否 | `false` | 是否自动扩写 prompt |
| `steps` | integer | 否 | `50` | **仅 `flux-2-flex`**,最大 50 |
| `guidance` | number | 否 | `4.5` | **仅 `flux-2-flex`**,1.5–10 |
## 多图融合策略
上传同一角色的多张照片作参考,模型会自动维持身份特征。适合广告系列、漫画分镜、时尚编辑。
```
Eight consistent characters from the reference images,
in a fashion editorial set on a Tokyo rooftop at golden hour
```
一张内容图 + 一张风格图,prompt 显式指代:
```
Using the style of image 2, render the subject from image 1
```
把多张图里的不同物体组合到一个新场景:
```
The person from image 1 is petting the cat from image 2,
the bird from image 3 is next to them
```
把图1人物的上衣换成图2 的款式:
```
Replace the top of the person in image 1 with the one from image 2,
keep the pose and background unchanged
```
**多轮迭代**:把上一次的 `data[0].url` 重新下载后作为下一次 `image[]` 输入,配合新指令逐步精调画面。每轮按张数计费。
## 响应格式
```json theme={null}
{
"created": 1776832476,
"data": [
{
"url": "https://delivery-eu.bfl.ai/results/xxx/sample.jpeg?signature=..."
}
]
}
```
**⚠️ `data[0].url` 仅 10 分钟有效**
* URL 托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,签名 10 分钟过期
* **不开启 CORS**,浏览器 `fetch` 会被拦
* 生产服务**必须**服务端代下载到自有 OSS / CDN
* FLUX 编辑端点**不返回** `b64_json`,仅返回 url
编辑请求与文生图同价,按张数计费而非按 token。多图融合不会因图片数量加价(与 OpenAI gpt-image-2 编辑不同)。
# FLUX 生图/编辑
Source: https://docs.apiyi.com/api-capabilities/flux/overview
Black Forest Labs 的 FLUX 模型族 — 从 sub-second 的 FLUX.2 [klein] 到 4MP 旗舰 [max],覆盖文生图、参考图编辑、多图融合、文字渲染、hex 精确色控。OpenAI 兼容直连。
## 概述
**FLUX** 是德国 Black Forest Labs(BFL)推出的旗舰图像生成模型族。最新一代 **FLUX.2** 横跨 sub-second 到 4MP 旗舰画质共 5 档,叠加上一代图像编辑专用的 **FLUX.1 Kontext** 共 7 个模型在售;老版本 FLUX.1 \[pro] 系列也保留可调用。API易 网关把 BFL 的异步 API 封装成标准 OpenAI Images API(`/v1/images/generations` 与 `/v1/images/edits`),OpenAI 官方 SDK 把 `base_url` 指过来即可零代码改动直连。
**🎨 核心亮点**:FLUX.2 \[max] 独家支持 **grounding search 联网搜索**,原生 4MP 输出(2048×2048)+ 多参考图最多 8 张 + 32K tokens 长 prompt + hex 色精确控制 + 文字渲染领先。**适合需要旗舰画质、多图一致性、品牌色精确还原、专业排版** 的生产场景。
`/v1/images/generations`,输入文本提示词生成图片,覆盖 FLUX.2 全部 5 个模型。
`/v1/images/edits`,multipart 上传参考图(最多 8 张)+ 编辑/融合指令,FLUX.2 + FLUX.1 Kontext 通用。
FLUX.1 \[pro] / \[pro] 1.1 / \[pro] 1.1 Ultra / \[dev] 老版本规格、迁移建议、计费差异。
## 为什么选 API易 的 FLUX?
对标 BFL 官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化:
BFL 官方走异步 polling,APIYI 把它封装成同步的 **OpenAI Images API**。OpenAI 官方 SDK 把 `base_url` 指过来直接用,不用自己写 `polling_url` 轮询循环。
BFL 官方对单账号限 **24 个 active tasks**(kontext-max 仅 6),APIYI 在网关层做了池化,企业用户线性放量不受单账号限制。
FLUX.2 \[pro/max/flex] 与官方 1MP 同价,klein 4B/9B 比官方更便宜(节省约 28%),FLUX.1 \[pro] 1.1 Ultra 节省 17%,叠加 [充值加赠活动](/faq/recharge-promotions) **最低可享 85 折**。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。
搭配 [gpt-image-2](/api-capabilities/gpt-image-2/overview)、[Seedream](/api-capabilities/seedream-image/overview)、[Nano Banana](/api-capabilities/nano-banana-image/overview) 等同站系列,可按场景自由组合。
团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 核心特性
klein 4B/9B **sub-second** 出图(消费级 GPU 即可)、pro **\< 10 秒**、max **\< 15 秒**、flex 较慢但精度更高。一个系列横跨实时到旗舰。
最大 2048×2048(约 4MP),是 FLUX.1 时代 1.6MP 的 2.5 倍。任意宽高(边长须 16 倍数),最小 64×64。
`image[]` 数组上传多张参考图:FLUX.2 \[pro/max/flex] 最多 **8 张**,\[klein] 最多 4 张,prompt 中可用「图1/图2」精确指代。
FLUX.2 \[max] 独家:prompt 触发实时网络检索,可生成"昨日比赛比分"、"实时天气"、"历史事件复刻"等需要外部知识的画面。
在 prompt 里直接写 `#02eb3c` / `#ff0088` 等 hex 码,模型按精确色值出图,专业品牌设计无需后期调色。
支持最长 **32K tokens** 的 prompt,可用结构化 JSON 描述(subject / background / lighting / style 等),适合产线自动化。
FLUX.2 \[flex] 专为文字场景调优,海报标题、UI 截图、信息图等小字保留度业内领先;max / pro 同样可用。
把 `base_url` 指向 `https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 直接调 `client.images.generate(model="flux-2-pro", ...)`,零代码改动。
## 模型定价
按次计费,单价见下表(**APIYI 单价**列)。BFL 官方按 **MP(megapixel)** 计费,1MP 内同价、超过逐 MP 加成;APIYI 按张定价更可预测。
### FLUX.2 系列(最新一代)
| 模型 ID | APIYI 单价 | 官方价 | 速度 | 适用场景 |
| ----------------- | ---------- | -------------- | ---------- | ------------------------ |
| `flux-2-max` | \$0.0700/次 | from \$0.07/MP | \< 15 秒 | 旗舰画质 + 联网搜索(grounding) |
| `flux-2-pro` | \$0.0300/次 | from \$0.03/MP | \< 10 秒 | 生产规模、最佳性价比 |
| `flux-2-flex` | \$0.0600/次 | \$0.06/MP | 较慢 | 文字渲染特化,可调 steps/guidance |
| `flux-2-klein-9b` | \$0.0100/次 | from \$0.015 | sub-second | 平衡画质和速度 |
| `flux-2-klein-4b` | \$0.0100/次 | from \$0.014 | sub-second | 最快、消费级 GPU 友好 |
### FLUX.1 Kontext 系列(图像编辑专用)
| 模型 ID | APIYI 单价 | 官方价 | 节省 | 适用场景 |
| ------------------ | ---------- | ------ | ----- | --------------- |
| `flux-kontext-max` | \$0.0700/次 | \$0.08 | 12.5% | 编辑最高质量、文字精修 |
| `flux-kontext-pro` | \$0.0350/次 | \$0.04 | 12.5% | 编辑性价比首选、5-6 秒生成 |
### FLUX.1 \[pro] 经典版本(历史版本,仍可调用)
| 模型 ID | APIYI 单价 | 官方价 | 节省 |
| -------------------- | ---------- | ------ | ----- |
| `flux-pro-1.1-ultra` | \$0.0500/次 | \$0.06 | 17% |
| `flux-pro-1.1` | \$0.0350/次 | \$0.04 | 12.5% |
| `flux-pro` | \$0.0400/次 | \$0.04 | 同价 |
| `flux-dev` | \$0.0200/次 | — | — |
详细规格与迁移建议见 [历史版本页](/api-capabilities/flux/historical-versions)。
**计费说明**:
* APIYI 走按次定价,1 张图固定单价,与输出 MP 无关
* 官方按 MP 计费,1MP 起步价 + 超过部分逐 MP 加成
* 编辑请求与文生图同价(不像 OpenAI gpt-image-2 编辑要按 Vision 加价)
* klein 4B / klein 9B 的开源权重可在 Hugging Face 自行部署(Apache 2.0 / FLUX NCL 协议)
* 失败请求(4xx / 内容审核拦截)不计费
## 技术规格
| 维度 | 参数 |
| ---------------------- | ---------------------------------------------------------------------- |
| **当前主力推荐** | `flux-2-pro` / `flux-2-pro-preview`(综合)+ `flux-kontext-max`(编辑文字) |
| **速度** | sub-second(klein)/ \< 10 秒(pro)/ \< 15 秒(max)/ 较慢(flex) |
| **输出分辨率** | 最大 4MP(2048×2048),任意宽高,边长须 16 倍数 |
| **输入分辨率** | 最小 64×64,最大 4MP(仅编辑端点) |
| **参考图上限** | 8 张(FLUX.2 \[pro/max/flex])/ 4 张(FLUX.2 \[klein])/ 1 张(FLUX.1 Kontext) |
| **Prompt 长度** | 最长 32K tokens |
| **输出格式** | `jpeg`(默认)/ `png` |
| **审核档位** | `safety_tolerance` 0–6(0 最严、6 最宽松,默认 2) |
| **联网搜索** | 仅 `flux-2-max` 支持 grounding search |
| **响应字段** | `data[0].url`(**10 分钟内有效**,需立即下载) |
| **单次出图数量** | 1 张(`n=1`) |
| **prompt\_upsampling** | FLUX.2 \[pro/max/flex] 支持,\[klein] 不支持 |
## 端点一览
| 端点 | 用途 | Content-Type |
| ----------------------------- | ----------------------------- | --------------------- |
| `POST /v1/images/generations` | 文生图(所有 FLUX 模型) | `application/json` |
| `POST /v1/images/edits` | 图像编辑 / 多图融合(FLUX.2 + Kontext) | `multipart/form-data` |
**域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。
## 尺寸(width / height)详解
### 常用尺寸
| 尺寸 | 含义 | 像素 | 适用 |
| ----------- | -------- | ------- | --------------- |
| `1024x1024` | 方形 1:1 | \~1MP | 通用、社媒头像 |
| `1024x1536` | 竖版 2:3 | \~1.6MP | 海报、肖像 |
| `1536x1024` | 横版 3:2 | \~1.6MP | 风景、桌面 |
| `1440x2048` | 竖版 \~3:4 | \~2.9MP | 电影竖幅 |
| `1920x1080` | 横版 16:9 | \~2MP | 视频缩略图 |
| `2048x2048` | 方形 1:1 | 4MP | 旗舰打印(FLUX.2 上限) |
### 自定义尺寸约束
FLUX.2 接受任意尺寸,只需同时满足:
1. **width / height 都是 16 的倍数**
2. **最小 64×64**
3. **最大约 4MP**(如 2048×2048 / 1920×2048 / 2048×1920 等)
4. **推荐总像素 ≤ 2MP** 以兼顾速度与价格
**合法示例**:`1280x720`、`1920x1080`、`2048x1024`、`1456x1920`
**非法示例**:`1000x1000`(非 16 倍数)、`3840x2160`(超 4MP 上限)、`32x32`(小于 64×64)
**API 端 width/height 与 OpenAI 兼容写法的差异**:BFL 原生使用 `width` / `height` 整数;APIYI 也接受 OpenAI 风格的 `size: "1024x1024"` 字符串,两种写法等价,二选一即可。
## 最佳实践
旗舰终稿 + 需要联网知识 → `flux-2-max`;生产批量 → `flux-2-pro`;文字海报 / 信息图 → `flux-2-flex`;高吞吐实时 → `flux-2-klein-9b`;图像编辑首选 → `flux-kontext-max` 或 `flux-kontext-pro`。
速度和价格的最优平衡点在 1MP–2MP 之间。仅在打印 / 4K 屏幕等明确需要时再上 4MP,klein 高分辨率会显著增加单次成本。
上传 `image[]` 时顺序作为指代依据,prompt 中显式说"图1的人物放进图2的场景,沿用图3的色彩风格",比让模型自己推断稳得多。
`data[0].url` 仅 **10 分钟有效**,且托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,CORS 默认关闭。生产服务必须代下载到自有 CDN。
招牌、海报、UI 截图等带文字的场景优先用 `flux-2-flex`(专精文字)或 `flux-2-max`(综合质量更高),其它模型小字仍可能糊。
需要"今天的天气"、"昨晚比赛"等实时知识时仅 `flux-2-max` 能用。其它模型纯靠训练数据,无法实时检索。
APIYI 已封装好同步等待,pro / max \< 15 秒到帧,但叠加排队 + 网络抖动建议客户端超时 60–120 秒。flex 较慢可设到 180 秒。
传相同 `seed` + 相同其它参数可获一致结果,适合 A/B 测试与客户验收。klein 不支持 prompt\_upsampling,pro/max/flex 默认关闭,按需开启。
## 错误码与重试
| 状态码 | 含义 | 处理建议 |
| ----- | ------------------------------------------------------ | -------------------------------------- |
| `400` | 参数非法(width/height 非 16 倍数、超 4MP、prompt 超 32K tokens 等) | 按尺寸约束章节校验,特别检查 16 倍数 |
| `401` | 令牌无效 | 检查 Bearer Token |
| `403` | 内容审核拦截 | 调整 prompt 或调高 `safety_tolerance`(最高 6) |
| `429` | 限流 / 余额不足 / active tasks 超限 | 指数退避重试 |
| `5xx` | 网关 / 后端错误 | 重试 1–2 次 |
| 超时 | 长尾 | 客户端超时 ≥ **60 秒**(flex 建议 180 秒) |
**建议客户端**:
* 请求超时 **60–120 秒** 起步(flex 模型放宽到 180 秒)
* 对 5xx 与 429 做 **指数退避重试**(建议 2 次)
* 拿到 `data[0].url` 后**立即异步下载**,不要等用户点击再拉
* 记录响应头 `x-request-id` 方便排查
## 常见问题
BFL 官方设计:所有结果都托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,签名 URL 有效期 10 分钟,且**不开启 CORS**。生产服务必须服务端代下载到自有 OSS / CDN,不能直接给浏览器渲染、也不能让用户长期访问。
APIYI 网关沿用了同一套 URL 机制,行为与官方一致。
APIYI 网关替你做了 polling:你发一个标准的 OpenAI Images API 请求,网关内部代你 POST 到 BFL、轮询 `polling_url` 直到 `Ready`,再把最终的 `result.sample` URL 包装成 `data[0].url` 返回。客户端看到的就是一发请求一次响应,与 OpenAI / GPT-Image / Nano Banana 完全一致。
* **FLUX.2 \[pro/max/flex]**:最多 **8 张**
* **FLUX.2 \[klein]**:最多 **4 张**
* **FLUX.1 Kontext \[pro/max]**:单张为主(多图融合靠拼图变通)
在 prompt 里用「图1/图2/图3」明确指代,例如"把图1的人物放进图2的场景,沿用图3的色彩风格"。也可以自然语言描述,模型理解输入图的内容能力较强。
`prompt_upsampling=true` 时模型会自动扩写 / 优化你的 prompt(特别适合短 prompt)。但**会改变原意**,专业排版 / 品牌素材建议关闭、自由探索时可以开。
**限制**:FLUX.2 \[klein] 系列不支持,传了会被忽略。
仅 `flux-2-max` 支持。**无需特殊参数**,只要 prompt 里包含需要实时知识的内容,模型就会自动联网搜索后再出图。例如:
> "Generate a news photo of the snowstorm hitting NYC on Dec 15, 2025"
适合"昨日比赛比分"、"实时天气"、"历史事件复刻"、"最新流行趋势"等。无联网知识的 prompt 即使打开也不会触发,按普通生图计费。
直接在 prompt 中写 hex 码,并用「color」/「hex」之类关键词显式标注:
```
A vase on a table, the color of the vase is gradient from #02eb3c to #edfa3c, the flowers have color #ff0088
```
或者多色品牌:
```
Luxury eyeshadow palette with 6 pans: top row #B76E79, #E8D5B7, #8B4789; bottom row #CD7F32, #F8F6F0, #800020
```
精度业内领先,无需后期调色。
FLUX.2 支持把 prompt 写成 JSON:
```json theme={null}
{
"subject": "Mona Lisa painting by Leonardo da Vinci",
"background": "museum gallery wall, ornate gold frame",
"lighting": "soft gallery lighting",
"style": "digital art, high contrast",
"camera_angle": "eye level view",
"composition": "centered, portrait orientation"
}
```
把 JSON 字符串作为 `prompt` 字段值传入。适合产线自动化、批量生成同模板素材。
走 `/v1/images/edits`,`multipart/form-data` 上传 `image[]` + `prompt`,详细参数和示例见 [图片编辑 API](/api-capabilities/flux/image-edit)。
**注意**:FLUX.1 Kontext 系列原生只支持单参考图;FLUX.2 系列原生支持最多 8 张。
可以,零代码改动。把 `base_url` 指向 `https://api.apiyi.com/v1` 即可:
```python theme={null}
from openai import OpenAI
client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1")
resp = client.images.generate(
model="flux-2-pro",
prompt="...",
size="1024x1024"
)
```
Node.js 的 `openai` 包同理。所有 FLUX 模型都按 OpenAI Images API 规范返回 `data[0].url`。
**不支持**。客户端断开连接后服务端仍会把生成跑完并照常计费。建议客户端做好超时控制,不要依赖"断连不收费"的假设。
BFL 官方对单账号限 **24 active tasks**,`flux-kontext-max` 单独限 **6 active tasks**。
APIYI 在网关层做了池化,企业用户的并发不受单账号上限制约。如需明确 SLA / RPM 配额,请联系商务申请扩容。
BFL 官方支持 `webhook_url` + `webhook_secret`,但 APIYI 的 OpenAI 兼容封装走同步等待,**未透传 webhook 字段**——不需要轮询,发一发拿一发。如果业务确实需要 webhook,请联系我们说明场景,可单独开启原生异步通道。
**不会**。参数 `400`、内容审核 `403`、限流 `429` 都返回错误且不计费。**只有请求实际进入模型生成阶段(即收到 `200` + `data[0].url`)才会按张数计费**。
## 相关文档
* [文生图 Playground](/api-capabilities/flux/text-to-image) - `/v1/images/generations` 在线调试
* [图片编辑 Playground](/api-capabilities/flux/image-edit) - `/v1/images/edits` 多图融合 + 编辑
* [历史版本与迁移](/api-capabilities/flux/historical-versions) - FLUX.1 \[pro] / \[pro] 1.1 / Ultra / \[dev]
* [API 使用手册](/api-manual) - 通用调用规范
* [GPT-Image-2 概览](/api-capabilities/gpt-image-2/overview) - OpenAI 官方旗舰图像,支持 4K
* [Seedream 概览](/api-capabilities/seedream-image/overview) - 字节火山战略合作通道
FLUX 是 BFL 自研模型族,在 hex 色精确控制、文字渲染、长 prompt 理解上业内领先。如果你更看重 OpenAI 生态一致性可参考 [GPT-Image-2](/api-capabilities/gpt-image-2/overview);更看重中文场景可参考 [Seedream](/api-capabilities/seedream-image/overview)。
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/flux/text-to-image
api-reference/flux-generate-openapi.yaml POST /v1/images/generations
FLUX 文生图 API 参考与在线调试 — FLUX.2 [klein/pro/max/flex] 全系列 OpenAI 兼容直连,支持 4MP 输出与 hex 精确色控
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择模型与尺寸后一键发送即可。
**场景说明**:本页用于「文本生成图片」,仅需输入提示词,无需上传任何图片。如需根据现有图片做编辑、多图融合,请使用 [图片编辑接口](/api-capabilities/flux/image-edit)。
**⚠️ 关键差异 / 不支持的参数**
* **结果 URL 仅 10 分钟有效** — `data[0].url` 必须立即下载,过期返回 404
* **`width` / `height` 必须是 16 的倍数** — 不满足会 400 报错
* **`prompt_upsampling` FLUX.2 \[klein] 不支持** — 传入会被忽略
* **总像素上限 4MP**(约 2048×2048)— 超过会 400 报错
* **`grounding search` 仅 `flux-2-max`** — 其它模型 prompt 含实时知识也不会触发
## 代码示例
### Python(OpenAI SDK 直连)
```python theme={null}
from openai import OpenAI
import requests
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.generate(
model="flux-2-pro",
prompt="A cinematic shot of a futuristic city at sunset, 85mm lens, hyper-realistic",
size="1920x1080"
)
# data[0].url 仅 10 分钟有效,立即下载
image_url = resp.data[0].url
with open("out.jpg", "wb") as f:
f.write(requests.get(image_url, timeout=30).content)
```
### Python(原生 requests · 含 width/height 写法)
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
},
json={
"model": "flux-2-max",
"prompt": "Score of yesterday's Champions League final, infographic style",
"width": 1920,
"height": 1080,
"safety_tolerance": 2,
"output_format": "jpeg",
"seed": 42
},
timeout=120
).json()
image_url = response["data"][0]["url"]
with open("out.jpg", "wb") as f:
f.write(requests.get(image_url, timeout=30).content)
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "flux-2-pro",
"prompt": "Luxury eyeshadow palette with 6 pans: top row #B76E79, #E8D5B7, #8B4789; bottom row #CD7F32, #F8F6F0, #800020",
"size": "1024x1024",
"output_format": "png"
}'
```
### Node.js(原生 fetch)
```javascript theme={null}
import fs from 'node:fs';
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'flux-2-klein-9b',
prompt: 'A serene mountain landscape at golden hour, soft diffused light',
width: 1024,
height: 1024
})
});
const { data } = await resp.json();
// 立即下载 - URL 10 分钟过期
const img = await fetch(data[0].url);
fs.writeFileSync('out.jpg', Buffer.from(await img.arrayBuffer()));
```
### 浏览器 JavaScript(直接渲染)
```javascript theme={null}
{/* 仅作演示,生产请走后端代理避免 Key 泄露;URL 不开 CORS,需要后端代下载 */}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'flux-2-pro',
prompt: 'Watercolor aurora borealis over Nordic mountains',
size: '1536x1024'
})
});
const { data } = await resp.json();
{/* delivery URL 不开 CORS,浏览器直接
渲染可行(不走 fetch 即可),但建议后端代下载到自有 CDN */}
document.getElementById('img').src = data[0].url;
```
## 参数说明速查
| 参数 | 类型 | 必填 | 默认 | 说明 |
| ------------------- | ------- | -- | ----------- | -------------------------------- |
| `model` | string | 是 | — | FLUX 模型 ID,见下表 |
| `prompt` | string | 是 | — | 提示词,最长 32K tokens,支持中英文与结构化 JSON |
| `size` | string | 否 | `1024x1024` | OpenAI 风格尺寸字符串,如 `1920x1080` |
| `width` | integer | 否 | `1024` | BFL 原生写法,与 size 二选一,必须 16 倍数 |
| `height` | integer | 否 | `1024` | BFL 原生写法,必须 16 倍数 |
| `seed` | integer | 否 | 随机 | 固定可复现 |
| `safety_tolerance` | integer | 否 | `2` | 0(最严)– 6(最宽松) |
| `output_format` | string | 否 | `jpeg` | `jpeg` / `png` |
| `prompt_upsampling` | boolean | 否 | `false` | 自动扩写 prompt(\[klein] 不支持) |
| `steps` | integer | 否 | `50` | **仅 `flux-2-flex`**,最大 50 |
| `guidance` | number | 否 | `4.5` | **仅 `flux-2-flex`**,1.5–10 |
| `n` | integer | 否 | `1` | 仅支持 1 |
### 支持的模型 ID
| 模型 ID | 速度 | 适用 |
| -------------------- | ---------- | --------------- |
| `flux-2-max` | \< 15s | 旗舰画质 + 联网搜索 |
| `flux-2-pro` | \< 10s | 生产规模、最佳性价比 |
| `flux-2-flex` | 较慢 | 文字渲染特化 |
| `flux-2-klein-9b` | sub-second | 平衡型 |
| `flux-2-klein-4b` | sub-second | 最快 |
| `flux-pro-1.1-ultra` | \~10s | 老版 4MP(详见历史版本页) |
| `flux-pro-1.1` | \~5s | 老版 1.6MP |
| `flux-pro` | \~6s | 初代 pro |
| `flux-dev` | \~5s | 开发版 |
详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。
## 响应格式
```json theme={null}
{
"created": 1776832476,
"data": [
{
"url": "https://delivery-eu.bfl.ai/results/xxx/sample.jpeg?signature=..."
}
]
}
```
**⚠️ `data[0].url` 仅 10 分钟有效**
* URL 托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,签名 10 分钟过期
* **不开启 CORS**,浏览器 `fetch` 会被拦,但 `
` 直显可行
* 生产服务**必须**服务端代下载到自有 OSS / CDN,不要把原 URL 直接给客户端
与 OpenAI `gpt-image-2`(返回 `b64_json` 纯 base64)不同,**FLUX 走 URL,不返回 base64**。
FLUX 不返回 `usage` 字段(按张计费而非按 token),实际扣费按本文档定价表执行。响应头 `x-request-id` 用于排查。
# Gemini 原生格式调用
Source: https://docs.apiyi.com/api-capabilities/gemini-native-format
通过 API易 直接使用 Gemini 官方原生格式进行 API 调用。
API易 除了支持 OpenAI 兼容格式外,也提供了直接使用 **Gemini 官方原生格式**进行 API 调用的能力。这意味着您可以无缝迁移现有的 Gemini 代码,或直接使用 Gemini 官方 SDK 的原生请求体与 API易 交互。
## 优势
* **无缝兼容**:直接使用 Gemini 官方请求和响应结构,无需任何转换。
* **功能完整**:支持 Gemini 的所有原生特性,包括多模态输入(文本、图片、视频)、Function Calling、代码执行等。
* **推理能力**:完整支持 Gemini 2.5 系列的思维链推理功能。
* **便捷迁移**:对于已有 Gemini 项目的用户,可以快速切换到 API易,享受更灵活的服务。
## 配置与使用
要使用 Gemini 原生格式,您需要将 API 请求发送到特定的 `/v1beta/` 端点。
### 环境准备
我们推荐使用 Google 官方的最新 `google-genai` Python SDK(统一的 Gen AI SDK)。旧版 `google-generative-ai` 已于 2025 年 11 月 30 日停止支持。
首先,确保您已安装 `google-genai` 库:
```bash theme={null}
pip install google-genai
```
### 基础配置
配置 API易 服务端点:
```python theme={null}
from google import genai
{/* 配置 API易 服务 */}
client = genai.Client(
api_key="YOUR_API_KEY", # 您的 API易 密钥
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 使用 Gemini 模型生成内容 */}
response = client.models.generate_content(
model='gemini-3-pro-preview',
contents='您的提示词'
)
print(response.text)
```
## 基础文本生成
### 非流式响应
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 发送请求 */}
response = client.models.generate_content(
model='gemini-2.0-flash',
contents="讲一个关于人工智能的科幻故事。"
)
{/* 输出结果 */}
print(response.text)
```
### 流式响应
对于长文本生成,推荐使用流式响应以获得更好的用户体验:
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 流式生成 */}
response = client.models.generate_content_stream(
model='gemini-2.5-flash',
contents="请写一篇关于量子计算的详细文章。"
)
{/* 实时输出 */}
for chunk in response:
print(chunk.text, end='', flush=True)
```
## Gemini 2.5 系列推理功能
Gemini 2.5 系列模型支持强大的思维链推理能力,可以显示模型的思考过程。
### 推理模型类型
* **gemini-2.5-flash**:混合推理型,可通过 `thinking_budget` 参数调整推理深度(范围:0-16384 tokens)
* **gemini-2.5-pro**:纯推理型,自动启用思维链推理,无法关闭
### 控制推理预算
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 使用推理预算配置 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents="如何设计一个高效的分布式缓存系统?请详细分析各个技术方案。",
config={
"thinking_budget": 8192, # 推理预算:0-16384
"temperature": 1.0 # 温度范围:0-2
}
)
print(response.text)
```
**推理预算说明**:
* `thinking_budget=0`:关闭推理,快速响应
* `thinking_budget=1024-8192`:中等推理深度,平衡速度和质量
* `thinking_budget=16384`:最大推理深度,适合复杂问题
### 显示思考过程
如果您想看到模型的思考过程(thinking tokens),可以设置 `include_thoughts=True`:
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 启用思考过程显示 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents="分析以下代码的时间复杂度:def fibonacci(n): return n if n <= 1 else fibonacci(n-1) + fibonacci(n-2)",
config={
"thinking_budget": 8192,
"include_thoughts": True # 显示思考过程
}
)
{/* 遍历所有部分,包括思考过程 */}
for part in response.candidates[0].content.parts:
if hasattr(part, 'thought') and part.thought:
print(f"💭 思考过程: {part.text}")
else:
print(f"📝 最终答案: {part.text}")
```
**费用说明**:推理过程产生的 thinking tokens 会计入输出 tokens 成本,使用高推理预算可能会增加费用。
## 多模态处理
Gemini 模型支持处理图片、音频、视频等多种媒体类型。
### 图片处理
```python theme={null}
from google import genai
from PIL import Image
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 加载本地图片 */}
img = Image.open('path/to/your/image.jpg')
{/* 多模态请求 */}
response = client.models.generate_content(
model='gemini-2.0-flash',
contents=[
"请详细描述这张图片的内容,包括主要元素、颜色、构图等。",
img
]
)
print(response.text)
```
### 视频处理
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 上传视频文件 */}
video_file = client.files.upload(path='path/to/video.mp4')
{/* 分析视频内容 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents=[
"请总结这个视频的主要内容和关键信息。",
video_file
]
)
print(response.text)
```
### 音频处理
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 上传音频文件 */}
audio_file = client.files.upload(path='path/to/audio.mp3')
{/* 转录和分析音频 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents=[
"请转录这段音频的内容,并总结主要话题。",
audio_file
]
)
print(response.text)
```
### 媒体分辨率优化
为了节省 tokens 费用,您可以调整媒体文件的分辨率:
```python theme={null}
from google import genai
from PIL import Image
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 使用较低分辨率处理图片,节省费用 */}
img = Image.open('large_image.jpg')
response = client.models.generate_content(
model='gemini-2.0-flash',
contents=[
"这张图片的主题是什么?",
img
],
config={
"response_modalities": ["TEXT"],
"media_resolution": "MEDIA_RESOLUTION_LOW" # LOW | MEDIUM | HIGH
}
)
print(response.text)
```
**媒体文件限制**:
* 文件大小:少于 20MB
* 支持格式:图片(JPG、PNG、WebP)、音频(MP3、WAV)、视频(MP4、MOV)
* 上传方式:使用 `client.files.upload()` 或直接传递 PIL Image 对象
## 代码执行功能
Gemini 模型支持自动执行 Python 代码,非常适合数据分析场景。
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 数据分析示例,启用代码执行工具 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents="""
假设我有以下销售数据:
- 产品A:100件,单价50元
- 产品B:200件,单价30元
- 产品C:150件,单价40元
请计算:
1. 总销售额
2. 平均单价
3. 绘制销售额分布的柱状图
""",
config={'tools': [{'code_execution': {}}]}
)
{/* 查看执行的代码和结果 */}
for part in response.candidates[0].content.parts:
if hasattr(part, 'executable_code'):
print(f"执行的代码:\n{part.executable_code.code}")
if hasattr(part, 'code_execution_result'):
print(f"执行结果:\n{part.code_execution_result.output}")
if hasattr(part, 'text'):
print(f"分析说明:\n{part.text}")
```
**代码执行限制**:
* 仅支持 Python 代码
* 执行环境为沙箱环境,无法访问网络和文件系统
* 执行超时时间有限制
## Function Calling(工具调用)
Gemini 原生格式完整支持 Function Calling,让模型可以调用外部工具。
### 定义工具
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 定义天气查询工具 */}
tools = [
{
"function_declarations": [
{
"name": "get_current_weather",
"description": "获取指定城市的当前天气信息",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市名称,例如:北京、上海"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"],
"description": "温度单位"
}
},
"required": ["location"]
}
}
]
}
]
```
### 自动工具调用
```python theme={null}
from google import genai
{/* 设置工具调用模式 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents="北京现在的天气怎么样?温度是多少摄氏度?",
config={
'tools': tools,
'tool_config': {'function_calling_config': {'mode': 'AUTO'}}
}
)
{/* 检查是否需要调用工具 */}
function_call = response.candidates[0].content.parts[0].function_call
if function_call:
print(f"调用工具: {function_call.name}")
print(f"参数: {dict(function_call.args)}")
{/* 实际调用您的天气 API */}
def get_current_weather(location, unit="celsius"):
# 这里应该调用真实的天气 API
return {
"location": location,
"temperature": 22,
"unit": unit,
"condition": "晴朗"
}
{/* 获取工具执行结果 */}
weather_data = get_current_weather(**dict(function_call.args))
{/* 将结果返回给模型 */}
from google.genai import types
response = client.models.generate_content(
model='gemini-2.5-flash',
contents=[
types.Content(
parts=[
types.Part(
function_response=types.FunctionResponse(
name=function_call.name,
response=weather_data
)
)
]
)
]
)
print(f"最终回答: {response.text}")
```
**工具调用模式**:
* `mode: 'AUTO'`:模型自动决定是否调用工具(推荐)
* `mode: 'ANY'`:强制模型必须调用工具
* `mode: 'NONE'`:禁用工具调用
## 上下文缓存
API易 自动为 Gemini 原生格式启用隐式上下文缓存,可以显著降低重复对话的费用。
### 缓存机制
* **自动启用**:无需手动配置,系统自动缓存上下文
* **缓存费用**:缓存的 tokens 按正常价格的 25% 计费
* **有效期**:缓存会在一定时间后自动过期
### 检测缓存命中
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 发送请求 */}
response = client.models.generate_content(
model='gemini-2.5-flash',
contents="你好,请介绍一下量子计算。"
)
{/* 检查缓存命中 */}
usage = response.usage_metadata
if hasattr(usage, 'cached_content_token_count'):
print(f"缓存命中 tokens: {usage.cached_content_token_count}")
print(f"输入 tokens: {usage.prompt_token_count}")
print(f"输出 tokens: {usage.candidates_token_count}")
```
**缓存优势**:
* 对于长上下文对话,可节省 75% 的输入 tokens 费用
* 适合多轮对话、文档分析、代码审查等场景
* 缓存命中非保证,实际节省因场景而异
## Tokens 用量追踪
每次 API 调用都会返回详细的 tokens 用量信息。
### 获取用量统计
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
response = client.models.generate_content(
model='gemini-2.5-flash',
contents="解释一下机器学习的基本原理。"
)
{/* 获取用量元数据 */}
usage = response.usage_metadata
print(f"提示词 tokens: {usage.prompt_token_count}")
print(f"输出 tokens: {usage.candidates_token_count}")
print(f"总计 tokens: {usage.total_token_count}")
{/* 如果有缓存命中 */}
if hasattr(usage, 'cached_content_token_count'):
print(f"缓存 tokens: {usage.cached_content_token_count}")
{/* 如果有推理 tokens(Gemini 2.5 系列)*/}
if hasattr(usage, 'thoughts_token_count'):
print(f"推理 tokens: {usage.thoughts_token_count}")
```
### Tokens 字段说明
| 字段 | 说明 | 计费 |
| ---------------------------- | ---------------- | ------------- |
| `prompt_token_count` | 输入提示词的 tokens 数量 | 按输入价格计费 |
| `candidates_token_count` | 输出内容的 tokens 数量 | 按输出价格计费 |
| `cached_content_token_count` | 缓存命中的 tokens 数量 | 按输入价格的 25% 计费 |
| `thoughts_token_count` | 推理过程的 tokens 数量 | 按输出价格计费 |
| `total_token_count` | 总计 tokens 数量 | - |
## 注意事项
请确保使用您的 **API易 密钥**,而非 Google AI Studio 的密钥。
Gemini 原生格式使用 `https://api.apiyi.com` 作为 base\_url,兼容 Google 官方 REST API 格式。
直接使用 Gemini 官方模型名称,如 `gemini-3-pro-preview`、`gemini-2.5-flash`。
完全支持 Gemini 官方的多模态数据格式,可直接传递图片、视频、音频。
**重要限制**:
* 媒体文件大小不能超过 20MB
* 代码执行仅支持 Python,且在沙箱环境中运行
* 推理 tokens 会增加输出成本,请合理设置 `thinking_budget`
## 与 OpenAI 兼容格式的对比
| 特性 | Gemini 原生格式 | OpenAI 兼容格式 |
| -------- | -------------------------------- | ------------------------------------------- |
| **端点** | `https://api.apiyi.com` | `https://api.apiyi.com/v1/chat/completions` |
| **SDK** | `google-genai` | `openai` |
| **推理控制** | `thinking_budget` (0-16384) | `reasoning_effort` (low/medium/high) |
| **思考过程** | `include_thoughts=True` | 不支持 |
| **代码执行** | `tools=[{'code_execution': {}}]` | 不支持 |
| **媒体上传** | `client.files.upload()` | Base64 编码 |
| **缓存检测** | `cached_content_token_count` | 无详细字段 |
如果您需要调用其他类型的模型(如 OpenAI 系列)或使用 OpenAI 兼容格式,请参考 [OpenAI 官方库使用](/api-capabilities/openai-sdk) 文档。
## 完整示例
以下是一个综合示例,展示了多种功能的组合使用:
```python theme={null}
from google import genai
from PIL import Image
{/* 配置 */}
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"base_url": "https://api.apiyi.com"}
)
{/* 定义工具 */}
tools = [{
"function_declarations": [{
"name": "search_database",
"description": "搜索产品数据库",
"parameters": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "搜索关键词"}
},
"required": ["query"]
}
}]
}]
{/* 多模态 + 工具调用 + 流式输出 */}
img = Image.open('product.jpg')
response = client.models.generate_content_stream(
model='gemini-2.5-flash',
contents=[
"这张图片中的产品是什么?请搜索数据库查找类似产品,并推荐给我。",
img
],
config={
'tools': tools,
'tool_config': {'function_calling_config': {'mode': 'AUTO'}},
'thinking_budget': 4096,
'temperature': 0.7,
'include_thoughts': False
}
)
{/* 处理流式响应 */}
for chunk in response:
if chunk.text:
print(chunk.text, end='', flush=True)
{/* 检查工具调用 */}
if chunk.candidates and chunk.candidates[0].content.parts:
for part in chunk.candidates[0].content.parts:
if hasattr(part, 'function_call'):
print(f"\n[调用工具: {part.function_call.name}]")
{/* 查看最终用量(需要等待流式响应完全结束)*/}
if hasattr(response, 'usage_metadata'):
print(f"\n\nTokens 用量: {response.usage_metadata.total_token_count}")
```
## 获取帮助
如果您在使用 Gemini 原生格式时遇到问题,可以:
* 查看 [API 文档](/api-reference) 了解详细的 API 规范
* 参考 [模型列表](/models) 查看可用的 Gemini 模型
* 联系技术支持获取帮助
# 对话式 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/chat-completions
api-reference/gpt-image-2-all-chat-openapi.yaml POST /v1/chat/completions
gpt-image-2-all 对话式端点 — 一个端点同时支持文生图与带参考图改图,方便直接传入在线图片 URL,支持多轮迭代。
**对话式端点特点**:**一个端点同时支持文生图与带参考图改图**,方便直接传入**在线图片 URL**(CDN 链接或 base64 data URL)作为参考图,并能天然做多轮迭代。右侧 Playground 填入 API Key 后,直接从下拉选择 example(文生图 / 带参考图改图 / 多轮迭代)即可。
如果你希望同一套代码兼容官转和官逆,建议使用 `/v1/images/generations` 与 `/v1/images/edits`(OpenAI Images API 标准格式)。
**选择模式**:
* 仅输入文本 `messages` → **文生图**
* `messages` 中加入 `image_url`(URL 或 base64 data URL)→ **带参考图改图**
* 保留 `assistant` 历史消息继续追问 → **多轮迭代改图**
**🖥️ 浏览器 Playground 限制(响应含 base64 时)**
本端点**默认返回 R2 CDN URL**(`data[0].url`),Playground 显示正常。少数情况下如果返回的是 base64(`data[0].b64_json`),或你在 `image_url` 里传入了大 base64 输入图,响应字符串可能达数 MB,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的内容。
**推荐做法**:遇到此提示时,**直接复制下方"代码示例"到本地运行**,程序可从 `data[0].url` 或 `data[0].b64_json` 中拿到结果(**两者只会出现其一**,不会同时返回)。
## 代码示例
### Python(文生图)
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/chat/completions",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"model": "gpt-image-2-all",
"messages": [
{"role": "user", "content": "横版 16:9 电影画幅,黄昏时的海边老灯塔,写实风格"}
]
},
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
# 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"]
print(response["data"][0]["url"])
```
### Python(带参考图改图)
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
# 可用 HTTPS URL,也可以用 base64 data URL
with open("photo.png", "rb") as f:
data_url = "data:image/png;base64," + base64.b64encode(f.read()).decode()
response = requests.post(
"https://api.apiyi.com/v1/chat/completions",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"model": "gpt-image-2-all",
"messages": [
{
"role": "user",
"content": [
{"type": "text", "text": "把这张图改成水彩画风"},
{"type": "image_url", "image_url": {"url": data_url}}
]
}
]
},
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
# 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"]
print(response["data"][0]["url"])
```
### cURL(文生图)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2-all",
"messages": [
{"role": "user", "content": "横版 16:9,赛博朋克雨夜街景,霓虹招牌写着 Hello World"}
]
}'
```
### cURL(带参考图改图)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2-all",
"messages": [
{
"role": "user",
"content": [
{ "type": "text", "text": "把这张图改成水彩画风" },
{ "type": "image_url", "image_url": { "url": "https://example.com/photo.png" } }
]
}
]
}'
```
### Node.js(文生图)
```javascript theme={null}
const API_KEY = "sk-your-api-key";
const response = await fetch("https://api.apiyi.com/v1/chat/completions", {
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
model: "gpt-image-2-all",
messages: [
{ role: "user", content: "1024x1024 方形 LOGO,极简猫咪线条" }
]
})
});
const data = await response.json();
// 默认返回 url;如显式切到 b64_json 模式则取 data.data[0].b64_json
console.log(data.data[0].url);
```
### Node.js(带参考图改图)
```javascript theme={null}
import fs from "node:fs";
const API_KEY = "sk-your-api-key";
const imgB64 = fs.readFileSync("./photo.png").toString("base64");
const dataUrl = `data:image/png;base64,${imgB64}`;
const response = await fetch("https://api.apiyi.com/v1/chat/completions", {
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
model: "gpt-image-2-all",
messages: [
{
role: "user",
content: [
{ type: "text", text: "把这张图改成水彩画风" },
{ type: "image_url", image_url: { url: dataUrl } }
]
}
]
})
});
const data = await response.json();
// 默认返回 url;如显式切到 b64_json 模式则取 data.data[0].b64_json
console.log(data.data[0].url);
```
**关于 OpenAI SDK**:本端点**请求格式**与 OpenAI Chat Completions 兼容,但**响应格式**为 `{data: [{url|b64_json}], created, usage}`,不含 `choices` 字段。直接用 `client.chat.completions.create(...)` 解析时会失败,请改用上面的 `requests` / `fetch` 直接拿到原始 JSON 解析。
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| -------------------- | --------------- | -- | ------------------------------------------------- |
| `model` | string | 是 | 固定填 `gpt-image-2-all` |
| `messages` | array | 是 | 对话消息数组;支持 `system` / `user` / `assistant` 三种 role |
| `messages[].content` | string \| array | 是 | 纯文本字符串(文生图)或多模态数组(带图改图) |
| `stream` | boolean | 否 | 是否流式。本模型为一次性出图,建议保持 `false` |
**多模态 content 片段**(`content` 为数组时):
| 字段 | 类型 | 必填 | 说明 |
| --------------- | ------ | -- | --------------------------------------------------------------------- |
| `type` | enum | 是 | `text` 或 `image_url` |
| `text` | string | 条件 | 当 `type=text` 时必填 |
| `image_url.url` | string | 条件 | 当 `type=image_url` 时必填。支持 `https://...` 或 `data:image/png;base64,...` |
详细的字段说明与可选值请查看右侧 Playground。下拉 "Example" 可在 **文生图 / 带参考图改图 / 多轮迭代** 之间切换。
## 响应格式
对话式端点的响应格式为 `{data: [{url|b64_json}], created, usage}` ——`data[0]` 中**只会出现 `url` 或 `b64_json` 之一**,不会同时返回。本端点**默认返回 `url`**。
**默认 `url` 输出**:
```json theme={null}
{
"data": [
{
"url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png"
}
],
"created": 1778037331,
"usage": {
"input_tokens": 30,
"output_tokens": 2074,
"total_tokens": 2104
}
}
```
**`b64_json` 输出**(少数情况):
```json theme={null}
{
"data": [
{
"b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"created": 1778037127,
"usage": {
"input_tokens": 98,
"output_tokens": 1185,
"total_tokens": 1283
}
}
```
**解析建议**:先取 `data[0].url`,若为空再取 `data[0].b64_json`。`b64_json` 已带 `data:image/png;base64,` 前缀,可直接作为 `
` 使用。
## 对话式端点的优势
不需要在 generations / edits 两个端点之间切换,统一走一个端点
`image_url` 直接接受 CDN 图片地址或 base64 data URL,无需 multipart 上传
保留 `assistant` 历史消息即可继续精调,逻辑与 ChatGPT 一致
OpenAI 官方 SDK、LangChain、各类 Chat 前端都能直接对接
如果你的代码需要**同时兼容官转与官逆**,建议改用 `/v1/images/generations` 与 `/v1/images/edits`(OpenAI Images API 标准格式),同一套代码即可切换通道。
## 相关资源
能力说明、定价、最佳实践
OpenAI Images API 兼容端点
multipart/form-data 上传参考图改图
imagen.apiyi.com 在线测试
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/image-edit
api-reference/gpt-image-2-all-edit-openapi.yaml POST /v1/images/edits
gpt-image-2-all 图片编辑 API 参考与在线调试 — 上传参考图 + 指令进行单图改图或多图融合
右侧的交互式 Playground 支持直接上传本地图片。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),选择图片与填入 `prompt`、`model` 后一键发送即可。
**场景说明**:本页用于「基于一张或多张参考图改图 / 融合生成」。请求为 `multipart/form-data` 格式。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/gpt-image-2-all/text-to-image)。
**🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)**
本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。
**推荐做法**:
* 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。
* 想要 base64 或要传超大参考图:**复制下方"代码示例"到本地运行**,代码会自动处理上传与解码。
**📎 多图融合顺序有意义**
`image` 字段可重复传入多张参考图,**顺序将作为 prompt 中「图1/图2/图3」的引用依据**。建议在 prompt 中显式指代,例如:
> 把图1的人物放进图2的场景,参考图3的画风
推荐单张 **≤ 10MB**,格式 `png` / `jpg` / `webp`,过大的图可能触发网关限制。
**🎯 保形改图小技巧**:本端点的输出尺寸**跟随 prompt 里点名要修改的那张图的比例**——多图场景下**不一定是第一张**。
例如 prompt 写"**修改图2**,把图2 的衣服和帽子改成图1 里的样子",那图2 是 1:1,则输出也是 1:1(即便图1 是横版 16:9)。
对换装、加帽子、修图等保形场景特别好用。**`size` 字段在本模型不生效**(传入静默忽略,要严格锁尺寸请用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/image-edit));prompt 没明确指代时由模型自行判断。
## 代码示例
### Python
**单图编辑**:
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
with open("photo.png", "rb") as f:
response = requests.post(
"https://api.apiyi.com/v1/images/edits",
headers={"Authorization": f"Bearer {API_KEY}"},
data={
"model": "gpt-image-2-all",
"prompt": "把背景换成海边黄昏",
"response_format": "url"
},
files=[
("image", ("photo.png", f, "image/png"))
],
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
print(response["data"][0]["url"])
```
**多图融合**:
```python theme={null}
import requests
with open("ref1.png", "rb") as f1, \
open("ref2.png", "rb") as f2, \
open("ref3.png", "rb") as f3:
response = requests.post(
"https://api.apiyi.com/v1/images/edits",
headers={"Authorization": "Bearer sk-your-api-key"},
data={
"model": "gpt-image-2-all",
"prompt": "把图1的人物放进图2的场景,参考图3的画风",
"response_format": "b64_json"
},
files=[
("image", ("ref1.png", f1, "image/png")),
("image", ("ref2.png", f2, "image/png")),
("image", ("ref3.png", f3, "image/png"))
],
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
# b64_json 已含 "data:image/png;base64," 前缀,可直接用于
data_url = response["data"][0]["b64_json"]
```
### cURL
**单图编辑**:
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2-all" \
-F "prompt=把背景换成海边黄昏" \
-F "response_format=url" \
-F "image=@./photo.png"
```
**多图融合**:
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2-all" \
-F "prompt=把图1的人物放进图2的场景,参考图3的画风" \
-F "response_format=b64_json" \
-F "image=@./ref1.png" \
-F "image=@./ref2.png" \
-F "image=@./ref3.png"
```
### Node.js(原生 fetch + FormData)
```javascript theme={null}
import fs from 'node:fs';
const form = new FormData();
form.append('model', 'gpt-image-2-all');
form.append('prompt', '把背景换成太空');
form.append('response_format', 'url');
form.append(
'image',
new Blob([fs.readFileSync('./photo.png')]),
'photo.png'
);
const resp = await fetch('https://api.apiyi.com/v1/images/edits', {
method: 'POST',
headers: { 'Authorization': 'Bearer sk-your-api-key' },
body: form
});
const data = await resp.json();
console.log(data.data[0].url);
```
### 浏览器 JavaScript(File 对象)
```javascript theme={null}
//
const files = document.getElementById('fileInput').files;
const form = new FormData();
form.append('model', 'gpt-image-2-all');
form.append('prompt', '把这几张图融合成一张海报');
form.append('response_format', 'url');
for (const f of files) form.append('image', f);
const resp = await fetch('https://api.apiyi.com/v1/images/edits', {
method: 'POST',
headers: { 'Authorization': 'Bearer sk-your-api-key' },
body: form
});
const { data } = await resp.json();
document.getElementById('result').src = data[0].url;
```
## 参数说明速查
| 字段 | 类型 | 必填 | 说明 |
| ----------------- | ---- | -- | ------------------------------------------------------------------------------------------------------------------------------------------ |
| `model` | text | 是 | 固定填 `gpt-image-2-all` |
| `prompt` | text | 是 | 改图/融合的自然语言描述 |
| `image` | file | 是 | 参考图,可重复多次(数组字段) |
| `size` | text | 否 | **本字段不生效,传入会被静默忽略**。输出尺寸**跟随 prompt 里点名要修改的那张图的比例**(多图下不一定是第一张)。要严格锁尺寸请用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/image-edit) |
| `response_format` | text | 否 | `b64_json`(默认)或 `url` |
**多轮迭代**:把上一次的输出图片作为下一次的 `image` 输入,配合新的编辑指令,可逐步精调画面效果。
## 响应格式
与文生图接口一致:**`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。
**`b64_json` 模式**(默认):
```json theme={null}
{
"data": [
{
"b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"created": 1778037127,
"usage": {
"input_tokens": 98,
"output_tokens": 1185,
"total_tokens": 1283
}
}
```
**`url` 模式**(需显式 `"response_format": "url"`):
```json theme={null}
{
"data": [
{
"url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png"
}
],
"created": 1778037331,
"usage": {
"input_tokens": 30,
"output_tokens": 2074,
"total_tokens": 2104
}
}
```
`b64_json` 字段已经包含 `data:image/png;base64,` 前缀,可直接使用。**无需再手动拼接前缀**。
# GPT-Image-2-All 生图/编辑
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/overview
GPT 图像生成 ChatGPT 网页版官逆模型 gpt-image-2-all,$0.03/张按次计费,约 30–60 秒出图,支持文生图、多图融合编辑、自然语言改图,文字还原度高、中文提示词友好。
## 概述
**gpt-image-2-all** 是 API易 平台上线的一款 **GPT 图像生成官逆模型**(逆向 ChatGPT 网页版)。以 **\$0.03/张** 的极具竞争力的按次计费定价,**约 30–60 秒出图**,支持 **文生图 / 单图编辑 / 多图融合 / 自然语言改图**,文字还原度高、内容限制少、原生支持中文提示词。
**🎨 核心亮点**:官逆通道稳定、定价统一每张 \$0.03,无需关心 size/quality/n 等参数,尺寸与风格全部写进 prompt 即可——最适合"开箱即用"的图像生成场景。同时兼容 `/v1/chat/completions` 与 `/v1/images/generations`、`/v1/images/edits` 三个端点,按需选择即可。
**需要锁定输出尺寸或 4K?** 请改用姐妹模型 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)——调用方式与本模型完全一致,仅多一个 `size` 字段。
OpenAI Chat Completions 格式,同端点支持文生图与带图改图,方便直接传入在线图片 URL。
`/v1/images/generations`,输入文本提示词生成图片。
`/v1/images/edits`,multipart 上传参考图 + 编辑/融合指令。
## 核心特性
统一按次计费 \$0.03/张,无分辨率阶梯,出图成本可预测
图内中英文、招牌、海报文字还原稳定,适合信息图与营销物料
原生理解中文描述,无需翻译即可获得高质量输出
支持多张参考图同时输入,prompt 中可用「图1/图2/图3」指代
相比部分官方模型,对创作类题材更宽松,出图成功率更高
默认返回 R2 CDN 链接,全球低延迟下载,可改为 b64\_json
支持通过对话描述直接改图,无需蒙版,可多轮迭代
同时兼容 `/images/generations`、`/images/edits`、`/chat/completions`
## 模型定价
| 模型名 | 计费方式 | 价格 | 输出 |
| ----------------- | ---- | -------------- | ---------- |
| `gpt-image-2-all` | 按次计费 | **\$0.03 / 张** | 单次返回 1 张图片 |
**计费说明**:
* 统一定价,不区分分辨率、质量或提示词长度
* 失败请求不计费(如鉴权失败、参数校验失败)
* 如需生成 N 张,客户端并行调用 N 次
**同价姐妹模型**:[`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)(逆向 Codex 线路)同样 \$0.03/张,支持 30 档常见 size(含 4K),调用方式与本模型完全一致——需要锁定输出尺寸时切过去即可。
## 分组介绍
`gpt-image-2-all` **放在 `Default` 默认分组**即可,不需要额外切分组。逆向通道目前供给稳定,不存在像官转那样需要"企业分组"过渡的场景。
| 模型 | 分组 | 备注 |
| ----------------- | --------- | --------------------------------------- |
| `gpt-image-2-all` | `Default` | 逆向 ChatGPT 官网线路,统一 \$0.03/张,约 30–60 秒出图 |
**进阶玩法(同时使用 `gpt-image-2-vip` 与官转 `gpt-image-2`)**:如果你的令牌同时覆盖逆向两模与官转 `gpt-image-2`,可以在令牌的「分组优先级」里这样配——
* **第一优先级**:`image2Enterprise`(1.2x 企业分组,官转专用稳定通道)
* **默认(兜底)**:`Default`(逆向两模都在这里,按模型路由)
这样官转 `gpt-image-2` 走企业分组保稳,逆向两模仍走默认分组——一把令牌覆盖三种模型,互不干扰。
📖 关于 `image2Enterprise` 企业分组:[/live/2026-04/image2-enterprise](/live/2026-04/image2-enterprise)
## 技术规格
| 维度 | 参数 |
| ---------- | ------------------------------------------ |
| **模型名** | `gpt-image-2-all` |
| **渠道性质** | 官方逆向(逆向 ChatGPT 官网) |
| **定价** | \$0.03 / 张,按次计费 |
| **出图速度** | 约 30–60 秒 |
| **输出分辨率** | 无显式 size 参数,由模型自适应(建议在 prompt 中描述) |
| **默认响应格式** | `url`(R2 CDN 加速链接,**默认 1 天有效期**) |
| **可选响应格式** | `b64_json`(已含 `data:image/png;base64,` 前缀) |
| **中文提示词** | ✅ 原生支持 |
| **支持能力** | 文生图、单图编辑、多图融合、自然语言改图 |
本模型为**自适应输出尺寸**,不等同于官转 `gpt-image-2` API。需要严格锁定输出尺寸或 4K 时,请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)(逆向 Codex 线路,30 档 size 含 4K);需要官方完全一致字段时,请使用 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)(官转)。
**⏰ 图片 URL 有效期:默认 1 天**
默认响应的 `url` 字段是 R2 CDN 加速链接,**有效期约 24 小时**,过期后访问会 404。对于需要长期保存的图片(商品图、用户作品、历史记录等),请**在生成后尽快转存到自己的对象存储 / CDN / 数据库**。
两种常见做法:
* **服务端立即下载并入库**:收到响应后用 `requests` / `fetch` 把图片拉回来存到 S3 / OSS / R2 / 本地磁盘
* **改用 `b64_json` 响应格式**:直接拿到 base64 图片数据,省一次跨域下载,适合前端直接渲染或写入文件
## 端点一览
| 端点 | 用途 | Content-Type | 适用场景 |
| ----------------------------- | ------------------------ | --------------------- | --------------------------------------- |
| `POST /v1/chat/completions` | 对话式(文生图 / 改图 / 多轮 / 参考图) | `application/json` | 方便直接传入在线图片 URL;一个端点同时支持文生图与图片编辑 |
| `POST /v1/images/generations` | 文生图 | `application/json` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 |
| `POST /v1/images/edits` | 图片编辑(单图 / 多图) | `multipart/form-data` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 |
**域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。
**想用 `size` 参数锁定输出尺寸?** 改用姐妹模型 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)——三个端点完全一致,仅多一个 `size` 字段(30 档常见 size,含 4K)。
## 尺寸与比例控制(写进 prompt)
`gpt-image-2-all` 没有 `size` 参数,尺寸通过 prompt 描述。如果你需要严格锁定输出尺寸(电商主图、海报模板、4K 壁纸等),请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)。
### 经过验证的「提示词 → 实际分辨率」对照表
下表是实测复现稳定的 8 种写法。把第一列的描述放在 prompt **最前面**,就能拿到第二列的分辨率(输出全部在 1.5K 像素量级):
| 提示词包含描述 | 实测分辨率 | 文件体积 | 实际比例 |
| --------- | ----------- | -------- | ---- |
| `横版 16:9` | 1672 × 941 | \~1.9 MB | 16:9 |
| `竖屏 9:16` | 941 × 1672 | \~2.1 MB | 9:16 |
| `4:3` | 1448 × 1086 | \~2.3 MB | 4:3 |
| `3:4` | 1086 × 1448 | \~2.5 MB | 3:4 |
| `3:2 尺寸` | 1024 × 1536 | \~3.0 MB | 3:2 |
| `2:3 尺寸` | 1536 × 1024 | \~2.9 MB | 2:3 |
| `2:5 竖屏` | 793 × 1983 | \~1.9 MB | 2:5 |
| `5:2 横屏` | 1983 × 793 | \~1.9 MB | 5:2 |
**使用须知**:
* 输出统一在 \~1.5K 量级(最长边 1500–2000 px),**不是真正的"任意分辨率"**——所有 8 种写法都属于"约 1.5K"水平的模型上限
* prompt 里**只**包含表中描述词时复现度最高;和其它构图词混写会发生偏离
* `3:2 尺寸` / `2:3 尺寸` 实测方向与典型 W:H 直觉**相反**(前者得到 1024×1536 竖图),请按表里给定的写法照搬,不要望文生义
### 风格化补充写法(无固定分辨率)
下面这些写法没有稳定的实测分辨率,仅作风格修饰用,搭配上表使用:
| 需求 | 写法(仅风格参考,不保证分辨率) |
| ---- | --------------------------- |
| 方形 | `1024×1024 方图` / `1:1 方形构图` |
| 超宽横幅 | `横幅 21:9 超宽银幕` |
| 画幅风格 | `电影画幅` / `手机海报` / `方形构图` |
**技巧**:在 prompt **开头** 描述尺寸/构图,模型遵循度更高。
### 把这张表暴露给终端用户
虽然 `gpt-image-2-all` 没有 `size` 参数,但接入方完全可以在前端加一个「尺寸 / 比例」下拉框,给用户**和官方 size 一样的体验**:
* 每个选项的 value 直接用上表的 prompt 前缀(如 `横版 16:9`)
* label 同时展示**预期分辨率**(如 `横版 16:9 (1672×941)`),让用户对最终输出有数
* 后端把选中的 prefix 拼到用户原始 prompt 的最前面再发给 API
```js theme={null}
const SIZE_OPTIONS = [
{ label: "横版 16:9 (1672×941)", prefix: "横版 16:9" },
{ label: "竖屏 9:16 (941×1672)", prefix: "竖屏 9:16" },
{ label: "4:3 (1448×1086)", prefix: "4:3" },
{ label: "3:4 (1086×1448)", prefix: "3:4" },
{ label: "3:2 (1024×1536)", prefix: "3:2 尺寸" },
{ label: "2:3 (1536×1024)", prefix: "2:3 尺寸" },
{ label: "2:5 竖屏 (793×1983)", prefix: "2:5 竖屏" },
{ label: "5:2 横屏 (1983×793)", prefix: "5:2 横屏" },
];
const finalPrompt = `${selected.prefix},${userPrompt}`;
```
底层模型仍是**自适应**——返回分辨率允许 ±少量像素偏差,请不要在 UI 上向用户承诺"像素级精确"。**需要严格锁死输出尺寸**(电商主图、海报模板、4K 壁纸等),请改用姐妹模型 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)——同价、同套调用代码,仅多一个 `size` 字段。
## 最佳实践
把比例、分辨率、画幅描述放在提示词最前面,模型遵循度更高。
该模型文字还原度是主要卖点,招牌、海报、信息图都可直接写中英文文字。
重复传入的同名 `image` 字段顺序有意义,在 prompt 里可用「图1/图2/图3」明确指代。
Web 应用直接渲染用 `b64_json`,服务端中转存储用 `url`。
典型 30–60s,但叠加图片上传 / 下载、官逆高峰长尾后实际耗时波动较大。**保守按 300 秒配**,避免大量误超时。
`gpt-image-2-all` 不接受 `size`、`n`、`quality`、`aspect_ratio`,传入可能触发参数校验错误——请把它们从请求里去掉。需要传 `size` 时改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)。
## 错误码与重试
| 状态码 | 含义 | 建议 |
| ----- | ------------------ | ------------------------ |
| `401` | 令牌无效 | 检查 Bearer Token |
| `429` | 限流/额度不足 | 指数退避重试 |
| `5xx` | 网关/后端临时错误 | 重试 1–2 次 |
| 超时 | 官逆高峰偶发 + 图片上传/下载长尾 | 客户端设置 **≥ 300s 超时**(保守值) |
**建议客户端**:
* 请求超时 **300 秒** 起步(保守值;典型 30–60s,但叠加图片上传 / 下载、官逆高峰长尾后波动大,按 120s 配置容易误超时)
* 对 5xx 与超时做 **指数退避重试**(建议 2–3 次)
* 记录响应头 `request-id` 方便排查
## 常见问题
两者价格一样(\$0.03/次),都是逆向通道,**调用方式完全一致**,差异主要在 `size` 和出图速度:
* **不需要严格控尺寸、追求出图速度** → `gpt-image-2-all`(约 30–60s 出图,尺寸写进 prompt)。
* **要锁死输出尺寸或要 4K** → [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)(约 90–150s 出图,30 档常见 size 含 4K)。
* **需要画质参数 `quality` 或 OpenAI 官方完全对齐字段** → 改用官方版 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)。
本模型单次返回 1 张。如需 N 张,请客户端并行调用 N 次。每张独立按 \$0.03 计费。
**不支持。** 本模型单次只返回 1 张图,请通过**重复调用 / 并发调用**的方式生成多张。
⚠️ **重要**:如果在请求里传入 `n=3`,**计费会按 0.03 × 3 = \$0.09 扣费**,但**实际上仍然只返回 1 张图**。请务必把 `n` 字段从请求里去掉,避免被多扣费。
**不要**。本模型返回的 `b64_json` 字段已经带前缀,可直接赋给 HTML `
` 或写入文件。如果你的代码沿用了"先拼前缀"的老逻辑,会产出损坏的 data URL,请先做 `startsWith('data:')` 检测。
自适应模型对尺寸描述是"参考"不是"强制"。提升遵循度的写法:把尺寸/画幅词放在 prompt 最前面,并配合画幅风格词(如 `电影画幅`、`手机海报`、`方形构图`)。
具体能稳定复现的写法和对应分辨率,参见上文「尺寸与比例控制 → 经过验证的『提示词 → 实际分辨率』对照表」。
推荐 **单张 ≤ 10MB**,格式 `png` / `jpg` / `webp`。过大的图可能触发网关限制。多图融合时每张都需满足此限制。
默认响应的 `url` 字段是 **R2 CDN 加速链接,有效期约 1 天(24 小时)**,过期后会 404。
**强烈建议**:生成后尽快把图片 **转存到自己的对象存储(S3 / OSS / R2)、CDN 或数据库**,不要长期直接引用本服务返回的 URL。
**两种推荐做法**:
* **服务端中转**:收到响应后立即 `requests.get(url)` 把图片拉回来存到你自己的存储,把你自己的 URL 返回给前端;
* **改用 b64\_json**:请求时加 `"response_format": "b64_json"`,直接拿到 base64 图片数据,少一次跨域下载,适合前端直接渲染或写入文件。
如果只是短期展示(如单次会话预览),可以直接用 R2 URL 无需转存。
本模型为一次性出图,不支持 stream 输出。如果对响应延迟敏感,建议客户端显示"生成中"进度提示,并合理配置 **300s 超时**(保守值)。
可以。把 `base_url` 指向 `https://api.apiyi.com/v1`,`api_key` 设为 API易 令牌即可。但 `client.images.generate()` 方法默认带 `size`/`n` 参数——建议:
* 使用 `client.chat.completions.create()` 方式调用;或
* 直接用 `requests` / `fetch` 发原生 HTTP 请求。
本模型原生支持中文,两者效果接近。对中文特有的场景(如中式书法、传统节日元素)中文表达更自然。
## 相关文档
* [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - 与官方版 `gpt-image-2` 选型对照表
* [对话式 Playground](/api-capabilities/gpt-image-2-all/chat-completions) - Chat Completions 风格,同端点支持文生图与改图,方便传入在线图片 URL
* [文生图 Playground](/api-capabilities/gpt-image-2-all/text-to-image) - `/v1/images/generations` 兼容端点
* [图片编辑 Playground](/api-capabilities/gpt-image-2-all/image-edit) - `/v1/images/edits` 多图融合与改图
* [GPT-Image-2-VIP(同价、支持 size 和 4K)](/api-capabilities/gpt-image-2-vip/overview) - 同价位姐妹模型,30 档常见 size(含 4K),调用方式与本模型完全一致
* [GPT-Image-2 官方版(按 token 计费)](/api-capabilities/gpt-image-2/overview) - 需要 `quality` 参数 / mask 局部重绘 / OpenAI 官方对齐字段时的选择
* [GPT-Image 系列总览](/api-capabilities/gpt-image-series) - 官方 GPT-Image 系列对比
* [社区贡献:Luck GPT-Image 2 ComfyUI 节点](/scenarios/ecosystem/luckgpt2-comfyui) - 在 ComfyUI 中一键调用 `gpt-image-2-all`(支持 chat\_completions / images\_api 双端点)
* [社区贡献:APIYI GPT-Image 2 Skills](/scenarios/ecosystem/apiyi-gpt-image-skills) - 在 Codex CLI / Cursor / Gemini CLI 等 AI 编程工具中一句话调用
* [API 使用手册](/api-manual) - 通用调用规范
gpt-image-2-all 属于官逆通道,行为对齐但定价/能力与官方版本不完全一致。如需官方直连版本,请参考 [GPT-Image-1.5](/api-capabilities/gpt-image-1-5)。
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/text-to-image
api-reference/gpt-image-2-all-generate-openapi.yaml POST /v1/images/generations
gpt-image-2-all 文生图 API 参考与在线调试 — 输入文本描述生成图片,$0.03/张
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt 后一键发送即可。
**场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑或融合,请使用 [图片编辑接口](/api-capabilities/gpt-image-2-all/image-edit)。
**🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)**
本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。
**推荐做法**:
* 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。
* 想要 base64:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。
**⚠️ 参数支持情况**
* **`size`**:**字段不生效**——传 `auto` 或具体尺寸都不会报错,但会被服务端**静默忽略**。最终尺寸完全由 prompt 决定:
* prompt 写了尺寸/比例(如"横版 16:9")→ 模型会遵循 prompt
* prompt 没写尺寸 → 同一 prompt 多次调用会**抽卡式**出现多样化尺寸,适合看多种构图变体
* 需要严格锁尺寸请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/text-to-image)(支持 `auto` + 30 档锁定)
* **`n` / `quality` / `aspect_ratio`**:❌ 不接受,传入可能触发参数校验错误。
尺寸与比例请直接写进 `prompt`,例如:
* `横版 16:9 电影画幅,黄昏时的海边老灯塔`
* `竖版 9:16 手机壁纸,赛博朋克城市雨夜`
* `1024×1024 方形 LOGO,极简猫咪线条`
**建议把尺寸描述放在 prompt 最前面**,模型遵循度更高。
## 代码示例
### Python
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={"Authorization": f"Bearer {API_KEY}"},
json={
"model": "gpt-image-2-all",
"prompt": "横版 16:9 日落海边的老灯塔,电影画幅,写实风格",
"response_format": "url"
},
timeout=300 # 保守值,吸收长尾 + 图片下载耗时
).json()
image_url = response["data"][0]["url"]
print(image_url)
```
**b64\_json 模式(直接拿到可渲染的 data URL)**:
```python theme={null}
import requests
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={"Authorization": "Bearer sk-your-api-key"},
json={
"model": "gpt-image-2-all",
"prompt": "1024x1024 方形 LOGO,极简猫咪线条",
"response_format": "b64_json"
},
timeout=300 # 保守值,吸收长尾 + 图片下载耗时
).json()
# 注意:b64_json 字段已经包含 "data:image/png;base64," 前缀,无需再拼接
data_url = response["data"][0]["b64_json"]
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2-all",
"prompt": "横版 16:9 电影画幅,黄昏时的海边老灯塔",
"response_format": "url"
}'
```
### Node.js
```javascript theme={null}
const API_KEY = "sk-your-api-key";
const response = await fetch(
"https://api.apiyi.com/v1/images/generations",
{
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
model: "gpt-image-2-all",
prompt: "1024x1024 方形 LOGO,极简猫咪线条",
response_format: "b64_json"
})
}
);
const data = await response.json();
// b64_json 已含前缀,可直接用作
document.getElementById("result").src = data.data[0].b64_json;
```
### 浏览器 JavaScript(Fetch)
```javascript theme={null}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'gpt-image-2-all',
prompt: '竖版 9:16 手机壁纸,赛博朋克城市雨夜',
response_format: 'b64_json'
})
});
const { data } = await resp.json();
document.getElementById('result').src = data[0].b64_json;
```
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| ----------------- | ------ | -- | ------------------------------------------------------ |
| `model` | string | 是 | 固定填 `gpt-image-2-all` |
| `prompt` | string | 是 | 提示词,尺寸/比例/风格请写在此处(**唯一控制尺寸的方式**) |
| `response_format` | string | 否 | `b64_json`(默认,返回 base64 data URL)或 `url`(返回 R2 CDN 链接) |
本模型**不支持 `size` 入参**——即便传入也会被静默忽略,不会报错;如需用 `size` 字段锁定 30 档尺寸,请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/text-to-image)。
详细的参数约束和可选值请查看右侧 Playground 中的字段说明,`response_format` 字段支持下拉选择。
## 响应格式
**`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。
**`b64_json` 模式**(默认):
```json theme={null}
{
"data": [
{
"b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"created": 1778037127,
"usage": {
"input_tokens": 98,
"output_tokens": 1185,
"total_tokens": 1283
}
}
```
**`url` 模式**(需显式 `"response_format": "url"`,R2 CDN 全球加速):
```json theme={null}
{
"data": [
{
"url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png"
}
],
"created": 1778037331,
"usage": {
"input_tokens": 30,
"output_tokens": 2074,
"total_tokens": 2104
}
}
```
**兼容性提示**:`b64_json` 字段本身已经包含 `data:image/png;base64,` 前缀,可直接赋给 HTML `
` 或写入文件;**无需再手动拼接** `data:image/...;base64,`。与部分旧版 OpenAI 兼容模型不同,请留意。
# 对话式 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/chat-completions
api-reference/gpt-image-2-vip-chat-openapi.yaml POST /v1/chat/completions
gpt-image-2-vip 对话式端点 — 一个端点同时支持文生图与带参考图改图,方便直接传入在线图片 URL,支持多轮迭代。
**对话式端点特点**:**一个端点同时支持文生图与带参考图改图**,方便直接传入**在线图片 URL**(CDN 链接或 base64 data URL)作为参考图,并能天然做多轮迭代。右侧 Playground 填入 API Key 后,直接从下拉选择 example(文生图 / 带参考图改图 / 多轮迭代)即可。
如果你希望同一套代码兼容官转和官逆,建议使用 `/v1/images/generations` 与 `/v1/images/edits`(OpenAI Images API 标准格式)。
**选择模式**:
* 仅输入文本 `messages` → **文生图**
* `messages` 中加入 `image_url`(URL 或 base64 data URL)→ **带参考图改图**
* 保留 `assistant` 历史消息继续追问 → **多轮迭代改图**
**与 `gpt-image-2-all` 的区别**:调用方式完全一致,把 `model` 换成 `gpt-image-2-vip` 即可;本端点额外支持顶层 `size` 字段锁尺寸(30 档常见尺寸,与 `/v1/images/generations` 一致)。
✨ **`size` 字段为可选**:传入则严格锁定输出尺寸;不传则由 prompt 描述决定(行为与 `-all` 一致)。
**🖥️ 浏览器 Playground 限制(响应含 base64 时)**
本端点**默认返回 R2 CDN URL**(`data[0].url`),Playground 显示正常。少数情况下如果返回的是 base64(`data[0].b64_json`),或你在 `image_url` 里传入了大 base64 输入图,响应字符串可能达数 MB,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的内容。
**推荐做法**:遇到此提示时,**直接复制下方"代码示例"到本地运行**,程序可从 `data[0].url` 或 `data[0].b64_json` 中拿到结果(**两者只会出现其一**,不会同时返回)。
## 代码示例
### Python(文生图)
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/chat/completions",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"model": "gpt-image-2-vip",
"size": "2048x1152", # 可选;不传则由 prompt 描述决定
"messages": [
{"role": "user", "content": "横版 16:9 电影画幅,黄昏时的海边老灯塔,写实风格"}
]
},
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
# 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"]
print(response["data"][0]["url"])
```
### Python(带参考图改图)
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
# 可用 HTTPS URL,也可以用 base64 data URL
with open("photo.png", "rb") as f:
data_url = "data:image/png;base64," + base64.b64encode(f.read()).decode()
response = requests.post(
"https://api.apiyi.com/v1/chat/completions",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"model": "gpt-image-2-vip",
"size": "2048x2048", # 可选;不传则由 prompt 描述决定
"messages": [
{
"role": "user",
"content": [
{"type": "text", "text": "把这张图改成水彩画风"},
{"type": "image_url", "image_url": {"url": data_url}}
]
}
]
},
timeout=300
).json()
# 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"]
print(response["data"][0]["url"])
```
### cURL(文生图)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2-vip",
"size": "2048x1152",
"messages": [
{"role": "user", "content": "横版 16:9,赛博朋克雨夜街景,霓虹招牌写着 Hello World"}
]
}'
```
### cURL(带参考图改图)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2-vip",
"messages": [
{
"role": "user",
"content": [
{ "type": "text", "text": "把这张图改成水彩画风" },
{ "type": "image_url", "image_url": { "url": "https://example.com/photo.png" } }
]
}
]
}'
```
### Node.js(文生图)
```javascript theme={null}
const API_KEY = "sk-your-api-key";
const response = await fetch("https://api.apiyi.com/v1/chat/completions", {
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
model: "gpt-image-2-vip",
messages: [
{ role: "user", content: "1024x1024 方形 LOGO,极简猫咪线条" }
]
})
});
const data = await response.json();
// 默认返回 url;如显式切到 b64_json 模式则取 data.data[0].b64_json
console.log(data.data[0].url);
```
**关于 OpenAI SDK**:本端点**请求格式**与 OpenAI Chat Completions 兼容,但**响应格式**为 `{data: [{url|b64_json}], created, usage}`,不含 `choices` 字段。直接用 `client.chat.completions.create(...)` 解析时会失败,请改用上面的 `requests` / `fetch` 直接拿到原始 JSON 解析。
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| -------------------- | --------------- | -- | ------------------------------------------------------------------------------------------------------------- |
| `model` | string | 是 | 固定填 `gpt-image-2-vip` |
| `messages` | array | 是 | 对话消息数组;支持 `system` / `user` / `assistant` 三种 role |
| `messages[].content` | string \| array | 是 | 纯文本字符串(文生图)或多模态数组(带图改图) |
| `size` | string | 否 | 输出尺寸(30 档),如 `2048x1152`、`3840x2160`。不传则由 prompt 描述决定。完整档位见[模型概览](/api-capabilities/gpt-image-2-vip/overview) |
| `stream` | boolean | 否 | 是否流式。本模型为一次性出图,建议保持 `false` |
**多模态 content 片段**(`content` 为数组时):
| 字段 | 类型 | 必填 | 说明 |
| --------------- | ------ | -- | --------------------------------------------------------------------- |
| `type` | enum | 是 | `text` 或 `image_url` |
| `text` | string | 条件 | 当 `type=text` 时必填 |
| `image_url.url` | string | 条件 | 当 `type=image_url` 时必填。支持 `https://...` 或 `data:image/png;base64,...` |
详细的字段说明与可选值请查看右侧 Playground。下拉 "Example" 可在 **文生图 / 带参考图改图 / 多轮迭代** 之间切换。
## 响应格式
对话式端点的响应格式为 `{data: [{url|b64_json}], created, usage}` ——`data[0]` 中**只会出现 `url` 或 `b64_json` 之一**,不会同时返回。本端点**默认返回 `url`**。
**默认 `url` 输出**:
```json theme={null}
{
"data": [
{
"url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png"
}
],
"created": 1778037331,
"usage": {
"input_tokens": 30,
"output_tokens": 2074,
"total_tokens": 2104
}
}
```
**`b64_json` 输出**(少数情况):
```json theme={null}
{
"data": [
{
"b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"created": 1778037127,
"usage": {
"input_tokens": 98,
"output_tokens": 1185,
"total_tokens": 1283
}
}
```
**解析建议**:先取 `data[0].url`,若为空再取 `data[0].b64_json`。`b64_json` 已带 `data:image/png;base64,` 前缀,可直接作为 `
` 使用。
## 对话式端点的优势
不需要在 generations / edits 两个端点之间切换,统一走一个端点
`image_url` 直接接受 CDN 图片地址或 base64 data URL,无需 multipart 上传
保留 `assistant` 历史消息即可继续精调,逻辑与 ChatGPT 一致
OpenAI 官方 SDK、LangChain、各类 Chat 前端都能直接对接
**严格锁尺寸**:传入顶层 `size` 字段(30 档常见尺寸,如 `2048x1152`、`3840x2160`)即可锁定输出。需要 OpenAI Images API 标准格式时,仍可改走 [文生图接口](/api-capabilities/gpt-image-2-vip/text-to-image)(`/v1/images/generations`)。
## 相关资源
30 档 size 完整对照表、定价、技术规格
OpenAI Images API 兼容端点,传 `size` 锁定输出尺寸
multipart/form-data 上传参考图改图
不需要锁尺寸时调用方式一致,出图更快
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/image-edit
api-reference/gpt-image-2-vip-edit-openapi.yaml POST /v1/images/edits
gpt-image-2-vip 图片编辑 API 参考与在线调试 — 上传参考图 + 指令进行单图改图或多图融合,可用 size 锁定输出尺寸
右侧的交互式 Playground 支持直接上传本地图片。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),选择图片与填入 `prompt`、`model`、`size` 后一键发送即可。
**场景说明**:本页用于「基于一张或多张参考图改图 / 融合生成」。请求为 `multipart/form-data` 格式。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/gpt-image-2-vip/text-to-image)。
**与 `gpt-image-2-all` 的区别**:调用结构完全一致,只多一个 `size` 字段;不需要锁尺寸、追求出图速度时改用 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/image-edit)。
**🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)**
本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。
**推荐做法**:
* 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。
* 想要 base64 或要传超大参考图:**复制下方"代码示例"到本地运行**,代码会自动处理上传与解码。
**📎 多图融合顺序有意义**
`image` 字段可重复传入多张参考图,**顺序将作为 prompt 中「图1/图2/图3」的引用依据**。建议在 prompt 中显式指代,例如:
> 把图1的人物放进图2的场景,参考图3的画风
推荐单张 **≤ 10MB**,格式 `png` / `jpg` / `webp`,过大的图可能触发网关限制。
**🎯 保形改图小技巧**:传 `size=auto`(或不传 `size`)时,输出会**跟随 prompt 里点名要修改的那张图的尺寸比例**——多图场景下**不一定是第一张**。
例如 prompt 写"**修改图2**,把图2 的衣服和帽子改成图1 里的样子",那图2 是 1:1,则输出也是 1:1(即便图1 是横版 16:9)。
对换装、加帽子、修图等保形场景特别好用。如果 prompt 没明确指代要改哪张,模型会自行判断;需要切换到 30 档锁定尺寸时再显式传 `size`。
**⚠️ 关键参数说明**
* **`size`**:**改图建议传 `auto`(或不传)**——模型会**根据 prompt 里点名要修改的那张图的尺寸比例**输出,多图场景下不一定是第一张。例如 prompt 写"修改图2,把图2 的衣服换成图1 的样子",输出比例就跟图2 一致;prompt 没明确指代时由模型自行判断。需要强制改变尺寸时,从 30 档常见尺寸里选;写法用半角小写 `x`,如 `2048x1360`、`3840x2160`。完整表见 [概览页](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表)。
* **`quality`**:❌ 不接受,**不要传**。
* **`n`**:❌ 不接受,单次仅返回 1 张图。
## 代码示例
### Python
**单图编辑**:
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
with open("photo.png", "rb") as f:
response = requests.post(
"https://api.apiyi.com/v1/images/edits",
headers={"Authorization": f"Bearer {API_KEY}"},
data={
"model": "gpt-image-2-vip",
"prompt": "把背景换成海边黄昏",
"size": "2048x1360", # 3:2 2K Recommended
"response_format": "url"
},
files=[
("image", ("photo.png", f, "image/png"))
],
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
print(response["data"][0]["url"])
```
**多图融合**:
```python theme={null}
import requests
with open("ref1.png", "rb") as f1, \
open("ref2.png", "rb") as f2, \
open("ref3.png", "rb") as f3:
response = requests.post(
"https://api.apiyi.com/v1/images/edits",
headers={"Authorization": "Bearer sk-your-api-key"},
data={
"model": "gpt-image-2-vip",
"prompt": "把图1的人物放进图2的场景,参考图3的画风",
"size": "2048x2048", # 1:1 2K Recommended
"response_format": "b64_json"
},
files=[
("image", ("ref1.png", f1, "image/png")),
("image", ("ref2.png", f2, "image/png")),
("image", ("ref3.png", f3, "image/png"))
],
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
# b64_json 已含 "data:image/png;base64," 前缀,可直接用于
data_url = response["data"][0]["b64_json"]
```
### cURL
**单图编辑**:
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2-vip" \
-F "prompt=把背景换成海边黄昏" \
-F "size=2048x1360" \
-F "response_format=url" \
-F "image=@./photo.png"
```
**多图融合**:
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2-vip" \
-F "prompt=把图1的人物放进图2的场景,参考图3的画风" \
-F "size=2048x2048" \
-F "response_format=b64_json" \
-F "image=@./ref1.png" \
-F "image=@./ref2.png" \
-F "image=@./ref3.png"
```
### Node.js(原生 fetch + FormData)
```javascript theme={null}
import fs from 'node:fs';
const form = new FormData();
form.append('model', 'gpt-image-2-vip');
form.append('prompt', '把背景换成太空');
form.append('size', '2048x1360');
form.append('response_format', 'url');
form.append(
'image',
new Blob([fs.readFileSync('./photo.png')]),
'photo.png'
);
const resp = await fetch('https://api.apiyi.com/v1/images/edits', {
method: 'POST',
headers: { 'Authorization': 'Bearer sk-your-api-key' },
body: form
});
const data = await resp.json();
console.log(data.data[0].url);
```
### 浏览器 JavaScript(File 对象)
```javascript theme={null}
//
const files = document.getElementById('fileInput').files;
const form = new FormData();
form.append('model', 'gpt-image-2-vip');
form.append('prompt', '把这几张图融合成一张海报');
form.append('size', '2048x2048');
form.append('response_format', 'url');
for (const f of files) form.append('image', f);
const resp = await fetch('https://api.apiyi.com/v1/images/edits', {
method: 'POST',
headers: { 'Authorization': 'Bearer sk-your-api-key' },
body: form
});
const { data } = await resp.json();
document.getElementById('result').src = data[0].url;
```
## 参数说明速查
| 字段 | 类型 | 必填 | 说明 |
| ----------------- | ---- | -- | --------------------------------------------------------------------------------- |
| `model` | text | 是 | 固定填 `gpt-image-2-vip` |
| `prompt` | text | 是 | 改图/融合的自然语言描述 |
| `image` | file | 是 | 参考图,可重复多次(数组字段) |
| `size` | text | 否 | 输出尺寸:`auto`(默认,**跟随 prompt 里点名要修改的那张图的比例**,多图下不一定是第一张)或 30 档之一;写法 `宽x高`(半角小写 `x`) |
| `response_format` | text | 否 | `b64_json`(默认)或 `url` |
**多轮迭代**:把上一次的输出图片作为下一次的 `image` 输入,配合新的编辑指令,可逐步精调画面效果。每一轮都可以独立指定 `size`。
## 响应格式
与文生图接口一致:**`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。
**`b64_json` 模式**(默认):
```json theme={null}
{
"data": [
{
"b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"created": 1778037127,
"usage": {
"input_tokens": 98,
"output_tokens": 1185,
"total_tokens": 1283
}
}
```
**`url` 模式**(需显式 `"response_format": "url"`):
```json theme={null}
{
"data": [
{
"url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png"
}
],
"created": 1778037331,
"usage": {
"input_tokens": 30,
"output_tokens": 2074,
"total_tokens": 2104
}
}
```
`b64_json` 字段已经包含 `data:image/png;base64,` 前缀,可直接使用。**无需再手动拼接前缀**。
## 相关资源
30 档 size 完整对照表、定价、技术规格
Chat Completions 格式,方便传入在线 URL 改图
`/v1/images/generations` 兼容端点
不需要锁尺寸时调用方式一致,出图更快
# GPT-Image-2-VIP 生图/编辑
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/overview
GPT 图像生成 Codex 官逆模型 gpt-image-2-vip,$0.03/张统一价,支持 10 比例 × 3 档分辨率(1K/2K/4K)共 30 档常见 size,调用方式与 gpt-image-2-all 一致;约 90–150 秒出图,适合需要稳定锁定输出尺寸的场景。
## 概述
**gpt-image-2-vip** 是 API易 平台上线的 **GPT 图像生成 Codex 官逆模型**。与 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview) 同价 **\$0.03/张**,**调用方式完全一致**,最大区别是 **支持 `size` 参数**——覆盖 **10 比例 × 3 分辨率档(1K Fast / 2K Recommended / 4K Detail)共 30 档常见尺寸**,含 4K。
**🎨 核心定位**:当你需要**锁定输出尺寸**(电商主图、海报模板、视频封面、4K 壁纸等)时使用 `gpt-image-2-vip`。请求体里只需把 `model` 改成 `gpt-image-2-vip`、加一个 `size` 字段,其它代码与 `gpt-image-2-all` **完全相同**。
OpenAI Chat Completions 格式,同端点支持文生图与带图改图,方便直接传入在线图片 URL。
`/v1/images/generations`,输入文本提示词 + `size` 生成指定尺寸图片。
`/v1/images/edits`,multipart 上传参考图 + 编辑/融合指令。
## 与 `gpt-image-2-all` 的关键差异
`gpt-image-2-vip` 与 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview) 同属逆向通道、同价、同套调用代码。**互相映射**——把同一段请求里的 `model` 字段从一个换成另一个,行为整体一致,差异如下:
| 维度 | `gpt-image-2-all` | `gpt-image-2-vip` |
| --------------------- | ------------------------------------------------------------- | -------------------------------- |
| **渠道** | 逆向 ChatGPT 官网 | 逆向 Codex 线路 |
| **价格** | \$0.03 / 张 | \$0.03 / 张(所有 size 统一价) |
| **`size` 参数** | ❌ 不接受(写进 prompt) | ✅ 30 档 size,含 4K |
| **4K(如 `3840x2160`)** | ❌ | ✅ 4K Detail 档 |
| **出图速度** | 约 30–60 秒 | 约 90–150 秒(与官转 `gpt-image-2` 持平) |
| **`quality` 参数** | ❌ 不接受 | ❌ 不接受(不要传) |
| **支持端点** | `/chat/completions` + `/images/generations` + `/images/edits` | 同左(一模一样) |
| **响应格式** | `url` / `b64_json`(已含前缀) | 同左 |
| **适合场景** | 提示词驱动、对尺寸不敏感 | 需要稳定指定输出尺寸(含 4K) |
**一句话决策**:**不需要严格控尺寸、追求出图速度** → `gpt-image-2-all`;**要锁死输出尺寸或要 4K** → `gpt-image-2-vip`;**需要画质参数 `quality` 或 OpenAI 官方完全对齐的字段** → 改用官方版 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)。
## 核心特性
`size` 字段直接接受 30 档常见尺寸,电商主图、海报模板、4K 壁纸都能严格输出
4K Detail 档支持 2880×2880 / 3840×2160 / 3840×1632 等,适合大尺寸交付物
1K / 2K / 4K 所有档位统一 \$0.03/张,4K 不额外加价
请求结构、字段、响应字段与 `gpt-image-2-all` 完全一致,可秒级切换模型名
图内中英文、招牌、海报文字还原稳定,适合信息图与营销物料
原生理解中文描述,无需翻译即可获得高质量输出
支持通过对话描述直接改图,无需蒙版,可多轮迭代
同时兼容 `/images/generations`、`/images/edits`、`/chat/completions`
## 模型定价
| 模型名 | 计费方式 | 价格 | 输出 |
| ----------------- | ---- | -------------- | -------------------------- |
| `gpt-image-2-vip` | 按次计费 | **\$0.03 / 张** | 单次返回 1 张图片,`size` 字段锁定输出尺寸 |
**计费说明**:
* **所有 30 档 size 统一定价 \$0.03/张**——4K Detail 不加价
* 失败请求不计费(如鉴权失败、参数校验失败)
* 如需生成 N 张,客户端并行调用 N 次
## 分组介绍
`gpt-image-2-vip` 放在 **`Default` 默认分组** 即可,不需要额外切分组。逆向通道目前供给稳定,不存在像官转那样需要"企业分组"过渡的场景。
| 模型 | 分组 | 备注 |
| ----------------- | --------- | ------------------------------------ |
| `gpt-image-2-vip` | `Default` | 逆向 Codex 线路,统一 \$0.03/张,约 90–150 秒出图 |
**进阶玩法(同时使用 `gpt-image-2-all` 与官转 `gpt-image-2`)**:如果你的令牌同时覆盖逆向两模与官转 `gpt-image-2`,可以在令牌的「分组优先级」里这样配——
* **第一优先级**:`image2Enterprise`(1.2x 企业分组,官转专用稳定通道)
* **默认(兜底)**:`Default`(逆向两模都在这里,按模型路由)
这样官转 `gpt-image-2` 走企业分组保稳,逆向两模仍走默认分组——一把令牌覆盖三种模型,互不干扰。
📖 关于 `image2Enterprise` 企业分组:[/live/2026-04/image2-enterprise](/live/2026-04/image2-enterprise)
## 技术规格
| 维度 | 参数 |
| ---------------- | ------------------------------------------------------------------- |
| **模型名** | `gpt-image-2-vip` |
| **渠道性质** | 官方逆向(逆向 Codex 线路) |
| **定价** | \$0.03 / 张,按次计费(所有 size 统一价) |
| **出图速度** | 约 **90–150 秒**(与官转 `gpt-image-2` 持平,慢于 `gpt-image-2-all` 的 30–60 秒) |
| **`size` 参数** | ✅ 30 档:10 比例 × 3 分辨率档(1K Fast / 2K Recommended / 4K Detail) |
| **4K 支持** | ✅ 4K Detail 档(如 `3840x2160` / `2880x2880`) |
| **`quality` 参数** | ❌ 不支持,不要传 |
| **`n` 参数** | ❌ 不支持,单次仅返回 1 张 |
| **默认响应格式** | `url`(R2 CDN 加速链接,**默认 1 天有效期**) |
| **可选响应格式** | `b64_json`(已含 `data:image/png;base64,` 前缀) |
| **中文提示词** | ✅ 原生支持 |
| **支持能力** | 文生图、单图编辑、多图融合、自然语言改图(三端点皆可) |
**⏰ 图片 URL 有效期:默认 1 天**
默认响应的 `url` 字段是 R2 CDN 加速链接,**有效期约 24 小时**,过期后访问会 404。需要长期保存的图片请**在生成后尽快转存到自己的对象存储 / CDN / 数据库**,或改用 `b64_json` 响应格式。
## 端点一览
`gpt-image-2-vip` 与 `gpt-image-2-all` 兼容**完全相同**的三个端点。把 `model` 字段换掉、按需加上 `size` 即可:
| 端点 | 用途 | Content-Type | 适用场景 |
| ----------------------------- | ------------------------ | --------------------- | --------------------------------------- |
| `POST /v1/chat/completions` | 对话式(文生图 / 改图 / 多轮 / 参考图) | `application/json` | 方便直接传入在线图片 URL;一个端点同时支持文生图与图片编辑 |
| `POST /v1/images/generations` | 文生图 | `application/json` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 |
| `POST /v1/images/edits` | 图片编辑(单图 / 多图) | `multipart/form-data` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 |
**域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。
## 支持的 size(30 档完整对照表)
`gpt-image-2-vip` 支持 **10 个比例 × 3 个分辨率档 = 30 档** 常见尺寸。请求体直接传 `size: "宽x高"`(半角小写 `x`)。
### 1K Fast — 草稿与低成本试稿
| 比例 | 命名 | 像素 |
| ---- | -------- | ----------- |
| 1:1 | Square | `1280x1280` |
| 2:3 | Portrait | `848x1280` |
| 3:2 | Photo | `1280x848` |
| 3:4 | Portrait | `960x1280` |
| 4:3 | Standard | `1280x960` |
| 4:5 | Social | `1024x1280` |
| 5:4 | Large | `1280x1024` |
| 9:16 | Story | `720x1280` |
| 16:9 | Wide | `1280x720` |
| 21:9 | Cinema | `1280x544` |
### 2K Recommended — 默认推荐档(多数终稿)
| 比例 | 命名 | 像素 |
| ---- | -------- | ----------- |
| 1:1 | Square | `2048x2048` |
| 2:3 | Portrait | `1360x2048` |
| 3:2 | Photo | `2048x1360` |
| 3:4 | Portrait | `1536x2048` |
| 4:3 | Standard | `2048x1536` |
| 4:5 | Social | `1632x2048` |
| 5:4 | Large | `2048x1632` |
| 9:16 | Story | `1152x2048` |
| 16:9 | Wide | `2048x1152` |
| 21:9 | Cinema | `2048x864` |
### 4K Detail — 大尺寸交付物
| 比例 | 命名 | 像素 |
| ---- | -------- | ----------- |
| 1:1 | Square | `2880x2880` |
| 2:3 | Portrait | `2336x3520` |
| 3:2 | Photo | `3520x2336` |
| 3:4 | Portrait | `2480x3312` |
| 4:3 | Standard | `3312x2480` |
| 4:5 | Social | `2560x3216` |
| 5:4 | Large | `3216x2560` |
| 9:16 | Story | `2160x3840` |
| 16:9 | Wide | `3840x2160` |
| 21:9 | Cinema | `3840x1632` |
**30 档统一价**:所有档位都是 \$0.03/张,4K Detail 不额外加价。
**怎么选档位**:
* **1K Fast**:用于草稿、缩略图、A/B 测试,省时(也不省钱,价格统一),出图最快。
* **2K Recommended**:**默认档**,覆盖大部分终稿场景(电商主图、海报、信息图)。
* **4K Detail**:印刷、大屏壁纸、视频封面、桌面 / 户外大图。
**最小调用示例**(只传 `size`,**不要传 `quality`**):
```bash theme={null}
curl "https://api.apiyi.com/v1/images/generations" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $YI_API_KEY" \
-d '{
"model": "gpt-image-2-vip",
"prompt": "生成一张白色陶瓷马克杯放在灰色桌面上的产品图,柔和自然光,简洁背景",
"size": "2048x1360"
}'
```
## 最佳实践
草稿用 1K Fast、终稿用 2K Recommended、印刷/大屏用 4K Detail。所有档位统一价,按需要选。
请求体写 `"size": "1536x1024"`,不是 `1536×1024`、不是大写 `X`。
`quality` 不接受;`n` 单次仅返回 1 张图,多张请客户端并行调用。
出图典型 90–150s,叠加图片上传/下载与高峰长尾,**保守按 300s 配**,避免大量误超时。
Web 应用直接渲染用 `b64_json`,服务端中转存储用 `url`。
同一套调用代码,把 `model` 在 `gpt-image-2-all` ↔ `gpt-image-2-vip` 之间切换即可。需要锁尺寸时切到 -vip,需要更快出图时切回 -all。
## 错误码与重试
| 状态码 | 含义 | 建议 |
| ----- | -------------------- | ------------------------ |
| `400` | size 取值不在 30 档内或格式错误 | 用上表中的精确字符串 |
| `401` | 令牌无效 | 检查 Bearer Token |
| `429` | 限流/额度不足 | 指数退避重试 |
| `5xx` | 网关/后端临时错误 | 重试 1–2 次 |
| 超时 | Codex 高峰 + 4K 长尾 | 客户端设置 **≥ 300s 超时**(保守值) |
**建议客户端**:
* 请求超时 **300 秒** 起步(保守值;典型 90–150s,但 4K Detail + 高峰长尾会更长)
* 对 5xx 与超时做 **指数退避重试**(建议 2–3 次)
* 记录响应头 `request-id` 方便排查
## 常见问题
**可以,几乎完全一样。** 三个端点(`/v1/chat/completions`、`/v1/images/generations`、`/v1/images/edits`)的请求字段、响应字段、`b64_json` 前缀行为都一致。差异只有两处:
1. `model` 字段:`gpt-image-2-vip` ↔ `gpt-image-2-all`
2. `size` 字段:vip 接受 30 档常见尺寸;-all 不接受 `size`,尺寸要写进 prompt
实际工程实践:保留同一套代码,做一个 `if model == 'vip': payload['size'] = ...` 的开关即可。
`gpt-image-2-vip` 走的是 Codex 逆向通道,**典型 90–150 秒**,与官转 `gpt-image-2`(100–120 秒)持平,比 ChatGPT 网页线路的 `gpt-image-2-all`(约 30–60 秒)慢。如果对**响应延迟敏感**,建议优先用 `gpt-image-2-all`;只在**必须锁尺寸或 4K** 时切换到 vip。
**是的,建议严格用表里 30 档之一**。非表内 size 可能触发上游 `invalid_request_error`,请按交付需求选最接近的档位。
**不加价**,4K Detail 档(`3840x2160` / `2880x2880` 等)与 1K / 2K 同价 \$0.03/张。
**不支持。** 本模型单次只返回 1 张图,请通过**重复调用 / 并发调用**的方式生成多张。
⚠️ **重要**:如果在请求里传入 `n=3`,**计费会按 0.03 × 3 = \$0.09 扣费**,但**实际上仍然只返回 1 张图**。请务必把 `n` 字段从请求里去掉,避免被多扣费。
**不要**。本模型返回的 `b64_json` 字段已经带前缀,可直接赋给 HTML `
` 或写入文件。如果你的代码沿用了"先拼前缀"的老逻辑,会产出损坏的 data URL,请先做 `startsWith('data:')` 检测。
推荐 **单张 ≤ 10MB**,格式 `png` / `jpg` / `webp`。过大的图可能触发网关限制。多图融合时每张都需满足此限制。
默认响应的 `url` 字段是 **R2 CDN 加速链接,有效期约 1 天(24 小时)**,过期后会 404。
**强烈建议**:生成后尽快把图片 **转存到自己的对象存储(S3 / OSS / R2)、CDN 或数据库**,不要长期直接引用本服务返回的 URL。
本模型为一次性出图,不支持 stream 输出。如果对响应延迟敏感,建议客户端显示"生成中"进度提示,并合理配置 **300s 超时**(保守值)。
可以。把 `base_url` 指向 `https://api.apiyi.com/v1`,`api_key` 设为 API易 令牌即可。`client.images.generate(model="gpt-image-2-vip", size="2048x1360", prompt=...)` 直接可用。
需要 `quality`(low/medium/high)档位、需要 mask 局部重绘、需要 OpenAI 官方完全一致的字段行为时,改用 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)(官转)。详见 [官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)。
## 相关文档
* [GPT-Image-2-All 概览](/api-capabilities/gpt-image-2-all/overview) - 同价位、出图更快的姐妹模型,适合不需要锁尺寸的场景
* [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - 与官方版 `gpt-image-2`(含 `-all` / `-vip`)的选型对照表
* [对话式 Playground](/api-capabilities/gpt-image-2-vip/chat-completions) - Chat Completions 风格,同端点支持文生图与改图
* [文生图 Playground](/api-capabilities/gpt-image-2-vip/text-to-image) - `/v1/images/generations` 兼容端点,传 `size` 锁定尺寸
* [图片编辑 Playground](/api-capabilities/gpt-image-2-vip/image-edit) - `/v1/images/edits` 多图融合与改图
* [GPT-Image-2 官方版](/api-capabilities/gpt-image-2/overview) - 需要 `quality` 参数 / mask 局部重绘 / OpenAI 官方对齐字段时的选择
* [GPT-Image 系列总览](/api-capabilities/gpt-image-series) - 官方 GPT-Image 系列对比
* [API 使用手册](/api-manual) - 通用调用规范
gpt-image-2-vip 属于官逆通道(Codex 线路),行为对齐但定价/能力与官方版本不完全一致。需要官方完全一致字段时,请使用 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)。
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/text-to-image
api-reference/gpt-image-2-vip-generate-openapi.yaml POST /v1/images/generations
gpt-image-2-vip 文生图 API 参考与在线调试 — 输入文本描述 + size 锁定输出尺寸生成图片,$0.03/张统一价
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 `prompt` 与 `size` 后一键发送即可。
**场景说明**:本页用于「文本生成图片」。只需输入提示词与 `size` 即可,无需上传任何图片。如需根据现有图片做编辑或融合,请使用 [图片编辑接口](/api-capabilities/gpt-image-2-vip/image-edit)。
**与 `gpt-image-2-all` 的区别**:调用结构完全一致,只多一个 `size` 字段;不需要锁尺寸、追求出图速度时改用 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/text-to-image) 即可。
**🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)**
本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。
**推荐做法**:
* 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。
* 想要 base64:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。
**⚠️ 关键参数说明**
* **`size`**:可传 `auto` 让模型自动决定尺寸(vip 在同一提示词下尺寸相对**收敛/固定**),或从 30 档常见尺寸里选(10 比例 × 1K Fast / 2K Recommended / 4K Detail,详见 [概览页 size 完整表](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表))严格锁尺寸。**写法用半角小写 `x`**,例如 `2048x1360`、`3840x2160`,不要用 `×` 或大写 `X`。
* **`quality`**:❌ 不接受,**不要传**。
* **`n`**:❌ 不接受,单次仅返回 1 张图。**传 n=3 会按 0.09 \$ 扣费但只返回 1 张**,请把 `n` 字段从请求里去掉。
* **`aspect_ratio`**:❌ 不接受。比例直接由 `size` 决定。
## 代码示例
### Python
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={"Authorization": f"Bearer {API_KEY}"},
json={
"model": "gpt-image-2-vip",
"prompt": "黄昏时的海边老灯塔,电影画幅,写实风格",
"size": "2048x1152", # 16:9 2K Recommended
"response_format": "url"
},
timeout=300 # 保守值,吸收长尾 + 图片下载耗时
).json()
image_url = response["data"][0]["url"]
print(image_url)
```
**4K Detail 档示例(壁纸 / 印刷)**:
```python theme={null}
import requests
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={"Authorization": "Bearer sk-your-api-key"},
json={
"model": "gpt-image-2-vip",
"prompt": "桌面壁纸,赛博朋克城市夜景,霓虹招牌,雨后倒影",
"size": "3840x2160", # 16:9 4K Detail
"response_format": "b64_json"
},
timeout=300
).json()
# b64_json 已含 "data:image/png;base64," 前缀,可直接用于
或写文件
data_url = response["data"][0]["b64_json"]
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2-vip",
"prompt": "白色陶瓷马克杯放在灰色桌面上的产品图,柔和自然光",
"size": "2048x1360",
"response_format": "url"
}'
```
### Node.js
```javascript theme={null}
const API_KEY = "sk-your-api-key";
const response = await fetch(
"https://api.apiyi.com/v1/images/generations",
{
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
model: "gpt-image-2-vip",
prompt: "1:1 方形 LOGO,极简猫咪线条",
size: "2048x2048", // 1:1 2K Recommended
response_format: "b64_json"
})
}
);
const data = await response.json();
// b64_json 已含前缀,可直接用作
document.getElementById("result").src = data.data[0].b64_json;
```
### OpenAI SDK(Python,推荐)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.generate(
model="gpt-image-2-vip",
prompt="水墨山水,国画风格,纵向构图",
size="1536x2048", # 3:4 2K Portrait
)
print(resp.data[0].url)
```
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| ----------------- | ------ | -------- | --------------------------------------------------------------------------------- |
| `model` | string | 是 | 固定填 `gpt-image-2-vip` |
| `prompt` | string | 是 | 提示词,描述画面内容、风格、光线等 |
| `size` | string | **强烈建议** | 输出尺寸:`auto`(模型自动决定,**vip 在同一提示词下尺寸相对固定**)或 30 档之一;写法 `宽x高`(半角小写 `x`);省略时等同 `auto` |
| `response_format` | string | 否 | `b64_json`(默认,返回 base64 data URL)或 `url`(返回 R2 CDN 链接) |
**size 速查**:常用挑这几个就够:
* 电商主图:`2048x1360` (3:2 2K) / `2048x2048` (1:1 2K)
* 海报竖图:`1536x2048` (3:4 2K) / `2480x3312` (3:4 4K)
* 视频封面:`2048x1152` (16:9 2K) / `3840x2160` (16:9 4K)
* 故事/手机壁纸:`1152x2048` (9:16 2K) / `2160x3840` (9:16 4K)
完整 30 档表见 [概览页](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表)。
## 响应格式
**`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。
**`b64_json` 模式**(默认):
```json theme={null}
{
"data": [
{
"b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"created": 1778037127,
"usage": {
"input_tokens": 98,
"output_tokens": 1185,
"total_tokens": 1283
}
}
```
**`url` 模式**(需显式 `"response_format": "url"`,R2 CDN 全球加速):
```json theme={null}
{
"data": [
{
"url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png"
}
],
"created": 1778037331,
"usage": {
"input_tokens": 30,
"output_tokens": 2074,
"total_tokens": 2104
}
}
```
**兼容性提示**:`b64_json` 字段本身已经包含 `data:image/png;base64,` 前缀,可直接赋给 HTML `
` 或写入文件;**无需再手动拼接** `data:image/...;base64,`。与部分旧版 OpenAI 兼容模型不同,请留意。
## 相关资源
30 档 size 完整对照表、定价、技术规格
Chat Completions 格式,方便传入在线 URL
`/v1/images/edits` 多图融合与改图
不需要锁尺寸时调用方式一致,出图更快(约 30–60s)
# GPT-Image 历史版本
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/historical-versions
GPT-Image-1 / 1-mini / 1.5 历史模型概览,包含模型 ID、计费、端点与迁移到 GPT-Image-2 / GPT-Image-2-All 的建议。
新项目请直接使用 [GPT-Image-2](/api-capabilities/gpt-image-2/overview)(官方版)或 [GPT-Image-2-All](/api-capabilities/gpt-image-2-all/overview)(官逆,\$0.03/张统一价)。本页面仅保留历史版本的核心参数,方便老项目排查与迁移。
## 历史版本一览
| 模型 ID | 发布时间 | 端点 | 价格特点 | 状态 |
| ------------------ | -------- | ------------------------------------------- | ---------------------------------- | ----------------------- |
| `gpt-image-1.5` | 2025年12月 | `/v1/images/generations` | 输入 \$5.00 / 输出 \$10.00 / 百万 tokens | 仍可用,建议升级至 `gpt-image-2` |
| `gpt-image-1` | 2025年4月 | `/v1/images/generations`、`/v1/images/edits` | 输入 \$2.50 / 输出 \$8.00 / 百万 tokens | 仍可用,建议升级至 `gpt-image-2` |
| `gpt-image-1-mini` | 2025年4月 | `/v1/images/generations` | 较 `gpt-image-1` 更低 | 仍可用 |
**直接迁移**:把 `model` 改成 `gpt-image-2` 或 `gpt-image-2-all` 即可,参数(`size` / `quality` / `output_format` 等)大体兼容,无需改代码结构。
## 通用参数(生图)
历史版本共享一套生图参数:
| 参数 | 说明 |
| -------------------- | ---------------------------------------------------- |
| `model` | `gpt-image-1.5` / `gpt-image-1` / `gpt-image-1-mini` |
| `prompt` | 图像描述(最长 1000 字符) |
| `size` | `1024x1024` / `1536x1024` / `1024x1536` / `auto` |
| `quality` | `low` / `medium` / `high` / `auto` |
| `output_format` | `png`(默认) / `jpeg` / `webp` |
| `output_compression` | 仅 JPEG / WebP,0–100% |
| `background` | `transparent` / `opaque` / `auto` |
| `n` | 生成数量(1–10) |
## 快速调用示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.images.generate(
model="gpt-image-1.5", {/* 也可填 gpt-image-1 / gpt-image-1-mini */}
prompt="A professional product photo on white background, soft studio lighting",
size="1024x1024",
quality="high"
)
print(response.data[0].url)
```
## 按图片计费参考
GPT-Image-1 / 1.5 同时支持 Token 计费与按图片计费,系统自动取较优方式:
### GPT-Image-1.5
| 质量 | 1024×1024 | 1024×1536 / 1536×1024 |
| ------ | --------- | --------------------- |
| Low | \$0.009 | \$0.013 |
| Medium | \$0.034 | \$0.050 |
| High | \$0.133 | \$0.200 |
### GPT-Image-1
| 质量 | 1024×1024 | 1024×1536 / 1536×1024 |
| ------ | --------- | --------------------- |
| Low | \$0.005 | \$0.006 |
| Medium | \$0.011 | \$0.015 |
| High | \$0.036 | \$0.052 |
按图片计费仅作参考。实际扣费以系统自动选择的更优方式(Token 或按图片)为准。
## 图像编辑(仅 `gpt-image-1`)
`gpt-image-1` 支持基于遮罩的局部编辑端点 `/v1/images/edits`:
```python theme={null}
response = client.images.edit(
model="gpt-image-1",
image=open("original.png", "rb"),
mask=open("mask.png", "rb"),
prompt="A modern glass skyscraper with reflective windows",
size="1024x1024"
)
```
| 参数 | 说明 |
| -------- | ---------------------------------- |
| `image` | 原图,PNG/WebP/JPG,单张 \< 50MB,最多 16 张 |
| `mask` | 遮罩图,alpha=0 的区域将被重绘 |
| `prompt` | 描述要在遮罩区生成的内容 |
新项目编辑场景推荐使用 [GPT-Image-2 编辑](/api-capabilities/gpt-image-2/image-edit)(官方)或 [GPT-Image-2-All 编辑](/api-capabilities/gpt-image-2-all/image-edit)(官逆,最多 16 张多图融合)。
## 迁移到 GPT-Image-2 / 2-All
| 你的诉求 | 推荐迁移到 |
| --------------------------- | --------------------------------- |
| 沿用 OpenAI 官方端点、需要精确尺寸/质量控制 | `gpt-image-2`(官转) |
| 想要可预测的统一价(\$0.03/张)、提示词遵循更优 | `gpt-image-2-all`(官逆) |
| 仍需图像编辑 + 遮罩 | `gpt-image-2-all` 编辑端点(支持最多 16 张) |
OpenAI 官方最新版,端点 / 参数与历史版兼容
官逆通道,\$0.03/张统一价,速度更快
一文看懂两者的差异和选型建议
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/image-edit
api-reference/gpt-image-2-edit-openapi.yaml POST /v1/images/edits
gpt-image-2 图片编辑 API 参考与在线调试 — 上传参考图(最多 16 张)+ 指令进行单图改图、多图融合或 mask 局部重绘
右侧的交互式 Playground 支持直接上传本地图片。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),选择 image / mask 文件并填入 `prompt`、`model` 后一键发送即可。
**场景说明**:本页用于「基于一张或多张参考图改图 / 融合生成 / mask 局部重绘」。请求为 `multipart/form-data` 格式。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/gpt-image-2/text-to-image)。
**🖥️ 浏览器 Playground 限制(重要)**
本接口的响应包含**纯 base64 字符串**(数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。
**推荐做法**(小白零踩坑):
* **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。
* 如要在浏览器里试 Playground,**用极小的参考图(\< 50KB)** 并把 `size` 设为最小档(如 `1024x1024`)、`quality` 改为 `low`。
**⚠️ 关键差异(从 gpt-image-1.5 迁移注意)**
* **不要传 `input_fidelity`** —— `gpt-image-2` 强制启用高保真,传了会 400 报错
* **编辑请求的输入 token 明显更高** —— 因为参考图按 Vision 计费规则换算成大量 token,预算要留足
* **`background: transparent` 不支持** —— 改用 `opaque` 或自行后处理
* **多图融合最多 16 张** —— `image[]` 字段重复传入,超过会报错
**📎 多图融合顺序有意义**
`image[]` 字段可重复传入多张参考图,**顺序将作为 prompt 中「图1/图2/图3」的引用依据**。建议在 prompt 中显式指代,例如:
> 把图1的人物放进图2的场景,沿用图3的色彩风格
推荐单张 **≤ 10MB**,格式 `png` / `jpg` / `webp`。
## 代码示例
### Python(OpenAI SDK · 单图编辑)
```python theme={null}
from openai import OpenAI
import base64
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.edit(
model="gpt-image-2",
image=open("photo.png", "rb"),
prompt="把背景换成海边黄昏,保留人物细节",
size="1536x1024",
quality="high"
)
# b64_json 是纯 base64(无前缀),需自己 decode
with open("edited.png", "wb") as f:
f.write(base64.b64decode(resp.data[0].b64_json))
```
### Python(OpenAI SDK · 多图融合)
```python theme={null}
resp = client.images.edit(
model="gpt-image-2",
image=[
open("person.png", "rb"),
open("scene.png", "rb"),
open("style.png", "rb"),
],
prompt="把图1人物放进图2场景,沿用图3的色彩风格,保持光线一致",
size="1536x1024",
quality="high"
)
with open("fused.png", "wb") as f:
f.write(base64.b64decode(resp.data[0].b64_json))
```
### cURL(多图融合)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2" \
-F "prompt=把图1的人物放进图2的场景,保留图3的色彩风格" \
-F "size=1536x1024" \
-F "quality=high" \
-F "image[]=@person.png" \
-F "image[]=@scene.png" \
-F "image[]=@style.png"
```
### cURL(mask 局部重绘)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2" \
-F "prompt=把天空换成粉色晚霞" \
-F "size=1024x1024" \
-F "quality=high" \
-F "image[]=@photo.png" \
-F "mask=@mask.png" \
| jq -r '.data[0].b64_json' | base64 -d > photo_edited.png
```
### Node.js(原生 fetch + FormData · 多图融合)
```javascript theme={null}
import fs from 'node:fs';
const form = new FormData();
form.append('model', 'gpt-image-2');
form.append('prompt', '把图1的人物放进图2的场景');
form.append('size', '1536x1024');
form.append('quality', 'high');
form.append('image[]', new Blob([fs.readFileSync('./person.png')]), 'person.png');
form.append('image[]', new Blob([fs.readFileSync('./scene.png')]), 'scene.png');
const resp = await fetch('https://api.apiyi.com/v1/images/edits', {
method: 'POST',
headers: { 'Authorization': 'Bearer sk-your-api-key' },
body: form
});
const { data } = await resp.json();
fs.writeFileSync('fused.png', Buffer.from(data[0].b64_json, 'base64'));
```
## 参数说明速查
| 字段 | 类型 | 必填 | 默认 | 说明 |
| -------------------- | ---- | -- | ------ | ---------------------------------------- |
| `model` | text | 是 | — | 固定填 `gpt-image-2` |
| `prompt` | text | 是 | — | 编辑 / 融合指令 |
| `image[]` | file | 是 | — | 参考图,可重复多次(**最多 16 张**) |
| `mask` | file | 否 | — | 掩码图(仅对第一张 image 生效,要求带 alpha 通道) |
| `size` | text | 否 | `auto` | 输出尺寸,同文生图 |
| `quality` | text | 否 | `auto` | `low` / `medium` / `high` / `auto` |
| `output_format` | text | 否 | `png` | `png` / `jpeg` / `webp` |
| `output_compression` | text | 否 | — | 0–100,仅 `jpeg` / `webp` 生效 |
| `background` | text | 否 | `auto` | `auto` / `opaque`(**不支持** `transparent`) |
## mask 局部重绘要求
* 与原图**相同尺寸、相同格式**,单张 ≤ 50MB
* **必须带 alpha 通道**:透明区域(alpha=0)= 要重绘的部分,不透明区域 = 保留
* mask 仅对**第一张** image 生效
* mask 作为「软引导」而非精确边界,模型可能在蒙版周围扩展 / 收敛
**多轮迭代**:把上一次的输出作为下一次的 `image[]` 输入,配合新的编辑指令,可逐步精调画面。每一轮都按 token 实计,预算时留意累计成本。
## 响应格式
```json theme={null}
{
"created": 1776832476,
"data": [
{
"b64_json": "iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"usage": {
"input_tokens": 1280,
"output_tokens": 6240,
"total_tokens": 7520
}
}
```
`b64_json` 字段是**纯 base64**,**不含** `data:image/...;base64,` 前缀,与 `gpt-image-2-all` 不同。客户端需自行 decode 写文件,或在浏览器端拼前缀渲染。
编辑请求的 `input_tokens` 通常**显著高于**同尺寸文生图,原因是参考图按 Vision 计费规则换算。多图融合时输入 token 会随图片数量进一步增加。
# GPT-Image-2 生图/编辑
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/overview
OpenAI 旗舰图像生成模型 gpt-image-2,原生 2K/4K 任意分辨率,参考图自动高保真,同档降价 20-30%,支持文生图、参考图编辑、多图融合、mask 局部重绘。
## 概述
**gpt-image-2** 是 OpenAI 最新旗舰图像生成模型,是 `gpt-image-1.5` 的升级版。核心升级:**任意合法分辨率(含 2K / 3840×2160 4K)**、**参考图自动高保真**、**同档降价 20-30%**。API易 网关完整兼容 OpenAI Images API,OpenAI 官方 SDK 把 `base_url` 指过来即可零代码改动直连。
**🎨 核心亮点**:原生支持任意合法分辨率(最大 3840×2160 4K)+ 参考图编辑自动启用 high-fidelity + 同尺寸同画质成本较 1.5 降低 20-30% + 中文提示词原生支持。**适合需要精确控制 size / quality、要求与 OpenAI 官方一致、要 4K 出图**的生产场景。
`/v1/images/generations`,输入文本提示词生成图片,支持 size / quality / output\_format。
`/v1/images/edits`,multipart 上传参考图(最多 16 张)+ 编辑/融合指令,支持 mask 局部重绘。
## 为什么选 API易 的 GPT-image-2 官转?
对标 OpenAI 官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化:
严格走 OpenAI 官方转发链路,请求和响应 **100% 与 OpenAI 官方一致**——字段、错误码、模型行为完全相同,质量无损、无偷跑风险。
不受 OpenAI 官方 **Tier 等级** 对 RPM / TPM 的硬限,企业量级请求可线性放大,批量生图与高峰场景更从容。
默认单价与 OpenAI 官方一致,叠加 [充值加赠活动](/faq/recharge-promotions) **最低可享 85 折**,长期使用成本显著下降。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。
官逆 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview)(\$0.03/张统一价)可无缝切换,另有性价比标杆 [Nano Banana Pro / 2](/api-capabilities/nano-banana-2-image/overview),按场景自由组合。
团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 核心特性
支持任意合法尺寸输出,预设涵盖 1K / 2K / 3840×2160 4K,自定义尺寸只需满足边长 16 倍数、比例 ≤ 3:1 等基本约束。
编辑场景下自动启用 high-fidelity,参考图细节、人物身份、文字内容保留度大幅提升。**无需也不能**再传 `input_fidelity`。
1024×1024 高画质从 1.5 时代的 \$0.25 级别降到 \$0.211/张,2K/4K 按 token 实计但同样下行,长期使用成本明显降低。
中文提示词原生支持,招牌、海报、UI 截图等场景的中英文文字渲染稳定,`high` 档位下精细文字几乎不糊。
`image[]` 数组最多接受 16 张参考图,prompt 中可用「图1/图2/图3」明确指代。
支持上传带 alpha 通道的 mask 图,透明区域为重绘区,不透明区域保留原图。
支持 png(默认)/ jpeg / webp,jpeg/webp 可设 `output_compression` 控制体积。
把 `base_url` 指向 `https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 直接调用,零代码改动迁移。
## 模型定价
按 token 计费(输入 text + 输入 image + 输出 image 三段之和)。**官方按量定价表**(每张输出图):
| 画质 | 1024×1024 | 1024×1536 | 1536×1024 |
| ------ | --------- | --------- | --------- |
| Low | \$0.006 | \$0.005 | \$0.005 |
| Medium | \$0.053 | \$0.041 | \$0.041 |
| High | \$0.211 | \$0.165 | \$0.165 |
**计费说明**:
* 2K / 4K 无固定每张价,按输入 + 输出 token 实计
* 编辑场景因强制高保真,输入 token 明显高于纯文生图
* 流式出图(`stream: true` + `partial_images: N`)每张 partial 额外消耗 100 个输出 image token
* 对比 `gpt-image-1.5`,同档同尺寸 `gpt-image-2` 成本低约 20-30%
## 分组介绍
`gpt-image-2` 官转目前提供两个分组,可在后台「令牌设置 → 分组」中切换:
| 分组 | 倍率 | 适用场景 |
| ----------------------- | ---- | -------------------------------------- |
| `Default` 默认分组 | 1.0x | 与 OpenAI 官方同价,资源宽裕时首选;高峰期可能并发紧张、出现 429 |
| `image2Enterprise` 企业分组 | 1.2x | 默认分组紧张时的稳定过渡通道,稳定优先 |
**1.2x 倍率怎么来的?** 基于"3000 美金单次充值大客户加赠 20% 后约等官网原价"的口径设定——平台不计税务成本,不赚钱也优先保障供给。默认分组不稳定时,把令牌切到 `image2Enterprise` 即可临时过渡使用。
📖 分组上线公告:[/live/2026-04/image2-enterprise](/live/2026-04/image2-enterprise)
## 技术规格
| 维度 | 参数 |
| ------------- | ------------------------------------ |
| **模型名** | `gpt-image-2` |
| **速度** | 约 120 秒(高画质 4K 接近 2 分钟) |
| **输出分辨率** | 任意合法尺寸(1K/2K/4K,最大 3840×2160) |
| **画质档位** | `auto` / `low` / `medium` / `high` |
| **输出格式** | `png`(默认)/ `jpeg` / `webp` |
| **中文提示词** | ✅ 原生支持 |
| **单次出图数量** | 1 张(`n=1`) |
| **参考图上限** | 16 张(`image[]`) |
| **mask 局部重绘** | ✅ 支持(要求带 alpha 通道) |
| **透明背景** | ❌ 不支持(`background: transparent` 会报错) |
| **响应字段** | `b64_json`(**纯 base64,无前缀**) |
## 端点一览
| 端点 | 用途 | Content-Type |
| ----------------------------- | ---------------------- | --------------------- |
| `POST /v1/images/generations` | 文生图 | `application/json` |
| `POST /v1/images/edits` | 参考图编辑 / 多图融合 / mask 重绘 | `multipart/form-data` |
**域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。
## 尺寸(size)详解
### 预设尺寸
| size | 含义 | 像素 |
| ----------- | ------- | ---- |
| `auto` | 自适应(默认) | 模型决定 |
| `1024x1024` | 方形 1:1 | 1K |
| `1536x1024` | 横版 3:2 | 1K |
| `1024x1536` | 竖版 2:3 | 1K |
| `2048x2048` | 方形 1:1 | 2K |
| `2048x1152` | 横版 16:9 | 2K |
| `3840x2160` | 横版 16:9 | 4K |
| `2160x3840` | 竖版 9:16 | 4K |
### 自定义尺寸约束
`gpt-image-2` 接受**任意合法尺寸**,只需同时满足:
1. **最大边 ≤ 3840px**
2. **两条边都是 16 的倍数**
3. **长短边比例 ≤ 3:1**
4. **总像素数 ∈ \[655,360, 8,294,400]**(下限约 0.65MP,上限约 8.3MP)
**合法示例**:`1600x1200`、`1792x1024`、`2048x1536`、`3200x1800`
**非法示例**:`1000x1000`(非 16 倍数)、`4000x4000`(超上限)、`3840x1000`(比例超 3:1)
超过 `2560×1440`(约 3.69MP)的输出目前官方标记为**实验性**,可能不稳定或出现质量波动。生产环境建议优先用预设尺寸:`2048x1152` / `2048x2048` / `3840x2160` 等。
## 最佳实践
8 个预设尺寸经过官方优化,速度和质量更稳定;自定义尺寸留给真有比例需求的场景。
草稿 / 批量 → `low`;默认 / 终稿 → `medium`;文字、精细纹理、印刷 → `high`。
对最终展示无特别要求时,`output_format=jpeg` + `output_compression=85` 比 PNG 快且体积小一半以上。
文字渲染是主要卖点,但 low/medium 仍可能糊;招牌、海报类场景锁 `quality=high`。
单张 ≤ 10MB,PNG/JPEG/WebP 均可;最多 16 张;prompt 里用「图1/图2」指代顺序。
`quality=high` + 2K/4K 实测可能达数分钟,单纯按"约 120 秒"配置会大量误超时。**保守按 360 秒起配**,前端务必给进度反馈;服务端建议用任务队列解耦。
从 `gpt-image-1.5` 迁移:删掉 `input_fidelity`(强制高保真,传了会报错);避开 `background: transparent`(暂不支持)。
## 错误码与重试
| 状态码 | 含义 | 处理建议 |
| ----- | ------------------------- | ---------------------------------------------------------------- |
| `400` | 参数非法(size 不合约束、传了不支持的字段等) | 按尺寸约束章节校验;**注意不要传** `input_fidelity` / `background: transparent` |
| `401` | 令牌无效 | 检查 Bearer Token |
| `403` | 内容审核拦截 | 调整 prompt 或传 `moderation: low` |
| `429` | 限流 / 余额不足 | 指数退避重试 |
| `5xx` | 网关 / 后端错误 | 重试 1–2 次 |
| 超时 | 长尾 | 客户端超时 ≥ **360 秒**(high + 2K/4K 实测可能 3-5 分钟) |
**建议客户端**:
* 请求超时 **360 秒** 起步(保守值;`quality=high` + 2K/4K 实测可能 3-5 分钟,按 120 秒配会大量误超时)
* 对 5xx 与超时做 **指数退避重试**(建议 2 次)
* 记录响应头 `x-request-id` 方便排查
## 常见问题
**要**。`gpt-image-2` 返回的是**纯 base64 字符串**(无前缀),与 `gpt-image-2-all` 不同。客户端有两种用法:
* **写文件**:`base64.b64decode(b64_str)` 后写入磁盘
* **浏览器渲染**:`img.src = 'data:image/png;base64,' + b64_str` 自行拼前缀
若你的代码沿用了 1.5 时代的"已含前缀"假设,会拿到损坏的 data URL,请显式判断。
`gpt-image-2` **强制启用** high-fidelity 处理参考图,不再接受 `input_fidelity` 参数。从 1.5 迁移时把这个字段移除即可,无需替换。
`gpt-image-2` **暂不支持** `background: transparent`(会报错)。两个变通方案:
* 把 `background` 改为 `opaque` / 或不传,自行用 PIL / sharp / 在线工具抠透明
* 仍需透明背景的场景临时回退到 `gpt-image-1.5`
1 张(`n=1`)。如需 N 张请客户端并行 N 次调用。每次独立按 token 计费。
输出分辨率越高、画质档位越高,需要生成的 image token 越多,自然耗时越长。`3840×2160` + `quality=high` 实测可接近 2 分钟。建议:
* 客户端超时 **≥ 360 秒**(保守值)
* 前端显示"生成中"进度反馈
* 不需要 4K 时仍用 1024×1024 / 1536×1024 等 1K 预设
因为 `gpt-image-2` 对参考图自动启用 high-fidelity 处理,参考图本身会按 Vision 计费规则换算成大量输入 token。带图编辑的输入 token 明显高于文生图,预算时要留足。
* 与原图**相同尺寸、相同格式**,单张 ≤ 50MB
* **必须带 alpha 通道**:透明区域(alpha=0)= 要重绘的部分,不透明区域 = 保留
* 仅对第一张 image 生效
* mask 是"软引导"非精确边界,模型可能在蒙版周围扩展 / 收敛
| 选 | 场景 |
| ----------------------- | ----------------------------------------------------------- |
| **gpt-image-2**(官方) | 需要精确控制 size / quality、要求与 OpenAI 官方完全一致、要 4K 出图、要 mask 局部重绘 |
| **gpt-image-2-all**(官逆) | 追求统一价 \$0.03/张、约 30–60 秒出图、参数极简、对一致性 / 中文文字要求高 |
可以,零代码改动。把 `base_url` 指向 `https://api.apiyi.com/v1`,`api_key` 设为 API易 令牌即可:
```python theme={null}
from openai import OpenAI
client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1")
resp = client.images.generate(model="gpt-image-2", prompt="...", size="2048x1152", quality="high")
```
**不支持**。`gpt-image-2` 走 OpenAI 官方同步端点,请求一旦提交就会跑到结束,无法发出"取消"指令。客户端即使断开连接,服务端仍会把这次生成完整跑完并照常计费。建议在客户端做好超时控制,不要依赖"断连就不收费"的假设。
默认 **100 RPM**(每分钟 100 次请求)。实际可用 RPM 还会受**全平台总并发**动态调整。如果你的业务需要更高配额,请联系我们告知预估 QPS / RPM,可单独申请扩容资源。
**不支持**。`gpt-image-2` 严格与 OpenAI 官方一致——只有同步调用,发起请求后阻塞等待结果(`high` 档 + 4K 实测 1–2 分钟)。如需异步队列、回调通知等能力:
* 在业务层用任务队列(Celery / BullMQ 等)自行封装异步
* 或改用 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview),出图约 30–60 秒,更适合前端轮询
**不会**。OpenAI 自带内容安全审核,触发审核或参数非法时会直接返回 `400` 错误并**不计费**。典型响应:
```json theme={null}
{
"status_code": 400,
"error": {
"message": "Your request was rejected by the safety system. ...",
"type": "shell_api_error",
"code": "moderation_blocked"
}
}
```
其它常见的 0 计费错误:`401`(令牌无效)、`429`(限流)。**只有请求实际进入模型生成阶段(即收到 `200` + `b64_json`)才会按 token 计费**。
## 相关文档
* [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - 选型对照表,帮你决定用哪个
* [文生图 Playground](/api-capabilities/gpt-image-2/text-to-image) - `/v1/images/generations` 在线调试
* [图片编辑 Playground](/api-capabilities/gpt-image-2/image-edit) - `/v1/images/edits` 多图融合 + mask
* [深度解读:gpt-image-2 上线说明](/news/gpt-image-2-launch) - News 文章
* [完整接入文档(中文)](/knowledge-base/gpt-image-2-API-for-user) - 完整 API 参考
* [GPT-Image-2-All(官逆版本)](/api-capabilities/gpt-image-2-all/overview) - 更便宜、更快的备选方案
* [社区贡献:Luck GPT-Image 2 ComfyUI 节点](/scenarios/ecosystem/luckgpt2-comfyui) - 在 ComfyUI 中一键调用 `gpt-image-2`(含 mask / 5 图输入 / 自定义尺寸)
* [社区贡献:APIYI GPT-Image 2 Skills](/scenarios/ecosystem/apiyi-gpt-image-skills) - 在 Codex CLI / Cursor / Gemini CLI 等 AI 编程工具中一句话调用
* [API 使用手册](/api-manual) - 通用调用规范
`gpt-image-2` 是 OpenAI 官方旗舰,按 token 实计;如果你更看重统一定价(\$0.03/张)和出图速度(30–60s),可参考 [gpt-image-2-all](/api-capabilities/gpt-image-2-all/overview)。
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/text-to-image
api-reference/gpt-image-2-generate-openapi.yaml POST /v1/images/generations
gpt-image-2 文生图 API 参考与在线调试 — 任意合法尺寸(含 4K),按 token 计费
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择 size / quality 后一键发送即可。
**场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑、多图融合或 mask 局部重绘,请使用 [图片编辑接口](/api-capabilities/gpt-image-2/image-edit)。
**🖥️ 浏览器 Playground 限制(重要)**
本接口的响应包含**纯 base64 字符串**(数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。
**推荐做法**(小白零踩坑):
* **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。
* 如要在浏览器里试 Playground,把 `size` 设为最小档(如 `1024x1024`)、`quality` 改为 `low`,缩小响应体积。
**⚠️ 不支持的参数**
* `input_fidelity` —— `gpt-image-2` 强制启用高保真,传了会 400 报错(从 1.5 迁移时直接删掉这一行)
* `background: "transparent"` —— 暂不支持透明背景,请改用 `opaque` 或自行后处理抠透明
**超过 `2560×1440` 的输出仍属实验性**,生产环境建议优先用预设尺寸:`2048x1152` / `2048x2048` / `3840x2160`。
## 代码示例
### Python(OpenAI SDK 直连)
```python theme={null}
from openai import OpenAI
import base64
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.generate(
model="gpt-image-2",
prompt="赛博朋克城市雨夜,霓虹招牌特写,电影画幅",
size="2048x1152",
quality="high",
output_format="jpeg",
output_compression=85
)
# b64_json 是纯 base64(无前缀),需要自己 decode 写文件
with open("out.jpg", "wb") as f:
f.write(base64.b64decode(resp.data[0].b64_json))
```
### Python(原生 requests)
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
},
json={
"model": "gpt-image-2",
"prompt": "横版 2K 海边日落老灯塔,电影画幅",
"size": "2048x1152",
"quality": "high"
},
timeout=360 # high + 2K/4K 实测可能 3-5 分钟,按 120s 配会大量误超时
).json()
with open("out.png", "wb") as f:
f.write(base64.b64decode(response["data"][0]["b64_json"]))
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2",
"prompt": "一只戴墨镜的橘猫坐在海边吧台,电影画幅",
"size": "2048x1152",
"quality": "high",
"output_format": "jpeg",
"output_compression": 85
}'
```
### Node.js(原生 fetch)
```javascript theme={null}
import fs from 'node:fs';
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'gpt-image-2',
prompt: '极简线条风格的猫咪 LOGO',
size: '1024x1024',
quality: 'medium'
})
});
const { data } = await resp.json();
// b64_json 是纯 base64(无前缀),需自己 decode
fs.writeFileSync('logo.png', Buffer.from(data[0].b64_json, 'base64'));
```
### 浏览器 JavaScript(直接渲染)
```javascript theme={null}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'gpt-image-2',
prompt: '水彩风的北欧极光',
size: '1536x1024',
quality: 'high'
})
});
const { data } = await resp.json();
// 浏览器渲染需自己拼 data URL 前缀
document.getElementById('img').src = `data:image/png;base64,${data[0].b64_json}`;
```
## 参数说明速查
| 参数 | 类型 | 必填 | 默认 | 说明 |
| -------------------- | ------ | -- | ------ | ---------------------------------------- |
| `model` | string | 是 | — | 固定填 `gpt-image-2` |
| `prompt` | string | 是 | — | 提示词,支持中英文 |
| `size` | string | 否 | `auto` | 输出尺寸,预设或满足约束的自定义尺寸 |
| `quality` | string | 否 | `auto` | `low` / `medium` / `high` / `auto` |
| `output_format` | string | 否 | `png` | `png` / `jpeg` / `webp` |
| `output_compression` | int | 否 | — | 0–100,仅 `jpeg` / `webp` 生效 |
| `background` | string | 否 | `auto` | `opaque` / `auto`(**不支持** `transparent`) |
| `moderation` | string | 否 | `auto` | `auto` / `low`(低强度审核) |
| `n` | int | 否 | 1 | 仅支持 1 |
详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。
## 响应格式
```json theme={null}
{
"created": 1776832476,
"data": [
{
"b64_json": "iVBORw0KGgoAAAANSUhEUgAA..."
}
],
"usage": {
"input_tokens": 42,
"output_tokens": 6240,
"total_tokens": 6282
}
}
```
**⚠️ b64\_json 字段是纯 base64**,**不含** `data:image/...;base64,` 前缀。客户端需要:
* **写文件**:`base64.b64decode(b64_str)` → 写入磁盘
* **浏览器渲染**:自行拼前缀 `data:image/png;base64,` + b64
这与 `gpt-image-2-all` 的"已带前缀"行为不同,请留意。
`usage` 字段反映本次实际计费的 token 数。按"输入 text + 输入 image + 输出 image"三段之和计费,可结合 [概览页定价表](/api-capabilities/gpt-image-2/overview#模型定价) 估算成本。
# GPT-image-2 官转 vs 官逆 对比
Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/vs-gpt-image-2-all
gpt-image-2(官方正式版)与官逆姐妹模型 gpt-image-2-all / gpt-image-2-vip 对比:性质、计费、端点、上传/输出格式、分辨率控制、速度、指令遵循等差异,帮你选对模型。
## 一句话结论
| 你需要 | 选这个 |
| ------------------------------------------------ | ---------------------------------------- |
| **`quality` 画质参数 / mask 局部重绘 / OpenAI 官方完全对齐字段** | `gpt-image-2`(官转) |
| **可预测的统一价(\$0.03/张)+ 出图较快** | `gpt-image-2-all`(官逆,ChatGPT 网页线,30–60s) |
| **可预测的统一价 + 严格锁尺寸(含 4K)** | `gpt-image-2-vip`(官逆,Codex 线,\~90–150s) |
三个模型**底层都是 OpenAI gpt-image-2**,差别在通道性质(官方直连 vs 逆向)、计费方式、参数粒度。
**官逆两兄弟(-all / -vip)**:本页"官逆"列同时覆盖 **`gpt-image-2-all`** 与 **`gpt-image-2-vip`**——两者**调用方式完全一致**、同价 \$0.03/张,差异仅在 **`size` 字段** 和 **出图速度**:
* `gpt-image-2-all`:无 `size`(写进 prompt),ChatGPT 网页线,**约 30–60 秒** 出图
* `gpt-image-2-vip`:支持 **30 档 size**(10 比例 × 1K/2K/4K,**含 4K**),Codex 线,**约 90–150 秒** 出图(与官转持平)
* 共同点:均不支持 `quality`、不支持 `n`、不支持 mask 局部重绘
下表"官逆"列差异行会用 `-all` / `-vip` 子格分别标注。需要 `quality` 画质或 mask 局部重绘时仍请走官转 `gpt-image-2`。
## 完整对比表
| 维度 | **gpt-image-2-all / -vip**(官逆,高性价比) | **gpt-image-2**(官转,正式版) |
| -------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------- |
| **模型名** | `gpt-image-2-all`(不锁尺寸、出图最快) / `gpt-image-2-vip`(要指定 size 或 4K 时用) | `gpt-image-2` |
| **通道性质** | `-all`:逆向 ChatGPT 官网线路
`-vip`:逆向 Codex 线路 | 官方直连(OpenAI Images API) |
| **计费方式** | **按次计费**:固定 \$0.03/次(两模同价、所有 size 统一价) | **按量计费**:按 token 实计,官网同价;本站充值加赠后约 **8.5 折** |
| **典型成本/张** | \$0.03(不区分尺寸 / 画质 / 模型) | 实测 **\$0.03 – \$0.2**(与提示词长度、size、quality 正相关) |
| **令牌分组** | 默认分组(Default) | 默认分组(Default) |
| **令牌类型** | **按次计费** 或 **按量优先** 均可 | **仅支持按量优先**(本模型按 token 计费,按次计费令牌不可用) |
| **推荐端点** | `/v1/chat/completions`(方便传 URL) + `/v1/images/generations` + `/v1/images/edits`(同套代码兼容官转) | `/v1/images/generations` + `/v1/images/edits` |
| **备选端点** | 三端点皆可,按场景选 | (仅官方两个端点) |
| **上传图片格式** | base64 或 https URL(chat 端点)/ multipart file(edits 端点) | multipart file(编辑接口) |
| **输出图片格式** | `b64_json`(**已带前缀**)或 `url`(R2 CDN) | `b64_json`(**纯 base64,无前缀**) |
| **上传图片数(编辑)** | 多张(chat 模式理论上限较高) | **最多 16 张**(`image[]`) |
| **mask 局部重绘** | ❌ 不支持 | ✅ 支持(要求带 alpha 通道) |
| **指令遵循** | 好 | **优秀** |
| **生成速度** | `-all`:约 **30–60 秒**(较快)
`-vip`:约 **90–150 秒**(与官转持平) | 约 **100-120 秒**,复杂场景 + 4K 可达 3-5 分钟 |
| **`size` 参数** | `-all`:❌ 不接受(写进 prompt)
`-vip`:✅ 30 档常见 size(10 比例 × 1K/2K/4K) | ✅ 任意合法尺寸 |
| **`size = auto` 行为** | `-all`:— 不接受 `size` 字段
`-vip`:文生图时模型自动选尺寸(同 prompt 倾向收敛到一个相对固定值);改图时按 prompt 指代图的比例输出 | ✅ 默认值,OpenAI 官方语义"按 prompt 智能选";**社区实测偏向 1:1 方形(1024×1024)**,要其它比例请显式传 `size` |
| **支持 4K** | `-all`:❌
`-vip`:✅ 4K Detail 档(如 `3840x2160` / `2880x2880`) | ✅ 含 `3840×2160` |
| **常见输出尺寸** | `-all`:16:9 → 1672×941、9:16 → 941×1672、1:1 → 1254×1254(自适应)
`-vip`:见 [完整 30 档表](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表) | 8 个预设 + 任意合法自定义尺寸 |
| **画质参数 `quality`** | ❌ 两模均不支持(不要传) | ✅ `low` / `medium` / `high` / `auto` |
| **`n` 参数** | ❌ 两模均不支持(单次仅返回 1 张) | ✅ 支持 |
| **透明背景** | — | ❌ 不支持(`background: transparent` 会报错) |
| **中文提示词** | ✅ 原生 | ✅ 原生 |
| **文字渲染** | 高还原度 | 高还原度(`high` 档位最强) |
| **内容限制** | 较少(更宽松) | 较严格(OpenAI 官方策略) |
| **API 文档** | [GPT-Image-2-All 概览](/api-capabilities/gpt-image-2-all/overview) / [GPT-Image-2-VIP 概览](/api-capabilities/gpt-image-2-vip/overview) | [GPT-Image-2 概览](/api-capabilities/gpt-image-2/overview) |
🔑 **如何创建或管理令牌**:[https://api.apiyi.com/token](https://api.apiyi.com/token)\
在控制台创建令牌时可以选择分组(`Default` 默认即可)和令牌类型(**按次计费** / **按量优先**)。**调用 `gpt-image-2`(官转)必须使用「按量优先」类型的令牌**,否则会因计费方式不匹配被拒。
## 选型场景
### 选 `gpt-image-2-all`(官逆)的场景
单价稳定 \$0.03/张,无尺寸 / 画质阶梯,**适合大批量生产、成本必须封顶的场景**(信息图、营销物料、电商素材批量)。
约 30–60 秒出图,**比官转和 `-vip` 快约 2 倍**,前端实时交互体验更好。
`/v1/chat/completions` 同端点支持多轮迭代改图、文生图、带图编辑,**集成最简单**。
中文提示词原生友好、招牌 / 海报 / 信息图文字还原度高,**适合面向中文用户的内容生产**。
### 选 `gpt-image-2-vip`(官逆,要锁尺寸或 4K)的场景
支持 **30 档常见 size**(10 比例 × 1K/2K/4K),适合电商主图、海报模板、视频封面、桌面壁纸等需要稳定输出尺寸的场景。
**4K Detail 档**(2880×2880 / 3840×2160 / 3840×1632 等)与 1K/2K 同价 \$0.03/张,4K **不加价**。
调用结构与 `-all` **完全一致**,请求体里只多一个 `size` 字段——可以一套代码两个模型来回切。
单价仍稳定 \$0.03/张,**比官转 4K 高画质便宜很多**——4K 锁尺寸场景的高性价比之选。
### 选 `gpt-image-2`(官转)的场景
`quality` 支持 low/medium/high/auto。**草稿用 low 省成本,终稿 high 出印刷级效果**——这是官转独有,官逆两模都不支持。
支持 alpha 通道蒙版,**精准修改图片局部区域而保留其余部分**——官逆两模都不支持。
`size` 参数接受任意合法尺寸;如果你的尺寸**不在 `-vip` 的 30 档之内**,需要更细粒度的尺寸控制时选官转。
走官方 Images API,字段与行为完全与官方一致。**已有基于 OpenAI 官方 SDK 的代码 / 系统**可零改动迁移,长期更稳。
## 关键差异详解
### 1. `b64_json` 格式差异(迁移坑!)
```python theme={null}
# gpt-image-2-all:b64_json 已含前缀,可直接用作
all_b64 = resp["data"][0]["b64_json"]
# "data:image/png;base64,iVBORw0KGgo..."
img_tag = f'
' # ✅ 直接用
# gpt-image-2:b64_json 是纯 base64,无前缀,需自己 decode 或拼前缀
official_b64 = resp.data[0].b64_json
# "iVBORw0KGgo..."
with open("out.png", "wb") as f:
f.write(base64.b64decode(official_b64)) # ✅ 写文件
img_tag = f'
' # ✅ 浏览器渲染
```
从一个切到另一个时,**`b64_json` 处理代码必须改**,否则会拿到损坏的 data URL 或 decode 失败。
### 2. 分辨率控制方式
**gpt-image-2-all**(写在 prompt 里):
```
"横版 16:9 电影画幅,黄昏时的海边老灯塔" → 输出约 1672×941
"竖版 9:16 手机壁纸,赛博朋克城市雨夜" → 输出约 941×1672
"1024×1024 方形 LOGO,极简猫咪线条" → 输出约 1254×1254
```
**gpt-image-2-vip**(同为官逆,可直接传 `size`,30 档含 4K):
```bash theme={null}
curl "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer $YI_API_KEY" \
-d '{
"model": "gpt-image-2-vip",
"prompt": "白色陶瓷马克杯放在灰色桌面上",
"size": "2048x1360"
}'
# 4K 也可以,同价 $0.03
# "size": "3840x2160"
```
**gpt-image-2**(`size` 参数严格控制 + `quality` 档位):
```python theme={null}
client.images.generate(
model="gpt-image-2",
prompt="...",
size="2048x1152", # ✅ 精确按此输出
quality="high" # 仅官转支持
)
```
### 3. 上传 / 输出格式差异
| 操作 | gpt-image-2-all | gpt-image-2 |
| --------- | ------------------------------------------------------------ | --------------------------------- |
| **上传参考图** | base64 data URL 或 https URL(在 chat messages 的 `image_url` 里) | multipart `image[]` 文件字段 |
| **下载生成图** | 默认 `url`(R2 CDN,**24 小时有效期**),可改 `b64_json`(带前缀) | `b64_json`(**纯 base64**,需 decode) |
| **多图融合** | chat 端点多个 `image_url` 即可 | `image[]` 数组重复传入,**最多 16 张** |
### 4. 价格示例(粗算)
| 场景 | gpt-image-2-all / -vip | gpt-image-2 |
| ---------------- | ---------------------- | --------------------------- |
| 1024×1024 草图 | \$0.03 | \~\$0.006(low) |
| 1024×1024 中等画质 | \$0.03 | \~\$0.053(medium) |
| 1024×1024 高画质 | \$0.03 | \~\$0.211(high) |
| 2048×1152 高画质 | \$0.03 | \~\$0.20+(按 token 实计) |
| 3840×2160 4K 高画质 | \$0.03(仅 `-vip` 支持 4K) | 按 token 实计,**显著高于 1K** |
| 编辑 / 多图融合 | \$0.03 | 输入 token 显著上升,单次成本可达 \$0.1+ |
**结论**:批量、低画质场景用官逆不一定省(草图 1K low 在官转上反而更便宜);**中-高画质区段 + 4K** 都是官逆 \$0.03 的甜点区——`-vip` 的 4K 与 1K/2K 同价,相比官转 4K 高画质能省一个数量级。**需要 `quality` 档位 / mask 局部重绘 / OpenAI 官方完全对齐字段** 时再选官转。
## 客户端调用建议
| 设置项 | gpt-image-2-all / -vip | gpt-image-2 |
| ----------- | --------------------------------------------------------------------- | ---------------------------- |
| **超时(保守值)** | `-all`:**300 秒**(典型 30–60s)
`-vip`:**300 秒**(典型 90–150s,4K 长尾更长) | **360 秒**(4K 高画质实测可达 3-5 分钟) |
| **重试策略** | 5xx 与超时指数退避 2 次 | 同左 |
| **并发** | chat 端点天然并发友好;单次仅返回 1 张,多张请并发 | 单次 1 张,需要多张请并发 |
| **请求 ID** | `request-id` 响应头 | `x-request-id` 响应头 |
## 常见问题
可以。三者都走默认分组(Default),同一个 API Key 同时调用即可,无需额外配置。注意:调用 `gpt-image-2`(官转)需要「按量优先」类型的令牌;`-all` / `-vip` 两种令牌类型都能用。
有可能。当出图意图不够明确时,官逆模型的 chat 端点可能返回纯文字。**强化办法**:在用户提示词的开头追加固定前缀如「生成图片:」或 system 提示词约束输出。
两者都是逆向通道、同价 \$0.03/张、**调用方式完全一致**,差异只有:
* **`size` 字段**:`-all` 不接受(写进 prompt);`-vip` 接受 30 档常见 size(含 4K)
* **出图速度**:`-all` 约 30–60 秒;`-vip` 约 90–150 秒(与官转持平)
决策:不锁尺寸、追求最快出图 → `-all`;要锁尺寸或要 4K → `-vip`。详见 [GPT-Image-2-VIP 概览](/api-capabilities/gpt-image-2-vip/overview)。
需要。官转独有:**`quality` 档位**(low/medium/high/auto)、**mask 局部重绘**(alpha 通道蒙版)、**OpenAI 官方完全对齐字段**(已有官方 SDK 代码零改动迁移)、**任意非 30 档之外的合法尺寸**。
成本上,`-vip` 的 4K 与 1K/2K 同价 \$0.03/张,相比官转 4K 高画质能省一个数量级——4K 锁尺寸场景首推 `-vip`。
* **沿用官方 SDK / 要求与 OpenAI 官方一致**:选 `gpt-image-2`(官转),需要删掉 `input_fidelity`、避开 `background: transparent`,其它字段不动
* **想顺便降低成本,对尺寸不敏感**:选 `gpt-image-2-all`(官逆,30–60s)
* **想顺便降低成本,要锁尺寸或 4K**:选 `gpt-image-2-vip`(官逆,\~90–150s)
可以。常见做法:**主用 `-all` 或 `-vip`**(成本可预测,按业务是否要锁尺寸选),**兜底用 `gpt-image-2`**(需要 `quality` 档位 / mask 时切过去)。官转和官逆两类模型响应字段不同,业务层做一次格式归一即可。
详见 [下载 CDN 图片/视频很慢怎么办?](/faq/cdn-download-slow)
## 相关文档
* [GPT-Image-2 概览](/api-capabilities/gpt-image-2/overview) - 官转完整接入文档
* [GPT-Image-2-All 概览](/api-capabilities/gpt-image-2-all/overview) - 官逆 ChatGPT 网页线(出图最快)完整接入文档
* [GPT-Image-2-VIP 概览](/api-capabilities/gpt-image-2-vip/overview) - 官逆 Codex 线(30 档 size,含 4K)完整接入文档
* [深度解读:gpt-image-2 上线](/news/gpt-image-2-launch) - 官转上线说明
* [深度解读:gpt-image-2-all 上线](/news/gpt-image-2-all-launch) - 官逆上线说明
* [社区贡献:Luck GPT-Image 2 ComfyUI 节点](/scenarios/ecosystem/luckgpt2-comfyui) - 多模型合一的 ComfyUI 节点包
* [社区贡献:APIYI GPT-Image 2 Skills](/scenarios/ecosystem/apiyi-gpt-image-skills) - 多模型合一的 AI Agent Skill 包
* [充值优惠活动](/faq/recharge-promotions) - 充值加赠政策
# 图像与视频生成模型
Source: https://docs.apiyi.com/api-capabilities/image-video-models
查看支持的图像生成和视频生成 AI 模型,包括定价和使用说明。
API易 支持多种图像和视频生成模型,本页面提供详细的模型信息、定价和使用说明。
查看文本和多模态模型请访问 [当下热门模型](/api-capabilities/model-info)。
## 🎨 图像生成模型
| 模型名称 | 状态 | 特点 | 分辨率/规格 | 价格 |
| -------------------------------------------------------------------- | -------- | ---------------------------------------------------------------------- | --------------------------- | -------------------------- |
| [**Nano Banana Pro**](/api-capabilities/nano-banana-image-edit) 🔥 | 热卖中,本站最强 | 知识理解、中文字支持好、精准编辑 | 1K/2K/4K,支持原比例改图 | \$0.09/张 |
| [**Nano Banana 2**](/api-capabilities/nano-banana-2-image) 🔥 | 热卖中,新上线 | 同 Pro,支持按量计费 | 0.5K-4K,新增 1:8 和 8:1(可制作长图) | \$0.055/张(按量 \$0.025-0.07) |
| [**gpt-image-2-all**](/api-capabilities/gpt-image-2-all/overview) 🔥 | 热卖中,官逆 | GPT 官逆 ChatGPT 网页线、文字还原好、中文原生、约 30–60s 出图较快、尺寸写进 prompt | 1K-2K(prompt 控制) | \$0.03/张(按次) |
| [**gpt-image-2-vip**](/api-capabilities/gpt-image-2-vip/overview) 🆕 | 新上线,官逆 | GPT 官逆 Codex 线、调用同 -all、`size` 字段锁尺寸、30 档常见 size 含 **4K**、约 90–150s 出图 | 1K/2K/**4K**(30 档统一价) | \$0.03/张(按次,4K 不加价) |
| [**gpt-image-2**](/api-capabilities/gpt-image-2/overview) 🆕 | 新上线,官转 | OpenAI 旗舰官转、size/quality 精确控、参考图自动高保真、支持 mask 局部重绘 | 1K/2K/**4K**(任意合法尺寸) | 按 token 计费(\$0.006-0.211) |
| [**Nano Banana**](/api-capabilities/nano-banana-image) | 正常可用 | 速度快、一致性佳、电商改图 | 多种尺寸 | \$0.02/张 |
| [**Sora Image**](/api-capabilities/sora-image-generation) | 正常可用(官逆) | 平替 GPT Image 1.5,支持透明 PNG,一次出 2 张 | 三种尺寸 | \$0.01/张 |
| [**Seedream 5.0**](/api-capabilities/seedream-image) | 正常可用 | 价格优势、速度快、输出 URL,lite 版本最新上线 | 2K/3K | \$0.035/张 |
| [**Seedream 4.5**](/api-capabilities/seedream-image) | 正常可用 | 价格优势、速度快、输出 URL | 2K/4K | \$0.045/张 |
| [**Seedream 4.0**](/api-capabilities/seedream-image) | 正常可用 | 价格优势、速度快、输出 URL | 2K | \$0.035/张 |
| [**GPT Image 1.5**](/news/gpt-image-1-5-launch) 🔥 | 官方系列 | 精准编辑,速度提升 4 倍,文本渲染增强 | 低/中/高质量 | 按量计费 |
| [**GPT Image 1**](/api-capabilities/gpt-image-1) | 官方系列 | 精准编辑 | 多种尺寸 | 按量计费 |
| **GPT Image 1-Mini** | 官方系列 | 可替代 sora\_image | 多种尺寸 | 按量计费 |
| [**Flux Kontext Pro**](/api-capabilities/flux-image-generation) | 正常可用 | 图像编辑 | 多种尺寸 | 详见文档 |
| [**Flux Kontext Max**](/api-capabilities/flux-image-generation) | 正常可用 | 高质量图像编辑 | 多种尺寸 | 详见文档 |
**Nano Banana Pro**:1K-4K 所有分辨率统一价格 \$0.09/张,官方 4K 价格为 \$0.24/张,约官网 38%!企业高可用分组 `NanoBananaEnterprise`(1.4x)可作为兜底。[查看详情](/news/nano-banana-pro-launch)
**图像生成测试工具**
* 国内访问:[image.apiyi.com](https://image.apiyi.com)
* 全球访问:[imagen.apiyi.com](https://imagen.apiyi.com)
详细文档:
* [Nano Banana Pro 文档](/api-capabilities/nano-banana-image-edit) - 本站最强,知识理解+精准编辑
* [Nano Banana 2 文档](/api-capabilities/nano-banana-2-image) - 支持按量计费,新增超长比例
* [gpt-image-2-all 文档](/api-capabilities/gpt-image-2-all/overview) - GPT 官逆 ChatGPT 网页线,\$0.03/张、约 30–60s 出图较快
* [gpt-image-2-vip 文档](/api-capabilities/gpt-image-2-vip/overview) - GPT 官逆 Codex 线,\$0.03/张、30 档 size 含 4K、约 90–150s 出图
* [gpt-image-2 文档](/api-capabilities/gpt-image-2/overview) - OpenAI 官转、原生 4K、size/quality 精确控
* [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - gpt-image-2 与官逆姐妹模型 -all / -vip 选型对照
* [Nano Banana 文档](/api-capabilities/nano-banana-image) - 速度快、一致性佳
* [Sora Image 文档](/api-capabilities/sora-image-generation) - 平替 GPT Image 1.5
* [Seedream 文档](/api-capabilities/seedream-image) - 价格优势、速度快
* [GPT Image 1.5 文档](/news/gpt-image-1-5-launch) - 速度提升 4 倍,精准编辑
* [GPT Image 1 文档](/api-capabilities/gpt-image-1) - 官方图像生成
* [Flux 文档](/api-capabilities/flux-image-generation) - 图像编辑
## 🎬 视频生成模型
| 模型名称 | 状态 | 特点 | 时长 | 价格 |
| ----------------------------------------------------------- | ------- | ----------------------------- | ------- | ----------------------- |
| **Veo 3.1 官逆** 🔥 | 已上线,热卖中 | 谷歌 Flow 官逆,声画同步、支持真人、能出 HD/4K | 固定 8s | \$0.15-\$0.25(4K \$0.6) |
| [**Sora 2 官转**](/api-capabilities/sora-2-video-official) 🔥 | 已上线,热卖中 | 专业创作、稳定性高、不支持「角色」引用 | 4/8/12s | 按秒计费(官网 85%) |
| [**Sora 2 官逆**](/api-capabilities/sora-2-video) | 已上线(波动) | 电商带货、动漫漫剧、支持「角色」引用 | 10s/15s | \$0.12/次 |
**视频模型核心特性**:
* **Veo 3.1**:谷歌最新视频模型,业界领先的声画同步,支持真人出镜,可输出 HD 和 4K
* **Sora 2 官转**:OpenAI 官方转发,专业创作首选,稳定性高,支持 sora-2-pro
* **Sora 2 官逆**:适合电商带货和动漫漫剧场景,支持「角色」引用功能
* 视频在线测试:`icover.com/zh`
**即将上线的视频模型**:
* VEO 3.1 官转
* SeeDance 1.5 / 2.0
* 阿里万象 Wan 2.6
* Kling 3.0
敬请期待!关注我们获取最新上线通知。
## 💰 定价说明
* **按量计费**:根据实际使用计费,无最低消费
* **余额永不过期**:充多少用多少
* 访问 [API易控制台定价页面](https://www.apiyi.com/account/pricing) 查看所有模型的最新价格
# Kimi K2.5 文本生成
Source: https://docs.apiyi.com/api-capabilities/kimi-k2-5
Moonshot AI 原生多模态旗舰模型,256K 上下文,支持 Thinking 深度思考模式。API易阿里云官转通道稳定可靠,分组价 0.88 倍,叠加充值加赠可享官网 8 折以内。
Kimi K2.5 是 Moonshot AI 于 2026 年 1 月 27 日发布的原生多模态旗舰模型,主打视觉编程(Visual Coding)与自主 Agent Swarm 编排能力,提供 256K 超长上下文。API易通过**阿里云官转**通道接入,稳定可靠;分组价采用 0.88 倍率(官网 88 折),再叠加充值加赠(充值 \$100 送 \$10 起),**实际成本可低于官网 8 折**。
**API易已接入 Kimi K2.5**:阿里云官转通道,OpenAI 兼容格式直接调用,模型名 `kimi-k2.5`。与 Kimi 官网不同的是——**Thinking(思考)模式需要显式传入 `enable_thinking: true` 参数才会启用**,默认为 Instant 模式。
## 核心优势
无需额外加价即可享受 256K 上下文,整个大型代码库或长文档一次塞进去。
通过 `enable_thinking: true` 开启推理链路,适合复杂规划、根因分析与 Agent 任务。
原生理解图像与代码,擅长把 UI 截图、设计稿、图表转化为可运行的代码。
经阿里云官方转发通道接入,企业级 SLA,高并发下稳定不断供。
## 模型信息
| 参数 | 值 |
| --------------- | ---------------------------------------- |
| **模型名称** | `kimi-k2.5` |
| **上下文窗口** | 256,000 tokens |
| **运行模式** | Instant / Thinking / Agent / Agent Swarm |
| **Thinking 开关** | 请求体 `enable_thinking: true`(默认 `false`) |
| **输入格式** | 文本 + 图像(原生多模态) |
| **输出格式** | 文本 |
| **流式输出** | ✅ 支持 |
| **函数调用 / 工具使用** | ✅ 支持 |
| **通道** | 阿里云官转(稳定可靠) |
Kimi 官网内置的 `$web_search` 工具目前与 Thinking 模式不兼容,官方建议:如需使用 web\_search,先关闭 `enable_thinking`。这一限制与 Moonshot 官方一致。
## 定价
| 项目 | 官网价格 | API易分组价(0.88 倍率) | 叠加充值加赠(约) |
| -------- | ------------------ | ------------------- | -------------------- |
| 输入 | \$0.60 / 1M tokens | \$0.528 / 1M tokens | 约 \$0.48 / 1M tokens |
| 输出 | \$2.50 / 1M tokens | \$2.20 / 1M tokens | 约 \$2.00 / 1M tokens |
| 缓存命中(输入) | \$0.10 / 1M tokens | \$0.088 / 1M tokens | — |
**价格说明**:API易采用 **0.88 倍率**(官网 88 折)作为分组基础价;叠加首充/大额充值加赠后(如充值 \$100 送 \$10 起),实际使用成本可**低于官网 8 折**。更多加赠政策详见 [充值优惠](/faq/recharge-promotions)。
## 如何开启 Thinking 模式
在 API易 上使用 Kimi K2.5,与 Kimi 官网最大的区别是——**默认是 Instant 模式**,需要通过请求体的 `enable_thinking` 参数显式启用深度思考:
| 场景 | `enable_thinking` | 说明 |
| ---------------------- | ----------------- | ------------------------------- |
| 日常对话 / 快速响应 | `false`(默认) | Instant 模式,响应最快 |
| 复杂推理 / 代码规划 / 根因分析 | `true` | Thinking 模式,输出推理链路 |
| Agent 任务 + web\_search | `false` | 官方限制:web\_search 与 thinking 不兼容 |
### cURL 示例(开启 Thinking)
```bash theme={null}
curl --location 'https://api.apiyi.com/v1/chat/completions' \
--header "Authorization: Bearer sk-xxxx" \
--header 'Content-Type: application/json' \
--data '{
"model": "kimi-k2.5",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "1+1等于多少?"
}
],
"enable_thinking": true
}'
```
## 调用方式
### 端点地址
```
https://api.apiyi.com/v1/chat/completions
```
### 基础调用(Instant 模式)
```bash cURL theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "kimi-k2.5",
"messages": [
{"role": "user", "content": "用一句话介绍你自己"}
]
}'
```
```python Python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="kimi-k2.5",
messages=[
{"role": "user", "content": "用一句话介绍你自己"}
]
)
print(response.choices[0].message.content)
```
```javascript Node.js theme={null}
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
const response = await client.chat.completions.create({
model: 'kimi-k2.5',
messages: [
{ role: 'user', content: '用一句话介绍你自己' }
]
});
console.log(response.choices[0].message.content);
```
### 进阶调用(Thinking 模式)
```python Python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="kimi-k2.5",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "分析这段代码的时间复杂度并给出优化建议"}
],
extra_body={
"enable_thinking": True
}
)
print(response.choices[0].message.content)
```
```javascript Node.js theme={null}
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
const response = await client.chat.completions.create({
model: 'kimi-k2.5',
messages: [
{ role: 'system', content: 'You are a helpful assistant.' },
{ role: 'user', content: '分析这段代码的时间复杂度并给出优化建议' }
],
// @ts-ignore - 自定义字段
enable_thinking: true
});
console.log(response.choices[0].message.content);
```
### 流式输出
```python theme={null}
response = client.chat.completions.create(
model="kimi-k2.5",
messages=[{"role": "user", "content": "写一首关于春天的短诗"}],
stream=True,
extra_body={"enable_thinking": True}
)
for chunk in response:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
```
## 请求参数
| 参数名 | 类型 | 必填 | 说明 |
| ----------------- | ------- | -- | --------------------------- |
| `model` | string | 是 | 固定为 `kimi-k2.5` |
| `messages` | array | 是 | 对话消息数组 |
| `enable_thinking` | boolean | 否 | 是否开启 Thinking 模式,默认 `false` |
| `stream` | boolean | 否 | 是否流式输出 |
| `temperature` | number | 否 | 采样温度,0\~2 之间 |
| `max_tokens` | integer | 否 | 最大输出 tokens |
| `tools` | array | 否 | 函数调用 / 工具列表 |
## 响应格式
```json theme={null}
{
"id": "chatcmpl-xxxxxxxx",
"object": "chat.completion",
"created": 1706300000,
"model": "kimi-k2.5",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "1+1 等于 2。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 24,
"completion_tokens": 12,
"total_tokens": 36
}
}
```
## 最佳实践
1. **按任务切换模式**:日常对话、短文本生成用默认 Instant 模式;复杂推理、代码审查、Agent 规划任务加上 `enable_thinking: true`。
2. **善用 256K 上下文**:整个中型代码仓库、产品文档、长会议纪要都可以一次塞进去,不额外加价。
3. **多模态视觉编程**:上传 UI 截图 / 设计稿,一次调用完成「读图 → 规划 → 出代码」。
4. **成本进一步优化**:充值 \$100 起享受加赠,叠加 0.88 分组价,实际成本可低于官网 8 折。
5. **注意 web\_search 限制**:如需使用官方 `$web_search` 内置工具,请关闭 `enable_thinking`。
## 常见问题
默认不会开启。请检查请求体是否包含 `"enable_thinking": true`;使用 OpenAI Python SDK 时需放在 `extra_body` 中,Node.js SDK 可直接作为顶层字段传入。
是同一个模型。API易通过阿里云官转通道接入 Moonshot 官方 Kimi K2.5,模型能力完全一致。区别仅在于:Thinking 模式默认关闭,需通过 `enable_thinking` 参数显式启用。
在 API易控制台创建令牌时,将令牌分组设置为支持 Kimi K2.5 的分组即可按 0.88 倍率计费。搭配充值加赠后,整体成本可进一步下降。详见 [充值优惠](/faq/recharge-promotions)。
支持。可通过标准 OpenAI 格式的 `tools` 字段传入函数定义。注意官方 `$web_search` 内置工具与 Thinking 模式互斥,请分别使用。
Thinking 模式生成的推理内容按输出 tokens 正常计费。复杂任务可能会显著增加输出 tokens 数量,建议按需启用。
## 相关资源
查看完整的 API 使用指南
了解加赠活动,把价格做得更低
查看所有可用模型及分组
查看各种客户端接入教程
# 当下热门模型(保持更新)
Source: https://docs.apiyi.com/api-capabilities/model-info
查看支持的200+AI模型详细信息,推荐给你当下热门、好用的 AI 大模型。
API易 支持 300+ 主流 AI 模型,本页面提供详细的模型信息、定价和使用说明。
**企业级专业稳定的AI大模型API中转站**\
本站均为官方源头转发,价格八折(叠加充值加赠和汇率优势),聚合各种优秀大模型。不限速,不过期,不惧封号,按量计费,长期可靠服务。
## 🔥 当前推荐模型
以下为当前稳定供给的热门模型,完整模型列表和实时价格请访问 [API易控制台定价页面](https://www.apiyi.com/account/pricing)。
**模型升级建议**:我们推荐优先使用最新模型以获得最佳性能,但请注意:
1. **上线初期可能不稳定**:新模型刚发布时,原厂商算力可能不足,导致响应慢、超时或偶发错误,通常数天至数周后趋于稳定
2. **注意参数兼容性**:新模型可能新增或变更参数(如 `max_completion_tokens` 替代 `max_tokens`),升级前请检查 API 参数是否兼容老模型
3. **务必先测试再上线**:在将新模型用于生产环境前,务必在测试环境充分验证,确保输出质量和接口兼容性符合预期
## 模型分类
### 🤖 OpenAI 系列
#### 🆕 最新模型
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| -------------------------- | --------------------- | ----- | ------------------------------------------------ | ----------- |
| **GPT-5.4** 🔥 | `gpt-5.4` | 1M | 原生计算机操控,GDPval 83%,错误率降低 33% | 复杂智能体、专业工作流 |
| **GPT-5.4 Pro** 🔥 | `gpt-5.4-pro` | 1M | 最强推理性能,适合顶级任务 | 顶级推理、科研 |
| **GPT-5.2** | `gpt-5.2` | 400K | GDPval 70.9% 超越专业人士 | 编程规划、结构化任务 |
| **GPT-5.3 Instant** | `gpt-5.3-chat-latest` | 400K | 快速响应版本,保持顶级推理 | 快速写作、信息检索 |
| **GPT-5.1** | `gpt-5.1` | 128K | 智能与速度平衡,SWE-bench 76.3%,24h 缓存 | 综合应用、编程 |
| **GPT-5.3 Codex** 🔥 | `gpt-5.3-codex` | 128K | SWE-Bench Pro SOTA,比 5.2 Codex 快 25%,首个参与自身创建的模型 | 复杂编程、智能体任务 |
| **GPT-5.3 Codex Spark** 🔥 | `gpt-5.3-codex-spark` | 128K | 轻量实时编码版本,快速响应 | 日常编程、实时编码 |
#### ✅ 稳定/经典系列
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ---------------- | -------------- | ----- | ---------------- | ---------- |
| **GPT-5** ⭐ | `gpt-5` | 128K | 旗舰稳定版,超强推理能力 | 顶级推理、复杂任务 |
| **GPT-5 Mini** | `gpt-5-mini` | 128K | GPT-5 轻量版,性能优异 | 平衡性能与成本 |
| **GPT-5 Nano** | `gpt-5-nano` | 128K | GPT-5 超轻量版 | 大批量处理 |
| **o3** ⭐ | `o3` | 200K | 推理模型,已大幅降价,性价比极高 | 复杂推理、数学、编程 |
| **o4-mini** | `o4-mini` | 200K | 轻量级推理模型 | 编程任务首选 |
| **GPT-4.1** ⭐ | `gpt-4.1` | 128K | 速度快,主力模型之一 | 综合应用 |
| **GPT-4.1 Mini** | `gpt-4.1-mini` | 128K | 更便宜的轻量版本 | 成本敏感场景 |
| **GPT-4o** | `gpt-4o` | 128K | 综合能力平衡,多模态支持 | 通用场景 |
| **GPT-4o Mini** | `gpt-4o-mini` | 128K | 轻量快速版本 | 快速响应 |
**GPT-5 系列使用注意事项**:
1. 温度参数 `temperature` 必须设置为 1(只支持 1)
2. 使用 `max_completion_tokens` 替代 `max_tokens`
3. 不要传递 `top_p` 参数
**图像和视频生成模型**已移至专属页面,请访问 [图像与视频生成模型](/api-capabilities/image-video-models) 查看完整列表和定价。
### 🎭 Claude 系列 (Anthropic)
#### 🆕 最新模型
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| --------------------------------- | ---------------------------- | --------- | ------------------------------------- | ---------- |
| **Claude Opus 4.6** 🔥 | `claude-opus-4-6` | 1M (Beta) | Terminal-Bench 2.0 登顶,智能体团队协作,128K 输出 | 顶级编程、复杂智能体 |
| **Claude Opus 4.6 Thinking** 🔥 | `claude-opus-4-6-thinking` | 1M (Beta) | 自适应思维链,深度推理增强 | 顶级推理任务 |
| **Claude Sonnet 4.6** 🔥 | `claude-sonnet-4-6` | 1M (Beta) | 全面升级,性能媲美 Opus 4.5,性价比极高 | 编程首选、智能体开发 |
| **Claude Sonnet 4.6 Thinking** 🔥 | `claude-sonnet-4-6-thinking` | 1M (Beta) | 思维链模式,深度推理 | 复杂编程推理任务 |
#### ✅ 稳定/经典系列
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ------------------------------ | ------------------------------------- | ----- | ------------------------------- | ---------- |
| **Claude Opus 4.5** ⭐ | `claude-opus-4-5-20251101` | 200K | SWE-bench 80.9%,价格降至前代 1/3 | 复杂编程、顶级推理 |
| **Claude Sonnet 4.5** ⭐ | `claude-sonnet-4-5-20250929` | 200K | 世界级编码模型,SWE-bench 77.2% | 代码生成、智能体开发 |
| **Claude Sonnet 4.5 Thinking** | `claude-sonnet-4-5-20250929-thinking` | 200K | 思维链模式,深度推理 | 复杂编程推理任务 |
| **Claude Haiku 4.5** ⭐ | `claude-haiku-4-5-20251001` | 200K | 高性价比编码模型,SWE-bench 73.3%,速度 2 倍 | 实时聊天、结对编程 |
| **Claude 4 Sonnet** | `claude-sonnet-4-20250514` | 200K | 稳定版本,编程首选 | 代码生成、分析 |
| **Claude Opus 4.1** | `claude-opus-4-1-20250805` | 200K | 迭代升级版,编程优化 | 高要求编程任务 |
**最新推荐**:Claude Opus 4.6 以 Terminal-Bench 2.0 登顶,支持 1M 上下文和智能体团队协作。Sonnet 4.6 性能媲美 Opus 4.5,已成为 claude.ai 默认模型,性价比极高。**稳定首选**:Opus 4.5 和 Sonnet 4.5 经过充分验证,适合生产环境。Haiku 4.5 速度快 2 倍,性价比高。
### 🌟 Google Gemini 系列
#### 🆕 最新模型
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ------------------------------------ | ----------------------------------- | ----- | --------------------------------------- | ----------- |
| **Gemini 3.1 Pro Preview** 🔥 | `gemini-3.1-pro-preview` | 1M | ARC-AGI-2 77.1%(3 Pro 的 2 倍+),最强推理模型 | 复杂推理、多模态分析 |
| **Gemini 3 Flash Preview** 🔥 | `gemini-3-flash-preview` | 1M | SWE-bench 78% 超越 3 Pro,速度快 3 倍,价格仅 1/4 | 编程首选、性价比之王 |
| **Gemini 3 Flash Thinking** 🔥 | `gemini-3-flash-preview-thinking` | 1M | 强制推理模式,显示完整思考过程 | 复杂编程、深度推理 |
| **Gemini 3 Flash NoThinking** 🔥 | `gemini-3-flash-preview-nothinking` | 1M | 快速响应模式,最低延迟 | 简单任务、实时应用 |
| **Gemini 3.1 Flash Lite Preview** 🔥 | `gemini-3.1-flash-lite-preview` | 1M | 速度快 2.5 倍,超越 GPT-5 Mini 和 Haiku 4.5,超低价 | 高并发、大批量、低成本 |
**注意**:Gemini 3 Pro Preview 已于 2026 年 3 月 9 日停止服务,请迁移至 Gemini 3.1 Pro Preview。
#### ✅ 稳定/经典系列
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ------------------------- | ----------------------- | ----- | --------------- | ---------- |
| **Gemini 2.5 Pro** ⭐ | `gemini-2.5-pro` | 2M | 正式版,编程优势,多模态能力强 | 长文本、编程、多模态 |
| **Gemini 2.5 Flash** ⭐ | `gemini-2.5-flash` | 1M | 速度快,成本低,正式版 | 快速响应场景 |
| **Gemini 2.5 Flash Lite** | `gemini-2.5-flash-lite` | 1M | 超轻量版本,更快更便宜 | 大批量简单任务 |
**最新推荐**:Gemini 3.1 Pro Preview 推理能力翻倍(ARC-AGI-2 77.1%),是谷歌最先进推理模型。Gemini 3 Flash Preview 以 SWE-bench 78% 继续领跑编程性价比。Gemini 3.1 Flash Lite Preview 是最便宜的前沿模型,适合高并发场景。**稳定首选**:Gemini 2.5 Pro(2M 超长上下文)和 Gemini 2.5 Flash 已正式发布,适合生产环境。
### 🚀 xAI Grok 系列
#### 🆕 最新模型
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ----------------------------- | --------------------------- | ----- | -------------------- | ---------- |
| **Grok 4** 🔥 | `grok-4` | 标准 | 最新官方版本 | 综合任务 |
| **Grok 4 All** 🔥 | `grok-4-all` | 标准 | 原生联网,无需工具调用 | 需要实时信息场景 |
| **Grok 4 Fast Reasoning** 🔥 | `grok-4-fast-reasoning` | 200K | 推理模式,显示思考过程,降价 93%+ | 复杂推理任务 |
| **Grok 4 Fast Non-Reasoning** | `grok-4-fast-non-reasoning` | 200K | 非推理模式,快速响应 | 大上下文场景 |
| **Grok Code Fast 1** ⭐ | `grok-code-fast-1` | 256K | SWE-bench 70.8%,高速生成 | 代码生成、智能体编程 |
#### ✅ 稳定/经典系列
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| --------------- | ------------- | ----- | --------- | --------- |
| **Grok 3** ⭐ | `grok-3` | 标准 | 官方稳定版本 | 日常使用 |
| **Grok 3 All** | `grok-3-all` | 标准 | 原生联网增强版 | 新闻资讯、市场分析 |
| **Grok 3 Mini** | `grok-3-mini` | 标准 | 带推理能力的小模型 | 轻量任务 |
**Grok Fast 系列价格优势**:
* 相比 Grok-4 系列降价 **93%+**
* 输入:\$0.20/1M tokens,输出:\$0.50/1M tokens
* 业界领先的性价比,适合超长上下文场景
### 🔍 DeepSeek 系列
#### 🆕 最新模型
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ----------------------------- | ------------------------ | ----- | -------------------------------- | ----------- |
| **DeepSeek V3.2** 🔥 | `deepseek-v3.2` | 128K | 性能比肩 GPT-5,工具调用融入推理,IMO 金牌 | 复杂推理、编程、智能体 |
| **DeepSeek V3.2 Speciale** 🔥 | `deepseek-v3.2-speciale` | 128K | 高算力版本,超越 GPT-5,推理媲美 Gemini 3 Pro | 顶级推理任务 |
#### ✅ 稳定/经典系列
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ------------------- | ---------------------- | ----- | -------------------------- | ------- |
| **DeepSeek V3.1** ⭐ | `deepseek-v3-1-250821` | 128K | 混合推理模式,Think/Non-Think 双模式 | 智能推理、编程 |
| **DeepSeek R1** | `deepseek-r1` | 64K | 推理模型 | 数学、推理 |
| **DeepSeek V3** | `deepseek-v3` | 128K | 综合能力强 | 通用场景 |
### 🐘 国产模型系列
#### 智谱 AI (GLM)
**🆕 最新**:GLM-5 | **✅ 稳定/经典**:GLM-4.6、GLM-4.5
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| --------------- | ------------- | ----- | --------------------------------------- | ------------- |
| **GLM-5** 🔥 | `glm-5` | 200K | 744B 参数(40B 激活),编程对齐 Claude Opus 4.5,开源 | 复杂编程、系统工程、智能体 |
| **GLM-4.6** ⭐ | `glm-4.6` | 200K | 代码与推理增强版,稳定可靠 | 编程、推理、智能体 |
| **GLM-4.5** | `glm-4.5` | 128K | 标准版本,综合能力强 | 通用场景 |
| **GLM-4.5 Air** | `glm-4.5-air` | 128K | 轻量版本,速度快 | 快速响应 |
**GLM-5 特性**:
* 744B 参数(40B 激活),预训练数据 28.5T
* 编程能力对齐 Claude Opus 4.5,超越 Gemini 3 Pro
* 全新 Slime 框架,支持长时序智能体强化学习
* 开源模型中编程能力最强,性价比极高
#### 阿里通义千问 (Qwen)
**🆕 最新**:Qwen 3.5-Plus | **✅ 稳定/经典**:Qwen Max、Plus、Turbo
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| -------------------- | -------------- | ----- | ------------------------------------ | ----------- |
| **Qwen 3.5-Plus** 🔥 | `qwen3.5-plus` | 1M | 397B(17B 激活),支持 201 种语言,自称超越 GPT-5.2 | 智能体、多语言、长文本 |
| **Qwen Max** ⭐ | `qwen-max` | 32K | 最强稳定版本 | 综合任务 |
| **Qwen Plus** | `qwen-plus` | 32K | 增强版本 | 性价比场景 |
| **Qwen Turbo** | `qwen-turbo` | 32K | 快速版本 | 低延迟场景 |
#### Moonshot Kimi 系列
**🆕 最新**:Kimi K2.5 | **✅ 稳定/经典**:Kimi K2
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ----------------- | ---------------- | ----- | ----------------------------------------- | ------- |
| **Kimi K2.5** 🔥 | `kimi-k2.5` | 200K | 1T 参数(32B 激活),原生多模态,Agent Swarm 100 智能体协作 | 多模态、智能体 |
| **Kimi K2 正式版** ⭐ | `kimi-k2-250711` | 200K | 火山引擎官方合作,稳定性强 | 生产环境 |
### 🌐 MiniMax 系列
**🆕 最新**:MiniMax M2.5
| 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 |
| ------------------- | -------------- | ----- | ---------------------------------------- | ------------ |
| **MiniMax M2.5** 🔥 | `minimax-m2.5` | 标准 | 230B(10B 激活),SWE-bench 80.2%,\$1/小时极致性价比 | 编程、智能体、办公自动化 |
**MiniMax M2.5 特性**:
* SWE-bench 80.2%,编程能力顶级,速度比 M2.1 快 37%
* 仅 \$1/小时持续运行,业界最低成本前沿模型
* 支持 10+ 编程语言,20 万+ 真实环境训练
* 模型权重已完全开源
## 💰 定价说明
### 计费方式
* **按量计费**:根据实际使用的 Token 数量计费
* **无最低消费**:充多少用多少,余额永不过期
* **实时扣费**:每次调用后立即从余额扣除费用
### 价格优势
* 官方源头转发,价格略有优势
* 批量使用可联系客服获取更优惠价格
* 新用户注册送 300万 Token 测试额度
### 查看实时价格
访问 [API易控制台定价页面](https://www.apiyi.com/account/pricing) 查看所有模型的最新价格。
## 🛠️ 使用建议
### 模型选择指南
**编程开发**
* 顶级性能:Claude Opus 4.6(Terminal-Bench 2.0 登顶)、GPT-5.4(GDPval 83%)、Claude Sonnet 4.6(媲美 Opus 4.5)
* 高性价比:Gemini 3 Flash Preview(SWE-bench 78%,价格仅 1/4)、Claude Sonnet 4.6、MiniMax M2.5(SWE-bench 80.2%,\$1/小时)、GLM-5
* 备选:GPT-5.2 系列、DeepSeek V3.2、Kimi K2.5、Qwen 3.5-Plus、o4-mini
**文本创作**
* 首选:GPT-5.4、GPT-5.2 系列、Gemini 3.1 Pro Preview、Claude Opus 4.6、Claude Sonnet 4.6
* 备选:GPT-5.1 Chat Latest、Claude Sonnet 4.5、GPT-4.1、GPT-4o、Claude Haiku 4.5、GLM-4.6
**快速响应**
* 首选:Gemini 3 Flash NoThinking(极致速度)、Claude Haiku 4.5(速度快 2 倍)、GPT-4o Mini
* 备选:Gemini 2.5 Flash、Gemini 2.5 Flash Lite、GLM-4.5 Air、Grok 3 Mini、GPT-4.1 Mini
**图像生成**
* 最新推荐:GPT Image 1.5(速度提升 4 倍,精准编辑,低 \$0.01 起)
* 专业设计:SeeDream 4.5(12 亿参数,4K 画质,\$0.035/张)、Nano Banana Pro(4K 高清,最佳文本渲染)
* 高性价比:Nano Banana 正式版(10 种宽高比,\$0.025/张)、SeeDream 4.0(\$0.025/张)
* 逆向、价格最便宜:sora\_image、gpt-4o-image
**视频生成**
* 首选:Sora 2 系列(音视频同步,无水印,\$0.15/次起)
* 竖屏:sora\_video2,横屏:sora\_video2-landscape,高清:sora-2-pro
**长文本处理**
* 超长上下文:Gemini 2.5 Pro(2M)、Grok 4 Fast 系列(200K)、Grok Code Fast 1(256K)
* 编程场景:GLM-4.6(200K)、Claude 4 系列(200K)、Kimi K2(200K)
**联网搜索**
* 原生联网:Grok 4 All、Grok 3 All(无需工具调用)
* 适合场景:实时信息、新闻资讯、市场动态分析
### 成本优化建议
1. **分级使用**:简单任务用便宜模型,复杂任务用高级模型
2. **测试优化**:先用小模型测试,确定需求后再用大模型
3. **批量处理**:大量相似任务可以选择 Nano 或 Mini 版本
4. **缓存复用**:对重复查询结果进行缓存
## 🔗 相关资源
* [模型对比测试](https://imagen.apiyi.com/) - 图像生成效果对比
* [实时价格查询](https://www.apiyi.com/account/pricing) - 最新定价信息
* [API 文档](/api-manual) - 详细接口说明
* [快速开始](/getting-started) - 集成指南
模型列表持续更新中,我们会及时添加最新发布的优秀模型。如需使用特定模型或有批量需求,请联系客服。
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/nano-banana-2-image/image-edit
api-reference/nano-banana-2-edit-openapi.yaml POST /v1beta/models/gemini-3.1-flash-image-preview:generateContent
Nano Banana 2 图片编辑 API 参考与在线调试 — 输入图片 + 指令生成新图片
右侧的交互式 Playground 支持下拉选择参数。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。
**场景说明**:本页用于「图片编辑」,必须上传一张待编辑的图片(base64 编码)+ 编辑指令。如果只想根据文本生成新图片,请使用 [文生图接口](/api-capabilities/nano-banana-2-image/text-to-image)。
**🖥️ 浏览器 Playground 限制(重要)**
本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。
**推荐做法**(小白零踩坑):
* **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。
* 如要在浏览器里试 Playground,**用极小的参考图(\< 50KB)** 并把 `imageSize` 设为最小档(如 `512` / `1K`)。
**⚠️ `parts` 数组结构(重要,多图编辑必看)**
每个 `part` **只能是 `text` 或 `inlineData` 中的一个**,二者不能同时出现在同一个 part 里。这与谷歌官方 `gemini-3.1-flash-image-preview` 的契约一致。
**正确**:一个 text part(编辑指令)+ N 个 inlineData part(每张图一个):
```json theme={null}
"contents": [{
"parts": [
{"text": "把这两张图里的人物合成到同一个办公室场景中"},
{"inlineData": {"mimeType": "image/png", "data": ""}},
{"inlineData": {"mimeType": "image/png", "data": ""}}
]
}]
```
**错误**(每个 part 同时塞了 text 和 inlineData,会导致非预期行为):
```json theme={null}
"contents": [{
"parts": [
{"inlineData": {...}, "text": "这是提示词吗 1"},
{"inlineData": {...}, "text": "这是提示词吗 2"}
]
}]
```
**🖼️ 关于 `inlineData.data` 字段**
本接口是 **JSON 格式**(非 multipart 文件上传),所以 Playground 无法直接选择本地文件,需要先把图片转成 **Base64 字符串**再粘贴到 `data` 输入框。
**一行命令转换 + 自动复制到剪贴板**:
```bash theme={null}
# macOS
base64 -i your-image.jpg | tr -d '\n' | pbcopy
# Linux
base64 -w0 your-image.jpg | xclip -selection clipboard
# Windows PowerShell
[Convert]::ToBase64String([IO.File]::ReadAllBytes("your-image.jpg")) | Set-Clipboard
```
执行后直接在 Playground 的 `data` 字段 `Cmd+V` / `Ctrl+V` 粘贴即可。同时记得把 `mimeType` 切换为对应的 `image/jpeg` 或 `image/png`。
**建议**:测试用小图(\< 200KB),避免 base64 字符串过长导致浏览器卡顿。频繁测试图片编辑更推荐用下方代码示例直接在本地运行。
## 代码示例
### Python
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
# 读取待编辑的图片
with open("input.jpg", "rb") as f:
image_b64 = base64.b64encode(f.read()).decode()
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{
"parts": [
{"text": "请把背景模糊化,突出前景的人物"},
{"inlineData": {"mimeType": "image/jpeg", "data": image_b64}}
]
}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("edited.png", 'wb') as f:
f.write(base64.b64decode(img_data))
print("编辑后的图片已保存至 edited.png")
```
### Node.js
```javascript theme={null}
import fs from "fs";
const API_KEY = "sk-your-api-key";
const imageB64 = fs.readFileSync("input.jpg").toString("base64");
const response = await fetch(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
{
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
contents: [{
parts: [
{ text: "请把背景模糊化,突出前景的人物" },
{ inlineData: { mimeType: "image/jpeg", data: imageB64 } }
]
}],
generationConfig: {
responseModalities: ["IMAGE"],
imageConfig: { aspectRatio: "16:9", imageSize: "2K" }
}
})
}
);
const data = await response.json();
const imgBase64 = data.candidates[0].content.parts[0].inlineData.data;
fs.writeFileSync("edited.png", Buffer.from(imgBase64, "base64"));
```
### cURL
```bash theme={null}
# 注意:需要先将图片转为 base64 字符串
# IMAGE_B64=$(base64 -i input.jpg | tr -d '\n')
curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"contents": [{
"parts": [
{"text": "请把背景模糊化,突出前景的人物"},
{"inlineData": {"mimeType": "image/jpeg", "data": "'"$IMAGE_B64"'"}}
]
}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
}'
```
## 多图编辑示例
把多张图作为输入合成或对比时,**只用一个 `text` part**(编辑指令),后面追加多个 `inlineData` part(每张图一个)。
### Python(多图)
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
def to_b64(path):
with open(path, "rb") as f:
return base64.b64encode(f.read()).decode()
# 准备多张图(这里以 2 张为例,最多可上传多张)
images = ["person1.png", "person2.png"]
parts = [{"text": "把这两张图里的人物合成到同一个办公室场景中,做着搞怪表情"}]
for path in images:
parts.append({"inlineData": {"mimeType": "image/png", "data": to_b64(path)}})
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{"parts": parts}],
"generationConfig": {
"responseModalities": ["TEXT", "IMAGE"],
"imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("merged.png", "wb") as f:
f.write(base64.b64decode(img_data))
```
### cURL(多图,对齐谷歌官方格式)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"contents": [{
"parts": [
{"text": "An office group photo of these people, they are making funny faces."},
{"inlineData": {"mimeType": "image/png", "data": ""}},
{"inlineData": {"mimeType": "image/png", "data": ""}},
{"inlineData": {"mimeType": "image/png", "data": ""}}
]
}],
"generationConfig": {
"responseModalities": ["TEXT", "IMAGE"],
"imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"}
}
}'
```
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| ------------------------------------------------- | ------- | -- | ---------------------------------------------------------------------------------------- |
| `contents[].parts` | array | 是 | 由「**1 个 text part + N 个 inlineData part**」组成。每个 part 只能含 `text` 或 `inlineData` 之一,不可同时出现 |
| `contents[].parts[].text` | string | 是 | 编辑指令(建议只放在第一个 part 中) |
| `contents[].parts[].inlineData.mimeType` | string | 是 | `image/jpeg` 或 `image/png` |
| `contents[].parts[].inlineData.data` | string | 是 | 图片的 Base64 编码(多图编辑时重复多个 inlineData part) |
| `generationConfig.responseModalities` | array | 是 | 通常为 `["IMAGE"]` |
| `generationConfig.imageConfig.aspectRatio` | string | 否 | 14 种宽高比,默认 `1:1` |
| `generationConfig.imageConfig.imageSize` | string | 否 | `512` / `1K` / `2K` / `4K`,默认 `1K` |
| `generationConfig.thinkingConfig.thinkingLevel` | string | 否 | `minimal`(快速)/ `High`(深度推理) |
| `generationConfig.thinkingConfig.includeThoughts` | boolean | 否 | 是否返回思维过程文本 |
Nano Banana 2 支持多轮对话式编辑:把上一次的输出图片作为下一次的 `inlineData` 输入,配合新的编辑指令,可以逐步精调画面效果。
# Nano Banana 2 生图/编辑
Source: https://docs.apiyi.com/api-capabilities/nano-banana-2-image/overview
谷歌最新图像生成模型 Nano Banana 2 (gemini-3.1-flash-image-preview),Pro级画质、Flash级速度,支持4K输出、14种宽高比、图像搜索Grounding,按次 $0.055/次,按量低至 $0.025/张。
## 概述
**Nano Banana 2**(代号)是谷歌于 2026 年 2 月 26 日发布的最新图像生成模型,模型 ID 为 `gemini-3.1-flash-image-preview`。它以 **Pro 级画质 + Flash 级速度和成本** 重新定义了图像生成的性价比,是 Nano Banana 系列的最新旗舰。
**🔥 2026年2月26日发布**:Nano Banana 2 上线!Pro 级画质、Flash 级速度,支持按量计费(低至官网 28%),512px 低至 \$0.025/张!支持 4K 输出、14 种宽高比、图像搜索 Grounding 等独家特性。
输入文本提示词生成图片,带交互式 Playground 在线调试。
上传图片 + 编辑指令生成新图片,带交互式 Playground 在线调试。
## 为什么选 API易 的 Nano Banana 2
**Nano Banana Pro / 2 是 API易 消耗量排名第一的图像模型**——稳定、可靠、速度快。如果你期望跟专业的团队合作,那选 API易 就对了。
针对 Nano Banana 2 这种谷歌官方刚发布、产能仍紧张的新模型,API易 在**稳定性**、**成本**、**接入体验**三方面做了深度优化:
完全兼容谷歌官方 Gemini API 格式(`/v1beta/models/.../generateContent`),同时支持 OpenAI SDK 模式,请求体、响应字段、错误码与官方一致,迁移零改造。
无谷歌 AI Studio 的 RPM/RPD 硬限制,企业批量出图、高峰流量都能线性放大,避免被官方配额打断。
按次 \$0.055/张(官方 \$0.151)、按量 512px 低至 \$0.025/张(官方 \$0.045),叠加 [充值加赠活动](/faq/recharge-promotions) 最低可达官方 30.3%。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。
同系列覆盖 [Nano Banana Pro](/api-capabilities/nano-banana-image/overview)(极致画质)、Nano Banana 2(性价比)、Nano Banana 第一代(基础版),按场景自由组合。
团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 核心特性
生动光影、丰富纹理、锐利细节,画质媲美 Nano Banana Pro,速度却快得多
支持 512px、1K、2K、4K 四档分辨率,最高 4096×4096
新增 1:4、4:1、1:8、8:1,共支持 14 种宽高比,覆盖更多场景
Nano Banana 2 独家功能,可从 Google 图片搜索拉取视觉上下文
图片内文字清晰可读,支持多语言文本渲染,适合海报、营销物料
支持多轮对话式图像编辑,逐步精调画面效果
可配置 minimal 或 high 思维级别,处理复杂提示词更精准
最多保持 5 个角色的相貌一致性,14 个参考物体的高保真度
## 版本对比
| 特性 | **Nano Banana 2** | Nano Banana Pro | Nano Banana |
| -------------- | -------------------------------- | ---------------------------- | ------------------------ |
| 模型 ID | `gemini-3.1-flash-image-preview` | `gemini-3-pro-image-preview` | `gemini-2.5-flash-image` |
| 画质 | ⭐⭐⭐⭐⭐ Pro 级 | ⭐⭐⭐⭐⭐ 最高 | ⭐⭐⭐⭐ 优秀 |
| 速度 | 🚀 最快 | 🐢 较慢 | ⚡ 快速 |
| 最高分辨率 | 4K | 4K | 1K |
| 宽高比数量 | 14 种 | 10 种 | 10 种 |
| 图像搜索 Grounding | ✅ 独家 | ❌ | ❌ |
| API易定价 | **\$0.055/次(按次)** | \$0.09/次 | \$0.02/次 |
| 状态 | Preview | Preview | GA |
**选择建议**:
* 🔥 **追求性价比** → Nano Banana 2(按量计费低至 \$0.025/张,Pro 级画质 + Flash 级速度)
* 🎨 **追求极致画质** → Nano Banana Pro(\$0.09/次,最高保真度)
* ⚡ **追求最低成本** → Nano Banana(\$0.02/次,快速稳定)
## 模型定价
**计费模式选择**:Nano Banana 2 支持两种计费方式,通过创建令牌时的「Billing model」设置选择:
* 选择 **Pay-as-you-go**(按量计费)或 **Pay-as-you-go Priority**(按量优先)→ 按量计费
* 选择 **Pay-per-request**(按次计费)或 **Pay-per-request Priority**(按次优先)→ 按次计费(与 Nano Banana Pro 相同)
* ⚠️ **请勿选择 Hybrid billing(混合计费)**
### 按次计费
| 模型 | API易定价 | 谷歌官方 4K 定价 | 折扣 |
| -------------------------------------------------- | ------------- | -------------- | -------------- |
| **Nano Banana 2** `gemini-3.1-flash-image-preview` | **\$0.055/次** | \$0.151/次 | **🔥 约 3.6 折** |
| Nano Banana Pro `gemini-3-pro-image-preview` | \$0.09/次 | \$0.151/次 | **约 6 折** |
| Nano Banana `gemini-2.5-flash-image` | \$0.020/次 | \$0.039/次(仅1K) | 约 5 折 |
Nano Banana Pro 另提供 `NanoBananaEnterprise` 企业 HA 通道(1.4 倍费率,即 \$0.126/次),适合对可用性有更高要求的场景。
### 按量计费(Nano Banana 2 专属)
| 计费项目 | Google 官方 | API易 | 官网折扣 |
| --------------- | --------------------- | --------------- | ------- |
| Input | \$0.50/M tokens | \$0.14/M tokens | **28%** |
| Output(图片和文本统一) | 图片 \$60/M, 文本 \$1.5/M | \$16.8/M tokens | **28%** |
### 按量计费价格预估
| 分辨率 | Google 官方 | API易 | Fal AI |
| ----- | --------- | ------------- | ------ |
| 512px | \$0.045 | **\~\$0.025** | \$0.06 |
| 1K | \$0.067 | **\~\$0.035** | \$0.08 |
| 2K | \$0.101 | **\~\$0.045** | \$0.12 |
| 4K | \$0.151 | **\~\$0.07** | \$0.16 |
**💰 按量计费更省钱!** 使用按量计费,512px 低至 \$0.025/张,仅为官方 28%!低分辨率场景下比按次计费(\$0.055/次)更实惠。4K 场景按量计费约 \$0.07/张,仍远低于谷歌官方 \$0.151/次。结合充值加赠活动,实际成本更低。
## 分组介绍
Nano Banana 2 在 API易提供两个分组,可在后台「令牌设置」中切换:
| 分组 | 倍率 | 适用场景 |
| --------------------------- | ---- | ------------------------ |
| `Default` 默认分组 | 1.0x | 基础通道,与定价表一致;默认推荐 |
| `NanoBananaEnterprise` 企业分组 | 1.4x | 兜底通道,默认紧张/超时高发时手动切换,稳定优先 |
**1.4x 倍率怎么来的?** 1.4x 后仍约等于谷歌官方 5 折水平,远低于官网原价。这是面向更高并发需求、应对意外风控时的兜底方案,为企业客户提供高可用性保障。默认分组紧张时,把令牌切到 `NanoBananaEnterprise` 即可临时过渡。
**令牌「计费模式」推荐**:选 `按量优先`(Pay-as-you-go Priority)—— 同时兼容 Nano Banana 2 的按量计费 和 Nano Banana Pro 的按次计费,**一把令牌跑全系列**。
**拓展玩法**:如果你的令牌还覆盖其它图像模型(如 GPT-image-2),把更稳的 Default 分组放主位、`NanoBananaEnterprise` 放兜底位即可,主分组 429 会自动回退到企业分组继续出图,无需切换 token。
## 支持的分辨率与宽高比
### 输出分辨率
| 分辨率 | 说明 | 推荐场景 |
| ----- | ---- | --------- |
| 512px | 低分辨率 | 缩略图、快速预览 |
| 1K | 默认 | 社交媒体、网页展示 |
| 2K | 高清 | 高清显示、打印材料 |
| 4K | 超高清 | 专业设计、商业海报 |
### 支持的宽高比(14 种)
`1:1`、`1:4`、`4:1`、`1:8`、`8:1`、`2:3`、`3:2`、`3:4`、`4:3`、`4:5`、`5:4`、`9:16`、`16:9`、`21:9`
相比 Nano Banana Pro 的 10 种宽高比,Nano Banana 2 新增了 `1:4`、`4:1`、`1:8`、`8:1` 四种超长/超宽比例,适合长图、信息图等特殊场景。
## 常见问题
**Nano Banana 2** (`gemini-3.1-flash-image-preview`) 基于 Gemini 3.1 Flash,**Nano Banana Pro** (`gemini-3-pro-image-preview`) 基于 Gemini 3 Pro。主要区别:
* ✅ **速度**:Nano Banana 2 更快(Flash 级速度)
* ✅ **价格**:Nano Banana 2 按量计费更便宜(低至 \$0.025 vs \$0.09)
* ✅ **宽高比**:Nano Banana 2 支持 14 种(多 4 种)
* ✅ **图像搜索 Grounding**:Nano Banana 2 独家
* ⚠️ **极致画质**:Nano Banana Pro 仍略优
**推荐切换**!Nano Banana 2 以更低的价格提供了接近 Pro 级别的画质,速度还更快。除非你对画质有极致要求,否则 Nano Banana 2 是更好的选择。
只需将模型名称从 `gemini-3-pro-image-preview` 改为 `gemini-3.1-flash-image-preview` 即可。
图像搜索 Grounding 是 Nano Banana 2 的独家功能。它可以从 Google 图片搜索拉取视觉上下文,生成更贴合现实世界的图像。例如,当你要求生成某个真实地标的图片时,它能参考搜索结果来提高准确性。
思维模式(Thinking Mode)让模型在生成图像前进行推理分析,对复杂提示词的理解更准确。设置为 `high` 时效果最好,但会稍微增加生成时间。适合需要精确构图、包含文字、或涉及复杂场景的生成任务。
生成时间取决于分辨率和是否启用思维模式:
* **1K 分辨率**:约 5-10 秒
* **2K 分辨率**:约 10-15 秒
* **4K 分辨率**:约 15-25 秒
* 启用高级思维模式会额外增加几秒
建议设置较长的超时时间(至少 120 秒)以应对偶发延迟。
支持 `image/png` 和 `image/jpeg` 格式。可以通过 base64 编码或 Files API 上传。
所有输出图片都带有 SynthID 隐形数字水印(Google 的 AI 生成内容标识技术),肉眼不可见,不影响使用。
## 相关文档
* [Nano Banana Pro 图片生成](/api-capabilities/nano-banana-image) - 上一代旗舰版
* [Nano Banana 图片编辑](/api-capabilities/nano-banana-image-edit) - 图片编辑功能
* [图像生成对比测试](https://imagen.apiyi.com/)
* [API 使用手册](/api-manual)
Nano Banana 2 目前处于 Preview 状态,功能和定价可能会有调整。建议关注文档更新获取最新信息。
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/nano-banana-2-image/text-to-image
api-reference/nano-banana-2-generate-openapi.yaml POST /v1beta/models/gemini-3.1-flash-image-preview:generateContent
Nano Banana 2 文生图 API 参考与在线调试 — 输入文本描述生成图片
右侧的交互式 Playground 支持下拉选择参数(宽高比、分辨率、响应类型等)。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。
**场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑,请使用 [图片编辑接口](/api-capabilities/nano-banana-2-image/image-edit)。
**🖥️ 浏览器 Playground 限制(重要)**
本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。
**推荐做法**(小白零踩坑):
* **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。
* 如要在浏览器里试 Playground,把 `imageSize` 设为最小档(如 `512` / `1K`),缩小响应体积。
## 代码示例
### Python
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
PROMPT = "一只可爱的柴犬坐在樱花树下,水彩画风格,高清细节"
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{"parts": [{"text": PROMPT}]}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("output.png", 'wb') as f:
f.write(base64.b64decode(img_data))
print("图片已保存至 output.png")
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"contents": [{"parts": [{"text": "未来主义的城市夜景,霓虹灯,赛博朋克风格"}]}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
}'
```
### Node.js
```javascript theme={null}
import fs from "fs";
const API_KEY = "sk-your-api-key";
const response = await fetch(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
{
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
contents: [{ parts: [{ text: "未来主义的城市夜景,霓虹灯,赛博朋克风格" }] }],
generationConfig: {
responseModalities: ["IMAGE"],
imageConfig: { aspectRatio: "16:9", imageSize: "2K" }
}
})
}
);
const data = await response.json();
const imgBase64 = data.candidates[0].content.parts[0].inlineData.data;
fs.writeFileSync("output.png", Buffer.from(imgBase64, "base64"));
```
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| ------------------------------------------------- | ------- | -- | ---------------------------------------- |
| `contents[].parts[].text` | string | 是 | 文本提示词 |
| `generationConfig.responseModalities` | array | 是 | `["IMAGE"]` 或 `["TEXT","IMAGE"]` |
| `generationConfig.imageConfig.aspectRatio` | string | 否 | 14 种宽高比,默认 `1:1` |
| `generationConfig.imageConfig.imageSize` | string | 否 | `512` / `1K` / `2K` / `4K`,默认 `1K` |
| `generationConfig.thinkingConfig.thinkingLevel` | string | 否 | `minimal`(快速)/ `High`(深度推理),默认 `minimal` |
| `generationConfig.thinkingConfig.includeThoughts` | boolean | 否 | 是否返回思维过程文本,默认 `false` |
详细的参数文档、可选值和默认值请查看右侧 Playground 中的字段说明,所有 enum 类型字段(如 `aspectRatio`、`imageSize`、`thinkingLevel`)都支持下拉选择,无需手动输入。
**不支持的功能**
以下谷歌官方功能在 API易 中**不支持**,需要单独计费:
* **Grounding with Google Search**(谷歌搜索增强):通过 `tools: [{"google_search": {}}]` 调用实时搜索信息
* **Image Search Grounding**(图片搜索增强,Nano Banana 2 独有):通过谷歌图片搜索获取视觉上下文
这些功能需要额外的谷歌搜索 API 费用,暂不纳入 API易 转发范围。
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/nano-banana-image/image-edit
api-reference/nano-banana-pro-edit-openapi.yaml POST /v1beta/models/gemini-3-pro-image-preview:generateContent
Nano Banana Pro 图片编辑 API 参考与在线调试 — 输入图片 + 指令生成新图片
右侧的交互式 Playground 支持下拉选择参数。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。
**场景说明**:本页用于「图片编辑」,必须上传一张待编辑的图片(base64 编码)+ 编辑指令。如果只想根据文本生成新图片,请使用 [文生图接口](/api-capabilities/nano-banana-image/text-to-image)。
**🖥️ 浏览器 Playground 限制(重要)**
本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。
**推荐做法**(小白零踩坑):
* **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。
* 如要在浏览器里试 Playground,**用极小的参考图(\< 50KB)** 并把 `imageSize` 设为最小档(如 `1K`)。
**⚠️ `parts` 数组结构(重要,多图编辑必看)**
每个 `part` **只能是 `text` 或 `inlineData` 中的一个**,二者不能同时出现在同一个 part 里。这与谷歌官方 `gemini-3-pro-image-preview` 的契约一致。
**正确**:一个 text part(编辑指令)+ N 个 inlineData part(每张图一个):
```json theme={null}
"contents": [{
"parts": [
{"text": "把这两张图里的人物合成到同一个办公室场景中"},
{"inlineData": {"mimeType": "image/png", "data": ""}},
{"inlineData": {"mimeType": "image/png", "data": ""}}
]
}]
```
**错误**(每个 part 同时塞了 text 和 inlineData,会导致非预期行为):
```json theme={null}
"contents": [{
"parts": [
{"inlineData": {...}, "text": "这是提示词吗 1"},
{"inlineData": {...}, "text": "这是提示词吗 2"}
]
}]
```
**关于 `inlineData.data` 字段**
本接口是 **JSON 格式**(非 multipart 文件上传),所以 Playground 无法直接选择本地文件,需要先把图片转成 **Base64 字符串**再粘贴到 `data` 输入框。
**一行命令转换 + 自动复制到剪贴板**:
```bash theme={null}
# macOS
base64 -i your-image.jpg | tr -d '\n' | pbcopy
# Linux
base64 -w0 your-image.jpg | xclip -selection clipboard
# Windows PowerShell
[Convert]::ToBase64String([IO.File]::ReadAllBytes("your-image.jpg")) | Set-Clipboard
```
执行后直接在 Playground 的 `data` 字段 `Cmd+V` / `Ctrl+V` 粘贴即可。同时记得把 `mimeType` 切换为对应的 `image/jpeg` 或 `image/png`。
**建议**:测试用小图(少于 200KB),避免 base64 字符串过长导致浏览器卡顿。频繁测试图片编辑更推荐用下方代码示例直接在本地运行。
## 代码示例
### Python
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
# 读取待编辑的图片
with open("input.jpg", "rb") as f:
image_b64 = base64.b64encode(f.read()).decode()
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{
"parts": [
{"text": "请把背景模糊化,突出前景的人物"},
{"inlineData": {"mimeType": "image/jpeg", "data": image_b64}}
]
}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("edited.png", 'wb') as f:
f.write(base64.b64decode(img_data))
print("编辑后的图片已保存至 edited.png")
```
### Node.js
```javascript theme={null}
import fs from "fs";
const API_KEY = "sk-your-api-key";
const imageB64 = fs.readFileSync("input.jpg").toString("base64");
const response = await fetch(
"https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent",
{
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
contents: [{
parts: [
{ text: "请把背景模糊化,突出前景的人物" },
{ inlineData: { mimeType: "image/jpeg", data: imageB64 } }
]
}],
generationConfig: {
responseModalities: ["IMAGE"],
imageConfig: { aspectRatio: "16:9", imageSize: "2K" }
}
})
}
);
const data = await response.json();
const imgBase64 = data.candidates[0].content.parts[0].inlineData.data;
fs.writeFileSync("edited.png", Buffer.from(imgBase64, "base64"));
```
### cURL
```bash theme={null}
# 注意:需要先将图片转为 base64 字符串
# IMAGE_B64=$(base64 -i input.jpg | tr -d '\n')
curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"contents": [{
"parts": [
{"text": "请把背景模糊化,突出前景的人物"},
{"inlineData": {"mimeType": "image/jpeg", "data": "'"$IMAGE_B64"'"}}
]
}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
}'
```
## 多图编辑示例
把多张图作为输入合成或对比时,**只用一个 `text` part**(编辑指令),后面追加多个 `inlineData` part(每张图一个)。
### Python(多图)
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
def to_b64(path):
with open(path, "rb") as f:
return base64.b64encode(f.read()).decode()
# 准备多张图(这里以 2 张为例,最多可上传多张)
images = ["person1.png", "person2.png"]
parts = [{"text": "把这两张图里的人物合成到同一个办公室场景中,做着搞怪表情"}]
for path in images:
parts.append({"inlineData": {"mimeType": "image/png", "data": to_b64(path)}})
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{"parts": parts}],
"generationConfig": {
"responseModalities": ["TEXT", "IMAGE"],
"imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("merged.png", "wb") as f:
f.write(base64.b64decode(img_data))
```
### cURL(多图,对齐谷歌官方格式)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"contents": [{
"parts": [
{"text": "An office group photo of these people, they are making funny faces."},
{"inlineData": {"mimeType": "image/png", "data": ""}},
{"inlineData": {"mimeType": "image/png", "data": ""}},
{"inlineData": {"mimeType": "image/png", "data": ""}}
]
}],
"generationConfig": {
"responseModalities": ["TEXT", "IMAGE"],
"imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"}
}
}'
```
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| ------------------------------------------ | ------ | -- | ---------------------------------------------------------------------------------------- |
| `contents[].parts` | array | 是 | 由「**1 个 text part + N 个 inlineData part**」组成。每个 part 只能含 `text` 或 `inlineData` 之一,不可同时出现 |
| `contents[].parts[].text` | string | 是 | 编辑指令(建议只放在第一个 part 中) |
| `contents[].parts[].inlineData.mimeType` | string | 是 | `image/jpeg` 或 `image/png` |
| `contents[].parts[].inlineData.data` | string | 是 | 图片的 Base64 编码(多图编辑时重复多个 inlineData part) |
| `generationConfig.responseModalities` | array | 是 | 通常为 `["IMAGE"]` |
| `generationConfig.imageConfig.aspectRatio` | string | 否 | 10 种宽高比,默认 `1:1` |
| `generationConfig.imageConfig.imageSize` | string | 否 | `1K` / `2K` / `4K`,默认 `1K` |
Nano Banana Pro 支持多图编辑:可以同时输入多张图片和编辑指令,实现多图合成、风格迁移等高级编辑功能。
# Nano Banana Pro 图片生成
Source: https://docs.apiyi.com/api-capabilities/nano-banana-image/overview
谷歌最新、最强的图像生成模型 gemini-3-pro-image-preview,俗称 Nano Banana Pro。支持自定义分辨率 1K、2K、4K 输出、10种宽高比,低至官网 2 折优惠。
**🔥 最新发布**:谷歌于 2026年2月26日发布了 **Nano Banana 2** (`gemini-3.1-flash-image-preview`),Pro 级画质 + Flash 级速度,按量低至 \$0.025/张
**Nano Banana Pro**(代号)是谷歌图像生成模型系列,目前有以下版本可用:
### 最新版本
* **Nano Banana 2**:`gemini-3.1-flash-image-preview`(🔥 2026年2月26日上线)— [查看详情](/api-capabilities/nano-banana-2-image/overview)
* **Nano Banana Pro**:`gemini-3-pro-image-preview`(2025年11月20日上线)
### 前代版本
* **正式版**:`gemini-2.5-flash-image`(稳定版,支持 10 种宽高比)
* **预览版**:`gemini-2.5-flash-image-preview`(⚠️ 已于2025年10月30日下线)
**飞书完整使用指南** - 更新最快,支持评论互动
访问飞书文档获取最新的使用教程、技巧分享和问题解答。文档持续更新,遇到问题可直接在飞书上评论交流。
**核心优势**
* 🔥 **Nano Banana Pro 新特性**:
* 🎯 **4K 高清支持**:支持 1K、2K、4K 三种分辨率,最高可达 4096×4096
* 📝 **文本渲染之王**:图像中的文字清晰可读,适合海报、广告等场景
* ✨ **局部编辑**:支持摄像机角度、焦点、色彩分级、场景照明调整
* 🧠 **智能推理**:基于 Gemini 3 Pro,更好地理解复杂提示词
* 🚀 **通用优势**:
* ⚡ **生成速度**:Nano Banana Pro 约 20 秒,前代版本约 10 秒
* 💰 **价格实惠**:结合充值优惠,性价比极高
* 🔄 **完全兼容**:完全兼容谷歌官方 Gemini API 格式
* 🎨 **谷歌技术**:基于谷歌最新、最强的图像生成/编辑技术
## 在线调试 API
输入文本提示词生成图片,带交互式 Playground 在线调试。
上传图片 + 编辑指令生成新图片,带交互式 Playground 在线调试。
## 为什么选 API易 的 Nano Banana Pro
**Nano Banana Pro / 2 是 API易 消耗量排名第一的图像模型**——稳定、可靠、速度快。如果你期望跟专业的团队合作,那选 API易 就对了。
针对 Nano Banana Pro 这种谷歌最新旗舰、内容安全管控严格的模型,API易 在**稳定性**、**成本**、**接入体验**三方面做了深度优化:
完全兼容谷歌官方 Gemini API 格式(`/v1beta/models/.../generateContent`),同时支持 OpenAI SDK 模式,请求体、响应字段、错误码与官方一致,迁移零改造。
无谷歌 AI Studio 的 RPM/RPD 硬限制,企业批量出图、高峰流量都能线性放大,避免被官方配额打断。
按次 \$0.09/张(官方 4K \$0.24),叠加 [充值加赠活动](/faq/recharge-promotions) 最低可达官方 31.25%——4K 场景最多省 68.75%。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。
同系列覆盖 [Nano Banana 2](/api-capabilities/nano-banana-2-image/overview)(性价比 + Flash 速度)、Nano Banana Pro(极致画质)、Nano Banana 第一代(基础版),按场景自由组合。
团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 调用方式
使用谷歌原生 Gemini API 格式调用:
```
POST /v1beta/models/gemini-3-pro-image-preview:generateContent
```
* ✅ 支持 4K 高清分辨率(1K / 2K / 4K)
* ✅ 10 种宽高比自由选择
* ✅ 业界最佳文字渲染
* ✅ 支持高级局部编辑
* 📖 完全兼容谷歌官方 API 格式,参考 `ai.google.dev/gemini-api/docs/image-generation`
### 不支持的功能
以下谷歌官方功能在 API易 中**不支持**,需要单独计费:
* **Grounding with Google Search**(谷歌搜索增强):通过 `tools: [{"google_search": {}}]` 调用
* **thinkingConfig**(思维模式):仅 Nano Banana 2 支持,Nano Banana Pro 不支持
* **Image Search Grounding**(图片搜索增强):仅 Nano Banana 2 独有
其他图片生成和编辑能力均正常支持。
## 价格对比
| 模型 | 定价 | 优势 |
| --------------------------- | ----------------- | ---------------- |
| **Nano Banana Pro** (4K) | \$0.09/张(约¥0.52) | 🔥 4K 支持,约官方 38% |
| **Nano Banana Pro** (1K-2K) | \$0.09/张(约¥0.52) | 🔥 高清出图,约官方 67% |
| **Nano Banana** | \$0.025/张(约¥0.15) | ⭐ 快速生成,官方 52% |
| gpt-image-1 | 较高 | - |
| flux-kontext-pro | \$0.035/张 | 持平 |
**性价比推荐**:
* **Nano Banana Pro**:4K 支持,文字渲染最强,定价约官方 38-67%
* **NanoBananaEnterprise**:企业 HA 通道 1.4 倍率(\$0.126/张),适合高可用需求
* **Nano Banana**:快速生成(约10秒),官方 52% 价格,适合常规高质量图像生成
## 分组介绍
Nano Banana Pro 在 API易提供两个分组,可在后台「令牌设置」中切换:
| 分组 | 倍率 | 适用场景 |
| --------------------------- | ---- | ------------------------------------- |
| `Default` 默认分组 | 1.0x | 基础通道,按次 \$0.09/张;默认推荐 |
| `NanoBananaEnterprise` 企业分组 | 1.4x | 兜底通道,按次 \$0.126/张,默认紧张/超时高发时手动切换,稳定优先 |
**1.4x 倍率怎么来的?** 1.4x 后仍约等于谷歌官方 5 折水平,远低于官网原价。这是面向更高并发需求、应对意外风控时的兜底方案,为企业客户提供高可用性保障。默认分组紧张时,把令牌切到 `NanoBananaEnterprise` 即可临时过渡。
**令牌「计费模式」推荐**:选 `按量优先`(Pay-as-you-go Priority)—— 同时兼容 Nano Banana Pro 的按次计费 和 Nano Banana 2 的按量计费,**一把令牌跑全系列**。
**拓展玩法**:如果你的令牌还覆盖其它图像模型(如 GPT-image-2),把更稳的 Default 分组放主位、`NanoBananaEnterprise` 放兜底位即可,主分组 429 会自动回退到企业分组继续出图,无需切换 token。
## 兼容性说明
如果你之前使用过以下模型,可以直接替换模型名称:
### 升级到最新版本
* 任何旧版本 → `gemini-3-pro-image-preview`(🔥 推荐,Nano Banana Pro)
* 支持 4K 高清出图
* 文本渲染能力最强
* 局部编辑功能
### 使用稳定版本
* `gpt-4o-image` → `gemini-2.5-flash-image`
* `sora_image` → `gemini-2.5-flash-image`
* 旧版 Nano Banana → `gemini-2.5-flash-image`
其他参数保持不变,即可无缝切换使用。
## API 错误处理指南
Nano Banana Pro 有严格的内容安全管控,可能在多个层级拒绝不合规请求。
**最高优先级**
值为 0 时,内容在审核阶段被拒绝,未生成任何候选内容。
**次要优先级**
值非 `STOP`(如 `PROHIBITED_CONTENT`、`SAFETY`)时,表示生成过程中被拒绝。
**拒绝说明**
API 返回拒绝说明文本而非图片数据时,应将这些说明展示给用户。
**完整错误处理文档**
详细错误处理流程、代码实现示例和最佳实践,请访问:
`https://xinqikeji.feishu.cn/wiki/Rslqw724YiBwlokHmRLcMVKHnRf`
## FAQ
**追求性价比**推荐 **Nano Banana 2** (`gemini-3.1-flash-image-preview`):
* Pro 级画质 + Flash 级速度
* 按量计费低至 \$0.025/张
* 支持 14 种宽高比(比 Pro 多 4 种)
* 独有:思维模式、图片搜索 Grounding
**追求极致画质**选 **Nano Banana Pro** (`gemini-3-pro-image-preview`):
* 最高保真度
* 定价 \$0.09/次
详情参考 [Nano Banana 2 文档](/api-capabilities/nano-banana-2-image/overview)。
**新项目推荐:Nano Banana Pro** (`gemini-3-pro-image-preview`)
✅ **Pro 版优势**:
* 支持 4K 超高清分辨率
* 业界最佳文本渲染质量
* 高级局部编辑功能
* 定价仅约官方 38-67%
⚡ **前代版本** (`gemini-2.5-flash-image`) 适合:
* 预算敏感场景(约\$0.025/张 vs \$0.09/张)
* 需要快速生成(10s vs 20s)
* 现有项目迁移
只需将模型名称从 `gpt-4o-image` 或 `sora_image` 更改为 `gemini-3-pro-image-preview`(推荐 Pro)或 `gemini-2.5-flash-image`(前代),其他参数保持不变。
模型返回 base64 编码的图片数据,通常为 PNG 或 JPEG 格式。代码会自动检测格式并保存为对应的文件类型。
是的,Nano Banana Pro 支持图片生成和图片编辑。请查看 [图片编辑 API 参考](/api-capabilities/nano-banana-image/image-edit)。
## 相关文档
* [Nano Banana 2 图片生成](/api-capabilities/nano-banana-2-image/overview)
* [Nano Banana 定价说明](/api-capabilities/nano-banana-pricing)
* [其他图像生成模型](/api-capabilities/gpt-image-1)
* [API 使用手册](/api-manual)
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/nano-banana-image/text-to-image
api-reference/nano-banana-pro-generate-openapi.yaml POST /v1beta/models/gemini-3-pro-image-preview:generateContent
Nano Banana Pro 文生图 API 参考与在线调试 — 输入文本描述生成图片
右侧的交互式 Playground 支持下拉选择参数(宽高比、分辨率、响应类型等)。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。
**场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑,请使用 [图片编辑接口](/api-capabilities/nano-banana-image/image-edit)。
**🖥️ 浏览器 Playground 限制(重要)**
本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。
**推荐做法**(小白零踩坑):
* **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。
* 如要在浏览器里试 Playground,把 `imageSize` 设为最小档(如 `1K`),缩小响应体积。
## 代码示例
### Python
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
PROMPT = "一只可爱的小猫坐在花园里,油画风格,高清,细节丰富"
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{"parts": [{"text": PROMPT}]}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("output.png", 'wb') as f:
f.write(base64.b64decode(img_data))
print("图片已保存至 output.png")
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"contents": [{"parts": [{"text": "未来主义的城市夜景,霓虹灯,赛博朋克风格"}]}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
}'
```
### Node.js
```javascript theme={null}
import fs from "fs";
const API_KEY = "sk-your-api-key";
const response = await fetch(
"https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent",
{
method: "POST",
headers: {
"Authorization": `Bearer ${API_KEY}`,
"Content-Type": "application/json"
},
body: JSON.stringify({
contents: [{ parts: [{ text: "未来主义的城市夜景,霓虹灯,赛博朋克风格" }] }],
generationConfig: {
responseModalities: ["IMAGE"],
imageConfig: { aspectRatio: "16:9", imageSize: "2K" }
}
})
}
);
const data = await response.json();
const imgBase64 = data.candidates[0].content.parts[0].inlineData.data;
fs.writeFileSync("output.png", Buffer.from(imgBase64, "base64"));
```
## 参数说明速查
| 参数 | 类型 | 必填 | 说明 |
| ------------------------------------------ | ------ | -- | -------------------------------- |
| `contents[].parts[].text` | string | 是 | 文本提示词 |
| `generationConfig.responseModalities` | array | 是 | `["IMAGE"]` 或 `["TEXT","IMAGE"]` |
| `generationConfig.imageConfig.aspectRatio` | string | 否 | 10 种宽高比,默认 `1:1` |
| `generationConfig.imageConfig.imageSize` | string | 否 | `1K` / `2K` / `4K`,默认 `1K` |
详细的参数文档、可选值和默认值请查看右侧 Playground 中的字段说明,所有 enum 类型字段(如 `aspectRatio`、`imageSize`)都支持下拉选择,无需手动输入。
**不支持的功能**
以下谷歌官方功能在 API易 中**不支持**,需要单独计费:
* **Grounding with Google Search**(谷歌搜索增强):通过 `tools: [{"google_search": {}}]` 调用实时搜索信息
* **thinkingConfig**(思维模式):仅 Nano Banana 2 支持,Nano Banana Pro 不支持此参数
如需搜索增强功能,请联系客服了解单独计费方案。
# Nano Banana 系列价格总览
Source: https://docs.apiyi.com/api-capabilities/nano-banana-pricing
Nano Banana 系列图片模型(Pro / 2 / 第一代)完整价格对比,包括按次计费、按量计费、充值优惠及令牌选择建议。最低可达官方 30.3% 的价格。
## 概述
Nano Banana 系列包含三款图片生成模型,均支持通过 API易 以远低于官方的价格调用。本页汇总所有 Nano Banana 模型的定价信息,帮助你快速选择最适合的计费方案。
在 API 调用时,所使用的\*\*「令牌类型」\*\*决定计费方式。Nano Banana Pro 和 2 都有两种计费方式:**按次计费**、**按量计费**。且仅有两个分组:默认稳定分组、企业高可用分组。
## 三款模型速览
| 特性 | **Nano Banana Pro** | **Nano Banana 2** | **Nano Banana(第一代)** |
| ----- | ---------------------------- | -------------------------------- | ------------------------ |
| 模型 ID | `gemini-3-pro-image-preview` | `gemini-3.1-flash-image-preview` | `gemini-2.5-flash-image` |
| 最高分辨率 | 4K | 4K | 1K |
| 按次计费 | \$0.09/次 | \$0.055/次 | \$0.02/次 |
| 按量计费 | 内测中 | ✅ 已开放 | ❌ 不支持 |
| 最低折扣 | 官方 31.25% | 官方 30.3% | 官方 50% |
## Nano Banana Pro 定价
模型名:`gemini-3-pro-image-preview`
### 按次计费
\$0.09 美金/次,1-4K 统一按次价格,计费简单、4K 图片更省。
| 计费项 | API易默认 | 充值加赠 +10% | 充值加赠 +20% | 谷歌官方 |
| -------- | ------ | --------- | ---------- | ------ |
| 单张价格(\$) | \$0.09 | \$0.0818 | \$0.075 | \$0.24 |
| 单张价格(¥) | ¥0.63 | ¥0.573 | ¥0.525 | ¥1.68 |
| 相对官方 | 37.5% | 34.0% | **31.25%** | / |
4K 图片最多省 **68.75%**!按次计费不区分分辨率,4K 和 1K 同价,分辨率越高越划算。
### 按量计费(未开放,可内测)
| 计费项 | API易 | 谷歌官方 |
| ---- | --------------- | -------------- |
| 输入价格 | \$0.88/M tokens | \$2/M tokens |
| 输出价格 | \$52.8/M tokens | \$120/M tokens |
| 相对官方 | **44%** | / |
按量计费预估单张价格:
| 分辨率 | API易预估 | 谷歌官方预估 |
| ---- | --------- | --------- |
| 1-2K | \~\$0.075 | \~\$0.134 |
| 4K | \~\$0.11 | \~\$0.24 |
Tokens 计费因输入和输出图片的 Tokens 会动态变化,以上为预估值。按量计费适合 1-2K 图片需求,价格更低;4K 场景建议使用按次计费更划算。
## Nano Banana 2 定价
模型名:`gemini-3.1-flash-image-preview`
### 按次计费
\$0.055 美金/次,1-4K 统一按次价格,计费简单、4K 图片更省。
| 计费项 | API易默认 | 充值加赠 +10% | 充值加赠 +20% | 谷歌官方 |
| -------- | --------- | --------- | --------- | ------- |
| 单张价格(\$) | \$0.055 | \$0.05 | \$0.0458 | \$0.151 |
| 单张价格(¥) | ¥0.385 | ¥0.35 | ¥0.32 | ¥1.68 |
| 相对官方 | **36.4%** | **33.1%** | **30.3%** | / |
### 按量计费
| 计费项 | API易 | 谷歌官方 |
| ---- | --------------- | -------------- |
| 输入价格 | \$0.18/M tokens | \$0.5/M tokens |
| 输出价格 | \$21.6/M tokens | \$60/M tokens |
| 相对官方 | **36%** | / |
按量计费预估单张价格:
| 分辨率 | API易预估 | 谷歌官方 |
| ----- | --------- | ------- |
| 512px | \~\$0.024 | \$0.045 |
| 1K | \~\$0.03 | \$0.067 |
| 2K | \~\$0.036 | \$0.101 |
| 4K | \~\$0.06 | \$0.151 |
以上为预估值,实际按输入和输出的 tokens 计算。可叠加充值活动最多送 20% 额度,进一步降低成本。
## Nano Banana 第一代定价
模型名:`gemini-2.5-flash-image`
仅支持 1K 图片,固定按次计费。
| 计费项 | API易 | 谷歌官方 | 折扣 |
| ---- | -------- | --------- | --------- |
| 单张价格 | \$0.02/次 | \$0.039/次 | **约 5 折** |
同样参与充值活动可进一步降低成本。
## 充值活动:更能降本
通过参与充值加赠活动,可在已有优惠基础上进一步降低成本。
查看当前充值加赠活动详情和各档位加赠比例。
前往管理后台创建和管理 API 令牌。
## 令牌类型选择建议
选择令牌类型时,令牌的「Billing model」设置决定了计费方式。请根据你的主要使用场景选择:
| 模型 | 使用场景 | 推荐令牌类型 |
| --------------- | ------------ | ------ |
| Nano Banana Pro | 1-4K 混合使用 | 按量优先 |
| Nano Banana Pro | 只跑 4K | 按次计费 |
| Nano Banana 2 | 0.5K-4K 混合使用 | 按量优先 |
| Nano Banana 2 | 只用 4K | 按次计费 |
**简单原则**:如果你主要生成 4K 图片,选**按次计费**更划算(不区分分辨率统一价格);如果分辨率混合使用,选**按量计费**可以在低分辨率时节省更多。
## 相关文档
* [Nano Banana 2 生图/编辑](/api-capabilities/nano-banana-2-image/overview) - Nano Banana 2 完整使用指南
* [Nano Banana Pro 图片生成](/api-capabilities/nano-banana-image) - Nano Banana Pro 使用指南
* [Nano Banana Pro 图片编辑](/api-capabilities/nano-banana-image-edit) - 图片编辑功能
* [充值加赠活动](/faq/recharge-promotions) - 充值优惠详情
# OpenAI Responses 支持
Source: https://docs.apiyi.com/api-capabilities/openai-responses
新一代智能体API - 结合对话补全的简洁性与强大的工具调用能力
# /v1/responses 请求端点 介绍
API易 全面支持 OpenAI 最新的 Responses API,这是 2025年3月推出的新一代智能体构建接口。Responses API 结合了 Chat Completions 的简洁性与 Assistants API 的工具使用和状态管理能力,为开发者提供更灵活、更强大的AI应用构建体验。
**新一代API**:Responses API 是 Chat Completions 的超集,提供 Chat Completions 功能的同时,还支持内置工具、状态管理等高级特性。—— 但是它仅支持少数新的 OpenAI 模型,具体请看下文。
## 🚀 核心特性
Web搜索、文件搜索、代码解释器、函数调用等丰富工具
通过 previous\_response\_id 维护对话上下文和状态
O3/O4-mini 推理模型的推理令牌在请求间保持连续
支持所有支持工具的 GPT-4.1、O3系列模型
## 📋 支持的模型
### 推理模型(推荐)
* **O3 系列**:`o3`, `o3-pro`, `o4-mini`
* **特色**:推理令牌跨请求保持,提供更智能的上下文理解
### 对话模型
* **GPT-4.1 系列**:`gpt-4.1`, `gpt-4.1-mini`
* **特色**:强大的工具调用和多模态能力
**模型要求**:只有较新的模型才支持 `/v1/responses` 端点。旧模型如 GPT-3.5 不支持此接口。
## 🔧 基础用法
### 简单对话
```bash cURL theme={null}
curl https://api.apiyi.com/v1/responses \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "gpt-4.1",
"input": "Hello! How can you help me today?",
"instructions": "You are a helpful assistant."
}'
```
```python Python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.responses.create(
model="gpt-4.1",
input="Hello! How can you help me today?",
instructions="You are a helpful assistant."
)
print(response.output[0].content[0].text)
```
```javascript Node.js theme={null}
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
const response = await openai.responses.create({
model: 'gpt-4.1',
input: 'Hello! How can you help me today?',
instructions: 'You are a helpful assistant.'
});
console.log(response.output[0].content[0].text);
```
### 实际响应示例
基于您的测试结果,以下是完整的响应格式:
```json theme={null}
{
"id": "resp_6884fcab4930819dbbc02f15cbe63f6c0a92c38ff214d10a",
"object": "response",
"created_at": 1753545899,
"status": "completed",
"background": false,
"error": null,
"incomplete_details": null,
"instructions": "You are a helpful assistant.",
"max_output_tokens": null,
"max_tool_calls": null,
"model": "gpt-4.1-2025-04-14",
"output": [
{
"id": "msg_6884fcab8f18819dbcdf349f01b424f80a92c38ff214d10a",
"type": "message",
"status": "completed",
"content": [
{
"type": "output_text",
"annotations": [],
"logprobs": [],
"text": "Hello! How can I assist you today?"
}
],
"role": "assistant"
}
],
"parallel_tool_calls": true,
"previous_response_id": null,
"prompt_cache_key": null,
"reasoning": {
"effort": null,
"summary": null
},
"safety_identifier": null,
"service_tier": "default",
"store": true,
"temperature": 1.0,
"text": {
"format": {
"type": "text"
}
},
"tool_choice": "auto",
"tools": [],
"top_logprobs": 0,
"top_p": 1.0,
"truncation": "disabled",
"usage": {
"input_tokens": 19,
"input_tokens_details": {
"cached_tokens": 0
},
"output_tokens": 10,
"output_tokens_details": {
"reasoning_tokens": 0
},
"total_tokens": 29
},
"user": null,
"metadata": {}
}
```
## 📊 请求参数详解
### 必需参数
| 参数 | 类型 | 说明 |
| ------- | ------ | ---------------------- |
| `model` | string | 模型名称,如 `gpt-4.1`, `o3` |
| `input` | string | 用户输入内容 |
### 可选参数
| 参数 | 类型 | 默认值 | 说明 |
| ---------------------- | ------- | ------ | ----------------- |
| `instructions` | string | null | 系统指令,定义助手行为 |
| `previous_response_id` | string | null | 上一个响应的 ID,用于维护上下文 |
| `temperature` | float | 1.0 | 控制输出随机性 (0-2) |
| `max_output_tokens` | int | null | 最大输出令牌数 |
| `tools` | array | \[] | 可用工具列表 |
| `tool_choice` | string | "auto" | 工具选择策略 |
| `parallel_tool_calls` | boolean | true | 是否允许并行工具调用 |
| `store` | boolean | true | 是否存储对话用于训练 |
| `metadata` | object | 自定义元数据 | |
## 🛠️ 内置工具支持
### 1. 函数调用
```python theme={null}
response = client.responses.create(
model="gpt-4.1",
input="What's the weather like in Beijing?",
instructions="You are a helpful weather assistant.",
tools=[
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get current weather for a city",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "City name"
}
},
"required": ["city"]
}
}
}
]
)
```
### 2. 代码解释器
```python theme={null}
response = client.responses.create(
model="gpt-4.1",
input="Create a chart showing sales data: Jan:100, Feb:150, Mar:120",
instructions="You are a data analyst. Use code interpreter to create visualizations.",
tools=[{"type": "code_interpreter"}]
)
```
### 3. 文件搜索
```python theme={null}
response = client.responses.create(
model="gpt-4.1",
input="Search for information about quarterly reports",
instructions="You are a document analyst.",
tools=[{"type": "file_search"}]
)
```
## 🔄 状态管理
### 维护对话上下文
```python theme={null}
# 第一轮对话
response1 = client.responses.create(
model="gpt-4.1",
input="My name is Alice. Please remember this.",
instructions="You are a helpful assistant with good memory."
)
# 第二轮对话 - 使用 previous_response_id 维护上下文
response2 = client.responses.create(
model="gpt-4.1",
input="What's my name?",
instructions="You are a helpful assistant with good memory.",
previous_response_id=response1.id
)
print(response2.output[0].content[0].text) # 应该回答 "Alice"
```
### 多轮工具调用
```python theme={null}
def multi_turn_conversation():
response_id = None
for user_input in ["What's 2+2?", "Now multiply that by 3", "And divide by 2"]:
response = client.responses.create(
model="o3",
input=user_input,
instructions="You are a math tutor. Show your reasoning.",
previous_response_id=response_id,
tools=[{"type": "code_interpreter"}]
)
print(f"User: {user_input}")
print(f"Assistant: {response.output[0].content[0].text}")
response_id = response.id # 保持上下文
```
## 📈 推理模型特性
### O3/O4-mini 推理保持
推理模型在 Responses API 中具有特殊优势:
```python theme={null}
# 使用 O3 进行复杂推理
response = client.responses.create(
model="o3",
input="Solve this step by step: If a train travels 120km in 2 hours, then speeds up 20% for the next hour, how far did it travel in total?",
instructions="Think through this problem step by step, showing all reasoning."
)
# 查看推理过程
reasoning_tokens = response.usage.output_tokens_details.reasoning_tokens
print(f"Reasoning tokens used: {reasoning_tokens}")
# 继续对话,推理上下文会保持
follow_up = client.responses.create(
model="o3",
input="Now what if the train slowed down 10% in the fourth hour?",
previous_response_id=response.id
)
```
## 🆚 与 Chat Completions 对比
| 特性 | Chat Completions | Responses API |
| --------- | ---------------- | ------------- |
| **基础对话** | ✅ 支持 | ✅ 支持 |
| **流式响应** | ✅ 支持 | ✅ 支持 |
| **函数调用** | ✅ 支持 | ✅ 增强支持 |
| **内置工具** | ❌ 不支持 | ✅ 丰富工具 |
| **状态管理** | ❌ 无状态 | ✅ 有状态 |
| **推理保持** | ❌ 不支持 | ✅ O3/O4支持 |
| **文件搜索** | ❌ 不支持 | ✅ 支持 |
| **代码解释器** | ❌ 不支持 | ✅ 支持 |
### 迁移示例
从 Chat Completions 迁移到 Responses API:
```python Chat Completions theme={null}
# 旧方式
response = client.chat.completions.create(
model="gpt-4.1",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
]
)
content = response.choices[0].message.content
```
```python Responses API theme={null}
# 新方式
response = client.responses.create(
model="gpt-4.1",
input="Hello!",
instructions="You are a helpful assistant."
)
content = response.output[0].content[0].text
```
## 🔧 高级功能
### 并行工具调用
```python theme={null}
response = client.responses.create(
model="gpt-4.1",
input="Get weather for Beijing and Shanghai, then calculate travel time between them",
instructions="You are a travel assistant.",
parallel_tool_calls=True,
tools=[
{"type": "function", "function": {"name": "get_weather", ...}},
{"type": "function", "function": {"name": "calculate_distance", ...}}
]
)
```
### 输出格式控制
```python theme={null}
response = client.responses.create(
model="gpt-4.1",
input="Summarize this data in JSON format",
instructions="Always respond in valid JSON.",
text={
"format": {
"type": "json_object"
}
}
)
```
### 推理努力控制(O3系列)
```python theme={null}
response = client.responses.create(
model="o3",
input="Solve this complex physics problem",
instructions="Think carefully and show detailed reasoning.",
reasoning={
"effort": "high" # low, medium, high
}
)
```
## 📊 响应字段详解
### 核心字段
| 字段 | 类型 | 说明 |
| ------------ | ------- | -------------------------------- |
| `id` | string | 响应唯一标识符 |
| `object` | string | 固定为 "response" |
| `created_at` | integer | 创建时间戳 |
| `status` | string | 状态:completed/failed/in\_progress |
| `model` | string | 实际使用的模型版本 |
| `output` | array | 输出消息数组 |
| `usage` | object | Token 使用统计 |
### 输出消息格式
```json theme={null}
{
"id": "msg_xxx",
"type": "message",
"status": "completed",
"content": [
{
"type": "output_text",
"text": "响应内容",
"annotations": [],
"logprobs": []
}
],
"role": "assistant"
}
```
### 使用统计
```json theme={null}
{
"usage": {
"input_tokens": 19,
"input_tokens_details": {
"cached_tokens": 0
},
"output_tokens": 10,
"output_tokens_details": {
"reasoning_tokens": 0 // 仅推理模型
},
"total_tokens": 29
}
}
```
## 🚨 错误处理
### 标准错误格式
```json theme={null}
{
"error": {
"type": "invalid_request_error",
"code": "model_not_supported",
"message": "The model 'gpt-3.5-turbo' is not supported for the responses endpoint.",
"param": "model"
}
}
```
### 常见错误
| 错误码 | 说明 | 解决方案 |
| ------------------------------ | ------------------- | -------------------------- |
| `model_not_supported` | 模型不支持 Responses API | 使用支持的新模型 |
| `invalid_previous_response_id` | 无效的上一个响应ID | 检查响应ID是否正确 |
| `tool_not_available` | 工具不可用 | 检查工具配置 |
| `max_tokens_exceeded` | 超出令牌限制 | 减少输入或设置max\_output\_tokens |
## 💡 最佳实践
### 1. 状态管理策略
```python theme={null}
class ConversationManager:
def __init__(self, model="gpt-4.1", instructions="You are a helpful assistant."):
self.model = model
self.instructions = instructions
self.last_response_id = None
def send_message(self, input_text, tools=None):
response = client.responses.create(
model=self.model,
input=input_text,
instructions=self.instructions,
previous_response_id=self.last_response_id,
tools=tools or []
)
self.last_response_id = response.id
return response.output[0].content[0].text
def reset_conversation(self):
self.last_response_id = None
# 使用示例
conv = ConversationManager()
print(conv.send_message("Hello, I'm Alice"))
print(conv.send_message("What's my name?")) # 会记住是 Alice
```
### 2. 工具调用优化
```python theme={null}
def smart_tool_calling(user_input):
# 根据输入智能选择工具
available_tools = []
if "weather" in user_input.lower():
available_tools.append(weather_tool)
if "calculate" in user_input.lower():
available_tools.append(calculator_tool)
if "search" in user_input.lower():
available_tools.append(search_tool)
response = client.responses.create(
model="gpt-4.1",
input=user_input,
instructions="Use the appropriate tools to help the user.",
tools=available_tools,
tool_choice="auto"
)
return response
```
### 3. 推理模型优化
```python theme={null}
def optimized_reasoning(complex_problem):
response = client.responses.create(
model="o3",
input=complex_problem,
instructions="Think step by step and show your reasoning process.",
reasoning={
"effort": "high" # 对复杂问题使用高推理努力
},
temperature=0.1 # 降低随机性以获得一致结果
)
# 分析推理使用情况
reasoning_tokens = response.usage.output_tokens_details.reasoning_tokens
total_cost = calculate_cost(response.usage)
return {
"answer": response.output[0].content[0].text,
"reasoning_tokens": reasoning_tokens,
"cost": total_cost
}
```
## 🔮 未来发展
### 即将推出的功能
1. **完整的 Assistants API 功能集成**(2026年上半年)
2. **更多内置工具**:Web搜索、计算机使用等
3. **模型上下文协议 (MCP) 支持**
4. **增强的多模态能力**
### 迁移时间线
* **现在**:可以开始使用 Responses API
* **2026年上半年**:功能对等 Assistants API
* **2026年**:Assistants API 弃用公告
* **2027年**:完全迁移到 Responses API
**开发建议**:新项目推荐直接使用 Responses API,现有项目可以逐步迁移。API易 将持续跟进 OpenAI 的更新,确保功能完整性。
***
需要更多帮助?请访问 [API易官网](https://api.apiyi.com) 或查看 [OpenAI Responses API 官方文档](https://platform.openai.com/docs/api-reference/responses)。
# OpenAI 官方库使用
Source: https://docs.apiyi.com/api-capabilities/openai-sdk
使用官方 OpenAI SDK 无缝接入 API易 服务
# 在 OpenAI 官方库使用
API易 完全兼容 OpenAI API 格式,您可以直接使用官方 OpenAI SDK,只需简单修改配置即可无缝切换到 API易 服务。
## 支持的官方 SDK
API易 支持所有官方 OpenAI SDK:
* Python (`openai`)
* Node.js (`openai`)
* .NET (`OpenAI`)
* Go (`go-openai`)
* Java (第三方)
* PHP (第三方)
* Ruby (第三方)
## Python SDK
### 安装
```bash theme={null}
pip install openai
```
### 基础配置
```python theme={null}
from openai import OpenAI
# 配置 API易 服务
client = OpenAI(
api_key="YOUR_API_KEY", # 您的 API易 密钥
base_url="https://api.apiyi.com/v1" # API易 端点
)
# 使用方式与官方完全相同
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
```
### 环境变量配置
```python theme={null}
import os
from openai import OpenAI
# 设置环境变量
os.environ["OPENAI_API_KEY"] = "YOUR_API_KEY"
os.environ["OPENAI_BASE_URL"] = "https://api.apiyi.com/v1"
# 使用默认配置
client = OpenAI()
response = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "Explain quantum computing"}]
)
```
### 异步使用
```python theme={null}
import asyncio
from openai import AsyncOpenAI
async def main():
client = AsyncOpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = await client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
asyncio.run(main())
```
### 流式输出
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
stream = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Write a short story"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")
```
## Node.js SDK
### 安装
```bash theme={null}
npm install openai
```
### 基础配置
```javascript theme={null}
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
const response = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [{ role: 'user', content: 'Hello!' }]
});
console.log(response.choices[0].message.content);
```
### 环境变量配置
```javascript theme={null}
// 设置环境变量
process.env.OPENAI_API_KEY = 'YOUR_API_KEY';
process.env.OPENAI_BASE_URL = 'https://api.apiyi.com/v1';
import OpenAI from 'openai';
// 使用默认配置
const openai = new OpenAI();
const response = await openai.chat.completions.create({
model: 'gpt-4',
messages: [{ role: 'user', content: 'Explain AI to a 5-year-old' }]
});
```
### 流式输出
```javascript theme={null}
const stream = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [{ role: 'user', content: 'Tell me a joke' }],
stream: true
});
for await (const chunk of stream) {
if (chunk.choices[0]?.delta?.content) {
process.stdout.write(chunk.choices[0].delta.content);
}
}
```
### TypeScript 支持
```typescript theme={null}
import OpenAI from 'openai';
import type { ChatCompletionCreateParamsNonStreaming } from 'openai/resources/chat/completions';
const openai = new OpenAI({
apiKey: process.env.OPENAI_API_KEY!,
baseURL: 'https://api.apiyi.com/v1'
});
const params: ChatCompletionCreateParamsNonStreaming = {
model: 'gpt-3.5-turbo',
messages: [{ role: 'user', content: 'Hello TypeScript!' }],
temperature: 0.7
};
const response = await openai.chat.completions.create(params);
```
## .NET SDK
### 安装
```bash theme={null}
dotnet add package OpenAI
```
### 基础配置
```csharp theme={null}
using OpenAI;
using OpenAI.Chat;
var client = new OpenAIClient("YOUR_API_KEY", new OpenAIClientOptions
{
Endpoint = new Uri("https://api.apiyi.com/v1")
});
var chatClient = client.GetChatClient("gpt-3.5-turbo");
var response = await chatClient.CompleteChatAsync("Hello!");
Console.WriteLine(response.Value.Content[0].Text);
```
### 流式输出
```csharp theme={null}
await foreach (var update in chatClient.CompleteChatStreamingAsync("Tell me a story"))
{
if (update.ContentUpdate.Count > 0)
{
Console.Write(update.ContentUpdate[0].Text);
}
}
```
## Go SDK
### 安装
```bash theme={null}
go get github.com/sashabaranov/go-openai
```
### 基础配置
```go theme={null}
package main
import (
"context"
"fmt"
"github.com/sashabaranov/go-openai"
)
func main() {
config := openai.DefaultConfig("YOUR_API_KEY")
config.BaseURL = "https://api.apiyi.com/v1"
client := openai.NewClientWithConfig(config)
resp, err := client.CreateChatCompletion(
context.Background(),
openai.ChatCompletionRequest{
Model: openai.GPT3Dot5Turbo,
Messages: []openai.ChatCompletionMessage{
{
Role: openai.ChatMessageRoleUser,
Content: "Hello!",
},
},
},
)
if err != nil {
fmt.Printf("Error: %v\n", err)
return
}
fmt.Println(resp.Choices[0].Message.Content)
}
```
### 流式输出
```go theme={null}
stream, err := client.CreateChatCompletionStream(
context.Background(),
openai.ChatCompletionRequest{
Model: openai.GPT3Dot5Turbo,
Messages: []openai.ChatCompletionMessage{
{
Role: openai.ChatMessageRoleUser,
Content: "Write a haiku",
},
},
Stream: true,
},
)
if err != nil {
fmt.Printf("Error: %v\n", err)
return
}
defer stream.Close()
for {
response, err := stream.Recv()
if errors.Is(err, io.EOF) {
break
}
if err != nil {
fmt.Printf("Error: %v\n", err)
return
}
fmt.Print(response.Choices[0].Delta.Content)
}
```
## Java SDK
### 依赖配置
```xml theme={null}
com.theokanning.openai-gpt3-java
service
0.18.2
```
### 基础使用
```java theme={null}
import com.theokanning.openai.OpenAiService;
import com.theokanning.openai.completion.chat.*;
import java.time.Duration;
import java.util.List;
public class APIYiExample {
public static void main(String[] args) {
OpenAiService service = new OpenAiService(
"YOUR_API_KEY",
Duration.ofSeconds(60),
"https://api.apiyi.com/v1/"
);
ChatCompletionRequest request = ChatCompletionRequest.builder()
.model("gpt-3.5-turbo")
.messages(List.of(
new ChatMessage(ChatMessageRole.USER, "Hello!")
))
.build();
ChatCompletionResult result = service.createChatCompletion(request);
System.out.println(result.getChoices().get(0).getMessage().getContent());
}
}
```
## 模型切换
### 使用不同模型
```python theme={null}
# GPT 模型
response = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "Hello"}]
)
# Claude 模型
response = client.chat.completions.create(
model="claude-3-opus-20240229",
messages=[{"role": "user", "content": "Hello"}]
)
# Gemini 模型
response = client.chat.completions.create(
model="gemini-pro",
messages=[{"role": "user", "content": "Hello"}]
)
```
### 动态模型选择
```python theme={null}
def chat_with_model(message: str, model: str = "gpt-3.5-turbo"):
"""支持动态切换模型的聊天函数"""
response = client.chat.completions.create(
model=model,
messages=[{"role": "user", "content": message}]
)
return response.choices[0].message.content
# 使用不同模型
print(chat_with_model("解释量子计算", "gpt-4"))
print(chat_with_model("解释量子计算", "claude-3-opus-20240229"))
print(chat_with_model("解释量子计算", "gemini-pro"))
```
## 高级功能
### Function Calling
```python theme={null}
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市名称"
}
},
"required": ["location"]
}
}
}
]
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "北京天气怎么样?"}],
tools=tools,
tool_choice="auto"
)
if response.choices[0].message.tool_calls:
print("AI 想要调用函数:", response.choices[0].message.tool_calls[0].function.name)
```
### 图像输入
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "这张图片里有什么?"},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/image.jpg"
}
}
]
}
]
)
```
### 嵌入向量
```python theme={null}
response = client.embeddings.create(
model="text-embedding-3-small",
input="要嵌入的文本内容"
)
embedding = response.data[0].embedding
print(f"向量维度:{len(embedding)}")
```
## 错误处理
### 基础错误处理
```python theme={null}
from openai import OpenAI, OpenAIError
try:
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello"}]
)
except OpenAIError as e:
print(f"API 错误:{e}")
```
### 详细错误处理
```python theme={null}
from openai import (
OpenAI,
APIError,
APIConnectionError,
RateLimitError,
InternalServerError
)
try:
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello"}]
)
except RateLimitError:
print("请求频率超限,请稍后重试")
except APIConnectionError:
print("网络连接错误")
except InternalServerError:
print("服务器内部错误")
except APIError as e:
print(f"API 错误:{e}")
```
## 最佳实践
### 1. 配置管理
```python theme={null}
import os
from openai import OpenAI
class APIYiClient:
def __init__(self):
self.client = OpenAI(
api_key=os.getenv("APIYI_API_KEY"),
base_url=os.getenv("APIYI_BASE_URL", "https://api.apiyi.com/v1")
)
def chat(self, message: str, model: str = "gpt-3.5-turbo"):
return self.client.chat.completions.create(
model=model,
messages=[{"role": "user", "content": message}]
)
```
### 2. 重试机制
```python theme={null}
import time
import random
from openai import OpenAI, RateLimitError
def chat_with_retry(client, messages, max_retries=3):
for attempt in range(max_retries):
try:
return client.chat.completions.create(
model="gpt-3.5-turbo",
messages=messages
)
except RateLimitError:
if attempt < max_retries - 1:
wait_time = (2 ** attempt) + random.uniform(0, 1)
time.sleep(wait_time)
else:
raise
```
### 3. 成本控制
```python theme={null}
def controlled_chat(message: str, max_tokens: int = 150):
"""控制输出长度以管理成本"""
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": message}],
max_tokens=max_tokens,
temperature=0.7
)
return response
```
## 迁移指南
### 从 OpenAI 迁移
如果您已经在使用 OpenAI 官方服务,迁移到 API易 非常简单:
1. **更改 base\_url**
```python theme={null}
# 原来的配置
client = OpenAI(api_key="sk-...")
# 改为 API易
client = OpenAI(
api_key="YOUR_APIYI_KEY",
base_url="https://api.apiyi.com/v1"
)
```
2. **更新环境变量**
```bash theme={null}
# 原来
export OPENAI_API_KEY="sk-..."
# 改为
export OPENAI_API_KEY="YOUR_APIYI_KEY"
export OPENAI_BASE_URL="https://api.apiyi.com/v1"
```
3. **代码无需修改**
所有其他代码保持不变,包括:
* 方法调用
* 参数格式
* 响应处理
### 多服务兼容
```python theme={null}
class MultiProviderClient:
def __init__(self):
self.apiyi_client = OpenAI(
api_key="APIYI_KEY",
base_url="https://api.apiyi.com/v1"
)
self.openai_client = OpenAI(api_key="OPENAI_KEY")
def chat(self, message: str, provider: str = "apiyi"):
client = self.apiyi_client if provider == "apiyi" else self.openai_client
return client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": message}]
)
```
需要更多帮助?请访问 [API易官网](https://vip.apiyi.com) 或查看 [官方 SDK 文档](https://platform.openai.com/docs/libraries)。
# Qwen3.6 系列文本模型
Source: https://docs.apiyi.com/api-capabilities/qwen-3-6/overview
阿里通义千问 Qwen3.6 系列:Max-Preview 编程旗舰 + Flash 极速多模态 + Plus 均衡主力 + 27B / 35B-A3B 开源版(API易官转托管,免租卡)。全系阿里云官转通道,OpenAI Chat 兼容直接调用,挂牌价持平官网,叠加充值加赠约 8.5 折。
Qwen3.6 是阿里通义千问团队在 2026 年第二季度推出的新一代大模型家族,整体路线分为 **Max**(旗舰)、**Plus**(均衡)、**Flash**(极速)三个闭源生产档位,外加 **27B**、**35B-A3B** 两款开源权重版本。API易 通过 **阿里云官转 / 自建官转** 通道接入全部 5 款模型,OpenAI Chat Completions 兼容格式直接调用——闭源版鉴权与限流策略与阿里云官网一致;**开源版由 API易 官转托管,免去客户租 GPU、买算力的负担**。
**🚀 核心亮点**:Max-Preview 在 SWE-bench Pro / Terminal-Bench 2.0 等 **6 项编程基准登顶**,Flash 是 35B-A3B MoE、原生 256K 可扩 1M 多模态上下文,Plus 是 72B/18B 激活的均衡主力(1M 上下文)。开源 **`qwen3.6-27b`**(27B 稠密)与 **`qwen3.6-35b-a3b`**(35B MoE / 3B 激活)由 API易 官转托管,按量付费、不用自己租卡。**适合编程 Agent、长上下文 RAG、多模态批量分发,以及需要可控权重 / 合规审计** 的生产场景。
### 闭源生产版(阿里云官转)
**编程旗舰**
国产编程登顶:6 项 Coding 基准 #1,AIME 2025 93%,GPQA 86%,LiveCodeBench 79%。
**极速多模态**
35B-A3B MoE,文本 / 图像 / 视频原生输入,256K 基础可扩 1M 上下文。
**均衡主力**
72B 总参 / 18B 激活,1M 上下文,Terminal-Bench 61.6 超越 Claude Opus 4.5。
### 开源权重版(API易官转托管 · 免租卡)
**27B 稠密 · 编程小钢炮**
Qwen 团队开源权重(Hugging Face `Qwen/Qwen3.6-27B`),27B 编程能力对标 397B 量级模型。API易 官转托管,无需本地 GPU。
**35B-A3B 开源 MoE**
Qwen 团队开源权重(Hugging Face `Qwen/Qwen3.6-35B-A3B`),与闭源 Flash 同源不同档位,3B 激活极低算力成本。
## 为什么选 API易 的 Qwen3.6 阿里云官转?
对标阿里云百炼官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化:
通过阿里云百炼官方通道接入,鉴权与限流策略与官网一致,国内机房与家宽网络延迟稳定,企业级 SLA。
无 RPM / TPM 上限封顶(受底层供给限制),企业客户可按需放量;支持工单与专属群协助高并发调度。
挂牌单价与阿里云官网一致,叠加 [充值加赠活动](/faq/recharge-promotions),长期使用成本约 **官网 8.5 折**。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,免去出海改造。
OpenAI Chat Completions 兼容格式,配合 GPT / Claude / DeepSeek / GLM 等 [全模型生态](/api-capabilities/model-info) 可无缝切换。
团队深耕大模型选型与 Agent 工作流,可为企业客户提供从 PoC、灰度到生产上线的完整技术支持。
## 五款模型怎么选
**场景**:Coding Agent 主力、SWE-Verified 类真实软工任务、Cursor / Claude Code 工作流主驱动模型。
**基准**:SWE-bench Pro 58.4(反超 GLM-5.1 56.6)、AIME 2025 93%、GPQA 86%、LiveCodeBench 79%、Terminal-Bench 2.0 #1。
**注意**:标记为 Preview,权重仍在迭代,关键链路建议先小流量灰度。
**场景**:图像 / 视频理解、长文档总结、批量翻译、RAG 后整篇综合归纳。
**结构**:35B 总参 / 3B 激活的 MoE(35B-A3B),原生 256K 可扩展至 1M tokens。
**多模态**:原生支持文本 / 图像 / 视频输入,单价仅 Max 的约 1/8。
**场景**:日常对话、客服、内容生成、企业知识库问答、中等复杂度推理。
**结构**:72B 总参 / 18B 激活的 MoE,推理速度约 Claude Opus 4.6 的 3 倍。
**基准**:Terminal-Bench 2.0 达 61.6 超越 Claude Opus 4.5(59.3),SWE-bench Verified 78.8。
**场景**:成本敏感的编程辅助、私有化部署评估前的 API 验证、对开源协议 / 可审计权重有合规要求的客户。
**特点**:27B 稠密结构,开源权重,编程能力对标 397B 级别。API易 官转托管,按量计费,无需本地 GPU。
**场景**:高频低成本场景、希望未来切换为本地推理的过渡期、合规要求权重可下载的项目。
**特点**:与闭源 Flash 同源(35B 总参 / 3B 激活),开源版本由 API易 托管,省去租卡 / 部署 / 运维。
**推荐策略**:Flash 默认 + Plus 升级 + Max-Preview 兜顶;成本敏感场景再下沉到开源 27b / 35b-a3b。
常规对话与多模态批量交给 Flash;需要更强推理时升级到 Plus;编程 Agent / 复杂推理 / 多步规划升级到 Max-Preview;对成本极敏感或需可审计权重的场景下沉到开源版。
## 模型定价
全系采用 **按量付费 - Chat** 计费模式:闭源生产版(Max-Preview / Flash / Plus)按 **单次请求输入 token 数** 决定整请求单价档位(阶梯计费);开源版(27b / 35b-a3b)为**单一档位平价计费**,不分档。挂牌价持平阿里云官网,叠加 API易 充值加赠后实际单价约 **官网 8.5 折**。
### qwen3.6-max-preview
| 单次输入 tokens | 提示价格(输入) | 补全价格(输出) |
| --------------- | -------------------- | --------------------- |
| **0 – 128K** | \$1.2800 / 1M tokens | \$7.6800 / 1M tokens |
| **128K – 256K** | \$2.1200 / 1M tokens | \$12.7200 / 1M tokens |
### qwen3.6-flash
| 单次输入 tokens | 提示价格(输入) | 补全价格(输出) |
| ---------------- | -------------------- | -------------------- |
| **0 – 256K** | \$0.1700 / 1M tokens | \$1.0200 / 1M tokens |
| **256K – 1000K** | \$0.6800 / 1M tokens | \$4.0800 / 1M tokens |
### qwen3.6-plus
| 单次输入 tokens | 提示价格(输入) | 补全价格(输出) |
| ---------------- | -------------------- | -------------------- |
| **0 – 256K** | \$0.3000 / 1M tokens | \$1.8000 / 1M tokens |
| **256K – 1000K** | \$1.2000 / 1M tokens | \$7.2000 / 1M tokens |
### qwen3.6-27b(开源版 · API易官转托管)
| 计费方式 | 提示价格(输入) | 补全价格(输出) |
| ----------- | -------------------- | -------------------- |
| **平价(不分档)** | \$0.4200 / 1M tokens | \$2.5200 / 1M tokens |
### qwen3.6-35b-a3b(开源版 · API易官转托管)
| 计费方式 | 提示价格(输入) | 补全价格(输出) |
| ----------- | -------------------- | -------------------- |
| **平价(不分档)** | \$0.2600 / 1M tokens | \$1.5600 / 1M tokens |
**计费说明**:
* **闭源生产版(阶梯计费)**:单价档位由**单次请求的总输入 tokens** 决定,整次请求的所有 tokens(输入 + 输出)按对应档位的单价计费。**跨档不分摊**——例如 Flash 单次输入 300K tokens 落入 `256K – 1000K` 档,整请求按 \$0.68 / \$4.08 计价;不会出现"前 256K 按低价、后 44K 按高价"的拆分。
* **开源版(平价计费)**:`qwen3.6-27b` 与 `qwen3.6-35b-a3b` 由 API易 官转托管,单价不分档;客户无需自行租 GPU 或部署本地推理,按实际消耗 token 数直接结算。
* 挂牌价持平阿里云百炼官网,叠加 [充值加赠](/faq/recharge-promotions) 实际单价约 **8.5 折**。
* 缓存命中价当前未单独披露,按基础档计价。
## 技术规格
### 闭源生产版
| 维度 | qwen3.6-max-preview | qwen3.6-flash | qwen3.6-plus |
| ------------------- | --------------------- | --------------- | ---------------- |
| **模型 ID** | `qwen3.6-max-preview` | `qwen3.6-flash` | `qwen3.6-plus` |
| **架构** | 稠密大模型 | MoE 35B-A3B | MoE 72B / 18B 激活 |
| **上下文** | 262K tokens | 256K(可扩 1M) | 1M tokens |
| **输入模态** | 文本 | 文本 / 图像 / 视频 | 文本 |
| **输出格式** | 文本 | 文本 | 文本 |
| **流式输出** | ✅ 支持 | ✅ 支持 | ✅ 支持 |
| **函数调用 / Tool Use** | ✅ 支持 | ✅ 支持 | ✅ 支持 |
| **思维链** | ✅ 推理任务自动启用 | — | ✅ 始终开启 |
| **计费模式** | 按量付费 - Chat(阶梯) | 按量付费 - Chat(阶梯) | 按量付费 - Chat(阶梯) |
| **通道** | 阿里云官转 | 阿里云官转 | 阿里云官转 |
### 开源权重版(API易官转托管)
| 维度 | qwen3.6-27b | qwen3.6-35b-a3b |
| ------------------- | ------------------------------------------ | ---------------------------------------------- |
| **模型 ID** | `qwen3.6-27b` | `qwen3.6-35b-a3b` |
| **架构** | 27B 稠密 | MoE 35B 总参 / 3B 激活 |
| **开源协议** | Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-27B`) | Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-35B-A3B`) |
| **上下文** | 与官方权重一致(详见模型卡片) | 与官方权重一致(详见模型卡片) |
| **输入模态** | 文本 | 文本 |
| **流式输出** | ✅ 支持 | ✅ 支持 |
| **函数调用 / Tool Use** | ✅ 支持 | ✅ 支持 |
| **计费模式** | 按量付费 - Chat(平价不分档) | 按量付费 - Chat(平价不分档) |
| **通道** | API易 官转托管 | API易 官转托管 |
**开源版的价值**:开源版本权重在 Hugging Face 公开可下载,但跑起来需要 GPU、显存与运维。**API易 把开源权重托管到官转通道**,客户用 API 直接调用即可——既保留"权重可审计、协议可控"的合规优势,又免去租卡、部署、运维的成本。
## 端点一览
| 端点 | 方法 | Content-Type | 用途 |
| ---------------------- | ------ | ------------------ | ------------------------------------------ |
| `/v1/chat/completions` | `POST` | `application/json` | 对话 / 推理 / 工具调用(**5 款模型共用**,仅 `model` 字段区分) |
**域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。`base_url` 设为 `https://api.apiyi.com/v1` 即可使用 OpenAI / OpenAI 兼容 SDK 直接调用。
## 调用示例
### Python(OpenAI SDK 兼容)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
# Max-Preview:编程 Agent 主驱动
resp = client.chat.completions.create(
model="qwen3.6-max-preview",
messages=[
{"role": "system", "content": "你是一个资深 Python 工程师,按规范返回 unified diff。"},
{"role": "user", "content": "为下面这段代码补充类型注解并修复潜在 bug ..."}
]
)
print(resp.choices[0].message.content)
# Flash:图像 + 文本多模态输入
resp = client.chat.completions.create(
model="qwen3.6-flash",
messages=[
{"role": "user", "content": [
{"type": "text", "text": "请用中文描述这张图片的关键信息"},
{"type": "image_url", "image_url": {"url": "https://your-image-url.png"}}
]}
]
)
print(resp.choices[0].message.content)
# Plus:日常对话与中等复杂推理
resp = client.chat.completions.create(
model="qwen3.6-plus",
messages=[{"role": "user", "content": "用一句话介绍你自己"}]
)
print(resp.choices[0].message.content)
```
### Node.js
```javascript theme={null}
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-your-api-key',
baseURL: 'https://api.apiyi.com/v1',
});
const resp = await client.chat.completions.create({
model: 'qwen3.6-plus',
messages: [{ role: 'user', content: '用一句话介绍你自己' }],
});
console.log(resp.choices[0].message.content);
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3.6-max-preview",
"messages": [
{"role": "user", "content": "解释一下什么是 MoE 架构"}
]
}'
```
## 最佳实践
Flash 默认处理常规对话 / 分类 / 多模态批量;Plus 处理中等复杂推理与企业知识库问答;只在编程 Agent / 复杂规划 / 数学竞赛级推理时升级到 Max-Preview。能省一档成本就降一档。
上线前先估算 P95 输入 token 数:Max-Preview 跨过 128K、Flash / Plus 跨过 256K 后单价显著上升。建议把超长上下文先做摘要 / 分段,控制 P95 在低档区间内。
Flash 支持 1M 上下文与视频输入,但单次过长会触发高档单价。建议把超长视频先切片再喂入,按 256K 分批控制单次成本。
`qwen3.6-max-preview` 标记为 Preview,权重仍在迭代。关键链路建议先小流量灰度 + AB 比对,待版本稳定后再切主流量。
三款模型均支持 OpenAI 风格的 `tools` 字段与 `stream: true`,可直接复用现有 OpenAI Agent 框架(OpenClaw / LangChain / LlamaIndex 等)的工具调用逻辑。
挂牌价已与官网持平,叠加 [充值加赠活动](/faq/recharge-promotions) 后实际单价约 **8.5 折**。大额充值(\$1000+)档位赠送比例更高,长期使用建议一次性充值到位。
## 错误码与重试
| 状态码 | 含义 | 处理建议 |
| ----- | ------------ | ------------------------------------------- |
| `400` | 参数错误 / 模型名错误 | 检查 `model` 字段拼写、`messages` 结构、超长输入是否超出最大上下文 |
| `401` | 令牌无效 | 检查 Bearer Token 是否正确 |
| `403` | 内容审核拦截 | 调整 prompt 或参考输入,避开违规内容 |
| `429` | 限流 / 余额不足 | 指数退避重试,并检查账户余额 |
| `5xx` | 网关 / 后端错误 | 重试 1–2 次,仍失败请提交工单 |
| 超时 | 长尾响应 | 客户端超时建议 ≥ **120 秒**(思维链或长上下文请求耗时较长) |
**建议客户端**:
* 请求超时 **120 秒** 起步(Max-Preview 推理 / Plus 思维链长上下文请求耗时较长)
* 对 5xx 与超时做 **指数退避重试**(建议 2 次)
* 记录响应头 `x-request-id` 方便排查
## 常见问题
是。5 款模型共用 `/v1/chat/completions` 端点,OpenAI Chat Completions 兼容格式,仅 `model` 字段不同(`qwen3.6-max-preview` / `qwen3.6-flash` / `qwen3.6-plus` / `qwen3.6-27b` / `qwen3.6-35b-a3b`),可在同一份代码里按需切换。
主要差别有三:**(1) 权重可下载**——开源版本可在 Hugging Face 拉取权重,便于内部审计、合规备案或后续切换为本地推理;**(2) 算力托管**——API易 把开源权重托管到官转通道,客户调 API 即可,省去租卡、部署与运维成本;**(3) 计费简单**——开源版按量平价计费,不分档,预算可控。能力上 35B-A3B 与闭源 Flash 同源不同档位,27B 是独立的稠密模型,编程能力对标更大参数量级模型。
本地跑开源大模型至少需要:合适的 GPU(27B 至少 A100 40G ×1,35B-A3B 显存更高)、推理框架(vLLM / TensorRT-LLM)、监控告警、容灾、版本升级流程。**API易 官转托管把这些全部托掉**,按 token 计费,按需扩缩,且与闭源版共用同一份 OpenAI 兼容 SDK——开发期用 API 跑通,生产期再决定要不要切自托管,路径平滑。
单价档位由**单次请求的总输入 token 数**决定,整次请求的所有 token(输入 + 输出)按对应档位的单价计费。例如 Flash 单次输入 300K tokens 落入 `256K – 1000K` 档,整请求按 \$0.68 / \$4.08 计价,不会拆分前 256K 与后 44K。
可以,但建议先做小流量灰度。Qwen 团队已明确表示后续版本仍会迭代权重,关键链路上线前建议跑 AB 比对,记录基准任务表现,待版本稳定后再切主流量。
使用 OpenAI Vision 兼容格式:`messages` 中 `content` 字段传入数组,每个元素为 `{type: "text", text: ...}` 或 `{type: "image_url", image_url: {url: ...}}`。视频输入按官方文档使用 `video_url` / 帧采样字段。
挂牌价完全持平阿里云百炼官网。区别在于 API易 上叠加 [充值加赠活动](/faq/recharge-promotions) 后,实际单价约官网 **8.5 折**;同时账户支持 OpenAI 全生态切换(GPT / Claude / Gemini / DeepSeek / GLM 等),无需重复开多个供应商账号。
支持。三款模型均兼容 OpenAI 标准的 `tools` / `tool_choice` 字段,可直接复用现有 Agent 框架的工具调用逻辑。Max-Preview 在多步工具调用与长程规划上表现最佳。
Max-Preview 在推理任务上自动启用思维链;Plus 始终开启思维链;Flash 主打速度,默认不输出思维链。具体字段名以阿里云官网响应格式为准(`reasoning_content` 等)。
Flash 与 Plus 的最大上下文为 1M tokens,Max-Preview 为 262K。超过上限会触发 `400` 错误。建议先做摘要 / 分段 / RAG 检索,避免一次性塞入超长内容。
可以。把 `base_url` 设为 `https://api.apiyi.com/v1`,`model` 字段填上述任一模型 ID 即可,零改动迁移。
`4xx` 类客户端错误(参数错误 / 鉴权失败 / 内容审核拦截)不计费;`5xx` 类服务端错误若请求未实际进入推理阶段亦不计费。已成功返回 token 的请求按实际 token 数计费,即使响应被客户端中断。
## 相关文档
* [深度解读:Qwen3.6 双模上线 Max-Preview + Flash](/news/qwen-3-6-max-flash-launch)
* [深度解读:Qwen3.6-Plus 上线 阿里千问最强编程 Agent 模型](/news/qwen-3-6-plus-launch)
* [充值加赠活动](/faq/recharge-promotions) - 把单价压到约 8.5 折
* [模型信息总览](/api-capabilities/model-info) - 查看所有可用模型及分组
* [API 使用手册](/api-manual) - 通用调用规范
**小结**:Qwen3.6 系列覆盖了从重型 Coding Agent 到高频多模态分发的完整需求曲线——Max-Preview 把国产编程推到新高,Flash 用极低单价撑起多模态长上下文,Plus 是稳定的均衡主力;27B 与 35B-A3B 两款开源版由 API易 官转托管,把"开源权重可控 + 免租卡"这条路径补齐。5 款模型共用 OpenAI Chat 兼容端点,挂牌持平官网 + 充值加赠约 8.5 折,是当前阿里云官转通道里性价比最优的国产模型组合。
# Seedream 历史版本
Source: https://docs.apiyi.com/api-capabilities/seedream-image/historical-versions
Seedream 5.0 / 4.5 / 4.0 三版本规格对比、价格差异、迁移建议——三版本都仍可调用,按业务需求选型即可
本页记录 API易**仍可调用**的所有 Seedream 版本。三个版本同时活跃,参数协议**完全兼容**,只需替换 `model` 字段即可切换。最新版本与综合介绍请见 [Seedream 总览](/api-capabilities/seedream-image/overview)。
## 版本一览
| 版本 ID | 上线日期(UTC+8) | API易 价格 | 状态 | 推荐使用场景 |
| --------------------- | ----------- | --------- | ------------ | ------------------------- |
| `seedream-5-0-260128` | 2026-01-28 | \$0.035/张 | ✅ 当前推荐(最新) | 综合体验最优、文字渲染、png 输出 |
| `seedream-4-5-251128` | 2025-11-28 | \$0.04/张 | ✅ 当前推荐 | 4K 高清 + 强文字渲染(海报、广告) |
| `seedream-4-0-250828` | 2025-08-28 | \$0.03/张 | 🟡 维护中(仍可调用) | 4K + 最佳性价比、prompt fast 模式 |
`seedream-5-0-260128` 也可通过别名 `seedream-5-0-lite-260128` 调用,行为完全一致——官方文档同时承认两个 model\_id 字符串。
## 各版本详细规格
### `seedream-5-0-260128`(5.0-lite)
* **上线日期**:2026-01-28(UTC+8)
* **API易 价格**:\$0.035/张(折扣前约 ¥0.245/张)
* **支持分辨率档位**:`2K` / `3K`(**无 4K**)
* **输出格式**:`png` / `jpeg`(唯一支持 png 输出的版本)
* **Prompt 优化**:standard
* **核心特性**:
* 综合体验最优,多图融合 / 编辑 / 批量序列协议成熟
* 唯一支持 `png` 输出(可输出透明背景)
* 流式输出(`stream: true`)成熟可用
* **已知限制**:
* 分辨率上限 3K(≈3072×3072),需要 4K 物料请用 4.5 / 4.0
* **官方介绍**:`docs.byteplus.com/en/docs/ModelArk/1824121`
### `seedream-4-5-251128`
* **上线日期**:2025-11-28(UTC+8)
* **API易 价格**:\$0.04/张(折扣前约 ¥0.28/张)
* **支持分辨率档位**:`2K` / `4K`
* **输出格式**:`jpeg`
* **Prompt 优化**:standard
* **核心特性**:
* 12 亿参数统一生成-编辑架构
* **文本渲染突破**:小文本清晰可读,海报、广告、UI 截图场景表现领先
* 多图融合官方明确"最多 10 张参考图"
* 编辑时保留光照、色调、面部特征自然
* **已知限制**:
* 仅 `jpeg` 输出(无 `png`,不支持透明背景)
* **News 文章**:[Seedream 4.5 上线公告](/news/seedream-4-5-launch)
### `seedream-4-0-250828`
* **上线日期**:2025-08-28(UTC+8)
* **API易 价格**:\$0.03/张(折扣前约 ¥0.21/张)
* **支持分辨率档位**:`1K` / `2K` / `4K`(分辨率覆盖最全)
* **输出格式**:`jpeg`
* **Prompt 优化**:standard / **fast**(唯一支持 fast 模式)
* **核心特性**:
* 经过验证的稳定版本
* 优秀的视觉一致性,4K 出图细节均衡
* **唯一支持 prompt fast 模式**,对预算敏感的场景出图更快
* **已知限制**:
* 文本渲染弱于 4.5
* 仅 `jpeg` 输出
## 迁移建议
本系列三个版本**参数协议完全兼容**——只需替换 `model` 字段即可切换。重点核对:
* 你用的 `size` 档位是否在新版本支持列表里(5.0 没有 1K / 4K,4.5 没有 1K,4.0 全支持)
* 你是否依赖 `output_format: "png"`(仅 5.0 支持)
* 你是否用 `prompt_optimization: "fast"`(仅 4.0 支持)
拿同一批 prompt 在新旧版本各跑一轮,对比效果与成本。建议先小批量(10-20 张)验证质量再切量。
把流量按比例切(如 10% / 50% / 100% 三档),每档观察一段时间画质、失败率、成本,再放量。
生产环境建议同时保留新旧两个 `model` 配置,新版出现问题时可一键回退到旧版。三个版本统一计费,并行使用没有额外成本。
## 旧版调用示例
```python theme={null}
{/* 切换版本只需改 model 字段,其它参数兼容 */}
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1")
resp = client.images.generate(
model="seedream-4-0-250828", # 切到 4.5 / 5.0 只换这一行
prompt="A serene mountain landscape at golden hour, snow-capped peaks, ultra detailed, 4K",
size="4K", # 注意:5.0 不支持 4K,需改 2K 或 3K
response_format="url",
extra_body={
"watermark": False,
}
)
print(resp.data[0].url)
```
## 计费差异
按典型用量估算(**未叠加充值加赠折扣**,叠加后实际可低至 8 折):
| 版本 | 单价 | 100 张 | 1000 张 | 10000 张 |
| --------------------- | ------- | ----- | ------ | ------- |
| `seedream-5-0-260128` | \$0.035 | \$3.5 | \$35 | \$350 |
| `seedream-4-5-251128` | \$0.04 | \$4 | \$40 | \$400 |
| `seedream-4-0-250828` | \$0.03 | \$3 | \$30 | \$300 |
**如何选**:
* 4K 物料 + 强文字 → **4.5**
* 4K 物料 + 性价比 → **4.0**
* 综合体验最优 / png 输出 / 透明背景 → **5.0**
* 大批量稳定生产 → **4.0**(已验证 + 最便宜 + fast 模式)
## 兼容性对照表
| 维度 | 5.0 | 4.5 | 4.0 | 迁移注意 |
| ----------------------------- | --- | ------------ | --- | -------------------------------------------- |
| `1K` 分辨率档位 | ❌ | ❌ | ✅ | 从 4.0 升级时如用 1K,需改 2K |
| `4K` 分辨率档位 | ❌ | ✅ | ✅ | 从 4.5 / 4.0 降到 5.0 时如用 4K,需改 2K / 3K |
| `output_format: "png"` | ✅ | ❌ | ❌ | 从 5.0 切到 4.5 / 4.0 时如依赖 png 透明背景,**画面会丢失透明** |
| `prompt_optimization: "fast"` | ❌ | ❌ | ✅ | 从 4.0 升级时如用 fast 模式,需删除该参数(默认走 standard) |
| `image` 数组(多图融合) | ✅ | ✅(最多 10 张明确) | ✅ | 三版本协议一致 |
| `sequential_image_generation` | ✅ | ✅ | ✅ | 三版本协议一致 |
| `stream` 流式 | ✅ | ✅ | ✅ | 三版本协议一致 |
| 响应字段(`url` / `b64_json`) | 一致 | 一致 | 一致 | — |
| 计费方式 | 按张 | 按张 | 按张 | — |
## 相关文档
* [Seedream 总览](/api-capabilities/seedream-image/overview)
* [文生图 Playground](/api-capabilities/seedream-image/text-to-image)
* [图片编辑 Playground](/api-capabilities/seedream-image/image-edit)
* [Seedream 4.5 上线公告](/news/seedream-4-5-launch)
* BytePlus 官方 tutorial:`docs.byteplus.com/en/docs/ModelArk/1824121`
# 图片编辑 API 参考
Source: https://docs.apiyi.com/api-capabilities/seedream-image/image-edit
api-reference/seedream-image-edit-openapi.yaml POST /v1/images/generations
Seedream 图片编辑 / 多图融合 / 批量序列生成 API 参考与在线调试 — 同 generations 端点,传入 image 数组与 sequential_image_generation 切换模式
**同端点,不同模式**:Seedream 没有独立的 `/v1/images/edits` 端点,编辑 / 多图融合 / 批量序列都走 `POST /v1/images/generations`。本页 Playground 与 [文生图页](/api-capabilities/seedream-image/text-to-image) 调的是同一个端点,区别只在请求体的 `image` 与 `sequential_image_generation` 参数。
**场景说明**:
* **单图编辑** —— `image: ["url"]` + `sequential_image_generation: "disabled"`
* **多图融合** —— `image: ["url1", "url2", ...]` + `sequential_image_generation: "disabled"`
* **批量序列生成** —— `sequential_image_generation: "auto"` + `sequential_image_generation_options.max_images: N`
* **图生序列** —— 上面两个组合:传 `image` 数组 + `auto` + `max_images`
**🖥️ 浏览器 Playground 限制(仅 b64\_json 模式)**
默认 `response_format: "url"` 模式下 Playground 工作正常(响应只是一个 BytePlus TOS 临时链接)。如果你切换成 `response_format: "b64_json"`,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。
**推荐做法**:
* 只想看图:**保持默认 `url` 模式**,Playground 会直接返回链接(注意 24 小时内下载到自己的存储)。
* 真的需要 b64\_json:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。
**⚠️ 关键差异(与 OpenAI gpt-image-2 的图编辑不同)**
* **不接受 multipart/form-data 上传文件** —— 请把图片传到 OSS / 公网图床拿到 URL,再放进 `image` 数组
* **`image` 是 URL 数组**,**不是** `image[]` 字段重复(与 OpenAI `gpt-image-2` 的 `multipart/form-data` 格式完全不同)
* **没有 `mask` 字段** —— Seedream 不支持 alpha 通道掩码局部重绘,整图 prompt 改写
* **总张数硬约束**:输入参考图 + 输出图 **≤ 15 张**
**📎 多图融合顺序有意义**
`image` 数组的顺序会作为 prompt 中「图1/图2/图3」的引用依据。建议在 prompt 中显式指代:
> Replace the clothing in image 1 with the outfit from image 2, keeping the lighting from image 3.
推荐 prompt 用英文(官方训练以英文为主),中文也可用但表达不要含糊。
## 代码示例
### Python(OpenAI SDK · 单图编辑)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.generate(
model="seedream-5-0-260128",
prompt="Generate a close-up image of a dog lying on lush grass.",
size="2K",
response_format="url",
extra_body={
"image": ["https://your-oss.example.com/source-photo.png"],
"sequential_image_generation": "disabled",
"watermark": False,
}
)
print(resp.data[0].url)
```
### Python(OpenAI SDK · 多图融合)
```python theme={null}
resp = client.images.generate(
model="seedream-4-5-251128",
prompt="Replace the clothing in image 1 with the outfit from image 2, keeping the lighting style of image 3.",
size="4K",
response_format="url",
extra_body={
"image": [
"https://your-oss.example.com/person.png",
"https://your-oss.example.com/outfit.png",
"https://your-oss.example.com/lighting-ref.png",
],
"sequential_image_generation": "disabled",
"watermark": False,
}
)
print(resp.data[0].url)
```
### Python(OpenAI SDK · 批量序列生成)
```python theme={null}
resp = client.images.generate(
model="seedream-5-0-260128",
prompt=(
"Generate four cinematic sci-fi storyboard scenes:"
"Scene 1 — astronaut repairing a spacecraft;"
"Scene 2 — meteor strike in deep space;"
"Scene 3 — emergency dodge in zero gravity;"
"Scene 4 — astronaut returning to ship."
),
size="2K",
response_format="url",
extra_body={
"sequential_image_generation": "auto",
"sequential_image_generation_options": {"max_images": 4},
"watermark": False,
}
)
for item in resp.data:
print(item.url)
```
### cURL(多图融合)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "seedream-5-0-260128",
"prompt": "Replace the clothing in image 1 with the outfit from image 2.",
"image": [
"https://your-oss.example.com/person.png",
"https://your-oss.example.com/outfit.png"
],
"sequential_image_generation": "disabled",
"size": "2K",
"response_format": "url",
"watermark": false
}'
```
### Node.js(原生 fetch · 批量序列)
```javascript theme={null}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'seedream-5-0-260128',
prompt: 'A four-panel comic about a cat astronaut: launch, space walk, alien encounter, return home.',
size: '2K',
sequential_image_generation: 'auto',
sequential_image_generation_options: { max_images: 4 },
response_format: 'url',
watermark: false
})
});
const { data } = await resp.json();
data.forEach((item, i) => console.log(`#${i + 1}:`, item.url));
```
## 参数说明速查
| 字段 | 类型 | 必填 | 默认 | 说明 |
| ------------------------------------------------ | --------------------- | --------- | ---------- | --------------------------------------------------------------------- |
| `model` | string | 是 | — | `seedream-5-0-260128` / `seedream-4-5-251128` / `seedream-4-0-250828` |
| `prompt` | string | 是 | — | 编辑 / 融合 / 序列指令 |
| `image` | array of string (URL) | 否(编辑场景必填) | — | 参考图 URL 数组,**最多 10 张**(4.5 官方明确) |
| `sequential_image_generation` | string | 否 | `disabled` | `disabled` 单图输出;`auto` 批量序列输出 |
| `sequential_image_generation_options.max_images` | integer | 否 | — | 仅 `auto` 模式生效,输出张数(受 **输入+输出 ≤ 15** 总约束) |
| `size` | string | 否 | `2K` | 预设档位或精确像素,**各版本支持档位见 overview** |
| `response_format` | string | 否 | `url` | `url` / `b64_json` |
| `output_format` | string | 否 | `jpeg` | 5.0 支持 `png` / `jpeg`;4.5 / 4.0 仅 `jpeg` |
| `watermark` | boolean | 否 | 见版本默认 | 商用建议 `false` |
| `stream` | boolean | 否 | `false` | 流式输出,长 prompt 时建议开 |
## 多图与批量场景的张数约束
| 场景 | 输入 `image` 张数 | `max_images` | 实际输出 | 总和约束 |
| --------- | ------------- | ------------ | ---- | ------------ |
| 单图编辑 | 1 | — | 1 | 2 ≤ 15 ✅ |
| 多图融合 | 3 | — | 1 | 4 ≤ 15 ✅ |
| 多图融合 + 序列 | 3 | 4 | 4 | 7 ≤ 15 ✅ |
| 多图融合 + 序列 | 10 | 6 | 6 | 16 > 15 ❌ 报错 |
**多轮迭代**:把上一次的输出 URL 作为下一次的 `image` 输入,配合新的编辑指令逐步精调。每一轮都按张计费,预算时留意累计成本。
## 响应格式
```json theme={null}
{
"model": "seedream-5-0-260128",
"created": 1768518000,
"data": [
{
"url": "https://ark-content-generation-v2-ap-southeast-1.tos-ap-southeast-1.bytepluses.com/seedream-5-0/.../scene-1.png",
"size": "2048x2048"
},
{
"url": "https://...scene-2.png",
"size": "2048x2048"
}
],
"usage": {
"generated_images": 2,
"output_tokens": 12480,
"total_tokens": 12480
}
}
```
**⚠️ `data` 数组长度反映实际输出张数**
* `sequential_image_generation: "disabled"` → `data` 单元素
* `sequential_image_generation: "auto"` + `max_images: N` → `data` 通常 N 个元素(个别 prompt 模型可能输出少于 N)
* 计费按 `usage.generated_images` 实际张数算,**不是按 `max_images`**
编辑请求和文生图请求**计费完全一致**——按出图张数算。多图输入(参考图)不额外计费。
# Seedream 生图/编辑
Source: https://docs.apiyi.com/api-capabilities/seedream-image/overview
字节跳动 BytePlus 火山方舟 Seedream 系列图像生成模型完整指南,5.0 / 4.5 / 4.0 三版本统一接入,支持 4K 高清、多图融合、批量序列生成、参考图编辑。
## 概述
**Seedream** 是字节跳动 BytePlus 火山方舟海外版的旗舰图像生成模型系列,**统一生成-编辑架构**:文生图、单图编辑、多图融合、批量序列生成都通过同一个 `/v1/images/generations` 端点完成,仅参数不同。API易 与 BytePlus 达成官方战略合作,第一时间接入全部活跃版本。
**🎨 核心亮点**:三个活跃版本(5.0 / 4.5 / 4.0)统一计费 + 4K 高清出图 + 最多 10 张参考图融合 + 批处理 (输入+输出 ≤ 15 张) + 强中文文字渲染。**适合电商主图、广告海报、产品摄影、内容创作** 等需要高画质 + 文字渲染的生产场景。
`POST /v1/images/generations`,纯文本提示词生成图片,支持 1K/2K/3K/4K 与精确像素尺寸。
同端点 + `image` 参数,支持单图改图、多图融合、批量序列生成(最多 15 张)。
5.0 / 4.5 / 4.0 三版本规格对比、价格差异、迁移指南。
## 为什么选 API易 的 Seedream
对标 BytePlus 火山方舟海外版官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化:
与 BytePlus 火山方舟达成官方合作,走授权直连链路,请求和响应行为与官方一致,**无协议绕行风险**,企业可放心走生产。
批量出图、多图融合、序列生成等高并发场景下,可线性扩容,不受官方账号 Tier 限制。**500 RPM 默认配额**,更高量级可申请扩容。
默认单价与 BytePlus 官方一致,叠加 [充值加赠活动](/faq/recharge-promotions) **最低可享 8 折**,长期使用成本显著下降。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,省去为 BytePlus `ap-southeast-1` / `eu-west-1` 配置出海链路的麻烦。
端点路径 `/v1/images/generations` 与 OpenAI 一致,OpenAI 官方 SDK 把 `base_url` 指过来即可调用,扩展参数(`image` / `sequential_image_generation` 等)通过 `extra_body` 透传。
团队深耕图像生成场景,在多图融合、文字渲染、批量素材生产等场景具备丰富经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 核心特性
4.0 / 4.5 支持原生 4K(4096×4096),细节层次丰富,适合海报、印刷物料;5.0-lite 上限 3K,但综合体验更新。
文生图 / 单图编辑 / 多图融合 / 序列批量 都走 **同一端点同一参数集**,仅靠 `image` 与 `sequential_image_generation` 切换模式。
`image` 字段接受 URL 数组,prompt 中可用「图1/图2」明确指代顺序,配合 `sequential_image_generation: "disabled"` 做主体一致性控制。
4.5 版本对小文本渲染大幅改进,海报标题、广告文案、产品文字等场景清晰可读,业界领先。
`sequential_image_generation: "auto"` + `max_images` 一次生成成系列的连续图像,适合分镜、品牌视觉、产品系列图。
单图典型耗时 15 秒左右,4K + hd 档稍长。**500 RPM** 默认配额,企业批量需求可申请扩容。
支持分辨率档位(`1K`/`2K`/`3K`/`4K`)或精确像素,总像素范围 \[1280×720, 4096×4096],宽高比 \[1/16, 16]。
`base_url=https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 调用,扩展参数通过 `extra_body` 透传,零代码改动迁移。
## 模型定价
按张计费,**与 BytePlus 官方同价**,叠加充值加赠后实际成本进一步下降。
| 模型 | API易价格 | 折扣前估算 | 状态 |
| --------------------- | --------- | ---------- | ------------ |
| `seedream-5-0-260128` | \$0.035/张 | 约 ¥0.245/张 | ✅ 当前推荐(最新) |
| `seedream-4-5-251128` | \$0.04/张 | 约 ¥0.28/张 | ✅ 当前推荐 |
| `seedream-4-0-250828` | \$0.03/张 | 约 ¥0.21/张 | 🟡 维护中(仍可调用) |
**计费说明**:
* 按出图张数计费,与 prompt 长度、是否走多图融合无关
* `sequential_image_generation: "auto"` 模式下按实际生成张数计费(如 `max_images: 4` 出 4 张则计 4 次)
* 失败请求(4xx / 内容审核拦截)**不计费**
* 官方提供 200 张免费图片测试额度(首次接入即享)
* 充值加赠政策见 [充值加赠活动](/faq/recharge-promotions)
## 技术规格
| 维度 | seedream-5-0 | seedream-4-5 | seedream-4-0 |
| ---------------- | -------------------------------- | --------------------- | --------------------- |
| **Model ID** | `seedream-5-0-260128` | `seedream-4-5-251128` | `seedream-4-0-250828` |
| **Model ID 别名** | `seedream-5-0-lite-260128` | — | — |
| **上线日期** | 2026-01-28 (UTC+8) | 2025-11-28 (UTC+8) | 2025-08-28 (UTC+8) |
| **支持分辨率档位** | 2K / 3K | 2K / 4K | 1K / 2K / 4K |
| **输出格式** | `png` / `jpeg` | `jpeg` | `jpeg` |
| **Prompt 优化模式** | standard | standard | standard / fast |
| **文生图** | ✅ | ✅ | ✅ |
| **单图编辑** | ✅ | ✅ | ✅ |
| **多图参考融合** | ✅ | ✅(最多 10 张) | ✅ |
| **批量序列生成** | ✅ | ✅ | ✅ |
| **流式输出** | ✅ | ✅ | ✅ |
| **每分钟最大出图(RPM)** | 500 | 500 | 500 |
| **单次输入+输出图数量** | ≤ 15 | ≤ 15 | ≤ 15 |
| **响应字段** | `data[].url` 或 `data[].b64_json` | 同 | 同 |
## 端点一览
| 端点 | 用途 | Content-Type |
| ----------------------------- | -------------------------------------------------- | ------------------ |
| `POST /v1/images/generations` | 文生图 / 单图编辑 / 多图融合 / 批量序列 — 全部能力**统一入口**,靠请求体参数切换模式 | `application/json` |
**域名选择**:主域名 `api.apiyi.com`,也可使用 `vip.apiyi.com` 等其它网关域名,响应行为一致。**不需要使用 BytePlus 原生的 `ark.ap-southeast.bytepluses.com` / `ark.eu-west.bytepluses.com`**——API易 网关已统一映射到 OpenAI 兼容路径。
## 关键参数详解
### `size`(输出尺寸)
支持两类取值,**二选一**:
**预设档位**(按分辨率自动决定宽高比):
| 档位 | 含义 | 模型支持 |
| ---- | --------------- | --------------- |
| `1K` | 约 1024×1024 | 仅 4.0 |
| `2K` | 约 2048×2048(默认) | 5.0 / 4.5 / 4.0 |
| `3K` | 约 3072×3072 | 仅 5.0 |
| `4K` | 约 4096×4096 | 4.5 / 4.0 |
**精确像素**(自定义任意尺寸):
* 总像素范围:\[1280×720, 4096×4096]
* 宽高比范围:\[1/16, 16]
* 默认值:`2048x2048`
**合法示例**:`1920x1080`(FullHD)、`3840x2160`(横版 4K)、`1080x1920`(手机壁纸)、`2560x1440`(横版 2K)
**非法示例**:`5000x5000`(超上限)、`100x1600`(比例超 1/16)
超过 `4096×4096` 总像素的尺寸会直接报 400。某些极端比例(接近 1/16 或 16)可能出现画面拉伸不稳定,建议优先用预设档位或常见 16:9 / 9:16 / 1:1 比例。
### `image` 与 `sequential_image_generation`(编辑 / 多图 / 批量模式开关)
`/v1/images/generations` 端点同时承担文生图与编辑/多图能力,靠 **两个参数组合** 切换模式:
| 模式 | `image` 参数 | `sequential_image_generation` | 说明 |
| ------ | ----------------------- | ----------------------------------------------------------- | --------------------------------------------------- |
| 纯文生图 | 不传 | 不传或 `"disabled"` | 输出 1 张 |
| 单图编辑 | `["url1"]` | `"disabled"` | 基于 1 张参考图改图 |
| 多图融合 | `["url1", "url2", ...]` | `"disabled"` | 最多 10 张参考图,prompt 用「图1/图2」指代 |
| 批量序列生成 | 可选(传或不传) | `"auto"` + `sequential_image_generation_options.max_images` | 输出 N 张连贯图像,**N ≤ max\_images** 且 **输入图 + 输出图 ≤ 15** |
详细代码示例见 [文生图 Playground](/api-capabilities/seedream-image/text-to-image) 和 [图片编辑 Playground](/api-capabilities/seedream-image/image-edit)。
## 最佳实践
* **追求最强综合体验** → `seedream-5-0-260128`(功能最全,但分辨率上限 3K)
* **要 4K 出图 + 强文字渲染** → `seedream-4-5-251128`(4K + 文字渲染突破)
* **要 4K + 性价比** → `seedream-4-0-250828`(最便宜的 4K)
`1K`/`2K`/`3K`/`4K` 档位经过官方优化,速度和质量更稳定。自定义像素留给真有比例需求的场景,注意各版本支持的档位不同。
传入 `image` 数组时,prompt 里用「把图1的人物放进图2的场景,沿用图3的色彩风格」明确顺序引用,避免模型自行猜测。
`sequential_image_generation: "auto"` + `max_images: 4` 一次出 4 张,按张计费总价乘 4。先用 `max_images: 1` 验证 prompt,再放大批量。
5.0 支持 `png` 与 `jpeg`,4.5 / 4.0 仅 `jpeg`。需要透明背景或无损细节时优先 5.0 + png,体积敏感的场景用 jpeg。
单图约 15 秒,但批量序列(4 张)或 4K + hd 可能 30–60 秒。**客户端超时建议 60 秒起步**,前端做进度反馈。
`watermark: false` 关闭水印(默认行为视版本而定,建议显式传)。商用素材建议显式关,避免输出带 BytePlus 标识。
## 错误码与重试
| 状态码 | 含义 | 处理建议 |
| ----- | --------------------------------------- | ------------------------------------- |
| `400` | 参数非法(size 超限、`image` 数组超 10、未支持的分辨率档位等) | 校验参数,注意各版本支持的分辨率档位差异 |
| `401` | 令牌无效 | 检查 Bearer Token |
| `403` | 内容审核拦截 | 调整 prompt 或更换参考图 |
| `429` | 限流(默认 500 RPM)/ 余额不足 | 指数退避重试;超出 500 RPM 联系商务申请扩容 |
| `5xx` | 网关 / 后端错误 | 重试 1–2 次 |
| 超时 | 长尾请求 | 客户端超时 ≥ **60 秒**(批量序列或 4K hd 可达 1 分钟) |
**建议客户端**:
* 请求超时 **60 秒** 起步(批量序列或 4K hd 可能 1 分钟)
* 对 5xx 与超时做 **指数退避重试**(建议 2 次)
* 记录响应头 `x-request-id` 方便排查
## 常见问题
| 你的需求 | 推荐 |
| -------------------- | -------------------------- |
| 最新功能 + 综合体验 | `seedream-5-0-260128` |
| 4K 高清 + 强文字渲染(海报、广告) | `seedream-4-5-251128` |
| 4K 高清 + 最优性价比 | `seedream-4-0-250828` |
| 长期稳定大批量 | `seedream-4-0-250828`(已验证) |
详见 [历史版本对比](/api-capabilities/seedream-image/historical-versions)。
Seedream 是统一生成-编辑架构,**没有独立的 `/v1/images/edits` 端点**。和 OpenAI 的 `gpt-image-2` 不同:OpenAI 的图编辑要 `multipart/form-data` 上传文件到 `/v1/images/edits`,Seedream 则统一用 `application/json` 把图片 **URL 数组** 传到 `image` 字段。
优点:协议统一、参数复用、容易切换模式。详见 [图片编辑 Playground](/api-capabilities/seedream-image/image-edit)。
官方文档示例**只展示了 URL 数组**。如果你的图片在本地,建议先上传到 OSS / 公网图床拿到 URL 再传入。如需对接私有图床,可联系商务讨论临时签名 URL 方案。
* **多图融合**(`image` 数组):4.5 官方明确"最多 10 张",5.0 / 4.0 同样支持但官方未单独说明上限
* **批量序列**(`max_images`):受全局约束 **输入参考图 + 输出图 ≤ 15**。所以多图 + 序列同时用时要算总和。
要看 `response_format`:
* `response_format: "url"`(默认)→ 返回 `data[0].url`,直接 `
` 渲染
* `response_format: "b64_json"` → 返回 `data[0].b64_json` **纯 base64 字符串**(不含 `data:image/...;base64,` 前缀),客户端需 `base64.b64decode` 写文件,或浏览器渲染时自行拼前缀
支持。三个版本都标注"Streaming output ✅",配合 `stream: true` 启用。流式特别适合长 prompt + 高分辨率场景,前端可提前渲染部分结果。
**默认 500 张/分钟**(Max Images per Minute),三个版本统一。如果业务需要更高配额,请联系商务告知预估 QPS,可申请扩容资源。
**不会**。BytePlus 自带内容安全审核,触发审核或参数非法时直接返回 `400`/`403` 错误并**不计费**。其它常见 0 计费错误:`401`(令牌无效)、`429`(限流)。**只有请求实际进入模型生成阶段(200 + 有效响应)才按张计费**。
可以,零代码改动。把 `base_url` 指向 `https://api.apiyi.com/v1`,扩展参数(`image` / `sequential_image_generation` / `watermark` 等)通过 `extra_body` 透传:
```python theme={null}
from openai import OpenAI
client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1")
resp = client.images.generate(
model="seedream-5-0-260128",
prompt="...",
size="2K",
extra_body={
"image": ["https://.../ref.png"],
"sequential_image_generation": "disabled",
"watermark": False,
}
)
```
通过 API 生成的图片,用户拥有完整的使用权,可用于商业和非商业用途。具体条款详见 BytePlus 服务协议。
`seedream-5-0` 支持 `png` 输出格式,可在 prompt 中要求"transparent background, alpha channel"得到带透明的图。`seedream-4-5` / `4-0` 仅 `jpeg` 输出,**不支持透明背景**,需自行后处理抠图。
**不支持**。`/v1/images/generations` 是同步端点,请求一旦提交会跑到结束。客户端即使断开连接,服务端仍会完整执行并照常计费。建议客户端做好超时控制,不要依赖"断连不计费"。
## 相关文档
* [文生图 Playground](/api-capabilities/seedream-image/text-to-image) - `POST /v1/images/generations` 在线调试,5 段语言代码示例
* [图片编辑 Playground](/api-capabilities/seedream-image/image-edit) - `image` + `sequential_image_generation` 用法详解
* [历史版本与迁移](/api-capabilities/seedream-image/historical-versions) - 5.0 / 4.5 / 4.0 规格对比、价格差异、迁移建议
* [Seedream 4.5 上线公告](/news/seedream-4-5-launch) - News 文章
* [API 使用手册](/api-manual) - 通用调用规范
* [图像生成测试工具](https://imagen.apiyi.com/) - 在线试玩
* BytePlus 官方文档:`docs.byteplus.com/en/docs/ModelArk/1824121` - Seedream 4.0-5.0 tutorial(英文)
Seedream 系列是 API易 与 BytePlus 火山方舟达成战略合作后推出的高品质图像生成服务。三个版本统一接入、统一计费、统一鉴权,按需切换。如有问题或建议,欢迎在控制台工单中反馈。
# 文生图 API 参考
Source: https://docs.apiyi.com/api-capabilities/seedream-image/text-to-image
api-reference/seedream-image-generate-openapi.yaml POST /v1/images/generations
Seedream 文生图 API 参考与在线调试 — 纯文本提示词出图,支持 1K/2K/3K/4K 与精确像素,三版本统一端点
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择 model / size 后一键发送即可。
**场景说明**:本页用于「纯文本提示词生成图片」——不传 `image` 字段。如需基于参考图编辑、多图融合或批量序列生成,请使用 [图片编辑接口](/api-capabilities/seedream-image/image-edit)(同一端点,多传 `image` 参数)。
**🖥️ 浏览器 Playground 限制(仅 b64\_json 模式)**
默认 `response_format: "url"` 模式下 Playground 工作正常(响应只是一个 BytePlus TOS 临时链接)。如果你切换成 `response_format: "b64_json"`,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。
**推荐做法**:
* 只想看图:**保持默认 `url` 模式**,Playground 会直接返回链接(注意 24 小时内下载到自己的存储)。
* 真的需要 b64\_json:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。
**⚠️ 各版本支持的分辨率档位不同**
* `seedream-5-0-260128` —— 仅 `2K` / `3K`(无 4K)
* `seedream-4-5-251128` —— `2K` / `4K`
* `seedream-4-0-250828` —— `1K` / `2K` / `4K`
**不支持的尺寸会直接返回 400**。精确像素总像素需 ∈ \[1280×720, 4096×4096],宽高比 ∈ \[1/16, 16]。
## 代码示例
### Python(OpenAI SDK 直连)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.generate(
model="seedream-5-0-260128",
prompt="A modern tech product launch poster with bold typography, sleek smartphone on gradient background, text: 'Innovation 2026', ultra detailed, professional",
size="2K",
response_format="url",
extra_body={
"output_format": "png",
"watermark": False,
}
)
print(resp.data[0].url)
```
### Python(原生 requests)
```python theme={null}
import requests
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
},
json={
"model": "seedream-5-0-260128",
"prompt": "A serene Japanese garden with cherry blossoms, koi pond, traditional wooden bridge, golden hour, ultra detailed",
"size": "2K",
"response_format": "url",
"watermark": False
},
timeout=60 # 单图约 15 秒,4K + hd 可达 30-60 秒
).json()
print(response["data"][0]["url"])
```
### cURL
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "seedream-5-0-260128",
"prompt": "A futuristic cityscape at night with neon lights and flying vehicles, cyberpunk style, high detail",
"size": "2K",
"response_format": "url",
"watermark": false
}'
```
### Node.js(原生 fetch)
```javascript theme={null}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'seedream-5-0-260128',
prompt: 'Minimalist line-art logo of a cat, monochrome, vector style',
size: '2K',
response_format: 'url',
output_format: 'png',
watermark: false
})
});
const { data } = await resp.json();
console.log(data[0].url);
```
### 浏览器 JavaScript
```javascript theme={null}
{/* 仅作演示,生产请走后端代理避免 Key 泄露 */}
const resp = await fetch('https://api.apiyi.com/v1/images/generations', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'seedream-5-0-260128',
prompt: 'Watercolor northern lights over snowy mountains',
size: '2K'
})
});
const { data } = await resp.json();
document.getElementById('img').src = data[0].url;
```
## 参数说明速查
| 参数 | 类型 | 必填 | 默认 | 说明 |
| ----------------- | ------- | -- | ------- | ------------------------------------------------------------------------ |
| `model` | string | 是 | — | `seedream-5-0-260128` / `seedream-4-5-251128` / `seedream-4-0-250828` |
| `prompt` | string | 是 | — | 提示词,支持中英文,建议详细描述场景、风格、光线 |
| `size` | string | 否 | `2K` | 预设档位(各版本不同)或精确像素 `WxH` |
| `response_format` | string | 否 | `url` | `url` 返回图片链接;`b64_json` 返回纯 base64 字符串 |
| `output_format` | string | 否 | `jpeg` | 5.0 支持 `png` / `jpeg`;4.5 / 4.0 仅 `jpeg`(OpenAI SDK 中通过 `extra_body` 传入) |
| `n` | integer | 否 | 1 | 一次输出张数(**建议 ≤ 4**,受单次 ≤ 15 总约束) |
| `seed` | integer | 否 | 随机 | 随机种子,固定可复现 |
| `watermark` | boolean | 否 | 见各版本默认 | 是否输出水印(建议显式 `false` 商用) |
| `stream` | boolean | 否 | `false` | 流式输出,适合长 prompt + 高分辨率 |
详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。**编辑/多图相关参数(`image`、`sequential_image_generation` 等)见 [图片编辑接口](/api-capabilities/seedream-image/image-edit)**。
## 响应格式
```json theme={null}
{
"model": "seedream-5-0-260128",
"created": 1768518000,
"data": [
{
"url": "https://ark-content-generation-v2-ap-southeast-1.tos-ap-southeast-1.bytepluses.com/seedream-5-0/.../image.png",
"size": "2048x2048"
}
],
"usage": {
"generated_images": 1,
"output_tokens": 6240,
"total_tokens": 6240
}
}
```
**⚠️ 响应字段陷阱**
* `response_format=url` 模式下,`data[].url` 是 **BytePlus TOS 临时签名 URL**,有时效性(通常 24 小时内有效),生产场景建议拿到后立即下载到自己的存储
* `response_format=b64_json` 模式下,`data[].b64_json` 是 **纯 base64 字符串**,**不含** `data:image/...;base64,` 前缀,客户端需 `base64.b64decode` 写文件,或浏览器渲染时自行拼前缀
* `data[].size` 字段反映**实际输出尺寸**,可能与请求的 `size` 略有差异(模型按比例约束)
`usage` 字段反映本次实际计费的张数(`generated_images`)。Seedream 按张计费,`output_tokens` / `total_tokens` 仅用于性能观测,不参与账单核算。
# 图生视频 API 参考
Source: https://docs.apiyi.com/api-capabilities/sora-2/image-to-video
api-reference/sora-2-image-to-video-openapi.yaml POST /v1/videos
Sora 2 图生视频 API 参考与在线调试 — multipart 上传 input_reference 参考图,让静态画面动起来。
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),上传一张参考图、输入 prompt、选择 model / size / seconds 后一键发送即可。
**场景说明**:本页用于「基于参考图生成视频」——上传一张图片作为视频的起始帧/视觉锚点,让静态画面"动起来"。如果不需要参考图,请使用 [文生视频接口](/api-capabilities/sora-2/text-to-video)(同一端点,JSON 请求体)。
**⚠️ 参考图分辨率必须与 size 完全一致**
* 上传图片的像素尺寸必须与请求的 `size` 字段完全一致(如 `size=1280x720` 则图片必须是 1280×720)
* 不一致会返回 400:`Inpaint image must match the requested width and height`
* **建议先用 ffmpeg / Pillow 在本地裁切到目标尺寸再上传**
其它注意事项:
* Content-Type 必须是 `multipart/form-data`(不是 JSON)
* 仅支持 1 个文件,字段名固定 `input_reference`
* 接受格式:`image/jpeg` / `image/png` / `image/webp`
## 代码示例
### Python(OpenAI SDK 直连)
```python theme={null}
from openai import OpenAI
import time
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 第 1 步:提交(OpenAI SDK 用 input_reference 参数自动走 multipart)
with open("./reference.png", "rb") as f:
video = client.videos.create(
model="sora-2",
prompt="Animate this scene: gentle waves lapping against the shore, leaves swaying in the breeze",
seconds="8",
size="1280x720",
input_reference=f
)
print(f"Video ID: {video.id}, status: {video.status}")
# 第 2 步:轮询
while True:
video = client.videos.retrieve(video.id)
print(f"Status: {video.status}, progress: {getattr(video, 'progress', 0)}%")
if video.status == "completed":
break
if video.status == "failed":
raise RuntimeError(f"Generation failed: {video}")
time.sleep(15)
# 第 3 步:下载
client.videos.download_content(video.id).write_to_file("output.mp4")
print("Saved: output.mp4")
```
### Python(原生 requests + multipart)
```python theme={null}
import requests
import time
API_KEY = "sk-your-api-key"
BASE_URL = "https://api.apiyi.com/v1"
HEADERS = {"Authorization": f"Bearer {API_KEY}"}
# 第 1 步:multipart 上传(注意:image 分辨率必须等于 size)
with open("./reference.png", "rb") as f:
resp = requests.post(
f"{BASE_URL}/videos",
headers=HEADERS, # 不要手动加 Content-Type,requests 会自动处理 multipart 边界
data={
"model": "sora-2",
"prompt": "Animate this scene with cinematic camera push-in, soft golden hour lighting",
"seconds": "8",
"size": "1280x720"
},
files={
"input_reference": ("reference.png", f, "image/png")
},
timeout=60 # multipart 上传大图可能慢,超时建议 60 秒
).json()
video_id = resp["id"]
print(f"Video ID: {video_id}, status: {resp['status']}")
# 第 2 步:轮询
deadline = time.time() + 900
while time.time() < deadline:
status_resp = requests.get(f"{BASE_URL}/videos/{video_id}", headers=HEADERS).json()
print(f"Status: {status_resp['status']}, progress: {status_resp.get('progress', 0)}%")
if status_resp["status"] == "completed":
break
if status_resp["status"] == "failed":
raise RuntimeError(f"Generation failed: {status_resp}")
time.sleep(15)
# 第 3 步:下载
with requests.get(f"{BASE_URL}/videos/{video_id}/content", headers=HEADERS, stream=True) as r:
r.raise_for_status()
with open("output.mp4", "wb") as f:
for chunk in r.iter_content(chunk_size=8192):
f.write(chunk)
print("Saved: output.mp4")
```
### cURL
```bash theme={null}
{/* 第 1 步:multipart 上传 + 提交任务 */}
curl -X POST "https://api.apiyi.com/v1/videos" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=sora-2" \
-F "prompt=Animate this scene: gentle waves lapping, leaves swaying, cinematic" \
-F "seconds=8" \
-F "size=1280x720" \
-F "input_reference=@./reference.png;type=image/png"
{/* 第 2 步:轮询 */}
curl -X GET "https://api.apiyi.com/v1/videos/video_abc123" \
-H "Authorization: Bearer sk-your-api-key"
{/* 第 3 步:下载 */}
curl -X GET "https://api.apiyi.com/v1/videos/video_abc123/content" \
-H "Authorization: Bearer sk-your-api-key" \
-o output.mp4
```
### Node.js(原生 fetch + FormData)
```javascript theme={null}
import fs from 'node:fs';
import { fileFromPath } from 'formdata-node/file-from-path';
import { FormData } from 'formdata-node';
const API_KEY = 'sk-your-api-key';
const BASE_URL = 'https://api.apiyi.com/v1';
// 第 1 步:multipart 上传
const form = new FormData();
form.set('model', 'sora-2');
form.set('prompt', 'Animate this scene with cinematic camera push-in, soft lighting');
form.set('seconds', '8');
form.set('size', '1280x720');
form.set('input_reference', await fileFromPath('./reference.png'));
const submitResp = await fetch(`${BASE_URL}/videos`, {
method: 'POST',
headers: { 'Authorization': `Bearer ${API_KEY}` }, // 不要手动加 Content-Type
body: form
});
const { id: videoId } = await submitResp.json();
console.log(`Video ID: ${videoId}`);
// 第 2 步:轮询
let status = 'queued';
while (status !== 'completed' && status !== 'failed') {
await new Promise(r => setTimeout(r, 15000));
const data = await (await fetch(`${BASE_URL}/videos/${videoId}`, {
headers: { 'Authorization': `Bearer ${API_KEY}` }
})).json();
status = data.status;
console.log(`Status: ${status}, progress: ${data.progress ?? 0}%`);
}
if (status === 'failed') throw new Error('Generation failed');
// 第 3 步:下载
const contentResp = await fetch(`${BASE_URL}/videos/${videoId}/content`, {
headers: { 'Authorization': `Bearer ${API_KEY}` }
});
fs.writeFileSync('output.mp4', Buffer.from(await contentResp.arrayBuffer()));
console.log('Saved: output.mp4');
```
### 浏览器 JavaScript
```javascript theme={null}
{/* 仅作演示,生产请走后端代理避免 Key 泄露 */}
const fileInput = document.getElementById('refImage'); //
const file = fileInput.files[0];
const form = new FormData();
form.append('model', 'sora-2');
form.append('prompt', 'Animate this scene, gentle motion');
form.append('seconds', '4');
form.append('size', '1280x720');
form.append('input_reference', file);
const submitResp = await fetch('https://api.apiyi.com/v1/videos', {
method: 'POST',
headers: { 'Authorization': 'Bearer sk-your-api-key' },
body: form
});
const { id } = await submitResp.json();
console.log('Video ID:', id);
{/* 轮询完成后,建议把视频 URL 交给后端代理处理,避免大文件直接在浏览器下载 */}
```
## 参数说明速查
| 参数 | 类型 | 必填 | 默认 | 说明 |
| ----------------- | ------ | -- | ---------- | ----------------------------------------------------------------- |
| `model` | string | 是 | — | `sora-2`(720p 标准)或 `sora-2-pro`(720p / 1024p / 1080p 多档) |
| `prompt` | string | 是 | — | 视频描述提示词,建议描述"如何让画面动起来"(镜头运动、物体动作、光线变化) |
| `seconds` | string | 否 | `"4"` | 视频时长,**字符串枚举**:`"4"` / `"8"` / `"12"` |
| `size` | string | 否 | `720x1280` | 输出分辨率,**必须与 `input_reference` 图片像素完全一致** |
| `input_reference` | file | 是 | — | 参考图文件,`image/jpeg` / `image/png` / `image/webp`,**像素必须等于 `size`** |
详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明。**`input_reference` 字段必须通过 multipart 文件上传**,不接受 URL 或 base64。
## 参考图准备建议
根据用途先选 `size`:竖屏 `720x1280`、横屏 `1280x720`、Pro 1080p 横屏 `1920x1080` 等。
用 Pillow / ffmpeg 把图片裁切到目标尺寸:
```python theme={null}
from PIL import Image
img = Image.open("source.jpg")
img = img.resize((1280, 720), Image.LANCZOS) # 或先 crop 再 resize 保留比例
img.save("reference.png")
```
或 ffmpeg 一行:
```bash theme={null}
ffmpeg -i source.jpg -vf "scale=1280:720" reference.png
```
优先 PNG(无损,适合插画 / 截图),照片类用 JPEG 节省体积,需要透明通道用 WebP。
参考图已经定了画面,prompt 应该重点描述**如何让它动起来**:镜头推拉、物体运动、光线变化、人物表情等。例:`"Camera slowly pushes in, leaves gently swaying, sunlight flickering through branches"`。
## 响应格式
响应结构与 [文生视频](/api-capabilities/sora-2/text-to-video#响应格式) **完全相同**:提交返回 `id` + `status: "queued"`,轮询返回进度,完成后通过 `/v1/videos/{id}/content` 下载 MP4。
```json theme={null}
{
"id": "video_abc123def456",
"object": "video",
"model": "sora-2",
"status": "queued",
"progress": 0,
"created_at": 1712697600,
"size": "1280x720",
"seconds": "8",
"quality": "standard"
}
```
**⚠️ 常见 400 错误**
* `Inpaint image must match the requested width and height` —— 参考图像素与 `size` 不一致,**最常见**。客户端做好上传前的尺寸校验
* `Invalid file format` —— 上传的不是 jpeg / png / webp,或文件损坏
* `Missing required parameter: input_reference` —— multipart 字段名拼错(必须是 `input_reference`,不是 `image` 或 `reference`)
* `seconds must be one of "4", "8", "12"` —— 传了数字 `4` 而非字符串 `"4"`
图生视频与文生视频**单价相同**(按 `seconds` 计费),并不会因为多上传了一张参考图额外收费。详见 [概览页定价表](/api-capabilities/sora-2/overview#模型定价)。
# Sora 2 视频生成
Source: https://docs.apiyi.com/api-capabilities/sora-2/overview
OpenAI Sora 2 / Sora 2 Pro 官转视频生成模型完整指南,文生视频 + 图生视频统一异步端点,支持 4 / 8 / 12 秒、720p / 1024p / 1080p 多档分辨率。
## 概述
**Sora 2** 是 OpenAI 推出的旗舰视频生成模型系列,**视频与音频联动生成**:根据文本提示词或参考图片输出 4–12 秒的高保真视频片段,自带同步音轨。API易 通过 **官方透明转发(官转)通道** 直连 OpenAI 官方 `/v1/videos` 端点,请求和响应字段与官方完全一致。
**🎬 核心亮点**:官方 API 透明转发 + 同步音视频生成 + 4 / 8 / 12 秒灵活时长 + 标准(720p)/ 高清(1024p)/ 全高清(1080p,仅 Pro)三档分辨率。**适合广告短片、电商视频素材、社交媒体短视频、产品演示** 等需要稳定画质 + 精准指令遵循的生产场景。
`POST /v1/videos`,纯文本提示词生成视频,JSON 请求体,最简单的入口。
`POST /v1/videos` + multipart 上传 `input_reference`,让静态图片动起来。
## 为什么选 API易 的 Sora 2 官转
对标 OpenAI 官方通道,针对企业生产场景在 **稳定性**、**接入门槛**、**成本** 三方面做了深度优化:
透明转发到 OpenAI 官方 `/v1/videos`,无中间处理、无协议绕行风险。请求和响应行为与官方一致,**无需关心 OpenAI 账号 Tier、风控波动**,企业可放心走生产。
批量出片、活动短视频、广告素材生产等高并发场景下可线性扩容,不受官方账号 Tier 限制。**默认即可投递,按需扩容**。
默认按秒单价与 OpenAI 官方一致,叠加 [充值加赠活动](/faq/recharge-promotions) 实际成本进一步下降。失败请求不计费。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,省去为 OpenAI 配置出海链路的麻烦。
端点路径 `/v1/videos` 与 OpenAI 完全一致,OpenAI 官方 SDK 把 `base_url` 指过来即可调用,参数与字段名一一对齐。
团队深耕视频生成场景,在 prompt 工程、分辨率选型、批量生产、视频后处理等场景具备丰富经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 核心特性
Sora 2 系列原生输出**带同步音轨的视频**(环境音、对话、配乐),无需后期单独配音。
`sora-2` 支持 720p(720×1280 / 1280×720);`sora-2-pro` 额外支持 1024p、1080p 高清档位,最高 1920×1080。
按秒计费,按需选择短片长度。8 秒为最常用档位,平衡画质连贯性和成本。
官方 Sora 2 在镜头运动、物体物理、人物表情等细节上的指令遵循能力领先同档模型。
上传一张图片作为视频起始帧,让静态画面"动起来"。详见 [图生视频](/api-capabilities/sora-2/image-to-video)。
提交后返回 `video_id`,轮询状态、独立下载视频,便于批量管理和断点续传。
`base_url=https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 调用,完全兼容。
异步模式下,生成失败、内容审核拦截、服务过载等错误均**不计费**。
## 模型定价
按 **视频时长(秒)** 计费,与 OpenAI 官方同价。`sora-2-pro` 按分辨率分三档单价。
### `sora-2`(标准版)
| 分辨率 | 单价 | 4 秒 | 8 秒 | 12 秒 |
| ----------------------- | -------- | ------ | ------ | ------ |
| `720x1280` / `1280x720` | \$0.10/秒 | \$0.40 | \$0.80 | \$1.20 |
### `sora-2-pro`(专业版)
| 分辨率 | 单价 | 4 秒 | 8 秒 | 12 秒 |
| ------------------------- | -------- | ------ | ------ | ------ |
| `720x1280` / `1280x720` | \$0.30/秒 | \$1.20 | \$2.40 | \$3.60 |
| `1024x1792` / `1792x1024` | \$0.50/秒 | \$2.00 | \$4.00 | \$6.00 |
| `1080x1920` / `1920x1080` | \$0.70/秒 | \$2.80 | \$5.60 | \$8.40 |
**计费说明**:
* 按 **实际生成视频秒数** 计费(`seconds` 参数 × 单价),与 prompt 长度、是否传 `input_reference` 无关
* 异步模式下生成失败 / 内容审核拦截 / 服务过载错误**均不计费**
* 请求需走 **按量计费** 模式(在 API易 控制台 API Key 设置中切换),按次计费分组无法路由到官转通道
* 充值加赠政策见 [充值加赠活动](/faq/recharge-promotions)
## 分组介绍
Sora 2 官转走专属分组 `Sora2Official`(1x),**令牌必须满足两个条件**才能成功路由:
1. **计费模式**:选「按量优先」(即按量计费)—— 按次计费的令牌无法路由到官转通道
2. **分组**:必须包含 `Sora2Official`
两种推荐配置方式,按业务隔离需要选:
| 配置 | 适用场景 | 配法 |
| ------------- | ----------------------------------- | ----------------------------------------------------------------------------------------------------------------- |
| **A. 一把令牌通用** | 同一令牌还要调用其它常规模型(GPT / Claude / 图像 等) | 主分组保留 `Default`(或你常用的分组),**兜底分组**填 `Sora2Official`——非 Sora 请求走主分组,调 `sora-2` / `sora-2-pro` 时自动落到 `Sora2Official` |
| **B. 专用令牌** | 视频业务独立、需要独立账单与额度管控 | 新建一把令牌,**只勾选 `Sora2Official` 分组**,专用于 Sora 2 调用 |
生产视频业务推荐 **B(专用令牌)**:账单清晰、便于控量与额度告警。A 适合单人开发或低频调用场景。
## 技术规格
| 维度 | sora-2 | sora-2-pro |
| -------------------------- | ---------------------------------------------------------------- | ------------------------------------------------------------------------------- |
| **Model ID** | `sora-2` | `sora-2-pro` |
| **当前 snapshot** | `sora-2-2025-12-08` | 与别名同步 |
| **官方 deprecated snapshot** | `sora-2-2025-10-06` | — |
| **支持分辨率** | `720x1280` / `1280x720` | `720x1280` / `1280x720` / `1024x1792` / `1792x1024` / `1080x1920` / `1920x1080` |
| **支持时长(seconds)** | `4` / `8` / `12` | `4` / `8` / `12` |
| **音轨** | ✅ 同步音视频 | ✅ 同步音视频 |
| **图生视频(input\_reference)** | ✅ | ✅ |
| **典型生成耗时** | 3–5 分钟 | 5–10 分钟 |
| **视频存储时效** | 1 天 | 1 天 |
| **响应字段** | `id` / `status` / `progress` / 视频通过 `/v1/videos/{id}/content` 下载 | 同 |
## 端点一览
| 端点 | 方法 | 用途 | Content-Type |
| ------------------------------- | ---- | --------------------- | ------------------------------------------ |
| `/v1/videos` | POST | 提交视频生成任务(支持文生视频与图生视频) | `application/json` 或 `multipart/form-data` |
| `/v1/videos/{video_id}` | GET | 查询任务状态和进度 | — |
| `/v1/videos/{video_id}/content` | GET | 下载已生成的视频文件 | — |
**域名选择**:主域名 `api.apiyi.com`,也可使用 `vip.apiyi.com` / `b.apiyi.com` 等其它网关域名,响应行为一致。
## 关键参数详解
### `seconds`(视频时长)
仅支持三档枚举值,**字符串类型**(不是数字):
| 值 | 含义 | 适用场景 |
| ------ | ------- | --------------- |
| `"4"` | 4 秒(默认) | 短演示、表情包、单镜头 |
| `"8"` | 8 秒 | 标准短视频,社媒分享、广告片段 |
| `"12"` | 12 秒 | 长镜头、连续动作、剧情片段 |
`seconds` 必须传**字符串** `"4"` / `"8"` / `"12"`,传数字 `4` 或其它值(如 `"10"` / `"15"`)会返回 400 错误。
### `size`(输出分辨率)
`sora-2` 与 `sora-2-pro` 支持的档位不同:
| 档位 | 像素 | sora-2 | sora-2-pro |
| ------- | ----------- | ------ | ----------- |
| 720p 竖 | `720x1280` | ✅ | ✅(\$0.30/秒) |
| 720p 横 | `1280x720` | ✅ | ✅(\$0.30/秒) |
| 1024p 竖 | `1024x1792` | ❌ | ✅(\$0.50/秒) |
| 1024p 横 | `1792x1024` | ❌ | ✅(\$0.50/秒) |
| 1080p 竖 | `1080x1920` | ❌ | ✅(\$0.70/秒) |
| 1080p 横 | `1920x1080` | ❌ | ✅(\$0.70/秒) |
* 给 `sora-2` 传 1024p / 1080p 的 size 会返回 400
* 实际渲染的 sora-2 720p 视频垂直方向像素为 **704**(而非 720),是 OpenAI 官方的实际表现,不影响显示
* **使用 `input_reference` 图生视频时,参考图片分辨率必须与 `size` 完全一致**,否则报错 `Inpaint image must match the requested width and height`
## 最佳实践
* **追求性价比** → `sora-2`(仅 720p,\$0.10/秒,单条 4 秒成本 \$0.40)
* **要 1080p 全高清 / 强指令遵循** → `sora-2-pro`(最高 \$0.70/秒,支持 1920×1080)
* **试水 / 内部演示** → `sora-2` 4 秒起步
每个 prompt 先用 `seconds: "4"` 快速验证镜头方向、风格是否符合预期(耗时 ≈ 3 分钟、单价 \$0.40),定型后再放大到 8 / 12 秒。
在 API易 控制台 API Key 设置中切换到 **按量计费**,并选择 **Sora2官转** 分组。按次计费分组无法路由到官转通道。
官转通道**仅支持异步模式**:先 POST 提交拿 `video_id`,再每 10–30 秒轮询 `/v1/videos/{id}` 直到 `status: "completed"`,最后从 `/v1/videos/{id}/content` 下载。
POST 提交本身只是入队,**不会**阻塞到生成完成。但走 multipart 上传 `input_reference` 时,大图上传会拉长建连时间,超时建议 30 秒起步。
视频在 OpenAI 上**仅保留 1 天**,过期后 `/content` 端点会 404。生产场景务必拿到 `completed` 后立即落地到自己的 OSS / CDN。
上传 `input_reference` 时,提前用本地 ffmpeg/PIL 把图片裁切到目标 `size`(如 `1280x720`),避免 400 报错浪费一次提交。
## 错误码与重试
| 状态码 | 含义 | 处理建议 |
| ----------- | ------------------------------------------------------------ | ----------------------------------- |
| `400` | 参数非法(seconds 不在 4/8/12、size 不支持、input\_reference 与 size 不匹配) | 校验参数;图片提前裁切到目标分辨率 |
| `401` | 令牌无效 | 检查 Bearer Token 与分组配置(必须 `Sora2官转`) |
| `403` | 内容审核拦截 / 计费模式错误 | 调整 prompt;确认 API Key 走"按量计费" |
| `429` | 限流 / 余额不足 | 指数退避重试;充值后立即可用 |
| `5xx` | 网关 / 上游错误 | 异步任务重试 1–2 次(不计费) |
| 任务 `failed` | 视频生成失败(多为内容审核或上游容量) | 调整 prompt 重试;**该任务不计费** |
**建议客户端**:
* POST 提交超时 **30 秒**(multipart 上传可能更慢)
* GET 轮询间隔 **10–30 秒**,最长等待 **15 分钟**(Pro 1080p 12 秒可能 8–10 分钟)
* 对 5xx 与任务 `failed` 做 **指数退避重试**(建议 2 次)
* 记录响应头 `x-request-id` 方便排查
## 常见问题
**官转(本页)**:直接转发到 OpenAI 官方 `/v1/videos`,请求/响应字段与官方一致,按秒计费、稳定性 99.99%、需要按量计费分组。
**官逆**:通过逆向工程实现的 Sora 2 接口,按次计费、价格更便宜但受 OpenAI 风控影响。**截至 2026 年 1 月 OpenAI 政策调整后,免费账号被关闭,目前 API易 仅保留官转通道。** 如有特殊需求请联系商务。
官转通道按 **OpenAI 实际秒数** 结算,与"按次"不是同一个计费维度。在 API易 控制台把 API Key 切到 **按量计费** + **Sora2官转 分组** 才能走通这条链路;按次计费分组的请求会直接 403。
OpenAI 官方 `/v1/videos` 本身就是**异步任务式**端点,没有 SSE 或 WebSocket 流式。生成 4 秒视频通常 3–5 分钟,12 秒可达 8–10 分钟,同步等待会让 HTTP 连接长时间挂起,反而不稳定。建议永远走 POST → 轮询 → 下载 三步。
OpenAI 官方目前只开放 `"4"` / `"8"` / `"12"` 三个枚举字符串值。10 / 15 是早期官逆通道的非官方时长,**官转通道不支持**。如果你的脚本写的是 `"10"`,改成 `"8"` 或 `"12"` 即可。
是。OpenAI 官方在最近的更新里把 `sora-2-pro` 的分辨率扩展到 `1080x1920` / `1920x1080` 全高清档位,对应单价 \$0.70/秒。原来的 720p (\$0.30) 和 1024p (\$0.50) 两档单价不变。本页定价表已同步官方最新口径。
视频在 OpenAI 服务器上**只保留 1 天**,过期后 `/v1/videos/{id}/content` 会返回 404 / 410。生产场景务必拿到 `status: "completed"` 后立即下载并落地到自己的 OSS / CDN。
**不会**。异步任务进入 `failed` 状态、内容审核拦截、服务过载、参数错误等情况均不计费。**只有任务真正进入 `completed` 状态、产出视频文件后才按秒计费**。
可以。OpenAI Python SDK 1.50+ 已支持 `videos` 命名空间。把 `base_url` 指向 `https://api.apiyi.com/v1` 即可:
```python theme={null}
from openai import OpenAI
client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1")
video = client.videos.create(
model="sora-2",
prompt="A golden retriever running on the beach at sunset",
seconds="8",
size="1280x720"
)
print(video.id, video.status)
```
不接受。`input_reference` 是 **multipart/form-data 文件上传字段**(接受 `image/jpeg` / `image/png` / `image/webp`),需要走 multipart 请求。如果图片在 base64,先 decode 写到临时文件再上传。详见 [图生视频](/api-capabilities/sora-2/image-to-video)。
**目前不支持**。Sora 2 / Pro 默认输出带同步音轨的视频(环境音、对话、配乐),官方未开放禁用音轨的参数。如需纯视频,下载后用 ffmpeg `-an` 剥离即可。
**不支持**。OpenAI 官方 `/v1/videos` 没有提供 cancel 端点,任务一旦提交会跑完。建议先用 `seconds: "4"` 试水 prompt,确认风格再放大时长,避免长任务跑废。
遵循 OpenAI 官方账号 Tier 限制,但通过 API易 网关聚合后默认无明显瓶颈。**企业批量需求**(>10 并发、单日 >100 条)请联系商务申请独立资源池。
可以。每次 POST `/v1/videos` 返回独立的 `video_id`,多任务并发提交、独立轮询。建议客户端用任务队列管理 video\_id 列表,避免轮询风暴。
## 相关文档
* [文生视频 Playground](/api-capabilities/sora-2/text-to-video) - `POST /v1/videos`(JSON)在线调试,5 段语言代码示例
* [图生视频 Playground](/api-capabilities/sora-2/image-to-video) - `POST /v1/videos`(multipart)+ `input_reference` 用法详解
* [充值加赠活动](/faq/recharge-promotions) - 加赠最高档位与适用渠道
* [API 使用手册](/api-manual) - 通用调用规范、超时与重试建议
* OpenAI 官方模型页:`platform.openai.com/docs/models/sora-2`
* OpenAI 官方接口文档:`platform.openai.com/docs/api-reference/videos/create`
Sora 2 系列是 API易 通过官方授权 Plus 级账号池实现的稳定官转服务。响应字段、错误码、计费维度与 OpenAI 官方完全一致,便于无缝对接已有代码。如有问题或建议,欢迎在控制台工单中反馈。
# 文生视频 API 参考
Source: https://docs.apiyi.com/api-capabilities/sora-2/text-to-video
api-reference/sora-2-text-to-video-openapi.yaml POST /v1/videos
Sora 2 文生视频 API 参考与在线调试 — JSON 请求体、异步任务三步流程、4/8/12 秒灵活时长。
右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择 model / size / seconds 后一键发送即可。
**场景说明**:本页用于「纯文本提示词生成视频」——不传 `input_reference`、走 `application/json` 请求体。如需基于一张参考图生成视频(图生视频),请使用 [图生视频接口](/api-capabilities/sora-2/image-to-video)(同一端点 + `input_reference` 文件上传)。
**⚠️ 三步异步流程,本页只覆盖第一步(提交)**
* **第 1 步(本页)**:`POST /v1/videos` → 返回 `video_id` + `status: "queued"`
* **第 2 步**:`GET /v1/videos/{video_id}` 轮询,直到 `status: "completed"`
* **第 3 步**:`GET /v1/videos/{video_id}/content` 下载 MP4 文件
POST 提交本身耗时秒级,**不会**等到视频生成完成。完整流程见下方 Python 代码示例。
## 代码示例
### Python(OpenAI SDK 直连)
```python theme={null}
from openai import OpenAI
import time
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 第 1 步:提交生成任务
video = client.videos.create(
model="sora-2",
prompt="A golden retriever running on the beach at sunset, cinematic, golden hour, slow motion",
seconds="8",
size="1280x720"
)
print(f"Video ID: {video.id}, status: {video.status}")
# 第 2 步:轮询状态
while True:
video = client.videos.retrieve(video.id)
print(f"Status: {video.status}, progress: {getattr(video, 'progress', 0)}%")
if video.status == "completed":
break
if video.status == "failed":
raise RuntimeError(f"Generation failed: {video}")
time.sleep(15)
# 第 3 步:下载视频
content = client.videos.download_content(video.id)
content.write_to_file("output.mp4")
print("Saved: output.mp4")
```
### Python(原生 requests)
```python theme={null}
import requests
import time
API_KEY = "sk-your-api-key"
BASE_URL = "https://api.apiyi.com/v1"
HEADERS = {"Authorization": f"Bearer {API_KEY}"}
# 第 1 步:提交(JSON 请求体)
resp = requests.post(
f"{BASE_URL}/videos",
headers={**HEADERS, "Content-Type": "application/json"},
json={
"model": "sora-2",
"prompt": "A serene Japanese garden with cherry blossoms, koi pond, traditional bridge, golden hour, ultra detailed",
"seconds": "8",
"size": "1280x720"
},
timeout=30 # POST 提交本身只是入队,30 秒足够
).json()
video_id = resp["id"]
print(f"Video ID: {video_id}, status: {resp['status']}")
# 第 2 步:轮询(最长等 15 分钟)
deadline = time.time() + 900
while time.time() < deadline:
status_resp = requests.get(f"{BASE_URL}/videos/{video_id}", headers=HEADERS).json()
print(f"Status: {status_resp['status']}, progress: {status_resp.get('progress', 0)}%")
if status_resp["status"] == "completed":
break
if status_resp["status"] == "failed":
raise RuntimeError(f"Generation failed: {status_resp}")
time.sleep(15)
# 第 3 步:下载
with requests.get(f"{BASE_URL}/videos/{video_id}/content", headers=HEADERS, stream=True) as r:
r.raise_for_status()
with open("output.mp4", "wb") as f:
for chunk in r.iter_content(chunk_size=8192):
f.write(chunk)
print("Saved: output.mp4")
```
### cURL
```bash theme={null}
{/* 第 1 步:提交任务 */}
curl -X POST "https://api.apiyi.com/v1/videos" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "sora-2",
"prompt": "A futuristic cityscape at night with neon lights and flying vehicles, cyberpunk style, cinematic",
"seconds": "8",
"size": "1280x720"
}'
{/* 第 2 步:轮询状态(替换 video_id)*/}
curl -X GET "https://api.apiyi.com/v1/videos/video_abc123" \
-H "Authorization: Bearer sk-your-api-key"
{/* 第 3 步:下载视频文件 */}
curl -X GET "https://api.apiyi.com/v1/videos/video_abc123/content" \
-H "Authorization: Bearer sk-your-api-key" \
-o output.mp4
```
### Node.js(原生 fetch)
```javascript theme={null}
import fs from 'node:fs';
const API_KEY = 'sk-your-api-key';
const BASE_URL = 'https://api.apiyi.com/v1';
// 第 1 步:提交
const submitResp = await fetch(`${BASE_URL}/videos`, {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': `Bearer ${API_KEY}`
},
body: JSON.stringify({
model: 'sora-2',
prompt: 'Aerial drone shot over snowy mountain range at sunrise, cinematic, ultra wide',
seconds: '8',
size: '1280x720'
})
});
const { id: videoId } = await submitResp.json();
console.log(`Video ID: ${videoId}`);
// 第 2 步:轮询
let status = 'queued';
while (status !== 'completed' && status !== 'failed') {
await new Promise(r => setTimeout(r, 15000));
const statusResp = await fetch(`${BASE_URL}/videos/${videoId}`, {
headers: { 'Authorization': `Bearer ${API_KEY}` }
});
const data = await statusResp.json();
status = data.status;
console.log(`Status: ${status}, progress: ${data.progress ?? 0}%`);
}
if (status === 'failed') throw new Error('Generation failed');
// 第 3 步:下载
const contentResp = await fetch(`${BASE_URL}/videos/${videoId}/content`, {
headers: { 'Authorization': `Bearer ${API_KEY}` }
});
const buffer = Buffer.from(await contentResp.arrayBuffer());
fs.writeFileSync('output.mp4', buffer);
console.log('Saved: output.mp4');
```
### 浏览器 JavaScript
```javascript theme={null}
{/* 仅作演示,生产请走后端代理避免 Key 泄露;视频文件较大也不适合直接在浏览器下载 */}
const submitResp = await fetch('https://api.apiyi.com/v1/videos', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-your-api-key'
},
body: JSON.stringify({
model: 'sora-2',
prompt: 'Watercolor northern lights over snowy mountains, gentle motion',
seconds: '4',
size: '720x1280'
})
});
const { id } = await submitResp.json();
console.log('Video ID:', id);
{/* 轮询状态后,把视频 URL 交给后端代理下载,再回流给前端展示 */}
```
## 参数说明速查
| 参数 | 类型 | 必填 | 默认 | 说明 |
| --------- | ------ | -- | ---------- | -------------------------------------------------------------------- |
| `model` | string | 是 | — | `sora-2`(720p 标准)或 `sora-2-pro`(720p / 1024p / 1080p 多档) |
| `prompt` | string | 是 | — | 视频描述提示词,建议详细描述场景、镜头运动、风格、光线 |
| `seconds` | string | 否 | `"4"` | 视频时长,**字符串枚举**:`"4"` / `"8"` / `"12"`(**不是数字**) |
| `size` | string | 否 | `720x1280` | 输出分辨率,需匹配模型支持档位(见 [概览页技术规格](/api-capabilities/sora-2/overview#技术规格)) |
详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。**图生视频相关参数(`input_reference` 文件上传)见 [图生视频接口](/api-capabilities/sora-2/image-to-video)**。
## 响应格式
### 第 1 步 - 提交后立即返回
```json theme={null}
{
"id": "video_abc123def456",
"object": "video",
"model": "sora-2",
"status": "queued",
"progress": 0,
"created_at": 1712697600,
"size": "1280x720",
"seconds": "8",
"quality": "standard"
}
```
### 第 2 步 - 轮询返回(生成中)
```json theme={null}
{
"id": "video_abc123def456",
"object": "video",
"model": "sora-2",
"status": "in_progress",
"progress": 45,
"created_at": 1712697600,
"size": "1280x720",
"seconds": "8"
}
```
### 第 2 步 - 轮询返回(完成)
```json theme={null}
{
"id": "video_abc123def456",
"object": "video",
"model": "sora-2",
"status": "completed",
"progress": 100,
"created_at": 1712697600,
"completed_at": 1712697900,
"size": "1280x720",
"seconds": "8"
}
```
**⚠️ 响应字段陷阱**
* **没有直接的 `video_url` 字段** —— 视频文件需要通过 `GET /v1/videos/{id}/content` 端点单独下载(返回 `video/mp4` 二进制流),**不要**期待响应里直接出现一个 CDN 链接
* `progress` 字段在不同生成阶段会跳变(如 0 → 45 → 80 → 100),不是严格线性的
* `status: "failed"` 时不一定带详细 `error` 字段,多见于内容审核或服务过载,**直接重试或调整 prompt** 即可
* 视频内容在 OpenAI 上**只保留 1 天**,过期后 `/content` 返回 404
本端点是异步任务式入口,**计费在生成完成时按 `seconds` 单价结算**(见 [概览页定价表](/api-capabilities/sora-2/overview#模型定价))。POST 提交、轮询查询、视频下载本身**不计费**,失败任务也**不计费**。
# 文本向量化(Embedding)
Source: https://docs.apiyi.com/api-capabilities/text-embedding
使用 OpenAI Embedding 模型将文本转换为高维向量,支持知识库检索、语义搜索、文本相似度计算等应用场景
API易 提供业界领先的文本向量化(Embedding)能力,使用 OpenAI 的 Embedding 模型将文本转换为高维向量表示。这是构建智能知识库、语义搜索、RAG(检索增强生成)系统的核心技术,具有超高并发能力和极低的使用成本。
**🔍 文本向量化核心能力**
将文本转换为数值向量,捕捉语义信息,实现高效的语义检索、相似度计算和智能推荐。
## 🌟 核心特性
* **🎯 OpenAI 顶级模型**:text-embedding-3-large、text-embedding-3-small、text-embedding-ada-002
* **⚡ 超高并发**:支持大规模并发请求,适合企业级应用
* **💰 极低成本**:按量付费,价格低至 \$0.02/百万 tokens
* **🔧 简单易用**:兼容 OpenAI API 格式,无缝集成
* **📊 高质量向量**:捕捉深层语义,检索准确度高
## 📋 支持的 Embedding 模型
| 模型名称 | 模型 ID | 向量维度 | 价格 | 推荐场景 |
| ---------------------------- | ------------------------ | ------ | ---------------- | ---------- |
| **text-embedding-3-large** | `text-embedding-3-large` | 3072 维 | \$0.13/1M tokens | 高精度语义检索 |
| **text-embedding-3-small** ⭐ | `text-embedding-3-small` | 1536 维 | \$0.02/1M tokens | 通用场景,性价比最高 |
| **text-embedding-ada-002** | `text-embedding-ada-002` | 1536 维 | \$0.10/1M tokens | 经典模型,兼容性好 |
**模型选择建议**:
* **高精度需求**:使用 text-embedding-3-large,适合专业知识库、法律文档等场景
* **通用场景**:推荐 text-embedding-3-small,性价比最高,适合大多数应用
* **兼容性优先**:使用 text-embedding-ada-002,与旧版本完全兼容
## 🚀 快速开始
### 1. 最简单示例 - 使用 curl 命令
```bash theme={null}
curl https://api.apiyi.com/v1/embeddings \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"input": "人工智能正在改变世界",
"model": "text-embedding-3-small"
}'
```
```json theme={null}
{
"object": "list",
"data": [
{
"object": "embedding",
"index": 0,
"embedding": [
-0.006929283,
-0.005336422,
0.024047505,
-0.01407986,
...
]
}
],
"model": "text-embedding-3-small",
"usage": {
"prompt_tokens": 5,
"total_tokens": 5
}
}
```
### 2. 基础示例 - 使用 OpenAI SDK
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
def get_embedding(text, model="text-embedding-3-small"):
"""获取文本的向量表示"""
response = client.embeddings.create(
input=text,
model=model
)
return response.data[0].embedding
# 使用示例
text = "人工智能正在改变世界"
embedding = get_embedding(text)
print(f"向量维度: {len(embedding)}")
print(f"向量前5个值: {embedding[:5]}")
```
### 3. 批量文本向量化
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
def batch_get_embeddings(texts, model="text-embedding-3-small"):
"""批量获取文本向量"""
response = client.embeddings.create(
input=texts,
model=model
)
return [item.embedding for item in response.data]
# 批量处理
texts = [
"机器学习是人工智能的核心技术",
"深度学习推动了AI的发展",
"自然语言处理让机器理解人类语言",
"计算机视觉让机器看懂图像"
]
embeddings = batch_get_embeddings(texts)
print(f"成功向量化 {len(embeddings)} 条文本")
```
### 4. 使用 requests 库
```python theme={null}
import requests
def get_embedding_with_requests(text, model="text-embedding-3-small"):
"""使用 requests 库获取向量"""
url = "https://api.apiyi.com/v1/embeddings"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": model,
"input": text
}
response = requests.post(url, headers=headers, json=payload)
if response.status_code == 200:
data = response.json()
return data['data'][0]['embedding']
else:
print(f"错误: {response.status_code} - {response.text}")
return None
# 使用示例
embedding = get_embedding_with_requests("人工智能技术")
print(f"向量维度: {len(embedding)}")
```
## 🎯 典型应用场景
### 1. 语义搜索引擎
```python theme={null}
import numpy as np
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
def cosine_similarity(a, b):
"""计算余弦相似度"""
return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b))
def semantic_search(query, documents, top_k=3):
"""语义搜索"""
# 获取查询和文档的向量
all_texts = [query] + documents
response = client.embeddings.create(
input=all_texts,
model="text-embedding-3-small"
)
embeddings = [item.embedding for item in response.data]
query_embedding = embeddings[0]
doc_embeddings = embeddings[1:]
# 计算相似度
similarities = [
cosine_similarity(query_embedding, doc_emb)
for doc_emb in doc_embeddings
]
# 排序并返回最相关的文档
ranked_indices = np.argsort(similarities)[::-1][:top_k]
results = [
{
"document": documents[i],
"similarity": similarities[i]
}
for i in ranked_indices
]
return results
# 使用示例
documents = [
"Python是一种高级编程语言",
"机器学习需要大量数据",
"深度学习是AI的重要分支",
"JavaScript用于网页开发"
]
query = "人工智能和机器学习"
results = semantic_search(query, documents)
for i, result in enumerate(results, 1):
print(f"{i}. {result['document']} (相似度: {result['similarity']:.4f})")
```
### 2. 构建向量数据库
```python theme={null}
import numpy as np
import json
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
class SimpleVectorDB:
"""简单的向量数据库实现"""
def __init__(self, model="text-embedding-3-small"):
self.model = model
self.documents = []
self.embeddings = []
def add_documents(self, docs):
"""添加文档到向量库"""
# 获取向量
response = client.embeddings.create(
input=docs,
model=self.model
)
embeddings = [item.embedding for item in response.data]
self.documents.extend(docs)
self.embeddings.extend(embeddings)
print(f"已添加 {len(docs)} 条文档到向量库")
def search(self, query, top_k=5):
"""搜索最相关的文档"""
# 获取查询向量
response = client.embeddings.create(
input=query,
model=self.model
)
query_embedding = response.data[0].embedding
# 计算相似度
similarities = []
for doc_embedding in self.embeddings:
sim = np.dot(query_embedding, doc_embedding) / (
np.linalg.norm(query_embedding) * np.linalg.norm(doc_embedding)
)
similarities.append(sim)
# 排序
ranked_indices = np.argsort(similarities)[::-1][:top_k]
return [
{
"document": self.documents[i],
"similarity": similarities[i]
}
for i in ranked_indices
]
def save(self, filepath):
"""保存向量库到文件"""
data = {
"documents": self.documents,
"embeddings": self.embeddings,
"model": self.model
}
with open(filepath, 'w', encoding='utf-8') as f:
json.dump(data, f, ensure_ascii=False)
def load(self, filepath):
"""从文件加载向量库"""
with open(filepath, 'r', encoding='utf-8') as f:
data = json.load(f)
self.documents = data['documents']
self.embeddings = data['embeddings']
self.model = data['model']
# 使用示例
db = SimpleVectorDB()
# 添加知识库文档
knowledge_base = [
"机器学习是让计算机从数据中学习的技术",
"深度学习使用多层神经网络处理复杂模式",
"自然语言处理帮助计算机理解人类语言",
"强化学习通过奖励机制训练智能体"
]
db.add_documents(knowledge_base)
# 搜索
results = db.search("什么是深度学习?", top_k=2)
for result in results:
print(f"相似度 {result['similarity']:.4f}: {result['document']}")
```
### 3. 文本去重和聚类
```python theme={null}
import numpy as np
from sklearn.cluster import KMeans
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
def deduplicate_texts(texts, threshold=0.95):
"""基于向量相似度去重"""
# 获取所有文本的向量
response = client.embeddings.create(
input=texts,
model="text-embedding-3-small"
)
embeddings = np.array([item.embedding for item in response.data])
# 计算相似度矩阵
unique_indices = [0] # 保留第一个
for i in range(1, len(texts)):
is_duplicate = False
for j in unique_indices:
similarity = np.dot(embeddings[i], embeddings[j]) / (
np.linalg.norm(embeddings[i]) * np.linalg.norm(embeddings[j])
)
if similarity > threshold:
is_duplicate = True
break
if not is_duplicate:
unique_indices.append(i)
return [texts[i] for i in unique_indices]
def cluster_texts(texts, n_clusters=3):
"""文本聚类"""
# 获取向量
response = client.embeddings.create(
input=texts,
model="text-embedding-3-small"
)
embeddings = np.array([item.embedding for item in response.data])
# K-means 聚类
kmeans = KMeans(n_clusters=n_clusters, random_state=42)
labels = kmeans.fit_predict(embeddings)
# 组织结果
clusters = {i: [] for i in range(n_clusters)}
for text, label in zip(texts, labels):
clusters[label].append(text)
return clusters
# 使用示例 - 去重
texts_with_duplicates = [
"人工智能正在改变世界",
"AI技术正在改变我们的世界", # 语义相似
"机器学习是AI的核心",
"深度学习推动AI发展"
]
unique_texts = deduplicate_texts(texts_with_duplicates, threshold=0.9)
print(f"去重后剩余 {len(unique_texts)} 条文本")
# 使用示例 - 聚类
texts_to_cluster = [
"Python编程语言",
"机器学习算法",
"Java开发框架",
"深度学习模型",
"JavaScript前端开发",
"神经网络训练"
]
clusters = cluster_texts(texts_to_cluster, n_clusters=2)
for cluster_id, cluster_texts in clusters.items():
print(f"\n聚类 {cluster_id}:")
for text in cluster_texts:
print(f" - {text}")
```
### 4. RAG(检索增强生成)系统
```python theme={null}
from openai import OpenAI
import numpy as np
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
class RAGSystem:
"""简单的 RAG 系统实现"""
def __init__(self):
self.knowledge_base = []
self.embeddings = []
def add_knowledge(self, documents):
"""添加知识到知识库"""
response = client.embeddings.create(
input=documents,
model="text-embedding-3-small"
)
embeddings = [item.embedding for item in response.data]
self.knowledge_base.extend(documents)
self.embeddings.extend(embeddings)
def retrieve(self, query, top_k=3):
"""检索相关文档"""
# 获取查询向量
response = client.embeddings.create(
input=query,
model="text-embedding-3-small"
)
query_embedding = response.data[0].embedding
# 计算相似度
similarities = [
np.dot(query_embedding, doc_emb) / (
np.linalg.norm(query_embedding) * np.linalg.norm(doc_emb)
)
for doc_emb in self.embeddings
]
# 获取最相关的文档
top_indices = np.argsort(similarities)[::-1][:top_k]
return [self.knowledge_base[i] for i in top_indices]
def generate_answer(self, question):
"""生成答案"""
# 检索相关知识
relevant_docs = self.retrieve(question, top_k=3)
# 构建 prompt
context = "\n".join(relevant_docs)
prompt = f"""基于以下知识回答问题:
知识库内容:
{context}
问题:{question}
请基于上述知识给出准确的回答:"""
# 生成回答
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": prompt}
],
temperature=0.3
)
return response.choices[0].message.content
# 使用示例
rag = RAGSystem()
# 添加知识库
knowledge = [
"GPT-4 是 OpenAI 开发的大型语言模型,具有强大的理解和生成能力。",
"Claude 是 Anthropic 开发的 AI 助手,注重安全性和有用性。",
"Gemini 是 Google 开发的多模态 AI 模型,支持文本、图像和视频。",
"LLaMA 是 Meta 开发的开源大语言模型系列。"
]
rag.add_knowledge(knowledge)
# 提问并生成答案
question = "GPT-4 是谁开发的?"
answer = rag.generate_answer(question)
print(f"问题: {question}")
print(f"答案: {answer}")
```
### 5. 推荐系统
```python theme={null}
import numpy as np
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
class ContentRecommender:
"""基于内容的推荐系统"""
def __init__(self):
self.items = []
self.embeddings = []
def add_items(self, items):
"""添加物品(标题、描述等)"""
response = client.embeddings.create(
input=items,
model="text-embedding-3-small"
)
embeddings = [item.embedding for item in response.data]
self.items.extend(items)
self.embeddings.extend(embeddings)
def recommend(self, user_preference, top_k=5):
"""基于用户偏好推荐"""
# 获取用户偏好向量
response = client.embeddings.create(
input=user_preference,
model="text-embedding-3-small"
)
pref_embedding = response.data[0].embedding
# 计算相似度
similarities = [
np.dot(pref_embedding, item_emb) / (
np.linalg.norm(pref_embedding) * np.linalg.norm(item_emb)
)
for item_emb in self.embeddings
]
# 排序推荐
top_indices = np.argsort(similarities)[::-1][:top_k]
return [
{
"item": self.items[i],
"score": similarities[i]
}
for i in top_indices
]
# 使用示例
recommender = ContentRecommender()
# 添加商品
products = [
"MacBook Pro M3 专业笔记本电脑 高性能办公",
"iPhone 15 Pro 智能手机 拍照摄影",
"AirPods Pro 无线降噪耳机",
"iPad Air 平板电脑 娱乐学习",
"ThinkPad X1 商务笔记本 办公利器"
]
recommender.add_items(products)
# 推荐
user_pref = "我想买一台用于编程和办公的笔记本电脑"
recommendations = recommender.recommend(user_pref, top_k=3)
print(f"用户需求: {user_pref}\n")
print("推荐商品:")
for i, rec in enumerate(recommendations, 1):
print(f"{i}. {rec['item']} (匹配度: {rec['score']:.4f})")
```
## 💡 最佳实践
### 1. 文本预处理
```python theme={null}
import re
def preprocess_text(text):
"""文本预处理"""
# 去除多余空白
text = re.sub(r'\s+', ' ', text)
# 去除特殊字符(可选)
# text = re.sub(r'[^\w\s]', '', text)
# 转小写(可选,取决于场景)
# text = text.lower()
return text.strip()
# 长文本分块
def chunk_text(text, max_tokens=500, overlap=50):
"""将长文本分割成小块"""
words = text.split()
chunks = []
for i in range(0, len(words), max_tokens - overlap):
chunk = ' '.join(words[i:i + max_tokens])
chunks.append(chunk)
return chunks
# 使用示例
long_text = """这是一段很长的文本..."""
chunks = chunk_text(long_text, max_tokens=200)
# 为每个分块获取向量
embeddings = batch_get_embeddings(chunks)
```
### 2. 缓存机制
```python theme={null}
import hashlib
import pickle
import os
class EmbeddingCache:
"""向量缓存系统"""
def __init__(self, cache_dir="./embedding_cache"):
self.cache_dir = cache_dir
os.makedirs(cache_dir, exist_ok=True)
def _get_cache_key(self, text, model):
"""生成缓存键"""
content = f"{text}_{model}"
return hashlib.md5(content.encode()).hexdigest()
def get(self, text, model):
"""获取缓存的向量"""
cache_key = self._get_cache_key(text, model)
cache_file = os.path.join(self.cache_dir, f"{cache_key}.pkl")
if os.path.exists(cache_file):
with open(cache_file, 'rb') as f:
return pickle.load(f)
return None
def set(self, text, model, embedding):
"""保存向量到缓存"""
cache_key = self._get_cache_key(text, model)
cache_file = os.path.join(self.cache_dir, f"{cache_key}.pkl")
with open(cache_file, 'wb') as f:
pickle.dump(embedding, f)
def clear(self):
"""清空缓存"""
for file in os.listdir(self.cache_dir):
os.remove(os.path.join(self.cache_dir, file))
# 使用缓存的向量获取函数
cache = EmbeddingCache()
def get_embedding_cached(text, model="text-embedding-3-small"):
"""带缓存的向量获取"""
# 尝试从缓存获取
cached = cache.get(text, model)
if cached is not None:
return cached
# 调用 API
response = client.embeddings.create(input=text, model=model)
embedding = response.data[0].embedding
# 保存到缓存
cache.set(text, model, embedding)
return embedding
```
### 3. 错误处理和重试
```python theme={null}
import time
from openai import OpenAI
def get_embedding_with_retry(text, model="text-embedding-3-small", max_retries=3):
"""带重试机制的向量获取"""
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
for attempt in range(max_retries):
try:
response = client.embeddings.create(
input=text,
model=model
)
return response.data[0].embedding
except Exception as e:
print(f"尝试 {attempt + 1}/{max_retries} 失败: {e}")
if attempt < max_retries - 1:
time.sleep(2 ** attempt) # 指数退避
else:
raise
return None
```
### 4. 批处理优化
```python theme={null}
def batch_process_large_dataset(texts, batch_size=100, model="text-embedding-3-small"):
"""大数据集批量处理"""
all_embeddings = []
for i in range(0, len(texts), batch_size):
batch = texts[i:i + batch_size]
print(f"处理批次 {i//batch_size + 1}/{(len(texts)-1)//batch_size + 1}")
try:
response = client.embeddings.create(
input=batch,
model=model
)
embeddings = [item.embedding for item in response.data]
all_embeddings.extend(embeddings)
# 避免速率限制
time.sleep(0.1)
except Exception as e:
print(f"批次处理失败: {e}")
# 可以选择重试或跳过
return all_embeddings
```
## 🔧 高级技巧
### 1. 多语言支持
```python theme={null}
# OpenAI Embedding 模型天然支持多语言
multilingual_texts = [
"人工智能改变世界", # 中文
"AI is changing the world", # 英文
"L'IA change le monde", # 法文
"AIが世界を変える" # 日文
]
embeddings = batch_get_embeddings(multilingual_texts)
# 可以跨语言计算相似度
sim = cosine_similarity(embeddings[0], embeddings[1])
print(f"中英文相似度: {sim:.4f}")
```
### 2. 维度归一化
```python theme={null}
import numpy as np
def normalize_embedding(embedding):
"""L2 归一化"""
norm = np.linalg.norm(embedding)
return embedding / norm if norm > 0 else embedding
# 归一化后可以直接用点积计算余弦相似度
emb1_normalized = normalize_embedding(embedding1)
emb2_normalized = normalize_embedding(embedding2)
similarity = np.dot(emb1_normalized, emb2_normalized)
```
### 3. 使用不同维度
```python theme={null}
# text-embedding-3-large 支持自定义维度
response = client.embeddings.create(
input="示例文本",
model="text-embedding-3-large",
dimensions=1024 # 可以指定维度,最大 3072
)
# 更小的维度可以节省存储和计算成本
```
## 📊 性能对比
| 特性 | text-embedding-3-large | text-embedding-3-small | text-embedding-ada-002 |
| ---- | ---------------------- | ---------------------- | ---------------------- |
| 向量维度 | 3072 | 1536 | 1536 |
| 准确度 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ |
| 速度 | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 价格 | \$0.13/1M tokens | \$0.02/1M tokens | \$0.10/1M tokens |
| 推荐场景 | 高精度检索 | 通用场景 | 兼容旧版 |
## 💰 成本优化建议
1. **选择合适的模型**
* 通用场景使用 text-embedding-3-small(最便宜)
* 高精度需求才使用 text-embedding-3-large
2. **批量处理**
* 尽量批量发送请求,减少网络开销
* 单次请求最多支持数千条文本
3. **缓存策略**
* 对重复文本使用缓存,避免重复计算
* 存储向量结果,减少 API 调用
4. **文本预处理**
* 去除无用信息,减少 token 消耗
* 合理分块,避免超长文本
## 🚨 注意事项
1. **文本长度**:单个文本不要超过模型的 token 限制(通常 8191 tokens)
2. **批量限制**:单次请求建议不超过 2048 条文本
3. **速率限制**:注意 API 的速率限制,必要时添加延迟
4. **向量存储**:合理选择向量数据库(如 Pinecone、Milvus、Weaviate)
5. **相似度计算**:推荐使用余弦相似度,效果最好
## 🔗 相关资源
* [完整代码示例](https://github.com/apiyi-api/ai-api-code-samples)
* [API 定价说明](https://api.apiyi.com/account/pricing)
* [向量数据库选型指南](/wiki/infrastructure/vector-database-selection)
💡 **小贴士**:Embedding 是构建智能应用的基础能力。推荐从 text-embedding-3-small 开始,它在性能和成本之间达到了最佳平衡。对于企业级应用,建议结合专业的向量数据库(如 Pinecone、Milvus)使用。
# 文本生成(对话补全)
Source: https://docs.apiyi.com/api-capabilities/text-generation
使用大语言模型进行对话补全,支持单轮对话、多轮对话、角色扮演等多种文本生成场景
## 功能概述
文本生成(Chat Completions)是 API易平台最核心的能力之一,支持调用 200+ 热门 AI 大模型进行智能对话和文本生成。通过统一的 OpenAI 兼容接口,你可以轻松实现:
* **智能对话**:构建聊天机器人、虚拟助手
* **内容创作**:文章写作、创意生成、文案润色
* **代码辅助**:代码生成、调试、重构建议
* **知识问答**:回答问题、知识检索、信息提取
* **角色扮演**:定制化 AI 角色、场景模拟
支持 OpenAI GPT-4、Claude、Gemini、DeepSeek、Qwen 等 200+ 主流大模型,一个 API Key 调用所有模型。
## 快速开始
### 基础对话示例
使用 Chat Completions API 进行简单的单轮对话:
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "user", "content": "介绍一下人工智能的发展历程"}
]
)
print(response.choices[0].message.content)
```
### 多轮对话示例
通过 `messages` 数组维护对话历史,实现上下文连贯的多轮对话:
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
messages = [
{"role": "system", "content": "你是一个专业的 Python 编程助手"},
{"role": "user", "content": "如何读取 CSV 文件?"},
{"role": "assistant", "content": "可以使用 pandas 库的 read_csv() 函数..."},
{"role": "user", "content": "那如何过滤特定列的数据?"}
]
response = client.chat.completions.create(
model="gpt-4o",
messages=messages
)
print(response.choices[0].message.content)
```
## 核心参数详解
### model(必填)
指定要使用的模型名称,详见 [模型信息](/api-capabilities/model-info) 页面。
```python theme={null}
model="gpt-4o" # GPT-4 Omni
model="claude-sonnet-4.5" # Claude Sonnet 4.5
model="gemini-3-pro-preview" # Gemini 3 Pro
model="deepseek-chat" # DeepSeek Chat
```
### messages(必填)
对话消息数组,每条消息包含 `role` 和 `content` 字段:
系统提示,定义 AI 的行为和角色
用户消息,代表用户的输入
助手消息,代表 AI 的回复
```python theme={null}
messages = [
{"role": "system", "content": "你是一个友好的客服助手"},
{"role": "user", "content": "我想咨询退款问题"},
{"role": "assistant", "content": "好的,请问您遇到了什么问题?"},
{"role": "user", "content": "商品有质量问题"}
]
```
### temperature(可选)
控制输出的随机性,范围 `0.0 ~ 2.0`,默认 `1.0`:
* **0.0 \~ 0.3**:输出更确定、一致,适合事实性任务(翻译、总结、代码生成)
* **0.7 \~ 1.0**:平衡创造性和准确性,适合日常对话
* **1.0 \~ 2.0**:输出更有创意、多样性,适合创意写作、头脑风暴
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "写一首关于春天的诗"}],
temperature=1.2 # 提高创造性
)
```
### max\_tokens(可选)
限制生成的最大 token 数量,用于控制成本和响应长度:
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "用一句话介绍 AI"}],
max_tokens=50 # 限制输出长度
)
```
不同模型的 token 计费标准不同,详见 [定价说明](/pricing) 页面。
### top\_p(可选)
核采样参数,范围 `0.0 ~ 1.0`,控制输出的多样性:
* 较低的值(如 `0.5`):输出更聚焦、确定
* 较高的值(如 `0.9`):输出更多样、随机
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "推荐一些科幻电影"}],
top_p=0.8
)
```
通常建议只调整 `temperature` 或 `top_p` 其中之一,避免同时使用。
### stream(可选)
启用流式输出,逐 token 返回结果,提升用户体验:
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "写一篇关于人工智能的文章"}],
stream=True
)
for chunk in response:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
```
详见 [流式输出](/wiki/applications/streaming-output) 文档。
## 高级用法
### 系统提示(System Prompt)
通过 `system` 角色定义 AI 的行为、角色、知识范围和回复风格:
```python theme={null}
messages = [
{
"role": "system",
"content": """你是一个专业的法律顾问助手。
规则:
1. 提供准确、专业的法律建议
2. 使用通俗易懂的语言解释法律术语
3. 必要时引用相关法律条文
4. 避免给出绝对性的结论,建议咨询专业律师
5. 保持中立、客观的立场"""
},
{"role": "user", "content": "请问劳动合同可以随时解除吗?"}
]
```
### 角色扮演
创建具有特定性格和专业领域的 AI 助手:
```python theme={null}
messages = [
{
"role": "system",
"content": "你是一位资深的 Python 开发者,拥有 10 年经验。你擅长用简洁的代码解决问题,喜欢使用 Pythonic 的写法,并且会主动指出代码中的潜在问题。"
},
{"role": "user", "content": "帮我写一个快速排序算法"}
]
```
### 上下文管理
对于长对话,需要合理管理上下文长度,避免超过模型的 token 限制:
```python theme={null}
def manage_context(messages, max_history=10):
"""保留最近的对话历史"""
# 保留 system 消息
system_messages = [m for m in messages if m["role"] == "system"]
# 保留最近的 N 条对话
recent_messages = messages[-max_history:]
return system_messages + recent_messages
# 使用示例
messages = manage_context(messages, max_history=10)
response = client.chat.completions.create(
model="gpt-4o",
messages=messages
)
```
### JSON 模式输出
某些模型支持强制输出 JSON 格式:
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "你是一个数据提取助手,始终以 JSON 格式返回结果"},
{"role": "user", "content": "提取这段文本的关键信息:张三,男,30岁,软件工程师"}
],
response_format={"type": "json_object"}
)
import json
result = json.loads(response.choices[0].message.content)
print(result)
```
## 最佳实践
### 1. 选择合适的模型
根据任务需求选择性价比最优的模型:
| 任务类型 | 推荐模型 | 说明 |
| ----- | ----------------------------------------------- | -------- |
| 日常对话 | gpt-4o-mini, deepseek-chat | 成本低,响应快 |
| 复杂推理 | gpt-4o, claude-sonnet-4.5, gemini-3-pro-preview | 能力强,准确度高 |
| 代码生成 | gpt-4o, deepseek-coder, claude-sonnet-4.5 | 专业性强 |
| 创意写作 | claude-sonnet-4.5, gpt-4o | 文笔流畅 |
| 多语言翻译 | gemini-3-pro-preview, gpt-4o | 支持语言多 |
### 2. 优化提示词(Prompt)
好的提示词能显著提升输出质量:
清楚说明需要 AI 做什么,提供必要的上下文
明确输出格式、长度、语气等要求
给出输入输出示例,帮助 AI 理解期望
复杂任务拆分成多个步骤,逐步完成
```python theme={null}
# ❌ 不好的提示词
"写一篇文章"
# ✅ 好的提示词
"""请写一篇关于人工智能在医疗领域应用的科普文章。
要求:
- 长度:800-1000 字
- 受众:普通读者
- 结构:引言、应用场景、案例分析、未来展望
- 语气:专业但易懂
- 包含 2-3 个真实案例"""
```
### 3. 控制成本
合理使用参数降低 API 调用成本:
```python theme={null}
# 设置 max_tokens 限制输出长度
response = client.chat.completions.create(
model="gpt-4o-mini", # 使用性价比更高的模型
messages=messages,
max_tokens=500, # 限制最大输出
temperature=0.7
)
{/* 定期清理对话历史 */}
if len(messages) > 20:
messages = messages[-10:] # 只保留最近 10 条
```
### 4. 错误处理
添加异常处理,提升应用稳定性:
```python theme={null}
from openai import OpenAI, OpenAIError
import time
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
def chat_with_retry(messages, max_retries=3):
"""带重试机制的聊天函数"""
for attempt in range(max_retries):
try:
response = client.chat.completions.create(
model="gpt-4o",
messages=messages
)
return response.choices[0].message.content
except OpenAIError as e:
if attempt < max_retries - 1:
time.sleep(2 ** attempt) # 指数退避
continue
else:
raise
# 使用示例
try:
result = chat_with_retry(messages)
print(result)
except OpenAIError as e:
print(f"API 调用失败:{e}")
```
详见 [错误处理](/wiki/applications/error-handling) 文档。
### 5. 使用流式输出
对于长文本生成,建议使用流式输出提升用户体验:
```python theme={null}
def stream_chat(messages):
"""流式输出示例"""
response = client.chat.completions.create(
model="gpt-4o",
messages=messages,
stream=True
)
full_response = ""
for chunk in response:
if chunk.choices[0].delta.content:
content = chunk.choices[0].delta.content
print(content, end="", flush=True)
full_response += content
return full_response
```
## 常见问题
### 如何计算 token 数量?
不同模型的 tokenizer 不同,建议使用 `tiktoken` 库估算:
```python theme={null}
import tiktoken
def count_tokens(text, model="gpt-4o"):
"""估算文本的 token 数量"""
encoding = tiktoken.encoding_for_model(model)
return len(encoding.encode(text))
# 使用示例
text = "你好,世界!"
tokens = count_tokens(text)
print(f"Token 数量:{tokens}")
```
### 为什么输出被截断了?
可能的原因:
1. 达到了 `max_tokens` 限制
2. 模型的上下文窗口不足
3. 触发了内容安全策略
解决方法:
* 增加 `max_tokens` 参数
* 选择支持更长上下文的模型
* 检查 `finish_reason` 字段判断原因
```python theme={null}
response = client.chat.completions.create(
model="gpt-4o",
messages=messages,
max_tokens=2000 # 增加输出长度限制
)
finish_reason = response.choices[0].finish_reason
if finish_reason == "length":
print("输出因长度限制被截断")
elif finish_reason == "content_filter":
print("输出因内容安全被过滤")
```
### 如何实现对话记忆?
在应用层维护对话历史:
```python theme={null}
class ChatSession:
def __init__(self, system_prompt=""):
self.messages = []
if system_prompt:
self.messages.append({"role": "system", "content": system_prompt})
def chat(self, user_message):
"""发送消息并记录对话"""
self.messages.append({"role": "user", "content": user_message})
response = client.chat.completions.create(
model="gpt-4o",
messages=self.messages
)
assistant_message = response.choices[0].message.content
self.messages.append({"role": "assistant", "content": assistant_message})
return assistant_message
# 使用示例
session = ChatSession(system_prompt="你是一个友好的助手")
print(session.chat("你好"))
print(session.chat("我刚才说了什么?")) # AI 可以记住上下文
```
## 相关文档
查看支持的所有模型及定价
将文本转换为向量表示
实现打字机效果的流式响应
处理 API 调用异常
# 文本审核(Moderation)
Source: https://docs.apiyi.com/api-capabilities/text-moderation
使用 AI 模型检测文本内容是否包含违规、有害、不适当内容,保障平台内容安全
## 功能概述
文本审核(Moderation)API 基于先进的 AI 模型,能够自动检测和识别文本内容中的潜在风险,帮助你构建安全、合规的应用程序。
支持 OpenAI Moderation 模型及其他主流内容审核模型,准确率高,响应速度快。
### 主要能力
识别暴力、色情、仇恨等违规内容
检测自残、骚扰、欺诈等有害信息
支持中文、英文等多语言内容审核
提供详细的违规类别和置信度评分
## 快速开始
### 基础调用示例
使用 Moderation API 检测文本内容是否违规:
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
response = client.moderations.create(
model="omni-moderation-latest",
input="这是一段需要检测的文本内容"
)
result = response.results[0]
if result.flagged:
print("⚠️ 检测到违规内容")
print(f"违规类别:{result.categories}")
else:
print("✅ 内容安全")
```
### 批量检测示例
一次性检测多段文本:
```python theme={null}
texts = [
"这是第一段文本",
"这是第二段文本",
"这是第三段文本"
]
response = client.moderations.create(
model="omni-moderation-latest",
input=texts
)
for i, result in enumerate(response.results):
print(f"文本 {i+1}:{'违规' if result.flagged else '安全'}")
```
## 审核类别
### OpenAI Moderation 支持的类别
| 类别 | 说明 | 示例 |
| ------------------------ | ------- | ----------------- |
| `hate` | 仇恨言论 | 基于种族、性别、宗教等的歧视性内容 |
| `hate/threatening` | 威胁性仇恨言论 | 包含暴力威胁的仇恨内容 |
| `harassment` | 骚扰 | 侮辱、嘲讽、人身攻击 |
| `harassment/threatening` | 威胁性骚扰 | 包含威胁的骚扰内容 |
| `self-harm` | 自残 | 鼓励、美化自残行为 |
| `self-harm/intent` | 自残意图 | 表达自残意图的内容 |
| `self-harm/instructions` | 自残指导 | 提供自残方法的内容 |
| `sexual` | 性相关内容 | 成人内容、色情描述 |
| `sexual/minors` | 未成年性内容 | 涉及未成年人的性相关内容 |
| `violence` | 暴力 | 暴力行为、血腥场面 |
| `violence/graphic` | 血腥暴力 | 详细的暴力、血腥描述 |
不同模型支持的审核类别可能有所不同,请根据实际需求选择合适的模型。
## 返回结果详解
### 响应结构
```json theme={null}
{
"id": "modr-xxxxx",
"model": "omni-moderation-latest",
"results": [
{
"flagged": true,
"categories": {
"hate": false,
"hate/threatening": false,
"harassment": false,
"harassment/threatening": false,
"self-harm": false,
"self-harm/intent": false,
"self-harm/instructions": false,
"sexual": false,
"sexual/minors": false,
"violence": true,
"violence/graphic": false
},
"category_scores": {
"hate": 0.0001,
"hate/threatening": 0.0001,
"harassment": 0.0002,
"harassment/threatening": 0.0001,
"self-harm": 0.0001,
"self-harm/intent": 0.0001,
"self-harm/instructions": 0.0001,
"sexual": 0.0001,
"sexual/minors": 0.0001,
"violence": 0.9876,
"violence/graphic": 0.1234
}
}
]
}
```
### 字段说明
布尔值,是否检测到违规内容
各类别的二元判断结果
各类别的置信度评分(0-1)
## 集成示例
### 聊天内容审核
在聊天应用中集成内容审核:
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
def moderate_message(user_message):
"""审核用户消息"""
# 1. 先审核内容
moderation = client.moderations.create(
model="omni-moderation-latest",
input=user_message
)
result = moderation.results[0]
# 2. 如果违规,拒绝处理
if result.flagged:
violated_categories = [
category for category, flagged in result.categories.items()
if flagged
]
return {
"success": False,
"error": f"检测到违规内容:{', '.join(violated_categories)}",
"message": "您的消息包含不适当内容,请修改后重试"
}
# 3. 内容安全,继续处理
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": user_message}]
)
return {
"success": True,
"reply": response.choices[0].message.content
}
# 使用示例
user_input = "帮我写一篇关于人工智能的文章"
result = moderate_message(user_input)
if result["success"]:
print(result["reply"])
else:
print(result["message"])
```
### UGC(用户生成内容)过滤
在论坛、评论区等场景过滤用户内容:
```python theme={null}
def review_ugc(content):
"""审核用户生成内容"""
moderation = client.moderations.create(
model="omni-moderation-latest",
input=content
)
result = moderation.results[0]
if not result.flagged:
return {"status": "approved", "action": "发布"}
# 分析违规严重程度
max_score = max(result.category_scores.values())
if max_score > 0.9:
return {"status": "rejected", "action": "拒绝发布"}
elif max_score > 0.7:
return {"status": "pending", "action": "人工复审"}
else:
return {"status": "approved_with_warning", "action": "发布并标记"}
# 使用示例
ugc_content = "这是一条用户评论..."
review_result = review_ugc(ugc_content)
print(f"审核结果:{review_result['action']}")
```
### AI 生成内容审核
对 AI 生成的内容进行二次审核:
```python theme={null}
def generate_safe_content(prompt):
"""生成内容并审核"""
# 1. 先审核用户输入
input_moderation = client.moderations.create(
model="omni-moderation-latest",
input=prompt
)
if input_moderation.results[0].flagged:
return "您的请求包含不适当内容,无法处理"
# 2. 生成内容
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": prompt}]
)
generated_content = response.choices[0].message.content
# 3. 审核生成的内容
output_moderation = client.moderations.create(
model="omni-moderation-latest",
input=generated_content
)
if output_moderation.results[0].flagged:
return "生成的内容不符合安全规范,已被过滤"
return generated_content
# 使用示例
result = generate_safe_content("写一个儿童故事")
print(result)
```
## 高级用法
### 自定义审核阈值
根据业务需求调整审核严格程度:
```python theme={null}
def custom_moderation(text, threshold=0.5):
"""自定义审核阈值"""
moderation = client.moderations.create(
model="omni-moderation-latest",
input=text
)
result = moderation.results[0]
# 使用自定义阈值判断
flagged_categories = []
for category, score in result.category_scores.items():
if score > threshold:
flagged_categories.append({
"category": category,
"score": score,
"severity": "high" if score > 0.8 else "medium"
})
return {
"flagged": len(flagged_categories) > 0,
"violations": flagged_categories
}
# 使用示例
result = custom_moderation("这是测试文本", threshold=0.3)
if result["flagged"]:
for violation in result["violations"]:
print(f"{violation['category']}: {violation['score']:.2f} ({violation['severity']})")
```
### 审核日志记录
记录审核历史,用于分析和改进:
```python theme={null}
import json
from datetime import datetime
def moderate_with_logging(text, user_id=None):
"""带日志记录的审核"""
moderation = client.moderations.create(
model="omni-moderation-latest",
input=text
)
result = moderation.results[0]
# 记录审核日志
log_entry = {
"timestamp": datetime.now().isoformat(),
"user_id": user_id,
"text_length": len(text),
"flagged": result.flagged,
"categories": {k: v for k, v in result.categories.items() if v},
"max_score": max(result.category_scores.values())
}
# 保存到日志文件
with open("moderation_logs.jsonl", "a") as f:
f.write(json.dumps(log_entry, ensure_ascii=False) + "\n")
return result.flagged
# 使用示例
is_flagged = moderate_with_logging("测试文本", user_id="user_123")
```
### 多模型联合审核
结合多个审核模型提高准确性:
```python theme={null}
def multi_model_moderation(text):
"""使用多个模型进行审核"""
models = ["omni-moderation-latest", "text-moderation-stable"]
results = []
for model in models:
try:
moderation = client.moderations.create(
model=model,
input=text
)
results.append(moderation.results[0])
except Exception as e:
print(f"模型 {model} 调用失败:{e}")
# 如果任一模型判定为违规,则认为违规
flagged = any(r.flagged for r in results)
return {
"flagged": flagged,
"model_count": len(results),
"results": results
}
```
## 最佳实践
### 1. 双向审核
审核用户输入,防止恶意请求
审核 AI 生成内容,确保输出安全
```python theme={null}
def safe_chat(user_message):
"""双向审核的聊天"""
# 输入审核
if moderate_text(user_message):
return "您的消息包含不适当内容"
# 生成回复
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": user_message}]
)
reply = response.choices[0].message.content
# 输出审核
if moderate_text(reply):
return "AI 生成的内容未通过安全审核"
return reply
```
### 2. 异步审核
对于非实时场景,使用异步审核提升性能:
```python theme={null}
import asyncio
from openai import AsyncOpenAI
async_client = AsyncOpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
async def async_moderate(texts):
"""异步批量审核"""
tasks = [
async_client.moderations.create(
model="omni-moderation-latest",
input=text
)
for text in texts
]
results = await asyncio.gather(*tasks)
return [r.results[0].flagged for r in results]
# 使用示例
texts = ["文本1", "文本2", "文本3"]
flagged_list = asyncio.run(async_moderate(texts))
```
### 3. 缓存审核结果
对于相同内容,缓存审核结果减少 API 调用:
```python theme={null}
import hashlib
from functools import lru_cache
@lru_cache(maxsize=1000)
def cached_moderate(text_hash):
"""缓存审核结果"""
# 实际的审核逻辑
pass
def moderate_with_cache(text):
"""带缓存的审核"""
text_hash = hashlib.md5(text.encode()).hexdigest()
return cached_moderate(text_hash)
```
### 4. 分级处理
根据违规程度采取不同措施:
```python theme={null}
def handle_moderation_result(text, result):
"""分级处理审核结果"""
if not result.flagged:
return {"action": "allow", "message": "内容安全"}
max_score = max(result.category_scores.values())
if max_score > 0.95:
return {"action": "block", "message": "严重违规,直接拒绝"}
elif max_score > 0.8:
return {"action": "review", "message": "疑似违规,人工复审"}
elif max_score > 0.5:
return {"action": "warn", "message": "轻微违规,提示用户"}
else:
return {"action": "allow", "message": "可能误判,放行"}
```
## 常见问题
### 审核是否支持中文?
支持。OpenAI Moderation 和其他主流审核模型都支持中文内容审核,准确率与英文相当。
### 审核延迟是多少?
通常在 100-500ms 之间,具体取决于:
* 文本长度
* 模型选择
* 网络状况
### 如何处理误判?
建议采取分级策略:
1. 高置信度违规:直接拒绝
2. 中等置信度:人工复审
3. 低置信度:放行或提示
### 审核是否收费?
OpenAI Moderation API 目前免费,其他模型可能收费,详见 [定价说明](/pricing)。
### 可以审核图片和视频吗?
当前 Moderation API 主要针对文本内容。图片和视频审核需要使用专门的多模态审核模型。
## 相关文档
Chat Completions API 文档
平台内容安全政策
API 错误处理最佳实践
审核 API 定价详情
# 异步调用 API
Source: https://docs.apiyi.com/api-capabilities/veo/async-api
VEO 3.1 异步调用接口详解,适合批量处理场景
**异步调用说明:** 适合批量处理场景,提交任务后通过轮询获取结果。如需实时交互,请使用[同步调用方式](/api-capabilities/veo/quick-start)。
## 模型与定价
VEO 3.1 提供 8 种模型变体,命名规则如下:
* **基础名称**:`veo-3.1`
* **`-landscape`**:横屏模式 (1280x720),默认为竖屏 (720x1280)
* **`-fast`**:快速生成版本,速度更快、价格更低
* **`-fl`**:Frame-to-Video 模式,支持首尾帧转视频
| 模型名 | 描述 | 分辨率 | 价格 |
| --------------------------- | ------------ | ---------- | ------ |
| `veo-3.1` | 默认竖屏视频 | 720 x 1280 | \$0.25 |
| `veo-3.1-fl` | 竖屏+首尾帧转视频 | 720 x 1280 | \$0.25 |
| `veo-3.1-fast` | 竖屏+快速 | 720 x 1280 | \$0.15 |
| `veo-3.1-fast-fl` | 竖屏+快速+首尾帧转视频 | 720 x 1280 | \$0.15 |
| `veo-3.1-landscape` | 横屏视频 | 1280 x 720 | \$0.25 |
| `veo-3.1-landscape-fl` | 横屏+首尾帧转视频 | 1280 x 720 | \$0.25 |
| `veo-3.1-landscape-fast` | 横屏+快速 | 1280 x 720 | \$0.15 |
| `veo-3.1-landscape-fast-fl` | 横屏+快速+首尾帧转视频 | 1280 x 720 | \$0.15 |
**按成功计费:** 仅对成功生成的视频收费,生成失败不产生费用。所有模型生成的视频时长为 **8 秒**,自动包含音轨。
## API 端点
### 1. 创建视频任务
创建异步视频生成任务
**请求头**
```text theme={null}
Content-Type: application/json
Authorization: sk-APIKEY
```
**请求参数**
视频生成的文本描述
模型名称,如 `veo-3.1`、`veo-3.1-fast` 等
**请求示例**
```bash cURL theme={null}
curl --location --request POST 'https://api.apiyi.com/v1/videos' \
--header 'Authorization: sk-your-api-key' \
--header 'Content-Type: application/json' \
--data-raw '{
"prompt": "画小猫",
"model": "veo-3.1"
}'
```
```python Python theme={null}
import requests
url = "https://api.apiyi.com/v1/videos"
headers = {
"Content-Type": "application/json",
"Authorization": "sk-your-api-key"
}
data = {
"prompt": "画小猫",
"model": "veo-3.1"
}
response = requests.post(url, json=data, headers=headers)
print(response.json())
```
```javascript JavaScript theme={null}
const response = await fetch('https://api.apiyi.com/v1/videos', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'sk-your-api-key'
},
body: JSON.stringify({
prompt: '画小猫',
model: 'veo-3.1'
})
});
const data = await response.json();
console.log(data);
```
**响应示例**
```json theme={null}
{
"id": "video_abc123",
"object": "video",
"created": 1762181811,
"status": "queued",
"model": "veo-3.1"
}
```
### 2. 查询任务状态
查询视频生成任务的当前状态
**路径参数**
视频任务 ID(从创建接口返回)
**请求示例**
```bash cURL theme={null}
curl --location --request GET 'https://api.apiyi.com/v1/videos/video_abc123' \
--header 'Authorization: sk-your-api-key'
```
```python Python theme={null}
import requests
video_id = "video_abc123"
url = f"https://api.apiyi.com/v1/videos/{video_id}"
headers = {
"Authorization": "sk-your-api-key"
}
response = requests.get(url, headers=headers)
print(response.json())
```
```javascript JavaScript theme={null}
const videoId = 'video_abc123';
const response = await fetch(`https://api.apiyi.com/v1/videos/${videoId}`, {
headers: {
'Authorization': 'sk-your-api-key'
}
});
const data = await response.json();
console.log(data);
```
**状态说明**
| 状态 | 说明 | 下一步操作 |
| ------------ | ----- | -------- |
| `queued` | 任务排队中 | 继续轮询状态 |
| `processing` | 任务处理中 | 继续轮询状态 |
| `completed` | 生成完成 | 调用获取内容接口 |
| `failed` | 生成失败 | 检查错误信息 |
### 3. 获取视频内容
获取已生成视频的实际内容
**请求示例**
```bash cURL theme={null}
curl --location --request GET 'https://api.apiyi.com/v1/videos/video_abc123/content' \
--header 'Authorization: sk-your-api-key'
```
```python Python theme={null}
import requests
video_id = "video_abc123"
url = f"https://api.apiyi.com/v1/videos/{video_id}/content"
headers = {
"Authorization": "sk-your-api-key"
}
response = requests.get(url, headers=headers)
print(response.json())
```
```javascript JavaScript theme={null}
const videoId = 'video_abc123';
const response = await fetch(`https://api.apiyi.com/v1/videos/${videoId}/content`, {
headers: {
'Authorization': 'sk-your-api-key'
}
});
const data = await response.json();
console.log(data);
```
**响应示例**
```json theme={null}
{
"id": "video_abc123",
"object": "video",
"created": 1762181811,
"status": "completed",
"model": "veo-3.1",
"prompt": "画小猫",
"url": "https://veo-video.gptkey.asia/assets/flow/xxx.mp4",
"duration": 8,
"resolution": "720x1280"
}
```
视频 URL 有效期通常为 24 小时,建议及时下载保存。
## 完整调用流程
调用 `POST /v1/videos` 接口创建视频生成任务,获取 `video_id`
使用 `GET /v1/videos/{video_id}` 接口轮询任务状态(建议每 5-10 秒轮询一次),直到状态为 `completed`
调用 `GET /v1/videos/{video_id}/content` 接口获取视频 URL
从返回的 URL 下载视频文件并保存
## Python 完整示例
```python theme={null}
import requests
import time
class VEOClient:
"""VEO 3.1 异步调用客户端"""
def __init__(self, api_key: str, base_url: str = "https://api.apiyi.com"):
self.base_url = base_url
self.headers = {
"Content-Type": "application/json",
"Authorization": api_key
}
def create_video(self, prompt: str, model: str = "veo-3.1") -> str:
"""创建视频任务,返回 video_id"""
response = requests.post(
f"{self.base_url}/v1/videos",
headers=self.headers,
json={"prompt": prompt, "model": model}
)
response.raise_for_status()
return response.json()["id"]
def get_status(self, video_id: str) -> dict:
"""查询任务状态"""
response = requests.get(
f"{self.base_url}/v1/videos/{video_id}",
headers=self.headers
)
response.raise_for_status()
return response.json()
def get_content(self, video_id: str) -> dict:
"""获取视频内容"""
response = requests.get(
f"{self.base_url}/v1/videos/{video_id}/content",
headers=self.headers
)
response.raise_for_status()
return response.json()
def wait_for_completion(self, video_id: str, timeout: int = 600, interval: int = 5) -> dict:
"""等待任务完成"""
start_time = time.time()
while time.time() - start_time < timeout:
status_data = self.get_status(video_id)
status = status_data.get("status")
if status == "completed":
return self.get_content(video_id)
elif status == "failed":
raise Exception(f"视频生成失败: {status_data}")
print(f"任务进行中... 状态: {status}")
time.sleep(interval)
raise TimeoutError("等待超时")
# 使用示例
if __name__ == "__main__":
client = VEOClient("sk-your-api-key")
try:
# 1. 创建任务
video_id = client.create_video(
prompt="一只猫咪在阳光下的花园里漫步",
model="veo-3.1-fast"
)
print(f"任务已创建,ID: {video_id}")
# 2. 等待完成并获取结果
result = client.wait_for_completion(video_id)
print(f"视频生成成功!")
print(f"视频URL: {result['url']}")
print(f"分辨率: {result['resolution']}")
except Exception as e:
print(f"错误: {e}")
```
## 帧转视频模式
使用 `-fl` 后缀的模型支持首尾帧转视频功能,可以将静态图片转换为动态视频。
| 模式 | 图片数量 | 说明 |
| ----- | ---- | ------------------------ |
| 首帧模式 | 1 张 | 以图片作为视频开头,AI 自动续编后续内容 |
| 首尾帧模式 | 2 张 | 以第一张为开头、第二张为结尾,AI 生成中间过渡 |
### 请求参数
帧转视频请求需要使用 `multipart/form-data` 格式(不是 JSON),因为需要上传图片文件。
视频描述,建议描述画面如何运动(如「镜头缓慢推进」「人物向前走」)
必须使用 `-fl` 后缀的模型,如 `veo-3.1-fl`、`veo-3.1-landscape-fl` 等
图片文件。传 1 次为首帧模式,传 2 次为首尾帧模式
### 首帧模式示例(单图)
以一张图片作为视频开头,AI 自动生成后续画面。
```bash cURL theme={null}
curl --location --request POST 'https://api.apiyi.com/v1/videos' \
--header 'Authorization: sk-your-api-key' \
--form 'prompt="让这个画面动起来,镜头缓慢推进"' \
--form 'model="veo-3.1-landscape-fl"' \
--form 'input_reference=@"/path/to/image.jpg"'
```
```python Python theme={null}
import requests
url = "https://api.apiyi.com/v1/videos"
headers = {"Authorization": "sk-your-api-key"}
data = {
"prompt": "让这个画面动起来,镜头缓慢推进",
"model": "veo-3.1-landscape-fl"
}
# 单图模式 - 首帧
files = [
("input_reference", ("image.jpg", open("/path/to/image.jpg", "rb"), "image/jpeg"))
]
response = requests.post(url, headers=headers, data=data, files=files)
print(response.json())
```
```javascript JavaScript (Node.js) theme={null}
const FormData = require('form-data');
const fs = require('fs');
const form = new FormData();
form.append('prompt', '让这个画面动起来,镜头缓慢推进');
form.append('model', 'veo-3.1-landscape-fl');
form.append('input_reference', fs.createReadStream('/path/to/image.jpg'));
const response = await fetch('https://api.apiyi.com/v1/videos', {
method: 'POST',
headers: {
'Authorization': 'sk-your-api-key',
...form.getHeaders()
},
body: form
});
const data = await response.json();
console.log(data);
```
### 首尾帧模式示例(双图)
指定视频的开头和结尾画面,AI 生成中间的过渡动画。
```bash cURL theme={null}
curl --location --request POST 'https://api.apiyi.com/v1/videos' \
--header 'Authorization: sk-your-api-key' \
--form 'prompt="从白天过渡到夜晚,镜头保持不动"' \
--form 'model="veo-3.1-landscape-fl"' \
--form 'input_reference=@"/path/to/first-frame.jpg"' \
--form 'input_reference=@"/path/to/last-frame.jpg"'
```
```python Python theme={null}
import requests
url = "https://api.apiyi.com/v1/videos"
headers = {"Authorization": "sk-your-api-key"}
data = {
"prompt": "从白天过渡到夜晚,镜头保持不动",
"model": "veo-3.1-landscape-fl"
}
# 双图模式 - 首尾帧
files = [
("input_reference", ("first.jpg", open("/path/to/first-frame.jpg", "rb"), "image/jpeg")),
("input_reference", ("last.jpg", open("/path/to/last-frame.jpg", "rb"), "image/jpeg"))
]
response = requests.post(url, headers=headers, data=data, files=files)
print(response.json())
```
```javascript JavaScript (Node.js) theme={null}
const FormData = require('form-data');
const fs = require('fs');
const form = new FormData();
form.append('prompt', '从白天过渡到夜晚,镜头保持不动');
form.append('model', 'veo-3.1-landscape-fl');
form.append('input_reference', fs.createReadStream('/path/to/first-frame.jpg'));
form.append('input_reference', fs.createReadStream('/path/to/last-frame.jpg'));
const response = await fetch('https://api.apiyi.com/v1/videos', {
method: 'POST',
headers: {
'Authorization': 'sk-your-api-key',
...form.getHeaders()
},
body: form
});
const data = await response.json();
console.log(data);
```
### 响应与后续处理
帧转视频的响应格式与文生视频相同,返回 `video_id` 后需要轮询获取结果:
```json theme={null}
{
"id": "video_xyz789",
"object": "video",
"created": 1762181811,
"status": "queued",
"model": "veo-3.1-landscape-fl"
}
```
后续流程请参考上方的[完整调用流程](#完整调用流程)章节。
### 使用建议
* 让静态图片「动起来」
* 产品展示动画
* 人物照片生成动态视频
* 场景转换(白天→夜晚、四季变化)
* 表情变化动画
* 物体变形过渡
**提示词技巧**:使用帧转视频时,prompt 应描述「画面如何运动」而非「画面内容」。例如:「镜头缓慢推进」「人物转头微笑」「花朵逐渐绽放」。
## 错误处理
| 错误码 | 说明 | 解决方案 |
| ----------------- | -------- | ----------------- |
| `invalid_api_key` | API 密钥无效 | 检查 API 密钥是否正确 |
| `invalid_model` | 模型不存在 | 使用支持的模型名称 |
| `invalid_prompt` | 提示词无效 | 检查提示词长度和内容 |
| `video_not_found` | 视频任务不存在 | 检查 video\_id 是否正确 |
| `video_not_ready` | 视频尚未生成完成 | 继续轮询任务状态 |
| `quota_exceeded` | 配额超限 | 联系客服增加配额 |
**错误响应格式**
```json theme={null}
{
"error": {
"code": "invalid_api_key",
"message": "Invalid API key provided",
"type": "authentication_error"
}
}
```
## 常见问题
* **性价比优先**:选择 `-fast` 系列(\$0.15/视频)
* **质量优先**:选择标准系列(\$0.25/视频)
* **需要图片转视频**:选择 `-fl` 系列
* **横屏内容**:选择 `-landscape` 系列
* **快速模型** (`-fast`):约 30-60 秒
* **标准模型**:约 1-2 分钟
建议轮询间隔设置为 5-10 秒。
视频 URL 有效期通常为 24 小时,建议生成成功后及时下载保存。
大批量使用可联系客服获取企业优惠,邮箱:`feedback@apiyi.com`
## 技术规格速查表
| 项目 | 规格 |
| ------- | ----------------- |
| 视频时长 | 8 秒 |
| 竖屏分辨率 | 720 x 1280 (9:16) |
| 横屏分辨率 | 1280 x 720 (16:9) |
| 音轨 | 自动包含 |
| URL 有效期 | 24 小时 |
| 建议轮询间隔 | 5-10 秒 |
| 最大等待时间 | 10 分钟 |
# VEO 3.1 视频生成
Source: https://docs.apiyi.com/api-capabilities/veo/overview
Google VEO 3.1 官逆通道完整指南:声画同步视频生成、固定 8 秒时长、支持首尾帧(Frame-to-Video)、HD 横/竖屏,4K 高清版本陆续上线。
## 概述
**VEO 3.1** 是谷歌当下最强的 AI 视频生成模型系列,**原生声画同步生成**:根据文本提示词或参考图片输出固定 8 秒短片,自带同步音轨。API易 通过 **官逆通道**(Reverse-engineered)接入 Google Flow,按次计费、支持同步流式与异步任务两种调用方式。
**🎬 核心亮点**:声画同步原生输出 + 固定 8 秒短片 + 首尾帧(Frame-to-Video)创作 + HD 横竖屏 + **价格远低于官方**(\$0.15 起)+ 同步流式可见进度。**适合短视频、广告片段、产品演示、社交媒体素材** 等高节奏生产场景。
`POST /v1/chat/completions`,复用 OpenAI Chat Completions 协议,支持 `stream: true` 实时进度。
`POST /v1/videos` 三步异步流程,支持文生视频与首尾帧上传,便于批量管理。
## 为什么选 API易 的 VEO 3.1
VEO 3.1 是 **官逆通道**(透传 Google Flow 服务),针对企业生产场景在 **价格**、**接入门槛**、**功能完整度** 三方面做了深度优化:
\$0.15 起 / 8 秒视频,**对比谷歌官方立省 80%+**。无需开通 Google Cloud / Vertex AI 账号,按次计费成本透明。
平台维护账号池透明聚合,批量出片 / 短视频矩阵 / 广告生产场景下可线性扩容,**无谷歌账号 Tier 限制**。
叠加 [充值加赠活动](/faq/recharge-promotions) 实际成本进一步下降。**生成失败不计费**,按成功结果结算。
**无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,省去为 Google Flow 配置出海链路的麻烦。
同步走 `/v1/chat/completions`(与对话模型一致),异步走 `/v1/videos`(OpenAI Video API 风格)。两种协议都和你已有的 SDK / 工程代码无缝复用。
团队深耕视频生成场景,在 prompt 工程、首尾帧素材准备、批量生产、视频后处理等环节具备丰富经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。
## 核心特性
VEO 3.1 在视频生成的同时**原生输出同步音轨**(环境音、对话、配乐),无需后期单独配音。
`-fast` 系列 30–60 秒出片、标准系列 1–2 分钟,**生成速度比 Sora 2 快 50%**,适合高节奏内容生产。
`-fl` 后缀模型支持上传 1 张(首帧)或 2 张(首尾帧)参考图,让静态画面动起来,或在两个画面间自动生成过渡动画。
竖屏 720×1280(社媒短视频)、横屏 1280×720(广告 / 演示),通过模型名 `-landscape` 后缀切换。
同步模式(`/v1/chat/completions` + `stream: true`)实时返回 `> 🏃 进度:XX%` 文本片段,前端可直接展示生成进度条。
异步模式返回 `video_id`,独立轮询和下载,适合批量管理、断点续传、长任务后台跑。
生成失败 / 内容审核拦截 / 服务过载等错误均**不计费**,只为最终拿到的视频付费。
同步模式 `n` 参数最多一次出 4 条不同视频(同 prompt 多结果),便于内容多样性挑选。
## 模型定价
按 **次** 计费(每条 8 秒视频固定单价),**仅对成功生成的视频收费**,失败任务不计费。
### HD 系列(720p,已上线)
| 模型名 | 描述 | 分辨率 | 单价 |
| --------------------------- | ------------- | -------- | ------ |
| `veo-3.1` | 默认竖屏 | 720×1280 | \$0.25 |
| `veo-3.1-fl` | 竖屏 + 首尾帧 | 720×1280 | \$0.25 |
| `veo-3.1-fast` | 竖屏 + 快速 | 720×1280 | \$0.15 |
| `veo-3.1-fast-fl` | 竖屏 + 快速 + 首尾帧 | 720×1280 | \$0.15 |
| `veo-3.1-landscape` | 横屏 | 1280×720 | \$0.25 |
| `veo-3.1-landscape-fl` | 横屏 + 首尾帧 | 1280×720 | \$0.25 |
| `veo-3.1-landscape-fast` | 横屏 + 快速 | 1280×720 | \$0.15 |
| `veo-3.1-landscape-fast-fl` | 横屏 + 快速 + 首尾帧 | 1280×720 | \$0.15 |
### 4K 高清系列(即将上线)
**4K 高清版本陆续上线中**,模型变体覆盖竖屏 / 横屏 / 快速 / 首尾帧组合,命名延续 HD 系列规则。**单价信息将在官方放量后补充至本表**,企业批量需求可联系商务提前对接试用。
**计费说明**:
* **按次计费**:每条 8 秒视频固定单价,与 prompt 长度、是否传参考图、`n` 参数无关(n=2 即按 2 条结算)
* **失败不扣费**:任务进入 `failed` / 内容审核拦截 / 网关错误时**不计费**,可放心重试
* **充值加赠**:详见 [充值加赠活动](/faq/recharge-promotions)
## 技术规格
| 维度 | 规格 |
| ----------------------- | ----------------------------------------- |
| **模型基名** | `veo-3.1`(HD)/ 4K 系列待补充 |
| **变体维度** | 朝向(竖/横)× 速度档(标准/快)× 创作模式(文生 / 首尾帧 `-fl`) |
| **视频时长** | 固定 **8 秒**(不可调) |
| **HD 分辨率** | 竖屏 720×1280、横屏 1280×720 |
| **4K 分辨率** | 即将上线,规格待补充 |
| **音轨** | ✅ 声画同步,自带原生音轨 |
| **首尾帧(Frame-to-Video)** | ✅ `-fl` 后缀模型;首帧 1 张或首尾帧 2 张 |
| **同步生成耗时** | `-fast` 系列 30–60 秒,标准系列 1–2 分钟 |
| **同步进度回显** | ✅ `/v1/chat/completions` + `stream: true` |
| **异步轮询** | ✅ `/v1/videos` + 任务 ID + `/content` 下载 |
| **`n` 参数** | 同步模式最多 4 条 / 次(异步模式建议 1) |
| **视频 URL 有效期** | 24 小时 |
## 端点一览
| 端点 | 方法 | 用途 | Content-Type |
| ------------------------------- | ---- | --------------------- | ------------------------------------------ |
| `/v1/chat/completions` | POST | **同步流式**生成(推荐实时交互场景) | `application/json` |
| `/v1/videos` | POST | **异步任务**:提交文生视频或首尾帧任务 | `application/json` 或 `multipart/form-data` |
| `/v1/videos/{video_id}` | GET | 异步轮询任务状态 | — |
| `/v1/videos/{video_id}/content` | GET | 异步下载视频 URL | — |
**域名选择**:主域名 `api.apiyi.com`,也可使用 `vip.apiyi.com` / `b.apiyi.com` 等其它网关域名,响应行为一致。
## 关键参数详解
### 模型变体命名规则
VEO 3.1 通过模型名后缀组合切换功能,**不通过单独参数控制**:
| 后缀 | 作用 | 默认 |
| ------------ | --------------- | ----------------- |
| `-landscape` | 横屏(1280×720) | 不带 = 竖屏(720×1280) |
| `-fast` | 快速档(速度优先,价格更低) | 不带 = 标准档 |
| `-fl` | 首尾帧创作(必须搭配上传图片) | 不带 = 纯文生视频 |
**组合示例**:
* `veo-3.1` —— 标准竖屏文生视频(默认)
* `veo-3.1-landscape-fast` —— 快速横屏文生视频(性价比首选)
* `veo-3.1-landscape-fl` —— 标准横屏首尾帧创作
* `veo-3.1-landscape-fast-fl` —— 快速横屏首尾帧创作(成本最低的图生视频)
- **`-fl` 模型必须传 `input_reference` 图片**,否则报错;纯文生视频不要带 `-fl` 后缀
- 异步首尾帧请求必须走 `multipart/form-data`(不是 JSON),上传 1 张为首帧、2 张为首尾帧
- 4 种维度组合后共 8 个 HD 模型 ID,**字符顺序固定**:`landscape` → `fast` → `fl`
### `n`(一次出几条视频,同步模式)
* 范围:`1` \~ `4`,默认 `1`
* 仅同步模式(`/v1/chat/completions`)支持,异步模式 `n` 不生效
* **按视频条数计费**(n=2 即按 2 条结算)
## 最佳实践
每个新 prompt 先用 `veo-3.1-fast` 或 `veo-3.1-landscape-fast` 跑一条试水(成本 \$0.15,30–60 秒出片),定型后再切到标准档拿最佳画质。
* **社媒短视频 / 抖音 / 小红书** → 竖屏(默认无 `-landscape`)
* **YouTube / 广告 / 产品演示** → 横屏(`-landscape`)
* 需要**实时进度反馈**给用户 → 同步流式(`/v1/chat/completions` + `stream: true`)
* **批量后台跑**或长任务 → 异步任务化(`/v1/videos` + 轮询)
* 详见 [同步调用](/api-capabilities/veo/quick-start) / [异步调用](/api-capabilities/veo/async-api)
`-fl` 模型已经定了画面(首帧或首尾帧),prompt 应聚焦**如何让画面动起来**:镜头推拉、物体运动、光线变化、人物表情,例:`"镜头缓慢推进,叶子轻摇,阳光透过树叶闪烁"`。
首尾帧最强场景是**两个画面间的自然过渡**(白天→夜晚、四季变化、表情变化、物体变形),prompt 描述过渡过程、动作变化即可,无需描述细节。
同步流式调用整个连接会保持到生成完成(`-fast` ≈ 60 秒,标准 ≈ 2 分钟),客户端超时建议 ≥ **120 秒**。异步模式 POST 提交是秒级,但建议 30 秒打底。
视频 URL 有效期**仅 24 小时**,生产场景务必拿到 `completed` 后立即下载并落地到自己的 OSS / CDN,避免链接过期。
* 同 prompt 出多个变体 → 用 `n: 4` 一次拿 4 条
* 不同 prompt 批量跑 → 多次异步 POST 各拿独立 `video_id`,再独立轮询
## 错误码与重试
| 状态码 | 含义 | 处理建议 |
| ------------------------- | -------------------------------- | -------------------------- |
| `400` | 参数非法(model 不存在、`-fl` 缺图、`n` 越界等) | 校验参数;首尾帧请求务必走 multipart 上传 |
| `401` / `invalid_api_key` | API Key 无效 | 检查 Bearer Token;确认控制台分组配置 |
| `403` | 内容审核拦截 | 调整 prompt;参考图避免敏感内容 |
| `429` / `quota_exceeded` | 限流 / 配额超限 / 余额不足 | 指数退避重试;超出默认配额联系商务申请扩容 |
| `5xx` | 网关 / 上游错误 | 异步任务重试 1–2 次(不计费) |
| 任务 `failed` | 视频生成失败(多为内容审核或上游容量) | 调整 prompt 重试;**该任务不计费** |
| `video_not_found` | video\_id 不存在或已过期 | 确认 ID 正确;24 小时内查询 |
**建议客户端**:
* 同步请求超时 **120 秒**起步(标准档);`-fast` 可降到 **60 秒**
* 异步 POST 提交超时 **30 秒**;GET 轮询间隔 **5–10 秒**,最长等待 **10 分钟**
* 对 5xx 与任务 `failed` 做 **指数退避重试**(建议 2 次)
* 记录响应头 `x-request-id` 方便排查
## 常见问题
**官逆**。VEO 3.1 通过 API易 维护的 Google Flow 账号池透明转发,价格远低于谷歌官方 Veo Studio 价格,按次计费、支持失败不计费。**目前暂无官转通道**——谷歌官方 Vertex AI Veo API 上线后我们会评估接入,届时本页会同步更新。
| 维度 | VEO 3.1 | Sora 2(官转) |
| -------- | ----------------------- | -------------------------- |
| **价格** | \$0.15–\$0.25 / 8 秒(按次) | \$0.40–\$8.40 / 4–12 秒(按秒) |
| **时长** | 固定 8 秒 | 4 / 8 / 12 秒 |
| **生成速度** | 30 秒 – 2 分钟 | 3–10 分钟 |
| **音轨** | ✅ 声画同步原生 | ✅ 声画同步原生 |
| **首尾帧** | ✅ `-fl` 系列 | ✅ `input_reference` 单图 |
| **稳定性** | 官逆,受风控影响 | 官转 99.99% |
| **分辨率** | 720p(4K 即将上线) | 720p / 1024p / 1080p |
**快、便宜、批量场景选 VEO;高画质、稳定性优先选 Sora 2 Pro。** 详见 [Sora 2 概览](/api-capabilities/sora-2/overview)。
Google Flow 上游本身只开放 8 秒固定时长,目前**没有调整时长的参数**。如需更长视频,建议**首尾帧拼接**:用 `-fl` 模型生成多个 8 秒片段,最后片段的尾帧作为下个片段的首帧,再用 ffmpeg 拼接为长视频。
* **要最高画质 / 关键素材** → 标准档(`veo-3.1` / `veo-3.1-landscape`),\$0.25 / 条
* **量产 / 试错 / 内部预览** → fast 档(`-fast` 后缀),\$0.15 / 条,速度更快
* **`-fast` 与标准档画质差距不大**,多数生产场景 fast 档已够用
`-fl` 系列必须搭配 `input_reference` 上传图片:
* **传 1 张** → 首帧模式:以图片作为视频开头,AI 自动续编后续画面
* **传 2 张** → 首尾帧模式:第一张为开头、第二张为结尾,AI 生成中间过渡
必须走 multipart/form-data(不是 JSON)。详见 [异步调用 - 帧转视频](/api-capabilities/veo/async-api#帧转视频模式)。
**不会**。VEO 3.1 按**成功结果**计费:任务进入 `failed`、内容审核拦截、网关 5xx 错误、参数错误等情况都不计费。**只有视频真正生成完成(拿到 URL)才按次扣费**。
**24 小时**。视频生成完成后请立即下载到自己的 OSS / CDN 持久化,避免链接过期后无法访问。
`/v1/chat/completions` + `stream: true` 模式下,响应是 SSE 格式,每个 chunk 含进度文本:
```text theme={null}
data: {"choices":[{"delta":{"content":"> 🏃 进度:45.0%\n\n"}}]}
...
data: {"choices":[{"delta":{"content":"> ✅ 第1个视频生成成功,[点击这里](https://.../xxx.mp4) 查看视频~~~\n\n"}}]}
data: [DONE]
```
前端只需解析 `delta.content` 里的"进度"和视频 URL 即可。完整示例见 [同步调用](/api-capabilities/veo/quick-start#流式响应说明)。
`-fl` 模型的 `input_reference` 接受 `jpeg` / `png`,建议单张图 ≤ 5 MB。**没有强制分辨率要求**(不同于 Sora 2),但**图片比例最好与目标视频朝向一致**:竖屏视频用竖图、横屏用横图,否则 AI 会自动裁切。
可以。**同步模式**完全兼容 OpenAI Chat Completions:
```python theme={null}
from openai import OpenAI
client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1")
resp = client.chat.completions.create(
model="veo-3.1-fast",
messages=[{"role": "user", "content": "画只猫在天上飞"}],
stream=True,
n=1
)
for chunk in resp:
print(chunk.choices[0].delta.content or "", end="")
```
**异步模式** 用 `client.videos.create()` 也可以,但首尾帧场景必须走原生 requests 多文件上传(OpenAI SDK 默认只支持单文件)。
可以。每次 POST `/v1/videos` 返回独立 `video_id`,多任务并发提交、独立轮询。**默认配额已能满足大多数业务**,企业批量需求(>10 并发、单日 >100 条)请联系商务申请独立资源池。
**不支持**。当前没有 cancel 端点,任务一旦提交会跑完。建议先用 `-fast` 跑试 prompt,确认风格再切到标准档,避免长任务跑废。
**目前不支持**。VEO 3.1 默认输出带同步音轨的视频,官方未开放禁用音轨的参数。如需纯视频,下载后用 ffmpeg `-an` 剥离即可:`ffmpeg -i input.mp4 -an output.mp4`。
4K 系列正在灰度放量中,模型变体延续 HD 命名规则(覆盖竖横、快慢、首尾帧组合)。**最终单价以本页定价表正式更新为准**,企业批量需求可联系商务提前对接试用资源。
## 相关文档
* [同步调用 API](/api-capabilities/veo/quick-start) - `/v1/chat/completions` + `stream: true` 实时流式调用,文生视频 + 首尾帧示例
* [异步调用 API](/api-capabilities/veo/async-api) - `/v1/videos` 三步异步流程、首尾帧上传、Python 完整客户端示例
* [Sora 2 视频生成](/api-capabilities/sora-2/overview) - OpenAI 官转通道对照
* [充值加赠活动](/faq/recharge-promotions) - 加赠最高档位与适用渠道
* [API 使用手册](/api-manual) - 通用调用规范、超时与重试建议
* 谷歌官方 Veo 介绍:`deepmind.google/technologies/veo/`
VEO 3.1 是 API易 通过 Google Flow 官逆通道实现的高性价比视频生成服务,**生成速度领先、价格远低于官方**。两种调用模式(同步流式、异步任务化)按场景选择,与你已有的 OpenAI SDK / 工程代码无缝对接。如有问题或建议,欢迎在控制台工单中反馈。
# 同步调用 API
Source: https://docs.apiyi.com/api-capabilities/veo/quick-start
VEO 3.1 同步调用接口,适合实时交互场景
开始前,请注册 API易,获取 API 密钥 [https://api.apiyi.com/token](https://api.apiyi.com/token) (复制令牌)
## 同步调用说明
VEO 3.1 支持同步调用方式,使用对话补全接口 `/v1/chat/completions`,适合需要实时交互的场景。
**调用方式对比:**
* **同步调用**:适合实时交互,支持流式输出,可以看到生成进度
* **异步调用**:适合批量处理,提交任务后轮询获取结果,详见 [异步调用 API](/api-capabilities/veo/async-api)
## 快速开始
前往 [API易控制台](https://api.apiyi.com/account/profile) 获取 API 密钥
使用对话补全接口生成视频,支持流式和非流式两种方式
实时获取生成进度和视频链接
## 认证方式
所有 API 请求都需要在请求头中包含 API 密钥:
```bash theme={null}
Authorization: sk-your-api-key
```
**安全提醒:** 请勿在客户端代码中暴露 API 密钥。建议在服务端环境变量中存储。
## 示例 1:文生视频
最简单的方式,使用文本描述生成视频:
```bash theme={null}
curl --location --request POST 'https://api.apiyi.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: sk-your-api-key' \
--data-raw '{
"messages": [{"role": "user", "content": "画只猪在天上飞"}],
"model": "veo-3.1",
"stream": true,
"n": 2
}'
```
### 参数说明
| 参数 | 类型 | 必填 | 说明 |
| ---------- | ------- | -- | ------------------- |
| `messages` | array | 是 | 对话消息数组,包含用户的提示词 |
| `model` | string | 是 | 使用的模型名称,如 `veo-3.1` |
| `stream` | boolean | 否 | 是否开启流式输出,默认 false |
| `n` | integer | 否 | 生成视频数量,默认 1,最大 4 |
**模型选择:** 默认为竖屏,使用 `veo-3.1-landscape` 可生成横屏视频,使用 `-fast` 后缀可使用快速模型。
## 示例 2:帧转视频(Frame-to-Video)
使用一张或两张图片作为关键帧生成视频:
```bash theme={null}
curl --location --request POST 'https://api.apiyi.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: sk-your-api-key' \
--data-raw '{
"messages": [{
"role": "user",
"content": [
{
"type": "text",
"text": "根据两张图片生成一个完整的过渡视频"
},
{
"type": "image_url",
"image_url": {
"url": "开始帧图片URL或base64"
}
},
{
"type": "image_url",
"image_url": {
"url": "结束帧图片URL或base64(可选)"
}
}
]
}],
"model": "veo-3.1-landscape-fast-fl",
"stream": true,
"n": 1
}'
```
### 图片参数说明
* **开始帧图片**:必传,仅限一张
* **结束帧图片**:可选,如果不传则自动生成过渡效果
* **图片格式**:支持 URL 或 base64 编码
## 流式响应说明
开启流式输出后(`stream: true`),系统会实时返回生成进度和结果:
### 响应示例
````text theme={null}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"role":"assistant"},"finish_reason":null}]}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"```json\n{\n \"prompt\": \"画只猪在天上飞\",\n \"mode\": \"竖屏模式\"\n}\n```\n\n"},"finish_reason":null}]}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> ⌛️ 视频正在生成中,请耐心等待...\n\n"},"finish_reason":null}]}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> 🏃 进度:9.0%\n\n"},"finish_reason":null}]}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> 🏃 进度:18.0%\n\n"},"finish_reason":null}]}
...
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> 🏃 进度:90.2%\n\n"},"finish_reason":null}]}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> ✅ 第1个视频生成成功,[点击这里](https://veo-video.gptkey.asia/assets/flow/xxx.mp4) 查看视频~~~\n\n"},"finish_reason":null}]}
data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{},"finish_reason":"stop"}],"usage":{"prompt_tokens":16,"completion_tokens":292,"total_tokens":308}}
data: [DONE]
````
### 响应说明
流式响应会实时返回生成进度,格式为:`> 🏃 进度:XX.X%`
生成完成后,会返回视频的下载链接,格式为:`> ✅ 第N个视频生成成功,[点击这里](视频URL) 查看视频~~~`
当所有视频生成完成后,会返回 `finish_reason: "stop"` 和 `data: [DONE]`
## 生成速度
**VEO 3.1 生成速度:** 比 Sora 2 快 50%!
* **快速模型** (`-fast`):约 30-60 秒
* **标准模型**:约 1-2 分钟
## 下一步
了解异步调用方式、模型定价和代码示例
返回 VEO 3.1 产品概览页面
# 视频理解 API
Source: https://docs.apiyi.com/api-capabilities/video-understanding
使用 Gemini 系列等先进 AI 模型进行智能视频分析和理解,支持视频内容识别、场景描述、动作分析等功能
API易 提供强大的视频理解能力,支持使用 Gemini 2.5 Pro 等先进的 AI 模型对视频进行深度分析和理解。通过统一的 OpenAI API 格式,您可以轻松实现视频内容识别、场景描述、动作分析等功能。
**🎬 智能视频分析**
支持视频场景理解、动作识别、内容摘要等多种视频分析任务,让 AI 真正"看懂"视频内容。
## 🌟 核心特性
* **🎯 顶级模型支持**:Gemini 2.5 Pro 等领先的多模态视频理解模型
* **📹 灵活输入**:支持 Base64 编码视频文件
* **🌏 中文优化**:完美支持中文场景理解和内容描述
* **⚡ 专业分析**:深度理解视频内容、动作、场景和上下文
* **💰 高性价比**:强大能力,合理定价
## 📋 支持的视频理解模型
| 模型名称 | 模型 ID | 特点 | 推荐场景 |
| -------------------- | ------------------ | ------------- | -------- |
| **Gemini 2.5 Pro** ⭐ | `gemini-2.5-pro` | 超长上下文,视频理解能力强 | 复杂视频内容分析 |
| **Gemini 2.5 Flash** | `gemini-2.5-flash` | 速度快,性价比高 | 快速视频分析 |
## 🚀 快速开始
### 1. 基础示例 - 本地视频 Base64 编码
```python theme={null}
from openai import OpenAI
import base64
def gemini_video_test(video_path, question, model="gemini-2.5-pro"):
"""视频理解函数"""
client = OpenAI(
api_key="YOUR_API_KEY", # 替换为您的 API Key
base_url="https://api.apiyi.com/v1"
)
{/* 读取本地视频文件并转换为 Base64 */}
with open(video_path, "rb") as f:
video_b64 = base64.b64encode(f.read()).decode()
video_url = f"data:video/mp4;base64,{video_b64}"
response = client.chat.completions.create(
model=model,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{
"role": "user",
"content": [
{"type": "text", "text": question},
{
"type": "image_url",
"image_url": {
"url": video_url
},
"mime_type": "video/mp4",
}
]
}
],
temperature=0.2,
max_tokens=4096
)
return response.choices[0].message.content
{/* 使用示例 */}
if __name__ == "__main__":
video_path = "./demo.mp4" # 本地视频文件路径
question = "请详细描述这个视频的内容"
result = gemini_video_test(video_path, question)
print(result)
```
**文件大小限制**:建议单个视频文件不超过 20MB,以确保最佳的处理效果和响应速度。
### 2. 完整示例 - 包含结果保存
```python theme={null}
from openai import OpenAI
import base64
import json
from datetime import datetime
import os
def gemini_test(question, model="gemini-2.5-pro"):
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
model = model
user_msg = question
VIDEO_PATH = "./demo.mp4" # 本地文件,≤20 MB 为佳
with open(VIDEO_PATH, "rb") as f:
video_b64 = base64.b64encode(f.read()).decode()
video_url = f"data:video/mp4;base64,{video_b64}"
response = client.chat.completions.create(
model=model,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{
"role": "user",
"content": [
{"type": "text", "text": question},
{
"type": "image_url",
"image_url": {
"url": video_url
},
"mime_type": "video/mp4",
}
]
}
],
temperature=0.2,
max_tokens=4096
)
return response.choices[0].message.content
if __name__ == "__main__":
print("开始视频理解测试...")
{/* 运行视频理解 */}
question = "请描述这个视频的内容"
result = gemini_test(question)
{/* 生成时间戳 */}
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
{/* 获取当前脚本所在目录 */}
current_dir = os.path.dirname(os.path.abspath(__file__))
{/* 保存为txt文件 */}
txt_filename = os.path.join(current_dir, f"video_analysis_{timestamp}.txt")
with open(txt_filename, "w", encoding="utf-8") as f:
f.write("=" * 60 + "\n")
f.write("视频理解分析结果\n")
f.write("=" * 60 + "\n")
f.write(f"分析时间: {datetime.now().strftime('%Y-%m-%d %H:%M:%S')}\n")
f.write(f"提问内容: {question}\n")
f.write("=" * 60 + "\n\n")
f.write(result)
f.write("\n\n" + "=" * 60 + "\n")
{/* 保存为json文件 */}
json_filename = os.path.join(current_dir, f"video_analysis_{timestamp}.json")
data = {
"timestamp": datetime.now().strftime('%Y-%m-%d %H:%M:%S'),
"question": question,
"model": "gemini-2.5-pro",
"video_file": "demo.mp4",
"result": result
}
with open(json_filename, "w", encoding="utf-8") as f:
json.dump(data, f, ensure_ascii=False, indent=2)
{/* 控制台输出 */}
print("\n视频理解结果:")
print(result)
print(f"\n结果已保存到:")
print(f" - TXT文件: {txt_filename}")
print(f" - JSON文件: {json_filename}")
```
### 3. 使用 requests 库的示例
```python theme={null}
import requests
import base64
def analyze_video_with_requests(video_path, question):
"""使用 requests 库进行视频分析"""
{/* 读取并编码视频 */}
with open(video_path, "rb") as f:
video_b64 = base64.b64encode(f.read()).decode()
video_url = f"data:video/mp4;base64,{video_b64}"
url = "https://api.apiyi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{
"role": "user",
"content": [
{"type": "text", "text": question},
{
"type": "image_url",
"image_url": {"url": video_url},
"mime_type": "video/mp4"
}
]
}
],
"temperature": 0.2,
"max_tokens": 4096
}
response = requests.post(url, headers=headers, json=payload)
if response.status_code == 200:
return response.json()['choices'][0]['message']['content']
else:
print(f"错误: {response.status_code} - {response.text}")
return None
{/* 使用示例 */}
result = analyze_video_with_requests("./demo.mp4", "请描述这个视频的内容")
print(result)
```
## 🎯 常见应用场景
### 1. 视频内容摘要
```python theme={null}
prompt = """
请分析这个视频并提供详细摘要,包括:
1. 视频的主要内容和主题
2. 关键场景和重要时刻
3. 出现的人物或物体
4. 视频的整体氛围和风格
5. 适合的应用场景或目标受众
"""
```
### 2. 教学视频分析
```python theme={null}
prompt = """
这是一个教学视频,请分析:
1. 教学的主题和知识点
2. 讲解的步骤和流程
3. 使用的教学方法和工具
4. 重点和难点内容
5. 建议的学习要点
"""
```
### 3. 监控视频分析
```python theme={null}
prompt = """
分析这段监控视频:
1. 时间段和地点信息(如果可见)
2. 出现的人员数量和活动
3. 是否存在异常行为或事件
4. 环境变化情况
5. 需要关注的重点内容
"""
```
### 4. 营销视频评估
```python theme={null}
prompt = """
评估这个营销视频的效果:
1. 视频的核心卖点和信息传达
2. 视觉呈现和制作质量
3. 目标受众定位
4. 情感共鸣点
5. 改进建议
"""
```
### 5. 体育动作分析
```python theme={null}
prompt = """
分析视频中的体育动作:
1. 运动项目和动作类型
2. 技术动作的规范性
3. 关键动作要领
4. 可能存在的问题
5. 改进建议
"""
```
## 💡 最佳实践
### 视频预处理建议
1. **格式支持**:MP4、AVI、MOV 等主流视频格式
2. **文件大小**:建议单个视频不超过 20MB
3. **时长建议**:较短的视频片段会获得更精准的分析
4. **分辨率**:适中的分辨率即可,过高可能增加处理时间
5. **编码优化**:使用 H.264 等高效编码格式
### 提示词优化技巧
```python theme={null}
{/* ❌ 不推荐:模糊的提示 */}
prompt = "看看这个视频"
{/* ✅ 推荐:具体明确的提示 */}
prompt = """
请从以下几个方面详细分析这个视频:
1. 视频主题:整体内容和主要信息
2. 场景描述:环境、地点、时间等背景信息
3. 主体分析:出现的人物、物体及其行为
4. 动作识别:关键动作和事件序列
5. 情感基调:视频传达的情绪和氛围
6. 应用建议:适合的使用场景和目标受众
"""
```
### 参数调优建议
```python theme={null}
{/* 更准确的分析 */}
response = client.chat.completions.create(
model="gemini-2.5-pro",
messages=messages,
temperature=0.2, # 降低随机性,提高准确性
max_tokens=4096, # 足够的输出长度
)
{/* 更有创意的描述 */}
response = client.chat.completions.create(
model="gemini-2.5-pro",
messages=messages,
temperature=0.7, # 提高创意性
max_tokens=2048,
)
```
## 🔧 高级功能
### 1. 错误处理和重试机制
```python theme={null}
import time
from openai import OpenAI
def analyze_video_with_retry(video_path, question, max_retries=3):
"""带重试机制的视频分析"""
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
with open(video_path, "rb") as f:
video_b64 = base64.b64encode(f.read()).decode()
video_url = f"data:video/mp4;base64,{video_b64}"
for attempt in range(max_retries):
try:
response = client.chat.completions.create(
model="gemini-2.5-pro",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": question},
{
"type": "image_url",
"image_url": {"url": video_url},
"mime_type": "video/mp4"
}
]
}
],
temperature=0.2,
max_tokens=4096
)
return response.choices[0].message.content
except Exception as e:
print(f"尝试 {attempt + 1}/{max_retries} 失败: {e}")
if attempt < max_retries - 1:
time.sleep(2 ** attempt) # 指数退避
else:
raise
return None
```
### 2. 批量视频分析
```python theme={null}
import os
import glob
def batch_analyze_videos(video_dir, question):
"""批量分析文件夹中的所有视频"""
video_files = glob.glob(os.path.join(video_dir, "*.mp4"))
results = {}
for video_file in video_files:
print(f"分析视频: {os.path.basename(video_file)}")
try:
result = gemini_video_test(video_file, question)
results[video_file] = result
except Exception as e:
print(f"分析失败: {e}")
results[video_file] = f"错误: {str(e)}"
return results
{/* 使用示例 */}
results = batch_analyze_videos("./videos", "请描述这个视频的主要内容")
for video, analysis in results.items():
print(f"\n{video}:\n{analysis}\n")
```
### 3. 多轮对话深入分析
```python theme={null}
def interactive_video_analysis(video_path):
"""交互式视频分析"""
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
{/* 读取视频 */}
with open(video_path, "rb") as f:
video_b64 = base64.b64encode(f.read()).decode()
video_url = f"data:video/mp4;base64,{video_b64}"
messages = []
{/* 初始分析 */}
messages.append({
"role": "user",
"content": [
{"type": "text", "text": "请分析这个视频的内容"},
{
"type": "image_url",
"image_url": {"url": video_url},
"mime_type": "video/mp4"
}
]
})
response = client.chat.completions.create(
model="gemini-2.5-pro",
messages=messages,
temperature=0.2,
max_tokens=4096
)
assistant_message = response.choices[0].message.content
print(f"AI: {assistant_message}\n")
messages.append({"role": "assistant", "content": assistant_message})
{/* 继续提问 */}
while True:
user_question = input("您的问题 (输入 'quit' 退出): ")
if user_question.lower() == 'quit':
break
messages.append({
"role": "user",
"content": [{"type": "text", "text": user_question}]
})
response = client.chat.completions.create(
model="gemini-2.5-pro",
messages=messages,
temperature=0.2,
max_tokens=4096
)
assistant_message = response.choices[0].message.content
print(f"AI: {assistant_message}\n")
messages.append({"role": "assistant", "content": assistant_message})
```
## 📊 模型对比
| 模型 | 视频理解能力 | 响应速度 | 上下文长度 | 价格 |
| ---------------- | ------ | ----- | ----- | ---- |
| Gemini 2.5 Pro | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 超长 | \$\$ |
| Gemini 2.5 Flash | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 长 | \$ |
## 🚨 注意事项
1. **文件大小**:建议单个视频文件不超过 20MB,以确保最佳性能
2. **隐私保护**:不要上传包含敏感信息或隐私内容的视频
3. **合规使用**:遵守相关法律法规,不用于非法用途
4. **结果验证**:AI 分析结果仅供参考,重要决策需人工复核
5. **成本控制**:视频分析消耗的 token 较多,请合理使用
6. **视频格式**:确保视频格式被支持(MP4 格式兼容性最好)
## 💰 成本优化建议
1. **视频预处理**:上传前适当压缩视频,减小文件大小
2. **精准提问**:使用明确的问题,避免重复分析
3. **模型选择**:根据需求选择合适的模型(Flash vs Pro)
4. **分段分析**:对长视频可以考虑分段处理
5. **缓存结果**:对于重复分析的视频,缓存之前的结果
## 🔗 相关资源
* [完整代码示例](https://github.com/apiyi-api/ai-api-code-samples)
* [API 定价说明](https://api.apiyi.com/account/pricing)
* [图像理解 API](/api-capabilities/vision-understanding)
💡 **小贴士**:视频理解功能特别适合自动化内容审核、视频摘要生成、教学视频分析等场景。建议先使用 Gemini 2.5 Flash 进行测试,确认效果后根据需求选择合适的模型。
# 图像理解(识图)API
Source: https://docs.apiyi.com/api-capabilities/vision-understanding
使用 AI 模型进行智能图像分析和理解,支持对象识别、场景描述、文字提取等功能
# 图像理解(识图)API
API易 提供强大的图像理解能力,支持使用多种先进的 AI 模型对图像进行深度分析和理解。通过统一的 OpenAI API 格式,您可以轻松实现图像识别、场景描述、OCR 文字识别等功能。
**🔍 智能视觉分析**\
支持对象识别、场景理解、文字提取、情感分析等多种视觉任务,让 AI 真正"看懂"图片。
## 🌟 核心特性
* **🎯 多模型支持**:GPT-4o、Gemini 2.5 Pro、Claude 等顶级视觉模型
* **📸 灵活输入**:支持 URL 链接和 Base64 编码图片
* **🌏 中文优化**:完美支持中文场景理解和文字识别
* **⚡ 快速响应**:高性能推理,秒级返回结果
* **💰 成本可控**:多种模型选择,满足不同预算需求
## 📋 支持的视觉模型
| 模型名称 | 模型 ID | 特点 | 推荐场景 |
| --------------------- | ------------------- | ---------- | ------ |
| **GPT-4o** ⭐ | `gpt-4o` | 综合能力强,识别准确 | 通用图像理解 |
| **GPT-4.1 Mini** | `gpt-4.1-mini` | 轻量快速,成本低 | 批量处理 |
| **Gemini 2.5 Pro** ⭐ | `gemini-2.5-pro` | 超长上下文,细节丰富 | 复杂场景分析 |
| **Gemini 2.5 Flash** | `gemini-2.5-flash` | 速度极快,性价比高 | 实时应用 |
| **Claude 3.5 Sonnet** | `claude-3-5-sonnet` | 理解深入,描述准确 | 专业分析 |
## 🚀 快速开始
### 1. 基础示例 - 图片 URL
```python theme={null}
import requests
url = "https://api.apiyi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "请详细描述这张图片的内容"
},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/image.jpg"
}
}
]
}
]
}
response = requests.post(url, headers=headers, json=payload)
result = response.json()
print(result['choices'][0]['message']['content'])
```
### 2. 本地图片示例 - Base64 编码
```python theme={null}
import base64
import requests
def image_to_base64(image_path):
"""将本地图片转换为 base64 编码"""
with open(image_path, "rb") as image_file:
return base64.b64encode(image_file.read()).decode('utf-8')
# 读取本地图片
base64_image = image_to_base64("path/to/your/image.jpg")
url = "https://api.apiyi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": "gemini-2.5-pro",
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "分析这张图片中的所有文字内容"
},
{
"type": "image_url",
"image_url": {
"url": f"data:image/jpeg;base64,{base64_image}"
}
}
]
}
]
}
response = requests.post(url, headers=headers, json=payload)
print(response.json()['choices'][0]['message']['content'])
```
### 3. 高级示例 - 多图对比分析
```python theme={null}
import requests
url = "https://api.apiyi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": [
{"type": "text", "text": "请对比这两张图片的差异:"},
{
"type": "image_url",
"image_url": {"url": "https://example.com/image1.jpg"}
},
{
"type": "image_url",
"image_url": {"url": "https://example.com/image2.jpg"}
}
]
}
],
"max_tokens": 1000
}
response = requests.post(url, headers=headers, json=payload)
print(response.json()['choices'][0]['message']['content'])
```
## 🎯 常见应用场景
### 1. 商品识别与分析
```python theme={null}
prompt = """
请分析这张商品图片,包括:
1. 商品类型和品牌
2. 主要特征和卖点
3. 适合的目标用户
4. 建议的营销文案
"""
```
### 2. 文档 OCR 识别
```python theme={null}
prompt = """
请提取图片中的所有文字内容,并按照原始格式整理输出。
如果有表格,请用 Markdown 表格格式呈现。
"""
```
### 3. 医学影像辅助分析
```python theme={null}
prompt = """
这是一张医学影像图片,请:
1. 描述图像的基本信息(如成像类型、部位等)
2. 标注可见的解剖结构
3. 注意:仅供参考,不作为诊断依据
"""
```
### 4. 安全监控场景分析
```python theme={null}
prompt = """
分析监控画面,识别:
1. 场景中的人数和位置
2. 是否有异常行为
3. 环境安全隐患
4. 时间戳信息(如果可见)
"""
```
## 💡 最佳实践
### 图片预处理建议
1. **格式支持**:JPEG、PNG、GIF、WebP 等主流格式
2. **大小限制**:建议单张图片不超过 20MB
3. **分辨率**:高分辨率图片会获得更好的识别效果
4. **压缩优化**:适度压缩以提高传输速度
### 提示词优化
```python theme={null}
# ❌ 不推荐:模糊的提示
prompt = "看看这是什么"
# ✅ 推荐:具体明确的提示
prompt = """
请从以下几个方面分析这张图片:
1. 主要对象:识别图片中的主要物体或人物
2. 场景环境:描述拍摄地点和环境特征
3. 色彩构图:分析配色方案和构图特点
4. 情感氛围:图片传达的情绪或氛围
5. 可能用途:这张图片适合用于什么场景
"""
```
### 错误处理
```python theme={null}
import requests
from requests.exceptions import RequestException
def analyze_image_with_retry(image_url, prompt, max_retries=3):
"""带重试机制的图像分析函数"""
for attempt in range(max_retries):
try:
response = requests.post(
"https://api.apiyi.com/v1/chat/completions",
headers={
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
},
json={
"model": "gpt-4o",
"messages": [{
"role": "user",
"content": [
{"type": "text", "text": prompt},
{"type": "image_url", "image_url": {"url": image_url}}
]
}]
},
timeout=30
)
if response.status_code == 200:
return response.json()
elif response.status_code == 429:
print(f"速率限制,等待后重试... (尝试 {attempt + 1}/{max_retries})")
time.sleep(2 ** attempt) # 指数退避
else:
print(f"错误: {response.status_code} - {response.text}")
except RequestException as e:
print(f"请求异常: {e}")
return None
```
## 🔧 高级功能
### 1. 流式输出
对于长篇分析,可以使用流式输出获得更好的用户体验:
```python theme={null}
payload = {
"model": "gpt-4o",
"messages": [...],
"stream": True
}
response = requests.post(url, headers=headers, json=payload, stream=True)
for line in response.iter_lines():
if line:
print(line.decode('utf-8'))
```
### 2. 多轮对话
保持上下文进行深入分析:
```python theme={null}
messages = [
{
"role": "user",
"content": [
{"type": "text", "text": "这是什么动物?"},
{"type": "image_url", "image_url": {"url": "animal.jpg"}}
]
},
{
"role": "assistant",
"content": "这是一只金毛寻回犬。"
},
{
"role": "user",
"content": [{"type": "text", "text": "它看起来多大了?健康状况如何?"}]
}
]
```
### 3. 结合函数调用
```python theme={null}
tools = [
{
"type": "function",
"function": {
"name": "save_image_analysis",
"description": "保存图像分析结果到数据库",
"parameters": {
"type": "object",
"properties": {
"objects": {"type": "array", "items": {"type": "string"}},
"scene": {"type": "string"},
"text_content": {"type": "string"}
}
}
}
}
]
payload = {
"model": "gpt-4o",
"messages": messages,
"tools": tools,
"tool_choice": "auto"
}
```
## 📊 性能对比
| 模型 | 响应速度 | 识别准确度 | 中文支持 | 价格 |
| ---------------- | ----- | ----- | ----- | ---- |
| GPT-4o | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | \$\$ |
| Gemini 2.5 Pro | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | \$\$ |
| Gemini 2.5 Flash | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | \$ |
| GPT-4.1 Mini | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | \$ |
## 🚨 注意事项
1. **隐私保护**:不要上传包含敏感信息的图片
2. **合规使用**:遵守相关法律法规,不用于非法用途
3. **结果验证**:AI 分析结果仅供参考,重要决策需人工复核
4. **成本控制**:合理选择模型,避免不必要的开销
## 🔗 相关资源
* [完整代码示例](https://github.com/apiyi-api/ai-api-code-samples/tree/main/Vision-API-OpenAI)
* [API 定价说明](https://api.apiyi.com/account/pricing)
💡 **小贴士**:建议先使用 GPT-4.1 Mini 或 Gemini 2.5 Flash 进行测试,确认效果后再使用高级模型进行生产部署。
# API 手册
Source: https://docs.apiyi.com/api-manual
API易 接口使用手册和参考文档,本手册提供 API易 的完整接口文档,帮助您快速集成和使用我们的服务。
想要在线测试 API?前往 API Playground,填入 API Key 即可直接发送请求、查看响应。
## 平台特色
### OpenAI 兼容模式
API易采用 **OpenAI 兼容格式**,让您可以用统一的接口调用200+主流大模型:
**支持的模型厂商:**
* 🤖 **OpenAI**:gpt-4o、gpt-5-chat-latest、gpt-3.5-turbo等
* 🧠 **Anthropic**:claude-sonnet-4-20250514、claude-opus-4-1-20250805 等
* 💎 **Google**:gemini-2.5-pro、gemini-2.5-flash 等
* 🚀 **xAI**:grok-4-0709、grok-3 等
* 🔍 **DeepSeek**:deepSeek-r1、deepSeek-v3 等
* 🌟 **阿里**:Qwen系列模型
* 💬 **Moonshot**:Kimi模型等
### 功能支持范围
**✅ 支持的功能:**
* 💬 **对话补全**:Chat Completions接口
* 🖼️ **图像生成**:gpt-image-1、flux-kontext-pro、flux-kontext-max 等
* 🔊 **语音处理**:Whisper转录
* 📊 **嵌入向量**:文本向量化
* ⚡ **函数调用**:Function Calling
* 📡 **流式输出**:实时响应
* 🔧 **OpenAI参数**:temperature、top\_p、max\_tokens等
* 🆕 **Responses端点**:OpenAI最新功能
**❌ 不支持的功能:**
* 🔧 微调接口(Fine-tuning)
* 📁 Files管理接口
* 🏢 组织管理接口
* 💳 计费管理接口
### 简单切换模型
**核心优势:一套代码,多种模型**
用OpenAI格式跑通后,只需要**更换模型名称**即可切换到其他大模型:
```python theme={null}
# 使用GPT-4o
response = client.chat.completions.create(
model="gpt-4o", # OpenAI模型
messages=[...]
)
# 切换到Claude,其他代码完全不变!
response = client.chat.completions.create(
model="claude-3.5-sonnet", # 只改模型名
messages=[...]
)
# 切换到Gemini
response = client.chat.completions.create(
model="gemini-1.5-pro", # 只改模型名
messages=[...]
)
```
这种设计让您可以轻松对比不同模型的效果,或根据成本和性能需求灵活切换模型,无需重写代码!
## 快速开始
### 获取API Key
1. 访问 [API易控制台](https://api.apiyi.com/token)
2. 登录您的账户
3. 在令牌管理页面点击"新增"创建API Key
4. 复制生成的API Key用于接口调用
### 查看请求示例
在令牌管理页面,您可以快速获取各种编程语言的代码示例:
**操作步骤:**
1. 进入 [令牌管理页面](https://api.apiyi.com/token)
2. 找到您要使用的API Key所在的行
3. 点击"操作"列中的🔧**小扳手图标**(工具图标)
4. 在弹出菜单中选择"**请求示例**"
5. 查看包含以下语言的完整代码示例:
**支持的编程语言:**
* **cURL** - 命令行测试
* **Python (SDK)** - 使用官方OpenAI库
* **Python (requests)** - 使用requests库
* **Node.js** - JavaScript/TypeScript
* **Java** - Java应用开发
* **C#** - .NET应用开发
* **Go** - Go语言开发
* **PHP** - Web开发
* **Ruby** - Ruby应用开发
* 以及更多语言...
**代码示例特点:**
* ✅ **完整可运行**:复制粘贴即可使用
* ✅ **参数说明**:详细的参数配置
* ✅ **错误处理**:包含异常处理逻辑
* ✅ **最佳实践**:遵循各语言开发规范
建议开发者优先查看后台的请求示例,这些示例会根据最新的API版本实时更新,确保代码的准确性和可用性。
## 基础信息
### API 端点
* **主要端点**:`https://api.apiyi.com/v1`
* **备用端点**:`https://vip.apiyi.com/v1`
### 认证方式
所有 API 请求需要在 Header 中包含认证信息:
```http theme={null}
Authorization: Bearer YOUR_API_KEY
```
### 请求格式
* **Content-Type**:`application/json`
* **编码格式**:UTF-8
* **请求方法**:POST(大部分接口)
## 核心接口
### 1. 对话补全(Chat Completions)
创建一个对话补全请求,支持多轮对话。
**请求端点**
```
POST /v1/chat/completions
```
**请求参数**
| 参数 | 类型 | 必填 | 说明 |
| ------------------ | ------------ | -- | ---------------------- |
| model | string | 是 | 模型名称,如 `gpt-3.5-turbo` |
| messages | array | 是 | 对话消息数组 |
| temperature | number | 否 | 采样温度,0-2之间,默认1 |
| max\_tokens | integer | 否 | 最大生成令牌数 |
| stream | boolean | 否 | 是否流式返回,默认false |
| top\_p | number | 否 | 核采样参数,0-1之间 |
| n | integer | 否 | 生成数量,默认1 |
| stop | string/array | 否 | 停止序列 |
| presence\_penalty | number | 否 | 存在惩罚,-2到2之间 |
| frequency\_penalty | number | 否 | 频率惩罚,-2到2之间 |
**消息格式**
```json theme={null}
{
"role": "system|user|assistant",
"content": "消息内容"
}
```
**完整代码示例**
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/chat/completions" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [
{"role": "system", "content": "你是一个有用的AI助手。"},
{"role": "user", "content": "你好!请介绍一下自己。"}
],
"temperature": 0.7,
"max_tokens": 1000
}'
```
```python theme={null}
from openai import OpenAI
# 初始化客户端
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
# 发送聊天请求
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "你是一个有用的AI助手。"},
{"role": "user", "content": "你好!请介绍一下自己。"}
],
temperature=0.7,
max_tokens=1000
)
print(response.choices[0].message.content)
```
```python theme={null}
import requests
import json
url = "https://api.apiyi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "gpt-3.5-turbo",
"messages": [
{"role": "system", "content": "你是一个有用的AI助手。"},
{"role": "user", "content": "你好!请介绍一下自己。"}
],
"temperature": 0.7,
"max_tokens": 1000
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
if response.status_code == 200:
print(result["choices"][0]["message"]["content"])
else:
print(f"错误: {result}")
```
```javascript theme={null}
const OpenAI = require('openai');
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
async function chatCompletion() {
try {
const response = await client.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [
{"role": "system", "content": "你是一个有用的AI助手。"},
{"role": "user", "content": "你好!请介绍一下自己。"}
],
temperature: 0.7,
max_tokens: 1000
});
console.log(response.choices[0].message.content);
} catch (error) {
console.error('API调用错误:', error);
}
}
chatCompletion();
```
```java theme={null}
import okhttp3.*;
import com.google.gson.Gson;
import java.io.IOException;
import java.util.*;
public class APIYiExample {
private static final String API_KEY = "YOUR_API_KEY";
private static final String BASE_URL = "https://api.apiyi.com/v1";
public static void main(String[] args) throws IOException {
OkHttpClient client = new OkHttpClient();
Gson gson = new Gson();
// 构建请求体
Map requestBody = new HashMap<>();
requestBody.put("model", "gpt-3.5-turbo");
requestBody.put("temperature", 0.7);
requestBody.put("max_tokens", 1000);
List
```csharp theme={null}
using System;
using System.Net.Http;
using System.Text;
using System.Threading.Tasks;
using Newtonsoft.Json;
class Program
{
private static readonly string API_KEY = "YOUR_API_KEY";
private static readonly string BASE_URL = "https://api.apiyi.com/v1";
static async Task Main(string[] args)
{
using var client = new HttpClient();
client.DefaultRequestHeaders.Add("Authorization", $"Bearer {API_KEY}");
var requestBody = new
{
model = "gpt-3.5-turbo",
messages = new[]
{
new { role = "system", content = "你是一个有用的AI助手。" },
new { role = "user", content = "你好!请介绍一下自己。" }
},
temperature = 0.7,
max_tokens = 1000
};
var json = JsonConvert.SerializeObject(requestBody);
var content = new StringContent(json, Encoding.UTF8, "application/json");
try
{
var response = await client.PostAsync($"{BASE_URL}/chat/completions", content);
var result = await response.Content.ReadAsStringAsync();
Console.WriteLine(result);
}
catch (Exception ex)
{
Console.WriteLine($"错误: {ex.Message}");
}
}
}
```
```go theme={null}
package main
import (
"bytes"
"encoding/json"
"fmt"
"io/ioutil"
"net/http"
)
type Message struct {
Role string `json:"role"`
Content string `json:"content"`
}
type ChatRequest struct {
Model string `json:"model"`
Messages []Message `json:"messages"`
Temperature float64 `json:"temperature"`
MaxTokens int `json:"max_tokens"`
}
func main() {
apiKey := "YOUR_API_KEY"
baseURL := "https://api.apiyi.com/v1"
reqData := ChatRequest{
Model: "gpt-3.5-turbo",
Messages: []Message{
{Role: "system", Content: "你是一个有用的AI助手。"},
{Role: "user", Content: "你好!请介绍一下自己。"},
},
Temperature: 0.7,
MaxTokens: 1000,
}
jsonData, _ := json.Marshal(reqData)
req, _ := http.NewRequest("POST", baseURL+"/chat/completions", bytes.NewBuffer(jsonData))
req.Header.Set("Authorization", "Bearer "+apiKey)
req.Header.Set("Content-Type", "application/json")
client := &http.Client{}
resp, err := client.Do(req)
if err != nil {
fmt.Printf("请求错误: %v\n", err)
return
}
defer resp.Body.Close()
body, _ := ioutil.ReadAll(resp.Body)
fmt.Println(string(body))
}
```
```php theme={null}
'gpt-3.5-turbo',
'messages' => array(
array('role' => 'system', 'content' => '你是一个有用的AI助手。'),
array('role' => 'user', 'content' => '你好!请介绍一下自己。')
),
'temperature' => 0.7,
'max_tokens' => 1000
);
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $base_url . '/chat/completions');
curl_setopt($ch, CURLOPT_POST, 1);
curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode($data));
curl_setopt($ch, CURLOPT_HTTPHEADER, array(
'Authorization: Bearer ' . $api_key,
'Content-Type: application/json'
));
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
$response = curl_exec($ch);
$http_code = curl_getinfo($ch, CURLINFO_HTTP_CODE);
curl_close($ch);
if ($http_code == 200) {
$result = json_decode($response, true);
echo $result['choices'][0]['message']['content'];
} else {
echo "错误: " . $response;
}
?>
```
```ruby theme={null}
require 'net/http'
require 'json'
api_key = 'YOUR_API_KEY'
base_url = 'https://api.apiyi.com/v1'
uri = URI("#{base_url}/chat/completions")
http = Net::HTTP.new(uri.host, uri.port)
http.use_ssl = true
request = Net::HTTP::Post.new(uri)
request['Authorization'] = "Bearer #{api_key}"
request['Content-Type'] = 'application/json'
request.body = {
model: 'gpt-3.5-turbo',
messages: [
{ role: 'system', content: '你是一个有用的AI助手。' },
{ role: 'user', content: '你好!请介绍一下自己。' }
],
temperature: 0.7,
max_tokens: 1000
}.to_json
response = http.request(request)
if response.code == '200'
result = JSON.parse(response.body)
puts result['choices'][0]['message']['content']
else
puts "错误: #{response.body}"
end
```
**响应示例**
```json theme={null}
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1699000000,
"model": "gpt-3.5-turbo",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I help you today?"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 10,
"total_tokens": 30
}
}
```
### 2. 文本补全(Completions)
为兼容旧版接口保留,建议使用 Chat Completions。
**请求端点**
```
POST /v1/completions
```
**请求参数**
| 参数 | 类型 | 必填 | 说明 |
| ----------- | ------------ | -- | ------ |
| model | string | 是 | 模型名称 |
| prompt | string/array | 是 | 提示文本 |
| max\_tokens | integer | 否 | 最大生成长度 |
| temperature | number | 否 | 采样温度 |
| top\_p | number | 否 | 核采样参数 |
| n | integer | 否 | 生成数量 |
| stream | boolean | 否 | 流式输出 |
| stop | string/array | 否 | 停止序列 |
### 3. 嵌入向量(Embeddings)
将文本转换为向量表示。
**请求端点**
```
POST /v1/embeddings
```
**请求参数**
| 参数 | 类型 | 必填 | 说明 |
| ---------------- | ------------ | -- | ------------------------------- |
| model | string | 是 | 模型名称,如 `text-embedding-ada-002` |
| input | string/array | 是 | 输入文本 |
| encoding\_format | string | 否 | 编码格式,`float` 或 `base64` |
**完整代码示例**
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/embeddings" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "text-embedding-ada-002",
"input": "这是一段需要向量化的文本示例"
}'
```
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.embeddings.create(
model="text-embedding-ada-002",
input="这是一段需要向量化的文本示例"
)
# 获取向量
embedding = response.data[0].embedding
print(f"向量维度: {len(embedding)}")
print(f"前5个值: {embedding[:5]}")
```
```python theme={null}
import requests
import json
url = "https://api.apiyi.com/v1/embeddings"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "text-embedding-ada-002",
"input": "这是一段需要向量化的文本示例"
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
if response.status_code == 200:
embedding = result["data"][0]["embedding"]
print(f"向量维度: {len(embedding)}")
print(f"向量值: {embedding[:5]}") # 显示前5个值
else:
print(f"错误: {result}")
```
```javascript theme={null}
const OpenAI = require('openai');
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
async function getEmbedding() {
try {
const response = await client.embeddings.create({
model: 'text-embedding-ada-002',
input: '这是一段需要向量化的文本示例'
});
const embedding = response.data[0].embedding;
console.log(`向量维度: ${embedding.length}`);
console.log(`前5个值: ${embedding.slice(0, 5)}`);
} catch (error) {
console.error('API调用错误:', error);
}
}
getEmbedding();
```
### 4. 图像生成(Images)
生成、编辑或变换图像。
**生成图像**
```
POST /v1/images/generations
```
**请求参数**
| 参数 | 类型 | 必填 | 说明 |
| ------- | ------- | -- | ------------------------------------------ |
| model | string | 是 | 模型名称,推荐 `gpt-image-1` |
| prompt | string | 是 | 图像描述提示词 |
| n | integer | 否 | 生成数量,默认1 |
| size | string | 否 | 图像尺寸:`1024x1024`, `1792x1024`, `1024x1792` |
| quality | string | 否 | 质量:`standard` 或 `hd` |
| style | string | 否 | 风格:`vivid` 或 `natural` |
推荐使用 `gpt-image-1` 模型进行图像生成。更多图像生成功能和参数说明,请查看 [GPT图像生成详细文档](/api-capabilities/gpt-image-1)。
**完整代码示例**
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/generations" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-1",
"prompt": "一只可爱的橙色小猫坐在阳光明媚的花园里",
"n": 1,
"size": "1024x1024",
"quality": "hd"
}'
```
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.images.generate(
model="gpt-image-1", # 推荐使用gpt-image-1
prompt="一只可爱的橙色小猫坐在阳光明媚的花园里",
n=1,
size="1024x1024",
quality="hd"
)
# 获取图片URL
image_url = response.data[0].url
print(f"生成的图片: {image_url}")
# 下载图片
import requests
img_response = requests.get(image_url)
with open("generated_image.png", "wb") as f:
f.write(img_response.content)
print("图片已保存为 generated_image.png")
```
```javascript theme={null}
const OpenAI = require('openai');
const fs = require('fs');
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
async function generateImage() {
try {
const response = await client.images.generate({
model: 'gpt-image-1', // 推荐使用gpt-image-1
prompt: '一只可爱的橙色小猫坐在阳光明媚的花园里',
n: 1,
size: '1024x1024',
quality: 'hd'
});
const imageUrl = response.data[0].url;
console.log('生成的图片:', imageUrl);
// 下载图片
const fetch = require('node-fetch');
const imgResponse = await fetch(imageUrl);
const buffer = await imgResponse.buffer();
fs.writeFileSync('generated_image.png', buffer);
console.log('图片已保存');
} catch (error) {
console.error('生成图片错误:', error);
}
}
generateImage();
```
### 5. 音频转文字(Audio)
语音识别和转录。
**转录音频**
```
POST /v1/audio/transcriptions
```
**请求参数**(Form-Data)
| 参数 | 类型 | 必填 | 说明 |
| ---------------- | ------ | -- | ------------------ |
| file | file | 是 | 音频文件 |
| model | string | 是 | 模型名称,如 `whisper-1` |
| language | string | 否 | 语言代码 |
| prompt | string | 否 | 指导提示 |
| response\_format | string | 否 | 响应格式 |
| temperature | number | 否 | 采样温度 |
### 6. 模型列表
获取可用模型列表。
**请求端点**
```
GET /v1/models
```
**响应示例**
```json theme={null}
{
"object": "list",
"data": [
{
"id": "gpt-3.5-turbo",
"object": "model",
"created": 1677610602,
"owned_by": "openai"
},
{
"id": "gpt-4o",
"object": "model",
"created": 1687882411,
"owned_by": "openai"
}
]
}
```
## 流式响应
### 开启流式输出
在请求中设置 `stream: true`:
```json theme={null}
{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello"}],
"stream": true
}
```
### 流式响应格式
响应将以 Server-Sent Events (SSE) 格式返回:
```
data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1699000000,"model":"gpt-3.5-turbo","choices":[{"delta":{"content":"Hello"},"index":0}]}
data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1699000000,"model":"gpt-3.5-turbo","choices":[{"delta":{"content":" there"},"index":0}]}
data: [DONE]
```
### 处理流式响应
```python theme={null}
import requests
import json
response = requests.post(
'https://api.apiyi.com/v1/chat/completions',
headers={
'Authorization': f'Bearer {api_key}',
'Content-Type': 'application/json'
},
json={
'model': 'gpt-3.5-turbo',
'messages': [{'role': 'user', 'content': 'Hello'}],
'stream': True
},
stream=True
)
for line in response.iter_lines():
if line:
line = line.decode('utf-8')
if line.startswith('data: '):
data = line[6:]
if data != '[DONE]':
chunk = json.loads(data)
content = chunk['choices'][0]['delta'].get('content', '')
print(content, end='')
```
```javascript theme={null}
const response = await fetch('https://api.apiyi.com/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': `Bearer ${apiKey}`,
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'gpt-3.5-turbo',
messages: [{role: 'user', content: 'Hello'}],
stream: true
})
});
const reader = response.body.getReader();
const decoder = new TextDecoder();
while (true) {
const {done, value} = await reader.read();
if (done) break;
const chunk = decoder.decode(value);
const lines = chunk.split('\n');
for (const line of lines) {
if (line.startsWith('data: ')) {
const data = line.slice(6);
if (data !== '[DONE]') {
const json = JSON.parse(data);
const content = json.choices[0].delta.content || '';
process.stdout.write(content);
}
}
}
}
```
## 错误处理
### 错误响应格式
```json theme={null}
{
"error": {
"message": "Invalid API key provided",
"type": "invalid_request_error",
"param": null,
"code": "invalid_api_key"
}
}
```
### 常见错误码
| 错误码 | HTTP状态码 | 说明 |
| ----------------------- | ------- | ------- |
| invalid\_api\_key | 401 | API密钥无效 |
| insufficient\_quota | 429 | 额度不足 |
| model\_not\_found | 404 | 模型不存在 |
| invalid\_request\_error | 400 | 请求参数错误 |
| server\_error | 500 | 服务器内部错误 |
| rate\_limit\_exceeded | 429 | 请求频率过高 |
### 错误处理示例
```python theme={null}
try:
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello"}]
)
except Exception as e:
if hasattr(e, 'status_code'):
if e.status_code == 401:
print("API密钥无效")
elif e.status_code == 429:
print("请求过于频繁或额度不足")
elif e.status_code == 500:
print("服务器错误,请稍后重试")
else:
print(f"未知错误:{str(e)}")
```
## 最佳实践
### 1. 请求优化
* **合理设置 max\_tokens**:避免不必要的长输出
* **使用 temperature**:控制输出的随机性
* **批量处理**:合并多个请求减少调用次数
### 2. 错误重试
实现指数退避的重试机制:
```python theme={null}
import time
import random
def retry_with_backoff(func, max_retries=3):
for i in range(max_retries):
try:
return func()
except Exception as e:
if i == max_retries - 1:
raise e
wait_time = (2 ** i) + random.uniform(0, 1)
time.sleep(wait_time)
```
### 3. 安全建议
* **保护API密钥**:使用环境变量存储
* **限制权限**:为不同应用创建不同的密钥
* **监控使用**:定期检查API使用日志
### 4. 性能优化
* **使用流式输出**:提升用户体验
* **缓存响应**:对相同请求缓存结果
* **并发控制**:合理控制并发请求数
## 速率限制
API易 实施以下速率限制:
| 限制类型 | 限制值 | 说明 |
| ------------ | ------- | ------- |
| RPM (每分钟请求数) | 3000 | 每个API密钥 |
| TPM (每分钟令牌数) | 1000000 | 每个API密钥 |
| 并发请求数 | 100 | 同时处理的请求 |
超出限制时会返回 429 错误,请合理控制请求频率。
## 需要帮助?
* 查看 [完整API文档](/api-reference/introduction)
* 访问 [API易官网](https://api.apiyi.com)
* 联系技术支持:[support@apiyi.com](mailto:support@apiyi.com)
本手册持续更新中,请关注最新版本以获取新功能和改进。
# API 可以开多少并发?
Source: https://docs.apiyi.com/faq/api-concurrency
了解不同类型模型的并发限制规则,以及如何申请更高并发配额
## 简短回答
**并发限制因模型类型而异**,文本模型并发最高,图片模型有适度控制。
**重要说明**
并发限制是针对**单一模型**,而不是整个账号。例如,Nano Banana Pro 模型有 30 个并发,不影响其他模型的并发使用。
## 不同模型类型的并发限制
**默认:50 次/秒**
* ✅ 高并发支持
* ✅ 适合批量处理
* 🔓 可申请更高额度
**默认:高并发**
* ✅ 异步处理机制
* ✅ 支持大规模调用
* 📊 适合批量视频生成
**默认:30 次/秒**
* ⚠️ 有并发控制
* 📦 Base64 大数据传输
* 🔓 可申请调整
## 为什么图片模型有并发控制?
**技术原因**
图片生成 API 使用 **Base64 编码**传输图像数据,单次请求数据体积较大(通常 500KB-5MB)。为保证服务稳定性和响应速度,需要适度控制并发。
**示例**:Nano Banana Pro 模型默认 30 个并发,已满足大多数使用场景。
## 并发计算方式
### 按单一模型计算
并发限制是针对**每个具体模型**,而非整个账号:
| 场景 | 并发计算方式 |
| ------ | ------------------------------- |
| 调用同一模型 | 受该模型并发限制(如 Nano Banana Pro 30次) |
| 调用不同模型 | 各模型独立计算,互不影响 |
| 多个令牌 | 每个令牌独立计算并发 |
**实际示例**
假设您同时使用:
* Nano Banana Pro(图片):30 个并发
* GPT-4o mini(文本):50 个并发
* FLUX.1 Pro(图片):30 个并发
**总计可用并发**:110+ 次(各模型独立)
## 如何申请更高并发?
### 个人用户
确定您需要的并发量级和使用场景
通过[企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)说明需求
我们会根据您的使用场景和历史数据评估
审核通过后,为您的令牌调整并发限制
### 企业客户
**专线保障服务**
企业客户可申请专线保障,享受:
* 🚀 **更高并发配额**:根据业务需求定制
* 🔒 **独立资源池**:不受公共流量影响
* ⚡ **优先调度**:保证响应速度
* 📞 **专属技术支持**:一对一服务
联系我们了解企业服务方案。
## 常见问题
文本模型的请求和响应数据量较小(通常几 KB),而图片模型传输 Base64 编码的图像数据(通常 500KB-5MB),为保证整体服务质量需要控制并发。
可以通过以下方式查看:
* 后台控制台查看令牌配置
* API 响应头中的 Rate Limit 信息
* 联系客服查询具体配额
超出并发限制时,API 会返回 `429 Too Many Requests` 错误。建议:
* 实现请求队列管理
* 添加重试机制(指数退避)
* 申请更高并发配额
不共享。每个令牌有独立的并发配额,互不影响。如需更高总并发,可以创建多个令牌分散请求。
一般情况下,合理的并发调整**不收取额外费用**。但极高并发或专线服务可能涉及企业定制方案,具体请咨询客服。
## 并发优化建议
实现本地队列管理,控制同时发送的请求数量,避免超限
遇到 429 错误时,使用指数退避策略重试
创建多个令牌,将请求分散到不同令牌,提升总并发
对于非实时场景,优先使用异步 API(如视频生成)
## 联系我们
如需申请更高并发配额或咨询企业专线服务:
[feedback@apiyi.com](mailto:feedback@apiyi.com)
详细描述您的并发需求
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
快速响应,实时沟通
@apiyi001
即时消息,高效解答
**申请时请提供**:
* 📊 **使用场景**:具体应用(如电商批量出图、内容审核等)
* 📈 **预期并发**:需要的并发量级
* 🕐 **高峰时段**:主要使用时间段
* 📜 **历史数据**:当前调用量和频率
这些信息有助于我们为您提供最合适的并发配额方案。
# Base URL 怎么填?/v1、根域名、/v1beta 有什么区别?
Source: https://docs.apiyi.com/faq/base-url-config
配置 API易 Base URL 的完整指南:OpenAI 用 /v1,Claude 用根域名,Gemini 用 /v1beta
## 快速答案
**一句话记住**:OpenAI 系列加 `/v1`,Claude 只填根域名,Gemini 加 `/v1beta`。填错 Base URL 是最常见的接入问题。
| 模型系列 | Base URL | 适用 SDK |
| ------------------------------- | -------------------------- | --------------------------------------------- |
| GPT / DeepSeek / Llama / Qwen 等 | `https://api.apiyi.com/v1` | OpenAI SDK |
| Claude 系列 | `https://api.apiyi.com` | Anthropic SDK |
| Gemini 系列 | `https://api.apiyi.com` | Google GenAI SDK(需设置 `api_version: "v1beta"`) |
## 为什么不同模型的 Base URL 不一样?
这是由各厂商 SDK 的内部实现决定的:
* **OpenAI SDK**:在 `base_url` 后拼接资源路径,所以需要包含 `/v1`
* **Anthropic SDK**:内部自动拼接 `/v1/messages`,如果你填了 `/v1` 会变成 `/v1/v1/messages`,导致 404 错误
* **Google GenAI SDK**:使用 `/v1beta` 路径,SDK 自动处理路径拼接
## 代码示例
### OpenAI 兼容模型(GPT / DeepSeek / Llama 等)
```python theme={null}
import openai
client = openai.OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1" # 域名 + /v1
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好!"}]
)
print(response.choices[0].message.content)
```
### Claude 模型(Anthropic SDK)
```python theme={null}
import anthropic
client = anthropic.Anthropic(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com" # 只填根域名,不要加 /v1
)
message = client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
messages=[{"role": "user", "content": "你好!"}]
)
print(message.content[0].text)
```
### Gemini 模型(Google GenAI SDK)
```python theme={null}
from google import genai
client = genai.Client(
api_key="YOUR_API_KEY",
http_options={"api_version": "v1beta", "base_url": "https://api.apiyi.com"}
)
response = client.models.generate_content(
model="gemini-2.5-pro",
contents="你好!"
)
print(response.text)
```
**Claude 用户常见错误**:如果你用 Anthropic 官方 SDK 调用 Claude,Base URL 只填 `https://api.apiyi.com`,千万不要加 `/v1`。但如果你用 OpenAI SDK 的兼容模式调用 Claude,则需要加 `/v1`。
## 域名节点选择
API易 提供 4 个域名节点,功能完全一致,区别在于网络线路和部署架构:
**`vip.apiyi.com`**
直连大后端,延迟最低。**全球客户(非中国大陆)首选推荐**。
**`api.apiyi.com`**
国内优化线路,**中国大陆客户默认推荐**。
**`b.apiyi.com`**
Backup 备用节点,同时也是 Business 企业专用线路。主力节点异常时可切换。
**`api-cf.apiyi.com`**
Cloudflare 全球 CDN 加速,适合**纯文本类调用**。有 100 秒超时限制。
| 节点 | 域名 | 推荐客户 | 说明 |
| -------------- | ------------------ | --------- | ----------------- |
| 全球直连 | `vip.apiyi.com` | 非中国大陆客户 | 直连后端,延迟最低 |
| 国内默认 | `api.apiyi.com` | 中国大陆客户 | 国内优化线路(默认) |
| 国内备用/企业 | `b.apiyi.com` | 企业客户 / 备用 | Backup + Business |
| Cloudflare CDN | `api-cf.apiyi.com` | 仅文本类调用 | 全球加速,100 秒超时限制 |
**Cloudflare CDN 节点限制**:`api-cf.apiyi.com` 基于 Cloudflare Workers 部署,最大请求超时为 **100 秒**。因此:
* ✅ **适合**:普通文本对话、短文本生成等快速响应的调用
* ❌ **不适合**:超过 100 秒的复杂长文本任务
* ❌ **不适合**:Nano Banana Pro 等图片生成任务
* ❌ **不适合**:视频生成 API 调用
如果你的任务可能超过 100 秒,请使用 `vip.apiyi.com`(海外)或 `api.apiyi.com`(国内)。
建议在代码中配置备用节点,实现自动切换,提高服务可用性。
## 常见报错排查
| 报错 | 可能原因 | 解决方法 |
| ------------------- | --------------------------------------------- | ------------------------------------------------------------ |
| **404 Not Found** | OpenAI SDK 漏加 `/v1`,或 Anthropic SDK 多加了 `/v1` | 检查路径是否匹配 SDK 规范 |
| **400 Bad Request** | Gemini SDK 路径版本不匹配 | 确认使用 `/v1beta` |
| **连接超时** | 域名节点选择不当 | 国内用 `api.apiyi.com`,海外用 `vip.apiyi.com`;CF-CDN 节点有 100 秒超时限制 |
| **SSL 错误** | 缺少 `https://` 前缀 | 所有节点必须使用 HTTPS |
| **双斜杠错误** | base\_url 末尾多了 `/` | 去掉末尾斜杠 |
## 完整配置速查
### OpenAI 兼容模型
| 节点 | Base URL |
| ------------------- | ----------------------------- |
| 全球直连(海外推荐) | `https://vip.apiyi.com/v1` |
| 国内默认(大陆推荐) | `https://api.apiyi.com/v1` |
| 国内备用/企业 | `https://b.apiyi.com/v1` |
| Cloudflare CDN(仅文本) | `https://api-cf.apiyi.com/v1` |
### Claude 模型(Anthropic SDK)
| 节点 | Base URL |
| ------------------- | -------------------------- |
| 全球直连(海外推荐) | `https://vip.apiyi.com` |
| 国内默认(大陆推荐) | `https://api.apiyi.com` |
| 国内备用/企业 | `https://b.apiyi.com` |
| Cloudflare CDN(仅文本) | `https://api-cf.apiyi.com` |
### Gemini 模型
| 节点 | Base URL |
| ------------------- | -------------------------- |
| 全球直连(海外推荐) | `https://vip.apiyi.com` |
| 国内默认(大陆推荐) | `https://api.apiyi.com` |
| 国内备用/企业 | `https://b.apiyi.com` |
| Cloudflare CDN(仅文本) | `https://api-cf.apiyi.com` |
Gemini 使用 Google GenAI SDK 时,`base_url` 填根域名,同时设置 `api_version: "v1beta"`,SDK 会自动拼接完整路径。
# 如何查看我的调用记录?
Source: https://docs.apiyi.com/faq/call-logs
API易调用日志查看指南,了解如何查看API调用记录和计费详情
## 访问调用日志
进入顶部导航的"日志"页面:[https://api.apiyi.com/log](https://api.apiyi.com/log)
在日志栏目中,您可以查看:
* **每一次调用的成功记录**
* **API 调用的报错日志**
* **详细的计费说明**
## 日志记录内容
### 成功调用记录
每次成功的 API 请求都会记录以下信息:
* **请求时间**:精确到秒的调用时间戳
* **使用模型**:本次调用使用的AI模型
* **Token 计数**:输入和输出的 Token 数量统计
* **计费金额**:本次调用的具体费用
* **调用状态**:请求的执行状态
### 报错日志
失败的 API 调用会记录:
* **错误类型**:具体的错误分类
* **错误信息**:详细的错误描述
* **发生时间**:错误发生的时间戳
* **相关参数**:导致错误的请求参数信息
## 隐私和数据政策
**数据隐私保护**
出于隐私保护和数据存储成本考虑,我们的日志系统:
* **不记录详细的输入和输出内容**
* **只保留基础的 Token 计数信息**
* **仅存储计费所需的必要日志数据**
* **确保用户数据隐私安全**
## 日志查看技巧
### 筛选功能
* **按时间范围筛选**:可以查看特定时间段的调用记录
* **按模型筛选**:可以查看特定AI模型的使用情况
* **按状态筛选**:区分成功和失败的调用记录
### 计费分析
* **单次调用成本**:每次API调用的具体费用
* **Token 使用效率**:输入输出Token的比例分析
* **模型成本对比**:不同模型的使用成本统计
## 常见问题
### 为什么看不到具体的对话内容?
为了保护用户隐私和降低存储成本,我们只记录计费相关的基础信息,不保存具体的输入输出内容。
### 日志保存多长时间?
调用日志会保存足够长的时间以便您进行账单核对和使用分析,具体保存期限请参考服务条款。
### 如何导出调用记录?
目前支持在线查看,如需批量导出功能,请联系客服了解更多详情。
# max_tokens 是什么?不设置会怎样?
Source: https://docs.apiyi.com/faq/max-tokens
了解 max_tokens 参数的作用、OpenAI 参数名称演变、不设置时的默认行为,以及各大模型的最大输出 tokens 参考值。
## 简短回答
`max_tokens` 控制模型单次回复最多生成多少个 token。**API易 不对 max\_tokens 做额外限制**,该参数会直接透传给上游模型。你可以自行设置,不设置则使用模型的默认值。
**API易 的立场**:我们不强制限制 `max_tokens`,完全由你自行控制。不设置时,模型会使用各自的默认值输出。
## max\_tokens 的作用
`max_tokens`(最大输出 token 数)是调用大模型 API 时最常见的参数之一,它告诉模型:**这次回复最多生成多少个 token**。
* 设置得**太小**:模型可能在回答到一半时被截断(返回 `finish_reason: "length"`)
* 设置得**太大**:不会强制模型生成那么多内容,但可能消耗更多费用(部分模型按输出 token 计费)
* **不设置**:使用模型的默认值(各厂商不同,见下方表格)
**Token ≠ 字符**。中文大约 1 个汉字 ≈ 1-2 个 token,英文大约 1 个单词 ≈ 1-1.5 个 token。4,096 tokens 大约相当于 3,000 个中文汉字或 3,000 个英文单词。
## OpenAI 参数名称演变
OpenAI 在不同时期和不同 API 中使用了不同的参数名称,容易造成混淆:
| API 类型 | 参数名称 | 适用模型 | 引入时间 |
| -------------------- | ----------------------- | ---------------------- | ----------------- |
| Chat Completions API | `max_tokens` | GPT-3.5、GPT-4、GPT-4o 等 | 最初版本 |
| Chat Completions API | `max_completion_tokens` | o1、o3、o4-mini 等推理模型 | 2024 年 9 月(o1 发布) |
| Responses API | `max_output_tokens` | GPT-4o、GPT-5.4、o3 等全系列 | 2025 年 |
### 为什么要改名?
2024 年 9 月 OpenAI 发布 o1 推理模型时,引入了「隐藏推理 token」的概念——模型内部会生成大量推理 token(reasoning tokens),但这些 token **不会出现在你的回复中**。
原来的 `max_tokens` 既表示「生成的 token 数」又表示「你收到的 token 数」,但在推理模型中这两者不再相等。因此 OpenAI 改用 `max_completion_tokens` 来明确表示「**你收到的回复 token 上限**」。
后来 Responses API 统一使用了 `max_output_tokens` 这个更直观的名称。
**注意**:如果你使用 OpenAI 的 o 系列推理模型(如 o3、o4-mini),在 Chat Completions API 中**必须使用 `max_completion_tokens`** 而非 `max_tokens`,否则会报错。
## 不设置 max\_tokens 会怎样?
不同厂商的处理方式不同:
| 厂商 | 不设置时的默认行为 | 说明 |
| ---------------------- | ----------------- | -------------------------------- |
| **OpenAI** | 无上限(输出到上下文窗口用完) | 模型自行决定输出长度,不会被人为截断 |
| **Anthropic Claude** | ❌ **必填参数,不设置会报错** | Claude API 要求必须显式指定 `max_tokens` |
| **Google Gemini** | 默认 8,192 tokens | 即使模型支持更大输出,不设置也只返回 8,192 tokens |
| **DeepSeek(chat)** | 默认 4,000 tokens | 可手动提高到 8,000 |
| **DeepSeek(reasoner)** | 默认 32,000 tokens | 包含思维链输出,最大 64,000 |
**特别注意**:Anthropic Claude API 的 `max_tokens` 是**必填参数**。如果不传这个参数,API 会直接返回错误。使用 Claude 模型时请务必设置。
## 各模型最大输出 tokens 参考
以下为主流模型的最大输出 token 数参考值。**实际数值请以各厂商官方文档为准**,因为模型更新频繁。
| 模型 | 模型标识 | 最大输出 tokens | 上下文窗口 |
| ----------------- | -------------------- | ----------- | --------- |
| GPT-5.4 | `gpt-5.4-2026-03-05` | 128,000 | 1,047,576 |
| GPT-4o | `gpt-4o` | 16,384 | 128,000 |
| o3 | `o3` | 100,000 | 200,000 |
| Claude Opus 4.6 | `claude-opus-4-6` | 128,000 | 1,000,000 |
| Claude Sonnet 4.6 | `claude-sonnet-4-6` | 64,000 | 1,000,000 |
| Gemini 3.1 Pro | `gemini-3.1-pro` | 65,536 | 2,000,000 |
| DeepSeek V3 | `deepseek-chat` | 8,000 | 64,000 |
| DeepSeek R1 | `deepseek-reasoner` | 64,000 | 64,000 |
**官方文档参考**(获取最新数值):
* OpenAI:`platform.openai.com/docs/models`
* Anthropic Claude:`docs.anthropic.com/en/docs/about-claude/models`
* Google Gemini:`ai.google.dev/gemini-api/docs/models`
* DeepSeek:`api-docs.deepseek.com/api/create-chat-completion`
## 使用建议
**最佳实践**:建议在每次 API 调用中**显式设置 `max_tokens`**,原因如下:
* 避免不同模型/厂商的默认值差异导致意外截断
* 控制输出长度,防止不必要的 token 消耗
* Claude API 强制要求,养成统一习惯可减少出错
* 典型设置:普通对话 `2048-4096`,长文生成 `8192-16384`,代码生成 `4096-8192`
## 常见问题
**没有**。API易 完全透传 `max_tokens` 参数给上游模型,不做任何额外限制。你设置多少,上游模型就按多少处理。唯一的限制来自模型本身的最大输出 token 上限。
不会报错,模型会自动按自身的最大输出上限生成。例如 GPT-4o 最大输出 16,384 tokens,即使你设置 `max_tokens: 100000`,它最多也只会输出 16,384 tokens。
功能相同,都是限制输出 token 数。区别在于:
* `max_tokens`:OpenAI 早期参数名,适用于 GPT 系列非推理模型
* `max_completion_tokens`:2024 年 9 月起,OpenAI o 系列推理模型使用的参数名
* `max_output_tokens`:OpenAI Responses API 统一使用的参数名
通过 API易 调用时,按照你使用的模型和 API 格式选择对应参数名即可。
这说明模型生成的内容达到了 `max_tokens` 上限。解决方法:
1. 增大 `max_tokens` 值
2. 优化 prompt,让模型生成更简洁的回复
3. 检查是否使用了正确的参数名(o 系列模型需用 `max_completion_tokens`)
## 相关文档
根据应用场景选择最适合的模型
了解不同模型的并发限制
各类工具中配置 API易 Base URL 的方法
管理 API 密钥、查看用量和余额
# 为什么有些模型我用不了?
Source: https://docs.apiyi.com/faq/model-availability
API易模型权限说明,了解如何解锁全部模型和模型不可用的原因
## 用户分组和模型权限
### 充值用户自动升级
充值后,平台会定期把充值用户调整为 **VIP** 或 **SVIP** 分组,即可解锁全部模型。
**自动分组调整**
* 充值用户会被自动分配到VIP/SVIP分组
* VIP/SVIP用户可以使用平台所有可用模型
* 分组调整通常在充值后自动完成
### 手动调整分组
如果您已经充值但分组没有自动调整,可以联系客服进行手动调整:
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
请提供您的账号信息,客服会帮助您调整到正确的用户分组。
## 模型不可用的具体原因
### 1. 高价格模型限制
大部分情况下模型都可以正常使用,但少数高价格模型对 `default` 分组有限制:
* **示例**:`claude-opus-4-20250514` 等新发布的高端模型
* **原因**:因为价格高昂,暂未对默认分组开放
* **解决方案**:充值升级到VIP/SVIP分组即可使用
**高价格模型**
某些最新或高端模型由于成本较高,仅对付费用户开放。充值后即可获得完整的模型访问权限。
### 2. 平台方下线模型
部分模型因为官方平台下线而无法使用:
* **示例**:`gpt-4.5-preview`
* **原因**:OpenAI 平台方已下线该模型
* **结果**:我们也相应下线,无法继续提供服务
**模型下线说明**
当原始AI服务商(如OpenAI、Anthropic等)下线某个模型时,我们也会同步下线该模型。这是为了确保服务的稳定性和一致性。
## 用户分组说明
### Default 分组
* **权限**:基础模型访问
* **限制**:部分高价格模型不可用
* **适用**:免费用户和新注册用户
### VIP/SVIP 分组
* **权限**:全部可用模型访问
* **优势**:包括最新和高端模型
* **获得方式**:充值后自动或手动调整
## 检查模型可用性
### 确认当前分组
1. 登录控制台查看账户信息
2. 确认当前用户分组级别
3. 查看可用模型列表
### 测试模型调用
1. 使用API文档中的测试功能
2. 尝试调用特定模型
3. 查看返回的错误信息
## 常见解决方案
1. **充值升级**:最直接的解决方案,解锁所有模型
2. **联系客服**:充值后分组未调整时的处理方式
3. **选择替代模型**:使用功能类似但可用的其他模型
4. **等待更新**:关注平台公告,了解新模型上线信息
# 模型名称后缀 -c 是什么意思?
Source: https://docs.apiyi.com/faq/model-name-suffix-c
解释 gemini-3-pro-image-preview-c 等带 -c 后缀模型名称的含义和计费区别
## 简短回答
**`-c` 代表 "call"(按次计费)。**
带 `-c` 后缀的模型名称(如 `gemini-3-pro-image-preview-c`)和不带后缀的版本(如 `gemini-3-pro-image-preview`)本质上是**同一个模型**,能力完全一致。区别仅在于计费方式:`-c` 版本专门用于**按次计费**。而目前 Nano Banana Pro 也仅支持按次计费。
## 官方解释
核心要点:
* `-c` 是按次计费(call)的单独模型名称
* 本质上和不带后缀的版本是**同一个模型**
* 都是官方转发,只是用不同模型名来区分计费方式
* 未来可能只用令牌计费模式区分
## 为什么会有 -c 后缀?
API易 正在推出按量计费模式,部分模型同时支持按量和按次两种计费方式。为了区分不同计费通道,系统使用模型名称后缀来标识:
| 模型名称 | 计费方式 | 说明 |
| ------------------------------ | ---- | ------------- |
| `gemini-3-pro-image-preview` | 按量计费 | 根据 Token 用量计费 |
| `gemini-3-pro-image-preview-c` | 按次计费 | 每次调用固定价格 |
两个名称调用的是**完全相同的官方模型**,都是官方转发,模型能力和输出质量没有任何区别。
## 如何选择?
**适合场景**:
* 输入输出 Token 数量较少的请求
* 需要精确控制成本
* 主要做文本理解/分析任务
使用不带 `-c` 的模型名称
**适合场景**:
* 图片生成等固定输出场景
* 希望每次调用成本透明固定
* 不想计算 Token 消耗
使用带 `-c` 的模型名称
**推荐做法**:创建令牌时选择"**按量优先**"计费模式,系统会自动为您选择最合适的计费方式,无需手动区分模型名称后缀。详见 [令牌计费模式说明](/faq/token-billing-modes)。
## 未来计划
API易 正在持续优化计费体系。未来可能**仅通过令牌的计费模式**来区分按量/按次计费,届时无需再关注模型名称后缀。具体调整请关注平台公告。
## 常见问题
**是的,完全是同一个模型。**
`-c` 只是计费通道的标识,不影响模型能力。两个名称最终都会转发到相同的官方 API,输出质量完全一致。
取决于您的令牌计费模式:
* **按量优先令牌**:使用不带后缀的名称(如 `gemini-3-pro-image-preview`),系统自动处理
* **按次计费令牌**:使用带 `-c` 的名称(如 `gemini-3-pro-image-preview-c`)
* **不确定**:推荐使用"按量优先"令牌 + 不带后缀的模型名称
不是。只有同时支持按量和按次两种计费方式的模型才会有 `-c` 后缀版本。纯文本模型(如 GPT-4o、Claude)通常只支持按量计费,不会有 `-c` 版本。
API易 正在调整计费体系,未来可能不再需要通过模型名称后缀区分计费方式,改为完全通过令牌计费模式来控制。建议使用"按量优先"令牌,这样无论后续如何调整都不受影响。
## 相关文档
了解按量优先、按次计费等 5 种计费模式的区别
创建和管理 API 令牌的完整指南
# 如何选择合适的 AI 模型?
Source: https://docs.apiyi.com/faq/model-selection-guide
了解如何根据应用场景选择最适合的 AI 模型,掌握模型选型的核心原则
## 快速查看模型信息
**推荐查看**:[模型信息总览页面](/api-capabilities/model-info)
本页面会及时更新当下最新的模型列表、性能指标和价格信息,帮助您快速了解所有可用模型。
## 核心选型原则
**优先选择新模型**
* ✅ 性能更强,效果更好
* ✅ 价格反而更便宜
* ✅ 功能更丰富
* ✅ 支持更长上下文
**匹配实际需求**
* 📊 数据分析:推理能力强的模型
* 💬 对话应用:平衡性能和成本
* 🎨 创意生成:支持多模态的模型
* ⚡ 批量处理:高性价比模型
## 常见场景推荐
### 文本生成与对话
**推荐模型**:
* **Claude 3.5 Sonnet**:综合能力强,适合复杂任务
* **GPT-4o mini**:性价比极高,适合大量调用
* **Gemini 2.0 Flash**:速度快,成本低
**适用场景**:客服机器人、内容生成、文案撰写
**推荐模型**:
* **Claude 3.7 Sonnet**:顶级推理能力
* **Gemini 3 Pro Preview**:数据分析专家
* **o1 系列**:深度思考模型
**适用场景**:数据分析、代码生成、逻辑推理
**推荐模型**:
* **GPT-4o mini**:\$0.15/百万 tokens 起
* **Gemini 2.0 Flash**:速度快,稳定性高
* **GLM-4-Flash**:国产高性价比选择
**适用场景**:批量翻译、内容审核、数据处理
### 图像生成
**推荐模型**:
* **FLUX.1 Pro**:最高质量,适合专业场景
* **FLUX.1 Schnell**:速度优先,快速迭代
* **SeeDream 4.5**:4K 生成,性价比高(\$0.035/张)
**适用场景**:
* **电商产品图**:SeeDream 4.5(支持参考图像)
* **营销创意**:FLUX.1 Pro(质量最优)
* **快速原型**:FLUX.1 Schnell(3秒出图)
### 代码与技术应用
**推荐模型**:
* **Claude 3.7 Sonnet**:代码质量最佳
* **GPT-4o**:多语言支持全面
* **Gemini 3 Pro Preview**:SWE-bench 76.2% 高分
**适用场景**:代码生成、代码审查、技术文档生成
## 具体场景咨询
如果您有特定的应用场景,不确定该选择哪个模型,欢迎随时联系我们获取专业建议:
[feedback@apiyi.com](mailto:feedback@apiyi.com)
详细描述您的使用场景
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
快速响应,实时沟通
@apiyi001
即时消息,高效解答
**咨询时请提供以下信息**:
* 🎯 **应用场景**:具体用途(如批量图片标题生成、客服对话等)
* 📊 **使用规模**:预计每日调用量
* ⚡ **性能要求**:响应速度、质量要求
* 💰 **预算范围**:成本控制目标
这些信息能帮助我们为您推荐最合适的模型组合。
## 实际案例
**案例:批量图片标题生成**
**客户需求**:需要为大量商品图片生成标题描述
**推荐方案**:
* **GPT-4o mini**:成本低(\$0.15/百万 tokens),质量稳定,适合批量处理
* **Gemini 2.0 Flash**:速度快,成本更低,适合超大批量
**理由**:这类任务对创意要求不高,但对成本和速度敏感,mini 和 flash 系列性价比最优。
## 模型更新说明
**保持关注**
AI 模型迭代速度很快,新模型通常在性能和价格上都有显著提升。我们建议:
* 📖 定期查看 [模型信息页面](/api-capabilities/model-info) 了解最新模型
* 🔔 关注 [更新日志](/changelog) 获取新模型发布通知
* 🧪 使用免费额度测试新模型效果
* 📈 根据实际效果逐步切换到新模型
**记住**:用新不用旧,新模型往往更强更便宜!
# 为什么大模型不知道自己的版本号?
Source: https://docs.apiyi.com/faq/model-version-identity
解释通过 API 调用时模型无法准确回答自身版本的原因,以及官网和 API 的区别
## 简短回答
**这是完全正常的现象,不影响模型能力。**
模型的名字是训练完成后才命名的,模型本身从未"学习过"自己的身份信息。官方网页版(如 claude.ai、chatgpt.com)之所以能正确回答,是因为内置了 System Prompt 告知模型"你是谁"。通过 API 调用时默认没有这些信息,所以模型会"猜错"自己的版本。
## 实际案例
**常见场景**
通过 API 调用 Claude Sonnet 4.5,问它"你是什么模型?",它可能回答"我是 Claude 3.5 Sonnet"。这**不代表**你调用的模型有误,而是模型本身不知道自己的名字。
同样的情况也出现在 GPT-4o、Gemini 等所有模型上——这是大模型的通用特性,而非 API易 的问题。
## 通俗理解
想象一位演技精湛的演员:
* **能力**来自多年训练(相当于模型的训练过程)
* **角色名字**由导演在开拍前告诉他(相当于 System Prompt)
* 如果没人告诉他演什么角色,他虽然演技一流,但**不知道自己叫什么名字**
大模型也是如此:能力来自训练数据,但"我是 Claude Sonnet 4.5"这个身份信息,需要额外告知。
## 技术原理
**模型命名发生在训练之后**
大模型的开发流程是:
1. **收集数据** → 准备训练语料
2. **训练模型** → 学习语言理解和生成能力
3. **评测调优** → 优化模型表现
4. **命名发布** → 给模型起名字(如 "Claude Sonnet 4.5")
模型在第 2 步完成训练时,第 4 步的名字还不存在。模型的训练数据中可能包含旧版本模型的名字(如 Claude 3.5 Sonnet),所以被问到时会"猜"一个它见过的名字。
**类比**:就像一个人在出生前不可能知道自己的名字——名字是出生后才取的。
**内置 System Prompt 的作用**
当你在 claude.ai 或 chatgpt.com 上对话时,官方网页会自动在每次对话开头注入一段隐藏的 System Prompt,类似:
```
你是 Claude,由 Anthropic 开发。你的模型版本是 Claude Sonnet 4.5...
```
这段提示词对用户不可见,但模型会"读到"它,从而知道自己是谁。
**所以**:不是模型"天生"知道自己的名字,而是官方网页每次都在"提醒"它。
**API 调用默认不包含身份信息**
通过 API 调用模型时,你发送的只有:
* `model` 参数(告诉服务器调用哪个模型)
* `messages` 数组(你的对话内容)
* 可选的 `system` 参数(你自定义的系统提示词)
`model` 参数是给**服务器**看的路由信息,模型本身读不到这个字段。如果你没有在 `system` 中告诉模型它是谁,模型就只能根据训练数据"猜测"。
**这对所有 API 平台都一样**——无论是官方 API、API易,还是其他中转站,行为完全一致。
## 如何验证你调用的模型是否正确?
在 API易 控制台的**调用日志**中,可以看到每次请求实际使用的模型名称,这是最准确的验证方式。
每个 API 响应的 JSON 中都包含 `model` 字段,明确标识了实际调用的模型版本。
```json theme={null}
{
"model": "claude-sonnet-4-5-20250514",
"choices": [...]
}
```
## API易 服务保障
**API易 是官方渠道转发,模型质量与源头完全一致。**
* API易 直接转发请求到 OpenAI、Anthropic、Google 等官方 API
* 模型回答"不知道自己是谁"是所有 API 平台的通用现象
* 您可以通过调用日志和 API 响应中的 `model` 字段确认实际调用的模型
* 如有疑问,随时联系我们的技术团队验证
## 如何让模型正确回答自己的版本?
只需在 API 调用时添加 `system` 参数,告知模型它的身份即可:
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://vip.apiyi.com/v1"
)
response = client.chat.completions.create(
model="claude-sonnet-4-5-20250514",
messages=[
{
"role": "system",
"content": "你是 Claude Sonnet 4.5,由 Anthropic 开发的 AI 助手。"
},
{
"role": "user",
"content": "你是什么模型?"
}
]
)
print(response.choices[0].message.content)
# 输出:我是 Claude Sonnet 4.5,由 Anthropic 开发。
```
**提示**:这和官方网页版的原理完全一样——通过 System Prompt 告知模型身份。添加后,模型就能正确回答"我是谁"了。
## 相关问题
了解不同模型的特点和适用场景
了解模型权限和用户组等级
验证实际调用的模型版本
常见 API 错误排查指南
## 联系我们
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
模型验证咨询、技术支持
**客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com)
**商务合作**:[business@apiyi.com](mailto:business@apiyi.com)
# Nano Banana 系列出图失败,常见原因有哪些?
Source: https://docs.apiyi.com/faq/nano-banana-image-failure
Nano Banana Pro/2 出图失败的常见原因分析,包括内容安全、去水印、知名IP、未成年人等触发谷歌安全机制的场景
## 简要说明
Nano Banana 系列(包括 Nano Banana Pro 和 Nano Banana 2)底层使用谷歌 Gemini 模型。出图失败的主要原因是**触发了谷歌的内容安全机制**,谷歌会在生成阶段直接拦截不合规的请求。API易作为透明代理,忠实转发谷歌的反馈结果。
## 常见触发原因
包含色情、暴力、血腥、仇恨言论等不适当内容的提示词或参考图,会被谷歌安全机制直接拦截。
要求去除图片上的水印属于违反内容政策的操作,谷歌会拒绝处理此类请求。
涉及迪士尼、漫威、任天堂等知名版权角色的生成请求,会因版权保护被拒绝。
任何涉及未成年人的不当内容生成请求,谷歌执行零容忍政策,严格拦截。
### Nano Banana 2 新增限制
自 2026 年 2 月 27 日 Nano Banana 2 上线后,谷歌进一步收紧了安全机制,以下场景也会触发拦截:
涉及公众人物(明星、政治人物等)的图像生成或编辑请求会被拒绝。
试图修改图片中的金融信息、订单截图、价格标签等内容会被拦截。
对人物进行换装、换脸等操作涉及隐私和伦理问题,会被安全机制拒绝。
即使没有直接的色情描述,暗示性的、擦边的不当内容也会被识别并拦截。
## 政策更新时间线
| 时间 | 事件 | 影响 |
| ---------- | ---------------- | -------------------------------- |
| 2026年1月23日 | 谷歌调整风控政策 | 整体安全审核更加严格,部分原本可通过的提示词被拦截 |
| 2026年2月27日 | Nano Banana 2 上线 | 新增知名人物、金融信息修改、换装换脸、隐性 NSFW 等拦截规则 |
## 出图失败的典型表现
当出图失败时,API 返回的 HTTP 状态码仍然是 **200**,但响应内容中不包含图片数据,而是返回文字说明。
**为什么状态码是 200?** API易作为透明代理,忠实转发谷歌 API 的原始响应。谷歌在安全拦截时返回的就是 200 状态码 + 文本拒绝说明,而非 HTTP 错误码。
### 常见的报错文案示例
谷歌 API 返回的拒绝文本通常包含以下内容:
* `"我不能完成 xxx 的修改"`
* `"我不能为你创建带有色情、不雅或冒犯性内容的图像"`
* `"I can't generate images that are sexually explicit."`
* `"I'm just a language model and can't help with that."`
注意:谷歌的安全过滤存在一定的随机性。**同一个提示词有时能生成、有时不能**,这与参考图内容、提示词组合方式等因素有关。
## C 端产品开发者建议
如果你正在基于 Nano Banana 系列 API 开发面向用户的产品,建议做好错误处理逻辑,为用户提供友好的失败提示。
我们提供了详细的错误处理开发指南,包含完整的判断流程、代码示例和用户友好文案模板:
📖 错误处理开发指南(飞书文档):`xinqikeji.feishu.cn/wiki/Rslqw724YiBwlokHmRLcMVKHnRf`
**核心判断指标**:
1. **candidatesTokenCount = 0**:谷歌在内容审核阶段直接拒绝
2. **finishReason 不是 STOP**:生成过程中被安全策略拦截
3. **有文本但无图片**:API 返回了拒绝说明而非图片数据
## 联系支持
如果你的使用场景是正常合规的,但仍然遇到出图失败问题,欢迎联系我们排查:
* 企业微信客服:[点击联系](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
* 邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)
# 令牌的按量优先/按次计费有什么区别?
Source: https://docs.apiyi.com/faq/token-billing-modes
详细说明API易令牌的5种计费模式、使用场景和最佳实践
## 快速答案
**推荐设置**:创建令牌时,\*\*计费模式选择"按量优先"\*\*即可,适用于绝大多数场景。
虽然系统提供了 5 种计费类型,但\*\*默认使用"按量优先"\*\*就能覆盖所有模型的调用需求。
## 5 种计费模式详解
### 1. 按量计费
**定义**:根据输入和输出的 **Token 数量**计费,使用多少 Tokens 扣多少费用。
**适用模型**:
* **文本生成模型**:GPT-4、Claude、Gemini、DeepSeek 等
* **多模态理解模型**:支持图片/音频输入的模型
* **特殊图片模型**:`gpt-image-1`(按 Tokens 计费)
**计费方式**:
```
总费用 = (输入 Tokens × 输入价格) + (输出 Tokens × 输出价格)
```
**示例**:
* `gpt-4o`:输入 \$5/百万 tokens,输出 \$15/百万 tokens
* `claude-3-5-sonnet-20241022`:输入 \$3/百万 tokens,输出 \$15/百万 tokens
**gpt-image-1 特殊说明**:虽然是图片生成模型,但按 Tokens 计费。影响 Tokens 的因素包括:
* 图片分辨率(1024x1024、1792x1024 等)
* 图片质量(standard、hd)
OpenAI 官方提供了详细的计费表,不同分辨率和质量对应不同的 Token 消耗。
***
### 2. 按次计费
**定义**:每次调用**固定扣费**,不受输入和输出 Tokens 影响。
**适用模型**:
* **图片生成模型**:DALL-E、Flux、Sora Image 等(除了 gpt-image-1)
* **视频生成模型**:Sora Video、VEO 等
**计费方式**:
```
总费用 = 调用次数 × 单次价格
```
**示例**:
* `gemini-3-pro-image-preview`(别名 `nano-banana-pro`):\$0.09/次
* `sora_video2`:\$0.15/次(10秒视频)
* `flux-1.1-pro`:\$0.04/次
**按次计费的优势**:
* 价格透明,每次生成固定费用
* 无需计算 Token 消耗
* 适合图片/视频等固定输出场景
***
### 3. 混合计费
**定义**:同时支持按量和按次两种计费方式,根据模型自动选择。
**状态**:⚠️ **不适用**
目前 API易 平台**不推荐使用"混合计费"模式**,该模式可能导致计费混乱。建议使用"按量优先"替代。
***
### 4. 按量优先(推荐)
**定义**:**智能计费模式**,当模型同时支持按量和按次计费时,**优先使用按量计费**;如果模型只支持按次,则自动切换为按次计费。
**为什么推荐?**
* ✅ **包含按次计费**:可以调用图片/视频等按次计费模型
* ✅ **包含按量计费**:可以调用文本/多模态等按量计费模型
* ✅ **自动适配**:系统自动选择最合适的计费方式
* ✅ **覆盖全场景**:200+ 模型全部支持
**计费逻辑**:
```
如果模型支持按量计费 → 使用按量计费
如果模型只支持按次计费 → 使用按次计费
```
**示例场景**:
| 模型 | 计费方式 | 说明 |
| ---------------------------- | ---- | ---------------- |
| `gpt-4o` | 按量计费 | 文本模型,优先按量 |
| `gpt-image-1` | 按量计费 | 图片模型但按 Tokens 计费 |
| `gemini-3-pro-image-preview` | 按次计费 | 图片模型,自动切换为按次 |
| `sora_video2` | 按次计费 | 视频模型,自动切换为按次 |
**推荐理由**:使用"按量优先"令牌,可以调用所有模型,无需为不同模型创建不同计费模式的令牌。
***
### 5. 按次优先
**定义**:当模型同时支持按量和按次计费时,**优先使用按次计费**;如果模型只支持按量,则自动切换为按量计费。
**适用场景**:
* 需要固定成本的场景
* 主要使用图片/视频生成模型
**计费逻辑**:
```
如果模型支持按次计费 → 使用按次计费
如果模型只支持按量计费 → 使用按量计费
```
**使用建议**:除非有明确的成本控制需求,否则建议使用"按量优先",因为文本模型按量计费通常更划算。
***
## 如何选择计费模式?
### 推荐方案(适合 95% 用户)
**适用场景**:
* 同时使用文本、图片、视频模型
* 不想为不同模型创建不同令牌
* 需要最大灵活性
**优势**:
* 覆盖所有 200+ 模型
* 系统自动选择最优计费方式
* 无需额外配置
### 特殊场景
**场景**:只使用 GPT、Claude、Gemini 等文本模型
**推荐计费模式**:按量优先 或 按量计费
**原因**:文本模型都是按量计费,两种模式效果相同
**场景**:只使用 DALL-E、Flux、Sora 等生成模型
**推荐计费模式**:按量优先 或 按次优先
**原因**:图片/视频模型大多按次计费,但"按量优先"也能自动适配
**注意**:如果使用 `gpt-image-1`,必须使用"按量优先"或"按量计费"
**场景**:严格控制预算,希望每次调用成本固定
**推荐计费模式**:按次计费 或 按次优先
**原因**:按次计费价格固定,便于成本预测
**限制**:无法调用文本模型(如 GPT-4、Claude)
***
## 常见问题
`gpt-image-1` 是 OpenAI 的官方图片生成模型,虽然是图片生成,但计费方式与文本模型类似,**按 Tokens 计费**。
**计费因素**:
* 图片分辨率(1024x1024 消耗约 5000 tokens,1792x1024 消耗约 8500 tokens)
* 图片质量(HD 质量会增加 Token 消耗)
**解决方案**:
* 使用"按量优先"或"按量计费"令牌
* 如果使用"按次计费"令牌,将无法调用 `gpt-image-1`
**可以修改**。步骤如下:
1. 登录 [API易令牌管理页面](https://api.apiyi.com/token)
2. 找到对应的令牌,点击右侧的"编辑"按钮
3. 在"计费模式"下拉菜单中选择"按量优先"
4. 保存配置
**注意**:修改后立即生效,不影响已有余额。
**优先级不同**:
| 计费模式 | 当模型同时支持按量和按次时 | 适用场景 |
| ---- | ------------- | ----------------- |
| 按量优先 | 优先使用按量计费 | 主要使用文本模型,偶尔用图片/视频 |
| 按次优先 | 优先使用按次计费 | 主要使用图片/视频,偶尔用文本模型 |
**推荐**:大多数情况下使用"按量优先"即可。
**不会立即失败,但可能无法调用某些模型**。
**示例场景**:
* 如果令牌是"按次计费",调用 `gpt-4o` 会失败(因为 gpt-4o 只支持按量计费)
* 如果令牌是"按量计费",调用 `gemini-3-pro-image-preview` 可能失败(因为该模型只支持按次计费)
**解决方案**:使用"按量优先"避免这个问题。
**混合计费**在理论上可以同时支持按量和按次,但在实际使用中可能导致:
* 计费逻辑不明确
* 成本难以预测
* 系统兼容性问题
**替代方案**:使用"按量优先"可以达到相同效果,且更稳定可靠。
***
## 总结建议
| 计费模式 | 推荐指数 | 适用场景 | 覆盖模型 |
| -------- | ----- | ---------- | ---------------------- |
| **按量优先** | ⭐⭐⭐⭐⭐ | 所有场景(默认推荐) | 所有 200+ 模型 |
| 按量计费 | ⭐⭐⭐ | 纯文本/多模态应用 | 文本模型 + gpt-image-1 |
| 按次计费 | ⭐⭐⭐ | 纯图片/视频应用 | 图片/视频模型(除 gpt-image-1) |
| 按次优先 | ⭐⭐ | 主要使用图片/视频 | 所有 200+ 模型 |
| 混合计费 | ❌ | 不推荐使用 | 可能导致计费混乱 |
**最佳实践**:创建令牌时,计费模式选择"**按量优先**",可以覆盖所有使用场景,无需为不同模型创建不同令牌。
## 相关文档
* [如何创建 KEY?](/faq/token-management)
* [令牌需要设置可用模型吗?](/faq/token-model-whitelist)
* [定价说明](/pricing)
* [模型列表](/api-capabilities/model-info)
# 如何创建 KEY?
Source: https://docs.apiyi.com/faq/token-management
API易令牌管理指南,包括获取默认令牌和创建新KEY的完整说明
# 如何创建KEY?
## 获取现有的默认令牌
1. 进入顶部导航的"令牌"页面:[https://api.apiyi.com/token](https://api.apiyi.com/token)
2. 在页面中找到默认令牌,点击最右侧的管理菜单
3. 在管理菜单中找到复制图标,点击复制
4. 复制出完整的 KEY,KEY 的格式是以 `sk-` 开头
## 新增KEY
除了使用默认令牌,您也可以创建新的 KEY 来精准控制使用权限:
### 新增KEY的优势
* **余额控制**:可以为每个 KEY 设置专门的余额限制
* **有效期管理**:可以设置 KEY 的过期时间
* **灵活分配**:适合团队使用或项目隔离
**重要提示**:创建新 KEY 时,**不需要设定可用模型**。
这里采用白名单机制:
* **如果设置了可用模型**:该 KEY 只能使用指定的模型
* **如果不设置可用模型**:该 KEY 可以使用整个网站里的 200+ 模型
推荐不设置可用模型,这样可以享受所有模型的访问权限。
## KEY格式说明
* 所有 API KEY 都以 `sk-` 开头
* KEY 长度通常为 48-64 位字符
* 请妥善保管您的 KEY,不要在公开场所分享
## 使用建议
1. **开发测试**:使用默认令牌进行快速开发和测试
2. **生产环境**:为生产项目创建专门的 KEY,便于管理和监控
3. **团队协作**:为不同团队成员创建独立的 KEY,方便权限管理
# 令牌需要设置可用模型吗?
Source: https://docs.apiyi.com/faq/token-model-whitelist
详细说明API易令牌的可用模型设置机制、使用建议和常见场景
## 一般情况:不需要设置
**推荐做法**:创建令牌时,**不需要设置可用模型**,这样可以使用整个站点的所有模型。
可用模型采用**白名单机制**:
* **不设置**:该令牌可以调用站点上所有 200+ 模型
* **设置后**:该令牌只能调用指定的模型,无法使用其他模型
如果您的业务场景多样化,设置可用模型会限制令牌的使用范围,反而影响灵活性。
## 为什么不建议设置?
### 1. 限制调用范围
假设您设置了可用模型为 `gpt-4o`、`claude-3-5-sonnet-20241022`,那么:
* ✅ 可以调用:`gpt-4o`、`claude-3-5-sonnet-20241022`
* ❌ 无法调用:`gemini-2.5-pro`、`deepseek-v3`、其他 200+ 模型
这会严重限制您的业务灵活性。
### 2. 模型别名问题
**模型别名陷阱**:部分模型有别名,设置可用模型时容易出错。
**案例**:
* **别名**:`nano-banana-pro`(友好的简称)
* **正式名称**:`gemini-3-pro-image-preview`(官方 API 名称)
如果您设置可用模型为 `nano-banana-pro`,但代码中调用 `gemini-3-pro-image-preview`,会返回错误:
```
{
"error": {
"message": "Model not allowed for this API key",
"type": "invalid_request_error"
}
}
```
### 3. 业务场景变化
随着业务发展,您可能需要测试或切换不同模型:
* 从 GPT-4 切换到 Claude 3.5
* 测试国产模型 DeepSeek、Qwen
* 尝试新发布的 Gemini 2.5
如果提前设置了可用模型,每次需要修改白名单,非常麻烦。
## 什么情况下需要设置?
虽然不推荐,但以下场景可以考虑设置可用模型:
### 场景 1:共享令牌给他人
如果您将令牌 KEY 共享给同事或朋友,并希望他们**只能使用特定模型**(如 `gpt-3.5-turbo`),避免高价模型消耗您的余额,这种情况可以设置可用模型。
**示例**:
* 您的余额有限,只想让同事使用 `gpt-3.5-turbo`、`gpt-4o-mini`
* 设置可用模型后,即使同事尝试调用 `o3`,也会被拒绝
### 场景 2:预算控制
如果您为某个项目设置了严格的预算,只允许使用低成本模型,可以通过可用模型白名单限制:
**示例**:
* 项目预算有限,只允许使用 `deepseek-v3`(\$0.07/百万 tokens)
* 禁止使用 `o3`(\$20/百万 tokens)避免超支
### 场景 3:安全合规
部分企业有严格的 AI 模型使用规范,只允许使用经过审批的模型。
**示例**:
* 公司只允许使用 OpenAI 官方模型
* 设置可用模型为 `gpt-4o`、`gpt-4.1`,禁止使用其他厂商模型
## 如何设置可用模型?
如果您确实需要设置可用模型,步骤如下:
1. 登录 [API易令牌管理页面](https://api.apiyi.com/token)
2. 点击"新增 KEY"或编辑现有令牌
3. 在"可用模型"字段中选择允许的模型
4. 保存配置
**使用正式名称**:设置可用模型时,建议使用模型的**官方正式名称**(如 `gemini-3-pro-image-preview`),而非别名(如 `nano-banana-pro`),避免调用失败。
您可以在 [模型列表页面](/api-capabilities/model-info) 查看所有模型的正式名称。
## 总结
| 设置方式 | 优点 | 缺点 | 适用场景 |
| ----------- | --------------------------------------------- | ---------------------------------------- | ------------------ |
| **不设置可用模型** | ✅ 可使用所有 200+ 模型
✅ 无需担心别名问题
✅ 业务灵活性高 | ❌ 无法限制他人使用高价模型 | 个人使用、开发测试、生产环境(推荐) |
| **设置可用模型** | ✅ 严格控制模型使用范围
✅ 防止高价模型消耗余额 | ❌ 限制灵活性
❌ 可能遇到别名问题
❌ 需要手动维护白名单 | 共享令牌、预算控制、安全合规 |
**推荐做法**:除非有明确的控制需求,否则**不设置可用模型**,享受所有模型的访问权限。
## 相关文档
* [如何创建 KEY?](/faq/token-management)
* [模型列表](/api-capabilities/model-info)
* [定价说明](/pricing)
# 快速开始
Source: https://docs.apiyi.com/getting-started
只需简单三步,即可开始使用 API易 访问各种 AI 模型。
## 第一步:账户准备
### 1.1 注册账号
访问 [API易官网](https://api.apiyi.com) 注册账号:
* 使用邮箱注册(推荐高校、企业邮箱注册)
* 验证邮箱地址
* 登录控制台
### 1.2 账户充值
在控制台进行充值:
1. 点击"充值"菜单
2. 选择充值金额(最低 5 美金起,充值越多加赠越多,[查看优惠政策](/faq/recharge-promotions))
3. 完成支付(支持支付宝、微信)
新用户首次充值可获得额外赠送,充值后余额立即到账,首充加赠额度需要[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)后为你人工加赠。
## 第二步:创建 API 密钥
### 2.1 生成密钥
1. 在后台导航点击"令牌"栏目,[https://api.apiyi.com/token](https://api.apiyi.com/token)
2. 可以复制【默认令牌】直接使用(右侧有个 复制 图标)
3. 或者新创建令牌:点击右上侧"新增"按钮,为密钥命名(如:test-key),点击确认创建,即拥有新的令牌。
## 第三步:开始调用
### 3.1 获取接入信息
* **API 地址(所谓的 Base\_Url)**:`https://api.apiyi.com`
* **API 密钥**:您刚创建的密钥
* **请求格式**:完全兼容 OpenAI API,兼容 OpenAI 格式调用。
### 3.2 测试调用
使用 curl 快速测试:
```bash theme={null}
curl https://api.apiyi.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "gpt-4.1-mini",
"messages": [{"role": "user", "content": "Hello!"}]
}'
```
### 3.3 代码示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="gpt-4.1-mini",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
```
```javascript theme={null}
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.apiyi.com/v1'
});
const response = await openai.chat.completions.create({
model: 'gpt-4.1-mini',
messages: [{ role: 'user', content: 'Hello!' }]
});
console.log(response.choices[0].message.content);
```
```java theme={null}
// 使用官方 OpenAI Java 库
OpenAiService service = new OpenAiService(
"YOUR_API_KEY",
Duration.ofSeconds(60),
"https://api.apiyi.com/v1"
);
ChatCompletionRequest request = ChatCompletionRequest.builder()
.model("gpt-4.1-mini")
.messages(List.of(
new ChatMessage(ChatMessageRole.USER, "Hello!")
))
.build();
ChatCompletionResult result = service.createChatCompletion(request);
System.out.println(result.getChoices().get(0).getMessage().getContent());
```
## 下一步
恭喜!您已经成功完成了 API易 的接入。接下来您可以:
了解完整的 API 接口说明
查看所有支持的 AI 模型
将 API易 集成到各种工具
在控制台监控使用情况
## 常见问题
### 如何切换模型?
只需修改请求中的 `model` 参数:
```json theme={null}
{
"model": "gpt-4.1", // 使用 GPT-4.1
"model": "claude-sonnet-4-20250514", // 使用 Claude 4 Sonnet
"model": "gemini-2.5-pro" // 使用 Gemini 2.5 Pro
}
```
### 支持哪些编程语言?
API易 兼容 OpenAI API 标准,支持所有 OpenAI SDK 支持的语言:
* Python
* JavaScript/TypeScript
* Java
* C#/.NET
* Go
* Ruby
* PHP
* 更多...
### 如何查看余额?
登录 [控制台](https://api.apiyi.com/account/profile) 即可查看:
* 账户余额
* 使用记录
* 消费统计
### 遇到问题怎么办?
1. 查看 [API 文档](/api-reference/introduction)
2. 检查 [常见错误](/api-reference/errors)
3. 联系客服:[support@apiyi.com](mailto:support@apiyi.com)
提示:保存好您的 API 密钥,并定期在控制台查看使用日志,每笔请求都有消息历史,合理优化成本。
祝使用愉快\~
# API易 - 企业级 AI 大模型 API 中转站
Source: https://docs.apiyi.com/index
专业稳定的 AI API 聚合服务商,已上线两年,月访客 30 万+,长期可靠服务
**International users?** [Switch to English version](/en)
# 欢迎使用『API易』
**API易** 是企业级专业稳定的 AI 大模型 API 中转站,基于统一的OpenAI API标准,支持 400+ 热门AI模型。一个令牌,即可轻松调用OpenAI、Claude、Gemini、DeepSeek、Qwen、Kimi、GLM、Minimax 等所有主流大模型。
## 🏢 公司背景
* 主体运营公司:APIYI, LLC(美国)
* 官方资源合作:Google Aistudio、微软Azure、亚马逊AWS(额度来源正规,放心使用)
* 服务保障:
* 稳定:提供 OpenAI、Claude、Google Gemini 等主流模型的高并发和稳定服务
* 可信:
* 已有众多知名应用在生产环境中稳定接入(见 使用场景 栏目)。
* 已合作知名高校、医院等单位,已服务知名企业。
* 国内主体可以对公支付,开具发票,协助提供采购清单等报销无忧。
## 🌟 优势模型推荐
**🎨 图像生成**
当下最强,4K仅需
**\$0.09** /张
🎯 约官网 38%
**🎬 视频生成**
顶级视频生成,可靠稳定
**\$0.1/s** 起
⚡ 官网价格 85 折
**🔥 多模态推理**
更强推理与编码能力
**\$2.00** / 百万 tokens
🏆 性能领先
## 📖 产品基础
三步完成接入,立即开始使用 AI 模型
完整的接口文档和开发者指南
🔥 最新模型上线、价格调整等重要更新
查看所有模型的详细定价和优惠信息
## 🔧 核心接口
Chat Completions - 创建多轮对话和文本生成
Models API - 获取所有可用模型信息
Images API - flux-kontext-pro、GPT-4o 图像生成
Embeddings API - 文本向量化和语义搜索
## ⚡ API 能力
### 🎬 视频生成 API
🔥 音视频同步,无水印输出,\$0.12/次起
异步调用模式,支持批量处理和后台任务
谷歌最新视频生成模型,专业级视频创作
智能视频分析,场景识别、内容理解
### 🎨 图像生成 API
🔥 4K 高清,业界最佳文本渲染,\$0.09/张
高级局部编辑,角度/焦点/色彩/光照调整
专业级图像生成,多种宽高比,官网88折
火山方舟官方合作,4K 高清,官网65折
逆向技术生图,\$0.01/张超低价
OpenAI 官方直转,稳定可靠
### 🔧 基础 API
查看支持的 300+ AI 模型详细信息
使用官方 SDK 无缝接入 API易
智能图像分析,OCR、对象识别、场景描述
Anthropic 原生 API 格式,完整功能支持
谷歌原生 API 格式,完整功能支持
文本向量化和语义搜索
## 🎯 使用场景
### 💬 对话型 AI
功能强大的 AI 对话客户端,支持多模型切换
跨平台桌面 AI 对话应用
自托管的 Web 对话界面
一键部署的网页版 ChatGPT
### 💻 编程开发
🔥 Anthropic 官方 AI 编程助手
AI 驱动的代码编辑器
VS Code 中的 AI 编程助手
高效的 AI 代码生成工具
命令行 AI 编程助手
谷歌 Gemini 命令行工具
### 🔧 技术工程
构建 AI 应用的开发框架
可视化 AI 应用开发平台
### 🌐 翻译场景
macOS 上的专业翻译工具
浏览器双语对照阅读扩展
## 🚀 为什么选择 API易?
### 一个接口,多种模型
无需为每个 AI 服务单独申请账号和管理 API 密钥。通过 API易,您只需要:
* **一个账号**:管理所有 AI 服务
* **一个 API 密钥**:访问所有模型
* **一套接口标准**:兼容 OpenAI API 格式
### 💡 支持的模型
我们支持业界领先的 300+ AI 模型:
#### OpenAI 系列
* GPT-5.1 全系列(最新迭代,智能与速度平衡)
* GPT-5 / GPT-5 Mini / GPT-5 Nano
* o3 / o3 Pro / o4-mini(推理模型)
* GPT-4.1 / GPT-4o 系列
* Codex 系列(编程专用)
* DALL·E 3 / GPT-Image-1
#### Anthropic 系列
* **Claude Opus 4.5**(🔥 最新旗舰,SWE-bench 80.9%)
* Claude Sonnet 4.5(世界级编码模型)
* Claude Haiku 4.5(高性价比)
* Claude 4 Sonnet / Claude 4 Opus
#### Google 系列
* **Gemini 3 Pro Preview**(🔥 LMArena 全球第一)
* **Nano Banana Pro**(🔥 4K 高清图像生成)
* Gemini 2.5 Pro(2M 上下文)
* Gemini 2.5 Flash(快速响应)
#### xAI Grok 系列
* Grok 4 / Grok 4 Fast(20万上下文)
* Grok Code Fast 1(代码专用)
* Grok 3 / Grok 3 All(联网能力)
#### 国产模型
* DeepSeek V3.2 / V3.1 / R1(混合推理)
* GLM-4.6 / GLM-4.5(智谱 AI)
* Kimi K2(火山引擎官方)
* 通义千问(Qwen 系列)
* 文心一言 4.0(ERNIE)
* 讯飞星火 3.5
#### 视频生成模型
* **Sora 2**(音视频同步,无水印)
* VEO 2(谷歌视频生成)
#### 图像生成模型
* Nano Banana Pro(4K 高清)
* Flux / SeeDream(专业级)
* Sora Image(逆向生图)
### 🔧 简单易用
切换模型就像修改一个参数一样简单:
```python theme={null}
# 使用 GPT-4
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": "Hello!"}]
)
# 切换到 Claude 3
response = openai.ChatCompletion.create(
model="claude-3-opus-20240229", # 只需修改模型名称
messages=[{"role": "user", "content": "Hello!"}]
)
```
### 🛡️ 稳定可靠
* **高可用性**:多节点部署,智能路由
* **自动降级**:模型不可用时自动切换
* **负载均衡**:智能分配请求,避免限流
* **实时监控**:24/7 服务状态监控
### 💰 成本优化
* **统一计费**:所有模型使用统一余额
* **透明定价**:清晰的价格体系
* **用量统计**:详细的使用报告
* **灵活充值**:支持多种支付方式
## 🎯 核心特色
### 🔥 最新模型第一时间上线
* **Claude Opus 4.5**:SWE-bench 80.9%,编程能力登顶,价格降至前代 1/3
* **Gemini 3 Pro Preview**:LMArena 1501 Elo 全球第一,100万上下文
* **Nano Banana Pro**:4K 高清图像生成,业界最佳文本渲染
* **Sora 2 视频生成**:音视频同步,无水印输出,\$0.15/次起
### 🚀 稳定可靠、并发无上限
官方合作伙伴资源(AWS、Azure、Google Cloud、BytePlus火山方舟),高性能基础架构支撑,不限并发,保障多行业生产环境稳定运行。
### 💰 极致性价比
* 充值加赠活动:最高可达 8 折优惠
* 汇率优势:美元计价更实惠
* 缓存优化:GPT-5.1 提示缓存节省 90% 成本
* 按需付费:按 Token 或按次灵活计费
## 🚀 开始使用
准备好开始了吗?只需三步即可开始:
创建您的 API易 账号
生成您的 API 密钥
查看 API 文档开始集成
## 🔗 快速链接
注册账号,免费获得300万Token测试额度
管理API Key(令牌),查看使用统计和账单
***
注册即可获得300万Token免费测试额度,约可调用4o-mini模型进行充分测试。首次充值还可获得1美元额外赠送。
# 价格说明
Source: https://docs.apiyi.com/pricing
了解 API易 和 AI大模型的定价逻辑和优势,享受比官方更优惠的价格。用户提供透明、优惠的定价方案,让您以更低的成本享受顶级 AI 模型服务。
## API易 定价原则
### 1. 模型价格对齐
* **海外大模型**:价格等同于各自官网标准(包括 OpenAI、Claude、Gemini、Grok等)。
* **国内大模型**:价格均低于官网价格(包括 DeepSeek、Qwen、Doubao、Kimi等)
* **稀有模型**:个别新出的海外大模型(比如以前的 gpt-5.2-pro),或申请门槛特别高的模型会有一些上调。但充值赠送的折扣下来和官网相近。
绝大部分模型价格与官方保持一致,消耗视角完全透明,只为用的放心\~
每当各家厂商发布新模型,API易 总是及时上新。快就是优势!
## 充值优势
### 2. 固定汇率
**1:7** 固定汇率
不随实时汇率波动,方便计费;可与充值活动叠加享受额外优惠
**5 美元**起充
仅需 35 元人民币即可开始使用
### 3. 充值赠送
**充值越多,优惠越大**
首充加赠 + 阶梯加赠(10%-20%),综合折扣可达官方**八折**
了解详细的首充加赠、阶梯加赠比例、企业客户服务等信息
## API易 比官网的更多优势
更关键,相比官方单一账号,API易 提供更全面的服务:
* 不限速率
* 不封号风险
* 按量计费
* 200+ 热门模型
* 一键切换
* 持续更新
* 统一 API 接口
* 兼容 OpenAI 格式
* 零迁移成本
* 专业技术支持
* 稳定可靠
* 数据安全保障
## 科普:计费基础知识
### 什么是『按量计费』?
按量计费(Pay-as-you-go)意味着您只需为实际使用的服务付费,无需预付月费或年费。
* 用多少付多少
* 无最低消费要求
* 随时开始或停止
* 实时查看消耗
* 设置额度预警
* 精确到每次调用
### 计费模式优先级
APIYI 支持两种计费模式,当同一模型同时支持两种模式时:
**按次计费优先于按量计费**
如果一个模型同时支持按次和按量计费,系统默认使用按次计费。
#### 令牌(API Key)设置影响
您的计费方式也受令牌配置影响:
如果令牌设置为"仅按量计费",即使模型支持按次计费,也会使用按量计费
令牌默认支持所有计费模式,系统自动选择(按次优先)
### 『按次计费』场景
以下类型的模型通常采用按次计费:
**适用模型**:
* sora\_image 系列(逆向模型)
* flux-kontext-pro(官方模型)
* DALL-E 系列
* Midjourney 相关模型
**计费单位**:每张图片
**适用模型**:
* 视频生成类 API
* 动画制作模型
**计费单位**:每个视频/每秒
**识别方式**:
* 模型名称包含 `-all` 后缀的逆向模型
* 特定功能型模型
**计费单位**:每次调用
查看完整的模型价格表:[APIYI 价格列表](https://api.apiyi.com/account/pricing)
### 什么是 Tokens?
Token 是 AI 模型处理文本的基本单位。理解 Token 有助于您估算和控制成本。
**Token 计算参考**
* 中文:1 个汉字 ≈ 1-2 个 tokens
* 英文:1 个单词 ≈ 1-2 个 tokens
* 1000 tokens ≈ 750 个英文单词 ≈ 500 个汉字
#### Token 计算示例
```
输入文本:"你好,请帮我写一个Python函数"
Token 数:约 12-15 个 tokens
输出文本:"def hello_world():\n print('Hello, World!')"
Token 数:约 15-20 个 tokens
总消耗:输入 + 输出 ≈ 30-35 个 tokens
```
### 提示词与补全
在每次 API 调用中,费用由两部分组成:
您发送给模型的所有内容,包括:
* 系统提示
* 用户问题
* 上下文信息
* 历史对话(如有)
模型生成的回复内容,包括:
* 文本回答
* 代码生成
* 结构化数据
不同模型的输入和输出价格可能不同。通常输出 tokens 的价格高于输入 tokens。
## 如何选择合适的模型?
### 模型选择策略
**适合场景**:大批量处理、简单任务、测试开发
**推荐模型**:
* gemini-2.5-flash (又快又好)
* gpt-4.1(可是官方替代 gpt-4.5 的模型)
* deepseek-v3(国产之光、性价比高)
**预估成本**:\$0.1-1/百万 tokens
**适合场景**:复杂推理、专业内容、高质量输出
**推荐模型**:
* gemini-2.5-pro(综合多模态很强)
* claude-sonnet-4-20250514-thinking(长文本处理)
* o3(OpenAI 主力的推理模型,多模态能力)
* deepseek-r1-0528 (R1优化版本)
**预估成本**:\$3-15/百万 tokens
**适合场景**:日常使用、中等复杂度任务
**推荐模型**:
* gpt-4.1(性价比均衡)
* claude-3-5-haiku-20241022(快速响应)
* qwen-max(中文优化)
**预估成本**:\$0.5-3/百万 tokens
更多请关注左侧「当下热门模型」页面。
### 成本预估方法
使用少量样本(5-10个)进行测试调用
在 APIYI 控制台查看每次调用的详细 token 消耗
统计平均每次调用的 token 数量
平均 tokens × 预计调用次数 × 模型单价
1. 先用便宜的模型测试,验证可行性
2. 通过 APIYI 后台日志分析实际消耗
3. 根据任务复杂度选择合适模型
4. 优化提示词减少不必要的 token 消耗
## 实时价格查询
查看所有模型的实时价格
* 按量计费价格
* 按次计费价格
* 优惠幅度对比
快速估算使用成本
* 输入预估用量
* 选择使用模型
* 自动计算费用
## 常见问题
登录 [APIYI 控制台](https://api.apiyi.com),在模型列表页面可以查看所有模型的实时价格。
充值实时到账,支付成功后立即可以使用。
支持开具正规发票,请在控制台提交开票申请。
企业大额充值可享受更多优惠,请联系客服咨询。
## 开发票说明
### 开票流程
客户在线充值或对公转账成功后,以实付金额开票(所有价格均含税),需要客户提供详细的开票信息:企业或高校抬头、税号等。
网站后台顶部导航-开票,自助提交开票表单
[提交开票申请 →](https://xinqikeji.feishu.cn/share/base/form/shrcns8TS3alZTN2Av1JfkOvmqh)
* 可开增值税普通发票(专票需求另外沟通税点)
* 开票类目:**信息技术服务费**或**数据采集费**
* 可配合开具:采购清单并加盖公章
1个工作日左右,通过微信或邮箱发送电子发票
我们有不少的高校与企业客户,会配合贵方的各种合理的报销要求。
***
注册账号,充值即享优惠,体验 200+ AI 模型
# 使用场景总览
Source: https://docs.apiyi.com/scenarios
探索API易在对话AI、编程开发、技术工程、翻译等各个领域的实际应用场景,了解如何在不同业务中集成和使用AI大模型。
# 总览
API易 支持 200+ 热门 AI 模型,为各行各业提供强大的 AI 能力。无论您是开发者、企业用户还是个人用户,都能在这里找到适合的应用场景。
**🧩 社区生态持续壮大**
除了官方整理的四大场景,我们还收录了一批**社区好伙伴贡献的开源工具**:ComfyUI 节点合集、AI Skill、MCP 服务器、论文工作流、自动化插件……让你以极低门槛接入 API易 能力。
👉 直接跳转:[查看社区贡献](#社区贡献) · [ComfyUI 节点合集](/scenarios/ecosystem/lucknanobananapro-comfyui) · [Nano Banana Skill](/scenarios/ecosystem/nano-banana-skill)
💡 **欢迎投稿**:你也做了基于 API易 的开源项目?联系客服即可收录到本页面,免费曝光给全球开发者。
## 🎯 四大核心应用领域
智能对话、客服机器人、知识问答等交互式AI应用
代码生成、调试优化、开发辅助等编程场景
AI应用开发、工作流自动化、系统集成等技术场景
多语言翻译、文档本地化、跨语言交流等应用
***
## 💬 对话型 AI
利用 AI 大模型构建智能对话系统,提供自然流畅的人机交互体验。
### 典型应用场景
* **智能客服**:7x24小时自动回复,处理常见问题
* **知识问答**:基于企业知识库的智能问答系统
* **个人助手**:日程管理、信息查询、任务提醒
* **教育辅导**:个性化学习指导和答疑解惑
### 推荐工具和平台
功能强大的桌面AI对话客户端,支持多模型切换
开源的Web界面,可自部署的ChatGPT替代方案
一键部署的网页版对话界面,支持多种模型
***
## 💻 编程开发
AI 赋能软件开发,提升编程效率和代码质量。
### 典型应用场景
* **代码生成**:根据需求自动生成代码片段
* **Bug修复**:智能检测和修复代码问题
* **代码重构**:优化代码结构和性能
* **技术文档**:自动生成API文档和注释
### 推荐工具和平台
AI驱动的代码编辑器,智能代码补全和生成
VS Code中的AI编程助手,支持多种AI模型
统一管理 Claude Code 等 5 款 AI CLI 工具,一键切换配置
### 支持的编程语言
* **前端开发**:JavaScript, TypeScript, React, Vue, Angular
* **后端开发**:Python, Java, Go, Node.js, PHP
* **移动开发**:Swift, Kotlin, Flutter, React Native
* **数据科学**:Python, R, SQL, Jupyter Notebook
***
## 🔧 技术工程
构建复杂的 AI 应用和自动化工作流程。
### 典型应用场景
* **AI应用开发**:快速构建和部署AI应用
* **工作流自动化**:智能化业务流程处理
* **数据处理**:大规模数据分析和处理
* **系统集成**:将AI能力集成到现有系统
### 推荐工具和平台
构建LLM应用的强大开发框架
可视化AI应用开发和部署平台
### 技术栈支持
* **开发框架**:LangChain, LlamaIndex, Semantic Kernel
* **部署平台**:Docker, Kubernetes, Serverless
* **数据库**:Vector DB, PostgreSQL, MongoDB
* **监控运维**:Prometheus, Grafana, ELK Stack
***
## 🌍 翻译场景
打破语言障碍,实现高质量的多语言交流。
### 典型应用场景
* **文档翻译**:技术文档、合同、报告等专业翻译
* **网页翻译**:实时翻译网页内容,无障碍浏览
* **多语言客服**:支持多种语言的客户服务
* **内容本地化**:软件界面、营销材料的本地化
### 推荐工具和平台
macOS上的专业翻译工具,支持截图翻译
浏览器扩展,双语对照阅读体验
### 支持语言
* **主流语言**:中文、英语、日语、韩语、法语、德语、西班牙语
* **小语种**:泰语、越南语、阿拉伯语、俄语、意大利语
* **专业领域**:医学、法律、技术、商务等专业术语翻译
***
## 🧩 社区贡献
社区用户贡献的开源工具、ComfyUI 节点和 MCP 服务器,扩展 API易 的应用边界。
### 推荐工具
论文一键转架构图、路线图、PPT、Rebuttal,支持通过 API易 调用 GPT、Claude 等 200+ 模型
在 ComfyUI 中直接调用 Nano Banana Pro / Nano Banana 2 图像生成模型,支持文生图、图生图和多轮对话编辑
社区贡献的轻量 ComfyUI 示例节点:文生图 + 多图编辑,代码简洁、易于上手与二次拓展
高阶 ComfyUI 节点:支持 14 张参考图、1K/2K/4K、15 种宽高比、超时重试与实时进度,适合批量生产
双节点合集:一键在 ComfyUI 调用 `gpt-image-2`(官转)与 `gpt-image-2-all`(官逆),支持 mask 重绘与自定义分辨率
在图上直接画点/框/多边形标出要改的区域,搭配 Nano Banana 节点,一句简单 prompt 就能精准改图
在 Codex CLI、Cursor、Gemini CLI 等 AI 编程工具中,一句话生成和编辑图片
双 Skill 合集:在 AI 编程工具中一句话调用 `gpt-image-2`(官转,支持 4K)与 `gpt-image-2-all`(官逆,按次计费)
在 Make.com 自动化工作流中通过 HTTP 请求节点调用 Gemini 图像理解 API
飞书字段捷径 + 阿里云函数 + Coze 工作流,让运营在多维表格里填提示词就能批量调用 Nano Banana Pro 出图
Coze 平台 Python 插件,封装 Nano Banana Pro 调用、错误识别与 OSS 上链路,工作流即取即用
***
## 🚀 开始使用
### 第一步:选择适合的场景
根据您的具体需求,从上述四个领域中选择最匹配的应用场景。
### 第二步:选择合适的工具
每个场景都有推荐的工具和平台,点击相应的卡片查看详细的集成指南。
### 第三步:获取 API 密钥
访问 [API易控制台](https://api.apiyi.com) 注册账号并获取 API 密钥。
### 第四步:按照文档集成
每个工具都有详细的集成文档,包含完整的配置步骤和代码示例。
## 💡 最佳实践建议
### 性能优化
* **模型选择**:根据任务复杂度选择合适的模型(GPT-4 vs GPT-3.5)
* **批量处理**:对于大量数据,使用批量API提升效率
* **缓存策略**:合理使用缓存减少重复请求
### 成本控制
* **Token优化**:精简输入内容,使用更高效的提示词
* **模型混用**:简单任务使用低成本模型,复杂任务使用高级模型
* **用量监控**:定期查看使用统计,优化调用策略
### 安全考虑
* **数据隐私**:敏感数据处理前进行脱敏
* **访问控制**:设置合理的API访问权限
* **内容过滤**:启用内容安全检查功能
***
## 📞 需要帮助?
如果您在使用过程中遇到任何问题,欢迎:
* 📧 **邮件咨询**:[support@apiyi.com](mailto:support@apiyi.com)
* 🌐 **访问官网**:[api.apiyi.com](https://api.apiyi.com)
* 💰 **查看价格**:[价格页面](https://api.apiyi.com/account/pricing)
API易 提供免费试用额度,新用户注册即可获得 300万 Token 测试额度,足够进行充分的功能评估。
# 进阶功能与故障排除
Source: https://docs.apiyi.com/scenarios/agent/openclaw/advanced
OpenClaw 故障排除、自定义技能、记忆功能、多设备同步与安全提示
## 故障排除
国内访问 Telegram 需要代理。设置终端代理后重启 Gateway:
```bash theme={null}
export https_proxy=http://127.0.0.1:代理端口
export http_proxy=http://127.0.0.1:代理端口
openclaw gateway restart
```
或直接使用 Web UI(不需要代理)。
运行诊断命令自动修复:
```bash theme={null}
openclaw doctor --fix
```
1. 检查 API 密钥是否正确
2. 确认 `baseUrl` 设置为 `https://api.apiyi.com/v1`
3. 测试连通性:
```bash theme={null}
curl -H "Authorization: Bearer 你的密钥" \
https://api.apiyi.com/v1/models
```
```bash theme={null}
openclaw logs --follow
```
```bash theme={null}
openclaw update
```
```bash theme={null}
openclaw channels add --channel telegram
```
## 自定义技能
OpenClaw 支持自定义技能,可以在 `~/.openclaw/workspace/skills/` 目录下创建。
## 记忆功能
OpenClaw 会记住你的对话和偏好,可以用 `/memory` 查看和管理记忆。
## 多设备同步
可以在多台设备上运行 OpenClaw,通过 Tailscale 等工具实现远程访问。
## 安全提示
* **API 密钥安全**:不要把配置文件分享给他人
* **权限控制**:OpenClaw 可以执行终端命令,注意不要让它执行危险操作
* **网络安全**:默认只监听本地地址,如需远程访问请配置好安全措施
## 相关资源
管理 API 密钥和查看使用量
查看场景化模型推荐
# Anthropic 原生配置
Source: https://docs.apiyi.com/scenarios/agent/openclaw/config-anthropic
使用 anthropic-messages API 类型配置 OpenClaw,支持工具调用和 Claude 专属特性
## 为什么选择 Anthropic 原生模式
OpenClaw 支持两种方式调用 Claude 模型。如果你需要使用\*\*工具调用(tool\_use)\*\*等高级功能,强烈建议使用 `anthropic-messages` 原生模式:
| 场景 | OpenAI 兼容模式 | Anthropic 原生模式 |
| --------------- | ----------- | -------------- |
| 纯聊天 | ✅ 正常 | ✅ 正常 |
| 工具调用(tool loop) | ❌ 可能 400 报错 | ✅ 稳定 |
| Prompt Caching | ❌ 不支持 | ✅ 支持 |
| 多模型切换 | ✅ 200+ 模型 | ⚠️ 仅 Claude 系列 |
走 `openai-completions` 时,纯聊天能通,但一旦进入工具多轮调用(tool\_calls → tool\_result → tool loop),可能被后端拒绝返回 400。改走 `anthropic-messages` 后,`tool_use` + `tool_result` 格式可正常工作。
## 推荐配置
编辑 `~/.openclaw/openclaw.json`,添加以下 provider 配置:
```json theme={null}
{
"models": {
"providers": {
"apiyi": {
"baseUrl": "https://api.apiyi.com",
"apiKey": "sk-你的API易密钥",
"api": "anthropic-messages",
"headers": {
"anthropic-version": "2023-06-01",
"anthropic-beta": ""
},
"models": [
{
"id": "claude-sonnet-4-6",
"name": "Claude Sonnet 4",
"reasoning": false,
"contextWindow": 200000,
"maxTokens": 16384
},
{
"id": "claude-opus-4-6",
"name": "Claude Opus 4",
"reasoning": false,
"contextWindow": 200000,
"maxTokens": 16384
}
]
}
}
}
}
```
### 关键配置说明
以下三点**必须**正确设置,否则会遇到 400 报错:
1. **`baseUrl` 不带 `/v1`**:必须是 `https://api.apiyi.com`,否则会拼成 `.../v1/v1/messages` 导致请求失败
2. **`headers` 中必须包含 `anthropic-version`**:设为 `2023-06-01`
3. **`anthropic-beta` 设为空字符串**:禁用 beta 功能头,避免触发不支持的特性
### 关于 `reasoning: false`
Claude 模型在 API易 上,**请求中如果出现 thinking 相关字段(`thinking` / `output_config`)会直接返回 400 错误**。
将模型条目设置 `"reasoning": false`,可以让 OpenClaw 不发送 thinking 字段,避免此问题。
## 模型白名单配置
将模型加入 `agents.defaults.models`,否则 OpenClaw 可能提示模型"未登记",然后静默回退到其他模型:
```json theme={null}
{
"agents": {
"defaults": {
"model": { "primary": "apiyi/claude-sonnet-4-6" },
"models": {
"apiyi/claude-sonnet-4-6": { "streaming": false },
"apiyi/claude-opus-4-6": { "streaming": false }
}
}
}
}
```
## 与 OpenAI 兼容模式的对比
| 特性 | OpenAI 兼容模式 | Anthropic 原生模式 |
| -------------- | -------------------------- | ----------------------- |
| API 类型 | `openai-completions` | `anthropic-messages` |
| baseUrl | `https://api.apiyi.com/v1` | `https://api.apiyi.com` |
| 支持模型 | 所有 200+ 模型 | 仅 Claude 系列 |
| 工具调用 | 不稳定(多轮可能 400) | 稳定 |
| Prompt Caching | 不支持 | 支持 |
| 超长上下文 | 取决于模型 | 最高 200K tokens |
| 适用场景 | 多模型切换、纯聊天 | Claude 深度使用、Agent 工具调用 |
## Claude 模型 ID 列表
| 模型 ID | 名称 | 说明 |
| --------------------------- | ---------------- | ----------- |
| `claude-sonnet-4-6` | Claude Sonnet 4 | 均衡性能,推荐日常使用 |
| `claude-opus-4-6` | Claude Opus 4 | 最强推理能力 |
| `claude-haiku-4-5-20251001` | Claude Haiku 4.5 | 快速响应,性价比高 |
## 混合配置(推荐)
同时配置 OpenAI 兼容和 Anthropic 原生两个提供商,按需切换:
```json theme={null}
{
"agents": {
"defaults": {
"model": { "primary": "apiyi-claude/claude-sonnet-4-6" },
"models": {
"apiyi-claude/claude-sonnet-4-6": { "streaming": false },
"apiyi-claude/claude-opus-4-6": { "streaming": false }
}
}
},
"models": {
"providers": {
"apiyi": {
"baseUrl": "https://api.apiyi.com/v1",
"apiKey": "sk-你的API易密钥",
"api": "openai-completions",
"models": [
{ "id": "gpt-5.4", "name": "GPT-5.4" },
{ "id": "deepseek-v3.2", "name": "DeepSeek V3.2" }
]
},
"apiyi-claude": {
"baseUrl": "https://api.apiyi.com",
"apiKey": "sk-你的API易密钥",
"api": "anthropic-messages",
"headers": {
"anthropic-version": "2023-06-01",
"anthropic-beta": ""
},
"models": [
{
"id": "claude-sonnet-4-6",
"name": "Claude Sonnet 4",
"reasoning": false,
"contextWindow": 200000,
"maxTokens": 16384
},
{
"id": "claude-opus-4-6",
"name": "Claude Opus 4",
"reasoning": false,
"contextWindow": 200000,
"maxTokens": 16384
}
]
}
}
}
}
```
在聊天中使用 `/model apiyi/gpt-5.4` 或 `/model apiyi-claude/claude-sonnet-4-6` 切换模型。
## 验证配置
配置完成后,验证是否生效:
```bash theme={null}
{/* 查看模型状态 */}
openclaw models status
{/* 发送测试消息,检查返回的 provider/model 是否正确 */}
openclaw agent --message "只回 pong" --json
```
在返回的 JSON 中,检查 `meta.agentMeta.provider` 和 `meta.agentMeta.model` 是否与配置一致。
## 常见问题
这通常是请求中出现了 thinking 相关字段导致的。确保:
* 模型条目设置了 `"reasoning": false`
* headers 中 `"anthropic-beta": ""` 已正确配置
已有的聊天 session 可能缓存了旧的模型配置。两种解决方式:
修改 session 的模型:
```bash theme={null}
openclaw gateway call sessions.patch \
--params '{"key":"你的session-key","model":"apiyi-claude/claude-sonnet-4-6"}'
```
或重置 session:
```bash theme={null}
openclaw gateway call sessions.reset \
--params '{"key":"你的session-key","reason":"reset"}'
```
检查是否已将模型加入 `agents.defaults.models` 白名单。未登记的模型会被 OpenClaw 自动回退。
Anthropic 原生模式的 `baseUrl` **不要**带 `/v1`。如果写成 `https://api.apiyi.com/v1`,实际请求会变成 `.../v1/v1/messages`,导致 404 错误。
# CLI 交互式配置
Source: https://docs.apiyi.com/scenarios/agent/openclaw/config-cli
使用 openclaw onboard 向导和 CLI 命令快速配置 OpenClaw
## 安装向导(推荐新用户)
首次使用 OpenClaw,运行安装向导完成所有配置:
```bash theme={null}
openclaw onboard
```
### 步骤一:选择模型提供商
在 **Model/auth provider** 列表中,滚动到底部,选择:
```text theme={null}
Custom Provider (Any OpenAI or Anthropic compatible endpoint)
```
### 步骤二:填写 API 地址
在 **API Base URL** 字段中输入 API易 的接口地址:
```text theme={null}
https://api.apiyi.com
```
### 步骤三:选择密钥输入方式
系统会询问 API 密钥的提供方式,选择:
```text theme={null}
Paste API key now
```
### 步骤四:粘贴 API 密钥
在密钥输入框中,粘贴你的 API易 令牌(即密钥,`sk-` 开头)。
获取方式:
1. 打开 API易 令牌管理页面:`https://api.apiyi.com/token`
2. 找到类型为**按量优先**的默认令牌
3. 在该令牌所在行最右侧的「操作」栏,点击**第一个复制按钮**
4. 即可复制出 `sk-` 开头的令牌(密钥),粘贴到此处即可
无需新建令牌,直接使用系统默认生成的「按量优先」令牌即可。
### 步骤五:选择端点兼容模式
在 **Endpoint compatibility** 选项中,选择:
```text theme={null}
OpenAI-compatible (Uses /chat/completions)
```
如果你主要使用 Claude 模型并需要 Prompt Caching 等原生特性,可以选择 `Anthropic-compatible`。详见 [Anthropic 原生配置](/scenarios/agent/openclaw/config-anthropic)。
### 步骤六:设置模型 ID
在 **Model ID** 字段中输入你要使用的模型名称,例如:
```text theme={null}
gpt-4o
```
建议初始配置时先使用 `gpt-4o` 等常见模型完成验证,跑通后再在 OpenClaw 中切换为你实际需要的模型(如 `gpt-5.4`)。部分老版本 OpenClaw 在初始化阶段可能无法识别较新的模型名称,导致 503 错误。每次修改完模型配置后,记得重启 OpenClaw 使配置生效,也可以在对话中让 OpenClaw 自行重启。
其他可选模型:`claude-sonnet-4-6`、`deepseek-v3.2`、`gemini-3.1-pro-preview` 等。
### 步骤七:验证并完成
OpenClaw 会自动验证配置。验证成功后,系统会生成一个 **Endpoint ID**(如 `custom-api-apiyi-com`),表示配置完成。
验证过程偶尔可能返回错误,重试通常即可成功。如果持续失败,请检查 API 密钥是否正确、网络是否通畅。
### 配置完成后的参数
| 参数 | 值 |
| ------------- | ---------------------------- |
| Provider | Custom Provider |
| API Base URL | `https://api.apiyi.com` |
| Compatibility | OpenAI-compatible |
| Endpoint ID | `custom-api-apiyi-com`(自动生成) |
## 修改配置
已完成初始配置后,使用 `configure` 命令重新进入交互式配置:
```bash theme={null}
openclaw configure
```
这会打开交互式配置菜单,可以修改:
* 模型提供商和默认模型
* 聊天渠道设置
* 技能启用/禁用
* Gateway 参数
## 单项配置命令
快速查看或修改单个配置项:
```bash theme={null}
{/* 查看当前配置值 */}
openclaw config get agents.defaults.model.primary
{/* 设置配置值 */}
openclaw config set agents.defaults.model.primary "apiyi/gpt-5.4"
{/* 设置 API 密钥 */}
openclaw config set models.providers.apiyi.apiKey "sk-你的密钥"
```
## Web UI 配置面板
启动 Dashboard 后,也可以在浏览器中管理配置:
```bash theme={null}
openclaw dashboard
```
打开 `http://127.0.0.1:18789/`,在设置页面可以:
* 可视化编辑模型配置
* 管理聊天渠道连接
* 查看和切换已配置的技能
* 实时查看日志和运行状态
## 启动服务
配置完成后启动 Gateway:
```bash theme={null}
openclaw gateway start
```
配置更改后需要重启服务:
```bash theme={null}
openclaw gateway restart
```
# 配置文件方式
Source: https://docs.apiyi.com/scenarios/agent/openclaw/config-json
通过编辑 openclaw.json 配置文件,手动配置 API易 服务和多模型支持
## 配置文件位置
OpenClaw 使用 JSON 配置文件,位于 `~/.openclaw/openclaw.json`。
## 基础配置
创建或编辑配置文件 `~/.openclaw/openclaw.json`:
```json theme={null}
{
"agents": {
"defaults": {
"model": { "primary": "apiyi/gpt-5.4" }
}
},
"models": {
"providers": {
"apiyi": {
"baseUrl": "https://api.apiyi.com/v1",
"apiKey": "sk-你的API易密钥",
"api": "openai-completions",
"models": [
{ "id": "gpt-5.4", "name": "GPT-5.4" },
{ "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4" },
{ "id": "deepseek-v3.2", "name": "DeepSeek V3.2" },
{ "id": "gemini-3.1-pro-preview", "name": "Gemini 3.1 Pro" }
]
}
}
}
}
```
## 配置字段说明
| 字段 | 说明 |
| ------------------------------- | ------------------------------------------------------------------------- |
| `agents.defaults.model.primary` | 默认模型,格式为 `provider名/模型名` |
| `models.providers` | 自定义模型提供商配置 |
| `baseUrl` | API 地址,使用 `https://api.apiyi.com/v1` |
| `apiKey` | 你的 API易 密钥 |
| `api` | API 类型:OpenAI 兼容用 `openai-completions`,Anthropic 兼容用 `anthropic-messages` |
## 多模型配置
可以配置多个模型,在聊天中用 `/model ` 切换:
```json theme={null}
{
"models": {
"providers": {
"apiyi": {
"baseUrl": "https://api.apiyi.com/v1",
"apiKey": "sk-你的密钥",
"api": "openai-completions",
"models": [
{ "id": "gpt-5.4", "name": "GPT-5.4" },
{ "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4" },
{ "id": "deepseek-v3.2", "name": "DeepSeek V3.2" }
]
}
}
}
}
```
## 完整配置示例
包含模型配置和 Telegram 渠道的完整示例:
```json theme={null}
{
"agents": {
"defaults": {
"model": { "primary": "apiyi/gpt-5.4" }
}
},
"models": {
"providers": {
"apiyi": {
"baseUrl": "https://api.apiyi.com/v1",
"apiKey": "sk-你的API易密钥",
"api": "openai-completions",
"models": [
{ "id": "gpt-5.4", "name": "GPT-5.4" },
{ "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4" },
{ "id": "deepseek-v3.2", "name": "DeepSeek V3.2" }
]
}
}
},
"channels": {
"telegram": {
"enabled": true,
"accounts": {
"default": {
"token": "你的Telegram Bot Token"
}
}
}
}
}
```
配置文件修改后,需要重启 Gateway 服务才能生效:
```bash theme={null}
openclaw gateway restart
```
# 安装指南
Source: https://docs.apiyi.com/scenarios/agent/openclaw/installation
安装 OpenClaw 本地 AI 助手,支持 macOS、Linux、Windows 多种安装方式
## 系统要求
* Node.js 22 或更高版本
* macOS / Linux / Windows
## 安装 Node.js
```bash theme={null}
brew install node@22
```
```bash theme={null}
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
nvm install 22
nvm use 22
```
从 Node.js 官网下载安装 22.x 或更高版本。
或使用 PowerShell 安装 fnm:
```powershell theme={null}
winget install Schniz.fnm
fnm install 22
fnm use 22
```
## 安装 OpenClaw
```bash theme={null}
npm install -g openclaw
```
```bash theme={null}
curl -fsSL https://openclaw.ai/install.sh | bash
```
```powershell theme={null}
irm https://openclaw.ai/install.ps1 | iex
```
## 验证安装
```bash theme={null}
openclaw --version
```
运行诊断命令,检查环境是否就绪:
```bash theme={null}
openclaw doctor
```
查看当前运行状态:
```bash theme={null}
openclaw status
```
如果 `openclaw doctor` 报告问题,可以尝试自动修复:
```bash theme={null}
openclaw doctor --fix
```
## 下一步
安装完成后,选择一种方式配置 API易:
手动编辑 JSON 配置
向导引导完成配置
直连 Claude 模型
# OpenClaw
Source: https://docs.apiyi.com/scenarios/agent/openclaw/overview
开源本地 AI 助手,支持 Telegram/WhatsApp/Discord 等多平台,通过 API易 配置实现自主任务执行
## 概述
OpenClaw 是一款开源的本地 AI 助手,由开发者 Peter Steinberger 于 2025 年 11 月创建。它运行在你自己的电脑上,可通过 Telegram、WhatsApp、Discord 等多种聊天平台交互,实现文件操作、终端命令执行、浏览器控制等自动化任务。
通过配置 API易 服务,您可以获得:
数据完全在本地处理,隐私安全有保障
支持 Telegram、WhatsApp、Discord、Slack、iMessage 等
不只是聊天,能真正操作电脑、执行命令
支持自定义技能和插件扩展
**项目信息**:OpenClaw 是 MIT 许可证开源项目,官网 `openclaw.ai`,项目地址 `github.com/openclaw/openclaw`。
## 快速导航
安装 Node.js 和 OpenClaw,支持 macOS / Linux / Windows
手动编辑 openclaw\.json 配置文件
使用 openclaw onboard 向导快速配置
使用 anthropic-messages API 类型直连 Claude
Web UI / Telegram / 常用命令与使用示例
故障排除、自定义技能、记忆功能等
# 使用指南
Source: https://docs.apiyi.com/scenarios/agent/openclaw/usage
OpenClaw 使用方式、核心技能、常用命令与实际使用示例
## 使用方式
### 方式一:Web UI(推荐)
最简单的使用方式,无需任何外部服务:
```bash theme={null}
openclaw dashboard
```
浏览器会打开 `http://127.0.0.1:18789/`,直接在网页聊天窗口发消息即可。
Web UI 是国内用户的推荐方式,不需要代理,直接可用。
### 方式二:Telegram Bot
1. 在 Telegram 搜索 `@BotFather`
2. 发送 `/newbot` 创建机器人
3. 获取 Bot Token
4. 在 `openclaw onboard` 时输入 Token
国内使用 Telegram 需要代理支持:
```bash theme={null}
export https_proxy=http://127.0.0.1:代理端口
export http_proxy=http://127.0.0.1:代理端口
openclaw gateway restart
```
### 方式三:其他平台
OpenClaw 还支持:
* WhatsApp(扫码连接)
* Discord(需要创建 Bot)
* Slack、Signal、iMessage、微软 Teams 等
## 核心技能
OpenClaw 内置丰富的技能,可以执行各种任务:
### 文件操作
| 技能 | 功能 |
| ---------- | ----------- |
| `fs.read` | 读取文件(文本/图片) |
| `fs.write` | 写入/创建文件 |
| `fs.edit` | 编辑文件内容 |
### 系统操作
| 技能 | 功能 |
| --------------- | -------------------- |
| `shell.exec` | 执行终端命令 |
| `shell.process` | 管理运行中的命令 |
| `browser.*` | 自动控制浏览器(打开网页、截图、点击等) |
### 智能功能
| 技能 | 功能 |
| --------------- | ------------- |
| `web_search` | 网页搜索 |
| `web_fetch` | 抓取网页内容 |
| `memory_search` | 搜索记忆 |
| `memory_get` | 读取记忆 |
| `cron.*` | 定时任务(提醒、自动执行) |
| `tts` | 文字转语音 |
## 常用命令
### 终端命令
| 命令 | 功能 |
| -------------------------- | ------------- |
| `openclaw onboard` | 运行安装向导 |
| `openclaw gateway start` | 启动 Gateway 服务 |
| `openclaw gateway restart` | 重启 Gateway 服务 |
| `openclaw gateway stop` | 停止 Gateway 服务 |
| `openclaw status` | 查看运行状态 |
| `openclaw doctor` | 诊断配置问题 |
| `openclaw doctor --fix` | 自动修复配置问题 |
| `openclaw dashboard` | 打开 Web 控制面板 |
| `openclaw logs --follow` | 查看实时日志 |
| `openclaw configure` | 修改配置 |
| `openclaw update` | 更新到最新版本 |
### 聊天命令
在聊天窗口中可以使用的命令:
| 命令 | 功能 |
| ----------------- | ------ |
| `/help` | 显示帮助 |
| `/new` | 开始新对话 |
| `/reset` | 重置对话 |
| `/stop` | 停止当前任务 |
| `/think ` | 设置思考深度 |
| `/model ` | 切换模型 |
| `/verbose on/off` | 开关详细模式 |
| `/status` | 查看状态 |
| `/skills` | 查看可用技能 |
## 使用示例
直接用中文与 OpenClaw 对话,它会自动理解并执行任务:
### 文件操作
```text theme={null}
> 帮我在桌面创建一个 test.txt 文件,内容写 hello world
> 读取 ~/Documents/notes.txt 的内容
> 把桌面上所有 .png 文件移动到 Pictures 文件夹
```
### 终端命令
```text theme={null}
> 列出我桌面上的所有文件
> 查看当前系统内存使用情况
> 帮我安装 python 的 requests 库
```
### 浏览器控制
```text theme={null}
> 打开浏览器访问 baidu.com
> 搜索一下最新的 MacBook Pro 价格
> 截图当前网页
```
### 定时任务
```text theme={null}
> 每天早上 9 点提醒我喝水
> 每隔 1 小时提醒我休息一下
> 明天下午 3 点提醒我开会
```
### 编程辅助
```text theme={null}
> 帮我写一个 Python 脚本,批量重命名文件
> 这段代码有什么问题:[粘贴代码]
> 帮我写一个简单的 HTML 页面
```
## 推荐模型
OpenClaw 通过 API易 支持 200+ 主流 AI 模型,可根据不同任务选择合适的模型。
查看最新的场景化模型推荐,包括文本创作、编程开发、快速响应、长文本处理等全场景的最佳模型选择。
### 场景化模型推荐
| 任务类型 | 推荐模型 | 原因 |
| ------ | --------------- | ---------- |
| 复杂任务执行 | Claude Sonnet 4 | 理解能力强,执行准确 |
| 日常对话 | GPT-5.4 | 响应自然,通用性好 |
| 代码编写 | DeepSeek V3.2 | 编程能力强,性价比高 |
| 长文档处理 | Gemini 3.1 Pro | 支持超长上下文 |
# Chatbox AI
Source: https://docs.apiyi.com/scenarios/chat/chatbox
跨平台 AI 客户端应用集成指南
Chatbox AI 是一个功能强大的跨平台 AI 客户端应用,支持多种大语言模型和 API。通过 API易,您可以在 Chatbox 中访问各种主流 AI 模型,享受本地存储的隐私保护。
## 快速开始
### 下载安装
Chatbox AI 支持多平台安装:
* **桌面版**:Windows、macOS、Linux
* **移动版**:iOS、Android
* **网页版**:直接通过浏览器访问
访问 [Chatbox AI 官网](https://chatboxai.app/en) 下载适合您平台的版本。
### 配置 API易
#### 步骤 1:打开设置
1. 启动 Chatbox AI 应用
2. 点击左下角的设置图标(⚙️)
3. 进入"模型配置"界面
#### 步骤 2:添加自定义提供商
按照上图所示的配置界面,完成以下设置步骤:
1. 在"模型提供商"部分点击 **+ 添加** 按钮
2. 填写提供商信息:
* **名称**:API易(可自定义名称)
* **API 模式**:选择 **OpenAI API 兼容**
* **API 密钥**:输入您的 API易 密钥
* **API 主机**:`https://api.apiyi.com/v1`
* **API 路径**:`/chat/completions`(默认值)
3. **高级配置**(可选):
* 启用"改善网络兼容性"选项(如图所示)
* 可配置图像生成专用端点
**配置要点**
* API 主机字段对应 Base URL,必须包含 `/v1` 后缀
* API 路径字段用于指定具体的端点路径
* API 密钥可在 [API易控制台](https://api.apiyi.com) 获取
* 配置完成后点击右下角的 **+ 新建** 按钮添加模型
#### 步骤 3:选择模型
配置完成后,在聊天界面可以选择模型。
## 支持的模型
Chatbox AI 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek、国产模型等。
查看最新的模型推荐、性能对比和场景化使用建议。涵盖文本创作、编程开发、快速响应、图像生成、视频生成等全场景。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
## 核心功能
### 多平台同步
Chatbox AI 的核心优势:
* **本地存储**:数据完全存储在本地,保护隐私
* **跨平台访问**:在不同设备间切换使用
* **离线功能**:部分功能支持离线使用
### 对话管理
**智能对话功能**:
* 多轮对话上下文保持
* 对话历史搜索和管理
* 对话导出(Markdown、PDF)
* 提示词库和消息引用
### 文档处理
**文档理解能力**:
* PDF、TXT、DOCX 文档上传
* 图片理解和分析
* LaTeX 和 Markdown 渲染
* 代码高亮和预览
### 图像生成
**AI 图像创作**:
* 支持 DALL-E 系列模型图像生成
* 可配置专用图像生成端点
* 支持多种图像尺寸和风格
* 批量图像生成功能
**配置图像生成**:
1. 在设置中添加图像生成专用提供商
2. 使用标准 `/images/generations` 端点
3. 在聊天中直接描述图像需求
4. 系统自动调用图像生成API
### 高级设置
**参数调节**:
```yaml theme={null}
对话参数设置:
- Temperature: 0.7 # 创造性控制(推理模型 GPT-5 只能用 1)
- Max Tokens: 4096 # 最大输出长度
- Top P: 0.9 # 采样参数(推理模型 gpt-5 只能用 1)
- Context Length: 8192 # 上下文长度
```
## 使用技巧
### 提示词优化
Chatbox AI 内置提示词库,您也可以创建自定义提示词:
```markdown theme={null}
# 编程助手
你是一位经验丰富的软件工程师,请帮我:
- 编写高质量代码
- 解释复杂概念
- 提供最佳实践建议
# 输出格式
请使用代码块格式化代码,并提供详细注释。
```
### 隐私保护
Chatbox AI 采用"隐私设计"理念:
* 数据本地存储,不上传云端
* 支持自建 API 端点
* 可完全离线使用(配合本地模型)
## 高级配置
### 自定义 API 端点
除了基本的聊天功能,您还可以配置专用的图像生成端点:
#### 聊天完成端点配置
```yaml theme={null}
基础聊天配置:
提供商名称: API易
API模式: OpenAI API Compatible
API密钥: sk-your-apiyi-key
API主机: https://api.apiyi.com/v1
API路径: /chat/completions
```
#### 图像生成端点配置
**方式一:使用专属 Image API**
```yaml theme={null}
图像生成配置:
提供商名称: API易-图像
API模式: OpenAI API Compatible
API密钥: sk-your-apiyi-key
API主机: https://api.apiyi.com/v1
API路径: /images/generations # 标准图像生成端点
模型适用:gpt-image-1、flux-kontext-pro
```
**方式二:使用 Responses 端点**
```yaml theme={null}
Responses配置:
提供商名称: API易-Responses
API模式: OpenAI API Compatible
API密钥: sk-your-apiyi-key
API主机: https://api.apiyi.com
API路径: /v1/responses # 通用响应端点
```
**端点选择建议**
* 常规对话:使用 `/chat/completions` 端点
* 逆向生成图片的模型,比如 sora\_image:使用 `/chat/completions` 端点
* 图像生成:优先使用 `/images/generations` 标准端点
* 特殊需求:可使用 `gpt-image-1` 或 `/v1/responses` 端点
* 在 Chatbox 中,"API路径"字段对应具体的端点路径
### 网络代理设置
如需使用代理访问:
1. 进入设置 > 网络配置
2. 配置 HTTP/HTTPS 代理
3. 设置代理认证(如需要)
### 快捷键设置
常用快捷键:
* `Ctrl/Cmd + N`:新建对话
* `Ctrl/Cmd + T`:切换模型
* `Ctrl/Cmd + /`:显示命令面板
* `Ctrl/Cmd + K`:快速搜索
## 移动端配置
### iOS/Android 配置
移动端配置与桌面版相同:
1. 下载 Chatbox AI 移动应用
2. 进入设置 > 模型配置
3. 添加 API易 自定义提供商
4. 配置相同的 API Base URL 和密钥
### 移动端特色功能
* **语音输入**:支持语音转文字
* **相机集成**:直接拍照进行图像分析
* **离线缓存**:对话历史离线可用
* **推送通知**:重要消息提醒
## 故障排除
### 常见问题
**连接失败**
* 检查 API Base URL:`https://api.apiyi.com/v1`
* 验证 API 密钥有效性
* 确认网络连接正常
**模型不显示**
* 等待模型列表自动刷新
* 手动点击"刷新模型"按钮
* 检查 API 密钥权限
**响应速度慢**
* 尝试切换到更快的模型
* 检查网络延迟
* 减少上下文长度
### 日志调试
启用调试模式:
1. 设置 > 高级选项
2. 开启"调试模式"
3. 查看详细日志信息
### 数据备份
定期备份对话数据:
1. 设置 > 数据管理
2. 导出对话历史
3. 备份配置文件
## 最佳实践
### 性能优化
1. **合理选择模型**
* 根据任务复杂度选择合适的模型
* 查看 [模型推荐页面](/api-capabilities/model-info) 获取最新的模型选择建议
2. **上下文管理**
* 定期清理无用对话
* 合理设置上下文长度
* 使用对话分组功能
3. **资源管理**
* 监控 API 使用量
* 设置使用限额提醒
* 定期更新应用版本
### 安全建议
* 不要分享 API 密钥
* 定期更换密钥
* 使用强密码保护应用
* 谨慎处理敏感信息
### 团队协作
虽然 Chatbox AI 主要面向个人用户,但可以通过以下方式支持团队:
* 共享提示词模板
* 导出对话记录分享
* 统一 API 配置标准
## 对比优势
### vs 其他客户端
| 特性 | Chatbox AI | ChatGPT Web | 其他客户端 |
| ----------- | ---------- | ----------- | ----- |
| **本地存储** | ✅ | ❌ | 部分支持 |
| **多平台** | ✅ | ❌ | 部分支持 |
| **自定义 API** | ✅ | ❌ | ✅ |
| **离线功能** | ✅ | ❌ | ❌ |
| **隐私保护** | ✅ | ❌ | 不确定 |
### 选择 Chatbox AI 的理由
1. **隐私优先**:数据完全本地存储
2. **灵活配置**:支持多种 API 端点
3. **跨平台**:统一的使用体验
4. **功能丰富**:提示词库、文档处理等
5. **持续更新**:活跃的开发维护
需要更多帮助?请查看 [Chatbox AI 帮助中心](https://chatboxai.app/en/help-center) 或访问 [API易官网](https://api.apiyi.com)。
# ChatGPT Next Web
Source: https://docs.apiyi.com/scenarios/chat/chatgpt-next-web
一键部署的网页版 ChatGPT 集成指南
# ChatGPT Next Web
ChatGPT Next Web 是一款精心设计的 ChatGPT 网页客户端,支持一键部署和多种 AI 模型。
## 快速部署
### Vercel 一键部署
1. 点击 [一键部署](https://vercel.com/new/clone?repository-url=https://github.com/Yidadaa/ChatGPT-Next-Web)
2. 设置环境变量:
* `OPENAI_API_KEY`:您的 API易 密钥
* `BASE_URL`:`https://api.apiyi.com`
3. 完成部署
### Docker 部署
```bash theme={null}
docker run -d \
--name chatgpt-next-web \
-p 3000:3000 \
-e OPENAI_API_KEY="您的API易密钥" \
-e BASE_URL="https://api.apiyi.com" \
yidadaa/chatgpt-next-web
```
## 配置说明
### 基础配置
在设置页面配置:
* **API Key**:输入 API易 密钥
* **接口地址**:`https://api.apiyi.com`
### 非 OpenAI 模型
对于 Claude、Gemini 等模型:
1. 在"自定义模型"中添加
2. 格式:`+模型名称@OpenAI`
3. 示例:`+claude-3-opus-20240229@OpenAI`
## 核心功能
### 预设提示词
内置丰富的提示词模板
### 面具功能
创建预设的 AI 角色
### 对话导出
支持 Markdown、图片、PDF 格式
### 访问控制
设置密码保护您的应用
## 环境变量
```bash theme={null}
# API 配置
OPENAI_API_KEY=您的API易密钥
BASE_URL=https://api.apiyi.com
# 访问控制
CODE=您的访问密码
# 模型配置
DEFAULT_MODEL=gpt-3.5-turbo
CUSTOM_MODELS=+claude-3-opus-20240229@OpenAI
```
## 使用技巧
### 模型选择策略
获取最新的模型推荐、性能对比和场景化使用建议。涵盖文本创作、编程开发、图像生成、视频生成等全场景。
### 提示词优化
```markdown theme={null}
# 角色设定
你是一位经验丰富的[具体角色]
# 任务说明
请帮我[具体任务]
# 输出要求
- 要求1
- 要求2
```
## 常见问题
### 模型不显示
确保使用 v2.13.0+ 版本
### 连接失败
检查 API 地址:`https://api.apiyi.com`
### 回复中断
检查账户余额和网络连接
## 更新维护
### Vercel 更新
在 GitHub 中 Sync fork,Vercel 自动重新部署
### Docker 更新
```bash theme={null}
docker pull yidadaa/chatgpt-next-web
docker stop chatgpt-next-web
docker rm chatgpt-next-web
# 重新运行容器
```
需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/chatgpt-next-web)。
# Cherry Studio
Source: https://docs.apiyi.com/scenarios/chat/cherry-studio
功能强大的 AI 对话客户端集成指南,支持 OpenAI、Anthropic、Gemini 三种渠道类型
Cherry Studio 是一款功能强大的 AI 对话客户端,支持多种大语言模型。通过 API易,您可以在 Cherry Studio 中使用各种主流 AI 模型,并根据需要选择不同的渠道类型以获得最佳体验和成本优化。
## 快速集成(OpenAI 兼容格式)
这是最通用的接入方式,支持 API易 全部 200+ 模型。
### 1. 获取 API 密钥
请参考 [API密钥获取与管理教程](/faq/token-management) 获取您的 API 密钥。
### 2. 配置步骤
按照上图所示,完成以下配置步骤:
1. 打开 Cherry Studio 应用
2. 点击左侧的设置图标进入设置页面
3. 选择"模型服务"选项
4. 在模型提供商列表中创建自定义渠道【API易】
5. 填写配置信息:
* **API 地址**:`https://api.apiyi.com`
* **API 密钥**:输入您的 API易 密钥([获取方式](/faq/token-management))
6. 点击底部的"➕ 添加"按钮保存配置
**配置要点**
* API 地址务必使用:`https://api.apiyi.com`
* API 密钥获取方式请参考 [API密钥获取与管理教程](/faq/token-management)
* 建议先测试连接确保配置正确
## 三种渠道类型对比
Cherry Studio 支持多种渠道类型,API易 均可接入。根据您的使用场景选择最合适的方式:
| 特性 | OpenAI 兼容格式 | Anthropic 格式 | Gemini 格式 |
| ---------- | -------------------------- | ----------------- | ----------- |
| **API 地址** | 均为 `https://api.apiyi.com` | | |
| **支持模型** | 全部 200+ 模型 | 仅 Claude 模型 | 仅 Gemini 模型 |
| **核心优势** | 通用兼容 | 缓存省钱 | 原生功能 + 文生图 |
| **缓存计费** | 无 | 缓存 token 约 10% 价格 | 无 |
| **特色功能** | 最广模型支持 | 连续对话成本优化 | 文生图、代码执行 |
| **推荐场景** | 通用、多模型切换 | 高频 Claude 使用 | Gemini 专属功能 |
**如何选择?**
* 如果您使用多种模型,选择 **OpenAI 兼容格式**(默认推荐)
* 如果您主要用 Claude 且对话频繁(5 分钟内连续对话),选择 **Anthropic 格式** 可省钱
* 如果您需要 Gemini 文生图等原生功能,选择 **Gemini 格式**
## Anthropic 渠道类型
Anthropic 原生格式支持 **Prompt Caching(提示缓存)** 功能,在 5 分钟内的连续对话中,缓存命中的输入 tokens 仅需正常价格的约 10%,大幅降低使用成本。
### 配置步骤
1. 打开 Cherry Studio 设置 → 模型服务
2. 创建新的渠道,**渠道类型选择 Anthropic**
3. 填写配置信息:
* **API 地址**:`https://api.apiyi.com`
* **API 密钥**:输入您的 API易 密钥
4. 添加所需的 Claude 模型(如 `claude-sonnet-4-5-20250929`、`claude-opus-4-5-20251101`)
**注意**:Anthropic 渠道仅支持 Claude 系列模型。如需使用其他模型,请通过 OpenAI 兼容格式渠道。
### 适用场景
* **连续对话**:5 分钟内的高频对话,缓存命中率高,省钱效果明显
* **长上下文对话**:上下文越长,缓存节省的费用越多
* **偶尔聊天**:如果您只是时不时发一句,使用 OpenAI 兼容格式即可,两者差别不大
查看 Anthropic 原生格式的完整 API 文档,包括流式响应、扩展思考等高级功能。
## Gemini 渠道类型
Gemini 原生格式支持所有 Gemini 专属功能,包括使用 `gemini-3-pro-image-preview` 进行**文生图(text-to-image)** 创作、代码执行、原生推理控制等。
### 配置步骤
1. 打开 Cherry Studio 设置 → 模型服务
2. 创建新的渠道,**渠道类型选择 Google Gemini**
3. 填写配置信息:
* **API 地址**:`https://api.apiyi.com`
* **API 密钥**:输入您的 API易 密钥
4. 添加所需的 Gemini 模型(如 `gemini-2.5-flash`、`gemini-3-pro-preview`、`gemini-3-pro-image-preview`)
**注意**:Gemini 渠道仅支持 Gemini 系列模型。如需使用其他模型,请通过 OpenAI 兼容格式渠道。
### 特色功能
* **文生图**:使用 `gemini-3-pro-image-preview` 模型,直接在对话中生成图片
* **代码执行**:模型可自动执行 Python 代码进行数据分析
* **推理控制**:通过 `thinking_budget` 精细控制推理深度
* **多模态支持**:完整支持图片、音频、视频等多种媒体输入
查看 Gemini 原生格式的完整 API 文档,包括多模态处理、推理控制、代码执行等功能。
## 添加模型
完成渠道配置后,在对应渠道中添加所需模型:
1. 在模型搜索框中查找所需模型
2. 点击模型名称旁的图标来选择或配置模型
3. 根据需要启用或禁用不同的模型变体
查看最新的模型推荐、性能对比和使用建议。模型列表持续更新,确保您使用最新最强的 AI 模型。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
## 高级功能
### 图片支持
如果使用支持图片的模型(如 GPT-4V):
1. 在设置中开启"图片"选项
2. 选择支持视觉的模型
3. 在对话中上传图片
### 流式输出
Cherry Studio 默认支持流式输出,提供更好的体验。
## 故障排除
### 连接失败
* 检查 API 密钥是否正确
* 确认 API 地址:`https://api.apiyi.com`
* 验证网络连接状态
### 模型不可用
* 确认账户余额充足
* 检查模型是否在对应的渠道类型中(例如 Claude 模型需在 OpenAI 或 Anthropic 渠道中)
* 尝试其他模型
## 使用技巧
1. **合理选择渠道**:根据主要使用的模型选择对应渠道类型,可同时配置多个渠道
2. **合理选择模型**:根据任务需求选择合适的模型
3. **定期更新**:关注新模型的发布
4. **监控使用**:通过 API易 查看使用情况
需要更多帮助?请访问 [API易官网](https://api.apiyi.com)。
# Open WebUI
Source: https://docs.apiyi.com/scenarios/chat/open-webui
功能丰富的自托管 AI 界面集成指南
Open WebUI 是一个功能丰富的自托管 AI 平台,支持完全离线运行。通过 API易,您可以在 Open WebUI 中集成各种主流大语言模型。
## 快速部署
### Docker 快速启动
```bash theme={null}
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
```
### Docker Compose 部署
```yaml theme={null}
version: '3.6'
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
volumes:
- open-webui:/app/backend/data
environment:
- OPENAI_API_BASE_URL=https://api.apiyi.com
- OPENAI_API_KEY=您的API易密钥
restart: unless-stopped
volumes:
open-webui:
```
## 配置 API易
### 方法一:环境变量配置
在部署时设置环境变量:
```bash theme={null}
docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL=https://api.apiyi.com \
-e OPENAI_API_KEY=您的API易密钥 \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
```
### 方法二:界面配置
1. 访问 Open WebUI 管理界面
2. 进入 **Settings** > **Connections**
3. 在 **OpenAI API** 部分配置:
* **API Base URL**: `https://api.apiyi.com/v1`
* **API Key**: 输入您的 API易 密钥
4. 点击保存配置
**配置要点**
* API Base URL 需要包含 `/v1` 后缀
* API Key 可在 [API易控制台](https://api.apiyi.com) 获取
* 建议使用环境变量方式,便于管理和更新
## 支持的模型
Open WebUI 通过 API易 支持 200+ 主流 AI 模型。
查看最新的模型推荐、性能对比和场景化使用建议。涵盖文本创作、编程开发、快速响应、图像生成、视频生成等全场景。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
## 核心功能
### RAG (检索增强生成)
Open WebUI 支持文档上传和知识库功能:
1. **文档上传**
* 支持 PDF、TXT、DOCX 等格式
* 自动向量化存储
* 支持多语言文档
2. **知识库管理**
* 创建专项知识库
* 文档分类和标签
* 智能检索匹配
### OpenAI 兼容 API
Open WebUI 提供完整的 OpenAI 兼容 API:
```bash theme={null}
# 聊天完成
curl -X POST "http://localhost:3000/api/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer 您的API易密钥" \
-d '{
"model": "gpt-4-turbo",
"messages": [
{"role": "user", "content": "Hello, world!"}
]
}'
```
### 工具集成
支持外部工具和插件:
* 网络搜索
* 代码执行
* 图像生成
* 文档处理
## 高级配置
### 多模型配置
在 `docker-compose.yml` 中配置多个模型源:
```yaml theme={null}
environment:
- OPENAI_API_BASE_URL=https://api.apiyi.com
- OPENAI_API_KEY=您的API易密钥
- ENABLE_OPENAI_API=true
- ENABLE_OLLAMA_API=false
```
### 用户权限管理
```yaml theme={null}
environment:
- ENABLE_SIGNUP=false
- DEFAULT_USER_ROLE=user
- WEBHOOK_URL=您的webhook地址
```
### 数据持久化
```yaml theme={null}
volumes:
- open-webui:/app/backend/data
- ./uploads:/app/backend/data/uploads
- ./vector_db:/app/backend/data/vector_db
```
## API 集成示例
### Python 集成
```python theme={null}
import requests
# Open WebUI API 端点
api_url = "http://localhost:3000/api/chat/completions"
# 请求配置
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer 您的API易密钥"
}
data = {
"model": "gpt-4-turbo",
"messages": [
{"role": "user", "content": "解释量子计算的基本原理"}
],
"stream": False
}
# 发送请求
response = requests.post(api_url, headers=headers, json=data)
result = response.json()
print(result["choices"][0]["message"]["content"])
```
### JavaScript 集成
```javascript theme={null}
const apiUrl = 'http://localhost:3000/api/chat/completions';
const requestData = {
model: 'gpt-4-turbo',
messages: [
{ role: 'user', content: '写一个简单的 Python 函数' }
]
};
fetch(apiUrl, {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer 您的API易密钥'
},
body: JSON.stringify(requestData)
})
.then(response => response.json())
.then(data => {
console.log(data.choices[0].message.content);
});
```
## 故障排除
### 常见问题
**连接失败**
* 检查 API Base URL 是否正确:`https://api.apiyi.com/v1`
* 验证 API Key 有效性
* 确认防火墙设置
**模型不可用**
* 检查账户余额
* 确认模型在服务范围内
* 查看 API易 服务状态
**上传失败**
* 检查文件格式支持
* 确认存储空间充足
* 验证文件大小限制
### 日志调试
启用调试模式:
```bash theme={null}
docker logs -f open-webui
```
查看详细日志:
```yaml theme={null}
environment:
- LOG_LEVEL=DEBUG
- WEBUI_DEBUG=true
```
## 最佳实践
### 性能优化
1. **模型选择**
* 根据任务复杂度选择合适的模型
* 查看 [模型推荐页面](/api-capabilities/model-info) 获取最新的模型选择建议
2. **缓存策略**
* 启用对话缓存
* 设置合理的缓存过期时间
* 定期清理无用缓存
3. **资源管理**
* 监控内存使用
* 设置合理的并发限制
* 定期备份用户数据
### 安全配置
```yaml theme={null}
environment:
- ENABLE_ADMIN_EXPORT=false
- ENABLE_ADMIN_CHAT_ACCESS=false
- JWT_EXPIRES_IN=7d
```
### 监控告警
集成监控系统:
```yaml theme={null}
environment:
- ENABLE_WEBHOOKS=true
- WEBHOOK_URL=https://your-monitoring-url
```
需要更多帮助?请查看 [Open WebUI 官方文档](https://docs.openwebui.com) 或访问 [API易官网](https://api.apiyi.com)。
# APIYI GPT-Image 2 生图 Skills
Source: https://docs.apiyi.com/scenarios/ecosystem/apiyi-gpt-image-skills
社区开源的双 Skill 合集:在 Codex CLI、Cursor、Gemini CLI 等 AI 编程工具中一句话调用 gpt-image-2(官转)与 gpt-image-2-all(官逆)生图与改图。
## 概述
`apiyi-gpt-image-2-gen` 与 `apiyi-gpt-image-2-all-gen` 是社区用户 wuchubuzai2018 贡献的两个开源 AI Agent Skill,让你在 **Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp** 等支持 Skills 的 AI 编程工具中,通过一句自然语言调用 API易 的两款 OpenAI GPT 图像模型 —— **官转 `gpt-image-2`**(精细可控、按 token 计费、支持 4K)与 **官逆 `gpt-image-2-all`**(对话式、按次计费、ChatGPT 一致体验)。
**项目信息**
* 🔗 开源地址:`github.com/wuchubuzai2018/expert-skills-hub`
* 📦 Skill 标识:`apiyi-gpt-image-2-gen`(官转)、`apiyi-gpt-image-2-all-gen`(官逆)
* 👤 作者:wuchubuzai2018(无处不在的技术)
* ⭐ 该项目由社区用户贡献,与同作者的 [Nano Banana Pro 生图 Skill](/scenarios/ecosystem/nano-banana-skill) 属于同一 Skills 合集仓库
**两个 Skill 如何选?**
* **`apiyi-gpt-image-2-gen`(官转,推荐)**:可控 `size / quality / output-format / compression`,支持 4K(3840×2160)、自定义尺寸、mask 语义编辑,按 token 计费——适合有明确画质/尺寸要求的场景
* **`apiyi-gpt-image-2-all-gen`(官逆)**:仅需 `prompt` + 可选 `response-format`,通过 Prompt 描述尺寸/比例,按次计费(\$0.03 / 次),与 ChatGPT 网页版体验一致——适合自然语言直出、文字还原、多轮改图
* 完整差异见 [官转 vs 官逆对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)
## 核心功能
在 AI 编程助手中直接用中文/英文自然语言描述,即刻生成或编辑图片
官转 `gpt-image-2` 与官逆 `gpt-image-2-all` 同时可用,按场景切换
官转 Skill 支持 1024² / 1536×1024 / 2048² / **3840×2160** 等预设及自定义尺寸
`quality`(low / medium / high / auto)+ 输出格式(png / jpeg / webp)+ 压缩率 0-100
两个 Skill 均支持最多 5 张参考图叠加输入,实现多图融合与风格迁移
Codex CLI / OpenCode / Gemini CLI / GitHub Copilot / Cursor / Amp 均可用
脚本同时提供 `generate_image.js` 与 `generate_image.py`
环境变量 `APIYI_API_KEY` 一次设置,全局可用;也支持 `-k` 命令行临时覆盖
## 支持的 API易 模型
| 模型名称 | 模型标识 | 对应 Skill | 计费 | API 文档 |
| ------------------- | ----------------- | --------------------------- | ---------- | -------------------------------------------------- |
| GPT-Image 2(官转,推荐) | `gpt-image-2` | `apiyi-gpt-image-2-gen` | 按 token 实计 | [查看文档](/api-capabilities/gpt-image-2/overview) |
| GPT-Image 2 All(官逆) | `gpt-image-2-all` | `apiyi-gpt-image-2-all-gen` | \$0.03 / 次 | [查看文档](/api-capabilities/gpt-image-2-all/overview) |
## 快速上手:3 步开始生图
1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录
2. 进入【令牌】栏目,生成新的 API 密钥(以 `sk-` 开头)
3. 建议单独建一个带用量上限的专用密钥
新用户注册即可获得免费测试额度,足够体验两款 GPT 图像模型。
**官转 `gpt-image-2`(推荐)**:
```bash theme={null}
npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill apiyi-gpt-image-2-gen
```
**官逆 `gpt-image-2-all`**:
```bash theme={null}
npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill apiyi-gpt-image-2-all-gen
```
需要 Node.js 环境;Python 脚本可作为备选运行时。未装 Node.js 可访问 `nodejs.org` 下载。
设置环境变量(推荐写入 `~/.zshrc` / `~/.bashrc`):
```bash theme={null}
export APIYI_API_KEY="sk-你的API易密钥"
```
Windows PowerShell:
```powershell theme={null}
$env:APIYI_API_KEY="sk-你的API易密钥"
```
配置完成!在支持 Skills 的 AI 编程工具中即可通过自然语言触发两个 Skill。
## 命令参数详解
### `apiyi-gpt-image-2-gen`(官转)
| 参数 | 缩写 | 必填 | 说明 | 示例 |
| ---------------------- | ---- | -- | ------------------------------------------------------------------------------------------------------- | ---------------- |
| `--prompt` | `-p` | 是 | 文生图描述或编辑指令 | `"橘猫在草地上玩耍"` |
| `--filename` | `-f` | 否 | 输出路径(省略自动生成带时间戳的名字) | `"cat.png"` |
| `--size` | `-s` | 否 | 预设(`1024x1024` / `1536x1024` / `1024x1536` / `2048x2048` / `2048x1152` / `3840x2160` / `2160x3840`)或自定义 | `"2048x1152"` |
| `--quality` | `-q` | 否 | `low` / `medium` / `high` / `auto` | `"high"` |
| `--output-format` | `-o` | 否 | `png`(默认)/ `jpeg` / `webp` | `"webp"` |
| `--output-compression` | `-c` | 否 | 0-100,仅对 jpeg / webp 生效 | `80` |
| `--input-image` | `-i` | 否 | 参考图路径(最多 5 张) | `"portrait.png"` |
| `--api-key` | `-k` | 否 | 临时覆盖环境变量密钥 | `"sk-xxx"` |
**支持的宽高比**:`1:1`、`3:2`、`2:3`、`16:9`、`9:16`,以及 ≤ 3:1 的自定义比例。
**自定义尺寸约束**:单边 ≤ 3840px,长宽均为 16 的倍数,总像素 65.5 万 – 829.4 万。
**典型耗时**:120–150 秒 / 请求(4K 复杂场景会更久)。
### `apiyi-gpt-image-2-all-gen`(官逆)
| 参数 | 缩写 | 必填 | 说明 | 示例 |
| ------------------- | ---- | -- | ------------------------------------- | ------------------ |
| `--prompt` | `-p` | 是 | 对话式生图或编辑指令(尺寸/比例通过 prompt 描述) | `"横版 16:9 赛博朋克城市"` |
| `--filename` | `-f` | 否 | 输出路径(省略自动生成带时间戳的 PNG) | `"city.png"` |
| `--response-format` | `-r` | 否 | `url`(默认,R2 CDN 约 24h 有效)或 `b64_json` | `"b64_json"` |
| `--input-image` | `-i` | 否 | 参考图路径(最多 5 张) | `"ref.png"` |
| `--api-key` | `-k` | 否 | 临时覆盖环境变量密钥 | `"sk-xxx"` |
官逆 Skill **不支持** `size` / `quality` / `aspect_ratio` 命令行参数 —— 这些都通过 prompt 文字描述(如 `"竖版 9:16 手机海报"`、`"1024x1024 方图"`)。耗时 60–300 秒。
## 使用示例
### 示例 1:官转文生图 + 精细控制
```bash theme={null}
node scripts/generate_image.js \
-p "Cinematic product shot of a minimalist ceramic teacup, soft morning light, 35mm lens" \
-f "teacup.png" \
-s "3840x2160" \
-q "high" \
-o "png"
```
### 示例 2:官转图生图(参考图编辑)
```bash theme={null}
node scripts/generate_image.js \
-p "把背景换成夕阳海滩,人物保持不变" \
-i "portrait.png" \
-f "portrait-beach.jpg" \
-s "2048x1152" \
-q "high" \
-o "jpeg" \
-c 85
```
### 示例 3:官转多图融合
```bash theme={null}
node scripts/generate_image.js \
-p "把图 1 的人物放进图 2 的场景,光线参考图 3" \
-i person.png scene.png light.png \
-f merged.png \
-q high
```
### 示例 4:官逆对话式生图(尺寸通过 prompt)
```bash theme={null}
node scripts/generate_image.js \
-p "横版 16:9 电影画幅:一位穿汉服的少女站在樱花树下,水彩画风格,柔和光线" \
-f "sakura.png" \
-r url
```
### 示例 5:在 AI 编程工具中调用
安装后,直接对 AI 助手说(以 Cursor / Codex CLI 为例):
* "用 apiyi-gpt-image-2-gen 生成一张 3840x2160、high 质量的赛博朋克城市壁纸"
* "调用 apiyi-gpt-image-2-all-gen,把 photo.jpg 改成吉卜力动画风格"
* "用官转 Skill 生成一张 logo,1:1,high 质量,webp 格式"
AI 助手会自动识别 Skill 并拼好命令行参数。
## 常见问题
* 需要**精确尺寸**(如 3840×2160)、**可控画质**(low/medium/high)、**特定输出格式**(webp / 压缩)→ 选 **官转 `apiyi-gpt-image-2-gen`**
* 需要**与 ChatGPT 一致的对话式体验**、**按次固定计费**(\$0.03 / 次)、**强文字还原**、**自然语言描述尺寸**即可 → 选 **官逆 `apiyi-gpt-image-2-all-gen`**
* 完整差异参考 [官转 vs 官逆对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)
1. 确认已安装 Node.js(`node -v`)
2. 网络通畅,能访问 GitHub
3. 若 `npx skills` 不可用,可手动克隆仓库:
```bash theme={null}
git clone https://github.com/wuchubuzai2018/expert-skills-hub.git
```
然后将 `skills/apiyi-gpt-image-2-gen` 或 `skills/apiyi-gpt-image-2-all-gen` 目录复制到你的 Skills 目录。
1. 环境变量 `APIYI_API_KEY` 是否正确(以 `sk-` 开头)
2. 余额是否充足,可参考 [为什么还有余额跑不通](/faq/balance-insufficient)
3. 临时测试可用 `-k "sk-xxx"` 直接传入
自定义 `size` 需满足:
* 单边不超过 3840px
* 长宽均为 16 的整数倍
* 总像素在 65.5 万 – 829.4 万之间
例如 `2048x3072` 合法,`3000x2000` 因 3000 非 16 倍数会被拒。
官逆默认返回的 R2 CDN URL 约 **24 小时** 有效。生产场景建议传 `-r b64_json` 取 Base64 自行落盘,或立即下载到本地。
目前已适配:Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp。任何支持 Skills 协议的工具都可以调用。
## 相关资源
原生 2K/4K 生图,按 token 计费
ChatGPT 一致体验,\$0.03 / 次按次计费
17 个维度一表看清差异
同一 Skills 合集下的 Gemini 生图 Skill
同模型的 ComfyUI 节点方案
管理密钥、用量与分组
# APIYI Nano Banana ComfyUI 节点(轻量示例版)
Source: https://docs.apiyi.com/scenarios/ecosystem/apiyi-nano-banana-node
社区伙伴贡献的轻量级 ComfyUI 节点示例,开箱即用地在工作流中调用 Nano Banana Pro / 2,适合快速上手与二次拓展。
## 概述
`api_yi_nano_banana_node` 是社区好伙伴 JerrIsTheBesta 贡献的**轻量级 ComfyUI 节点示例**,聚焦于"开箱即用 + 易于拓展"。只需在 `custom_nodes` 目录放入节点并重启 ComfyUI,即可在工作流中直接调用 API易 的 Nano Banana Pro / Nano Banana 2 图像生成能力,非常适合作为学习与二次开发的起点。
**项目信息**
* 🔗 开源地址:`github.com/JerrIsTheBesta/api_yi_nano_banana_node`
* 📜 许可证:MIT
* 👤 作者:JerrIsTheBesta
* ⭐ 该项目由社区好伙伴贡献,定位为**示例 + 可自行拓展**
**适合谁使用**
该节点专注最核心的文生图与多图编辑能力,代码简洁、易读。如需更复杂的能力(对话式编辑、14 图融合等),推荐参考 [Nano Banana ComfyUI 节点(完整版)](/scenarios/ecosystem/nano-banana-comfyui),或基于本示例自行拓展。
## 核心功能
`APIYI Text to Image` 文生图 + `APIYI Multi Image Edit` 多图编辑,覆盖最常用两种场景
内置选择 `gemini-3-pro-image-preview`(Nano Banana Pro)与 `gemini-3.1-flash-image-preview`
支持 **2K / 4K** 输出,并根据分辨率自动调整超时时间
内置 1:1、16:9、9:16、4:3、3:4、3:2、2:3、21:9、5:4、4:5 等 10 种比例
`Multi Image Edit` 支持最多 **5 张参考图** 融合/编辑,适合合成、风格迁移
Python 纯实现、依赖极少(requests / Pillow / numpy),代码结构清晰,便于二次开发
## 支持的 API易 模型
| 模型名称 | 模型标识 | 用途 | API 文档 |
| -------------------- | -------------------------------- | ---------- | ----------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 高质量图像生成与编辑 | [查看文档](/api-capabilities/nano-banana-pro) |
| Nano Banana 2(Flash) | `gemini-3.1-flash-image-preview` | 快速生成,成本更低 | [查看文档](/api-capabilities/gemini) |
## 节点说明
### APIYI Text to Image(文生图)
纯文本提示词生成图片,**不需要输入图像**。输出:生成的图片 + 文件名标识。
### APIYI Multi Image Edit(多图编辑)
支持**最多 5 张输入图**进行融合、编辑或合成。输出:结果图、文件名、实际使用的图片数量。
### 节点参数
| 参数名 | 类型 | 必填 | 默认值 | 说明 |
| -------------- | ------ | -- | ---------------------------- | -------------------------- |
| `api_key` | string | 是 | - | API易 令牌,建议单独创建带用量上限的专用 Key |
| `prompt` | string | 是 | - | 文本提示词 |
| `model` | enum | 是 | `gemini-3-pro-image-preview` | 模型选择(Pro / Flash) |
| `resolution` | enum | 否 | `2K` | 输出分辨率(2K / 4K,4K 自动延长超时) |
| `aspect_ratio` | enum | 否 | `1:1` | 宽高比(10 种可选) |
| `images` | IMAGE | 否 | - | 多图编辑节点的参考图输入(最多 5 张) |
## 安装配置
进入 ComfyUI 安装目录,克隆或下载本仓库到 `custom_nodes`:
```bash theme={null}
cd ComfyUI/custom_nodes
git clone https://github.com/JerrIsTheBesta/api_yi_nano_banana_node.git
```
节点依赖极少,通常 ComfyUI 已自带 torch。其他依赖如有缺失可手动安装:
```bash theme={null}
pip install requests pillow numpy
```
重启后在节点搜索栏输入 `APIYI` 即可看到两个新节点:
* `APIYI Text to Image`
* `APIYI Multi Image Edit`
* 访问 [API易控制台](https://www.apiyi.com) 的【令牌】栏目,**新建一个专用密钥并设置用量上限**(安全最佳实践)
* 将密钥复制粘贴到节点的 `api_key` 参数
* API 端点无需手动配置,节点已内置 `https://api.apiyi.com` 路径
* **文生图**:`APIYI Text to Image` → `Preview Image`
* **多图编辑**:多个 `Load Image` → `APIYI Multi Image Edit` → `Preview Image`
## 使用示例
### 示例 1:文生图
```
节点:APIYI Text to Image
prompt: "A cute corgi astronaut floating in a neon-lit space station, cinematic lighting"
model: gemini-3-pro-image-preview
resolution: 2K
aspect_ratio: 16:9
```
### 示例 2:多图融合
```
节点:APIYI Multi Image Edit
images: [人物照片, 服装参考图, 背景参考图]
prompt: "Replace the outfit with the reference clothing, and set the scene in the reference background"
resolution: 4K
aspect_ratio: 1:1
```
## 拓展建议
该项目定位为**示例与起点**,欢迎 Fork 后按需拓展:
在节点中维护 session 上下文,支持多轮迭代优化图片
参考 Nano Banana Pro 能力,将参考图上限扩展到 14 张
添加 seed 参数以支持可复现的生成
支持一次生成多张并输出为 batch,配合 ComfyUI 的后续节点链
## 常见问题
1. 确认仓库放在 `ComfyUI/custom_nodes/` 目录下
2. 完全重启 ComfyUI(不是仅刷新前端)
3. 查看 ComfyUI 控制台输出,确认没有 Python 依赖报错
请检查:
1. `api_key` 是否填写正确,且未被错误分组限制
2. 所选模型是否在当前令牌的模型白名单内
3. 账户余额是否充足,参考 [为什么还有余额跑不通](/faq/balance-insufficient)
节点已对 4K 自动延长超时,但若仍超时:
1. 检查服务器到 API 的网络质量(参考 [下载 CDN 图片/视频很慢怎么办](/faq/cdn-download-slow))
2. 在高峰期可暂时回退到 2K 或使用 Flash 模型
作者明确建议:**不要使用主 Key**,而是在 API易 控制台单独创建一个带用量上限的专用 Key 给该节点使用,避免泄漏带来额外损失。
* 本节点:**轻量示例**,仅 2 个节点,代码简洁、依赖极少,适合上手和二次开发
* [完整版节点](/scenarios/ecosystem/nano-banana-comfyui):功能更全(对话式编辑、14 图融合等),适合生产工作流
## 相关资源
查看 Nano Banana Pro 的完整 API 能力
功能更完整的 Nano Banana ComfyUI 节点集合
查看更多 API易 使用场景
管理 API 密钥和查看用量
# Nano Banana Pro Coze 插件
Source: https://docs.apiyi.com/scenarios/ecosystem/coze-nanobanana-plugin
社区贡献的 Coze 平台 Python 插件,封装 Nano Banana Pro(Gemini 3 Pro Image)调用、错误识别与 OSS 上链路,让 Coze 工作流即可完成文生图、图生图与结果直传。
## 概述
这是一个面向 [Coze 平台](https://www.coze.cn) 的自定义 Python 插件,把 API易 的 Nano Banana Pro 模型(`gemini-3-pro-image-preview`)封装成 Coze 工作流可直接调用的节点。插件内置完整的请求构造、错误码识别、违规内容判定与阿里云 OSS 上传链路,**返回的是可直接展示的公网 URL**,省去你在 Coze 工作流里再做一次结果转发的工作。
**项目信息**
* 📦 形态:代码包形式分享(**未公开在 GitHub**)
* 👤 作者:Shuaila1996
* 🎯 适用平台:Coze 国内版 / 海外版自定义插件
* 🔌 调用模型:`gemini-3-pro-image-preview`(API易)
* 📝 完整代码已在下方"插件完整源码"章节提供,可直接复制使用
## 核心功能
根据 `fileurls` 是否为空,自动切换文生图与改图模式,无需在 Coze 工作流里写两套节点
传入图片 URL 列表后自动下载并以 `inline_data` 方式注入请求,保留原图细节
区分 `ZERO_CANDIDATES_TOKEN`、`FINISH_REASON`、`INLINE_DATA_EMPTY`、`TEXT_RESPONSE` 等多种失败原因,便于工作流分支处理
遇到水印移除、换脸、色情、超出知识库年限等任务时,返回明确的拒绝类型而非让用户自行猜测
生成的 base64 图片直接上传阿里云 OSS,工作流拿到的是可直接外发或入库的 URL
1K / 2K / 4K 各自配置独立超时(360s / 600s / 1200s),4K 高清场景也不会被中断
## 支持的 API易 模型
| 模型名称 | 模型标识 | 用途 | API 文档 |
| --------------- | ---------------------------- | ------- | ------------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 文生图、图生图 | [查看文档](/api-capabilities/nano-banana-image) |
插件调用的是 API易 的 `https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent` 端点(Gemini 原生协议),与官方 Google AI Studio 完全一致,便于复用现成 prompt。
## 插件架构
插件核心调用链:
```text theme={null}
Coze 工作流入参 (cleantext / fileurls / aspect_ratio / resolution / apikey)
↓
handler() 入口
↓
generate_image() — 构造 parts + 调用 API易 端点
↓
解析候选项 / 兜底错误码
↓
upload_base64_to_oss() — 上传阿里云 OSS
↓
返回 { analysis, url, error }
```
## 输入输出参数
### 入参(`Input`)
| 参数 | 类型 | 必填 | 说明 |
| -------------- | --------- | -- | ------------------------------- |
| `cleantext` | string | 是 | 用户文字提示词或编辑指令 |
| `fileurls` | string\[] | 否 | 参考图 URL 列表,留空走文生图 |
| `aspect_ratio` | string | 是 | 宽高比,如 `1:1`、`16:9`、`9:16` |
| `resolution` | string | 是 | 分辨率,必须大写:`1K` / `2K` / `4K` |
| `apikey` | string | 是 | API易 密钥(建议在 Coze 工作流上游分发,按用户分配) |
### 出参(`Output`)
| 字段 | 类型 | 说明 |
| ---------- | -------------- | ------------------------ |
| `analysis` | string | 状态文案:`图片生成成功` / `图片生成失败` |
| `url` | string \| null | 成功时返回 OSS 公网链接 |
| `error` | string \| null | 失败时返回友好错误描述 |
## 部署步骤
* 在 [API易控制台](https://api.apiyi.com/token) 申请密钥(以 `sk-` 开头)
* 在阿里云开通 OSS Bucket,并创建一个 RAM 子账号,授予该 Bucket 的 `oss:PutObject` 权限
* 记录 `AccessKey ID`、`AccessKey Secret`、`Bucket 名称`、`Endpoint`(如 `oss-cn-beijing.aliyuncs.com`)
1. 进入 Coze 工作台 → 资源库 → 创建自定义插件
2. 运行模式选择「云侧插件 - 在 Coze IDE 中创建」
3. 工具运行环境选择 **Python**
4. 添加依赖包:`requests`、`oss2`
将下方"插件完整源码"章节的 Python 代码完整粘贴到 Coze IDE 中,并把代码顶部的阿里云 OSS 配置改成你自己的:
```python theme={null}
# 阿里云 OSS 配置
ACCESS_KEY_ID = "你的 AK"
ACCESS_KEY_SECRET = "你的 SK"
BUCKET_NAME = "你的 Bucket 名称"
ENDPOINT = "oss-cn-beijing.aliyuncs.com"
```
按下图配置 Input / Output 字段类型与必填项,与代码中的 `args.input` 字段保持一致:
* 在 Coze IDE 内填入测试参数(建议先用 1K + 简单 prompt 验证 OSS 链路)
* 测试通过后点击「发布」即可在工作流中拖拽使用
## 错误码识别策略
插件不只判断 `success=True/False`,还会按以下顺序识别失败原因,便于在 Coze 工作流里做差异化处理:
| 优先级 | 错误类型 | 触发条件 | 推荐处理 |
| --- | ----------------------- | ----------------------------------------- | ------------------------------------- |
| 1 | `ZERO_CANDIDATES_TOKEN` | `usageMetadata.candidatesTokenCount == 0` | 提示词或图片触发审核,建议改写 |
| 2 | `NO_CANDIDATES` | `candidates` 为空 | 系统出错,重试 |
| 3 | `FINISH_REASON` | `finishReason` 非 `STOP` | 按 `PROHIBITED_CONTENT` / `SAFETY` 等映射 |
| 4 | `NO_PARTS` | `content.parts` 为空 | 重试 |
| 5 | `INLINE_DATA_EMPTY` | 检测到 `inlineData` 但 `data` 为空 | 重试或换 prompt |
| 6 | `TEXT_RESPONSE` | 只返回了文本说明 | 自动归类为水印/换脸/色情/年限超出 |
## 插件完整源码
下面是 `coze-nanobanana-pro.py` 的完整代码,可以直接复制到 Coze IDE。**只需修改顶部 4 行 OSS 配置**即可投入使用。
```python coze-nanobanana-pro.py theme={null}
from runtime import Args
from typings.nanobanana_apiyi.nanobanana_apiyi import Input, Output
import requests
import base64
import io
import oss2
import uuid
import re
from datetime import datetime
# 阿里云 OSS 配置
ACCESS_KEY_ID = "" #填入自己的阿里云 Access Key ID
ACCESS_KEY_SECRET = "" #填入自己的阿里云 Access Key Secret
BUCKET_NAME = "" #填入自己的阿里云 OSS Bucket 名称
ENDPOINT = "oss-cn-beijing.aliyuncs.com" #填入自己的阿里云 OSS Endpoint,例如 "oss-cn-beijing.aliyuncs.com"
# 分辨率超时时间
TIMEOUT = {
"1K": 360, # 快速预览
"2K": 600, # 推荐使用
"4K": 1200, # 超高清
}
def upload_base64_to_oss(image_base64: str) -> str:
"""
将 base64 图片上传到阿里云 OSS 并返回链接
支持带 data:image/...;base64, 前缀 和 纯 base64 两种情况
"""
# 去掉 data:image/...;base64, 前缀
base64_str = re.sub(r"^data:image/[^;]+;base64,", "", image_base64)
image_data = base64.b64decode(base64_str)
image_io = io.BytesIO(image_data)
auth = oss2.Auth(ACCESS_KEY_ID, ACCESS_KEY_SECRET)
bucket = oss2.Bucket(auth, ENDPOINT, BUCKET_NAME)
object_name = f"coze/generated_{uuid.uuid4().hex}.png"
bucket.put_object(object_name, image_io)
return f"https://{BUCKET_NAME}.{ENDPOINT}/{object_name}"
# ==============================
# 工具函数:根据 URL 猜测 MIME 类型
# ==============================
def guess_mime_from_url(url: str) -> str:
url_lower = url.lower()
if url_lower.endswith(".png"):
return "image/png"
if url_lower.endswith(".jpg") or url_lower.endswith(".jpeg"):
return "image/jpeg"
if url_lower.endswith(".webp"):
return "image/webp"
if url_lower.endswith(".gif"):
return "image/gif"
# 默认
return "image/png"
# ==============================
# 核心:生成 / 编辑图片
# ==============================
def generate_image(prompt: str, aspect_ratio: str, resolution: str, apikey:str,apiurl:str,image_urls=None):
"""
生成 / 编辑图片的核心函数
- 如果 image_urls 为空:纯文生图
- 如果 image_urls 不为空:把 URL 指向的图片下载下来,按 inline_data 方式传给 API,实现改图
"""
# 组装 parts
parts = []
# 1. 如果有图片 URL,则按 apiyi 改图 demo 的方式构造 inline_data
if image_urls:
for url in image_urls:
try:
resp = requests.get(url, timeout=180)
if resp.status_code != 200:
return {
"success": False,
"error": f"图片上传阶段,获取图片失败({url})HTTP {resp.status_code}"
}
image_bytes = resp.content
image_base64 = base64.b64encode(image_bytes).decode("utf-8")
mime_type = guess_mime_from_url(url)
parts.append({
"inline_data": {
"mime_type": mime_type,
"data": image_base64
}
})
except Exception as e:
return {
"success": False,
"error": f"图片上传阶段,获取图片失败({url}): {e}"
}
# 2. 文字部分(编辑指令或文生图提示词)
# 注意:这里不再把图片 URL 塞进 prompt 里,仅用纯文字描述
if prompt:
parts.append({"text": prompt})
else:
# 没有文字时给一个默认提示(可按需要修改)
parts.append({"text": "根据图片进行合理的编辑生成。"})
# 3. 构造请求 payload(和官方改图 demo 一致的结构)
payload = {
"contents": [
{
"parts": parts
}
],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {
"aspectRatio": aspect_ratio,
"image_size": resolution
}
}
}
headers = {
"Authorization": f"Bearer {apikey}",
"Content-Type": "application/json"
}
try:
response = requests.post(apiurl, headers=headers, json=payload, timeout=TIMEOUT[resolution])
# HTTP 非200
if response.status_code != 200:
return {"success": False, "error": f"HTTP {response.status_code}: {response.text}"}
# JSON 解析
try:
data = response.json()
except ValueError:
return {"success": False, "error": "响应不是有效JSON", "response": (response.text or "")[:500]}
# 1️⃣ 最高优先级:candidatesTokenCount
usage = data.get("usageMetadata") or {}
if usage.get("candidatesTokenCount") == 0:
return {
"success": False,
"errorType": "ZERO_CANDIDATES_TOKEN",
"error": "❌ 内容审核失败\n您的请求在内容审核阶段被拒绝,请修改提示词或图片",
"response": data
}
# 2️⃣ candidates 检查
candidates = data.get("candidates")
if not isinstance(candidates, list) or len(candidates) == 0:
return {
"success": False,
"errorType": "NO_CANDIDATES",
"error": "系统出错,请稍后重试",
"response": data
}
candidate = candidates[0] if isinstance(candidates[0], dict) else None
if candidate is None:
return {
"success": False,
"errorType": "NO_CANDIDATES",
"error": "系统出错,请稍后重试(candidates[0]结构异常)",
"response": data
}
# 3️⃣ finishReason
finish_reason = candidate.get("finishReason")
if isinstance(finish_reason, str) and finish_reason != "STOP":
reason_map = {
"PROHIBITED_CONTENT": "内容违反安全策略,已被拒绝处理",
"SAFETY": "内容触发了安全过滤器",
"RECITATION": "内容可能涉及版权问题",
"MAX_TOKENS": "内容长度超出限制",
}
return {
"success": False,
"errorType": "FINISH_REASON",
"finishReason": finish_reason,
"error": reason_map.get(finish_reason, f"请求被拒绝:{finish_reason}"),
"response": data
}
# 4️⃣ content.parts
content = candidate.get("content") or {}
parts = content.get("parts")
if not isinstance(parts, list) or len(parts) == 0:
return {
"success": False,
"errorType": "NO_PARTS",
"error": "生成失败,请重试(content.parts为空)",
"response": data
}
# 5️⃣ 提取图片和文本(更精准:识别 inlineData 存在但 data 为空)
images = []
texts = []
saw_inline_but_empty = False
for i, part in enumerate(parts):
if not isinstance(part, dict):
continue
# 收集 text(即使有 thoughtSignature,也照收)
t = part.get("text")
if isinstance(t, str) and t.strip() and not t.startswith("data:image/"):
texts.append(t.strip())
# 兼容 inlineData / inline_data
inline = None
if isinstance(part.get("inlineData"), dict):
inline = part["inlineData"]
elif isinstance(part.get("inline_data"), dict):
inline = part["inline_data"]
if inline is not None:
b64 = inline.get("data")
if not isinstance(b64, str) or not b64.strip():
saw_inline_but_empty = True
continue
images.append(b64.strip())
# ✅ 更精准:inlineData 存在但全都没 data
if not images and saw_inline_but_empty:
return {
"success": False,
"errorType": "INLINE_DATA_EMPTY",
"error": "生成失败:检测到 inlineData 但图片数据为空(inlineData.data为空)",
"response": data
}
# 6️⃣ 有图片:成功(保持你原来的返回结构)
if images:
return {"success": True, "image_data": images[0]}
# 7️⃣ 无图片:有文本 -> TEXT_RESPONSE
if texts:
text_content = "\n".join(texts)
# —— 可选:不做函数,直接就地识别类型(想更简单可删掉这段 detectedType)——
low = text_content.lower()
detected = "general"
if any(k in low for k in ["watermark", "remove watermark", "去水印", "移除水印", "删除水印"]):
detected = "拒绝处理水印任务"
elif any(k in low for k in ["faceswap", "face swap", "换脸", "deepfake"]):
detected = "拒绝处理换脸任务"
elif any(k in low for k in ["sexually", "explicit", "porn", "nude", "nsfw", "色情", "不雅", "裸"]):
detected = "拒绝色情任务"
elif any(str(y) in low for y in range(2026, 2101)):
detected = "拒绝超过知识库范围任务"
return {
"success": False,
"errorType": "TEXT_RESPONSE",
"error": detected, # 你文档要求:直接展示 API text
"response": data
}
# ✅ 更精准:parts 有结构但既无图也无文本
return {
"success": False,
"error": "生成失败:parts存在但未找到图片数据或文本说明",
"response": data
}
except requests.exceptions.Timeout:
return {"success": False, "error": f"图片生成请求超时(超过 {TIMEOUT[resolution]} 秒)"}
except Exception as e:
return {"success": False, "error": f"图片生成请求失败: {str(e)}"}
# ==============================
# Coze Node 入口
# ==============================
def handler(args: Args[Input]) -> Output:
"""
Coze / NanobananaPro 节点入口
- args.input.cleantext: 用户文字提示词
- args.input.fileurls: 用户上传图片的 URL 列表(用于改图)
- args.input.aspect_ratio: 宽高比,如 "1:1" / "9:16"
- args.input.resolution: 分辨率,如 "1K" / "2K" / "4K"
"""
API_URL = "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent"
API_KEY = args.input.apikey
cleanttext = args.input.cleantext or ""
fileurls = args.input.fileurls or []
aspectratio = args.input.aspect_ratio
resolution = args.input.resolution
# - 图片通过 image_urls 传入 generate_image,走 inline_data 改图逻辑
prompt = cleanttext.strip()
# 调用 Gemini 3 Pro 生成 / 编辑图片
# 如果 fileurls 不为空,会按"改图"模式调用
result = generate_image(prompt, aspectratio, resolution, API_KEY,API_URL,image_urls=fileurls if fileurls else None)
if result["success"]:
image_base64 = result["image_data"]
oss_url = upload_base64_to_oss(image_base64)
return {"analysis": "图片生成成功", "url": oss_url, "error": None}
else:
return {"analysis": "图片生成失败", "url": None, "error": result["error"]}
```
## 在 Coze 工作流中使用
插件发布后,在 Coze 工作流编辑器里拖入插件节点,按以下方式连线:
```text theme={null}
开始节点 (用户输入提示词 + 图片)
↓
图片提示词分离 (代码节点)
↓
人员 apikey 分离 (字典查询,按用户分发 API易 密钥)
↓
nanobanana_apiyi 插件节点 (本插件)
↓
成功 / 失败分支
↓
结束节点 (输出 url 或 error)
```
推荐配合 [飞书多维表格 AI 生图方案](/scenarios/ecosystem/feishu-bitable-image-shortcut) 使用,整套方案让运营/设计同学**在飞书表格里填提示词就能批量出图**,无需打开任何代码。
## 常见问题
Coze 工作流后续节点(特别是飞书字段捷径)大多需要 **可访问的 URL** 才能转换为图片附件。直接返回 base64 会让数据在工作流里反复传输,不仅性能差,飞书侧还无法直接渲染。OSS 链接还方便长期归档与对外分享。
Coze 自定义插件目前不支持系统环境变量。推荐做法:把 OSS 凭证写在代码顶部常量,并通过 Coze 的「插件加密配置」功能保护。如果你的工作流面向多租户,建议把 OSS 路径前缀也按租户分目录写入。
便于按用户分发不同密钥。在 Coze 工作流中可以前置一个「人员 apikey 分离」字典节点,按调用人姓名匹配对应的 API易 密钥,方便用量核算与权限控制。
Nano Banana Pro 的 4K 出图本身需要较长时间(通常 5-15 分钟)。插件已为 4K 配置了 1200 秒超时,如果还是超时,建议:
1. 降级到 2K 调试 prompt
2. 检查 API易 控制台是否有限流
3. 减少同时调用并发数
这通常意味着模型拒绝了任务(违规、超出知识库等),插件会自动判别类型:水印移除、换脸、色情、年份超出 2025 等。按 `error` 字段文案展示给用户即可,**不要重试**——重试结果一致。
可以。本文档"插件完整源码"章节提供了 `coze-nanobanana-pro.py` 的完整代码(作者 Shuaila1996 贡献),**只需修改顶部 4 行 OSS 配置**就能直接粘贴到 Coze IDE 投入使用,无需额外索取。
如果你还需要:
* 飞书字段捷径代码 → 见 [飞书多维表格 AI 生图方案](/scenarios/ecosystem/feishu-bitable-image-shortcut) 中的"飞书字段捷径完整源码"章节
* 阿里云函数计算代码 → 同上文档中的"阿里云函数计算完整源码"章节
## 相关资源
本插件的最佳搭档:把整条 Coze 工作流接入飞书多维表格,运营同学填表即可批量出图
查看 Nano Banana Pro 完整 API 文档、定价与生图样例
Nano Banana 生图常见问题排查指南,匹配本插件的错误码体系
管理 API 密钥、查看用量与余额
# 飞书多维表格 AI 生图方案
Source: https://docs.apiyi.com/scenarios/ecosystem/feishu-bitable-image-shortcut
社区贡献的飞书多维表格自动化生图整链路:飞书字段捷径 + 阿里云函数计算 + Coze 工作流,让运营同学在表格里填提示词就能批量调用 Nano Banana Pro 出图入库。
## 概述
这是一套**让飞书多维表格变成生图生产线**的完整方案:运营/设计同学在表格里填写提示词、上传素材图,附件自动转 OSS 链接,再触发 Coze 工作流调用 Nano Banana Pro 出图,最后把生成结果回写到表格中作为图片附件展示——**全程零代码操作**。
方案由作者 Shuaila1996 在企业实际业务中沉淀,包含 3 个互相独立但配合使用的代码片段:飞书字段捷径、阿里云函数计算、Coze 插件。
**项目信息**
* 📦 形态:代码包形式分享(**未公开在 GitHub**)
* 👤 作者:Shuaila1996
* 🎯 适用场景:飞书企业版多维表格 + 阿里云 + Coze 国内版
* 🔌 调用模型:`gemini-3-pro-image-preview`(Nano Banana Pro,通过 API易 接入)
* 📝 飞书字段捷径、阿里云函数完整源码已嵌入本文档;Coze 插件完整源码见 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin)
## 核心功能
运营同学只需在飞书多维表格里填提示词、上传素材图,无需接触任何代码或工作流后台
飞书附件通过自研字段捷径下载并转发到阿里云函数计算,自动压缩后上传 OSS 拿到公网 URL
Coze 工作流内置「人员 apikey 分离」字典,按调用人自动分配 API易 密钥,便于用量核算
多维表格天然支持批量行操作,配合字段捷径可一键对几十上百行进行批量生图
Coze 返回的 OSS 链接通过飞书官方「URL 转附件」字段捷径写回表格,作为图片附件直接展示
审核失败、违规拒绝、超时等情况会以友好文案返回到表格,便于运营快速定位问题
## 支持的 API易 模型
| 模型名称 | 模型标识 | 用途 | API 文档 |
| --------------- | ---------------------------- | ------- | ------------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 文生图、图生图 | [查看文档](/api-capabilities/nano-banana-image) |
## 整体架构
```text theme={null}
┌──────────────────┐
│ 飞书多维表格 │ 运营填写:提示词 + 目标图 + 素材图 + 调用人
│ (生产入口) │
└────────┬─────────┘
│ ① 字段捷径触发
↓
┌──────────────────┐
│ 飞书字段捷径 │ 下载附件二进制,转发到阿里云 FC
│ (TypeScript) │
└────────┬─────────┘
│ ② HTTP POST
↓
┌──────────────────┐
│ 阿里云函数计算 │ 接收附件 → 上传原图 → 压缩处理 → 返回 OSS URL
│ (Node.js) │
└────────┬─────────┘
│ ③ 回写 OSS 链接
↓
┌──────────────────┐
│ 飞书多维表格 │ 公式字段合并提示词 + OSS 链接
│ (字段合并) │
└────────┬─────────┘
│ ④ Coze 工作流字段捷径
↓
┌──────────────────┐
│ Coze 工作流 │ 拆参数 → 选 API Key → 调用 Nano Banana Pro 插件
│ │
└────────┬─────────┘
│ ⑤ 返回图片 URL
↓
┌──────────────────┐
│ 飞书多维表格 │ URL 转附件,作为图片字段展示
│ (结果展示) │
└──────────────────┘
```
## 部署步骤
1. 开通 OSS Bucket,创建 RAM 子账号并授权 `oss:PutObject`、`oss:ProcessObject`
2. 开通函数计算 FC,创建一个 HTTP 触发器函数,运行环境选 Node.js 18+
3. 安装依赖:`ali-oss`
4. 配置环境变量(**避免硬编码密钥**):
```text theme={null}
OSS_REGION=oss-cn-beijing
OSS_BUCKET=your-bucket-name
OSS_AK=your-access-key-id
OSS_SK=your-access-key-secret
```
把作者提供的 `aliyun-fc-oss-upload.js` 完整代码部署到 FC 函数。函数核心逻辑:
* 接收飞书字段捷径传来的图片二进制
* `client.put` 上传原图
* `client.processObjectSave` 压缩到长边 4500 / 质量 95
* 把压缩图的公网 URL 包装成飞书可识别的 `feishuWrapper` 结构返回
部署完成后获取**函数公网触发地址**,备用。
使用 [飞书字段捷径开发框架](https://feishu.feishu.cn/docx/SZFpd9v6EoHMI7xEhWhckLLfnBh) 部署作者提供的 `feishu-attachment-to-oss.ts`。两处需要替换:
```typescript theme={null}
basekit.addDomainList([
'your-fc.aliyun.com', // 你的函数公网域名(去掉 https://)
'internal-api-drive-stream.feishu.cn',
]);
// ...
const uploadResp = await context.fetch(
'https://your-fc.aliyun.com', // 完整公网触发地址
// ...
);
```
飞书字段捷径运行在飞书官方云沙箱,**部分 Node.js 库不可用**,因此附件上传必须拆成「字段捷径下载二进制 → FC 上传 OSS」两步,无法在字段捷径里直接调用 OSS SDK。
打包后交由飞书官方人员上传到企业字段捷径库。
在飞书多维表格里准备以下字段:
| 字段名 | 类型 | 说明 |
| --------- | ---------------- | ----------- |
| 需求提示词填写 | 文本 | 用户输入的图像生成指令 |
| 目标图 | 附件 | 期望参考的目标图 |
| 素材图 | 附件 | 改图所用的素材图 |
| 目标图链接 | 字段捷径(附件转 OSS) | 自动产出 OSS 链接 |
| 素材图链接 | 字段捷径(附件转 OSS) | 自动产出 OSS 链接 |
| 合并提示词 | 公式 | 见下方公式 |
| 调用人 | 人员 / 文本 | 用于分发 API 密钥 |
| apichoice | 文本 | 固定填 `apiyi` |
| 生成结果链接 | 字段捷径(Coze 工作流调用) | 触发 Coze |
| 生成图片 | 字段捷径(URL 转附件) | 展示最终图片 |
合并公式示例:
```text theme={null}
[需求提示词填写]&CHAR(10)&"目标图:"&[目标图链接]&CHAR(10)&"素材图:"&[素材图链接]
```
1. 按 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) 文档部署 Python 插件
2. 导入作者提供的 Coze 工作流包,包含:
* 图片链接和提示词分离代码节点
* 「人员 apikey 分离」字典节点(按调用人匹配 API 密钥)
* Nano Banana Pro 插件节点
* 成功 / 失败 / 错误聚合逻辑
3. 在工作流中维护「人员 apikey 分离」字典,按团队成员姓名映射到对应的 API易 密钥
在飞书多维表格里添加官方 / 自研的「Coze 工作流调用」字段捷径,按下图配置:
关键点:
* 填入 Coze 申请的工作流令牌和工作流 ID
* 请求模板字段名必须**严格匹配** Coze 工作流入口参数名
* 必填项以 Coze 工作流入口勾选的字段为准
* `apichoice` 列填 `apiyi`,**不要写成** `apiyi(0.35元/张)` 这种展示文案,否则字典匹配失败
最后一步是把 Coze 返回的图片 URL 转成飞书图片附件。两种方式:
1. **直接购买**:使用 Coze 官方提供的「URL 转附件」字段捷径
2. **自研**:参考飞书字段捷径开发文档自行实现
## 多维表格合并公式
多维表格里的「合并提示词」公式:
```text theme={null}
[需求提示词填写]&CHAR(10)&"目标图:"&[目标图链接]&CHAR(10)&"素材图:"&[素材图链接]
```
`CHAR(10)` 是换行符,可以让 Coze 的代码节点用 `\n` 分割提示词与图片链接。
## 飞书字段捷径完整源码
下面是 `feishu-attachment-to-oss.ts` 的完整代码,可以直接复制到飞书字段捷径开发框架。**部署前只需把两处 `feishu-service` 改成你阿里云 FC 的公网域名/链接**。
```typescript feishu-attachment-to-oss.ts theme={null}
import {
basekit,
FieldComponent,
FieldType,
FieldCode,
} from '@lark-opdev/block-basekit-server-api';
basekit.addDomainList([
'feishu-service',/*这里需要你们替换成阿里函数FC域名名称,名称是公网链接去掉"https:"剩余部分*/
'internal-api-drive-stream.feishu.cn',
]);
basekit.addField({
formItems: [
{
key: 'attachments',
label: '上传图片',
component: FieldComponent.FieldSelect,
props: {
supportType: [FieldType.Attachment],
},
validator: {
required: true,
},
},
{
key: 'bizType',
label: '业务类型',
component: FieldComponent.Input,
props: {
placeholder: '如 avatar / report / invoice',
},
},
],
resultType: {
type: FieldType.Text,
},
execute: async (formItemParams: any, context: any) => {
const { attachments = [], bizType = 'default' } = formItemParams;
const urls: string[] = [];
for (const attachment of attachments) {
if (!attachment?.tmp_url) continue;
/* 1️⃣ 下载飞书附件(二进制) */
const fileResp = await context.fetch(attachment.tmp_url);
const arrayBuffer = await fileResp.arrayBuffer();
/* 2️⃣ 调用 FC 事件函数 */
const uploadResp = await context.fetch(
'https://feishu-service',/*这里需要你们替换成自己的事件函数公网链接*/
{
method: 'POST',
headers: {
'Content-Type': 'application/octet-stream',
'X-File-Name': encodeURIComponent(attachment.name || 'file'),
'X-Biz-Type': encodeURIComponent(bizType),
},
body: arrayBuffer,
}
);
/* 3️⃣ 解析事件函数返回 */
const result = await uploadResp.json();
/**
* result 结构:
* {
* statusCode: number,
* headers: object,
* body: string // ⚠️ JSON 字符串
* }
*/
if (result.statusCode !== 200) {
throw new Error(`upload failed: ${result.body}`);
}
// ⚠️ 事件函数的 body 需要再 parse 一次
const bodyObj = JSON.parse(result.body);
urls.push(bodyObj.url);
}
return {
code: FieldCode.Success,
data: urls.join('\n'),
};
},
});
export default basekit;
```
## 阿里云函数计算完整源码
下面是 `aliyun-fc-oss-upload.js` 的完整代码,可以直接放进阿里云函数计算的代码编辑器(运行时 Node.js 18+)。**所有密钥都从环境变量读取,不要硬编码**。
函数返回的是 `feishuWrapper(...)` 双层结构:HTTP 层固定 200,避免飞书 fetch 因非 2xx 抛异常;真正的状态码与数据放在 `body` 字段(**JSON 字符串**),飞书侧用 `JSON.parse(result.body)` 取数。
```javascript aliyun-fc-oss-upload.js theme={null}
'use strict';
const OSS = require('ali-oss');
const path = require('path');
const client = new OSS({
region: process.env.OSS_REGION,
bucket: process.env.OSS_BUCKET,
accessKeyId: process.env.OSS_AK,
accessKeySecret: process.env.OSS_SK,
authorizationV4: true,
secure: true,
internal:true,
});
function normalizeHeaders(headers) {
const out = {};
if (!headers || typeof headers !== 'object') return out;
for (const [k, v] of Object.entries(headers)) out[String(k).toLowerCase()] = v;
return out;
}
function getHeader(headersLower, name, defVal) {
const v = headersLower[String(name).toLowerCase()];
return v == null ? defVal : v;
}
function isTrue(v) {
return v === true || v === 'true' || v === 1 || v === '1';
}
function safeDecode(v) {
if (v == null) return v;
try {
return decodeURIComponent(String(v));
} catch {
return String(v);
}
}
function parseEvent(event) {
// 你的环境:HTTP 触发器事件通常是 Buffer 包着 JSON
if (Buffer.isBuffer(event)) {
const first = event.slice(0, 1).toString();
if (first === '{' || first === '[') {
return JSON.parse(event.toString('utf8'));
}
// 非 JSON:当成原始 body(这种情况下一般拿不到 headers)
return { __rawBody: event };
}
if (typeof event === 'string') {
try {
const obj = JSON.parse(event);
if (obj && typeof obj === 'object') return obj;
} catch {}
return { __rawBody: Buffer.from(event) };
}
if (event && typeof event === 'object') return event;
return {};
}
function bodyToBuffer(eventObj) {
// 原始 body 模式(极少数)
if (eventObj.__rawBody) return eventObj.__rawBody;
const raw = eventObj.body;
if (raw == null) {
const err = new Error('Missing request body');
err.statusCode = 400;
throw err;
}
const base64 = isTrue(eventObj.isBase64Encoded);
if (base64) {
if (typeof raw !== 'string') {
const err = new Error('isBase64Encoded=true but body is not string');
err.statusCode = 400;
throw err;
}
return Buffer.from(raw, 'base64');
}
if (Buffer.isBuffer(raw)) return raw;
if (typeof raw === 'string') return Buffer.from(raw);
if (typeof raw === 'object' && raw.type === 'Buffer' && Array.isArray(raw.data)) {
return Buffer.from(raw.data);
}
if (ArrayBuffer.isView(raw)) return Buffer.from(raw.buffer, raw.byteOffset, raw.byteLength);
if (raw instanceof ArrayBuffer) return Buffer.from(new Uint8Array(raw));
const err = new Error('Unsupported body type');
err.statusCode = 415;
throw err;
}
/**
* ✅ 返回给飞书的"wrapper 结构"
* 让飞书侧能用 result.statusCode 和 JSON.parse(result.body)
*/
function feishuWrapper(statusCode, payloadObj, extraHeaders = {}) {
return {
statusCode: 200, // HTTP 层保持 200,让飞书 fetch 不因非 2xx 抛异常
headers: {
'Content-Type': 'application/json',
...extraHeaders,
},
body: JSON.stringify({
statusCode,
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify(payloadObj), // ⚠️ body 必须是字符串
}),
};
}
exports.handler = async (event, context) => {
const requestId = context?.requestId || context?.fcRequestId || '';
try {
const eventObj = parseEvent(event);
const headersLower = normalizeHeaders(eventObj.headers);
// 处理 OPTIONS 预检(避免偶发调用)
const method =
eventObj?.httpMethod ||
eventObj?.method ||
eventObj?.requestContext?.http?.method ||
'';
if (method && method.toUpperCase() === 'OPTIONS') {
return {
statusCode: 204,
headers: {
'Access-Control-Allow-Origin': '*',
'Access-Control-Allow-Headers': '*',
'Access-Control-Allow-Methods': 'POST,OPTIONS',
},
body: '',
};
}
const bodyBuf = bodyToBuffer(eventObj);
if (!bodyBuf || bodyBuf.length === 0) {
return feishuWrapper(400, { error: 'Empty body', requestId });
}
// 可选:只验收不上传(飞书侧也能解析)
const dryRun = isTrue(getHeader(headersLower, 'x-dry-run', 'false'));
if (dryRun) {
return feishuWrapper(200, {
ok: true,
dryRun: true,
requestId,
size: bodyBuf.length,
contentType: getHeader(headersLower, 'content-type', ''),
});
}
const fileName = safeDecode(getHeader(headersLower, 'x-file-name', 'file')) || 'file';
const bizTypeRaw = safeDecode(getHeader(headersLower, 'x-biz-type', 'default')) || 'default';
const bizType = bizTypeRaw.replace(/[^a-zA-Z0-9-_]/g, '') || 'default';
const ext = path.extname(fileName) || '.bin';
const objectKey = `${bizType}/${Date.now()}${Math.random().toString(16).slice(2, 6)}${ext}`;
// 关键日志(生产保留最小必要)
console.log('[info]', JSON.stringify({
requestId,
size: bodyBuf.length,
objectKey,
contentType: getHeader(headersLower, 'content-type', ''),
isBase64Encoded: isTrue(eventObj.isBase64Encoded),
}));
const result = await client.put(objectKey, bodyBuf);
const processStr = 'image/resize,m_lfit,w_4500,h_4500/quality,Q_95';
const compressedKey = `${bizType}/compressed/${path.basename(objectKey)}`;
console.log('[img-save]', { objectKey, compressedKey, processStr, bucket: process.env.OSS_BUCKET });
await client.processObjectSave(
objectKey, // ✅ sourceObject:刚 put 的原图 key
compressedKey, // ✅ targetObject:要写回 OSS 的新 key
processStr, // ✅ 处理串
process.env.OSS_BUCKET // ✅ targetBucket
);
const publicHost = `${process.env.OSS_BUCKET}.${process.env.OSS_REGION}.aliyuncs.com`;
const publicUrl = `https://${publicHost}/${compressedKey}`;
console.log('[info]', JSON.stringify({
requestId,
objectKey,
ossStatus: result?.res?.status,
}));
// ✅ 按飞书期待格式返回
return feishuWrapper(200, {
url: publicUrl,
objectKey: compressedKey,
size: bodyBuf.length,
});
} catch (e) {
console.error('[error]', requestId, e);
// ✅ 错误也按 wrapper 返回,飞书能走到 upload failed: result.body
return feishuWrapper(500, { error: e.message, requestId });
}
};
```
## Coze 插件源码
Coze 侧的 Python 插件 `coze-nanobanana-pro.py` 完整源码已嵌入到 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) 文档的"插件完整源码"章节,复制即用。
## 安全注意事项
本方案涉及 **API 密钥、阿里云 AccessKey、飞书令牌、Coze 调用令牌** 多重凭证,请务必:
1. **不要硬编码密钥**:阿里云 FC 用环境变量,Coze 插件用平台加密配置,飞书字段捷径使用前清空真实地址
2. **OSS 子账号最小权限**:只授予对应 Bucket 的 `oss:PutObject` 和 `oss:ProcessObject`,不要给全局权限
3. **API易 密钥分人发放**:通过「人员 apikey 分离」字典分发,便于追溯用量与吊销
4. **公网触发器加签名**:函数计算建议开启签名鉴权,避免被外部恶意调用
## 常见问题
检查两件事:
1. `basekit.addDomainList` 中是否加入了函数公网域名(**去掉 https\://**)
2. `context.fetch` 中是否用的是完整 `https://` 地址
飞书沙箱默认禁止访问未声明的域名。
优先检查:
* 多维表格里的 `apichoice` 列是否填 `apiyi`(不要写展示文案如 `apiyi(0.35元/张)`)
* 「人员 apikey 分离」节点字典里是否已添加对应调用人姓名
* 调用人姓名是否与多维表格人员字段输出完全一致(含空格、繁简体)
Coze 工作流默认返回的是文本 URL,飞书需要再过一道「URL 转附件」字段捷径才能渲染成图片。可以:
1. 直接购买 Coze 官方的「URL 转附件」字段捷径(最省事)
2. 自己开发 URL 转附件字段捷径
通常是 `processObjectSave` 处理参数串与 Bucket 区域不匹配。检查:
* Bucket 是否开启「图片处理」功能
* `process.env.OSS_REGION` 与 Bucket 实际区域一致
* RAM 子账号是否有 `oss:ProcessObject` 权限
Nano Banana Pro 4K 出图较慢,建议:
* 在 Coze 工作流入口加并发限制
* 多维表格里分批次触发字段捷径,每批 5-10 行
* 不同调用人配置不同 API易 密钥,分摊速率限制
本方案的所有源码都已嵌入文档,作者 Shuaila1996 贡献,复制即用:
* `feishu-attachment-to-oss.ts`(飞书字段捷径)→ 见本页"飞书字段捷径完整源码"章节
* `aliyun-fc-oss-upload.js`(阿里云函数计算)→ 见本页"阿里云函数计算完整源码"章节
* `coze-nanobanana-pro.py`(Coze 插件)→ 见 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) 文档的"插件完整源码"章节
## 相关资源
本方案配套的 Coze 插件代码与详细说明,单独使用也能让任意 Coze 工作流接入 Nano Banana Pro
查看 Nano Banana Pro 完整 API 文档、定价与生图样例
Nano Banana 生图常见问题排查指南
管理 API 密钥、查看用量与余额
# Image Annotator - ComfyUI 节点
Source: https://docs.apiyi.com/scenarios/ecosystem/image-annotator-comfyui
社区贡献的图像标注节点:在图上直接画点、框、多边形标出要改的区域,配合 Nano Banana 节点大幅降低改图的提示词门槛。
## 概述
`comfyui-image-annotator` 是社区用户 luckdvr 贡献的**交互式图像标注 ComfyUI 节点**。它的核心价值是——**降低提示词门槛**。你不用再费劲描述"把图片左上角那个红色按钮换成蓝色",只要在图上**圈出来、点一下、画个框**,让模型清楚看到"我要改这里"即可。最适合搭配在 Nano Banana Pro 节点**前面**,组成"图片 → 标注 → API"的三段式工作流。
**项目信息**
* 🔗 开源地址:`github.com/luckdvr/comfyui-image-annotator`
* 📜 许可证:MIT
* 👤 作者:luckdvr
* ⭐ 社区贡献,与 [Luck Nano Banana Pro](/scenarios/ecosystem/lucknanobananapro-comfyui) 同作者
**推荐工作流:图片 → 标注节点 → API 节点**
```
LoadImage ─► ImageAnnotator ─► Luck Nano Banana Pro ─► SaveImage
(在图上圈出要改的区域) (看着标注按指令改图)
```
适合人群:**不擅长写英文提示词、不知道怎么精确描述"改哪里"的用户**。把"描述区域"的工作交给鼠标,把"怎么改"的工作交给一句简单的 prompt。
## 核心功能
**点(⦿)**:单击放置 · **矩形(▢)**:拖拽画框 · **多边形(⬡)**:多点连线自动闭合
标注实时渲染到画布,所见即所得,不用反复跑图看效果
内置画布操作,处理大图也能精准定位局部
最多 50 步撤销历史,尽情尝试不怕误操作
同时输出**标注后的图片**(供模型参考)+ **JSON 标注数据**(便于后续节点解析)
描边颜色、宽度、填充透明度、点大小均可配置
## 支持的 API易 模型
该节点本身**不调用 API**,只负责对图像做标注。标注后的图片可喂给任何支持图像输入的 API易 模型,最佳搭档:
| 模型名称 | 模型标识 | 用途 | API 文档 |
| ------------------- | ---------------------------- | -------------- | ----------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 根据标注区域局部改图/融合 | [查看文档](/api-capabilities/nano-banana-pro) |
| Gemini / Qwen-VL 系列 | 多种 | 图像理解、基于标注的视觉问答 | [查看文档](/api-capabilities/gemini) |
## 节点说明
### 输入
| 参数名 | 类型 | 必填 | 说明 |
| ------- | ----- | -- | ------ |
| `image` | IMAGE | 是 | 要标注的原图 |
### 输出
| 输出端 | 类型 | 说明 |
| ------------------ | ------ | ---------------------------------- |
| `annotated_image` | IMAGE | 已渲染标注标记的图片(可直接喂给下游 API 节点) |
| `annotations_json` | STRING | 描述标注位置/类型的 JSON 字符串(供需要结构化输入的节点使用) |
## 安装配置
```bash theme={null}
cd ComfyUI/custom_nodes
git clone https://github.com/luckdvr/comfyui-image-annotator.git
```
无额外依赖(使用 ComfyUI 自带环境即可),重启后在节点搜索栏输入 `ImageAnnotator` 即可找到。
把节点依次连起来:
```
LoadImage → ImageAnnotator → Luck Nano Banana Pro → SaveImage
```
在 `ImageAnnotator` 的画布上圈出要改动的位置,然后在下游 API 节点写一句简单的 prompt(如 "replace the marked area with a red sports car"),运行即可。
## 使用示例
### 示例 1:局部换物(小白友好)
`LoadImage` 载入一张客厅照片
`ImageAnnotator`:用矩形框住沙发旁的空位
`Luck Nano Banana Pro`:prompt = "Put a green indoor plant in the marked area"
模型会在你框出的位置放一盆绿植,不动其他区域
### 示例 2:多区域精准标注
用**多边形**标注人物衣服 + **点**标注帽子位置 + **矩形**标注背景区域,然后用 prompt:
```
Change the clothing in polygon 1 to a black suit, add a hat at point 1,
replace the background in rectangle 1 with a sunset beach
```
模型会分别对三个区域做不同的修改。
### 示例 3:视觉问答 / 理解
配合 Gemini / Qwen-VL:让模型解释"被框出来的物体是什么、在图里起什么作用",标注提供精确的视觉锚点。
## 常见问题
传统改图需要你用文字精确描述"改哪里、怎么改"。对非英语用户、不熟 AI prompt 的小白非常不友好。
有了这个节点,**位置信息由鼠标标注直接给出**,prompt 只需描述"改成什么"即可。原本需要 3-5 句话的精确描述,现在一句简单英文就能搞定。
会,而且是**往好的方向影响**。大部分多模态模型(Nano Banana、Gemini、Qwen-VL)都能理解图上的标注符号,把它们识别为"用户指示的目标区域",从而更精准地按指令编辑。
若担心标注样式干扰最终输出,可在节点内调低描边宽度、使用半透明填充。
1. 确认目录是 `ComfyUI/custom_nodes/comfyui-image-annotator`
2. 完全重启 ComfyUI(刷新前端不够)
3. 检查 ComfyUI 控制台有无报错
可以。把下游节点只接 `annotations_json` 端口即可。适合需要把坐标传给自定义脚本做后处理的场景。
推荐流水线:`LoadImage → ImageAnnotator → Luck Nano Banana Pro`
* `Luck Nano Banana Pro` 的 `image_01` 接 `ImageAnnotator` 的 `annotated_image` 输出
* prompt 中用自然语言描述"对标注区域做什么"
* 首次效果不理想时,用 `Luck Nano Banana Pro` 的 `retry_times` 或 seed 模式多跑几次
## 相关资源
同作者的 API 调用节点,与本节点完美搭配
了解 Nano Banana Pro 的完整能力
查看所有 Nano Banana ComfyUI 节点
管理密钥、用量与分组
# Luck GPT-Image 2 - ComfyUI 节点
Source: https://docs.apiyi.com/scenarios/ecosystem/luckgpt2-comfyui
社区贡献的双节点合集:一键在 ComfyUI 调用 gpt-image-2(官转)与 gpt-image-2-all(官逆),覆盖文生图、参考图编辑、mask 重绘、自定义分辨率。
## 概述
`Comfyui-Luck-gpt2.0` 是社区用户 luckdvr 贡献的 ComfyUI 自定义节点合集,在 ComfyUI 中一键调用 API易 的两款 GPT 图像模型 —— **官转 `gpt-image-2`** 与 **官逆 `gpt-image-2-all`**。两个节点分工明确:前者主打精细参数(分辨率、画质、mask、多参考图),后者主打 ChatGPT 一致的对话式出图体验,配合超时重试,适合放进生产级工作流。
**项目信息**
* 🔗 开源地址:`github.com/luckdvr/Comfyui-Luck-gpt2.0`
* 📜 许可证:Apache-2.0
* 👤 作者:luckdvr
* ⭐ 该项目由社区用户贡献,专为 API易 适配
**同一作者的两套节点如何区分?**
luckdvr 为 API易 贡献了两套 ComfyUI 节点:
* **[Luck Nano Banana Pro](/scenarios/ecosystem/lucknanobananapro-comfyui)**:调用 Gemini 系列(`gemini-3-pro-image-preview` / `gemini-3.1-flash-image-preview`),强调 14 张参考图与工程化超时重试
* **Luck GPT-Image 2(本页)**:调用 OpenAI 系列(`gpt-image-2` / `gpt-image-2-all`),强调双端点切换(chat\_completions / images\_api)与 mask 重绘
## 核心功能
`Comfyui-Luck gpt-image-2`(官转)与 `Comfyui-Luck gpt-2.0 all`(官逆)各管一路,按场景自由选择
官转节点支持最多 5 张参考图叠加输入,满足复杂融合与风格迁移
支持可选 mask 输入,精准圈定重绘区域,做精细化局部编辑
1K / 2K / 4K 预设 + 自定义尺寸(单边最大 3840px,像素数 65.5 万–829.4 万)
AUTO、1:1、2:3、3:2、3:4、4:3、4:5、5:4、9:16、16:9、21:9、1:4、4:1、1:8、8:1
`quality`(auto / low / medium / high)+ 输出格式(png / jpeg / webp)+ 压缩率 0-100
`gpt-image-2-all` 节点支持 `chat_completions` / `images_api` 端点切换,兼容不同调用习惯
内置超时与重试参数,应对高峰期网络抖动
## 支持的 API易 模型
| 模型名称 | 模型标识 | 对应节点 | 用途 | API 文档 |
| ------------------- | ----------------- | -------------------------- | -------------------------- | -------------------------------------------------- |
| GPT-Image 2(官转) | `gpt-image-2` | `Comfyui-Luck gpt-image-2` | 原生 2K/4K 文生图、参考图编辑、mask 重绘 | [查看文档](/api-capabilities/gpt-image-2/overview) |
| GPT-Image 2 All(官逆) | `gpt-image-2-all` | `Comfyui-Luck gpt-2.0 all` | ChatGPT 一致的对话式出图,按次计费 | [查看文档](/api-capabilities/gpt-image-2-all/overview) |
两款模型的完整差异详解见 [gpt-image-2(官转)vs gpt-image-2-all(官逆)对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)。
## 节点参数
### `Comfyui-Luck gpt-image-2`(官转)
| 参数名 | 类型 | 必填 | 默认值 | 说明 |
| --------------------- | ------ | -- | ------ | ----------------------------------- |
| `api_key` | string | 是 | - | API易 令牌,建议单独创建带用量上限的专用 Key |
| `prompt` | string | 是 | - | 生成或编辑的文本指令 |
| `image_1` … `image_5` | IMAGE | 否 | - | 参考图输入,最多 5 张 |
| `mask` | MASK | 否 | - | 可选 mask,用于局部重绘(白色区域为编辑区) |
| `size` | enum | 否 | `2K` | 输出分辨率(1K / 2K / 4K / custom) |
| `custom_size` | string | 否 | - | `size` 选 `custom` 时生效,如 `2048x3072` |
| `aspect_ratio` | enum | 否 | `AUTO` | 15 种宽高比之一 |
| `quality` | enum | 否 | `auto` | auto / low / medium / high |
| `output_format` | enum | 否 | `png` | png / jpeg / webp |
| `output_compression` | int | 否 | 80 | 0-100(仅对 jpeg / webp 生效) |
### `Comfyui-Luck gpt-2.0 all`(官逆)
| 参数名 | 类型 | 必填 | 默认值 | 说明 |
| ----------------- | ------ | -- | ------------------ | --------------------------------- |
| `api_key` | string | 是 | - | API易 令牌 |
| `prompt` | string | 是 | - | 对话式生图指令 |
| `endpoint` | enum | 否 | `chat_completions` | `chat_completions` / `images_api` |
| `response_format` | enum | 否 | - | `b64_json` / `url` 等 |
| `timeout_seconds` | int | 否 | - | 单次请求超时 |
| `retry_times` | int | 否 | - | 失败重试次数 |
## 安装配置
进入 ComfyUI 安装目录:
```bash theme={null}
cd ComfyUI/custom_nodes
git clone https://github.com/luckdvr/Comfyui-Luck-gpt2.0.git
```
```bash theme={null}
cd Comfyui-Luck-gpt2.0
python3 -m pip install -r requirements.txt
```
在节点搜索栏输入 `Luck gpt-image-2` 或 `Luck gpt-2.0 all` 即可找到两个节点。
* 访问 [API易控制台](https://www.apiyi.com) →【令牌】新建密钥(建议配用量上限)
* 粘贴到节点的 `api_key` 参数
* 节点默认指向 `api.apiyi.com`;不稳定时可切换备用域名 `vip.apiyi.com` / `b.apiyi.com`
仓库内提供 `example_workflow.json`,可直接在 ComfyUI 中导入作为工作流起点。
## 使用示例
### 示例 1:官转 4K 高质量文生图
```
节点: Comfyui-Luck gpt-image-2
prompt: "Cinematic portrait of a samurai in a misty bamboo forest, volumetric light, 85mm lens, photorealistic"
size: 4K
aspect_ratio: 2:3
quality: high
output_format: png
```
### 示例 2:mask 局部重绘(官转)
```
节点: Comfyui-Luck gpt-image-2
image_1: 原始照片
mask: 要替换的区域(白色为编辑区)
prompt: "replace the sky with dramatic sunset clouds, keep everything else intact"
size: 2K
quality: high
```
### 示例 3:官逆对话式出图
```
节点: Comfyui-Luck gpt-2.0 all
endpoint: chat_completions
prompt: "一位穿汉服的少女站在樱花树下,水彩画风格,柔和光线"
response_format: b64_json
timeout_seconds: 180
retry_times: 3
```
## 常见问题
* **`gpt-image-2`(官转)**:参数可控、原生支持 mask、按 token 计费、分辨率 / 画质精细可调 —— 适合有明确尺寸要求或需要局部重绘的工作流
* **`gpt-image-2-all`(官逆)**:按次计费(\$0.03 / 次),对话式自然语言出图、与 ChatGPT 网页版能力一致 —— 适合多轮改图、文字还原要求高的场景
* 完整差异看 [官转 vs 官逆 对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)
1. 确认目录 `ComfyUI/custom_nodes/Comfyui-Luck-gpt2.0` 存在
2. `pip install -r requirements.txt` 无报错
3. 完全重启 ComfyUI(只刷新前端不够)
* 调大官逆节点的 `timeout_seconds` 参数
* 服务器网络慢可参考 [下载 CDN 图片/视频很慢怎么办](/faq/cdn-download-slow)
* 默认域名不稳时可切换到备用 `vip.apiyi.com` / `b.apiyi.com`
官逆 `gpt-image-2-all` 的 `b64_json` 字段会带 `data:image/png;base64,` 前缀,而官转 `gpt-image-2` 不带。详细说明见 [官转 vs 官逆 对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)。
1. 检查 `api_key` 是否正确,是否被分组限制误拦
2. 所选模型是否在令牌的白名单内
3. 余额问题参考 [为什么还有余额跑不通](/faq/balance-insufficient)
## 相关资源
原生 2K/4K 高清生图,按 token 计费
ChatGPT 一致体验,\$0.03 / 次按次计费
17 个维度一表看清两款模型的差异
查看更多 API易 适配的 ComfyUI 节点
luckdvr 的 Gemini 系列 ComfyUI 节点
两款 GPT 图像模型的 AI Agent Skill 封装版本
管理密钥、用量与分组
# Luck Nano Banana Pro - ComfyUI 节点
Source: https://docs.apiyi.com/scenarios/ecosystem/lucknanobananapro-comfyui
社区贡献的高阶 ComfyUI 节点:支持最多 14 张参考图、1K/2K/4K 输出、15 种宽高比、超时重试与实时进度,适合重度图像创作工作流。
## 概述
`Comfyui-LuckNanoBananaPro` 是社区用户 luckdvr 贡献的 ComfyUI 自定义节点,通过 API易 调用 Gemini 3 Pro Image Preview / Flash 进行**文生图与多图编辑**。相比基础版节点,它的最大亮点是**工程化**:内置超时重试、实时进度指示、ComfyUI 原生 seed 管理,以及最多 14 张图片堆叠输入,适合对稳定性和批量控制有要求的生产工作流。
**项目信息**
* 🔗 开源地址:`github.com/luckdvr/Comfyui-LuckNanoBananaPro`
* 📜 许可证:MIT / Apache-2.0 双许可
* 👤 作者:luckdvr
* ⭐ 该项目由社区用户贡献,专为 API易 适配
**如何在三款 ComfyUI 节点中选择?**
API易 社区目前有 3 款 Nano Banana ComfyUI 节点,可按需选择:
* **[Nano Banana ComfyUI 节点](/scenarios/ecosystem/nano-banana-comfyui)**:功能全面(对话式编辑、多轮记忆),适合交互创作
* **[APIYI Nano Banana Node(轻量版)](/scenarios/ecosystem/apiyi-nano-banana-node)**:代码极简,适合学习和二次开发
* **Luck Nano Banana Pro(本页)**:工程化参数齐全(超时、重试、14 图输入),适合稳定生产
## 核心功能
`image_01` \~ `image_14` 参数位可堆叠最多 14 张参考图,覆盖 Nano Banana Pro 的理论输入上限
支持 **1K / 2K / 4K** 三档输出,搭配自适应超时,兼顾速度与画质
预置丰富的宽高比选项,覆盖竖屏、横屏、方图、电影宽幅等常见需求
`gemini-3-pro-image-preview`(Pro)与 `gemini-3.1-flash-image-preview`(Flash)自由切换
`timeout_seconds`(10-600s)+ `retry_times`(1-20 次)可配置,高峰期也稳
节点内置状态、百分比、计时显示,长任务不再黑盒
支持 ComfyUI 标准的 fixed / random / increment / decrement 四种 seed 模式
宽松许可,商用与二次开发都无忧
## 支持的 API易 模型
| 模型名称 | 模型标识 | 用途 | API 文档 |
| -------------------- | -------------------------------- | ------------ | ----------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 高质量图像生成与多图编辑 | [查看文档](/api-capabilities/nano-banana-pro) |
| Nano Banana 2(Flash) | `gemini-3.1-flash-image-preview` | 快速生成,成本更低 | [查看文档](/api-capabilities/gemini) |
## 节点参数
| 参数名 | 类型 | 必填 | 默认值 | 说明 |
| ----------------------- | ------ | -- | ---------------------------- | --------------------------- |
| `api_key` | string | 是 | - | API易 令牌,建议单独创建带用量上限的专用 Key |
| `prompt` | string | 是 | - | 生成或编辑的文本指令 |
| `model` | enum | 是 | `gemini-3-pro-image-preview` | 模型选择(Pro / Flash) |
| `image_size` | enum | 否 | `2K` | 输出分辨率(1K / 2K / 4K) |
| `aspect_ratio` | enum | 否 | `1:1` | 15 种宽高比之一 |
| `timeout_seconds` | int | 否 | 120 | 单次请求超时(10-600 秒) |
| `retry_times` | int | 否 | 3 | 失败重试次数(1-20 次) |
| `seed` | int | 否 | 0 | 随机种子(配合 ComfyUI 标准 seed 模式) |
| `image_01` … `image_14` | IMAGE | 否 | - | 可选参考图输入,最多 14 张 |
## 安装配置
进入 ComfyUI 安装目录:
```bash theme={null}
cd ComfyUI/custom_nodes
git clone https://github.com/luckdvr/Comfyui-LuckNanoBananaPro.git
```
```bash theme={null}
cd Comfyui-LuckNanoBananaPro
python3 -m pip install -r requirements.txt
```
重启后在节点搜索栏输入 `Luck Nano Banana Pro` 即可找到节点。
* 访问 [API易控制台](https://www.apiyi.com) →【令牌】,**新建一个带用量上限的专用密钥**(安全最佳实践)
* 粘贴到节点 `api_key` 参数即可
* 节点内部已指向 `api.apiyi.com`,无需额外配置
* **文生图**:直接填 `prompt`,不连接任何参考图
* **多图编辑**:将多个 `Load Image` 连到 `image_01`, `image_02`…,搭配 `prompt` 描述编辑指令
## 使用示例
### 示例 1:高稳定性文生图
```
prompt: "Cinematic product shot of a minimalist ceramic teacup on a wooden tray, soft morning light, 35mm lens, shallow depth of field"
model: gemini-3-pro-image-preview
image_size: 4K
aspect_ratio: 3:2
timeout_seconds: 300
retry_times: 5
```
### 示例 2:多图融合
```
image_01: 人物照片
image_02: 服装参考
image_03: 场景参考
image_04: 光线参考
prompt: "Photorealistic portrait: subject from image_01 wearing outfit from image_02, in the setting of image_03, with lighting style of image_04"
image_size: 2K
aspect_ratio: 4:5
```
### 示例 3:Seed 批量探索
通过 ComfyUI 原生 seed 管理,在 `increment` 模式下批量跑多个种子,快速对比同一 prompt 的变化。
## 常见问题
1. 确认仓库在 `ComfyUI/custom_nodes/Comfyui-LuckNanoBananaPro`
2. 依赖安装无报错(尤其是 requests / Pillow / numpy)
3. 完全重启 ComfyUI(刷新前端不够)
该节点已支持可调 `timeout_seconds`:
* 4K 场景建议 `timeout_seconds=300` 起步
* 搭配 `retry_times=5` 自动重试,应对网络抖动
* 若仍频繁超时,参考 [下载 CDN 图片/视频很慢怎么办](/faq/cdn-download-slow) 优化服务器网络
节点允许连接最多 14 张,但**实际是否参与生成**取决于 prompt 的描述。建议在 prompt 中明确引用 `image_01` / `image_02`…,或用自然语言描述每张图的作用,模型会按你的指令选择性使用。
1. `api_key` 是否正确、未被分组限制误拦
2. 所选模型是否在令牌的白名单内
3. 余额是否充足,参考 [为什么还有余额跑不通](/faq/balance-insufficient)
* [nano-banana-comfyui(功能完整版)](/scenarios/ecosystem/nano-banana-comfyui):强调**对话式编辑**与多轮记忆
* [apiyi-nano-banana-node(轻量示例)](/scenarios/ecosystem/apiyi-nano-banana-node):代码最简,适合学习/拓展
* **Luck Nano Banana Pro(本页)**:参数工程化(超时 / 重试 / 14 图),适合批量与稳定生产
## 相关资源
模型完整能力与 API 参数说明
luckdvr 的 OpenAI 系列 ComfyUI 节点:`gpt-image-2` + `gpt-image-2-all`
查看更多 Nano Banana ComfyUI 节点
4K 图片下载慢?看这里
管理密钥、用量与分组
# Make.com 接入 Gemini 图像理解
Source: https://docs.apiyi.com/scenarios/ecosystem/make-com-gemini-vision
在 Make.com 自动化工作流中通过 HTTP 请求节点调用 API易 的 Gemini 图像理解 API,实现图片内容分析、OCR 识别等自动化任务。
## 概述
Make.com(原 Integromat)是一款强大的无代码自动化平台。通过其内置的 **HTTP 请求节点(Make a request)**,你可以直接调用 API易 的 Gemini 原生格式 API,实现图像理解、图片内容分析等多模态自动化工作流,无需编写任何代码。
**集成信息**
* 🔧 工具:Make.com(`make.com`)
* 🔌 接入方式:HTTP 请求节点(Make a request)
* 🤖 模型:Gemini 系列(通过 API易 Gemini 原生格式调用)
* 📡 API 端点:`https://api.apiyi.com/v1beta/models/{model}:generateContent`
## 为什么选择 Make.com + API易
通过可视化拖拽配置 HTTP 请求节点,无需编写代码即可调用 AI 模型
结合 Make.com 的触发器和条件逻辑,构建完整的图像处理自动化流程
API易 支持 200+ 模型,一个密钥即可在 Make.com 中切换不同的 AI 能力
可与 Google Sheets、Slack、Email 等 1000+ 应用无缝衔接
## 支持的 API易 模型
| 模型名称 | 模型标识 | 用途 | API文档 |
| ---------------------- | ------------------------ | --------- | ---------------------------------------------- |
| Gemini 3.1 Pro Preview | `gemini-3.1-pro-preview` | 图像理解、文本生成 | [查看文档](/api-capabilities/gemini-native-format) |
| Gemini 3 Pro Preview | `gemini-3-pro-preview` | 图像理解、图像生成 | [查看文档](/api-capabilities/gemini-native-format) |
| Gemini 3 Flash Preview | `gemini-3-flash-preview` | 图像理解(高速) | [查看文档](/api-capabilities/gemini-native-format) |
推荐使用 `gemini-3.1-pro-preview`,拥有最强的图像理解能力。如果对速度要求更高,可以选择 Flash 系列。
## 配置步骤
1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录
2. 进入【令牌】栏目,生成新的 API 密钥
3. 复制密钥(以 `sk-` 开头),后续配置需要用到
1. 登录 Make.com,点击 **Create a new scenario**
2. 点击 **+** 添加模块
3. 搜索并选择 **HTTP** 模块
4. 在 Actions 中选择 **Make a request**
在 HTTP 请求节点中填写以下配置:
**URL**:
```
https://api.apiyi.com/v1beta/models/gemini-3.1-pro-preview:generateContent
```
**Method**:`POST`
**Headers**:
| Header 名称 | 值 |
| --------------- | -------------------- |
| `Content-Type` | `application/json` |
| `Authorization` | `Bearer sk-你的API易密钥` |
**Body type**:`Raw`
**Content type**:`JSON (application/json)`
**Request content(Body)**:
```json theme={null}
{
"contents": [
{
"parts": [
{
"text": "这张图片里有什么?"
},
{
"fileData": {
"mimeType": "image/png",
"fileUri": "https://你的图片URL地址"
}
}
]
}
]
}
```
点击 **Run once** 测试请求,确认返回正确的图像理解结果。
## 完整请求示例
以下是一个完整的图像理解请求示例,分析一张水獭图片的内容:
```json theme={null}
{
"contents": [
{
"parts": [
{
"text": "这张图片里有什么?"
},
{
"fileData": {
"mimeType": "image/png",
"fileUri": "https://raw.githubusercontent.com/apiyi-api/ai-api-code-samples/refs/heads/main/Vision-API-OpenAI/otter.png"
}
}
]
}
]
}
```
### 请求参数说明
| 字段 | 类型 | 必填 | 说明 |
| --------------------------- | ------ | -- | -------------------------------------------- |
| `contents` | array | 是 | 对话内容数组 |
| `contents[].parts` | array | 是 | 消息组成部分(文本 + 图片) |
| `parts[].text` | string | 是 | 用户的文字提示 |
| `parts[].fileData.mimeType` | string | 是 | 图片格式:`image/png`、`image/jpeg`、`image/webp` 等 |
| `parts[].fileData.fileUri` | string | 是 | 图片的公开访问 URL |
`fileUri` 必须是**公开可访问**的图片 URL。如果图片需要登录才能访问,请先将图片上传到公开的存储服务(如对象存储)。
## 实用场景
### 场景一:自动分析邮件附件中的图片
1. **触发器**:Gmail - Watch emails(监听新邮件)
2. **处理**:HTTP 节点调用 Gemini 图像理解
3. **输出**:将分析结果写入 Google Sheets 或发送到 Slack
### 场景二:电商产品图自动标签
1. **触发器**:Google Drive - Watch files(监听新上传的图片)
2. **处理**:HTTP 节点分析产品图片内容
3. **输出**:自动为产品图添加分类标签
### 场景三:社交媒体内容审核
1. **触发器**:定时获取用户提交的图片
2. **处理**:HTTP 节点分析图片内容是否合规
3. **输出**:不合规内容自动标记告警
## 进阶技巧
### 动态替换图片 URL
在 Make.com 中,你可以使用上游模块的输出变量动态替换 `fileUri`,实现批量图片分析:
```json theme={null}
{
"contents": [
{
"parts": [
{
"text": "请描述这张图片的内容,并提取其中的文字"
},
{
"fileData": {
"mimeType": "image/png",
"fileUri": "{{上游模块的图片URL变量}}"
}
}
]
}
]
}
```
### 切换不同模型
只需修改 URL 中的模型名称即可切换模型:
| 需求 | URL |
| ------ | ---------------------------------------------------------------------------- |
| 最强理解能力 | `https://api.apiyi.com/v1beta/models/gemini-3.1-pro-preview:generateContent` |
| 高速分析 | `https://api.apiyi.com/v1beta/models/gemini-3-flash-preview:generateContent` |
## 常见问题
请检查:
1. Authorization Header 格式是否正确:`Bearer sk-你的密钥`(注意 Bearer 后有空格)
2. API 密钥是否有效(在 API易控制台确认)
3. 账户余额是否充足
请确认:
1. `fileUri` 是公开可访问的 URL(在浏览器中可以直接打开)
2. `mimeType` 与实际图片格式一致
3. 图片大小不超过模型限制
Gemini API 返回 JSON 格式的响应,你可以:
1. 使用 Make.com 的 **JSON** 模块解析返回数据
2. 提取 `candidates[0].content.parts[0].text` 字段获取分析结果
3. 将结果传递给下游模块(如写入数据库、发送通知等)
访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。
支持。将 `fileData` 替换为 `inlineData`:
```json theme={null}
{
"inlineData": {
"mimeType": "image/png",
"data": "Base64编码的图片数据"
}
}
```
## 相关资源
查看 Gemini 原生 API 格式的完整说明
查看 API易 图像理解能力总览
查看 FAQ 获取更多帮助
管理 API 密钥、查看用量和余额
# Nano Banana ComfyUI 节点
Source: https://docs.apiyi.com/scenarios/ecosystem/nano-banana-comfyui
社区开源的 ComfyUI 自定义节点,支持通过 API易 调用 Nano Banana Pro 和 Nano Banana 2 图像生成模型,提供文生图、图生图、多轮对话等丰富功能。
## 概述
ComfyUI-Nano-Banana-apiyi 是社区用户贡献的 ComfyUI 自定义节点集合,专为 API易 用户打造。它让你在 ComfyUI 工作流中直接调用谷歌最强图像生成模型 Nano Banana Pro 和 Nano Banana 2,**无需配置谷歌云账号**,只需 API易 密钥即可开始创作。
**项目信息**
* 🔗 开源地址:`github.com/pdmaker/ComfyUI-Nano-Banana-apiyi`
* 📜 许可证:MIT
* 👤 作者:社区贡献(原作者仓库已删除,现使用备份仓库)
* ⭐ 该项目由社区用户贡献,专为 API易 适配
## 为什么选择这个节点
无需谷歌云账号,使用 API易 密钥即可调用 Nano Banana Pro 和 Nano Banana 2 模型
支持文生图、图生图、多图融合(最多 14 张参考图),满足各类创作需求
独创对话式图像生成,支持上下文记忆,逐步迭代优化图片效果
支持 512px、1K、2K、4K 输出,14 种宽高比,覆盖海报、壁纸、社交媒体等各种场景
## 支持的 API易 模型
| 模型名称 | 模型标识 | 特点 | API文档 |
| --------------- | -------------------------------- | ------------------- | --------------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 旗舰画质,功能全面 | [查看文档](/api-capabilities/nano-banana-image) |
| Nano Banana 2 | `gemini-3.1-flash-image-preview` | Pro 级画质 + Flash 级速度 | [查看文档](/api-capabilities/nano-banana-2-image) |
**模型怎么选?** 追求极致画质选 Nano Banana Pro;追求性价比和速度选 Nano Banana 2(低至 \$0.025/张)。两个模型都可以在同一个 ComfyUI 工作流中使用。
## 四大核心节点
本插件提供 4 个功能节点,覆盖不同的使用场景:
| 节点名称 | 对应模型 | 核心能力 | 适合场景 |
| --------------------------------- | ----- | ------------------------- | ------ |
| **Nano Banana AIO** | Pro | 文生图 + 图生图(1-6张参考图)+ 搜索增强 | 高质量创作 |
| **Nano Banana Multi-Turn Chat** | Pro | 多轮对话式图像编辑 | 迭代优化 |
| **Nano Banana 2 AIO** | Flash | 文生图 + 图生图(最多14张参考图)+ 图像搜索 | 快速批量生图 |
| **Nano Banana 2 Multi-Turn Chat** | Flash | 多轮对话式编辑 + 极端宽高比 | 快速迭代 |
## 从零开始:安装与配置
请确保你的电脑已安装以下软件:
* **ComfyUI**(最新版本)— 如未安装,参考:`github.com/comfyanonymous/ComfyUI`
* **Python 3.12+**
* **Git**
Python 版本必须 3.12 或更高,低版本可能导致依赖安装失败。
打开终端,进入 ComfyUI 的自定义节点目录,克隆仓库:
```bash theme={null}
cd ComfyUI/custom_nodes
git clone https://github.com/pdmaker/ComfyUI-Nano-Banana-apiyi.git
```
进入插件目录,安装所需依赖:
```bash theme={null}
cd ComfyUI-Nano-Banana-apiyi
pip3 install -r requirements.txt
```
如果要使用 Nano Banana 2 节点,还需额外安装:
```bash theme={null}
pip3 install google-genai --upgrade
```
1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录
2. 进入【令牌】栏目
3. 点击生成新的 API 密钥
4. 复制密钥(以 `sk-` 开头)备用
新用户注册即可获得免费测试额度,足够体验 Nano Banana 图像生成功能。
在插件目录中,复制模板文件并填入密钥:
```bash theme={null}
cp .env.api.template .env
```
编辑 `.env` 文件,填入你的 API易 密钥和 Base URL:
```bash theme={null}
GOOGLE_API_KEY=sk-你的API易密钥
CUSTOM_BASE_URL=https://api.apiyi.com
```
**关键配置**:`CUSTOM_BASE_URL` 必须设为 `https://api.apiyi.com`,这样所有请求会通过 API易 转发,无需谷歌云账号。代码会自动拼接正确的 API 版本路径。
重启 ComfyUI 后,在节点列表中搜索 `Nano Banana`,你应该能看到 4 个新节点:
* Nano Banana AIO
* Nano Banana Multi-Turn Chat
* Nano Banana 2 AIO
* Nano Banana 2 Multi-Turn Chat
如果能看到这些节点,说明安装成功!
## 实战教程:从文字到图片
### 场景一:文字生成图片(最基础)
这是最简单的用法——输入一段文字描述,生成一张图片。
在 ComfyUI 画布上右键,搜索并添加 **Nano Banana AIO** 节点(或 Nano Banana 2 AIO)。
在 `prompt` 输入框中填写你想要的图片描述,例如:
```
一只橘猫坐在窗台上,窗外是东京夜景,赛博朋克风格,霓虹灯光,高细节,电影质感
```
* **image\_count**:生成图片数量(1-10张)
* **aspect\_ratio**:选择宽高比,如 `16:9`(横屏壁纸)或 `9:16`(手机壁纸)
* **image\_size**:选择分辨率,推荐 `2K` 或 `4K`
* **temperature**:创意程度,0.0 最保守,2.0 最天马行空
点击 ComfyUI 的 **Queue Prompt** 按钮,等待几秒即可看到生成的图片。
### 场景二:图片编辑与融合
使用参考图片来引导生成,适合风格迁移、元素融合等高级用法。
1. 将 **Nano Banana AIO** 节点的 `image_1` 到 `image_6` 输入端连接你的参考图片
2. 在 `prompt` 中描述你想要的效果,例如:"将这张照片转换为水彩画风格"
3. 模型会结合参考图片和文字描述生成新图片
**Nano Banana 2 AIO 独家能力**:支持最多 14 张参考图(10 张物体 + 4 张角色一致性参考),适合需要保持角色外观一致的连续创作场景。
### 场景三:多轮对话式编辑
这是 Nano Banana 节点最独特的功能——像聊天一样逐步优化图片。
1. 添加 **Nano Banana Multi-Turn Chat** 节点
2. 第一轮:输入初始描述,生成基础图片
3. 第二轮:输入修改指令,如"把背景换成海边"
4. 第三轮:继续优化,如"增加夕阳光效"
5. 每一轮都会基于之前的对话记忆进行修改
需要重新开始时,打开 `reset_chat` 选项清除对话历史。
## 节点参数详解
### Nano Banana AIO / Nano Banana 2 AIO
| 参数名 | 类型 | 必填 | 说明 |
| ------------------------- | ------- | -- | ------------------------ |
| `prompt` | string | 是 | 图片描述文本 |
| `image_count` | integer | 否 | 生成图片数量(1-10),默认 1 |
| `aspect_ratio` | enum | 否 | 宽高比(11种 / NB2 支持14种) |
| `image_size` | enum | 否 | 分辨率:512px(仅NB2)、1K、2K、4K |
| `temperature` | float | 否 | 创意温度 0.0-2.0 |
| `use_search` | boolean | 否 | 启用 Google 搜索增强 |
| `image_1` \~ `image_6/14` | image | 否 | 参考图片输入 |
### 支持的宽高比
| 标准宽高比(两个节点共享) | Nano Banana 2 独有 |
| ------------------- | ---------------- |
| 1:1、2:3、3:2、3:4、4:3 | 1:4(超长竖图) |
| 4:5、5:4、9:16、16:9 | 4:1(超宽横图) |
| 21:9、Auto(AI自动选择) | 1:8、8:1(极端比例) |
## 常见问题
请逐项检查:
1. 插件文件夹是否在 `ComfyUI/custom_nodes/` 目录下
2. 是否执行了 `pip3 install -r requirements.txt`
3. 使用 Nano Banana 2 节点需额外执行 `pip install google-genai --upgrade`
4. 是否**重启**了 ComfyUI(不是刷新网页,是重启后端服务)
请确认:
1. `.env` 文件中的 `GOOGLE_API_KEY` 填写的是 API易 密钥(以 `sk-` 开头)
2. `CUSTOM_BASE_URL` 设置为 `https://api.apiyi.com`
3. API易 账户余额充足(登录控制台查看)
* 4K 分辨率生成时间较长,建议先用 1K 调试效果
* 多图生成(image\_count 大于 1)会增加耗时
* 如果频繁超时,可尝试降低分辨率或减少生成数量
* **Nano Banana Pro**(`gemini-3-pro-image-preview`):画质更精细,适合高品质创作
* **Nano Banana 2**(`gemini-3.1-flash-image-preview`):速度更快、成本更低(\$0.025/张起),支持更多参考图和极端宽高比
* 日常创作推荐 Nano Banana 2,追求极致质量选 Pro
访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。
Nano Banana 模型内置内容安全检查,部分描述可能触发限制。建议:
1. 调整提示词,避免敏感内容
2. 查看 [Nano Banana 生图失败排查](/faq/nano-banana-image-failure) 获取更多帮助
## 相关资源
查看 Nano Banana Pro 完整 API 文档和定价
查看 Nano Banana 2 完整 API 文档和定价
Nano Banana 生图常见问题排查指南
管理 API 密钥、查看用量和余额
# Nano Banana Pro 生图 Skill
Source: https://docs.apiyi.com/scenarios/ecosystem/nano-banana-skill
社区开源的 AI Agent Skill,支持在 Codex CLI、OpenCode、Gemini CLI、Cursor 等主流 AI 编程工具中通过自然语言生成和编辑图片,基于 API易 调用 Nano Banana Pro 模型。
## 概述
nano-banana-pro-image-gen 是一个社区贡献的开源 AI Agent Skill,让你在 **Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp** 等主流 AI 编程工具中,通过一句自然语言就能生成和编辑图片。底层调用 API易 的 Nano Banana Pro 模型,无需复杂配置,安装即用。
**项目信息**
* 🔗 开源地址:`github.com/wuchubuzai2018/expert-skills-hub`
* 🌐 Skill 主页:`skills.sh/wuchubuzai2018/expert-skills-hub/nano-banana-pro-image-gen`
* 👤 作者:wuchubuzai2018(无处不在的技术)
* ⭐ 该项目由社区用户贡献
## 为什么用这个 Skill
在 AI 编程助手中直接用自然语言描述,即刻生成高质量图片,无需离开编辑器
支持传入已有图片进行编辑,最多 14 张参考图,实现风格迁移和内容修改
已适配 Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp 等工具
10 种宽高比 + 3 档分辨率(1K/2K/4K),覆盖从快速预览到高清海报的各种场景
## 支持的 API易 模型
| 模型名称 | 模型标识 | 用途 | API文档 |
| --------------- | ---------------------------- | ------- | ------------------------------------------- |
| Nano Banana Pro | `gemini-3-pro-image-preview` | 文生图、图生图 | [查看文档](/api-capabilities/nano-banana-image) |
该 Skill 使用 Nano Banana Pro 模型。如果你还需要 Nano Banana 2 的更快速度和更低成本,可以查看 [Nano Banana ComfyUI 节点](/scenarios/ecosystem/nano-banana-comfyui),它同时支持两个模型。
## 快速上手:3 步开始生图
1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录
2. 进入【令牌】栏目,生成新的 API 密钥
3. 复制密钥(以 `sk-` 开头)
新用户注册即可获得免费测试额度,足够体验 Nano Banana 图像生成功能。
在终端中运行以下命令安装:
```bash theme={null}
npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill nano-banana-pro-image-gen
```
需要 Node.js 环境。如未安装 Node.js,请先访问 `nodejs.org` 下载安装。Python 可作为备选运行环境。
设置环境变量:
```bash theme={null}
export APIYI_API_KEY="sk-你的API易密钥"
```
Windows PowerShell 用户:
```powershell theme={null}
$env:APIYI_API_KEY="sk-你的API易密钥"
```
建议将环境变量写入 `~/.zshrc` 或 `~/.bashrc`,避免每次重新设置。
配置完成!现在你可以在支持 Skills 的 AI 编程工具中直接使用图片生成功能。
## 实战教程
### 用法一:命令行文字生图
最直接的用法——在终端中输入描述,生成图片。
```bash Node.js(推荐) theme={null}
node scripts/generate_image.js \
-p "一只宇航员猫咪漂浮在太空中,背景是地球,数字艺术风格" \
-f "astronaut-cat.png" \
-a 16:9 \
-r 2K
```
```bash Python theme={null}
python scripts/generate_image.py \
-p "一只宇航员猫咪漂浮在太空中,背景是地球,数字艺术风格" \
-f "astronaut-cat.png" \
-a 16:9 \
-r 2K
```
### 用法二:编辑已有图片
传入一张或多张参考图片,用自然语言描述修改效果。
```bash theme={null}
node scripts/generate_image.js \
-p "把这张照片转换为吉卜力动画风格,保持人物构图不变" \
-i "photo.jpg" \
-f "ghibli-style.png" \
-r 2K
```
支持多张参考图(最多 14 张),图片会自动转为 Base64 编码传送:
```bash theme={null}
node scripts/generate_image.js \
-p "将这些元素融合成一张海报" \
-i "bg.jpg" -i "logo.png" -i "text.png" \
-f "poster.png" \
-a 3:4 \
-r 4K
```
### 用法三:在 AI 编程助手中使用
安装 Skill 后,在支持的 AI 编程工具中可以直接用自然语言指令:
* **Codex CLI / OpenCode**:"帮我生成一张 16:9 的赛博朋克城市壁纸,4K 分辨率"
* **Cursor**:"生成一张产品 logo,简约风格,1:1 比例"
* **Gemini CLI**:"编辑 input.jpg,将背景改为夕阳海滩"
AI 助手会自动调用 Skill 完成图片生成。
## 命令参数详解
| 参数 | 缩写 | 必填 | 说明 | 示例 |
| ---------------- | ---- | -- | ----------------------- | -------------- |
| `--prompt` | `-p` | 是 | 图片描述或编辑指令 | `"一只猫咪"` |
| `--filename` | `-f` | 否 | 输出文件路径(省略则自动生成) | `"output.png"` |
| `--aspect-ratio` | `-a` | 否 | 宽高比 | `16:9` |
| `--resolution` | `-r` | 否 | 分辨率(必须大写) | `1K`、`2K`、`4K` |
| `--input-image` | `-i` | 否 | 输入图片路径(可多次指定,最多14张) | `"photo.jpg"` |
| `--key` | `-k` | 否 | 内联 API Key(不推荐,建议用环境变量) | `"sk-xxx"` |
### 支持的宽高比
`1:1`、`16:9`、`9:16`、`4:3`、`3:4`、`3:2`、`2:3`、`5:4`、`4:5`、`21:9`
### 分辨率与耗时参考
| 分辨率 | 大致耗时 | 适合场景 |
| ------ | ------ | --------- |
| 1K | 约 30 秒 | 快速预览、测试效果 |
| 2K(默认) | 1-4 分钟 | 日常使用、社交媒体 |
| 4K | 较慢 | 高清海报、印刷品 |
## 常见问题
请检查:
1. 是否已安装 Node.js(运行 `node -v` 确认)
2. 网络连接是否正常
3. 如果 npx 命令不可用,可以手动克隆仓库:
```bash theme={null}
git clone https://github.com/wuchubuzai2018/expert-skills-hub.git
```
然后将 `skills/nano-banana-pro-image-gen` 目录复制到你的 Skills 目录中。
请确认:
1. 环境变量 `APIYI_API_KEY` 已正确设置(以 `sk-` 开头)
2. API易 账户余额充足
3. 也可以使用 `-k` 参数直接传入密钥测试
分辨率参数必须使用**大写**:`1K`、`2K`、`4K`。小写 `1k`、`2k` 会导致参数无法识别。
* 4K 分辨率本身需要较长处理时间(可能超过 5 分钟)
* 建议先用 1K 分辨率调试提示词和构图
* 确认满意后再用 2K 或 4K 生成最终版本
访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。
目前已适配:Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp。任何支持 Skills 协议的工具都可以使用。
## 相关资源
查看 Nano Banana Pro 完整 API 文档和定价
wuchubuzai2018 同一 Skills 合集下的 `gpt-image-2` / `gpt-image-2-all` 双 Skill
在 ComfyUI 中使用 Nano Banana 生图
Nano Banana 生图常见问题排查指南
管理 API 密钥、查看用量和余额
# Paper2Any 论文多模态工作流
Source: https://docs.apiyi.com/scenarios/ecosystem/paper2any
社区开源的论文转换工具,支持将学术论文一键转换为模型架构图、技术路线图、PPT演示文稿、Rebuttal等多种格式,通过 API易 调用 GPT、Claude 等大模型。
## 概述
Paper2Any 是一个开源的论文多模态工作流平台,专注于学术论文的格式转换与可视化。支持从论文 PDF/截图/文本出发,一键生成模型架构图、技术路线图、实验图表、PPT 演示文稿等多种输出格式。
**项目信息**
* 🔗 开源地址:`github.com/OpenDCAI/Paper2Any`
* 📜 许可证:开源
* 👤 组织:OpenDCAI
* ⭐ 该项目由社区贡献,支持通过 API易 调用多种大模型
## 为什么选择 Paper2Any
支持论文转架构图、路线图、PPT、Rebuttal 等,一个工具覆盖科研全流程
支持动态切换 GPT-4o、Claude Sonnet、Qwen-VL 等模型,无需硬编码,通过 API 参数即可指定
提供命令行脚本和 Web 界面两种使用方式,适合不同场景需求
原生支持 OpenAI 兼容 API 格式,只需配置 API易 的 Base URL 即可接入 200+ 模型
## 核心功能模块
| 功能模块 | 说明 | 输出格式 |
| ------------------ | -------------------------- | ---------------------------- |
| **Paper2Figure** | 论文生成科研可视化图 | 模型架构图、技术路线图(PPTX + SVG)、实验图表 |
| **Paper2Diagram** | 论文/文本/图片生成流程图 | draw\.io / PNG / SVG |
| **Paper2PPT** | 论文转 PPT 演示文稿 | PPTX(支持 40+ 页长文档) |
| **Paper2Rebuttal** | 生成结构化审稿回复 | 带证据引用的 Rebuttal 文档 |
| **PDF2PPT** | PDF 保留排版转可编辑 PPT | PPTX |
| **Image2PPT** | 图片/截图转结构化幻灯片 | PPTX |
| **PPTPolish** | AI 驱动的 PPT 排版优化 | PPTX |
| **知识库** | 文件导入、语义搜索,驱动 PPT/播客/思维导图生成 | 多种格式 |
## 通过 API易 接入大模型
Paper2Any 支持 OpenAI 兼容 API 格式,配置 API易 作为 LLM 服务端点后,即可使用 GPT、Claude、Gemini、DeepSeek 等 200+ 模型。
### Docker 部署配置
1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录
2. 进入【令牌】栏目
3. 点击生成新的 API 密钥
4. 复制密钥(以 `sk-` 开头)备用
克隆仓库后,编辑 `fastapi_app/.env` 文件,配置 API易 作为 LLM 端点:
```bash theme={null}
# fastapi_app/.env
DEFAULT_LLM_API_URL=https://api.apiyi.com/v1
BACKEND_API_KEY=sk-你的API易密钥
```
可选:为不同工作流指定默认模型:
```bash theme={null}
PAPER2PPT_DEFAULT_MODEL=gpt-4o
PDF2PPT_DEFAULT_MODEL=gpt-4o
```
编辑 `frontend-workflow/.env` 文件,让 Web 界面默认使用 API易:
```bash theme={null}
# frontend-workflow/.env
VITE_DEFAULT_LLM_API_URL=https://api.apiyi.com/v1
VITE_LLM_API_URLS=https://api.apiyi.com/v1
```
使用 Docker Compose 一键启动:
```bash theme={null}
docker compose up -d --build
```
启动完成后,访问前端页面即可开始使用。
### CLI 命令行使用
Paper2Any 提供独立的命令行脚本,支持通过 `--api-url` 和 `--api-key` 参数直接指定 API易:
```bash theme={null}
# 论文转 PPT
python script/run_paper2ppt_cli.py \
--input paper.pdf \
--api-url https://api.apiyi.com/v1 \
--api-key sk-你的API易密钥 \
--model gpt-4o
# 论文转科研图
python script/run_paper2figure_cli.py \
--input paper.pdf \
--api-url https://api.apiyi.com/v1 \
--api-key sk-你的API易密钥 \
--graph-type model_arch
```
**模型推荐**:论文转 PPT 推荐使用 GPT-4o 或 Claude Sonnet 4.5,它们在长文档理解和结构化输出方面表现出色。图表生成任务也可尝试 Qwen-VL 等视觉模型。
## 部署方式
| 部署方式 | 说明 | 适合场景 |
| -------------- | ----------------------------------------- | --------- |
| **Docker(推荐)** | 一键启动前后端服务 | 快速体验、生产部署 |
| **Linux 原生** | 需 Python 3.11+、LaTeX、Inkscape、LibreOffice | 开发调试、定制需求 |
| **Windows** | 需 Python 3.12、Inkscape | 本地使用 |
PDF2PPT 和 Image2PPT 等功能依赖 GPU,需要额外部署 SAM3 模型服务器。详见项目 README 的 GPU 部署说明。
## 常见问题
在环境变量中将 `DEFAULT_LLM_API_URL` 设置为 `https://api.apiyi.com/v1`,并将 `BACKEND_API_KEY` 设置为你的 API易 密钥即可。CLI 模式下使用 `--api-url` 和 `--api-key` 参数。
通过 API易 接入后,支持 200+ 模型,包括 GPT-4o、Claude Sonnet 4.5、Gemini、DeepSeek、Qwen 等。可在 Web 界面动态切换模型,无需修改代码。
请检查:
1. Docker 和 Docker Compose 是否已正确安装
2. `.env` 文件是否已正确配置
3. 端口是否被占用
4. 查看 `docker compose logs` 获取详细错误信息
* 确保 API易 账户余额充足
* 长论文建议使用上下文窗口更大的模型(如 GPT-4o 128K)
* 检查论文 PDF 是否为可搜索文本格式(扫描版 PDF 效果可能较差)
访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。
## 相关资源
查看 API易 支持的 200+ 模型完整列表
了解如何在各类工具中配置 API易 Base URL
管理 API 密钥、查看用量和余额
查看各模型定价和充值优惠
# Dify
Source: https://docs.apiyi.com/scenarios/engineering/dify
可视化 AI 应用开发平台集成指南
# Dify
Dify 是一个开源的 LLM 应用开发平台,让您能够快速搭建 AI 应用。通过 API易,您可以在 Dify 中使用各种主流 AI 模型。
## 快速集成
### 1. 获取 API 密钥
访问 [API易控制台](https://vip.apiyi.com) 获取您的 API 密钥。
### 2. 配置模型供应商
1. 登录 Dify 平台
2. 点击用户名 > 设置
3. 选择"模型供应商" - 选择 OpenAI-API-compatible
4. 根据模型类型选择配置方式
#### 所有模型,包括 GPT、Claude、Gemini 模型配置
* 模型类型:选择 LLM 类型(第一个栏目,图略)
* 模型名称:需要输入**模型规范名称**,不能乱输入
* 举例:输入 gemini-2.5-flash 而不能输入 Gemini 2.5 Flash。
* 模型显示名称:可以随意,方便辨识即可,比如可以写 Gemini 2.5 Flash
* **API Key**:输入 [API易 密钥](https://api.apiyi.com/token)
* **API endpoint URL**:`https://api.apiyi.com/v1`
* API endpoint中的模型名称,写规范名称:gemini-2.5-flash
模型配置里有很多参数按**实际情况**更新:
注:Dify 的模型配置界面并没有**与时俱进**,比如大模型的上下文长度的默认值写的 4096 是比较小的数值。
每个大模型的具体上下文长度,可以参考各大官方文档(本文档中心-资源导航栏目)
还有更多参数
## 核心功能
### 对话助手
创建智能对话助手:
1. 选择"对话助手"模板
2. 配置系统提示词:
```text theme={null}
你是一个专业的客服助手,负责:
- 回答用户问题
- 提供产品信息
- 处理售后服务
请保持友好和专业的态度。
```
3. 选择合适的模型(如 GPT-4)
4. 调整参数:
* 温度:0.7(平衡创造性和准确性)
* 最大输出:2000 tokens
### 工作流应用
构建复杂的 AI 工作流:
```mermaid theme={null}
graph LR
A[用户输入] --> B[意图识别]
B --> C{判断类型}
C -->|问答| D[知识库检索]
C -->|创作| E[创意生成]
C -->|分析| F[数据分析]
D --> G[生成回答]
E --> G
F --> G
G --> H[输出结果]
```
### 知识库问答
集成文档知识库:
1. 创建知识库
2. 上传文档(PDF、Word、Markdown)
3. 选择嵌入模型:`text-embedding-ada-002`
4. 在应用中引用知识库
5. 配置检索参数:
* 检索数量:3-5 个片段
* 相似度阈值:0.7
* 重排序:开启
## 应用类型
### 1. 聊天助手
```yaml theme={null}
应用类型: 对话助手
模型: gpt-4
系统提示: |
你是一个专业的AI助手,具备以下能力:
- 回答各种问题
- 协助解决问题
- 提供建议和指导
请始终保持友好、准确、有帮助的态度。
温度: 0.7
最大长度: 2000
```
### 2. 文档分析
```yaml theme={null}
应用类型: 工作流
输入: 上传文档
处理流程:
1. 文档解析
2. 内容提取
3. 结构化分析
4. 生成摘要
输出: 分析报告
```
### 3. 代码助手
```yaml theme={null}
应用类型: 对话助手
模型: gpt-4
系统提示: |
你是一个专业的编程助手,专长:
- 代码编写和优化
- 错误调试
- 架构设计
- 最佳实践建议
请提供清晰、实用的代码解决方案。
```
## 高级功能
### API 集成
Dify 应用可以通过 API 调用:
```python theme={null}
import requests
url = "https://your-dify-instance/v1/chat-messages"
headers = {
"Authorization": "Bearer YOUR_APP_API_KEY",
"Content-Type": "application/json"
}
data = {
"inputs": {},
"query": "你好,请介绍一下你自己",
"response_mode": "streaming",
"user": "user_123"
}
response = requests.post(url, headers=headers, json=data)
```
### 批量处理
处理大量数据:
1. 准备 CSV 文件
2. 创建批处理任务
3. 配置处理模板
4. 执行批量任务
5. 导出结果
### 多模态应用
支持文本和图像的混合处理:
```python theme={null}
# 多模态输入示例
{
"inputs": {
"image": "data:image/jpeg;base64,...",
"text": "分析这张图片中的内容"
},
"query": "请详细描述图片内容并提供分析"
}
```
## 模型选择策略
### 按场景选择
查看最新的场景化模型推荐,包括文本创作、编程开发、快速响应、长文本处理等全场景的最佳模型选择。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
### 成本优化
```yaml theme={null}
开发环境:
模型: gpt-3.5-turbo
最大长度: 1000
温度: 0.7
生产环境:
模型: gpt-4
最大长度: 2000
温度: 0.5
```
## 最佳实践
### 1. 提示词优化
```text theme={null}
# 结构化提示词
## 角色定义
你是一个专业的[具体角色]
## 任务说明
请帮助用户[具体任务]
## 输出格式
请按以下格式输出:
1. 概述
2. 详细分析
3. 建议
## 约束条件
- 回答要准确
- 语言要通俗
- 长度控制在500字内
```
### 2. 工作流设计
```mermaid theme={null}
graph TD
A[用户输入] --> B[输入验证]
B --> C[意图分类]
C --> D{选择处理路径}
D -->|简单问题| E[快速回答]
D -->|复杂问题| F[深度分析]
D -->|需要搜索| G[知识库检索]
E --> H[输出结果]
F --> H
G --> I[结合搜索结果] --> H
```
### 3. 监控和优化
定期检查:
* 用户满意度反馈
* 响应时间统计
* 成本使用情况
* 错误率分析
### 4. 版本管理
* 定期备份应用配置
* 测试新版本后再发布
* 保留多个版本以便回滚
## 故障排除
### 常见问题
#### 模型调用失败
* 检查 API 密钥正确性
* 确认账户余额充足
* 验证网络连接
#### 响应质量差
* 优化提示词设计
* 调整模型参数
* 增加上下文信息
#### 性能问题
* 选择更快的模型
* 减少输出长度限制
* 启用缓存功能
### 性能优化
```yaml theme={null}
缓存设置:
启用: true
过期时间: 3600秒
缓存条件: 相同输入
并发控制:
最大并发: 10
队列大小: 100
超时时间: 30秒
资源限制:
内存限制: 2GB
CPU限制: 80%
```
## 部署建议
### 生产环境
```yaml theme={null}
# docker-compose.yml
version: '3.8'
services:
dify-api:
image: langgenius/dify-api:latest
environment:
- SECRET_KEY=your-secret-key
- DB_HOST=postgres
- REDIS_HOST=redis
- OPENAI_API_KEY=your-apiyi-key
- OPENAI_API_BASE=https://api.apiyi.com/v1
depends_on:
- postgres
- redis
dify-web:
image: langgenius/dify-web:latest
ports:
- "3000:3000"
depends_on:
- dify-api
postgres:
image: postgres:14
environment:
- POSTGRES_DB=dify
- POSTGRES_USER=dify
- POSTGRES_PASSWORD=password
redis:
image: redis:alpine
```
### 安全配置
* 使用环境变量存储敏感信息
* 启用 HTTPS 访问
* 设置访问权限控制
* 定期更新依赖包
### 监控设置
```python theme={null}
# 监控脚本示例
import requests
import time
def monitor_dify_health():
try:
response = requests.get("http://your-dify-instance/health")
if response.status_code == 200:
print("Dify 运行正常")
else:
print(f"Dify 异常,状态码: {response.status_code}")
except Exception as e:
print(f"监控失败: {e}")
# 每分钟检查一次
while True:
monitor_dify_health()
time.sleep(60)
```
需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/dify)。
# LangChain
Source: https://docs.apiyi.com/scenarios/engineering/langchain
构建 AI 应用的开发框架集成指南
# LangChain
LangChain 是一个强大的框架,用于开发基于语言模型的应用程序。通过 API易,您可以在 LangChain 中使用各种主流 AI 模型。
## 快速开始
### 安装
```bash theme={null}
pip install langchain langchain-openai
```
### 基础配置
```python theme={null}
import os
from langchain_openai import ChatOpenAI
# 设置环境变量
os.environ["OPENAI_API_KEY"] = "您的API易密钥"
os.environ["OPENAI_BASE_URL"] = "https://api.apiyi.com/v1"
# 初始化模型
llm = ChatOpenAI(
model="gpt-3.5-turbo",
temperature=0.7
)
```
## 核心功能
### 基础对话
```python theme={null}
from langchain.schema import HumanMessage, SystemMessage
messages = [
SystemMessage(content="你是一个有帮助的助手"),
HumanMessage(content="介绍一下 Python 的主要特点")
]
response = llm.invoke(messages)
print(response.content)
```
### 对话链
```python theme={null}
from langchain.memory import ConversationBufferMemory
from langchain.chains import ConversationChain
# 创建带记忆的对话链
memory = ConversationBufferMemory()
conversation = ConversationChain(
llm=llm,
memory=memory,
verbose=True
)
# 多轮对话
conversation.predict(input="我想学习机器学习")
conversation.predict(input="推荐一些入门资源")
```
### 文档问答系统
```python theme={null}
from langchain.document_loaders import TextLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import FAISS
from langchain.chains import RetrievalQA
# 配置嵌入模型
embeddings = OpenAIEmbeddings(
api_key="您的API易密钥",
base_url="https://api.apiyi.com/v1"
)
# 加载文档
loader = TextLoader("document.txt")
documents = loader.load()
# 分割文本
text_splitter = CharacterTextSplitter(
chunk_size=1000,
chunk_overlap=0
)
texts = text_splitter.split_documents(documents)
# 创建向量存储
vectorstore = FAISS.from_documents(texts, embeddings)
# 创建问答链
qa = RetrievalQA.from_chain_type(
llm=llm,
chain_type="stuff",
retriever=vectorstore.as_retriever()
)
# 提问
result = qa.run("文档中的关键概念是什么?")
```
## 模型切换
### 使用不同模型
```python theme={null}
# GPT-4
gpt4 = ChatOpenAI(
model="gpt-4",
api_key="您的API易密钥",
base_url="https://api.apiyi.com/v1"
)
# Claude 3
claude = ChatOpenAI(
model="claude-3-opus-20240229",
api_key="您的API易密钥",
base_url="https://api.apiyi.com/v1"
)
# 比较不同模型的回答
question = "解释量子计算的基本原理"
gpt4_answer = gpt4.invoke([HumanMessage(content=question)])
claude_answer = claude.invoke([HumanMessage(content=question)])
```
## 高级应用
### Agent 系统
```python theme={null}
from langchain.agents import create_openai_functions_agent, AgentExecutor
from langchain.tools import Tool
from langchain import hub
# 定义工具
def get_weather(location: str) -> str:
"""获取天气信息"""
return f"{location}的天气是晴天,温度25°C"
weather_tool = Tool(
name="Weather",
func=get_weather,
description="获取指定地点的天气信息"
)
# 创建 Agent
prompt = hub.pull("hwchase17/openai-functions-agent")
agent = create_openai_functions_agent(llm, [weather_tool], prompt)
agent_executor = AgentExecutor(agent=agent, tools=[weather_tool])
# 使用 Agent
result = agent_executor.invoke({"input": "北京今天天气怎么样?"})
```
### 批量处理
```python theme={null}
# 批量生成响应
prompts = [
"解释人工智能",
"什么是机器学习",
"深度学习的应用"
]
responses = llm.batch([
HumanMessage(content=p) for p in prompts
])
for response in responses:
print(response.content)
print("-" * 50)
```
### 流式输出
```python theme={null}
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
# 配置流式输出
streaming_llm = ChatOpenAI(
model="gpt-3.5-turbo",
streaming=True,
callbacks=[StreamingStdOutCallbackHandler()]
)
# 流式生成
streaming_llm.invoke("写一首关于春天的诗")
```
## 错误处理
```python theme={null}
from langchain.callbacks import get_openai_callback
try:
with get_openai_callback() as cb:
response = llm.invoke("你好")
print(f"使用的 Token 数: {cb.total_tokens}")
print(f"API 调用成本: ${cb.total_cost}")
except Exception as e:
print(f"发生错误: {e}")
```
## 最佳实践
### 1. 模型选择策略
查看最新的场景化模型推荐,包括简单对话、复杂推理、长文本处理、创意写作等全场景的最佳模型选择。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
### 2. 成本优化
```python theme={null}
class CostOptimizedLLM:
def __init__(self):
self.cheap_model = ChatOpenAI(model="gpt-3.5-turbo")
self.premium_model = ChatOpenAI(model="gpt-4")
def smart_invoke(self, message, complexity="low"):
model = self.premium_model if complexity == "high" else self.cheap_model
return model.invoke(message)
```
### 3. 缓存策略
```python theme={null}
from langchain.cache import InMemoryCache
from langchain.globals import set_llm_cache
# 启用缓存
set_llm_cache(InMemoryCache())
# 相同请求会使用缓存
response1 = llm.invoke("什么是人工智能?")
response2 = llm.invoke("什么是人工智能?") # 使用缓存
```
### 4. 异步处理
```python theme={null}
import asyncio
from langchain_openai import AsyncChatOpenAI
async def async_chat():
async_llm = AsyncChatOpenAI(
model="gpt-3.5-turbo",
api_key="您的API易密钥",
base_url="https://api.apiyi.com/v1"
)
response = await async_llm.ainvoke("异步生成的内容")
return response.content
# 运行异步函数
result = asyncio.run(async_chat())
```
## 复杂应用示例
### 多模态 RAG 系统
```python theme={null}
class MultiModalRAG:
def __init__(self):
self.llm = ChatOpenAI(model="gpt-4o") # 支持图像
self.embeddings = OpenAIEmbeddings()
self.vectorstore = None
def add_documents(self, documents):
"""添加文档到知识库"""
texts = self.text_splitter.split_documents(documents)
self.vectorstore = FAISS.from_documents(texts, self.embeddings)
def query_with_image(self, question, image_url):
"""支持图像的查询"""
context = self.vectorstore.similarity_search(question, k=3)
messages = [
{"role": "system", "content": "基于提供的文档回答问题"},
{"role": "user", "content": [
{"type": "text", "text": f"问题: {question}\n\n上下文: {context}"},
{"type": "image_url", "image_url": {"url": image_url}}
]}
]
return self.llm.invoke(messages)
```
### 智能工作流
```python theme={null}
from langchain.schema.runnable import RunnableLambda, RunnableSequence
def classify_intent(query):
"""意图分类"""
classifier = ChatOpenAI(model="gpt-3.5-turbo")
result = classifier.invoke(f"将以下查询分类为:问答、创作、分析、其他\n\n{query}")
return result.content.strip()
def route_to_specialist(intent_and_query):
"""路由到专门的处理器"""
intent, query = intent_and_query
if "问答" in intent:
model = ChatOpenAI(model="gpt-3.5-turbo")
elif "创作" in intent:
model = ChatOpenAI(model="claude-3-sonnet")
elif "分析" in intent:
model = ChatOpenAI(model="gpt-4")
else:
model = ChatOpenAI(model="gpt-3.5-turbo")
return model.invoke(query)
# 创建工作流
workflow = RunnableSequence(
RunnableLambda(lambda x: (classify_intent(x), x)),
RunnableLambda(route_to_specialist)
)
# 使用工作流
result = workflow.invoke("帮我分析这个季度的销售数据")
```
## 性能监控
```python theme={null}
import time
from functools import wraps
def monitor_llm_calls(func):
@wraps(func)
def wrapper(*args, **kwargs):
start_time = time.time()
try:
result = func(*args, **kwargs)
success = True
except Exception as e:
result = None
success = False
print(f"LLM调用失败: {e}")
end_time = time.time()
duration = end_time - start_time
print(f"LLM调用 - 成功: {success}, 耗时: {duration:.2f}s")
return result
return wrapper
@monitor_llm_calls
def safe_llm_call(llm, message):
return llm.invoke(message)
```
## 部署建议
### 1. 生产环境配置
```python theme={null}
import os
from langchain_openai import ChatOpenAI
class ProductionLLM:
def __init__(self):
self.llm = ChatOpenAI(
model=os.getenv("LLM_MODEL", "gpt-3.5-turbo"),
temperature=float(os.getenv("LLM_TEMPERATURE", "0.7")),
max_tokens=int(os.getenv("LLM_MAX_TOKENS", "1000")),
request_timeout=int(os.getenv("LLM_REQUEST_TIMEOUT", "60"))
)
def chat(self, message):
try:
return self.llm.invoke(message)
except Exception as e:
# 记录错误日志
print(f"LLM错误: {e}")
return "抱歉,服务暂时不可用"
```
### 2. 容错机制
```python theme={null}
def retry_llm_call(max_retries=3, delay=1):
def decorator(func):
@wraps(func)
def wrapper(*args, **kwargs):
for attempt in range(max_retries):
try:
return func(*args, **kwargs)
except Exception as e:
if attempt == max_retries - 1:
raise e
time.sleep(delay * (2 ** attempt)) # 指数退避
return wrapper
return decorator
@retry_llm_call(max_retries=3)
def robust_llm_call(llm, message):
return llm.invoke(message)
```
需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/langchain)。
# CC Switch
Source: https://docs.apiyi.com/scenarios/programming/cc-switch
统一管理 Claude Code 等 5 款 AI CLI 工具的桌面应用,一键切换 API 提供商、模型和配置
## 概述
CC Switch 是一款基于 Tauri 2 构建的桌面应用,可以统一管理 Claude Code、Codex CLI、Gemini CLI、OpenCode、OpenClaw 五款 AI CLI 工具。告别手动编辑配置文件,通过图形界面一键切换 API 提供商、模型和密钥。
通过配置 API易 服务,您可以获得:
图形界面管理所有 CLI 工具配置,告别手动编辑
选择 ClaudeCode 分组创建令牌,享受 88% 折扣
内置 Usage Dashboard,实时查看花费、请求数和 Token 用量
本地代理支持热切换、自动故障转移和熔断保护
**项目信息**
* 🔗 开源地址:`github.com/farion1231/cc-switch`
* 📜 许可证:MIT
* 👤 作者:Jason Young(farion1231)
* 🏷️ 最新版本:v3.12.0
## 核心功能
### Provider 管理
* 内置 50+ 预设提供商(含 AWS Bedrock、NVIDIA NIM 等)
* 一键切换、拖拽排序、导入导出配置
* 系统托盘快速访问
### MCP 服务器管理
* 统一管理所有 CLI 工具的 MCP 服务器配置
* 双向同步,修改一处自动同步到所有应用
### 更多特性
* **Prompts 管理**:Markdown 编辑器 + 跨应用同步
* **Skills 安装**:从 GitHub 仓库或 ZIP 文件安装技能
* **Session 浏览器**:查看和恢复对话历史
* **云同步**:支持 Dropbox、OneDrive、iCloud、WebDAV
* **Deep Link**:`ccswitch://` 协议一键导入配置
## 快速开始
### 第一步:安装 CC Switch
使用 Homebrew 安装:
```bash theme={null}
brew install --cask cc-switch
```
或从 GitHub Releases 下载 DMG 安装包。
从 GitHub Releases 下载 MSI 安装程序或 Portable ZIP 包。
根据发行版选择安装方式:
```bash theme={null}
# Debian/Ubuntu
sudo dpkg -i cc-switch_*.deb
# Fedora/RHEL
sudo rpm -i cc-switch_*.rpm
# Arch Linux
paru -S cc-switch-bin
```
也可使用 AppImage 或 Flatpak。
**系统要求**:Windows 10+、macOS 10.15 (Catalina)+、Ubuntu 22.04+ / Debian 11+ / Fedora 34+
### 第二步:获取 API易 密钥
1. 访问 [API易控制台 - 令牌页面](https://api.apiyi.com/token)
2. 点击创建新令牌
3. **重要**:选择 **【ClaudeCode】分组**,享受 **88% 折扣**
4. 复制生成的密钥(以 `sk-` 开头)
**省钱提示**:创建令牌时务必选择【ClaudeCode】分组,可享受 88 折优惠价格,大幅降低使用成本。
### 第三步:在 CC Switch 中配置 API易
1. 打开 CC Switch 应用
2. 进入 **Provider** 管理页面,点击添加,选择「自定义网关」:
3. 按照上图填写以下信息:
* **名称**:`APIYI`
* **API 地址**:`https://api.apiyi.com`
* **API Key**:粘贴上一步获取的密钥
* **启用的应用**:开启 Claude Code(按需开启其他工具)
4. 点击「添加」保存配置
### 第四步:添加模型
在 Provider 配置中添加以下模型:
**标准模型**:
| 模型名称 | 模型标识 | 说明 |
| ----------------- | --------------------------- | ----------- |
| Claude Opus 4.6 | `claude-opus-4-6` | 最强旗舰,复杂任务首选 |
| Claude Sonnet 4.6 | `claude-sonnet-4-6` | 编程能力强,性价比之选 |
| Claude Haiku 4.5 | `claude-haiku-4-5-20251001` | 轻量快速,简单任务适用 |
**推理模型**(强制启用思维链):
| 模型名称 | 模型标识 | 说明 |
| -------------------------- | ------------------------------------ | ----------- |
| Claude Opus 4.6 Thinking | `claude-opus-4-6-thinking` | 深度推理,复杂逻辑分析 |
| Claude Sonnet 4.6 Thinking | `claude-sonnet-4-6-thinking` | 推理增强编程,平衡效率 |
| Claude Haiku 4.5 Thinking | `claude-haiku-4-5-20251001-thinking` | 轻量推理,快速思考 |
**模型选择建议**:日常编程推荐 `claude-sonnet-4-6`,复杂架构设计用 `claude-opus-4-6`,快速问答用 `claude-haiku-4-5-20251001`。需要深度推理时使用对应的 thinking 版本。
### 第五步:一键切换
配置完成后,在 CC Switch 中选择 API易 作为当前 Provider,所有关联的 CLI 工具(Claude Code、Codex CLI 等)会自动切换到 API易 配置。
## 使用指南
### 管理多个 CLI 工具
CC Switch 支持同时管理以下 5 款 AI CLI 工具:
* **Claude Code** — Anthropic 官方命令行编程助手
* **Codex CLI** — OpenAI 的命令行编程工具
* **Gemini CLI** — Google 的命令行 AI 助手
* **OpenCode** — 开源命令行编程工具
* **OpenClaw** — 开源本地 AI Agent
所有工具共享 Provider 配置,切换一次即可全部生效。
### 本地代理功能
CC Switch 内置本地代理服务器,提供:
* **热切换**:无需重启即可切换 Provider
* **自动故障转移**:当前 Provider 不可用时自动切换备选
* **熔断保护**:检测到持续故障时自动停止请求,防止资源浪费
### 配置备份
* 自动备份系统保留最近 10 个版本
* 支持导入/导出完整配置
* 云同步支持 Dropbox、OneDrive、iCloud、WebDAV
## 模型推荐
除了 Claude 系列,API易 还支持 200+ 主流 AI 模型。查看完整的编程模型推荐、性能对比和场景化使用建议。
## 常见问题
支持 Windows 10+、macOS 10.15 (Catalina)+、以及主流 Linux 发行版(Ubuntu 22.04+、Debian 11+、Fedora 34+、Arch Linux)。
在 [API易控制台](https://api.apiyi.com/token) 创建令牌时,选择【ClaudeCode】分组即可自动享受 88% 折扣。
请检查:
1. API Key 是否正确(以 `sk-` 开头)
2. Base URL 是否设置为 `https://api.apiyi.com`
3. API易 账户余额是否充足
4. CC Switch 是否已将配置同步到 Claude Code
Thinking(推理)模型会强制启用思维链模式,在回答前进行深度推理分析。适合复杂逻辑推理、架构设计等需要深度思考的场景。标准模型响应更快,适合日常编程和简单任务。
CC Switch 支持导入功能,可以自动读取已有的环境变量和配置文件。安装后打开应用,它会自动检测已安装的 CLI 工具及其现有配置。
CC Switch 本身完全免费开源(MIT 许可证)。只有 API 调用会产生费用,通过 API易 使用 ClaudeCode 分组可享受 88 折优惠。
## 最佳实践
**高效使用建议**:
1. **分组创建令牌**:务必选择【ClaudeCode】分组,享受 88 折
2. **善用热切换**:在不同任务间快速切换 Provider 和模型
3. **启用自动故障转移**:配置多个 Provider 作为备选,确保服务连续性
4. **定期备份**:利用云同步功能定期备份配置
## 相关资源
查看 Claude Code 的详细配置教程
了解最新的 AI 模型推荐
管理 API 密钥和查看用量
探索 Cursor 等其他编程工具
# Claude Code
Source: https://docs.apiyi.com/scenarios/programming/claude-code
Claude 官方命令行编程助手,使用 API易 配置实现稳定高效的 AI 编程体验
## 概述
Claude Code 是 Anthropic 官方推出的命令行编程助手,可以在终端中直接使用 Claude 的强大编程能力。通过配置 API易 服务,您可以获得:
免代理直连,告别网络不稳定
无需 Claude Max 200美元订阅
依托 API易 实现不限速访问
几分钟完成全部设置
## 快速开始
**简化配置提示**:如果您不想注册 Claude 官网账号,建议直接查看下方的[高级配置](#高级配置)部分,使用 `~/.claude.json` 文件配置,可以完全绕过官网验证。
### 1. 安装 Claude Code
在终端运行以下命令全局安装:
```bash theme={null}
npm install -g @anthropic-ai/claude-code
```
需要 Node.js 18 或更高版本。如未安装,请先访问 [nodejs.org](https://nodejs.org) 下载安装。
### 2. 配置 API 密钥
#### 获取 API 密钥
请参考 [API密钥获取与管理教程](/faq/token-management) 获取您的 API易 密钥。
#### 设置环境变量
在系统环境变量中添加 API易 配置。
编辑 `~/.zshrc` 或 `~/.bashrc` 文件:
```bash theme={null}
# API易 配置
export ANTHROPIC_AUTH_TOKEN="sk-***"
export ANTHROPIC_BASE_URL="https://api.apiyi.com"
```
**Mac 用户提示**:在用户目录按 `⌘ + ⇧ + .` 显示隐藏文件,使用文本编辑器打开 `.zshrc` 文件。
使用 PowerShell 编辑配置:
```powershell theme={null}
# 编辑配置文件
notepad $PROFILE
# 添加以下内容
$env:ANTHROPIC_AUTH_TOKEN = "sk-***"
$env:ANTHROPIC_BASE_URL = "https://api.apiyi.com"
```
### 3. 使配置生效
```bash theme={null}
source ~/.zshrc
# 或
source ~/.bashrc
```
重启 PowerShell 或运行:
```powershell theme={null}
. $PROFILE
```
### 4. 启动 Claude Code
进入你的项目目录并启动:
```bash theme={null}
# 进入项目目录
cd ~/Desktop/my-project
# 启动 Claude Code
claude
```
## 高级配置
### 配置文件(推荐)
需要配置两个文件,配合使用即可绕过 Claude 官网验证:
**第一步**:在用户主目录创建 `~/.claude.json`,绕过官网验证:
```json theme={null}
{
"hasCompletedOnboarding": true
}
```
**第二步**:在 `~/.claude/settings.json` 中配置 API易 服务:
```json theme={null}
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-你的API易密钥",
"ANTHROPIC_BASE_URL": "https://api.apiyi.com"
}
}
```
**重要提示**:`hasCompletedOnboarding: true` 可以完全绕过 Claude 官网账号验证,直接使用 API易 服务。这样您无需:
* 注册 Claude 官网账号(注册困难,需要海外手机号)
* 担心 Claude 官网账号被封
* 进行任何额外的授权步骤
**安全提醒**:配置文件包含 API 密钥等敏感信息,请勿分享给他人。
### 全局授权(不推荐)
如果没有配置 `hasCompletedOnboarding: true`,首次使用时会弹出授权页面:
1. 需要跳转到 Claude 官网进行确认
2. 需要有 Claude 官网账号(注册困难且容易被封)
3. 授权成功后返回终端继续
**建议**:强烈推荐使用上述配置文件方法,避免 Claude 官网账号的各种限制。
## 使用指南
### 基本命令
启动后,Claude Code 会显示当前配置信息:
```bash theme={null}
claude
# 显示 API Key 和 API Base URL
# 确认配置无误后选择 Yes 继续
```
### 工作流程
1. **启动助手**:在项目目录运行 `claude`
2. **描述需求**:输入你的编程需求或问题
3. **交互对话**:Claude 会理解上下文并提供代码建议
4. **应用更改**:确认后 Claude 可以直接修改文件
### 支持的功能
* ✅ 代码生成和优化
* ✅ Bug 修复和调试
* ✅ 代码重构建议
* ✅ 文档编写
* ✅ 测试用例生成
* ✅ 技术问题解答
## 模型选择
Claude Code 默认使用最新的 Claude 模型。通过 API易,你可以访问:
| 模型 | 特点 | 推荐场景 |
| ---------------------------- | ------ | ------ |
| **Claude 4 Sonnet** | 编程能力最强 | 复杂代码任务 |
| **Claude Opus 4.1** | 性能升级版 | 高要求编程 |
| **Claude 4 Sonnet Thinking** | 思维链模式 | 复杂推理 |
除了 Claude 系列,API易 还支持 200+ 主流 AI 模型。查看完整的编程模型推荐、性能对比和场景化使用建议。
## 故障排除
### 常见问题
这通常是网络配置问题。请检查:
1. 环境变量是否正确设置
2. API 密钥是否有效
3. 网络连接是否正常
运行以下命令验证配置:
```bash theme={null}
echo $ANTHROPIC_AUTH_TOKEN
echo $ANTHROPIC_BASE_URL
```
这是因为没有配置 `hasCompletedOnboarding`。在 `~/.claude.json` 中添加 `{"hasCompletedOnboarding": true}`,并在 `~/.claude/settings.json` 中配置 API易 环境变量,即可绕过官网验证。详见上方[高级配置](#高级配置)。
确保使用的是 API易 的密钥,而不是 Claude 官网的密钥。参考 [API密钥获取与管理教程](/faq/token-management) 获取密钥。
运行以下命令更新到最新版本:
```bash theme={null}
npm update -g @anthropic-ai/claude-code
```
Claude Code 支持所有主流编程语言,包括但不限于:
* Python, JavaScript/TypeScript, Java, C++, C#
* Go, Rust, Swift, Kotlin
* HTML/CSS, SQL, Shell Scripts
* 以及更多...
## 最佳实践
### 有效的提示词
```markdown theme={null}
好的提示:
"帮我重构这个 Python 函数,使其更高效并添加类型注解"
"这段代码有内存泄漏,请帮我找出并修复"
"为这个 React 组件编写单元测试"
避免过于宽泛:
"改进我的代码" # 太模糊
```
### 项目结构建议
* 保持代码库整洁有序
* 使用清晰的文件命名
* 添加适当的注释
* 提供项目 README
## 性能优化
### 提升响应速度
1. **使用 `~/.claude.json` 配置**:配置后可避免每次验证,特别是设置 `hasCompletedOnboarding: true` 后启动更快
2. **保持对话连贯**:在同一会话中处理相关任务
3. **明确需求**:清晰描述可减少往返交互
### 成本控制
* Claude Code 按 Token 使用量计费
* 通过 API易 可享受优惠价格
* 查看 [定价页面](/pricing) 了解详情
## 相关资源
API密钥获取与管理
官方文档地址:`code.claude.com/docs`
了解 Claude 系列模型
探索 Cursor 等工具
## 总结
Claude Code 结合 API易 服务,为开发者提供了一个强大、稳定、经济的 AI 编程助手解决方案。无需昂贵的订阅费用,即可享受顶级的 AI 编程体验。
**提示**:如需了解更多编程场景的 AI 工具,可以查看 [OpenAI Codex CLI](/scenarios/programming/codex-cli) 等其他选项。
# Cline (VS Code)
Source: https://docs.apiyi.com/scenarios/programming/cline
VS Code 中的 AI 编程助手集成指南
# Cline (VS Code)
Cline(原 Claude Dev)是一款强大的 VS Code AI 编程助手插件,支持多种 AI 模型。通过 API易,您可以灵活切换使用各种主流 AI 模型辅助编程。
## 快速安装
### 1. 安装插件
在 VS Code 扩展商店搜索 "Cline" 并安装
### 2. 配置 API易
1. 点击左侧的 Cline 图标
2. 点击设置按钮(齿轮图标)
3. 选择 **OpenAI Compatible**
4. 配置参数:
* **Base URL**:`https://api.apiyi.com/v1`
* **API Key**:您的 API易 密钥
* **Model Name**:输入模型名称
### 推荐模型
Cline 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek、国产模型等。
查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
## 核心功能
### 智能代码补全
```python theme={null}
# 输入注释,AI 自动生成代码
# 计算斐波那契数列的第 n 项
def fibonacci(n):
# Cline 会自动补全实现
```
### 代码解释
选中代码片段,使用:
* `Cline: Explain Code`:解释代码
* `Cline: Explain Error`:解释错误
### 代码重构
* **优化性能**:提供性能优化建议
* **改进可读性**:重构复杂代码
* **修复问题**:自动修复常见问题
### 生成测试
```javascript theme={null}
// 原始函数
function add(a, b) {
return a + b;
}
// Cline 生成的测试
describe('add function', () => {
test('should add two numbers correctly', () => {
expect(add(2, 3)).toBe(5);
expect(add(-1, 1)).toBe(0);
});
});
```
## 常用命令
| 命令 | 快捷键 | 功能 |
| --------------- | -------------- | ----- |
| Cline: Ask | `Ctrl+Shift+L` | 询问 AI |
| Cline: Explain | `Ctrl+Shift+E` | 解释代码 |
| Cline: Refactor | `Ctrl+Shift+R` | 重构代码 |
| Cline: Generate | `Ctrl+Shift+G` | 生成代码 |
## 高级功能
### 多文件操作
Cline 可以理解和操作多个相关文件:
```bash theme={null}
"将 utils.js 中的函数移动到 helpers.js,并更新所有引用"
```
### 架构设计
生成项目架构:
```text theme={null}
请为电商后台管理系统设计架构,包含:
- 用户管理
- 商品管理
- 订单处理
- 数据分析
使用 React + Node.js + PostgreSQL
```
### 代码审查
```text theme={null}
Review PR:
- 检查代码规范
- 发现潜在 bug
- 性能优化建议
- 安全漏洞扫描
```
## 使用技巧
### 1. 上下文管理
提供更好的上下文:
```typescript theme={null}
// @context: React 组件用于用户认证
// @requirements: 支持 OAuth2 登录流程
// @constraints: 兼容 NextJS 13+
// AI 基于上下文生成更准确的代码
```
### 2. 自定义提示词
在设置中配置:
```json theme={null}
{
"cline.customPrompts": {
"codeReview": "审查代码,关注性能、安全、规范",
"optimize": "优化代码性能和可读性",
"document": "生成详细的中文文档"
}
}
```
### 3. 项目级配置
创建 `.cline/config.json`:
```json theme={null}
{
"model": "claude-3-5-sonnet-20241022",
"temperature": 0.7,
"language": "zh-CN",
"codeStyle": {
"naming": "camelCase",
"indent": 4,
"quotes": "single"
}
}
```
## 故障排除
### 连接失败
检查配置:
* Base URL:`https://api.apiyi.com/v1`
* API 密钥是否有效
* 网络连接是否正常
### 响应超时
解决方案:
1. 使用更快的模型
2. 减少请求复杂度
3. 分解大任务
### 生成质量差
改进方法:
1. 提供更多上下文
2. 使用更强大的模型
3. 明确指定需求
## 最佳实践
### 1. 模型选择策略
根据不同的编程任务类型,选择合适的模型可以提高效率并降低成本。
查看针对不同编程场景的模型推荐,包括代码生成、复杂推理、代码审查、快速响应等场景的最佳模型选择。
### 2. 提示词优化
```text theme={null}
❌ 不好的提示:修复这个函数
✅ 好的提示:修复 calculateTotal 函数中的浮点数精度问题,
确保金额计算准确到小数点后两位
```
### 3. 渐进式开发
1. 先生成基础框架
2. 逐步添加功能
3. 最后优化性能
4. 添加错误处理
### 4. 安全意识
* 不在代码中包含敏感信息
* 审查 AI 生成的代码
* 验证第三方依赖
* 注意安全漏洞
## 集成工作流
### Git 集成
```bash theme={null}
# 自动生成 commit message
git add .
# Cline: 根据改动生成 commit message
```
### 测试驱动开发
1. 先写测试用例
2. Cline 生成实现代码
3. 运行测试验证
4. 迭代优化
### CI/CD 集成
生成配置文件:
```yaml theme={null}
# Cline 可以生成 GitHub Actions 配置
name: CI
on: [push, pull_request]
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v2
- name: Run tests
run: npm test
```
## Token 优化与成本控制
### 1. 监控 Token 使用
* **实时监控**:在 Cline 侧边栏查看估算成本
* **会话限制**:保持会话简短,避免上下文累积
* **定期重置**:长任务分多个会话完成
### 2. 智能模型切换
```text theme={null}
规划阶段 → DeepSeek-R1 或 o3(推理能力强,成本低)
实现阶段 → Claude-4-Sonnet 或 o4-mini(编程能力最强)
简单任务 → GPT-3.5-Turbo 或 Gemini-2.5-Flash(速度快)
长文本 → Gemini-2.5-Pro(2M 上下文)
```
### 3. 使用 .clinerules 配置
创建项目根目录下的 `.clinerules` 文件:
```text theme={null}
# 限制 Cline 操作范围
- 不允许修改 node_modules
- 不允许删除重要文件
- 限制单次修改文件数量
- 要求确认破坏性操作
```
### 4. 替代方案降低成本
#### GitHub Copilot Pro 集成
* 月费仅 \$10,无限使用
* 通过 VSCode LM API 使用
* 适合高频使用场景
#### 本地模型 (Ollama)
```bash theme={null}
# 安装 Ollama 并运行本地模型
ollama run deepseek-coder:6.7b
ollama run qwen2.5-coder:7b
ollama run codellama:13b
```
#### 使用国产模型降低成本
* `qwen-turbo`(阿里通义千问)
* `glm-4`(智谱清华系)
* `ernie-4.0`(百度文心一言)
### 5. 缓存优化
* 使用 Requesty Router 等服务
* 可节省超过 50% 的 API 成本
* 自动缓存重复请求
## 最佳实践进阶
### 1. Plan/Act 模式使用
* **Plan 模式**:用于设计和审查,只读不改
* **Act 模式**:直接实现,适合简单任务
* **模型记忆**:Cline 会记住每种模式的模型偏好
### 2. 上下文管理技巧
```typescript theme={null}
// 明确的上下文注释
// @context: React 18 + TypeScript 5
// @requirements: 支持 SSR,兼容 Next.js 14
// @constraints: 不使用外部状态管理库
// @performance: 首屏加载 < 3s
```
### 3. 任务管理系统
* **收藏重要对话**:使用星标功能
* **导出有价值内容**:保存为 Markdown
* **任务排序**:按成本、Token 使用量排序
* **批量清理**:定期清理低价值会话
### 4. 避免 Token 爆炸
```text theme={null}
❌ 错误做法:
- 在同一会话中处理多个无关任务
- 让 Cline 读取整个大型代码库
- 不断修改需求导致上下文混乱
✅ 正确做法:
- 每个功能开新会话
- 只包含相关文件
- 明确需求后再开始
- 完成后立即提交代码
```
### 5. 成本效益分析
| 场景 | 传统开发时间 | Cline 成本 | 时间节省 | ROI |
| ------- | ------ | -------- | ------ | --- |
| CRUD 模块 | 4 小时 | \$5-10 | 3.5 小时 | 极高 |
| 复杂重构 | 2 天 | \$20-50 | 1.5 天 | 高 |
| 架构设计 | 1 周 | \$50-100 | 5 天 | 高 |
### 6. 工作流优化
```bash theme={null}
# 1. 规划阶段(使用推理模型)
"使用 o3 或 DeepSeek-R1 分析需求并制定架构方案"
# 2. 实现阶段(使用编程专精模型)
"切换到 Claude-4-Sonnet 或 o4-mini 实现核心功能"
# 3. 测试优化(使用快速模型)
"使用 Gemini-2.5-Flash 或 GPT-3.5-Turbo 进行单元测试和优化"
# 4. 文档阶段(使用综合模型)
"使用 GPT-4.1 或 Qwen-Max 生成项目文档"
# 5. 代码审查(使用长上下文模型)
"使用 Gemini-2.5-Pro 进行全面的代码审查"
```
## 性能优化
### 1. 模型切换
根据任务选择模型:
* 开发阶段:轻量模型
* 复杂任务:高级模型
* 生产环境:平衡性能和成本
### 2. 缓存策略
* 启用响应缓存
* 缓存常用代码片段
* 定期清理缓存
### 3. 请求优化
* 批量处理相关请求
* 使用流式响应
* 设置合理超时
需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/cline)。
# OpenAI Codex CLI
Source: https://docs.apiyi.com/scenarios/programming/codex-cli
OpenAI 官方命令行编程助手,通过 API易兼容代理一键接入:替换 OPENAI_BASE_URL + OPENAI_API_KEY 两个环境变量即可使用 gpt-5.5 / gpt-5.4 / gpt-5.3-codex 等最新模型。
## 概述
**Codex CLI** 是 OpenAI 官方推出的命令行编程助手,专为终端工作流设计。通过 API易接入只需要做一件事:
> **把 OpenAI 的入口换成 API易**
API易是 **OpenAI 兼容接口(透明代理)**——本质就是替换 Base URL + Key,**不需要修改 `model_provider`、不需要自定义 env\_key**,OpenAI SDK 怎么用,Codex CLI 就怎么用。
两个环境变量即用,无需复杂配置文件
支持 `gpt-5.5` / `gpt-5.4` / `gpt-5.3-codex`
与 OpenAI 官方计费方式一致,价格更优
Mac / Linux / Windows(PowerShell)通用
## 一、准备工作
### 安装 Codex CLI
先全局安装官方 CLI 工具(需要 Node.js 18+):
```bash theme={null}
npm install -g @openai/codex
```
验证:
```bash theme={null}
codex --version
```
Mac 用户如果遇到权限问题,可加 `sudo`;推荐用 nvm / fnm 管理 Node 版本以避免全局权限。
## 二、核心配置:替换两个环境变量
API易是 OpenAI 兼容接口,所以**配置就两行**:
```bash theme={null}
OPENAI_BASE_URL=https://api.apiyi.com/v1
OPENAI_API_KEY=sk-你的APIYI密钥
```
**变量名固定**:必须叫 `OPENAI_API_KEY` 和 `OPENAI_BASE_URL`,这是 Codex CLI 内置约定,不要改名。
**Base URL 必须带 `/v1`**:写成 `https://api.apiyi.com/v1`,缺 `/v1` 会 404。
### Mac / Linux 配置
编辑 shell 配置文件:
```bash theme={null}
vim ~/.zshrc
# 或 ~/.bashrc
```
加入:
```bash theme={null}
export OPENAI_BASE_URL="https://api.apiyi.com/v1"
export OPENAI_API_KEY="sk-你的APIYI密钥"
```
让配置生效:
```bash theme={null}
source ~/.zshrc
# 或 source ~/.bashrc
```
### Windows 配置
使用 `setx` 写入用户级环境变量:
```powershell theme={null}
setx OPENAI_BASE_URL "https://api.apiyi.com/v1"
setx OPENAI_API_KEY "sk-你的APIYI密钥"
```
**关闭并重新打开终端**生效。
只在当前 PowerShell 窗口生效,关闭即失效:
```powershell theme={null}
$env:OPENAI_BASE_URL="https://api.apiyi.com/v1"
$env:OPENAI_API_KEY="sk-你的APIYI密钥"
```
适合临时测试。
1. 打开「系统环境变量」
2. 新建用户变量:
* 变量名 `OPENAI_BASE_URL`,值 `https://api.apiyi.com/v1`
* 变量名 `OPENAI_API_KEY`,值 `sk-你的APIYI密钥`
3. 重启终端
## 三、启动与基础使用
进入项目目录直接启动:
```bash theme={null}
cd /your/project
codex
```
或一句话直接执行任务:
```bash theme={null}
codex "帮我写一个 Python HTTP Server"
```
非交互(静默)模式:
```bash theme={null}
codex -q "修复当前项目的构建错误"
```
## 四、模型说明(API易推荐)
API易当前可用于 Codex CLI 的常用模型:
| 模型 | 特点 | 适用场景 |
| ------------------- | ----------- | --------------------- |
| **`gpt-5.5`** | 最新主力模型 | 复杂代码任务、工程分析、Agent 工作流 |
| **`gpt-5.4`** | 稳定常用 | 大多数代码开发、调试、重构场景 |
| **`gpt-5.4-mini`** | 便宜的 5.4 变体 | 中小规模任务、批量处理 |
| **`gpt-5.4-nano`** | 极致便宜 | 简单代码补全、轻量任务 |
| **`gpt-5.3-codex`** | 专攻 Codex 场景 | 复杂软件工程任务 |
| **`gpt-4.1`** | 经典便宜模型 | 预算敏感的日常使用 |
**怎么选**:日常 → `gpt-5.4`;重活/Agent → `gpt-5.5`;纯代码工程 → `gpt-5.3-codex`;省钱 → `gpt-5.4-mini` / `gpt-4.1`。
### 1. 启动时临时指定模型
用 `-m` 或 `--model`:
```bash theme={null}
codex -m gpt-5.5
codex --model gpt-5.4
codex -m gpt-5.3-codex
```
也可以直接带任务:
```bash theme={null}
codex -m gpt-5.5 "帮我检查这个项目的代码结构,并指出可以优化的地方"
```
### 2. 非交互模式指定模型
```bash theme={null}
codex -q -m gpt-5.4 "修复当前项目里的构建错误"
```
### 3. 会话内切换模型
进入 Codex CLI 后,在会话里输入:
```text theme={null}
/model
```
按提示选择或输入要切换的模型。
### 4. 配置默认模型
如果希望默认就用某个模型,编辑 `~/.codex/config.toml`:
```toml theme={null}
model = "gpt-5.5"
```
Codex 当前官方配置文件是 `config.toml`(不是早期教程里的 `config.json`)。用户级配置在 `~/.codex/config.toml`,也支持项目级 `.codex/config.toml`。
## 五、进阶配置
### 自定义系统提示词
编辑:
```bash theme={null}
~/.codex/instructions.md
```
可以定义编码风格、输出语言、项目规范等,例如:
```markdown theme={null}
- 代码注释使用中文
- 遵循项目的 ESLint 配置
- 提供详细的解释说明
```
### 项目级 AGENTS.md
首次进入项目时运行 `codex /init` 会生成 `AGENTS.md`,记录项目结构与规范。如需 Codex 默认用中文交流,加一行:
```markdown theme={null}
本项目请始终用中文跟用户交流。
```
### 常用参数
```bash theme={null}
codex -h # 查看完整帮助
codex -m <模型> # 指定模型
codex -q # 非交互/静默模式
codex --full-auto # 自动执行(谨慎使用)
```
## 六、注意事项
### 1. Key 与变量名
* API易 Key 在控制台 `api.apiyi.com/token` 获取
* **变量名必须是 `OPENAI_API_KEY`**(CLI 写死的,不可改名)
### 2. Base URL
* **必须带 `/v1`**:`https://api.apiyi.com/v1`
* 也可使用其他网关域名(如 `b.apiyi.com/v1`、`vip.apiyi.com/v1`),响应行为一致
### 3. 网络问题
如果遇到 timeout / 连接失败,优先排查:
* 本地 HTTP/HTTPS 代理配置
* DNS 解析
* 是否误用了 Cloudflare 中转域名(不建议)
### 4. 模型差异
* Codex CLI 偏向**代码任务**,多模态能力(图像/语音)走专门接口更合适
* 不同 `gpt-5.x` 模型在工具调用、长上下文、推理深度上有差异,建议按任务复杂度选择
## 七、常见问题
因为 API易**完全兼容 OpenAI API 协议**——CLI 看到的 `https://api.apiyi.com/v1` 和 `https://api.openai.com/v1` 在请求/响应格式上是一致的,仅替换 Base URL 即可。
确认已正确安装:
```bash theme={null}
npm install -g @openai/codex
codex --version
```
如果仍报错,检查 `npm bin -g` 路径是否在 `PATH` 中。
1. 确认用的是 **API易 Key**(以 `sk-` 开头),不是 OpenAI 官方 Key
2. 检查环境变量是否生效:
```bash theme={null}
echo $OPENAI_API_KEY # Mac/Linux
echo %OPENAI_API_KEY% # Windows CMD
echo $env:OPENAI_API_KEY # Windows PowerShell
```
3. 改完环境变量后**重启终端**或 `source ~/.zshrc`
最常见原因:**Base URL 没带 `/v1`**。
正确写法:`https://api.apiyi.com/v1`
其次排查本地代理与 DNS。
三种方式:
* 临时:`codex -m gpt-5.5`
* 会话中:`/model`
* 默认:编辑 `~/.codex/config.toml`,设置 `model = "gpt-5.5"`
* **OpenAI 系列**:✅ 完整支持(推荐 `gpt-5.5` / `gpt-5.4` / `gpt-5.3-codex`)
* **其他厂商聚合模型**:API易支持,但 Codex CLI 本身偏向 OpenAI 协议——非 OpenAI 模型可能在 tool use / function call 协议上有差异
* 想用 Claude / Gemini 系列做编程,建议用对应原生 CLI(如 Claude Code)
* **CLI**:适合开发期效率工具
* **生产**:建议直接调用 API(更可控、可监控、可灰度)
**卸载 CLI**:
```bash theme={null}
npm uninstall -g @openai/codex
```
**停用 API易 配置**:删除环境变量与配置文件即可。
```bash theme={null}
# Mac/Linux:编辑 ~/.zshrc 或 ~/.bashrc 删掉 OPENAI_* 两行
rm ~/.codex/config.toml
# Windows:从「系统环境变量」中删除 OPENAI_BASE_URL / OPENAI_API_KEY
```
## 八、总结
这类接入本质就一句话:
> **把 OpenAI 的入口换成 API易**
核心两行:
```bash theme={null}
export OPENAI_BASE_URL="https://api.apiyi.com/v1"
export OPENAI_API_KEY="sk-你的APIYI密钥"
```
剩下都是锦上添花——选模型、写提示词、自定义 `instructions.md` / `AGENTS.md`。
## 相关资源
管理 API 密钥与查看用量
用 Claude 系列做命令行编程
所有可用模型与定价
通用调用规范
# Cursor
Source: https://docs.apiyi.com/scenarios/programming/cursor
AI 驱动的代码编辑器集成指南
# Cursor
Cursor 是一款 AI 驱动的代码编辑器,通过集成 API易,您可以在编写代码时获得强大的 AI 辅助功能。
## 快速配置
### 1. 打开设置
点击右上角的齿轮图标 ⚙️,选择 **Models** 选项
### 2. 配置 API
* **OpenAI API Key**:输入您的 API易 密钥(直接用默认令牌即可)
* **Override OpenAI Base URL**:勾选并输入 `https://api.apiyi.com/v1`
* 点击 **Verify** 验证配置
### 3. 模型配置
**重要说明**:Cursor 目前**不支持 Agent 模式**,只能使用 Chat 聊天对话模式。您可以在对话过程中让 AI 生成代码,然后手动应用到实际代码中。
如果您是新手并且非常依赖 Agent 模式进行 Vibe Coding,建议:
* 购买 Cursor 官方会员使用其原生服务
* 或使用替代方案:VS Code 的 **RooCode** 或 **Cline** 插件(支持 Agent 模式)
#### 推荐模型配置
Cursor 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek 等。
查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
## 使用模式说明
### Chat 模式工作流程
由于 Cursor 不支持 Agent 模式,推荐以下工作流程:
1. **对话生成代码**
* 使用 `Ctrl/Cmd + L` 打开聊天
* 描述您的需求,让 AI 生成代码
* 查看生成的代码片段
2. **手动应用代码**
* 从聊天窗口复制代码
* 粘贴到目标文件
* 或使用 "Apply" 按钮(如果可用)
3. **迭代优化**
* 继续对话要求修改
* 重复应用过程
### 替代方案对比
| 工具 | Agent 模式 | 优势 | 劣势 |
| ---------------------- | -------- | ------------------- | ---------- |
| **Cursor** | ❌ | 界面优雅,补全体验好 | 无 Agent 模式 |
| **Cline (VS Code)** | ✅ | 完整 Agent 功能,可自动修改文件 | 需要 VS Code |
| **RooCode (VS Code)** | ✅ | Agent 模式,支持多文件编辑 | 较新,功能还在完善 |
| **Continue (VS Code)** | ✅ | 开源,可定制性强 | 配置较复杂 |
## 核心功能
### 智能代码补全
* **Tab 补全**:按 Tab 接受 AI 建议
* **多行补全**:支持函数级别的代码生成
* **上下文感知**:基于项目结构提供建议
### AI 对话
* **Ctrl/Cmd + K**:打开命令面板
* **Ctrl/Cmd + L**:侧边栏对话
* **代码解释**:选中代码后询问 AI
### 代码编辑
* **生成代码**:描述需求,AI 自动生成
* **重构建议**:获取优化建议
* **错误修复**:AI 协助定位和修复错误
## 快捷键
| 快捷键 | 功能 |
| -------------- | ------- |
| `Ctrl/Cmd + K` | AI 命令面板 |
| `Ctrl/Cmd + L` | AI 对话 |
| `Tab` | 接受代码建议 |
| `Esc` | 取消建议 |
## 使用技巧
### 1. 提供清晰的上下文
```javascript theme={null}
// @context: React组件,用于用户认证
// @requirements: 需要支持OAuth2登录
// @constraints: 兼容NextJS 13+
// AI会基于这些信息生成更准确的代码
```
### 2. 优化提示词
```
// 不好的提示
"修复这个函数"
// 好的提示
"修复calculateTotal函数中的浮点数精度问题,确保金额计算准确到小数点后两位"
```
### 3. 充分利用 Chat 模式
虽然没有 Agent 模式,但可以:
* 让 AI 生成完整的文件内容
* 要求 AI 提供详细的修改说明
* 使用 AI 进行代码审查和重构建议
## 故障排除
### 连接超时
1. 检查网络连接
2. 确认 API 地址:`https://api.apiyi.com/v1`
3. 验证 API 密钥有效性
### 模型不响应
1. 检查账户余额
2. 尝试切换模型
3. 重启 Cursor
### 代码建议质量差
1. 提供更多项目上下文
2. 使用更具体的提示词
3. 尝试不同模型
## 最佳实践
### 项目级配置
在项目根目录创建 `.cursor-settings.json`:
```json theme={null}
{
"model": "gpt-4.1",
"temperature": 0.7,
"contextFiles": ["README.md", "package.json"],
"rules": [
"使用TypeScript严格模式",
"遵循ESLint规范",
"添加适当的注释"
]
}
```
### 代码规范
在提示中明确代码规范:
* 使用 TypeScript
* 遵循 Airbnb 规范
* 添加 JSDoc 注释
* 使用函数式风格
### 安全意识
* 不在代码中包含敏感信息
* 审查 AI 生成的代码
* 验证第三方依赖安全性
## 集成工作流
### Git 集成
```bash theme={null}
# AI 生成 commit message
git add .
# 使用 Cursor AI 生成描述性的提交信息
```
### 测试驱动开发
1. 先写测试用例
2. 让 AI 生成实现代码
3. 运行测试验证
4. 迭代优化
### 代码审查
使用 AI 进行代码审查:
```
请审查这段代码,关注:
1. 性能问题
2. 安全漏洞
3. 代码规范
4. 最佳实践
```
## 需要 Agent 模式?
如果您需要 AI 能够自动修改多个文件、执行复杂的重构任务,推荐查看:
VS Code 中功能完整的 AI Agent,支持自动修改文件
新兴的 VS Code AI Agent 插件,支持多文件编辑
**提示**:如果您是 Vibe Coding 爱好者,需要 AI 自主完成复杂编程任务,建议使用支持 Agent 模式的工具,或考虑购买 Cursor 官方会员以获得完整体验。
需要更多帮助?请访问 [API易官网](https://api.apiyi.com) 获取支持。
# Gemini CLI
Source: https://docs.apiyi.com/scenarios/programming/gemini-cli
通过 API易 使用 Gemini CLI 进行 AI 辅助编程,支持代码生成、代码审查、智能问答等功能
## 概述
Gemini CLI 是 Google 官方推出的命令行工具,允许您在终端中直接与 Gemini AI 模型交互。通过 API易 中转,您可以:
* 🚀 在终端中快速调用 Gemini 模型
* 💻 进行 AI 辅助编程和代码生成
* 🔍 代码审查和优化建议
* 📝 技术问答和文档生成
* 🌐 跨平台使用(Linux、macOS、Windows)
**为什么选择 API易?**
通过 API易 使用 Gemini CLI,您可以享受更稳定的网络连接、更优惠的价格,以及 7×24 小时技术支持。
## 快速开始
### 前置要求
* Node.js >= 18.0.0
* npm 或 yarn 包管理器
* API易 账号和 API Key
### 第一步:安装 Gemini CLI
```bash npm theme={null}
# 检查 Node.js 版本
node --version # 需要 >= 18
# 全局安装 Gemini CLI
npm install -g @google/gemini-cli
# 验证安装
gemini --version
```
```bash yarn theme={null}
# 检查 Node.js 版本
node --version # 需要 >= 18
# 使用 yarn 安装
yarn global add @google/gemini-cli
# 验证安装
gemini --version
```
### 第二步:获取 API易 密钥
访问 `api.apiyi.com` 注册或登录您的账号
进入后台「令牌管理」页面(`api.apiyi.com/token`),点击「创建新令牌」
复制生成的 API Key(格式:`sk-***`),妥善保存
### 第三步:配置环境变量
**重要配置**:`GOOGLE_GEMINI_BASE_URL` 必须设置为 `https://api.apiyi.com`,不能有多余的路径(如 `/v1` 或 `/gemini`),否则会导致连接失败。
```bash theme={null}
# 编辑 .zshrc 文件
nano ~/.zshrc
# 添加以下环境变量
export GOOGLE_GEMINI_BASE_URL="https://api.apiyi.com"
export GEMINI_API_KEY="sk-your-api-key" # 替换为你的 API易 密钥
# 保存后重新加载配置
source ~/.zshrc
```
```bash theme={null}
# 编辑 .bashrc 文件
nano ~/.bashrc
# 添加以下环境变量
export GOOGLE_GEMINI_BASE_URL="https://api.apiyi.com"
export GEMINI_API_KEY="sk-your-api-key" # 替换为你的 API易 密钥
# 保存后重新加载配置
source ~/.bashrc
```
```powershell theme={null}
# 设置环境变量
$env:GOOGLE_GEMINI_BASE_URL="https://api.apiyi.com"
$env:GEMINI_API_KEY="sk-your-api-key"
# 永久保存(可选)
[System.Environment]::SetEnvironmentVariable('GOOGLE_GEMINI_BASE_URL', 'https://api.apiyi.com', 'User')
[System.Environment]::SetEnvironmentVariable('GEMINI_API_KEY', 'sk-your-api-key', 'User')
```
```cmd theme={null}
# 临时设置环境变量
set GOOGLE_GEMINI_BASE_URL=https://api.apiyi.com
set GEMINI_API_KEY=sk-your-api-key
# 永久保存(需要管理员权限)
setx GOOGLE_GEMINI_BASE_URL "https://api.apiyi.com"
setx GEMINI_API_KEY "sk-your-api-key"
```
### 第四步:初始化和测试
```bash theme={null}
gemini
```
在交互界面中输入:
```bash theme={null}
/auth
```
选择:**Gemini API Key (AI Studio)**
```bash theme={null}
# 简单测试
gemini "Hello, 测试连接是否正常"
# 编程相关测试
gemini "解释一下 React Hooks 的使用方法"
gemini "编写一个 Python 函数来计算斐波那契数列"
```
## 核心功能
### 代码生成
```bash theme={null}
gemini "用 Python 写一个快速排序算法,包含详细注释"
```
**输出示例**:
```python theme={null}
def quick_sort(arr):
"""
快速排序算法
时间复杂度:平均 O(n log n),最坏 O(n²)
空间复杂度:O(log n)
"""
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
```bash theme={null}
gemini "创建一个 Express.js REST API 项目结构,包含用户认证和数据库配置"
```
```bash theme={null}
gemini "为这个函数编写 Jest 单元测试:
function fibonacci(n) {
if (n <= 1) return n;
return fibonacci(n - 1) + fibonacci(n - 2);
}"
```
### 代码审查
```bash theme={null}
# 审查代码质量
gemini "审查以下代码的性能问题和潜在 bug:
[粘贴你的代码]
"
# 安全审计
gemini "检查这段代码的安全漏洞,特别关注 SQL 注入和 XSS 攻击"
# 最佳实践建议
gemini "这段 React 组件有什么可以优化的地方?遵循最佳实践吗?"
```
### 技术问答
```bash theme={null}
# 概念解释
gemini "解释一下 JavaScript 的闭包概念,并给出实际应用场景"
# 错误排查
gemini "为什么我的 Promise 没有被正确 resolve?"
# 性能优化
gemini "如何优化 React 组件的渲染性能?"
# 架构设计
gemini "微服务架构和单体架构的优缺点对比"
```
### 文档生成
```bash theme={null}
# 生成 README
gemini "为我的 Node.js 库生成一个专业的 README.md,包括安装、使用示例、API 文档"
# API 文档
gemini "为这个 REST API 端点生成 OpenAPI 3.0 规范文档"
# 代码注释
gemini "为以下代码添加详细的 JSDoc 注释"
```
## 交互式命令
在 Gemini CLI 交互模式下,可以使用以下命令:
| 命令 | 说明 | 示例 |
| -------- | ------- | ------------------------ |
| `/auth` | 重新认证 | `/auth` |
| `/model` | 切换模型 | `/model gemini-pro` |
| `/clear` | 清除对话历史 | `/clear` |
| `/help` | 显示帮助信息 | `/help` |
| `/exit` | 退出 CLI | `/exit` 或 `Ctrl+C` |
| `/save` | 保存对话到文件 | `/save conversation.txt` |
**模型切换**:使用 `/model` 命令可以在不同的 Gemini 模型之间切换,如 `gemini-3-pro-preview`、`gemini-2.5-flash`、`gemini-2.5-pro` 等。
## 支持的模型
通过 API易,您可以使用以下最新 Gemini 模型:
### Gemini 3 系列(推荐)
| 模型 | 适用场景 | 特点 |
| --------------------------------- | ------------ | ----------------------- |
| **gemini-3-pro-preview** | 高质量代码生成、复杂推理 | 🏆 性能最强,LMArena 排行榜全球第一 |
| **gemini-3-pro-preview-thinking** | 超复杂推理、算法设计 | 🧠 思维链输出,深度推理能力 |
### Gemini 2.5 系列
| 模型 | 适用场景 | 特点 |
| ------------------------- | ---------- | -------------- |
| **gemini-2.5-pro** | 专业级代码生成 | ⚡ 高性能,100 万上下文 |
| **gemini-2.5-flash** | 快速响应、日常开发 | 🚀 速度快,成本低 |
| **gemini-2.5-flash-lite** | 轻量级任务、批量调用 | 💰 超低成本,高频调用 |
**推荐配置**:
* 复杂编程任务、架构设计:`gemini-3-pro-preview`
* 日常代码生成、问答:`gemini-2.5-flash`
* 批量处理、快速迭代:`gemini-2.5-flash-lite`
查看 API易 支持的所有 Gemini 模型、详细价格和性能对比
## 高级用法
### VS Code 集成
在 VS Code 中使用 Gemini CLI 扩展:
```json theme={null}
{
"gemini.apiKey": "sk-your-api-key",
"gemini.baseUrl": "https://api.apiyi.com",
"gemini.model": "gemini-3-pro-preview",
"gemini.temperature": 0.7,
"gemini.maxTokens": 4000
}
```
### GitHub Actions 集成
自动化代码审查:
```yaml theme={null}
name: Gemini Code Review
on:
pull_request:
branches: [ main ]
jobs:
review:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v3
- uses: actions/setup-node@v3
with:
node-version: '18'
- name: Install Gemini CLI
run: npm install -g @google/gemini-cli
- name: Run Code Review
env:
GEMINI_API_KEY: \${{ secrets.GEMINI_API_KEY }}
GOOGLE_GEMINI_BASE_URL: https://api.apiyi.com
run: |
gemini "审查这个 Pull Request 的代码质量、安全性和性能:
$(git diff origin/main...HEAD)"
```
### 批处理脚本
创建自动化脚本:
```bash theme={null}
#!/bin/bash
# 批量代码审查
for file in src/**/*.js; do
echo "Reviewing $file..."
gemini "审查文件 $file 的代码质量" < "$file"
done
# 生成项目文档
gemini "为整个项目生成技术文档大纲" < README.md
```
## 常见问题
**检查清单**:
1. **环境变量是否正确**:
```bash theme={null}
echo $GOOGLE_GEMINI_BASE_URL
echo $GEMINI_API_KEY
```
确保输出为:
* `GOOGLE_GEMINI_BASE_URL`: `https://api.apiyi.com`(不要有 /v1 或其他路径)
* `GEMINI_API_KEY`: `sk-` 开头的完整密钥
2. **重新加载环境变量**:
```bash theme={null}
source ~/.zshrc # 或 source ~/.bashrc
```
3. **重启终端**:完全关闭并重新打开终端窗口
4. **验证 API Key**:登录 API易 后台确认 Key 是否有效且余额充足
在交互模式下使用 `/model` 命令:
```bash theme={null}
/model gemini-3-pro-preview
/model gemini-3-pro-preview-thinking
/model gemini-2.5-flash
```
或在命令行直接指定:
```bash theme={null}
gemini --model gemini-3-pro-preview "你的问题"
gemini --model gemini-2.5-flash "快速测试"
```
**方法一**:使用 `/save` 命令
```bash theme={null}
/save conversation-2025-01-01.txt
```
**方法二**:重定向输出
```bash theme={null}
gemini "你的问题" > output.txt
gemini "你的问题" | tee output.txt # 同时显示和保存
```
**方法三**:使用会话管理
```bash theme={null}
gemini --session my-project "继续之前的讨论"
```
**推荐使用 nvm 管理 Node.js 版本**:
```bash theme={null}
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash
# 安装 Node.js 18+
nvm install 18
nvm use 18
nvm alias default 18
# 验证版本
node --version
```
**可能原因和解决方案**:
1. **网络问题**:API易 提供国内优化节点,通常响应很快
2. **模型选择**:使用 `gemini-2.5-flash` 或 `gemini-2.5-flash-lite` 获得最快响应
3. **Token 限制**:减少单次请求的复杂度
4. **并发请求**:避免同时发送大量请求
**测试连接速度**:
```bash theme={null}
time gemini --model gemini-2.5-flash "Hello"
```
**推荐使用 PowerShell**:
1. 安装 Node.js(从官网下载安装包)
2. 以管理员身份运行 PowerShell
3. 设置环境变量:
```powershell theme={null}
[System.Environment]::SetEnvironmentVariable('GOOGLE_GEMINI_BASE_URL', 'https://api.apiyi.com', 'User')
[System.Environment]::SetEnvironmentVariable('GEMINI_API_KEY', 'sk-your-key', 'User')
```
4. 重启 PowerShell
5. 安装和使用 Gemini CLI
**或使用 WSL**(Windows Subsystem for Linux)获得更好的体验。
## 最佳实践
### 提示词优化
❌ "优化这段代码"
✅ "优化这段代码的性能,重点关注循环效率和内存使用"
❌ "这个函数有什么问题?"
✅ "这是一个用于处理用户登录的函数,目前遇到异步错误,帮我找出问题"
❌ "帮我完成整个项目"
✅ "第一步:设计数据库模型;第二步:创建 API 路由;第三步:..."
❌ "解释闭包"
✅ "解释 JavaScript 闭包,并给出 3 个实际应用场景和代码示例"
### 工作流建议
清晰描述要解决的问题或实现的功能
使用 Gemini CLI 生成初步解决方案或代码
要求 AI 审查自己生成的代码,找出潜在问题
根据反馈逐步优化,直到满足需求
生成必要的注释和文档
## 价格说明
使用 API易 调用 Gemini 模型的费用取决于您选择的模型和使用量。
查看所有 Gemini 模型的详细定价和性价比对比
API易 提供充值优惠:充值越多,加赠比例越高(10%-22%)。首次充值还可获得额外加赠。查看 [充值活动详情](/faq/recharge-promotions)。
## 相关资源
* [Gemini CLI 官方文档](https://ai.google.dev/gemini-api/docs/cli)
* [API易 快速开始指南](/quickstart)
* [模型推荐和价格对比](/api-capabilities/model-info)
* [充值优惠活动](/faq/recharge-promotions)
* [API 使用手册](/api-manual)
## 获取帮助
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
技术咨询、使用指导
**客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com)
**商务合作**:[business@apiyi.com](mailto:business@apiyi.com)
**快速上手**:按照本文的「快速开始」章节,5 分钟即可完成配置并开始使用 Gemini CLI!
# OpenCode
Source: https://docs.apiyi.com/scenarios/programming/opencode
开源 AI 编码代理,支持终端/IDE/桌面多平台,通过 API易 配置获得稳定高效的编程体验
## 概述
OpenCode 是一款完全开源的 AI 编码代理,基于 TypeScript 和 AI SDK 构建,提供终端 TUI、IDE 集成和桌面应用多种使用方式。项目在 GitHub 拥有 94.9k+ Star,社区活跃。
通过配置 API易 服务,您可以获得:
终端 TUI、VS Code 扩展、桌面应用一应俱全
通过 Models.dev 支持 75+ LLM 提供商
语言服务器协议支持,智能代码理解
支持多会话并行处理和会话共享
**项目信息**:OpenCode 是活跃维护的开源项目,官网 `opencode.ai`,项目地址 `github.com/anomalyco/opencode`。
## 环境准备
### 安装 OpenCode
```bash theme={null}
curl -fsSL https://opencode.ai/install | bash
```
```bash theme={null}
npm i -g opencode-ai@latest
```
```bash theme={null}
brew install anomalyco/tap/opencode
```
Scoop:
```bash theme={null}
scoop install opencode
```
Chocolatey:
```bash theme={null}
choco install opencode
```
```bash theme={null}
paru -S opencode-bin
```
从官网 `opencode.ai` 下载对应系统的桌面应用:
* macOS (Apple Silicon / Intel)
* Windows
* Linux (AppImage / deb)
验证安装:
```bash theme={null}
opencode --version
```
## 快速配置
OpenCode 使用 JSON 配置文件,支持多种配置位置(按优先级从低到高):
1. 远程配置(`.well-known/opencode`)
2. 全局配置:`~/.config/opencode/opencode.json`
3. 自定义配置:`OPENCODE_CONFIG` 环境变量指定的路径
4. 项目配置:项目根目录 `opencode.json`
5. `.opencode` 目录配置
6. 内联配置:`OPENCODE_CONFIG_CONTENT` 环境变量
### 方法一:自定义 Provider(推荐)
创建或编辑配置文件 `~/.config/opencode/opencode.json`:
```json theme={null}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"apiyi": {
"npm": "@ai-sdk/openai-compatible",
"name": "API易",
"options": {
"baseURL": "https://api.apiyi.com/v1",
"apiKey": "{env:APIYI_API_KEY}"
},
"models": {
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
"limit": { "context": 200000, "output": 8192 }
},
"gpt-4.1": {
"name": "GPT-4.1",
"limit": { "context": 1047576, "output": 32768 }
},
"deepseek-chat": {
"name": "DeepSeek V3",
"limit": { "context": 65536, "output": 8192 }
},
"gemini-2.5-pro-preview-05-06": {
"name": "Gemini 2.5 Pro",
"limit": { "context": 1048576, "output": 65536 }
}
}
}
},
"model": "apiyi/claude-sonnet-4-20250514"
}
```
然后设置环境变量:
```bash theme={null}
# zsh
echo 'export APIYI_API_KEY="sk-你的API易密钥"' >> ~/.zshrc
source ~/.zshrc
# bash
echo 'export APIYI_API_KEY="sk-你的API易密钥"' >> ~/.bashrc
source ~/.bashrc
```
PowerShell:
```powershell theme={null}
[System.Environment]::SetEnvironmentVariable('APIYI_API_KEY', 'sk-你的API易密钥', 'User')
```
或在系统环境变量中添加 `APIYI_API_KEY`。
### 方法二:/connect 命令认证
OpenCode 提供 `/connect` 命令快速连接新的 Provider:
1. 启动 OpenCode 后输入 `/connect`
2. 选择 "Other"
3. 输入 provider ID(如 `apiyi`)
4. 输入 API 密钥
然后在配置文件中补充 provider 和 models 定义即可使用。
### 方法三:覆盖现有 Provider
如果只想快速使用,可以覆盖内置 OpenAI provider 的 baseURL:
```json theme={null}
{
"provider": {
"openai": {
"options": {
"baseURL": "https://api.apiyi.com/v1",
"apiKey": "{env:APIYI_API_KEY}"
}
}
}
}
```
### 方法四:项目级配置
在项目根目录创建 `opencode.json` 文件,配置仅对当前项目生效:
```json theme={null}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"apiyi": {
"npm": "@ai-sdk/openai-compatible",
"name": "API易",
"options": {
"baseURL": "https://api.apiyi.com/v1",
"apiKey": "{env:APIYI_API_KEY}"
},
"models": {
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
"limit": { "context": 200000, "output": 8192 }
}
}
}
},
"model": "apiyi/claude-sonnet-4-20250514"
}
```
## Agent 系统
OpenCode 内置三种 Agent,各司其职:
| Agent | 说明 | 使用方式 |
| ----------- | ----------------------- | ------------- |
| **build** | 默认代理,拥有完全访问权限,负责代码生成和修改 | 直接对话 |
| **plan** | 只读代理,用于代码分析和规划,不会修改文件 | `/plan` 命令 |
| **general** | 复杂搜索子代理,用于多步骤信息检索 | `@general` 调用 |
### Agent 模型配置
可以为不同 Agent 配置不同模型:
```json theme={null}
{
"provider": {
"apiyi": {
"npm": "@ai-sdk/openai-compatible",
"name": "API易",
"options": {
"baseURL": "https://api.apiyi.com/v1",
"apiKey": "{env:APIYI_API_KEY}"
},
"models": {
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
"limit": { "context": 200000, "output": 8192 }
},
"deepseek-chat": {
"name": "DeepSeek V3",
"limit": { "context": 65536, "output": 8192 }
},
"gpt-4.1-mini": {
"name": "GPT-4.1 Mini",
"limit": { "context": 1047576, "output": 32768 }
}
}
}
},
"agents": {
"build": {
"model": "apiyi/claude-sonnet-4-20250514"
},
"plan": {
"model": "apiyi/deepseek-chat"
},
"general": {
"model": "apiyi/gpt-4.1-mini"
}
}
}
```
## 推荐模型
OpenCode 通过 API易 支持 200+ 主流 AI 模型,可根据不同任务选择合适的模型。
查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。
### 场景化模型推荐
| Agent | 用途 | 推荐模型 |
| ------- | ------- | -------------------------- |
| build | 代码生成和修改 | Claude Sonnet 4、GPT-4.1 |
| plan | 任务规划和分析 | DeepSeek V3、Gemini 2.5 Pro |
| general | 快速搜索和问答 | GPT-4.1 Mini(低成本) |
## 核心功能
### 终端交互界面
启动 OpenCode 进入交互式 TUI 界面:
```bash theme={null}
# 在当前目录启动
opencode
# 指定项目目录
opencode /path/to/project
```
### 文件操作
OpenCode 可以读取、搜索和修改项目文件:
```text theme={null}
> 查看 src/index.ts 的内容
> 在项目中搜索所有包含 "TODO" 的文件
> 将 utils.ts 中的 calculateSum 函数重构为更高效的实现
```
### 命令执行
支持在终端中执行命令并查看结果:
```text theme={null}
> 运行 npm test 并分析失败的测试
> 执行 npm install 并检查是否有依赖冲突
```
### 会话管理
* **多会话并行**:可以同时运行多个会话
* **会话共享**:支持会话导出和分享
* **自动保存**:所有会话自动持久化
* **上下文保持**:会话期间保持完整的对话上下文
## 使用技巧
### 1. 快捷键操作
| 快捷键 | 功能 |
| -------- | ----------- |
| `Ctrl+C` | 中断当前操作 |
| `Ctrl+D` | 退出 OpenCode |
| `Tab` | 自动补全 |
| `↑/↓` | 浏览历史命令 |
### 2. 常用命令
| 命令 | 功能 |
| ---------- | ------------------ |
| `/connect` | 连接新的 Provider |
| `/model` | 切换当前模型 |
| `/plan` | 使用 plan agent 进行分析 |
| `/clear` | 清除当前会话 |
| `/help` | 查看帮助信息 |
### 3. 调用子代理
使用 `@general` 调用搜索子代理处理复杂查询:
```text theme={null}
> @general 在代码库中找到所有处理用户认证的文件,并总结它们的功能
```
### 4. 增量式开发
```text theme={null}
{/* 第一步:生成基础框架 */}
> 创建一个 REST API 的基础结构
{/* 第二步:添加具体功能 */}
> 添加用户认证中间件
{/* 第三步:完善细节 */}
> 添加请求参数验证和错误处理
```
## 故障排除
1. 检查环境变量是否正确设置:
```bash theme={null}
echo $APIYI_API_KEY # macOS/Linux
echo %APIYI_API_KEY% # Windows
```
2. 确认配置文件中的 baseURL:
```json theme={null}
"baseURL": "https://api.apiyi.com/v1"
```
3. 测试 API 连通性:
```bash theme={null}
curl -H "Authorization: Bearer $APIYI_API_KEY" \
https://api.apiyi.com/v1/models
```
确认模型 ID 正确,可在 API易 控制台查看支持的模型列表。
常见模型 ID:
* `claude-sonnet-4-20250514`
* `gpt-4.1`
* `deepseek-chat`
* `gemini-2.5-pro-preview-05-06`
配置文件加载优先级(从低到高):
1. 远程配置(`.well-known/opencode`)
2. 全局配置:`~/.config/opencode/opencode.json`
3. `OPENCODE_CONFIG` 环境变量
4. 项目配置:`opencode.json`
5. `.opencode` 目录配置
6. `OPENCODE_CONFIG_CONTENT` 环境变量
确保配置文件位于正确位置,且 JSON 格式正确。
1. 尝试使用更轻量的模型(如 GPT-4.1 Mini)
2. 减少上下文长度,开启新会话
3. 检查网络连接稳定性
## 最佳实践
### 1. 模型选择策略
| 任务类型 | 推荐模型 | 原因 |
| ------ | --------------- | ------------ |
| 复杂代码生成 | Claude Sonnet 4 | 编程能力强,上下文理解好 |
| 代码审查 | GPT-4.1 | 分析能力强,细节把控好 |
| 快速问答 | DeepSeek V3 | 响应快,性价比高 |
| 长文档分析 | Gemini 2.5 Pro | 支持超长上下文 |
### 2. 高效提示词
```text theme={null}
❌ 不好的提示:帮我写代码
✅ 好的提示:使用 TypeScript 编写一个 HTTP 中间件,
实现请求日志记录,包含请求方法、路径、
响应时间和状态码,使用 pino 输出
```
### 3. 安全注意事项
* 不要在代码中硬编码 API 密钥
* 使用环境变量管理敏感信息
* 审查 AI 生成的代码,特别是涉及安全的部分
* 注意不要让 AI 执行危险的系统命令
### 4. 成本控制
* 为不同 Agent 配置不同模型(build 用强模型,general 用轻量模型)
* 简单任务使用轻量模型
* 定期查看 API易 控制台监控用量
## 替代方案
如果 OpenCode 不能满足需求,可以考虑以下工具:
Anthropic 官方终端编程助手
OpenAI 官方命令行工具
Google 官方终端编程助手
VS Code AI 编程插件
## 相关资源
管理 API 密钥和查看使用量
查看编程场景模型推荐
# Roo Code (VS Code)
Source: https://docs.apiyi.com/scenarios/programming/roo-code
VS Code 中的 AI 开发团队 - 支持多模式配置的智能编程助手
## 概述
Roo Code 是一款强大的 VS Code AI 编程助手插件,为您提供一个完整的 AI 开发团队。它最大的特色是**多模式配置**,允许针对不同的开发任务使用不同的 AI 模型,实现最佳的开发效率。
**核心优势**
* 🎯 **多模式配置**:为架构、编码、调试等不同任务分配专门的模型
* 🤖 **Agent 智能体**:自动规划和执行复杂的开发任务
* 🔄 **多文件操作**:理解项目结构,智能修改多个文件
* 💰 **完全免费**:开源免费,只需支付 AI 模型使用费用
* 🌐 **广泛兼容**:支持 200+ 主流 AI 模型
* 🔌 **MCP 支持**:通过 Model Context Protocol 连接外部工具
**Roo Code vs Cline**
Roo Code 是 Cline 的一个分支项目,保留了 Cline 的核心功能,同时添加了独特的多模式配置系统。如果您需要为不同开发阶段使用不同模型,Roo Code 是更好的选择。
## 快速安装
### 方式一:VS Code 扩展商店(推荐)
在 VS Code 中按 `Ctrl+Shift+X` (Windows/Linux) 或 `Cmd+Shift+X` (macOS)
搜索 "Roo Code" 并点击安装
**扩展 ID**:`RooVeterinaryInc.roo-cline`
安装完成后,点击左侧活动栏的 Roo Code 图标
### 方式二:Open VSX Registry
访问 [Open VSX Registry](https://open-vsx.org/) 搜索 Roo Code 进行安装。
## 配置 API易
### 基础配置
点击 Roo Code 侧边栏的**齿轮图标**(设置按钮)
在 API Provider 下拉菜单中选择 **OpenAI Compatible**
**Base URL**: `https://api.apiyi.com/v1`
**API Key**: 您的 API易 密钥(格式:`sk-***`)
**Model Name**: 输入您要使用的模型名称
点击保存,Roo Code 会自动验证连接
**Base URL 配置要求**:
* 必须使用 `https://api.apiyi.com/v1`(包含 `/v1` 路径)
* 不要使用 `https://api.apiyi.com`(缺少 `/v1` 会导致连接失败)
### 获取 API易 密钥
登录 `api.apiyi.com`
进入「令牌管理」页面(`api.apiyi.com/token`),点击「创建新令牌」
复制生成的 API Key(格式:`sk-***`),并粘贴到 Roo Code 配置中
## 多模式配置(核心特性)
Roo Code 的独特之处在于可以为不同的开发模式分配不同的 AI 模型,实现专业化分工。
### 五大开发模式
**架构模式** - 用于系统设计和架构规划
**适合模型**:
* Claude Sonnet(推理能力强,擅长架构设计)
* GPT-4o(全面的技术知识)
* DeepSeek V3(深度思考,性价比高)
**典型任务**:
```text theme={null}
设计一个微服务架构的电商系统:
- 用户服务
- 商品服务
- 订单服务
- 支付服务
使用 Docker + Kubernetes 部署
```
**编码模式** - 用于实际代码生成和编写
**适合模型**:
* Claude Sonnet(代码质量高)
* DeepSeek Coder(专业编程模型)
* Qwen Coder(中文注释友好)
**典型任务**:
```text theme={null}
实现用户认证模块:
- JWT token 生成和验证
- 密码加密(bcrypt)
- 登录/注册接口
- 权限中间件
```
**问答模式** - 用于技术咨询和实现规划
**适合模型**:
* GPT-4o-mini(快速响应,成本低)
* Gemini Flash(速度快)
* DeepSeek Chat(性价比高)
**典型任务**:
```text theme={null}
问:如何优化 React 组件的渲染性能?
问:Redux 和 Zustand 的区别是什么?
问:如何处理 Node.js 中的内存泄漏?
```
**调试模式** - 用于错误排查和问题修复
**适合模型**:
* GPT-4o(理解复杂错误)
* Claude Sonnet(代码分析能力强)
* DeepSeek V3(深度分析)
**典型任务**:
```text theme={null}
调试这个错误:
TypeError: Cannot read property 'map' of undefined
帮我找出以下代码中的内存泄漏问题
分析为什么这个异步函数没有正确执行
```
**编排模式** - 用于复杂任务的分解和协调
**适合模型**:
* Claude Opus(处理复杂任务)
* GPT-4o(全局规划能力强)
* DeepSeek V3(逻辑推理)
**典型任务**:
```text theme={null}
将整个项目从 JavaScript 迁移到 TypeScript:
1. 分析现有代码结构
2. 创建类型定义文件
3. 逐步转换各模块
4. 更新配置文件
5. 运行测试验证
```
### 配置多模式
在 Roo Code 设置中找到 **Mode Configuration** 区域
可以为每个模式单独配置:
* API Provider
* Model Name
* Temperature(创造性参数)
* Max Tokens
在 Roo Code 界面中,通过模式选择器切换当前使用的模式
**推荐配置策略**:
* **Architect/Orchestrator** → 使用高质量模型(Claude Sonnet, GPT-4o)
* **Code** → 使用专业编程模型(DeepSeek Coder, Claude Sonnet)
* **Ask** → 使用快速经济模型(GPT-4o-mini, Gemini Flash)
* **Debug** → 使用分析能力强的模型(Claude Sonnet, GPT-4o)
## 推荐模型
Roo Code 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek、国产模型等。
查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
## 核心功能
### Agent 智能体模式
Roo Code 最强大的功能是 **Agent 模式**,AI 可以自主规划和执行复杂任务:
```text theme={null}
任务:创建一个完整的用户认证系统
Roo Code 会自动:
1. 分析需求,制定实现计划
2. 创建必要的文件和目录结构
3. 编写后端 API 代码
4. 创建前端登录/注册页面
5. 添加错误处理和验证
6. 生成单元测试
7. 更新相关文档
```
### 多文件智能编辑
理解项目结构,自动修改多个相关文件:
```text theme={null}
"将所有 API 调用从 axios 改为 fetch,并更新错误处理逻辑"
Roo Code 会:
- 找到所有使用 axios 的文件
- 转换为 fetch API
- 统一错误处理模式
- 更新类型定义(如果使用 TypeScript)
```
### 代码生成
```python Python theme={null}
# 输入描述
"""
创建一个 FastAPI 端点,实现用户注册功能:
- 接收 email 和 password
- 验证邮箱格式
- 密码加密存储
- 返回 JWT token
"""
# Roo Code 自动生成完整实现
from fastapi import APIRouter, HTTPException
from passlib.hash import bcrypt
import jwt
# ... 完整的代码实现
```
```javascript JavaScript theme={null}
// 输入需求
// 创建一个 React Hook 用于管理表单状态
// 支持验证、错误提示、提交处理
// Roo Code 生成
import { useState, useCallback } from 'react';
export function useForm(initialValues, validationRules) {
// ... 完整的 Hook 实现
}
```
```go Go theme={null}
// 需求:实现一个并发安全的缓存
// 支持 Set、Get、Delete、清理过期数据
// Roo Code 生成完整的 Go 代码
package cache
import (
"sync"
"time"
)
type Cache struct {
// ... 完整实现
}
```
### 代码审查和优化
```text theme={null}
审查这个 PR,关注:
- 代码规范
- 性能问题
- 安全漏洞
- 潜在 bug
- 可读性改进
```
Roo Code 会提供详细的审查报告和改进建议。
### 智能重构
```text theme={null}
重构这个函数,要求:
- 提高可读性
- 优化性能
- 添加错误处理
- 改进类型安全
```
### 测试生成
```text theme={null}
为 UserService 类生成完整的单元测试,包括:
- 正常流程测试
- 边界条件测试
- 错误处理测试
- Mock 外部依赖
```
## 常用命令
Roo Code 提供了丰富的命令面板命令:
| 命令 | 快捷键 | 功能 |
| ----------------------- | ---------------- | --------- |
| Roo Code: New Task | `Ctrl+Shift+L` | 开始新任务 |
| Roo Code: Continue | `Enter` | 继续当前任务 |
| Roo Code: Approve | `Ctrl+Enter` | 批准 AI 的更改 |
| Roo Code: Reject | `Ctrl+Backspace` | 拒绝更改 |
| Roo Code: Clear History | - | 清除对话历史 |
| Roo Code: Switch Mode | - | 切换开发模式 |
**快捷键提示**:可以在 VS Code 的键盘快捷方式设置中自定义 Roo Code 的快捷键。
## 高级功能
### API Configuration Profiles
为不同项目或团队创建不同的 API 配置文件:
```json theme={null}
{
"roocode.apiProfiles": {
"production": {
"provider": "OpenAI Compatible",
"baseUrl": "https://api.apiyi.com/v1",
"apiKey": "sk-prod-key",
"defaultModel": "claude-sonnet-4"
},
"development": {
"provider": "OpenAI Compatible",
"baseUrl": "https://api.apiyi.com/v1",
"apiKey": "sk-dev-key",
"defaultModel": "deepseek-chat"
}
}
}
```
### Codebase Indexing
Roo Code 会自动索引您的代码库,理解项目结构:
* 自动发现文件关系
* 理解代码依赖
* 智能上下文感知
* 跨文件引用追踪
### MCP 集成
通过 Model Context Protocol 连接外部工具:
* 数据库查询
* API 调用
* 文件系统操作
* Git 操作
* 自定义工具集成
### 自定义提示词模板
在设置中配置常用的提示词模板:
```json theme={null}
{
"roocode.customTemplates": {
"codeReview": "详细审查代码,关注性能、安全、可维护性",
"optimize": "优化代码性能和可读性,添加必要的注释",
"test": "生成全面的单元测试,覆盖边界情况",
"refactor": "重构代码,遵循 SOLID 原则和设计模式"
}
}
```
## 使用技巧
### 1. 提供清晰的上下文
"优化这个函数"
"优化这个函数的性能,重点关注循环效率和内存使用,添加适当的注释说明优化思路"
### 2. 分步骤执行复杂任务
对于复杂任务,建议分解为多个步骤:
使用 **Architect Mode** 设计整体架构
切换到 **Code Mode** 实现各个模块
使用 **Debug Mode** 排查问题
使用 **Orchestrator Mode** 协调整合
### 3. 利用模式切换
针对不同任务类型切换最合适的模式:
* 需要设计架构?→ Architect Mode
* 写代码实现?→ Code Mode
* 快速咨询?→ Ask Mode
* 遇到 Bug?→ Debug Mode
* 复杂重构?→ Orchestrator Mode
### 4. 审查和批准更改
**重要习惯**:
* 始终审查 AI 生成的代码再批准
* 理解每个更改的目的
* 测试修改后的功能
* 保持代码库的一致性
## 常见问题
**主要区别**:
1. **多模式配置**:Roo Code 的核心特性,Cline 不支持
2. **代码库**:Roo Code 是 Cline 的 Fork,但在独立开发
3. **更新频率**:Roo Code 更新更频繁,功能迭代快
4. **社区**:两者都有活跃的社区,但侧重点不同
**如何选择**:
* 需要多模式?→ Roo Code
* 需要稳定性?→ Cline
* 都可以免费试用,选择最适合自己的
**常见原因和解决方案**:
1. **Base URL 错误**:
* ✅ 正确:`https://api.apiyi.com/v1`
* ❌ 错误:`https://api.apiyi.com`
2. **API Key 无效**:
* 检查 Key 是否正确复制(注意首尾空格)
* 确认账户余额充足
* 验证 Key 状态为「启用」
3. **模型名称错误**:
* 确保使用正确的模型名称
* 参考[模型列表](/api-capabilities/model-info)
4. **网络问题**:
* 检查网络连接
* 尝试重启 VS Code
**配置步骤**:
1. 打开 Roo Code 设置(齿轮图标)
2. 找到 **Mode Configuration** 区域
3. 为每个模式单独设置:
* Architect Mode → `claude-sonnet-4`
* Code Mode → `deepseek-coder`
* Ask Mode → `gpt-4o-mini`
* Debug Mode → `claude-sonnet-4`
* Orchestrator Mode → `gpt-4o`
4. 保存配置
在使用时,通过模式选择器切换即可。
**不会自动修改**,需要您的批准:
1. Roo Code 会先展示建议的更改
2. 您可以:
* 查看 Diff(差异对比)
* 批准(Apply)更改
* 拒绝(Reject)更改
* 修改后再批准
3. 所有更改都在您的控制之下
建议启用版本控制(Git),这样可以随时回退不满意的更改。
**省钱策略**:
1. **智能选择模型**:
* 简单任务用便宜的模型(GPT-4o-mini, DeepSeek)
* 复杂任务才用高级模型(Claude Opus, GPT-4o)
2. **利用多模式配置**:
* Ask Mode → 用最便宜的模型
* Code/Debug Mode → 用中等价位的专业模型
* Architect Mode → 仅在需要时用高级模型
3. **充值优惠**:
* API易 提供充值加赠(10%-22%)
* 查看[充值活动](/faq/recharge-promotions)
4. **控制上下文长度**:
* 清除不必要的对话历史
* 专注当前任务,减少无关上下文
**几乎所有主流编程语言**,包括但不限于:
* **Web**: JavaScript, TypeScript, HTML, CSS, React, Vue, Angular
* **后端**: Python, Java, Go, Rust, C++, C#, PHP, Ruby
* **移动**: Swift, Kotlin, Dart (Flutter), React Native
* **数据**: SQL, R, Julia
* **其他**: Shell, YAML, JSON, Markdown
效果取决于:
* 选择的 AI 模型
* 模型的训练数据
* 语言的流行程度
## 对比其他工具
| 特性 | Roo Code | Cline | Cursor | GitHub Copilot |
| ------------ | -------- | ----- | ------ | -------------- |
| **多模式配置** | ✅ | ❌ | ❌ | ❌ |
| **Agent 模式** | ✅ | ✅ | ❌ | ❌ |
| **多文件编辑** | ✅ | ✅ | 部分 | ❌ |
| **自定义 API** | ✅ | ✅ | ✅ | ❌ |
| **免费开源** | ✅ | ✅ | ❌ | ❌ |
| **模型选择** | 200+ | 200+ | 有限 | GitHub 独家 |
| **学习曲线** | 中等 | 中等 | 低 | 低 |
**选择建议**:
* **需要多模式配置** → Roo Code
* **需要稳定成熟** → Cline
* **需要简单易用** → Cursor
* **GitHub 深度集成** → GitHub Copilot
## 价格说明
Roo Code 插件本身**完全免费**,您只需支付 AI 模型的使用费用。
通过 API易 使用 AI 模型的费用取决于您选择的模型和使用量。
查看所有模型的详细定价和性价比对比
API易 提供充值优惠:充值越多,加赠比例越高(10%-22%)。首次充值还可获得额外加赠。查看 [充值活动详情](/faq/recharge-promotions)。
## 相关资源
* [Roo Code 官方网站](https://roo-code.net/)
* [Roo Code 官方文档](https://docs.roocode.com/)
* [GitHub 仓库](https://github.com/RooCodeInc/Roo-Code)
* [VS Code 扩展商店](https://marketplace.visualstudio.com/items?itemName=RooVeterinaryInc.roo-cline)
* [API易 快速开始](/quickstart)
* [模型推荐和价格](/api-capabilities/model-info)
## 获取帮助
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
配置问题、使用指导
**客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com)
**商务合作**:[business@apiyi.com](mailto:business@apiyi.com)
**快速上手**:按照本文的「快速安装」和「配置 API易」章节,5 分钟即可开始使用 Roo Code 进行 AI 辅助编程!
# Bob 翻译
Source: https://docs.apiyi.com/scenarios/translation/bob
macOS 上的专业翻译工具集成指南
# Bob 翻译
Bob 是 macOS 上一款优秀的翻译软件,支持划词翻译、截图翻译等功能。通过集成 API易,您可以使用 AI 模型提供更准确、更自然的翻译结果。
## 快速配置
### 1. 安装 Bob
从 [Bob 官网](https://bobtranslate.com) 下载并安装最新版本。
### 2. 配置 API易
1. 打开 Bob 设置(菜单栏图标 > 偏好设置)
2. 切换到"服务"标签页
3. 添加 OpenAI 翻译服务
4. 配置参数:
* **API Key**:您的 API易 密钥
* **API URL**:`https://api.apiyi.com`
* **模型**:`gpt-3.5-turbo`
### 3. 测试配置
点击"测试"按钮验证配置,显示成功后保存。
## 使用方法
### 划词翻译
1. 选中需要翻译的文本
2. 按下快捷键(默认 `⌥ + D`)
3. Bob 弹出翻译结果
### 截图翻译
1. 按下截图快捷键(默认 `⌥ + S`)
2. 框选需要翻译的区域
3. Bob 识别并翻译图片中的文字
### 输入翻译
1. 调出 Bob 窗口(默认 `⌥ + Space`)
2. 输入或粘贴要翻译的文本
3. 选择目标语言
4. 查看翻译结果
## 模型选择
### 不同场景的推荐
查看最新的模型推荐,了解适合不同翻译场景的最佳模型选择,包括日常翻译、专业文档、长文本处理等。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
### 多模型配置
可以配置多个翻译服务,使用不同模型:
1. 添加多个 OpenAI 翻译服务
2. 为每个服务配置不同模型
3. 在翻译时选择使用
## 高级设置
### 自定义提示词
优化翻译质量的提示词模板:
```text theme={null}
你是一位专业的翻译专家,精通多国语言。请将以下{source_lang}文本翻译成{target_lang}。
要求:
1. 保持原文的语气和风格
2. 使用地道的表达方式
3. 对于专业术语,在翻译后用括号标注原文
4. 注意文化差异,适当调整表达
原文:{text}
```
### 快捷键自定义
在设置 > 通用中自定义:
* **划词翻译**:`⌥ + D`
* **截图翻译**:`⌥ + S`
* **输入翻译**:`⌥ + Space`
* **显示/隐藏**:`⌥ + B`
### 翻译行为设置
推荐配置:
* **自动识别语言**:开启
* **翻译后自动复制**:根据需求
* **保留原文格式**:开启
* **历史记录**:开启
## 使用技巧
### 1. 专业领域翻译
针对特定领域,可以在提示词中说明:
```text theme={null}
请作为计算机专业译者,翻译以下技术文档。
保留所有技术术语的英文,用括号标注中文含义。
```
### 2. 批量翻译
需要翻译大量文本时:
1. 使用输入翻译模式
2. 将文本分段粘贴
3. 利用历史记录查看所有翻译
### 3. 对照阅读
阅读外文资料时:
1. 开启"显示原文"选项
2. 使用划词翻译实时查看
3. 对比原文和译文学习
### 4. 术语库管理
建立个人术语库:
1. 收藏常用术语翻译
2. 自定义特定词汇翻译
3. 导出术语库备份
## 常见问题
### 翻译速度慢
**原因分析:**
* 网络连接问题
* 选择的模型较大
* API 服务繁忙
**解决方案:**
1. 检查网络连接
2. 使用 gpt-3.5-turbo 等快速模型
3. 避开高峰时段
### 翻译不准确
**改进方法:**
1. 使用更高级的模型(如 GPT-4)
2. 优化提示词,提供更多上下文
3. 对专业内容说明领域
### API 配额用尽
**处理方式:**
1. 检查 API易 账户余额
2. 合理使用不同模型控制成本
3. 设置每日使用限制
## 最佳实践
### 1. 成本控制
* 日常翻译使用 gpt-3.5-turbo
* 重要文档才使用 gpt-4
* 定期查看使用统计
### 2. 翻译质量
* 提供充足的上下文
* 使用专业术语时说明领域
* 对重要内容进行二次校对
### 3. 工作流优化
* 设置常用语言对
* 自定义专业领域提示词
* 善用历史记录和收藏功能
### 4. 数据安全
* 不翻译包含敏感信息的文本
* 定期清理翻译历史
* 妥善保管 API 密钥
## 进阶功能
### URL Scheme 集成
Bob 支持通过 URL Scheme 集成到其他应用:
```bash theme={null}
# 直接翻译文本
bob://translate?text=Hello&from=en&to=zh
# 打开 Bob 窗口
bob://open
```
### AppleScript 自动化
```applescript theme={null}
tell application "Bob"
translate "Hello World" from "en" to "zh"
end tell
```
### 导出功能
定期导出翻译记录:
1. 进入历史记录
2. 选择时间范围
3. 导出为 CSV 或 JSON 格式
## 与其他工具集成
### Raycast 集成
通过 Raycast 扩展快速调用 Bob:
```javascript theme={null}
// Raycast 脚本示例
import { showToast, Toast } from "@raycast/api";
import { exec } from "child_process";
export default async function Command() {
exec("open bob://translate", (error) => {
if (error) {
showToast(Toast.Style.Failure, "启动 Bob 失败");
}
});
}
```
### Alfred 工作流
创建 Alfred 工作流实现快速翻译:
1. 创建新工作流
2. 添加 Keyword 触发器
3. 连接 Run Script 动作
4. 调用 Bob 的 URL Scheme
### PopClip 扩展
安装 PopClip 的 Bob 扩展,选中文本后直接翻译。
## 故障排除
### 服务不可用
检查项目:
1. API 密钥是否正确
2. 网络连接是否正常
3. API易 服务状态
### 快捷键冲突
解决方法:
1. 在系统偏好设置中检查快捷键冲突
2. 为 Bob 设置独特的快捷键组合
3. 禁用冲突应用的快捷键
### 权限问题
确保 Bob 具有必要权限:
* 辅助功能权限
* 屏幕录制权限(截图翻译)
* 键盘输入权限
## 性能优化
### 减少延迟
1. 使用更快的模型
2. 启用本地缓存
3. 优化网络设置
### 节省资源
1. 合理设置翻译历史保留时间
2. 定期清理缓存
3. 避免同时运行多个翻译服务
### 提升体验
1. 调整弹窗显示时间
2. 自定义界面主题
3. 优化字体大小和样式
需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/bob-translator)。
# 沉浸式翻译
Source: https://docs.apiyi.com/scenarios/translation/immersive
浏览器双语对照阅读扩展集成指南
# 沉浸式翻译
沉浸式翻译是一款优秀的浏览器翻译扩展,支持网页双语对照阅读。通过集成 API易,您可以使用强大的 AI 模型获得更准确、更自然的翻译效果。
## 快速安装
### 支持的浏览器
* Chrome / Edge / Brave
* Firefox
* Safari
### 安装步骤
1. 访问对应浏览器的扩展商店
2. 搜索"沉浸式翻译"或"Immersive Translate"
3. 点击安装并添加到浏览器
或访问 [官网](https://immersive-translate.owenyoung.com/) 获取安装链接。
## 配置 API易
### 1. 打开设置
点击浏览器工具栏的扩展图标,选择"设置"。
### 2. 配置翻译服务
1. 在左侧菜单选择"翻译服务"
2. 找到"OpenAI"服务
3. 点击"管理"或"设置"
4. 选择"自定义 API Key"
### 3. 填写配置
* **APIKEY**:输入您的 API易 密钥
* **自定义 API 接口地址**:`https://api.apiyi.com/v1/chat/completions`
* **自定义模型**:`gpt-3.5-turbo`(可选)
## 核心功能
### 网页翻译
#### 自动翻译
1. 访问外文网页
2. 扩展自动检测语言
3. 点击翻译按钮开始
#### 手动翻译
1. 点击工具栏扩展图标
2. 选择"翻译本页"
3. 等待翻译完成
### 翻译模式
#### 双语对照(推荐)
* 保留原文格式
* 译文显示在原文下方
* 便于对照学习
#### 仅译文
* 完全替换原文
* 适合快速阅读
* 可随时切换回双语
### 划词翻译
1. 选中需要翻译的文本
2. 点击出现的翻译按钮
3. 在弹窗中查看翻译结果
## 高级设置
### 自定义提示词
针对不同内容类型的提示词:
#### 技术文档
```text theme={null}
作为技术文档翻译专家,请:
1. 保留所有技术术语的原文
2. 在括号中提供中文解释
3. 保持代码和命令的原始格式
```
#### 学术论文
```text theme={null}
作为学术翻译专家,请:
1. 使用学术规范的表达方式
2. 保留引用格式
3. 准确翻译专业术语
```
#### 文学作品
```text theme={null}
作为文学翻译专家,请:
1. 保持原文的文学美感
2. 注意文化背景的转换
3. 保留修辞手法的效果
```
### 翻译规则
设置特定网站的翻译行为:
1. 进入"翻译规则"设置
2. 添加网站域名
3. 选择行为:
* 总是翻译
* 从不翻译
* 智能判断
### 样式定制
自定义译文显示样式:
```css theme={null}
/* 译文字体 */
.immersive-translate-target {
font-family: "Microsoft YaHei", sans-serif;
font-size: 14px;
color: #333;
}
/* 译文背景 */
.immersive-translate-target-wrapper {
background-color: #f5f5f5;
padding: 5px;
margin: 5px 0;
border-radius: 3px;
}
```
## 特色功能
### PDF 翻译
支持在线 PDF 文档翻译:
* 保持 PDF 格式
* 支持双语对照
* 可复制译文
### 视频字幕翻译
支持主流视频网站:
* YouTube
* Netflix
* Bilibili
配置方法:
1. 开启"视频字幕翻译"
2. 选择字幕显示方式
3. 调整字幕样式
### 电子书翻译
支持 EPUB 电子书:
1. 上传 EPUB 文件
2. 选择翻译设置
3. 下载双语版本
### 输入框翻译
在网页输入框中实时翻译:
1. 在输入框输入文本
2. 按快捷键触发翻译
3. 查看翻译建议
## 快捷键
常用快捷键(可自定义):
| 功能 | 默认快捷键 |
| ------- | --------- |
| 翻译/显示原文 | `Alt + T` |
| 切换翻译模式 | `Alt + M` |
| 翻译选中文本 | `Alt + S` |
| 打开设置 | `Alt + O` |
## 模型选择建议
### 按内容类型选择
查看最新的模型推荐,了解适合不同翻译场景和内容类型的最佳模型选择,包括技术文档、学术论文、文学作品等。
**为什么不在此列出具体模型?**
AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。
### 性能与质量平衡
根据文本长度和内容类型,可以在沉浸式翻译的设置中灵活选择合适的模型,以达到翻译质量和成本的最佳平衡。
## 性能优化
### 缓存设置
* 开启翻译缓存
* 设置缓存时长:24小时
* 定期清理缓存
### 批量翻译
* 调整批量大小:5-10 段落
* 设置合理并发数:2-3
* 优化长文本处理
### 触发条件
* 最小翻译长度:10 个字符
* 忽略特定元素:导航菜单、广告
* 延迟翻译:200ms
## 常见问题
### 翻译失败
**可能原因:**
* API 密钥无效
* 网络连接问题
* 页面结构特殊
**解决方案:**
1. 验证 API 密钥
2. 检查网络连接
3. 尝试刷新页面
4. 查看浏览器控制台错误
### 翻译速度慢
**优化方法:**
1. 使用更快的模型
2. 减少单次翻译文本量
3. 开启缓存功能
4. 检查网络延迟
### 格式错乱
**处理方式:**
1. 尝试不同翻译模式
2. 调整译文显示设置
3. 针对特定网站自定义规则
4. 反馈问题给开发者
## 最佳实践
### 1. 阅读体验优化
* 选择合适的字体和大小
* 调整译文颜色对比度
* 设置舒适的行间距
* 使用护眼模式
### 2. 学习辅助
* 开启双语对照模式
* 使用划词翻译查询生词
* 导出翻译内容复习
* 添加笔记和标注
### 3. 工作效率
* 设置常访问网站规则
* 自定义专业领域提示词
* 使用快捷键提高速度
* 批量处理文档
### 4. 成本控制
* 合理选择翻译模型
* 设置翻译长度限制
* 利用缓存减少重复翻译
* 监控 API 使用量
## 高级技巧
### 自定义翻译脚本
使用 JavaScript 增强功能:
```javascript theme={null}
// 自动检测并翻译特定内容
if (document.querySelector('.article-content')) {
window.immersiveTranslate.translate({
selector: '.article-content',
fromLang: 'auto',
toLang: 'zh-CN'
});
}
```
### 集成其他工具
与其他工具配合使用:
* **Readwise**:保存翻译的精彩内容
* **Notion**:导出翻译笔记
* **Anki**:制作单词卡片
### 开发者模式
参与翻译改进:
1. 开启调试模式
2. 提供翻译反馈
3. 贡献翻译语料
4. 参与开源开发
## 故障排除指南
### 扩展无法加载
1. 检查浏览器版本兼容性
2. 禁用其他冲突扩展
3. 清除浏览器缓存
4. 重新安装扩展
### 翻译结果不显示
1. 检查网页是否支持翻译
2. 确认翻译服务配置正确
3. 查看是否被广告拦截器阻止
4. 尝试其他翻译服务
### 内存占用过高
1. 定期清理翻译缓存
2. 减少同时翻译的页面数
3. 调整批量翻译设置
4. 关闭不必要的标签页
需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/immersive-translate)。
# Chat Completions
Source: https://docs.apiyi.com/api-reference/chat/chat-completions
/api-reference/apiyi-openapi-en.yaml post /v1/chat/completions
Core chat interface, compatible with the OpenAI Chat Completions API format.
Supports 200+ AI models — just change the `model` parameter to switch between providers, with no other code changes needed.
**Supported providers**: OpenAI, Anthropic, Google, xAI, DeepSeek, Alibaba, Moonshot, and more.
**Note**: Streaming output (stream: true) cannot be previewed in the Playground. Use an SDK to test.
# Create Embeddings
Source: https://docs.apiyi.com/api-reference/embeddings/create-embeddings
/api-reference/apiyi-openapi-en.yaml post /v1/embeddings
Convert text into vector representations (embeddings) for use in semantic search, text clustering, recommendation systems, and more.
Supports single text or batch text input.
# List Models
Source: https://docs.apiyi.com/api-reference/models/list-models
/api-reference/apiyi-openapi-en.yaml get /v1/models
Retrieve the list of all currently available models.
The returned list includes model ID, creation time, owner, and other information. Can be used to check if a specific model is available.
# 网站公告
Source: https://docs.apiyi.com/changelog
API易最新动态、模型更新、价格调整等重要公告
欢迎来到 API易 的更新日志页面。在这里,您可以了解到我们的最新模型上线、价格调整、功能更新等重要信息。我们致力于为您提供最优质、最具性价比的 AI 服务。
**收藏更新**:Ctrl+D 收藏本网页,查看我们的公告,第一时间获取模型上新和优惠信息,不错过任何重要更新!
## 🔥 最新动态
最近更新的重要内容:
* **5/3 Grok 4.3 上线** xAI 全新旗舰模型!Intelligence Index 53、GDPval-AA ELO 1500(+321)、τ²-Bench 98%、IFBench 81%,1M 上下文 + 多模态 + 159 t/s。挂牌 \$1.25/\$2.50 每 1M tokens(输入降 37.5%、输出降 58.3% vs Grok 4.20),阶梯计费 0-200K 标准价、200K-∞ 2x。**Default、SVIP 等常用分组全开放**,充值赠 10% 约官网 85 折!
* **5/3 GPT-5.5 Pro 上线** OpenAI 当前最强推理模型!Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9%,1.05M 上下文 + 128K 输出。阶梯计费 0-272K \$30/\$180、272K-∞ \$60/\$270 每 1M tokens。**仅 SVIP 分组开放**,单次调用可能数美金,未对 Default 默认分组开放,防止误用!
* **4/28 Qwen3.6 开源双模上线** API易官转托管 · 免租卡!`qwen3.6-27b`(27B 稠密,编程对标 397B)+ `qwen3.6-35b-a3b`(与闭源 Flash 同源 MoE)开源权重接入 API易:按量付费 Chat 平价不分档,27b \$0.42/\$2.52、35b-a3b \$0.26/\$1.56 每 1M tokens,免去客户租 GPU、运维推理框架!
* **4/27 Qwen3.6-Max-Preview / Flash 上线** 阿里云官转双模上架!Max-Preview 在 SWE-bench Pro / Terminal-Bench 2.0 等 6 项编程基准登顶(AIME 2025 93%、GPQA 86%),Flash 35B-A3B MoE 支持 1M 多模态上下文。挂牌 Max \$1.28/\$7.68、Flash \$0.17/\$1.02 每 1M tokens,定价持平官网,叠加充值活动约 8.5 折!
* **4/25 GPT-5.5 官转上线** OpenAI 最新前沿模型!SWE-bench Verified 88.7%、幻觉率较 GPT-5.4 降低 60%,reasoning.effort 新增 `xhigh` 档(共 none/low/medium/high/xhigh 五档),1.05M 上下文 + 128K 输出。定价持平官网:\$5 输入 / \$30 输出 / \$0.50 缓存输入,每百万 tokens!
* **4/25 Kimi K2.6 上线** 月之暗面开源旗舰!1T MoE / 32B 激活,256K 上下文,SWE-Bench Pro 58.6 反超 GPT-5.4 与 Claude Opus 4.6。华为云官转 \$0.60 输入 / \$2.40 输出(每 1M tokens),约官网 6 折,支持 Function Call 与前缀续写!
* **4/24 DeepSeek V4 双模型上线** Pro(1.6T/49B 激活)与 Flash(284B/13B 激活)!1M 上下文 + Hybrid Attention 架构,Agentic Coding 开源 SOTA、SWE-Verified 80.6 接近 Claude/Gemini,Flash 仅 \$0.14/M 输入,官方同价叠加约 85 折!
* **4/23 gpt-image-2 上线** OpenAI 旗舰图像生成模型!原生 2K/4K(最大 3840×2160)任意分辨率,参考图自动高保真,同档降价 20-30%,OpenAI SDK 零改动直连!
* **4/22 gpt-image-2-all 上线** GPT 图像生成官逆模型!统一 \$0.03/张按次计费,约 30 秒出图,支持文生图 / 多图融合 / 自然语言改图,文字还原度高、中文提示词原生友好!
* **4/20 Nano Banana 2 按量计费微调** 输入 \$0.14→\$0.18/M tokens,输出 \$16.80→\$21.6/M tokens,官方折扣提升至 36%,可叠加充值活动送 20% 额度!
* **4/17 Claude Opus 4.7 上线** Anthropic 最新旗舰模型!93 任务编程基准较 Opus 4.6 +13%,Rakuten-SWE-Bench 生产任务 3 倍,工具错误降至 1/3,新增 xhigh 推理档位,价格持平!
* **4/14 Nano Banana Pro 价格调整 + 企业高可用分组** 因谷歌资源政策调整,Nano Banana Pro 价格上调至 \$0.09/次,新增 `NanoBananaEnterprise` 高可用兜底分组(1.4x 倍率)!
* **4/9 GLM-5.1 上线** 智谱开源最强编程 Agent 模型!SWE-Bench Pro 58.4 击败 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,744B MoE,200K 上下文,支持 8 小时长程任务,MIT 协议开源!
* **4/6 Qwen3.6-Plus 上线** 阿里千问最强编程 Agent 模型!MoE 72B 参数仅 18B 有效计算,Terminal-Bench 61.6 超越 Claude Opus 4.5,100 万上下文,始终开启思维链!
* **3/31 Gemini Embedding 2 Preview 上线** 谷歌首个原生多模态嵌入模型!MTEB 英文榜首 68.32,支持文本/图片/视频/音频/PDF 五模态统一向量,文本仅 \$0.20/百万 tokens!
* **3/30 Seed 2.0 Pro 旗舰版上线** 字节跳动最强推理模型!AIME 2025 达 98.3,Codeforces 3020,Agent 能力出色,价格仅 GPT-5.2 的 1/4~1/6!
* **3/24 MiniMax-M2.7 系列上线** 最小 Tier-1 模型!10B 参数 SWE-bench Pro 56.22%,自进化能力,标准版 \$0.3 / highspeed 版 \$0.6 每百万输入 tokens!
* **3/22 MiMo-V2 系列上线** 小米万亿参数模型!Pro 版性能逼近 Opus 4.6 价格仅 1/6,Omni 版支持文本/图片/视频/音频四模态!
* **3/20 Grok 4.20 Beta 系列上线** xAI 最新 4 款模型!含推理、多智能体、基础及非推理版本,统一定价 \$2/\$6 每百万 tokens!
* **3/18 GPT-5.4 Mini / Nano 上线** OpenAI 最强轻量级模型!Mini 速度翻倍接近旗舰水准,Nano 仅 \$0.20/百万输入 tokens,适合 OpenClaw 等场景!
* **3/8 Seed 2.0 Lite 上线** 字节跳动高性价比企业级模型!性能超越 Seed 1.8,支持图片/视频/文本多模态输入,适合大规模生产场景!
* **3/6 GPT-5.4 / GPT-5.4 Pro 上线** OpenAI 最强旗舰模型!原生计算机使用+深度研究,定价与官网一致,充值加赠 10% 起!
* **3/5 Gemini 3.1 Flash Lite Preview 上线** 谷歌最新轻量级模型!专为代理任务优化,100万上下文,多模态输入,官方直连!
* **3/4 GPT-5.3 Chat 上线** OpenAI 最新聊天模型!幻觉率降低 26.8%,对话更自然,官方直连通道接入!
* **3/1 模型名称后缀 -c 说明** 带 -c 后缀的模型是按次计费版本,与无后缀版本能力完全相同\~
* **3/1 Nano Banana 2 价格调整** 按次计费 \$0.055/次,新增按量计费(低至官网28%),512px 低至 \$0.025/张!
* **2/27 Nano Banana 2** 谷歌最新图像生成模型!Pro级画质+Flash级速度,14种宽高比,图像搜索Grounding!
* **1/25 Sora 2 官转分组** OpenAI 官方 API 透明转发上线!99.99% 稳定性,按秒计费(\$0.1/秒起),支持图生视频!
* **12/18 Gemini 3 Flash Preview** 谷歌最新高性能快速模型!SWE-bench 78% 超越 3 Pro,速度快 3 倍,MMMU-Pro 81.2% 击败所有竞品!
* **12/17 GPT Image 1.5** OpenAI 最新图片生成模型!4倍速度提升,精准编辑保持细节一致,文本渲染大幅增强!
* **12/11 GPT-5.2 系列** OpenAI 推出三大版本反击 Gemini 3!ARC-AGI-1 达 90%,首个突破该阈值,成本降低 390 倍!
* **12/04 SeeDream 4.5** BytePlus火山方舟最强 4K 图像生成模型!12亿参数,文本渲染大幅提升,支持10张参考图像,\$0.035/张!
* **11/25 Claude Opus 4.5** Anthropic 最新旗舰模型!SWE-bench 80.9% 超越所有竞品,价格降至前代 1/3,支持 Claude Code!
* **11/20 Nano Banana Pro (Gemini 3 Pro Image Preview)** 谷歌最新图像生成模型!支持 4K 高清出图,强大文本渲染,局部编辑能力!
* **11/20 Gemini 3 Pro Preview** 谷歌最新多模态智能模型!LMArena 1501 Elo 第一,100万上下文,支持思维链输出!
* **11/14 GPT-5.1 全系列** OpenAI 最新迭代版本!智能与速度平衡,SWE-bench 76.3%,缓存 24 小时!
## 📅 2026年5月
### 🌟 Grok 4.3 上线:xAI 全新旗舰,输入降 37.5% / 输出降 58.3%
**2026年5月3日**
xAI 全新旗舰 `grok-4.3` 通过官方直转上线!Intelligence Index 53、GDPval-AA ELO 1500(+321)、τ²-Bench 98%、IFBench 81%,1M 上下文 + 多模态 + 159 t/s 极速输出。挂牌 \$1.25/\$2.50 每 1M tokens,阶梯计费 200K 后翻倍。**Default、SVIP 等常用分组全开放**,充值赠 10% 约官网 85 折。
📖 [查看详情](/news/grok-4-3-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 GPT-5.5 Pro 上线:OpenAI 当前最强推理模型
**2026年5月3日**
OpenAI 旗舰推理版本 `gpt-5.5-pro` 通过官方直转通道上线!Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9%,1.05M 上下文 + 128K 输出。阶梯计费:0-272K 区间 \$30/\$180、272K-∞ 区间 \$60/\$270 每 1M tokens。**仅 SVIP 分组开放**,未对 Default 默认分组开放——单次调用可能数美金,防止误用。
📖 [查看详情](/news/gpt-5-5-pro-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
## 📅 2026年4月
### 🌟 Qwen3.6 开源双模上线:API易官转托管 · 免租卡
**2026年4月28日**
Qwen3.6 系列扩展为 5 模型!新增 `qwen3.6-27b`(27B 稠密,编程能力对标 397B 量级模型)与 `qwen3.6-35b-a3b`(与闭源 Flash 同源 MoE / 3B 激活)两款开源权重模型,由 API易 官转托管。按量付费 Chat 平价不分档:27b \$0.42/\$2.52、35b-a3b \$0.26/\$1.56 每 1M tokens,免去客户租 GPU、买算力、运维推理框架的负担。
📖 [查看详情](/news/qwen-3-6-opensource-launch) | 🔗 [系列概览](/api-capabilities/qwen-3-6/overview)
### 🌟 Qwen3.6-Max-Preview / Flash 上线:阿里云官转双模
**2026年4月27日**
通义千问 `qwen3.6-max-preview` 与 `qwen3.6-flash` 通过阿里云官转上线!Max-Preview 在 SWE-bench Pro 等 6 项编程基准登顶(AIME 2025 93%、GPQA 86%),Flash 35B-A3B MoE 支持 1M 多模态上下文。挂牌 Max \$1.28/\$7.68、Flash \$0.17/\$1.02 每 1M tokens,持平官网,充值活动叠加约 8.5 折。
📖 [查看详情](/news/qwen-3-6-max-flash-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 GPT-5.5 官转上线:xhigh 推理新档位
**2026年4月25日**
OpenAI 最新前沿模型 `gpt-5.5` 通过官方直转通道上线!SWE-bench Verified 88.7%、幻觉率较 GPT-5.4 降低 60%,reasoning.effort 新增 `xhigh` 档(共 none/low/medium/high/xhigh 五档),1.05M 上下文 + 128K 输出。定价持平官网:\$5 输入 / \$30 输出 / \$0.50 缓存输入,每百万 tokens。
📖 [查看详情](/news/gpt-5-5-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 Kimi K2.6 上线:开源旗舰 Agent 编程登顶
**2026年4月25日**
月之暗面 Kimi K2.6 通过华为云官转上线!1T MoE / 32B 激活、256K 上下文,SWE-Bench Pro 58.6 反超 GPT-5.4 与 Claude Opus 4.6,支持 Function Call 与前缀续写。挂牌 \$0.60 输入 / \$2.40 输出,相比官网 6.5 / 27 元约 6 折。
📖 [查看详情](/news/kimi-k2-6-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 DeepSeek V4-Pro / V4-Flash 上线:百万上下文 + 开源 SOTA
**2026年4月24日**
DeepSeek 时隔一年发布 V4 预览版!Pro(1.6T/49B 激活)与 Flash(284B/13B 激活)双模型均 1M 上下文 + Hybrid Attention 架构,Agentic Coding 达开源 SOTA、SWE-Verified 80.6 接近 Claude/Gemini。官方同价,Flash 仅 \$0.14 输入 / \$0.28 输出 每 1M tokens,叠加充值活动约 85 折。
📖 [查看详情](/news/deepseek-v4-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 gpt-image-2 上线:原生 4K + 同档降价 30%
**2026年4月23日**
OpenAI 旗舰图像生成模型 `gpt-image-2` 正式上线!原生支持任意合法分辨率(含 2K / 3840×2160 4K),参考图编辑自动启用高保真,同尺寸同画质成本较 `gpt-image-1.5` 降低 20-30%。OpenAI SDK 把 `base_url` 指向 `api.apiyi.com/v1` 即可零改动直连,适合大图物料生产与角色一致性二创。
📖 [查看详情](/news/gpt-image-2-launch) | 🔗 [接入文档](/knowledge-base/gpt-image-2-API-for-user)
### 🌟 gpt-image-2-all 上线:\$0.03/张 GPT 官逆图像模型
**2026年4月22日**
GPT 图像生成官逆模型正式上线!统一 **\$0.03/张** 按次计费、约 30 秒出图,支持文生图、多图融合编辑、自然语言改图。中文提示词原生友好、文字还原度高,尺寸通过 prompt 描述(不接受 size/n/quality 参数),适合中文营销物料与信息图大规模生产。
📖 [查看详情](/news/gpt-image-2-all-launch) | 🔗 [模型介绍](/api-capabilities/gpt-image-2-all/overview)
### 💰 Nano Banana 2 按量计费微调
**2026年4月20日**
因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后小幅调整 Nano Banana 2 按量计费价格:输入 \$0.14→\$0.18/M tokens,输出 \$16.80→\$21.6/M tokens,官方折扣同步提升至 36%。基数小上涨幅度可控,可叠加充值活动最多送 20% 额度,适合日常消费。
🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 Claude Opus 4.7 上线:不加价的编程与 Agent 升级
**2026年4月17日**
Anthropic 最新旗舰 Claude Opus 4.7 正式上线!93 任务编程基准较 Opus 4.6 +13%,Rakuten-SWE-Bench 生产任务 3 倍,多步工作流 +14% 且工具错误降至 1/3,新增 xhigh 推理档位,价格维持 \$5/\$25 每百万 tokens。同步支持 `claude-opus-4-7-thinking` 深度推理版。
📖 [查看详情](/news/claude-opus-4-7-launch) | 🔗 [充值优惠](/faq/recharge-promotions)
### 💰 Nano Banana Pro 价格调整 & 新增企业高可用分组
**2026年4月14日**
因谷歌官方资源政策调整,Nano Banana Pro(`gemini-3-pro-image-preview`)价格从 \$0.05 调整为 \$0.09/次。同步新增 `NanoBananaEnterprise` 企业高可用分组(倍率 1.4x),作为兜底保障稳定不断供。充值 \$100 起赠送 10%,叠加活动可进一步降低成本。
📖 最佳实践:默认分组 Default + 兜底分组 NanoBananaEnterprise | 🔗 [充值优惠](/faq/recharge-promotions)
### 🌟 GLM-5.1 上线:智谱开源最强编程 Agent 模型
**2026年4月9日**
智谱 Z.AI 旗舰开源模型上线!SWE-Bench Pro 58.4 击败 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,开源模型登顶。744B MoE 架构 / 256 专家 / 激活 8 个,200K 上下文,支持长达 8 小时长程编程任务,MIT 协议开源。
📖 [查看详情](/news/glm-5-1-launch)
### 🌟 Qwen3.6-Plus 上线:阿里千问最强编程 Agent 模型
**2026年4月6日**
阿里通义千问3.6系列首款模型上线!MoE 架构 72B 参数(仅 18B 有效计算),Terminal-Bench 61.6 超越 Claude Opus 4.5,SWE-bench 78.8,100 万 Token 上下文 + 始终开启思维链推理,编程 Agent 能力国产第一。
📖 [查看详情](/news/qwen-3-6-plus-launch)
## 📅 2026年3月
### 🌟 Gemini Embedding 2 Preview 上线
**2026年3月31日**
谷歌首个原生多模态嵌入模型上线!支持文本/图片/视频/音频/PDF 五种模态统一向量空间,MTEB 英文榜首 68.32 分,3072 维 MRL 灵活降维,文本仅 \$0.20/百万 tokens。
📖 [查看详情](/news/gemini-embedding-2-preview-launch)
### 🌟 Seed 2.0 Pro 旗舰版上线
**2026年3月30日**
字节跳动 Seed 2.0 Pro 旗舰推理模型正式上线!AIME 2025 达 98.3,Codeforces 3020(无工具),SWE-Bench 76.5%,强大 Agent 工作流能力。输入约 \$0.47/百万 tokens,相比 GPT-5.2 便宜约 4-6 倍。
📖 [查看详情](/news/seed-2-0-pro-launch)
### 🌟 MiniMax-M2.7 / M2.7-highspeed 上线
**2026年3月24日**
MiniMax 自进化智能体模型 M2.7 系列正式上线!仅 10B 活跃参数即达 Tier-1 性能,SWE-bench Pro 56.22%,Artificial Analysis 智能指数 50。标准版输入 \$0.30 / 输出 \$1.20,highspeed 版输入 \$0.60 / 输出 \$2.40 每百万 tokens,两版输出质量完全一致。
📖 [查看详情](/news/minimax-m2-7-launch)
### 🌟 MiMo-V2-Pro / MiMo-V2-Omni 上线
**2026年3月22日**
小米 MiMo-V2 系列正式上线!MiMo-V2-Pro 万亿参数推理模型,AA 智能指数 49(全球第 8),ClawEval 61.5 逼近 Opus 4.6,输入仅 \$1/百万 tokens(约为竞品 1/6)。MiMo-V2-Omni 全模态理解模型,支持文本/图片/视频/音频输入,输入仅 \$0.40/百万 tokens。
📖 [查看详情](/news/mimo-v2-launch)
### 🌟 Grok 4.20 Beta 系列 4 款新模型上线
**2026年3月20日**
xAI 最新 Grok 4.20 Beta 系列 4 款模型全部上线!包括 `grok-4.20-beta-0309-reasoning`(推理)、`grok-4.20-multi-agent-beta-0309`(多智能体)、`grok-4.20-beta`(基础)、`grok-4.20-beta-0309-non-reasoning`(非推理),统一定价输入 \$2 / 输出 \$6 每百万 tokens。
📖 [查看详情](/news/grok-4-20-beta-launch)
### 🌟 GPT-5.4 Mini / GPT-5.4 Nano 轻量双模型上线
**2026年3月18日**
OpenAI 轻量级高性价比模型 GPT-5.4 Mini 和 GPT-5.4 Nano 正式上线!Mini 速度比 GPT-5 Mini 快 2 倍以上,SWE-Bench Pro 54.4% 接近旗舰水准;Nano 输入仅 \$0.20/百万 tokens,极致性价比。定价与官网一致,官转 API 充值约 9 折起,也适合在 OpenClaw 等场景下使用。
📖 [查看详情](/news/gpt-5-4-mini-nano-launch) | 🔗 [API文档](/api-capabilities/openai-sdk)
### 🌟 ByteDance Seed 2.0 Lite 新模型上线
**2026年3月8日**
字节跳动高性价比企业级模型上线!整体性能超越上一代 Seed 1.8,支持图片/视频/文本多模态输入、长上下文处理和高保真结构化输出。适合大规模生产场景,兼顾能力与成本,OpenAI 兼容模式即可调用。
📖 [查看详情](/news/seed-2-0-lite-launch)
### 🌟 GPT-5.4 / GPT-5.4 Pro 重磅上线
**2026年3月6日**
OpenAI 最强旗舰模型 GPT-5.4 和 GPT-5.4 Pro 正式上线!原生支持计算机使用、深度研究、高级工具调用等专业能力。定价与官网一致(GPT-5.4:\$2.50/\$15,Pro:\$30/\$180 每百万 tokens),充值 100 美金起享 10% 加赠优惠。
📖 [查看详情](/news/gpt-5-4-launch) | 🔗 [API文档](/api-capabilities/openai)
### 🌟 Gemini 3.1 Flash Lite Preview 上线
**2026年3月5日**
谷歌最新轻量级模型 Gemini 3.1 Flash Lite Preview 正式上线!专为高吞吐量代理任务和低延迟场景优化,支持 100 万上下文、多模态输入(文本/图像/视频/音频/PDF),输入仅 \$0.25/百万 tokens。官方直连通道接入,定价与官网一致。
📖 [查看详情](/news/gemini-3-1-flash-lite-preview-launch) | 🔗 [API文档](/api-capabilities/gemini)
### 🌟 GPT-5.3 Chat 正式上线
**2026年3月4日**
OpenAI 最新 GPT-5.3 Instant 聊天模型上线!幻觉率降低 26.8%(联网场景),对话风格更自然,减少不必要的拒绝和说教式回复。价格与 GPT-5.2 一致,性能更优,官方直连通道稳定可靠。
📖 [查看详情](/news/gpt-5-3-chat-launch) | 🔗 [API文档](/api-capabilities/gpt-5-3-chat)
### 🏷️ 模型名称后缀 -c 说明
**2026年3月1日**
带 `-c` 后缀的模型(如 `gemini-3-pro-image-preview-c`)是按次计费版本,与不带后缀的模型能力完全相同,仅计费方式不同。推荐使用"按量优先"令牌自动适配。
📖 [查看详情](/faq/model-name-suffix-c) | 🔗 [令牌计费模式](/faq/token-billing-modes)
## 📅 2026年2月
### 💰 Nano Banana 2 价格调整
**2026年3月1日**
Nano Banana 2 按次计费从 \$0.03 调整为 \$0.055/次,新增按量计费模式(低至官网 28%),512px 低至 \$0.025/张。不同分辨率按需付费,更灵活更实惠。
🔗 [API文档](/api-capabilities/nano-banana-2-image)
### 🌟 Nano Banana 2 震撼上线
**2026年2月27日**
谷歌最新图像生成模型 Nano Banana 2(`gemini-3.1-flash-image-preview`)正式上线!Pro 级画质 + Flash 级速度,支持 4K 输出、14 种宽高比、图像搜索 Grounding 等独家特性。
📖 [查看详情](/news/nano-banana-2-launch) | 🔗 [API文档](/api-capabilities/nano-banana-2-image)
## 📅 2025年1月
### 🌟 Sora 2 官方直转分组上线
**2025年1月25日**
Sora 2 官转分组正式上线!OpenAI 官方 API 透明转发,99.99% 稳定性,按秒计费(\$0.1/秒起),支持 4/8/12 秒时长和图生视频。弥补官逆渠道不稳定的情况,追求画质和稳定性的用户首选。
🔗 [API 文档](/api-capabilities/sora-2-video-official)
## 📅 2025年12月
### ⚡ Gemini 3 Flash Preview 震撼上线
**2025年12月18日**
谷歌最新高性能快速模型!SWE-bench Verified 78% 超越 Gemini 3 Pro,速度比 2.5 Pro 快 3 倍,MMMU-Pro 81.2% 击败所有竞品。API易同步上线 3 个模型变体(自动推理/强制推理/默认不推理),价格与官网一致(\$0.5/\$3.0 每百万 tokens)。
📖 [查看详情](/news/gemini-3-flash-preview-launch) | 🔗 [API文档](/api-capabilities/gemini)
### 🎨 OpenAI GPT Image 1.5 正式上线
**2025年12月17日**
OpenAI 最新图片生成模型 GPT Image 1.5 正式上线!生成速度提升 4 倍,支持精准编辑保持细节一致,文本渲染能力大幅增强。价格与官网一致(低 \$0.01/张、中 \$0.04/张、高 \$0.17/张),充值活动可享额外折扣。
📖 [查看详情](/news/gpt-image-1-5-launch) | 🔗 [API文档](/api-capabilities/openai)
### 🚀 GPT-5.2 系列重磅发布
**2025年12月11日**
OpenAI 推出 Instant、Thinking、Pro 三大版本应对竞争!GPT-5.2 Pro 在 ARC-AGI-1 推理测试达 90%,首个突破该阈值的模型,成本相比去年降低 390 倍。GDPval 评测中 70.9% 任务超越行业专业人士,40 万上下文窗口,12.8 万 tokens 单次输出。
📖 [查看详情](/news/gpt-5-2-launch) | 🔗 [API文档](/api-capabilities/openai-chat)
### 🎨 SeeDream 4.5 震撼上线
**2025年12月4日**
BytePlus 火山方舟最新图像生成模型 SeeDream 4.5 正式发布!12亿参数架构,更强的 4K 图像生成能力,文本渲染大幅提升,支持最多10张参考图像。价格仅 \$0.035/张,官方提供 200 张免费测试额度。
📖 [查看详情](/news/seedream-4-5-launch) | 🔗 [API文档](/api-capabilities/seedream-image)
## 📅 2025年11月
### 🚀 Claude Opus 4.5 震撼发布
**2025年11月25日**
Anthropic 最新旗舰模型正式上线,编程能力登顶!SWE-bench Verified 达 80.9%,超越 GPT-5.1-Codex-Max 和 Gemini 3 Pro,价格仅为前代 Opus 的 1/3(\$5/\$25 每百万 token)。支持 OpenAI兼容模式/Anthropic 原生格式调用,可在 Claude Code 桌面应用中直接使用。
📖 [查看详情](/news/claude-opus-4-5-launch) | 🔗 [API文档](/api-capabilities/claude)
### 🌟 Gemini 3 Pro Preview 震撼上线
**2025年11月20日**
谷歌最新多模态智能模型上线!LMArena 排行榜 1501 Elo 全球第一,SWE-bench Verified 76.2%,支持 100 万上下文和思维链输出。充值加赠可达 8 折优惠。
📖 [查看详情](/news/gemini-3-pro-preview-launch)
### 🍌 Nano Banana Pro 震撼上线
**2025年11月20日**
谷歌最新图像生成模型 Nano Banana Pro(Gemini 3 Pro Image Preview)正式发布!支持 4K 高清出图,业界最佳文本渲染能力,强大的局部编辑功能。从旧版本迁移只需更改模型名即可。
满血 4K 高清版本定价只需要 \$0.05/张,官方 4K 价格为 \$0.24/张,约为官网 1/5的价格\~!
📖 [查看详情](/news/nano-banana-pro-launch) | 🔗 [API文档](/api-capabilities/nano-banana-image-edit)
### 🚀 GPT-5.1 全系列震撼上线
**2025年11月14日**
**GPT-5.1 - OpenAI 智能与速度平衡的迭代升级版**
* 🚀 **新增模型**:
* `gpt-5.1` - 标准模型
* `gpt-5.1-2025-11-13` - 时间日期版本
* `gpt-5.1-chat-latest` - 对话优化版
* `gpt-5.1-codex` - 长时编程任务专用
* `gpt-5.1-codex-mini` - 轻量编程任务
* 💰 **价格优势**:
* 基础定价:与 OpenAI 官网价格完全一致
* 输入 Token: \$1.25 / 百万 tokens
* 输出 Token: \$10 / 百万 tokens
* 缓存输入 Token: \$0.125 / 百万 tokens (90% 折扣)
* 充值加赠活动,实际可达 **8 折优惠**
* 🧠 **核心特性**:
* **动态自适应推理**:根据任务复杂度自动调整思考时间
* **更快响应速度**:简单任务速度提升 2-5 倍
* **更低 Token 成本**:简单任务 Token 消耗降低 70-88%
* **扩展提示缓存**:缓存保留时间延长至 **24 小时**
* **更自然对话风格**:更温暖、更具对话性的交互体验
* 🏆 **性能亮点**:
* **SWE-bench Verified 76.3%**:比 GPT-5 提升 3.5%
* **GPQA Diamond 88.1%**:无工具推理能力显著提升
* **AIME 2025 94.0%**:数学能力保持顶尖水平
* **更强的编程能力**:专为 AI 智能体和编程任务优化
* 🌟 **推理力度控制**:
* `none` - 无推理,最快速度(新增)
* `low` - 低推理,中等复杂度任务
* `medium` - 中等推理,平衡性能
* `high` - 高推理,最高智能和可靠性
* 🛠️ **新增 API 工具**:
* **Apply\_Patch 工具**:自由格式代码补丁,支持创建、更新、删除文件
* **Shell 工具**:允许模型与本地计算机交互,执行命令
* **优先处理**:为 API 客户提供更快的响应速度
* ⚡ **模型变体说明**:
* **gpt-5.1**:标准模型,适合大多数场景
* **gpt-5.1-chat-latest**:对话优化,更温暖友好的语调
* **gpt-5.1-codex**:编程专用,SWE-bench 76.3%,审慎决策
* **gpt-5.1-codex-mini**:轻量编程,约 1/4 价格,性能接近 SOTA
* 🎯 **推荐场景**:
* AI 编程助手(IDE 集成、代码审查)
* 智能客服系统(低延迟响应)
* 金融和资产管理(数据分析、报告生成)
* 教育和研究(复杂问题解答)
* 企业自动化(RPA、数据管道)
* 📊 **缓存优化**:
* 缓存保留时间:24 小时(原几分钟)
* 缓存折扣:90% 价格降低
* 无额外费用:缓存写入和存储免费
* 多轮对话成本显著降低
GPT-5.1 是 OpenAI 于 2025 年 11 月 12-13 日发布的 GPT-5 系列迭代升级版本,主打智能与速度的平衡。API易于 11 月 14 日(官网发布次日)第一时间上线全系列模型,与 OpenAI 官方同步,定价与官网一致,充值加赠活动实现 8 折优惠。
## 📅 2025年10月
### 🎥 Sora 2 异步 API 正式上线
**2025年10月22日**
**Sora 2 异步调用模式 - 灵活的视频生成工作流**
* 🚀 **新增功能**:
* 异步 API 端点:`/v1/videos`
* 三步流程:提交请求 → 轮询状态 → 下载视频
* 支持批量处理和后台任务
* 💰 **价格保持**:
* 与同步 API 价格完全一致
* 标准版:\$0.15/次(10秒)
* 15秒版本:\$0.25/次
* 视频时长:10秒或15秒可选
* 🌟 **核心特性**:
* **独立任务管理**:获得 video\_id 后可随时查询状态
* **灵活轮询策略**:自定义轮询间隔,避免不必要的请求
* **可靠视频下载**:生成完成后独立下载,支持断点续传
* **批量处理支持**:同时提交最多 50 个并发任务
* 🛠️ **完整流程**:
1. **提交请求**:POST `/v1/videos`,返回 video\_id
2. **轮询状态**:GET `/v1/videos/{video_id}`,查看进度
3. **下载视频**:GET `/v1/videos/{video_id}/content`,保存 MP4
* 📊 **典型时间线**:
* 请求提交:即时响应(\< 1 秒)
* 视频生成:通常 3-5 分钟
* 视频下载:10-30 秒(根据网络速度)
* 🎯 **推荐场景**:
* 批量视频生成任务
* 后台定时任务
* 需要精细控制流程的场景
* 长时间等待的应用
* 📖 **完整文档**:
* 中文文档:[Sora 2 异步 API](/api-capabilities/sora-2-video-async)
* 飞书文档:[Sora 2 异步调用完整指南](https://xinqikeji.feishu.cn/wiki/MWfTw8dwmig1IskBlOcc1jR6n7g)
* 包含 Python、JavaScript、Bash 等多语言示例代码
Sora 2 异步 API 与同步流式 API 互补,同步 API 适合实时进度反馈,异步 API 适合批量处理。两种模式价格相同,用户可根据具体场景灵活选择。详细对比请参考文档。
### ⚡ Claude Haiku 4.5 震撼上线
**2025年10月20日**
**Claude Haiku 4.5 - Anthropic 高性价比编码模型**
* 🚀 **新增模型**:`claude-haiku-4-5-20251001`
* 💰 **价格优势**:
* 输入价格:\$1 / 1M tokens
* 输出价格:\$5 / 1M tokens
* 与 Anthropic 官网价格完全一致
* 充值加赠活动,低至 **8 折优惠**
* 相比 Claude Sonnet 4.5,成本降低至 **1/3**
* 🏆 **世界级编码性能**:
* **SWE-bench Verified 73.3%**:世界顶尖编码模型之一
* 媲美 Claude Sonnet 4 的代码生成质量
* 速度提升超过 **2倍**
* 成本效率 SOTA(业界领先)
* 🧠 **核心特性**:
* **200K 超长上下文窗口**:支持处理大型代码库
* **64K 输出 tokens**:生成长篇代码无压力
* **首个支持扩展思维的 Haiku**:深度推理能力
* **电脑使用能力(Computer Use)**:支持自主操作
* **上下文感知**:更精准的代码理解
* 🌟 **多模态支持**:
* 同时处理文本和图像
* 支持代码截图理解
* UI 设计转代码
* 图表和架构图分析
* ⚡ **性能亮点**:
* 实时低延迟响应,适合聊天助手和客服
* 结对编程体验极佳
* 大幅降低成本的同时保持高智能水平
* 完美兼容 Anthropic API 格式
* 🛠️ **推荐场景**:
* AI 聊天助手和客服机器人
* 实时代码生成与补全
* 结对编程助手
* 批量代码处理任务
* 需要高性价比的智能体应用
Claude Haiku 4.5 是 Anthropic 于 10 月 15 日发布的高性价比编码模型,提供与 Sonnet 4 相近的编码性能,但速度提升 2 倍以上,成本降低至 1/3。支持提示缓存(节省 90% 成本)和批处理 API(节省 50% 成本)。详细信息请参考:[Anthropic 官方公告](https://www.anthropic.com/news/claude-haiku-4-5)
### ✨ Gemini 2.5 Flash 最新日期版本上线
**2025年10月12日**
**Gemini 2.5 Flash Preview 09-2025 - 谷歌最新版本**
* 🚀 **新增模型**:`gemini-2.5-flash-preview-09-2025`
* 📅 **版本说明**:
* 这是 Gemini 2.5 Flash 的最新日期版本(2025年9月版)
* 谷歌官方发布的 Gemini 2.5 Flash 系列最新迭代
* 包含最新的性能优化和功能改进
* 🌟 **核心特性**:
* 延续 Gemini 2.5 Flash 系列的强大能力
* 支持超长上下文处理
* 多模态理解能力(文本、图像、视频)
* 谷歌最新技术优化和性能提升
* 💰 **价格优势**:
* API易提供极具竞争力的定价
* 结合充值加赠活动更优惠
* 官方最新版本,性能更强
* 🛠️ **调用方式**:
* 使用标准对话补全端点:`/v1/chat/completions`
* 完全兼容 OpenAI API 格式
* 替换模型名称即可使用
gemini-2.5-flash-preview-09-2025 是谷歌官方最新发布的 Gemini 2.5 Flash 日期版本,建议使用最新版本以获得最佳性能和体验。更多信息请参考:[谷歌官方文档](https://cloud.google.com/vertex-ai/generative-ai/docs/models/gemini/2-5-flash?hl=zh-cn)
### 🍌 Gemini 2.5 Flash Image 正式版发布
**2025年10月3日**
**Gemini 2.5 Flash Image - 谷歌图像生成正式版**
* 🚀 **模型更新**:
* 新模型名:`gemini-2.5-flash-image`
* 旧模型名:`gemini-2.5-flash-image-preview`(仍可继续使用)
* 💰 **价格保持**:
* API易定价:\$0.025/张(官网 \$0.039)
* 相比官网节省约 **36%**
* 继续保持性价比优势
* 🌟 **核心升级**:
* **10 种宽高比支持**:从电影级横屏到社交媒体竖屏
* **分辨率自定义**:支持指定输出分辨率
* **正式生产可用**:从预览版升级为正式版
* **仅图像输出**:支持纯图像输出模式
* 🎨 **强大能力**:
* 无缝融合多张图片
* 保持角色一致性,丰富故事叙述
* 自然语言精准编辑
* 结合 Gemini 丰富的世界知识
* 🛠️ **调用方式**:
* 推荐使用新模型名:`gemini-2.5-flash-image`
* 旧模型名 `gemini-2.5-flash-image-preview` 仍可使用
* 其他调用方法保持不变
* 完全兼容现有代码
新版本支持 10 种宽高比和分辨率自定义功能,推荐使用 `gemini-2.5-flash-image` 以获得最佳体验。旧模型名仍可继续使用。
### 🎬 Sora 2 视频生成 API 上线
**2025年10月1日晚**
**Sora 2 - OpenAI 革命性视频生成模型**
* 🚀 **新增模型**:
* `sora_video2` - 竖屏视频(704×1280)
* `sora_video2-landscape` - 横屏视频(1280×704)
* `sora-2-pro` - Pro 高清版本(1024×1792)
* 💰 **超值定价**:
* 标准版本:\$0.15/次(10秒视频)
* Pro 版本:\$1.0/次(目前暂停供给,OpenAI 官网限制太严格。)
* 结合充值加赠,约 ¥0.8/次起
* 🎥 **核心特性**:
* **音视频同步**:业界首个音视频同步生成
* **物理真实性提升**:大幅提升视频真实感
* **无水印输出**:生成视频无水印(官网有水印)
* **长视频支持**:最长支持 16 秒连贯叙事
* 🛠️ **生成方式**:
* **文生视频**:纯文字描述生成视频
* **图生视频**:支持 1 张图片垫图生成
* 支持 URL 和 Base64 图片上传
* 完整的流式输出进度反馈
* 🌟 **技术亮点**:
* 调用端点:`/v1/chat/completions`
* 标准 OpenAI API 格式
* 支持流式输出查看进度
* 无需邀请码,即刻使用
Sora 2 是 OpenAI 于 10 月 1 日发布的革命性视频生成模型,定位为视频生成的"GPT-3.5 时刻"。API易第一时间接入官方 API,价格仅 \$0.15/次起,无需邀请码。详细文档:[Sora 2 使用指南](/api-capabilities/sora-2-video)
### 💻 GLM-4.6 强势发布
**2025年10月1日**
**GLM-4.6 - 智谱 AI 代码与推理增强版**
* 🚀 **新增模型**:`glm-4.6`
* 💰 **价格优势**:
* 提示价格:\$0.50 / 1M tokens
* 补全价格:\$1.75 / 1M tokens
* 性价比极高,仅为 Claude 的 1/7 价格
* 🧠 **核心升级**:
* **200K 超长上下文**:从 128K 扩展到 20万 Tokens
* **代码能力提升**:在 Claude Code、Cline、Roo Code 等 IDE 中表现优异
* **高级推理**:推理性能显著提升,支持推理过程中的工具使用
* **智能体增强**:在工具调用和搜索型智能体中表现更强
* 🌟 **性能亮点**:
* **编程**:95.0% 准确率,排名第 95 百分位
* **数学**:96.0% 准确率,排名第 98 百分位
* 与 Claude Sonnet 4 接近(48.6% 胜率)
* 明显优于开源基准模型
* ⚡ **写作优化**:
* 更符合人类偏好的风格和可读性
* 角色扮演场景表现更自然
* 前端页面生成视觉效果更佳
GLM-4.6 是智谱 AI(现更名为 Z.AI)于 9 月 30 日发布的最新版本,相比 GLM-4.5 在代码生成、推理能力和智能体框架集成方面都有显著提升。
## 📅 2025年9月
### 🚀 Claude Sonnet 4.5 震撼上线
**2025年9月30日**
**Claude Sonnet 4.5 - Anthropic 最强编码模型**
* 🚀 **新增模型**:
* `claude-sonnet-4-5-20250929` - 标准版本
* `claude-sonnet-4-5-20250929-thinking` - 推理模式
* 💰 **价格优势**:
* 与 Anthropic 官网价格完全一致
* 充值 \$100 以上享受加赠活动
* 结合加赠优惠,约合官网 **8折起**
* 定价:\$3 / \$15 per 1M tokens(输入/输出)
* 🏆 **世界级编码能力**:
* **SWE-bench Verified 77.2%**:全球最强编码模型
* **OSWorld 61.4%**:真实计算机任务测试领先
* 支持 Claude Code,开发体验极佳
* 构建复杂智能体的首选模型
* 🧠 **核心升级**:
* **自主运行 30 小时**:相比 Opus 4 的 7 小时大幅提升
* **推理和数学能力显著增强**
* 支持复杂多步骤任务持续专注
* 安全性训练全面升级
* 🌟 **实际应用**:
* Devin 规划性能提升 18%
* 端到端评估分数提升 12%
* 适合构建自主软件开发系统
* 企业级复杂业务流程自动化
* 🛠️ **调用方式**:
* 标准版:常规对话和编码任务
* Thinking 模式:需要深度推理的复杂问题
* 完全兼容 Anthropic API 格式
Claude Sonnet 4.5 是 Anthropic 于 9 月 29 日发布的最强 AI 模型,被誉为"世界最佳编码模型",能够自主运行长达 30 小时处理复杂任务。API易官网同价,充值享 8 折起优惠。
### 🧠 DeepSeek-V3.2-exp 抢鲜上线
**2025年9月29日**
**DeepSeek-V3.2-exp - DeepSeek 最新实验版本**
* 🚀 **新增模型**:`deepseek-v3.2-exp`
* 💰 **价格优势**:
* 提示价格:\$0.26 / 1M tokens(官网 \$0.28)
* 补全价格:\$0.39 / 1M tokens(官网 \$0.42)
* 相比官网节省约 **7%**
* 人民币计价更优惠(官网 ¥2/¥3)
* 🌟 **核心特性**:
* 官网直连版本,稳定可靠
* 第一时间上线,满足客户需求
* DeepSeek 最新实验性能力
* 持续迭代优化中
* 🛠️ **调用方式**:
* 使用标准 Chat 端点:`/v1/chat/completions`
* 兼容 OpenAI API 格式
* 按量计费,简单透明
DeepSeek-V3.2-exp 是 DeepSeek 今日发布的最新实验版本,API易第一时间接入官网直连版本,以略低于官网的价格提供服务。
### 🤖 GLM-4.5 系列模型上线
**2025年9月26日**
**GLM-4.5 - 智谱 AI 高性能语言模型**
* 🚀 **新增模型**:
* `glm-4.5` - 标准版本
* `glm-4.5-air` - 轻量版本
* `glm-4.5v` - 多模态版本
* 💰 **价格优势**:
* 全系定价低于智谱官网
* 在保障稳定性的前提下,提供更优性价比
* 按量计费模式
* 🌟 **核心特性**:
* 全面覆盖不同性能需求场景
* 优秀的中文理解和生成能力
* 稳定可靠的 API 服务
* 兼容标准 OpenAI API 格式
GLM-4.5 系列是智谱 AI 的高性能语言模型,API易提供低于官网的优惠价格,在模型覆盖全面性和性价比方面持续为用户提供更好的选择。
### 🌐 Grok 联网模型正式上线
**2025年9月25日**
**Grok-4-all / Grok-3-all - 自带联网能力的智能模型**
* 🚀 **新增模型**:
* `grok-4-all` - Grok-4 联网增强版
* `grok-3-all` - Grok-3 联网增强版
* 💰 **统一定价**:
* 提示价格:\$1.50 / 1M tokens
* 补全价格:\$7.50 / 1M tokens
* 按量计费,简单透明
* 🌟 **核心特性**:
* **原生联网能力**:无需工具调用,模型自带联网功能
* **实时信息获取**:直接访问最新网络数据
* **稳定可靠**:逆向方案但运行稳定
* **即插即用**:无需额外配置 Web Search 工具
* 🛠️ **调用方式**:
* 使用标准 Chat 端点:`/v1/chat/completions`
* 兼容 OpenAI API 格式
* 模型自动处理联网请求,无需手动调用工具
* ⚡ **适用场景**:
* 需要实时信息的问答场景
* 新闻资讯类应用
* 市场动态分析
* 事实核查和验证
* 任何需要最新网络数据的任务
Grok-4-all 和 Grok-3-all 是具备原生联网能力的模型,相比传统的工具调用方式更加便捷,适合需要频繁访问网络信息的应用场景。
### ⚡ Grok-4-fast 系列震撼上线
**2025年9月24日**
**Grok-4-fast - xAI 超长上下文推理模型**
* 🚀 **新增模型**:
* `grok-4-fast-reasoning` - 推理模式,显示完整思考过程
* `grok-4-fast-non-reasoning` - 非推理模式,快速响应
* `grok-4-fast-reasoning-latest` - 推理模式最新版本
* `grok-4-fast-latest` - 最新标准版本
* 💰 **超低价格**:
* 提示价格:\$0.20 / 1M tokens
* 补全价格:\$0.50 / 1M tokens
* 相比 Grok-4 系列降价 **93%+**
* 史上最具性价比的超长上下文模型
* 🧠 **核心特性**:
* **200K 超长上下文**:支持高达 20万 Tokens 上下文窗口
* **双模式架构**:统一模型权重,通过系统提示词切换推理模式
* **高效推理**:相比 Grok-4,平均节省 40% 思考 Tokens
* **SOTA 成本效率**:业界领先的性价比表现
* 🌟 **技术亮点**:
* 端到端工具使用强化学习训练
* 支持 Web 搜索和 X(Twitter)搜索能力
* 内置代码执行能力
* 推理和非推理模式无缝切换
* 🛠️ **调用方式**:
* 使用标准 Chat 端点:`/v1/chat/completions`
* 兼容 OpenAI API 格式
* 按量计费,简单透明
Grok-4-fast 是 xAI 推出的高性价比长上下文模型,在保持与 Grok-4 相当性能的同时,大幅降低使用成本,非常适合需要处理大量上下文的应用场景。
### 💻 Grok Code Fast 1 代码专用模型上线
**2025年9月24日**
**Grok Code Fast 1 - xAI 代码生成与智能体编程模型**
* 🚀 **新增模型**:`grok-code-fast-1`
* 💰 **极致性价比**:
* 提示价格:\$0.20 / 1M tokens
* 补全价格:\$1.50 / 1M tokens
* 缓存价格:\$0.02 / 1M tokens
* 专为代码场景优化的定价策略
* 🧠 **核心特性**:
* **256K 超长上下文**:足够处理大型代码库
* **SWE-Bench 70.8%**:在 SWE-Bench Verified 全集上表现卓越
* **高速生成**:约 92 tokens/秒 的吞吐量
* **MoE 架构**:约 3140亿参数混合专家模型
* 🌟 **技术亮点**:
* 全新架构设计,专为代码任务优化
* 支持多种编程语言:TypeScript、Python、Java、Rust、C++、Go
* 优化的工具集成:grep、终端操作、文件编辑等
* 智能缓存技术:合作伙伴工作流中缓存命中率超 90%
* 🛠️ **推荐场景**:
* 从零开始构建项目
* 代码库问题解答
* Bug 修复和代码重构
* 智能体自主编程(Agentic Coding)
* IDE 集成开发
* ⚡ **可见推理过程**:
* 响应中包含推理轨迹(Reasoning Traces)
* 开发者可以引导 Grok Code 实现高质量工作流
* 提升代码生成的可控性和透明度
Grok Code Fast 1 是 xAI 专为编程场景打造的高性能模型,已集成到 GitHub Copilot、Cursor、Cline、Windsurf 等主流 IDE 和编程工具中。
### 💻 OpenAI Codex 系列模型上线
**2025年9月16日**
**GPT-5 Codex - 专为编程场景优化的代码生成模型**
* 🚀 **新增模型**:
* `gpt-5-codex-high` - 高性能版本,对标 GPT-5
* `gpt-5-codex-medium` - 中等性能版本
* `gpt-5-codex-low` - 轻量级版本
* 💰 **双重计费模式**:
**按量计费(适合小 Tokens 对话)**:
* High: \$1.25/1M 输入 + \$10.00/1M 输出
* Medium: \$0.60/1M 输入 + \$4.80/1M 输出
* Low: \$0.30/1M 输入 + \$2.40/1M 输出
**按次计费(适合大上下文场景)**:
* High: \$0.025/次
* Medium: \$0.020/次
* Low: \$0.015/次
* 🛠️ **调用方式**:
* 使用 Chat 端点调用
* 支持按量付费和按次付费两种模式
* 根据上下文长度灵活选择计费方式
* 🌟 **核心特性**:
* 专门针对编程任务优化
* 代码生成质量媲美 GPT-5
* 支持多种编程语言和框架
* 价格更加实惠,性价比极高
**选择建议**:如果您的上下文 Tokens 较大,选择按次计费更划算;如果是短对话场景,按量计费更经济。
### 🎨 SeeDream 4.0 API 正式上线
**2025年9月11日**
**SeeDream 4.0 - BytePlus 火山方舟高品质图像生成**
* 🚀 **新增模型**:`seedream-4-0-250828`
* 🤝 **战略合作**:源自 BytePlus火山方舟海外版,API易达成官方战略合作
* 💰 **价格优势**:
* API易定价:\$0.025美金/张(官网 \$0.03美金/张)
* 相比官网节省 **35%**
* 结合充值加赠15%:约 **¥0.14/张**
* 价格持平 Nano Banana (gemini-2.5-flash-image-preview)
* 🛠️ **调用方式**:
* 使用标准 OpenAI 图像生成端点:`/v1/images/generations`
* 完全兼容 OpenAI Image API 格式
* 按次计费,简单透明
* 🌟 **核心特性**:
* 高品质图像生成能力:高清 4K 出图
* 官方合作资源可靠稳定
* 视觉一致性优秀,生成图片快 15s 左右一张图
详细使用文档请参考:[SeeDream 4.0 使用指南](https://xinqikeji.feishu.cn/wiki/JU9xwNaMNiZvwKkdEHjcTuUUn7f)
## 📅 2025年8月
### 🎨 Gemini 2.5 Flash 图像生成模型上线
**2025年8月27日**
**Gemini 2.5 Flash Image Preview - 谷歌最强图像生成模型**
* 🚀 **新增模型**:`gemini-2.5-flash-image-preview`
* 🏷️ **模型代号**:Nano Banana 模型
* 💰 **价格优势**:
* API易定价:\$0.025/张(官网 \$0.04/张)
* 结合充值加赠+汇率优势:约 **¥0.14/张**
* 相比官网节省约 **50%**(官网5折优惠)
* 💸 **竞争对比**:
* 比 gpt-image-1 更有优势
* 价格持平 flux-kontext-pro
* 高于逆向出图 sora\_image
* ⚡ **性能优势**:
* 生成速度快,平均仅需 10 秒
* 比 OpenAI 系列更快的响应时间
* 谷歌最新、最强的图像生成/编辑技术
* 🛠️ **调用方式**:
* 使用对话补全端点,与 gpt-4o-image 兼容
* 直接替换模型名称即可使用
* 完美兼容 sora\_image 调用方式
详细使用文档请参考:[Gemini 图像生成使用指南](https://xinqikeji.feishu.cn/wiki/A52zw4Bg5iTs5HkTLKJcOuXgnNg?from=from_copylink)
### 🧠 DeepSeek V3.1 混合推理模式上线
**2025年8月26日**
**DeepSeek V3.1-250821 - 革命性混合推理模式**
* 🚀 **新增模型**:`deepseek-v3-1-250821`
* 💰 **价格优势**:
* 提示价格:\$0.50 / 1M tokens(官网 \$0.56)
* 补全价格:\$1.50 / 1M tokens(官网 \$1.68)
* 相比官网价格节省约 **11%**
* 支持双模式调用,灵活计费
* 🧠 **核心特性**:
* **Think 模式**:深度推理,显示完整思维过程
* **Non-Think 模式**:快速响应,适合日常任务
* 128K 超长上下文窗口
* 支持 Anthropic API 格式兼容
* 🌟 **技术亮点**:
* 8400亿 token 持续预训练优化
* 全新 tokenizer,编码效率提升
* Beta Function Calling 工具调用支持
* 增强的智能体和工具使用能力
* ⚡ **模式切换**:
* `deepseek-chat` - Non-Think 快速模式
* `deepseek-reasoner` - Think 推理模式
* 官网支持 "DeepThink" 一键切换
DeepSeek V3.1 是首个支持混合推理模式的大模型,让用户可以根据任务复杂度灵活选择推理深度,兼顾效率与质量。
### 🤖 Kimi K2 正式版接入
**2025年8月25日**
**Kimi K2-250711 - 火山引擎官方合作版本**
* 🚀 **新增模型**:`kimi-k2-250711`
* 🔄 **替换模型**:取代 `kimi-k2-0711-preview` 预览版
* 🤝 **官方合作**:
* 火山引擎官方授权合作版本
* 直连官方接口,稳定性大幅提升
* 告别 preview 版本的不稳定性
* 💰 **价格优势**:
* 继续保持比官网低 15% 的优势
* 结合充值加赠,相当于官网 **7折优惠**
* 正式版性能,预览版价格
* 🌟 **核心特性**:
* 优秀的中文理解和生成能力
* 长文本处理能力强
* API 响应更加稳定可靠
* 完全兼容原有调用方式
Kimi K2-250711 是火山引擎官方合作的正式版本,相比预览版在稳定性和性能方面都有显著提升,推荐用户及时切换。
### 🚀 GPT-5 全系列震撼上线
**2025年8月8日**
**GPT-5 全系列正式发布 - OpenAI 最强模型**
* 🎯 **全系列型号**:
* `gpt-5` - 旗舰版本
* `gpt-5-2025-08-07` - 特定版本
* `gpt-5-chat-latest` - 最新对话版本
* `gpt-5-mini` / `gpt-5-mini-2025-08-07` - 轻量级版本
* `gpt-5-nano` / `gpt-5-nano-2025-08-07` - 超轻量版本
* 💰 **价格优势**:
* 与 OpenAI 官网价格完全一致
* 充值加赠 + 汇率优势,约合官网 **8折**
* 提示价格:\$1.25 - \$0.05 / 1M tokens
* 补全价格:\$10.00 - \$0.40 / 1M tokens
* 🛠️ **技术特性**:
* 支持官网文档 `/v1/responses` 端点调用
* 温度参数 `temperature` 需设置为 1 或不传(官方限制)
* 使用 `max_completion_tokens` 替代 `max_tokens`
* `gpt-5-chat-latest` 通过 `/v1/chat/completions` 调用
* ⚡ **性能亮点**:
* 全面超越 GPT-4 系列的推理能力
* 更强的上下文理解和长文本处理
* 显著提升的代码生成质量
* 多语言能力达到新高度
**重要提示**:GPT-5 系列模型对参数有特定要求,请按照上述技术特性配置,确保正常调用。
### 🎨 Claude Opus 4.1 性能升级版上线
**2025年8月7日**
**Claude Opus 4.1 - 代码能力再突破**
* 🚀 **新增模型**:`claude-opus-4-1-20250805`
* 💰 **加量不加价**:
* 价格与 Anthropic 官网完全一致
* 结合充值加赠,性价比更高
* 相同价格,享受更强性能
* 🌟 **核心升级**:
* SWE-bench Verified 达到 74.5%,代码能力显著提升
* 相比 Opus 4,推理能力和代码生成质量大幅增强
* 保持 200K 超长上下文窗口
* 多语言理解和生成能力进一步优化
* ⚡ **性能亮点**:
* 代码调试和修复能力领先业界
* 复杂推理任务准确率提升 15%+
* API 响应速度保持业界顶级水平
* 完美兼容 Claude 系列所有功能
Claude Opus 4.1 是基于 Opus 4 的迭代优化版本,在保持原有强大能力的基础上,针对代码生成和推理任务进行了专项优化。
### 🎯 OpenAI 开源模型正式上线
**2025年8月6日**
**OpenAI 首次开源大模型震撼发布**
* 🚀 **新增模型**:
* `gpt-oss-120b` - 1170亿参数,媲美 o4-mini 性能
* `gpt-oss-20b` - 210亿参数,可在边缘设备运行
* 💰 **价格优势**:
* 定价显著低于 DeepSeek R1 和 V3
* 结合充值加赠,性价比极高
* 企业级使用成本大幅降低
* 🌟 **核心特性**:
* 128K 超长上下文窗口
* 支持低/中/高三级推理模式
* MoE 架构,推理效率极高
* Apache 2.0 开源协议
* ⚡ **性能亮点**:
* gpt-oss-120b 仅需单张 80GB 显卡即可运行
* gpt-oss-20b 支持 16GB 内存设备部署
* 在编程、数学、工具调用等任务上表现卓越
这是 OpenAI 自 GPT-2 以来首次发布开源模型,标志着 AI 开放生态的重要里程碑。
## 📅 2025年7月
### ⚠️ GPT-4.5-Preview 模型下线
**2025年7月14日**
**GPT-4.5-Preview 正式停止服务**
* 📌 下线模型:`gpt-4.5-preview`
* 🔄 推荐替代:`gpt-4.1`
* 📅 生效时间:2025年7月14日
* 📖 官方公告:[OpenAI Deprecations](https://platform.openai.com/docs/deprecations)
请开发者尽快更新代码,将 `gpt-4.5-preview` 替换为 `gpt-4.1`,避免服务中断。
### 🚀 Kimi K2 模型上新
**2025年7月15日**
**Kimi K2 预览版正式上线**
* 📌 模型名称:`kimi-k2-0711-preview`
* 💰 价格优势:比官网低 15%
* 🎁 结合充值加赠,相当于官网 **7折优惠**
* 🌟 特色:更优秀的中文理解和生成能力
### 🤖 Grok-4 模型上线
**2025年7月12日**
**xAI Grok-4 正式接入**
* 📌 调用名称:`grok-4`
* 🧠 特色功能:自带推理模式
* 📖 建议查看官方文档了解详细使用方法
### 💸 Claude 全系降价 20%
**2025年7月8日**
**Claude 模型大幅优惠**
* 🎉 全系列模型降价 **20%**
* ✅ 不限速、不封号
* 💱 汇率优势 + 充值加赠
* 🚀 为用户提供更经济的 AI 服务
## 📅 2025年6月
### 🌟 Gemini 2.5 正式版发布
**2025年6月18日**
**Gemini 2.5 系列全新升级**
* 📌 推荐模型:`gemini-2.5-pro` / `gemini-2.5-flash`
* ⚡ 性能更稳定,建议替换 preview 或 exp 版本
* 🎯 2M 超长上下文支持
### 🎊 O3 模型大幅降价 80%
**2025年6月13日**
**O3 模型史上最大降幅**
* 💥 降价幅度:**80%**
* 💰 新价格:
* 输入:\$3/M Tokens
* 输出:\$12/M Tokens
* 🆕 新增 `o3-pro` 模型
* 📍 仅限端点 `/v1/responses` 调用
### 🖼️ GPT-Image-1 价格下调
**2025年6月7日**
**图像生成更实惠**
* 📌 模型:`gpt-image-1`
* 💸 价格大幅下调,提供更具竞争力的图像生成服务
* 🎨 保持高质量输出的同时降低成本
## 🔔 订阅更新
Telegram社区:`t.me/apiyi_community`
查看所有模型的最新定价信息
## 📊 更新统计
### 本月亮点(2025年11月)
* 🌟 全球第一:Gemini 3 Pro Preview 震撼上线,LMArena 1501 Elo 全球排名第一
* 🧠 多模态之王:谷歌最新智能模型,100 万上下文,支持文本/图像/视频/音频全能力
* 💡 思维链输出:新增 gemini-3-pro-preview-thinking 模型,显示完整推理过程
* 🚀 重磅升级:GPT-5.1 全系列震撼上线,OpenAI 最新迭代版本,智能与速度完美平衡
* ⚡ 速度飞跃:简单任务响应速度提升 2-5 倍,Token 消耗降低 70-88%
* 🧠 性能突破:SWE-bench Verified 76.3%,比 GPT-5 提升 3.5%,编程能力再创新高
* 💾 缓存革新:扩展提示缓存保留时间延长至 24 小时,成本降低 90%
* 🛠️ 工具增强:新增 Apply\_Patch 和 Shell 工具,API 开发更强大
* 💰 同步上线:API易于第一时间上线所有新模型,官网同价享 8 折优惠
### 上月亮点(2025年10月)
* ⚡ 高性价比:Claude Haiku 4.5 震撼上线,SWE-bench 73.3%,速度翻倍,成本降至 1/3
* ✨ 版本更新:Gemini 2.5 Flash 最新日期版本 preview-09-2025 上线,谷歌最新优化
* 🍌 图像升级:Gemini 2.5 Flash Image 正式版,10种宽高比,支持分辨率自定义
* 🎬 视频革命:Sora 2 视频生成上线,音视频同步,无水印输出,\$0.15/次起
* 💻 智能升级:GLM-4.6 强势发布,200K 上下文,代码与推理能力全面提升
### 上月亮点(2025年9月)
* 🚀 世界最强:Claude Sonnet 4.5 震撼上线,SWE-bench 77.2%,全球最佳编码模型
* 🧠 快速响应:DeepSeek-V3.2-exp 抢鲜上线,第一时间接入最新实验版本
* 🤖 国产力量:GLM-4.5 系列全面上线,低于官网定价
* 🌐 联网能力:Grok-4-all / Grok-3-all 上线,原生联网,无需工具调用
* ⚡ 超长上下文:Grok-4-fast 系列上线,20万 Tokens 上下文,价格降低 93%+
* 💻 代码专用:Grok Code Fast 1 发布,SWE-Bench 70.8%,集成主流 IDE
* 💻 编程优化:OpenAI Codex 系列上线,专为编程场景优化,支持双重计费模式
* 🎨 图像生成:SeeDream 4.0 正式上线,BytePlus 火山方舟战略合作,官网65折优惠
### 历史里程碑(2025年8月)
* 🎨 图像生成:Gemini 2.5 Flash Image Preview 上线,谷歌最强图像模型,官网7折优惠
* 🧠 创新突破:DeepSeek V3.1 混合推理模式,首个支持 Think/Non-Think 双模式的大模型
* 🤖 官方合作:Kimi K2-250711 正式版上线,火山引擎官方授权,稳定性大幅提升
* 🚀 新增模型:GPT-5 全系列正式上线,官网同价享8折优惠
* 🎨 性能升级:Claude Opus 4.1 性能升级版,加量不加价
* 🎯 重磅发布:OpenAI 首次开源大模型(gpt-oss-120b、gpt-oss-20b)
* 💸 价格优势:新模型定价低于 DeepSeek R1/V3
* 🚀 性能突破:开源模型达到商用级别性能
* 🌐 生态扩展:支持本地部署和边缘计算
### 历史里程碑
* 2025年11月:Gemini 3 Pro Preview 震撼上线,谷歌最新多模态智能模型,LMArena 1501 Elo 全球第一;GPT-5.1 全系列震撼上线,OpenAI 智能与速度平衡的迭代升级版;自适应推理、24 小时缓存、新增 API 工具
* 2025年10月:Claude Haiku 4.5 震撼上线,高性价比编码模型;Gemini 2.5 Flash 最新日期版本 preview-09-2025 上线;Gemini 2.5 Flash Image 正式版发布;Sora 2 视频生成上线,OpenAI 革命性视频模型;GLM-4.6 强势发布,智谱 AI 代码与推理增强版
* 2025年9月:Claude Sonnet 4.5 震撼上线,世界最强编码模型;DeepSeek-V3.2-exp 抢鲜上线;GLM-4.5 系列全面上线;Grok 联网模型上线,原生联网能力;xAI Grok-4-fast 系列上线,20万超长上下文史低价;Grok Code Fast 1 代码专用模型发布;OpenAI Codex 系列发布,专为编程优化;SeeDream 4.0 正式上线,BytePlus 火山方舟战略合作达成
* 2025年8月:Gemini 2.5 Flash Image Preview 谷歌最强图像模型上线;DeepSeek V3.1 混合推理模式上线;Kimi K2 正式版接入;GPT-5 全系列震撼上线;首次接入 OpenAI 开源模型;Claude Opus 4.1 性能升级版发布
* 2025年7月:突破 200+ 模型支持
* 2025年6月:O3 模型史上最大降价
* 2025年5月:支持 Gemini 2.5 系列
***
**更新频率**:本页面会定期更新,建议收藏并经常查看。所有价格调整和模型更新都会第一时间在此公告。
**小贴士**:新模型上线初期通常会有特别优惠,建议及时试用体验。同时,我们会根据市场反馈不断优化价格策略。
# 如何设置余额告警提醒?
Source: https://docs.apiyi.com/faq/balance-alerts
API易支持邮件、企业微信/钉钉/飞书群机器人、余额提醒 API 等多种告警方式,避免余额不足影响业务。
## 简短回答
API易支持**三种余额告警方式**:邮件通知(默认开启)、企业微信/钉钉/飞书等群机器人推送、以及自定义的余额提醒 API 接入。进入后台 **通知设置** 页面即可配置告警阈值和通知方式。
后台路径:**账户 → 通知设置**
在此页面可配置告警阈值、启用/关闭各类通知渠道。
## 告警方式详解
**默认开启**
余额低于阈值时,系统自动发送告警邮件到账户注册邮箱,无需额外配置。
支持 **企业微信 / 钉钉 / 飞书** 等常用办公群的 Webhook 机器人,实时推送到团队群。
支持接入自定义的**余额提醒 API**,便于对接自有监控系统或业务告警平台。
## 配置步骤
访问 [api.apiyi.com](https://api.apiyi.com) 并登录你的账户。
在左侧菜单进入 **账户 → 通知设置**,或直接打开 [通知设置页面](https://api.apiyi.com/account/notificationSettings)。
配置余额低于多少时触发告警(例如余额少于 10 元时提醒),建议根据日均消耗合理设置,至少保留 3-7 天的使用量。
按需启用邮件、群机器人 Webhook 或余额提醒 API,并填写对应的通知地址 / Webhook URL。
配置完成后,可通过测试按钮或临时调低阈值的方式验证告警是否正常触达。
## 告警渠道推荐
**团队用户建议同时启用多渠道告警**
* **个人开发者**:邮件通知即可
* **小团队**:邮件 + 企业微信/钉钉/飞书群机器人
* **企业用户**:邮件 + 群机器人 + 余额提醒 API(接入自有监控系统)
## 常见问题
请检查:
1. 账户注册邮箱是否正确、能否正常收信
2. 告警邮件是否被误判为垃圾邮件(查看垃圾箱)
3. 在通知设置中确认**邮件通知**是否已开启
4. 余额是否真的低于设置的告警阈值
* **企业微信**:群聊 → 群机器人 → 添加机器人 → 获取 Webhook URL
* **钉钉**:群设置 → 智能群助手 → 添加机器人 → 自定义机器人 → 复制 Webhook
* **飞书**:群设置 → 群机器人 → 添加机器人 → 自定义机器人 → 复制 Webhook 地址
将获取到的 Webhook URL 填入通知设置对应的输入框即可。
余额提醒 API 允许你配置一个自定义的 HTTP 回调地址,当余额低于阈值时,系统会向该地址发送 POST 请求,便于你接入自有监控平台(如 Grafana、Prometheus、内部告警系统等)。
具体接入方式请参考文档中心的 API 说明,或联系客服获取接入指引。
系统默认有防打扰机制,避免短时间内重复推送相同告警。建议设置告警阈值后,及时完成充值,避免余额进一步降低导致业务中断。
目前通知设置中可配置余额预警阈值,当余额低于该值时触发告警。如需更复杂的多级告警策略,可结合余额提醒 API 在自有系统中实现。
## 相关文档
了解请求预扣机制,避免余额充足却调用失败
查看 API易 支持的充值渠道与操作指南
了解最新的充值加赠活动,节省成本
查看消费明细,分析余额消耗情况
**温馨提醒**
余额告警只是辅助手段,建议同时定期关注账户余额与消费情况,尤其在业务高峰期或新接入模型时及时充值,避免因余额不足影响线上服务。
# 为什么还有余额跑不通?
Source: https://docs.apiyi.com/faq/balance-insufficient
API易余额不足问题排查指南,了解请求预扣机制和Token超长的解决方案
## 请求预扣机制
API易采用**请求预扣**机制,在发送请求时会预先扣除预估费用。如果当前余额不足以支持这个请求,即使账户中还有一些余额,也会导致请求失败。
**预扣机制说明**
系统会根据输入内容的复杂度预估本次请求的最大可能费用,如果预估费用超过当前余额,请求将无法执行。
## 常见原因分析
### 1. 输入内容Token超长
**图片内容**
* 上传了复杂的图片(高分辨率、多图片)
* 页面多的PDF文件或复杂文档
* 图表、截图等视觉内容较多
**文本内容**
* 在第三方软件中开启了联网搜索插件
* 传入了整个代码库(多目录多文件)
* 长篇文档或大量代码
### 2. 超过模型上下文限制
这些超长内容可能导致:
* **超过当前模型的整个上下文**(输入+输出总和)
* **超过您当前API易的余额**
* **请求预扣金额过高**
**上下文计算**
模型的上下文限制 = 输入Token + 输出Token的总和
例如:如果模型支持128K上下文,而您的输入已经用了100K Token,那么输出最多只能有28K Token。
## 解决方案
### 1. 检查输入内容
**优化输入**
* 压缩或减小图片尺寸
* 分批处理大文件
* 关闭不必要的联网搜索功能
* 只传入相关的代码文件,而非整个项目
**内容分片**
* 将长文档拆分为多个部分
* 分批上传多张图片
* 逐个处理代码文件
### 2. 检查账户余额
**余额查看**
* 登录控制台查看当前余额
* 确认余额是否足够支付预估费用
* 考虑充值以获得更充足的余额
### 3. 选择合适的模型
**推荐测试模型**
* `gpt-4o-mini` - 价格便宜,适合测试
* `gpt-3.5-turbo` - 成本较低的选择
* `claude-3-haiku` - 快速且经济的模型
**成本优化建议**
先用便宜的模型测试您的输入内容是否合理,确认没有问题后再切换到更高端的模型。
### 4. 分析Token使用
**Token计算工具**
* 使用在线Token计算器预估内容长度
* 查看API返回的Token使用统计
* 对比不同内容的Token消耗
## 技术支持
如果按照上述方法仍然无法解决问题,可以联系技术客服获得帮助:
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
请提供以下信息以便快速诊断:
* 账户余额截图
* 输入内容的大致描述
* 使用的模型名称
* 错误信息截图
## 预防措施
### 1. 内容预处理
* 在发送前评估内容复杂度
* 使用压缩工具优化文件大小
* 提取关键信息而非全量内容
### 2. 余额管理
* 保持充足的账户余额
* 设置余额预警提醒
* 定期查看消费记录
### 3. 模型选择
* 根据任务复杂度选择合适模型
* 简单任务使用经济型模型
* 复杂任务再考虑高端模型
## 常见错误信息
* `Insufficient balance for this request` - 余额不足
* `Input too long` - 输入内容过长
* `Context length exceeded` - 超过上下文限制
* `Request timeout` - 请求超时(通常因内容过长)
# 下载 CDN 图片/视频很慢怎么办?
Source: https://docs.apiyi.com/faq/cdn-download-slow
API易 的图片与视频资源由 Cloudflare R2 全球 CDN 托管,本文帮你排查海外 CDN 在特定服务器上下载慢的常见原因与解决方案。
## 简短回答
API易 生成的图片与视频(如 Veo 3.1、Sora、Nano Banana 等模型的产物)统一托管在 **Cloudflare R2 全球 CDN**,理论上全球访问速度都很快。如果你的服务器下载很慢,**绝大多数情况是你所在服务器到 Cloudflare 边缘节点的网络链路问题**,而不是 CDN 本身的问题 —— 尤其是中国大陆服务器访问海外 CDN 时,容易受到跨境带宽、运营商路由、本地 DNS 解析等因素影响。
**重点提示**
Cloudflare R2 的资源 URL 通常形如 `*.r2.cloudflarestorage.com` 或通过 Cloudflare 代理的自定义域名。是否能快速下载,取决于你的服务器能否高效访问到最近的 Cloudflare 边缘节点。
## 常见原因分析
中国大陆服务器访问海外 CDN 时,国际出口带宽在高峰期容易拥塞,导致下载缓慢甚至间歇性超时。
部分云厂商或机房的国际路由会绕行美西、欧洲,实际链路延迟远高于直连节点。
本地 DNS 可能把 Cloudflare 域名解析到较远的边缘节点(如美西),而非就近的亚太节点。
部分服务器对境外 IP 段、443 端口或特定 CDN 域名存在出站限制,会降低连接质量。
下载端未启用 HTTP/2 或未复用 TCP 连接,每个文件单独建连会显著放大延迟。
大文件或多文件使用单线程串行下载,无法利用 CDN 的多路复用优势。
## 排查步骤
在本地电脑 / 其他服务器上尝试下载同一个 CDN URL。
* 如果本地电脑很快、服务器慢 → **服务器网络链路问题**
* 如果所有环境都慢 → 请联系客服,提供具体 URL
使用 `ping`、`mtr`、`traceroute` 等工具测试到 CDN 域名的延迟与丢包:
```bash theme={null}
# 测试延迟与路由
ping
mtr -rwc 30
traceroute
```
如果出现大量丢包、延迟超过 200ms 或路由绕行境外,说明底层链路存在问题。
使用 `curl` 查看下载耗时与吞吐:
```bash theme={null}
curl -o /dev/null -w "dns:%{time_namelookup} connect:%{time_connect} \
ttfb:%{time_starttransfer} total:%{time_total} speed:%{speed_download}\n" \
""
```
重点关注:
* `time_namelookup`:DNS 解析耗时
* `time_connect`:TCP 建连耗时
* `time_starttransfer`:首字节耗时(TTFB)
* `speed_download`:平均下载速率(字节/秒)
```bash theme={null}
dig
nslookup
```
查看解析出的 IP 是否就近(亚太用户应解析到亚太节点)。若解析到远端,可尝试更换公共 DNS。
确认云厂商的安全组、防火墙规则是否放行了 443 端口和境外 IP 段,以及是否存在带宽限速。
## 解决方案
### 方案一:更换公共 DNS(最简单)
国内服务器默认 DNS 经常把 Cloudflare 解析到较远节点,建议改为以下公共 DNS:
```bash theme={null}
{/* /etc/resolv.conf */}
nameserver 1.1.1.1 # Cloudflare
nameserver 8.8.8.8 # Google
nameserver 223.5.5.5 # 阿里 DNS
nameserver 119.29.29.29 # 腾讯 DNS
```
优先使用 `1.1.1.1` —— 它是 Cloudflare 自家的 DNS,能解析到最近的 Cloudflare 边缘节点,对 R2 / Cloudflare CDN 友好度最高。
### 方案二:优化下载方式
多文件场景使用并发下载(如 `aria2c -x 8`、Python `asyncio + httpx`),充分利用带宽。
大视频文件启用 HTTP Range 分块下载 + 失败重试,避免单次失败重头下载。
使用支持 HTTP/2 或 keep-alive 的客户端(如 `httpx`、`requests.Session()`),避免频繁建连。
下载时流式写入磁盘,避免把整个视频读入内存导致 OOM 或卡顿。
**Python 示例(推荐)**:
```python theme={null}
import httpx
import asyncio
async def download(url: str, path: str):
async with httpx.AsyncClient(http2=True, timeout=120) as client:
async with client.stream("GET", url) as resp:
resp.raise_for_status()
with open(path, "wb") as f:
async for chunk in resp.aiter_bytes(chunk_size=1024 * 256):
f.write(chunk)
asyncio.run(download("", "output.mp4"))
```
**aria2c 示例(命令行)**:
```bash theme={null}
aria2c -x 8 -s 8 -k 1M --file-allocation=none ""
```
### 方案三:更换服务器所在区域
如果你的应用场景允许,优先选择**网络质量更好的机房**来访问海外 CDN:
AWS / GCP / Azure / Cloudflare Workers 等海外机房访问 Cloudflare R2 延迟极低,通常仅 10-50ms。
如果必须在中国大陆部署,选择带三网 BGP + 国际优化链路(CN2 GIA、CMI、AS9929 等)的机房,延迟与稳定性更好。
作为折中方案,港新机房对大陆延迟低(30-80ms),对 Cloudflare 亚太节点也很友好。
部分低价机房国际出口拥塞严重,高峰期下载速度可能降到几十 KB/s,不建议用于对 CDN 下载有要求的业务。
### 方案四:中转落盘(终极方案)
如果你的服务器访问 Cloudflare CDN 确实非常慢,且无法更换机房,可以考虑:
1. **使用海外服务器做中转**:在海外机房先把 CDN 资源下载到本地,再通过内部专线/国际优化链路回传到你的服务器
2. **对象存储中转**:把资源先同步到你自己的 OSS / COS / S3(如阿里云 OSS 境内 Bucket),后续业务从境内对象存储读取
3. **CDN 预热回源**:在业务侧先下载一次并缓存,后续请求走本地缓存
**及时性提醒**
API易 的图片/视频 CDN URL 通常有一定的有效期(具体以返回的 URL 为准)。建议业务收到回调后**尽快下载并持久化**到自己的存储,避免过期后资源失效。
## 常见问题
本地电脑走的是家庭宽带(通常有运营商国际加速),而云服务器走的是机房国际出口,两者的国际链路质量差异很大。请优先检查服务器所在机房的国际带宽质量,并参考上面的排查步骤。
DNS 只影响解析到哪个 CDN 节点,如果底层国际带宽本身就拥塞,换 DNS 也无法根本解决问题。此时建议考虑换机房、走中转方案,或使用海外服务器做下载代理。
Cloudflare 的服务在中国大陆没有被封锁,但国际出口带宽在高峰期容易拥塞,且部分运营商路由不理想,导致访问速度不稳定。这是跨境网络的普遍情况,并非 R2 本身的问题。
建议使用支持**断点续传**的下载工具(如 `aria2c`、`wget -c`),并设置合理的超时和重试次数。示例:
```bash theme={null}
aria2c -x 8 -s 8 -c --max-tries=10 --retry-wait=3 ""
```
视频文件体积大(几十 MB 到几百 MB),Base64 会额外膨胀约 33%,并且无法断点续传,反而更慢、更占带宽。**不建议** 将大文件转 Base64。对于图片等小文件,部分接口支持返回 Base64,具体请查看对应 API 文档。
在海外服务器(如 AWS 东京、新加坡)上测试同一个 CDN URL 的下载速度。如果海外很快、你的服务器很慢,基本可以确定是你所在服务器到 Cloudflare 的链路问题,而非 CDN 本身。
## 相关文档
如果国际网络不稳定,参考代理配置方案
了解 API易 API 服务器位置与网络延迟情况
查看视频生成接口的输出格式与有效期说明
如果以上方案都无效,欢迎联系客服协助排查
**提交诊断信息**
联系客服时,请附上以下信息以便快速定位问题:
* 具体的 CDN URL(可脱敏关键参数)
* 服务器所在地区与机房/云厂商
* `mtr` 或 `traceroute` 的完整输出
* `curl` 测速命令的时间统计输出
* 出现问题的时间段(方便核对跨境链路监控)
# 内容安全如何合规性?
Source: https://docs.apiyi.com/faq/content-safety
API易内容安全和合规性政策说明,包括内容审核机制和违规处理措施
## 内容安全保障体系
API易致力于提供安全、合规的AI服务,采取多层次的安全措施来确保内容的合规性。
## 内容审核机制
### 专业审核系统
我们已接入**专业官方的内容审核API**,为所有请求提供实时保护:
**审核工作原理**
* **实时检测**:每个API请求都会经过内容审核
* **智能识别**:自动识别潜在违规内容
* **主动拦截**:违规内容不会返回给用户
* **零容忍政策**:对违规内容采取严格措施
### 审核覆盖范围
* **输入内容审核**:检查用户提交的所有文本和图片
* **输出内容审核**:确保AI生成的内容符合规范
* **多语言支持**:支持中文、英文等主流语言审核
* **多模态检测**:覆盖文本、图片等多种内容形式
## 合规要求
### 用户责任
**法律法规遵守**
用户在使用API易服务时,**必须遵守所在地区的法律法规**,包括但不限于:
* 国家和地方的相关法律条款
* 行业监管要求
* 国际法律规范
* 平台使用条款
### 禁止内容类型
以下类型的内容严格禁止:
* **违法违规内容**:涉及违法犯罪的信息
* **有害信息**:可能造成危害的内容
* **不当内容**:违反社会道德规范的信息
* **侵权内容**:侵犯他人权益的材料
## 违规处理措施
### 违规后果
API易平台保留对违规行为采取行动的权利:
**轻微违规**
* 内容拦截和提醒
* 使用指导和警告
**重复违规**
* 账户使用限制
* 功能权限降级
**严重违规**
* 账户暂停或终止
* 已支付费用不予退还
* 配合相关部门调查
### 申诉机制
如果您认为审核结果有误,可以通过以下方式申诉:
* **技术客服**:[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
* **官方邮箱**:[hi@apiyi.com](mailto:hi@apiyi.com)
* **详细说明**:提供具体的申诉理由和相关证据
## 政策文档
### 服务条款
建议用户仔细阅读我们的服务条款:
* **使用政策**:详细规定了平台使用规范
* **隐私政策**:说明数据处理和隐私保护措施
* **免责声明**:明确平台和用户的责任边界
### 最佳实践建议
**安全使用建议**
1. **内容自查**:发送前自行检查内容是否合规
2. **了解规则**:熟悉平台的使用政策和限制
3. **合理使用**:确保使用目的正当且合法
4. **及时更新**:关注政策更新和调整
## 技术保障
### 审核技术
* **AI智能审核**:结合机器学习和深度学习技术
* **人工复核**:重要内容进行人工二次审核
* **实时更新**:审核规则持续优化和更新
* **多重验证**:采用多种检测算法交叉验证
### 数据安全
* **加密传输**:所有数据传输采用加密保护
* **安全存储**:审核日志安全存储和管理
* **访问控制**:严格的权限管理和访问控制
* **合规监管**:接受相关部门的监管和审计
## 联系支持
如果您对内容安全和合规性有任何疑问,请随时联系我们的支持团队:
**技术支持**
* 企业微信客服:[点击联系](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
* 邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)
**咨询内容**
* 内容合规性咨询
* 违规申诉处理
* 政策解读说明
* 技术问题反馈
我们致力于为用户提供安全、可靠的AI服务,同时确保所有活动都符合相关法律法规要求。
# API易如何保障数据安全?
Source: https://docs.apiyi.com/faq/data-security
API易数据安全保护措施详解,包括加密传输、最小化存储和访问控制机制
## 数据安全承诺
API易高度重视用户数据安全,采取了多重措施保护您的信息。我们致力于为用户提供安全、可靠的AI中转服务。
## 核心安全措施
### 端到端加密
**TLS 1.3 加密传输**
所有数据传输均采用 **TLS 1.3 协议加密**,确保数据在传输过程中的安全:
* 最新的加密标准,提供最强的安全保护
* 防止数据在传输过程中被窃取或篡改
* 端到端的加密保护,从用户到服务器全程加密
### 最小化数据存储
**中转平台定位**
API易作为中转平台的核心优势:
* **不存储请求内容**:不会保存您的API请求内容(输入和输出)
* **不查看用户数据**:技术团队无法查看具体的对话内容
* **即转即删**:请求处理完成后,内容数据立即清除
* **隐私优先**:最大限度保护用户隐私
**为什么选择最小化存储?**
作为中转平台,我们的职责是安全、高效地转发请求,而不是存储用户数据。这种设计从根本上保护了您的隐私安全。
### 有限日志记录
**基础日志范围**
我们只记录计费和故障排查必需的基础信息:
* **使用的模型名称**:用于计费和服务统计
* **Token长度统计**:输入和输出的Token计数
* **请求时间戳**:用于日志分析和故障排查
* **响应状态**:成功或错误状态记录
**明确不记录的内容**
* ❌ 具体的对话内容
* ❌ 用户输入的文本
* ❌ AI输出的具体回复
* ❌ 图片或文件内容
* ❌ 个人身份信息
### 短期日志保留
**7天保留政策**
**保留期限:仅7天**
出于以下考虑:
* **数据安全**:减少数据泄露风险
* **资源优化**:磁盘空间也要钱\~\~ 😊
* **隐私保护**:最小化数据留存时间
* **合规要求**:符合数据保护法规
7天后,所有日志数据自动删除,无法恢复。
## 访问控制机制
### 严格的权限管理
**授权访问制度**
* **最小权限原则**:只有经过授权的技术人员才能访问日志
* **匿名化处理**:访问的日志数据已进行匿名化处理
* **必要性审核**:仅在故障排查等必要情况下才会访问
* **操作记录**:所有访问操作都有完整的审计日志
### 技术团队管理
* **背景审查**:技术人员经过严格的背景调查
* **保密协议**:签署严格的数据保密协议
* **定期培训**:接受数据安全和隐私保护培训
* **权限轮换**:定期轮换和审核访问权限
## 安全保障体系
### 定期安全审计
**持续安全改进**
**安全评估内容**
API易团队定期进行全面的安全评估:
* **系统漏洞扫描**:定期检查系统安全漏洞
* **代码安全审查**:审核代码中的潜在安全风险
* **基础设施检查**:评估服务器和网络安全
* **流程优化**:持续改进安全管理流程
### 合规性保障
**法规遵守承诺**
* **数据保护法规**:严格遵守GDPR、《个人信息保护法》等
* **行业标准**:符合AI服务行业的安全标准
* **监管要求**:配合相关部门的监管和审计
* **国际标准**:参考ISO 27001等国际安全标准
## 安全最佳实践
### 用户侧建议
**增强安全性的建议**
1. **API Key 管理**
* 定期轮换API Key
* 不要在代码中硬编码Key
* 使用环境变量存储敏感信息
2. **敏感信息处理**
* 避免在请求中包含敏感个人信息
* 使用脱敏数据进行测试
* 谨慎处理商业机密内容
3. **网络安全**
* 使用HTTPS协议访问API
* 在安全的网络环境中使用服务
* 及时更新客户端软件
### 平台侧保障
* **多层防护**:部署多层安全防护措施
* **实时监控**:24/7安全监控和威胁检测
* **应急响应**:建立完善的安全事件响应机制
* **备份恢复**:定期备份和灾难恢复演练
## 透明度承诺
### 安全事件通知
如发生可能影响用户数据安全的事件,我们承诺:
* **及时通知**:在发现安全事件后24小时内通知用户
* **详细说明**:提供事件详情和影响范围
* **解决方案**:说明采取的补救措施
* **预防措施**:分享后续的预防改进措施
## 技术支持
如果您对数据安全有任何疑问,欢迎联系我们的技术支持团队:
**技术客服**
* [联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
* 邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)
**咨询范围**
* 数据安全政策解释
* 隐私保护措施说明
* 安全最佳实践指导
* 安全事件报告和处理
我们将持续改进安全措施,为您提供更加安全可靠的AI服务。
# 忘记密码了怎么办?
Source: https://docs.apiyi.com/faq/forgot-password
忘记 API易 账号密码的找回方法,包括邮箱重置、客服协助找回等多种方案
## 简短回答
如果您是邮箱注册的用户,可以在登录页面通过「重置密码」功能找回;如果没有绑定邮箱,可以联系客服通过用户名、充值记录或 API Key 协助找回。
## 方案一:邮箱重置密码
如果您是通过**邮箱注册**的用户,可以自助找回密码:
进入 API易 登录页面,输入您的邮箱地址。
输入邮箱后,随意输入一个密码并点击登录。登录失败后,页面会出现**红色的「重置密码」链接**。
点击红色的「重置密码」文字,系统会跳转到密码找回页面,通过您绑定的邮箱发送重置链接。
前往邮箱查收重置邮件,点击链接设置新密码即可。
如果没有收到重置邮件,请检查垃圾邮件文件夹,或稍等几分钟后重试。
## 方案二:联系客服找回
如果您**没有绑定邮箱**,或者忘记了注册邮箱,可以联系客服协助找回。请提供以下任意一项信息用于验证身份:
提供您记得的 API易 用户名
提供支付宝或微信的充值账单截图
提供您使用过的 API Key
请至少提供以上一项信息,客服核实后会协助您找回账号。
## 方案三:找回后绑定邮箱
成功登录后,**强烈建议**您在用户中心绑定邮箱:
登录后,进入「用户中心」页面。
找到邮箱绑定选项,填写您的常用邮箱并完成验证。
绑定邮箱后,设置一个安全的密码。后续即可使用邮箱 + 密码登录。
绑定邮箱后,您可以随时通过邮箱自助找回密码、修改密码,无需再联系客服。
## 常见问题
在登录页面输入邮箱和一个错误的密码,点击登录后,页面会显示登录失败提示,同时出现红色的「重置密码」可点击文字。
第三方登录的用户请直接使用对应平台登录。如果第三方登录也遇到问题,请参考 [GitHub 登录问题](/faq/github-bindng-bindng-error) 或联系客服。
绑定邮箱后,您可以:
* 通过邮箱自助重置密码
* 使用邮箱 + 密码作为备用登录方式
* 接收重要的账户通知
## 联系我们
如需客服协助找回账号,请准备好用户名、充值记录或 API Key 等验证信息,联系客服处理。
# GitHub 登录提示「该账户已绑定」怎么办?
Source: https://docs.apiyi.com/faq/github-bindng-bindng-error
解决使用 GitHub 一键登录 API易 时提示「该 GitHub 账户已绑定」的问题
## 简短回答
您需要在**同一个浏览器**中先登录 `github.com`,然后再到 API易 网站使用 GitHub 一键登录。**务必使用 Chrome 浏览器**操作。
## 问题现象
使用 GitHub 账号登录 API易 时,页面提示:
> 该 GitHub 账户已绑定
导致无法正常登录。
## 解决步骤
请务必使用 **Chrome 浏览器**进行操作,避免使用其他浏览器(如 Safari、Firefox 等),以确保登录流程正常。
在 Chrome 浏览器中打开 `github.com`,确认您已登录到正确的 GitHub 账号。
如果之前登录了其他 GitHub 账号,请先退出,再登录您绑定 API易 的那个账号。
在**同一个 Chrome 浏览器**中,打开 API易 网站,点击「GitHub 一键登录」按钮完成登录。
必须在同一个浏览器中完成以上两步操作,不能在不同浏览器中分别登录。
## 常见问题
Chrome 浏览器对 GitHub OAuth 登录流程的兼容性最好,其他浏览器可能会出现 Cookie 或会话同步问题,导致登录异常。
请尝试以下操作:
* 清除 Chrome 浏览器的缓存和 Cookie
* 确认 Chrome 没有使用无痕模式
* 检查是否有浏览器插件阻止了第三方 Cookie
* 退出 GitHub 后重新登录,再尝试一键登录 API易
如需更换绑定的 GitHub 账号,请联系客服协助处理。
## 联系我们
如果按照上述步骤操作后仍无法解决,请联系客服获取帮助。
# 为什么提示 API Key 无效?
Source: https://docs.apiyi.com/faq/invalid-api-key
解决 API Key 无效错误,了解 Base URL 和 API Key 的正确配置方法
## 常见错误现象
当您看到类似以下错误信息时:
```json theme={null}
{
"error": {
"message": "Incorrect API key provided: sk-QqHvK***...",
"type": "invalid_request_error",
"code": "invalid_api_key"
}
}
```
这通常**不是**您的 API Key 本身有问题,而是**请求地址(Base URL)配置错误**导致的。
**最常见的错误**:使用了 API易 的 Key,但请求地址仍然指向 OpenAI 官网 `https://api.openai.com`
## 什么是 Base URL?
**Base URL**(基础 URL / 请求地址)是 API 请求的目标服务器地址。不同的 API 服务提供商使用不同的 Base URL。
### Base URL 和 API Key 必须一一对应
| 服务提供商 | Base URL | API Key 格式 | 是否匹配 |
| ------------- | ------------------------ | --------------- | -------- |
| **API易** | `https://api.apiyi.com` | `sk-xxxx......` | ✅ 正确 |
| **OpenAI 官方** | `https://api.openai.com` | `sk-xxxx......` | ✅ 正确 |
| ❌ API易 Key | `https://api.openai.com` | `sk-xxxx......` | ❌ **错误** |
| ❌ OpenAI Key | `https://api.apiyi.com` | `sk-xxxx......` | ❌ **错误** |
**关键原则**:使用哪家的 API Key,就必须将请求发送到对应服务商的 Base URL。
## 正确的配置方法
### 方法一:修改 Base URL(推荐)
只需将请求地址从 OpenAI 官网替换为 API易,其他代码完全不变:
```python Python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-apiyi-key", # API易后台获取的Key
base_url="https://api.apiyi.com/v1" # 改为API易地址
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好"}]
)
```
```javascript JavaScript/Node.js theme={null}
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-your-apiyi-key', // API易后台获取的Key
baseURL: 'https://api.apiyi.com/v1' // 改为API易地址
});
const response = await client.chat.completions.create({
model: 'gpt-4o',
messages: [{ role: 'user', content: '你好' }]
});
```
```bash cURL theme={null}
curl https://api.apiyi.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-apiyi-key" \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "你好"}]
}'
```
### 方法二:使用环境变量
设置环境变量后,代码中无需显式指定 Base URL:
```bash Linux/macOS theme={null}
export OPENAI_API_KEY="sk-your-apiyi-key"
export OPENAI_BASE_URL="https://api.apiyi.com/v1"
```
```powershell Windows PowerShell theme={null}
$env:OPENAI_API_KEY="sk-your-apiyi-key"
$env:OPENAI_BASE_URL="https://api.apiyi.com/v1"
```
```cmd Windows CMD theme={null}
set OPENAI_API_KEY=sk-your-apiyi-key
set OPENAI_BASE_URL=https://api.apiyi.com/v1
```
## API易支持的请求地址格式
根据您的代码情况,API易支持以下三种 Base URL 格式:
```
https://api.apiyi.com/v1
```
**适用场景**:大多数代码库默认会在 Base URL 后自动添加具体路径
**完整请求示例**:
```
https://api.apiyi.com/v1/chat/completions
https://api.apiyi.com/v1/models
```
```
https://api.apiyi.com/v1/
```
**适用场景**:某些框架要求 Base URL 以斜杠结尾
**完整请求示例**:
```
https://api.apiyi.com/v1/chat/completions
https://api.apiyi.com/v1/models
```
```
https://api.apiyi.com/v1/chat/completions
```
**适用场景**:直接使用完整的 API 端点地址(如 cURL 请求)
这种方式通常用于 cURL 或 HTTP 库的原始请求,不需要设置 Base URL
## 常见问题排查
**可能原因**:
1. **代码中有多处配置**:检查是否在配置文件、环境变量、代码初始化等多处都设置了 Base URL
2. **使用了代理或中间件**:某些代理工具可能会重定向请求
3. **缓存问题**:重启程序或清除缓存后重试
4. **拼写错误**:确认 `apiyi` 拼写正确(不是 `apiyii` 或 `apiyl`)
在 API易 后台查看:
1. 登录 API易 后台 `console.apiyi.com`
2. 进入「令牌」页面
3. 检查 Key 状态是否为「启用」
4. 确认账户余额充足
大多数第三方工具都有「自定义 API」或「自建服务器」选项:
* **API 地址 / Base URL**:`https://api.apiyi.com/v1`
* **API Key**:从 API易 后台复制您的 Key
* **模型名称**:参考 API易 文档中的模型列表
具体配置位置可能在「设置」→「API」或「服务器」等选项中
API易 提供了多种语言的完整代码示例:
1. **快速开始文档**:文档首页 → 代码示例
2. **在线测试工具**:后台 → ApiFox 在线测试
3. **GitHub 仓库**:`github.com/apiyi/docs` → knowledge-base 目录
## 错误示例 vs 正确示例
```python theme={null}
client = OpenAI(
api_key="sk-apiyi-key",
base_url="https://api.openai.com/v1"
# ❌ 使用了OpenAI官网地址
)
```
**结果**:OpenAI 服务器会拒绝 API易 的 Key
```python theme={null}
client = OpenAI(
api_key="sk-apiyi-key",
base_url="https://api.apiyi.com/v1"
# ✅ 使用API易地址
)
```
**结果**:请求成功发送到 API易 服务器
## 快速测试方法
使用 cURL 命令快速验证配置是否正确:
```bash theme={null}
curl https://api.apiyi.com/v1/models \
-H "Authorization: Bearer sk-your-apiyi-key"
```
**预期结果**:返回可用模型列表
```json theme={null}
{
"data": [
{
"id": "gpt-4o",
"object": "model",
...
}
]
}
```
如果返回错误,请检查:
1. API Key 是否正确复制(注意首尾空格)
2. 网络连接是否正常
3. 账户余额是否充足
## 相关文档
* [快速开始指南](/quickstart)
* [API 使用手册](/api-manual)
* [为什么还有余额跑不通?](/faq/balance-insufficient)
* [支持的模型列表](/models)
**记住核心原则**:哪家的 Key 配哪家的 URL,API易 的 Key 就用 `https://api.apiyi.com/v1`
# 系统里模型的【倍率】是什么?
Source: https://docs.apiyi.com/faq/model-multiplier
了解 API易 模型倍率的含义、计算规则和与官方定价的对应关系
## 快速答案
**倍率是行业通用的价格计算方式。** 如果您不关心倍率,只需查看模型列表中的【价格】列即可。本站美金充值、美金计费。查看全部模型价格:[模型定价](https://api.apiyi.com/modelPricing)
## 定价策略
| 模型类型 | 定价规则 | 折扣方式 |
| ------------- | -------- | ------------------------------------------------ |
| **文本/多模态大模型** | 与官方定价一致 | [充值加赠](/faq/recharge-promotions) + 分组折扣 |
| **图片/视频模型** | 按次收费,有特价 | 具体价格见 [模型定价](https://api.apiyi.com/modelPricing) |
文本模型的折扣体现在两方面:**充值加赠活动**(充值时额外赠送额度)和**分组折扣**(如国产模型单独分组享 0.88x 折扣)。
## 文本模型计费方式
一次调用的费用 = **输入 Tokens × 输入单价 + 输出 Tokens × 输出单价**
详细计费说明请参考 [计费说明](/pricing)。
## 基本概念
首先明确两个术语对应关系:
| 系统术语 | 含义 |
| ------------------ | --------- |
| **提示(Prompt)** | 输入 Tokens |
| **补全(Completion)** | 输出 Tokens |
## 倍率计算规则
倍率是一个相对值,用于推算具体价格:
* **提示倍率 × 2** = 输入价格(美金 / 百万 Tokens)
* **补全倍率** = 输出价格 ÷ 输入价格(即输出是输入的几倍)
## 计算示例
以 `claude-opus-4-6` 为例:
| 项目 | 倍率 | 计算过程 | 最终价格 |
| -- | ------------ | --------------- | -------------------- |
| 输入 | 提示倍率 **2.5** | 2.5 × 2 = 5 | **\$5 / 百万 Tokens** |
| 输出 | 补全倍率 **5** | 5 × 5(输入价格)= 25 | **\$25 / 百万 Tokens** |
按照此公式计算,API易 的价格与官网定价完全一致。
## 图片/视频模型计费
图片和视频模型采用**按次收费**,部分模型有特价优惠,具体价格请在后台 [模型定价](https://api.apiyi.com/modelPricing) 栏目中查询。
## 总结
* 倍率是**内部及行业通用**的价格计算方式
* 不需要理解倍率也能正常使用,直接看\*\*【价格】列\*\*即可
* **文本模型**与官方定价一致,折扣通过充值加赠和分组折扣体现
* **图片/视频模型**按次收费,有特价,详见 [模型定价](https://api.apiyi.com/modelPricing)
# 使用 API 接口需要代理网络吗?
Source: https://docs.apiyi.com/faq/network-proxy
了解 API易 的网络访问方式,是否需要使用代理或 VPN
## 简短回答
**不需要代理,可以直连。**
API易 支持国内直接访问,无需任何代理或 VPN。
## 网络访问说明
### 国内用户
**免代理直连**
* ✅ 无需配置代理或 VPN
* ✅ 直接访问 `api.apiyi.com`
* ✅ 采用企业专线回国线路,网络质量优良
* ✅ 低延迟、高稳定性
### 海外用户
如果您在海外使用 API易:
* 🚀 访问速度更快
* 🌐 直连国际线路
* ⚡ 无需额外配置
## 网络问题解决方案
极少数情况下,部分用户可能遇到以下问题:
SSL/TLS 证书验证失败
可能原因:本地时间不准确、证书链不完整
连接超时或无法建立连接
可能原因:本地网络限制、DNS 解析问题
### 备选方案:HTTP 地址
如遇到上述问题无法解决,我们提供 HTTP 访问地址作为备选方案:
**获取 HTTP 地址**
HTTP 协议不加密传输,仅作为临时解决方案使用。如需获取 HTTP 访问地址,请联系技术客服:
企业微信客服:[点击联系](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
## 常见问题
### 为什么国内可以直连?
我们使用了合规的企业专线回国线路,确保国内用户可以稳定、快速地访问服务。
### HTTPS 和 HTTP 有什么区别?
* **HTTPS**(推荐):加密传输,数据安全性高
* **HTTP**(备选):明文传输,仅在遇到 HTTPS 问题时临时使用
### 如何判断网络连接是否正常?
可以使用以下命令测试:
```bash theme={null}
# 测试 API 连接
curl -I https://api.apiyi.com
# 测试 DNS 解析
ping api.apiyi.com
```
如果返回正常响应,说明网络连接无问题。
## 网络优化建议
**提升访问速度的建议**
* 🕐 确保本地系统时间准确(避免证书验证失败)
* 🌐 使用稳定的 DNS 服务(如 114.114.114.114 或 8.8.8.8)
* 📡 优先使用有线网络而非 Wi-Fi
* 🔄 定期更新系统根证书
## 技术支持
如遇到网络访问问题,请联系技术客服:
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
技术支持,快速响应
# 支持对公或 USDT 付款吗?
Source: https://docs.apiyi.com/faq/payment-methods
API易支付方式说明,包括对公打款和USDT加密货币支付方式
## 支付方式概览
API易支持多种灵活的支付方式,不止是站内的微信支付、支付宝充值,还包括传统的对公打款和现代的加密货币支付。
## 对公打款
### 支持对公转账
我们**完全支持对公打款**,适合企业用户的财务需求。
**对公打款优势**
* 符合企业财务制度
* 便于开具正规发票
* 支持大额充值
* 安全可靠的传统支付方式
### 获取打款信息
出于安全考虑,我们不在网站上直接披露打款信息。请通过以下方式获取:
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
**邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)**
客服会为您提供完整的对公账户信息,包括:
* 收款公司名称
* 银行账号
* 开户行信息
* 转账备注要求
## USDT 加密货币支付
### 支持的区块链网络
我们支持多种主流区块链网络的 USDT 支付:
**TRC20 网络**
* 基于 TRON 区块链
* 转账手续费低廉
* 到账速度快
**Solana 网络**
* 高性能区块链
* 极低的交易费用
* 近乎即时到账
**其他主流公链**
* 根据需求支持其他网络
* 具体支持情况请咨询客服
**USDT 支付优势**
* 全球通用,无地域限制
* 24/7 随时充值
* 到账快速
* 手续费相对较低
* 适合国际用户
### 获取 USDT 收款地址
所有 USDT 收款地址需要通过客服获取:
**安全提醒**
为了资金安全,请务必通过官方客服渠道获取收款地址,切勿相信其他来源提供的地址信息。
## 联系方式
### 企业微信客服
[点击联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
* 提供对公打款信息
* 获取 USDT 收款地址
* 支付相关问题咨询
* 到账确认和处理
### 官方邮箱
**邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)**
* 正式的业务沟通
* 发票开具需求
* 大额充值协商
* 企业合作洽谈
## 支付流程
### 对公打款流程
1. **联系客服** - 获取对公账户信息
2. **发起转账** - 按要求填写转账信息
3. **提供凭证** - 向客服发送转账凭证
4. **确认到账** - 客服确认后充值到账
### USDT 支付流程
1. **获取地址** - 联系客服获取收款地址
2. **确认网络** - 选择合适的区块链网络
3. **发起转账** - 向指定地址转账 USDT
4. **提供哈希** - 向客服提供交易哈希
5. **确认到账** - 区块链确认后充值到账
## 注意事项
### 对公打款注意事项
* 转账时请备注指定信息
* 保留转账凭证以便查询
* 大额转账建议提前沟通
* 发票需求请提前告知
### USDT 支付注意事项
* 确认收款地址和网络类型
* 转账前核对地址准确性
* 保存交易哈希用于查询
* 小额测试后再进行大额转账
**充值到账时间**
* **对公打款**:工作日通常当天到账
* **USDT 支付**:区块链确认后几分钟到账
具体到账时间可能因银行处理时间或区块链网络状况而有所差异。
## 常见问题
### 可以开具发票吗?
支持开具正规发票,对公打款用户请在转账时告知发票需求。
### 有最低充值金额限制吗?
不同支付方式可能有不同的最低限额,具体请咨询客服。
### 支持其他加密货币吗?
目前主要支持 USDT,其他加密货币需求请咨询客服。
# 网站有什么充值活动吗?
Source: https://docs.apiyi.com/faq/recharge-promotions
了解 API易 的充值优惠政策,包括首充加赠、阶梯加赠、企业客户服务和发票服务
## 充值优惠概览
API易 提供多种充值优惠活动,帮助您以更实惠的价格使用 AI 服务。
* 🎁 **首充加赠**:首次充值即可获赠 1-2 美金
* 📊 **阶梯加赠**:充值越多,加赠比例越高(10%-20%)
* ⏰ **永久有效**:充值额度永不过期
* 🌐 **全站通用**:适用于本站所有模型
* 🏢 **发票支持**:在线充值和对公转账均可开票
## 首充加赠活动
### 普通用户首充
**首次充值加赠**:\$1
适用于所有新用户的首次充值
**首次充值加赠**:\$2
使用高校邮箱认证的教育客户
### 如何领取首充加赠?
选择任意金额完成您的首次充值
[添加企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
备注"首充加赠"以便快速处理
客服确认后会人工添加加赠额度到您的账户
**联系方式**:[企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec),添加时请备注"首充加赠"
**教育用户认证**:使用 `.edu.cn` 或其他高校邮箱注册并完成邮箱验证即可享受教育优惠
## 充值阶梯加赠
充值金额越大,加赠比例越高。大额充值的加赠会由平台方自动添加,无需特别申请。
**政策更新时间**:2025 年 12 月 18 日起执行新的充值加赠政策
### 加赠比例表
| 充值金额(单次充值) | 加赠比例 | 实际到账倍数 | 充值示例 |
| ---------------------- | ------- | -------- | ----------------------- |
| \$100 ≤ X \< \$500 | **10%** | 1.1 倍余额 | 充值 \$100 → 到账 \$110 |
| \$500 ≤ X \< \$1,000 | **12%** | 1.12 倍余额 | 充值 \$500 → 到账 \$560 |
| \$1,000 ≤ X \< \$3,000 | **15%** | 1.15 倍余额 | 充值 \$1,000 → 到账 \$1,150 |
| X ≥ \$3,000 | **20%** | 1.2 倍余额 | 充值 \$3,000 → 到账 \$3,600 |
**重要说明**:加赠比例按**单次充值金额**计算,而非累计充值金额
### 加赠发放说明
**自动发放**:充值 \$100 及以上的阶梯加赠,平台方会自动识别并添加,无需您主动申请。通常在充值成功后 2 小时内到账。
### 计算示例
**充值金额**:\$200
**所属区间**:\$100 ≤ X \< \$500
**加赠比例**:10%
**加赠金额**:\$200 × 10% = \$20
**实际到账**:\$200 + \$20 = **\$220**(1.1 倍)
**充值金额**:\$700
**所属区间**:\$500 ≤ X \< \$1,000
**加赠比例**:12%
**加赠金额**:\$700 × 12% = \$84
**实际到账**:\$700 + \$84 = **\$784**(约 1.12 倍)
**充值金额**:\$1,500
**所属区间**:\$1,000 ≤ X \< \$3,000
**加赠比例**:15%
**加赠金额**:\$1,500 × 15% = \$225
**实际到账**:\$1,500 + \$225 = **\$1,725**(1.15 倍)
**充值金额**:\$5,000
**所属区间**:X ≥ \$3,000
**加赠比例**:20%
**加赠金额**:\$5,000 × 20% = \$1,000
**实际到账**:\$5,000 + \$1,000 = **\$6,000**(1.2 倍)
## 额度使用说明
### 额度特点
充值额度无使用期限,随时可用
适用于 API易 所有模型和服务
按需使用,无最低消费要求
### 适用模型
充值额度适用于 **API易 本站全部模型**,包括文本生成、图像生成、视频生成、语音服务、音频生成等所有类型。
点击查看 API易 支持的所有模型及详细价格
**无需担心过期**:充值的额度永久有效,可以放心一次性充值更多金额享受更高加赠比例。
## 企业客户服务
API易 坚持对所有客户一视同仁,阶梯加赠价格公开透明、统一标准。针对企业客户,我们额外提供以下支持:
* **💬 专属对接群聊**:建立企业专属沟通群,快速响应您的需求
* **🎯 API 接入最佳实践**:根据您的业务场景,分享 API 接入和使用的最佳解决方案与经验
### 如何获取企业服务
发送邮件至:[business@apiyi.com](mailto:business@apiyi.com)
或在线联系客服说明您的企业需求
告知我们:
* 主要使用的模型类型(文本/图片/视频等)
* 业务场景简介
我们会为您建立专属对接群聊,持续提供技术支持与经验分享
**价格透明原则**:API易 坚持价格透明,阶梯加赠政策对所有客户公开一致,不设差异化定价。
## 发票服务
API易 支持为企业用户开具正规发票(增值税普通发票和增值税专用发票),满足您的财务报销需求。
### 如何申请发票
通过在线充值或对公转账完成充值
登录 **API易 网站后台** → **顶部导航** → **提交开票**
填写开票资料(最少需要:开票主体和税号)
**在线开票表单**:`https://xinqikeji.feishu.cn/share/base/form/shrcns8TS3alZTN2Av1JfkOvmqh`
我们会在 3-5 个工作日内开具发票并发送至您提供的邮箱
**支持的发票类型**:
* 增值税普通发票(适用于小规模纳税人)
* 增值税专用发票(适用于一般纳税人,可抵扣税款)
**开票周期**:发票通常在收到申请后 3-5 个工作日内开具。月底、季度末等财务高峰期可能略有延迟。
## 常见问题
**可以叠加!**
例如:首次充值 \$700
* 首充加赠:\$1(或教育用户 \$2)
* 阶梯加赠:\$700 × 12% = \$84
* 总到账:\$700 + \$1 + \$84 = **\$785**(普通用户)
记得[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)申请首充加赠哦!
**到账时间**:
* **在线支付**:即时到账(充值本金立即到账)
* **阶梯加赠**:24 小时内自动添加
* **首充加赠**:[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)后人工添加,通常 1 个工作日内
**对公转账**:到账后 1 个工作日内处理
**没有最低限制**,但建议:
* 最低充值 \$10 以上,避免频繁充值
* 充值 \$100 以上可享受阶梯加赠优惠
* 一次性充值更多金额可享受更高加赠比例
根据平台政策:
* **未使用的充值额度**:特殊情况可申请退款
* **加赠额度**:不支持退款
* **已使用额度**:不支持退款
如需退款请联系客服说明情况。
**加赠比例是按充值总额区间计算的,不是分段累加。**
**正确计算**:
* 充值 \$600 属于 \$500 ≤ X \< \$1,000 区间
* 加赠比例 12%
* 加赠金额:\$600 × 12% = \$72
* 实际到账:\$672
**不是分段计算**(错误方式):
❌ 前 \$500 × 12% + 后 \$100 × 10%
**在线提交开票资料**:
1. 登录 API易 网站后台
2. 点击顶部导航「提交开票」
3. 填写开票资料(最少需要:开票主体和税号)
4. 提交后等待 3-5 个工作日
**在线开票表单**:`https://xinqikeji.feishu.cn/share/base/form/shrcns8TS3alZTN2Av1JfkOvmqh`
## 充值建议
**推荐充值**:\$10 - \$50
适合初次使用、测试功能的用户
**推荐充值**:\$100 - \$500
享受 10%-12% 加赠,性价比高
**推荐充值**:\$500 - \$2,000
享受 12%-15% 加赠,余额充足无忧
**推荐充值**:\$3,000+
享受 20% 加赠,或联系商务定制方案
## 联系方式
如有充值、优惠、开票等相关问题,欢迎联系我们:
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
首充加赠、技术支持
**客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com)
**商务合作**:[business@apiyi.com](mailto:business@apiyi.com)
## 相关文档
* [快速开始](/quickstart)
* [如何充值余额](/faq/payment-methods)
* [为什么还有余额跑不通?](/faq/balance-insufficient)
* [余额管理](/faq/token-management)
**省钱小贴士**:充值前计算好您的预计使用量,选择合适的充值档位,可以最大化享受加赠优惠!
# API易 的退款政策是怎样的?
Source: https://docs.apiyi.com/faq/refund-policy
了解 API易 的退款条件、退款流程、手续费说明及发票相关注意事项
## 简短回答
API易 支持**充值后 30 天内无理由退款**,未使用的余额原路退回。退款时会扣减充值活动赠送的金额。微信和支付宝退款免手续费,其他支付方式收取 1% 手续费。
**退款承诺**:我们希望每位客户都能放心充值。30 天内如果不满意,随时可以申请退款,未使用的部分全额退还。
## 退款条件
充值后 30 天内均可申请退款,无需说明理由
若充值时参加了[充值优惠活动](/faq/recharge-promotions)获得赠送金额,退款时将扣减赠送部分
中国大陆客户:**未开发票**可退款,**已开发票**则无法退款
退款将退回到原来的支付方式,无需额外操作
## 退款手续费
| 支付方式 | 退款手续费 | 说明 |
| ------------------ | ------ | ------------- |
| **微信支付** | ✅ 免手续费 | 退回微信零钱或银行卡 |
| **支付宝** | ✅ 免手续费 | 退回支付宝账户 |
| **对公银行转账** | 1% 手续费 | 退回对公账户 |
| **USDT** | 1% 手续费 | 退回原钱包地址 |
| **Wise** | 1% 手续费 | 退回 Wise 账户 |
| **水星银行 (Mercury)** | 1% 手续费 | 退回 Mercury 账户 |
| **PayPal** | 1% 手续费 | 退回 PayPal 账户 |
**省钱建议**:使用微信或支付宝充值,退款时可免除手续费。
## 退款金额计算
退款金额 = 充值金额 - 已使用金额 - 赠送金额 - 手续费(如有)
**举例说明**:
假设你充值了 \$100,活动赠送了 \$10,已使用 \$30:
* 充值金额:\$100
* 赠送金额(需扣减):\$10
* 已使用金额:\$30
* 可退款金额:\$100 - \$30 - \$10 = **\$60**
* 若使用微信/支付宝支付:实际退回 **\$60**(免手续费)
* 若使用 PayPal 支付:实际退回 \$60 - \$60 × 1% = **\$59.40**
## 退款流程
[添加企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec),说明需要退款。
或发送邮件至 [support@apiyi.com](mailto:support@apiyi.com),邮件标题注明「退款申请」。
客服会核实你的账户余额、充值记录、赠送金额和发票情况,计算可退款金额并与你确认。
确认后,退款将退回到原支付方式。到账时间因支付渠道不同而异:
* **微信/支付宝**:通常 1-3 个工作日
* **银行转账/其他方式**:通常 3-7 个工作日
## 常见问题
超过 30 天原则上不再支持退款。建议在充值后 30 天内评估服务是否满足需求。如有特殊情况,可联系客服协商。
充值活动赠送的金额是额外赠送的福利,并非你实际支付的费用。退款时只退还你实际支付且未使用的部分,因此需要扣减赠送金额。详见 [充值优惠活动](/faq/recharge-promotions) 了解赠送规则。
中国大陆地区开具增值税发票后涉及税务处理流程,已开票的充值金额无法退款。建议在确定需要退款前暂不申请开票。
可以。退款只是退还未使用的余额,你的账户和 API Key 不会受影响。后续如需使用,重新充值即可。
可以。你可以选择退还部分余额,不必全额退款。联系客服时说明希望退款的金额即可。
微信和支付宝通常 1-3 个工作日到账,银行转账、USDT、Wise、PayPal 等通常 3-7 个工作日。如超时未到账,请联系客服查询。
## 相关文档
了解当前的充值加赠活动和优惠政策
查看所有支持的充值方式
余额不足时的解决方案
前往充值页面
# API易的服务器在哪里?应该选择什么服务器?
Source: https://docs.apiyi.com/faq/server-location
了解 API易 的服务器地理位置、数据中心分布、网络延迟测试方法以及服务器选购建议
## 服务器位置
API易 的服务器位于**美国洛杉矶(美西)**,采用知名 VPS 服务商**搬瓦工(BandwagonHost)的回国优化专线**。
**专线优化**:我们的服务器配备回国优化专线,专门针对中国大陆用户进行了网络优化,即使是大图片传输(Base64 编码)也能保持正常速度。
## 不同地区的网络表现
**网络表现**:优秀 ✅
* 回国专线优化,延迟低
* 大图片传输(Base64)速度正常
* 适合高频 API 调用场景
* 无需额外配置代理
**网络表现**:取决于地理位置 🌍
* 美西地区延迟最低
* 欧洲、亚太地区稍有延迟
* 建议选择美西机房服务器
* 可使用 CDN 加速
## 服务器选购建议
### 海外服务器推荐
如果您使用海外服务器调用 API易 的服务,建议选择:
**推荐选择**:美西(洛杉矶、圣何塞、西雅图等)机房的服务器
* **地理位置接近**:与我们的服务器在同一地区,延迟最低
* **网络路由优化**:同区域之间的网络路由通常最优
* **性价比高**:美西机房价格相对合理
如果您正在寻找稳定的 VPS 服务商,可以考虑与我们使用相同的服务商:
**BandwagonHost(搬瓦工)** - 知名 VPS 服务商
* ✅ 回国优化专线(CN2 GIA、CN2 等)
* ✅ 美西多个机房可选(洛杉矶、圣何塞等)
* ✅ 稳定可靠,性价比高
* ✅ 适合国内外用户访问
点击查看搬瓦工 VPS 套餐
### 中国大陆服务器
**中国大陆服务器也没问题**!
由于我们配备了回国优化专线,即使您的服务器位于中国大陆境内,访问 API易 的延迟和速度也是正常的,无需担心网络问题。
**适用场景**:
* 应用部署在国内云服务商(阿里云、腾讯云、华为云等)
* 用户主要在中国大陆地区
* 需要符合国内合规要求
## 如何测试网络延迟?
在选择服务器之前,建议先测试您的服务器到 API易 的网络延迟。
### 方法 1:Ping 测试
```bash theme={null}
# 测试延迟(ICMP)
ping api.apiyi.com
```
**参考延迟**:
* **中国大陆**:通常 50-150ms(回国专线优化)
* **美西地区**:通常 5-30ms(同区域)
* **欧洲/亚太**:通常 150-300ms(跨区域)
### 方法 2:cURL 延迟测试
```bash theme={null}
# 单次 HTTP 延迟测试
curl -o /dev/null -s -w "连接时间: %{time_connect}s\n总时间: %{time_total}s\n" https://api.apiyi.com
# 多次测试取平均值(更准确)
for i in {1..10}; do
curl -o /dev/null -s -w "第 $i 次 - 总时间: %{time_total}s\n" https://api.apiyi.com
done
```
### 方法 3:实际 API 调用测试
```bash theme={null}
# 测试实际 API 调用延迟
time curl -X POST https://api.apiyi.com/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o-mini",
"messages": [{"role": "user", "content": "Hello"}],
"max_tokens": 10
}'
```
**优化建议**:如果测试延迟较高(大于 500ms),可以考虑:
* 更换到美西机房的服务器
* 使用 CDN 或代理加速
* 联系客服咨询网络优化方案
## 网络优化建议
### 针对高延迟场景
如果您的服务器延迟较高,可以尝试以下优化方案:
复用 HTTP 连接,避免频繁建立新连接的开销
利用多路复用特性,提升并发请求效率
将多个小请求合并为批量请求,减少网络往返次数
使用异步方式调用 API,避免阻塞等待
对于重复的请求结果,使用本地缓存减少 API 调用次数
### 针对大图片传输
如果您需要频繁传输大图片(如图像生成、图像识别),建议:
优先使用图片 URL 而不是 Base64 编码
减少请求体大小,提升传输效率
在上传前适当压缩图片质量
在保证效果的前提下减小文件体积
## 常见问题
**主要原因**:
1. **回国专线优化**:美西是回国专线的主要出口点,能为中国大陆用户提供最佳网络路由
2. **国际枢纽**:洛杉矶是重要的国际网络枢纽,连接亚太、欧洲、北美等地区
3. **成本优势**:美西机房的带宽成本相对较低,性价比高
4. **服务稳定**:搬瓦工等服务商在美西运营经验丰富,稳定性好
**不会!**
我们使用的是搬瓦工的**回国优化专线**(CN2 GIA 等),专门针对中国大陆用户进行了网络优化。
**实际表现**:
* 中国大陆用户访问延迟通常在 50-150ms
* 即使是大图片的 Base64 传输也速度正常
* 无需配置代理或 VPN
您可以通过上述的测试方法实际测试一下您的网络延迟。
**优化建议**:
1. **服务器选择**:选择美西机房的服务器(与我们在同一地区)
2. **连接复用**:使用 HTTP 连接池,避免频繁建立新连接
3. **批量请求**:将多个小请求合并为批量请求
4. **异步调用**:使用异步方式调用 API,不阻塞主线程
5. **本地缓存**:缓存重复的请求结果
6. **CDN 加速**:对于静态资源使用 CDN
详见上方的"网络优化建议"章节。
我们目前专注于提供**高质量、稳定**的美西服务器服务,并通过回国专线优化为全球用户(尤其是中国大陆用户)提供良好的网络体验。
未来我们会根据用户需求和业务发展情况,评估在其他地区(如欧洲、亚太)部署服务器的可能性。
如果您有特殊的地理位置需求,欢迎联系我们的商务团队讨论定制方案。
如果您的服务器延迟较高(大于 500ms),可以考虑:
**短期方案**:
* 使用代理或 CDN 加速
* 优化应用代码(连接池、异步调用等)
* 批量请求减少网络往返次数
**长期方案**:
* 迁移服务器到美西机房
* 使用多地域部署,美西服务器专门用于调用 API易
* 联系我们讨论定制化网络优化方案
**非常适合!**
搬瓦工提供多种价格档位的 VPS 套餐:
* **入门级**:适合个人开发者测试和小流量应用
* **中端**:适合中小型生产环境
* **高端**:适合大流量、高并发场景
优势:
* 价格相对合理,性价比高
* 回国专线优化(中国大陆访问速度快)
* 支持月付、年付等灵活付款方式
* 提供快照备份、一键重装等便捷功能
## 相关文档
了解如何解决网络连接问题、配置代理等
了解 API 的并发限制和性能优化建议
## 联系我们
如有服务器选择、网络优化等相关问题,欢迎联系我们:
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
网络优化、技术支持
**客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com)
**商务合作**:[business@apiyi.com](mailto:business@apiyi.com)
# 为方便排查问题,可以在后台看到详细日志吗?
Source: https://docs.apiyi.com/faq/user-logs-control
了解管理员如何协助排查问题时开启详细日志记录功能
## 默认隐私保护策略
出于隐私安全考虑,API易默认**不存储**客户的输入和输出内容,只做透明代理的转发。
这意味着:
* ✅ 您的数据隐私得到最大程度保护
* ✅ 减少数据存储成本
* ✅ 符合数据安全最佳实践
* ❌ 管理员后台无法查看具体的对话内容
## 批量调用场景的问题
很多客户在跑批处理时会遇到这样的困扰:
**典型问题场景**
"后台能把用户的输入放进去吗?不然跑批的时候根本区分不出来哪次调用对应哪个任务啊!"
批量处理时,如果没有详细的输入输出记录,确实很难追踪具体是哪个任务出了问题。
## 管理员协助排查功能
如果您遇到问题需要技术支持协助排查,我们可以**临时开启**详细日志记录功能,由管理员协助定位问题。
**重要说明**
* 这个功能仅在**管理员后台**开启,客户无法自主控制
* 详细日志内容**仅管理员可见**,不会透出给客户
* 这是一个配合协助问题排查的功能,非常规使用
### 如何请求开启
通过客服渠道(Telegram、邮件等)详细描述遇到的问题,说明需要协助排查
技术支持人员评估是否需要开启详细日志来定位问题
管理员在后台为您的账号临时开启日志详情记录功能
管理员通过查看详细日志协助定位和解决问题
问题解决后,管理员会及时关闭详细日志记录功能
### 管理员后台界面
这是管理员后台的日志详情控制界面(客户无法访问):
## 详细日志包含的内容
管理员开启详细日志记录后,系统会额外记录:
* 用户的完整提示词
* 系统消息
* 上下文对话历史
* 函数调用参数
* AI 模型的完整回复
* 函数调用结果
* 流式输出的完整内容
* 返回的元数据
**隐私提醒**
这些详细日志**仅管理员可见**,用于协助您排查技术问题。我们承诺:
* 仅在必要时开启此功能
* 仅用于技术支持目的
* 问题解决后及时关闭
* 严格保护您的数据隐私
## 适用场景
### 推荐请求开启的场景
以下情况可以联系客服请求管理员协助排查:
* 🔍 **接口报错**:频繁出现错误但无法定位原因
* 📊 **批量任务异常**:跑批时部分任务失败,需要追踪具体哪些请求有问题
* 🧪 **输出质量问题**:模型输出异常,需要分析具体的输入输出内容
* 📈 **性能问题**:调用延迟异常,需要详细日志分析瓶颈
* 🐛 **疑似 Bug**:怀疑系统存在问题,需要提供详细信息给技术团队
### 何时无需开启
以下场景通常不需要开启详细日志:
* ✅ **正常使用**:API 调用正常,无异常情况
* ✅ **常规问题**:通过基础日志(Token 统计、错误类型)已能定位
* ✅ **隐私敏感**:处理极其敏感的数据,不希望任何人查看
## 数据安全说明
**重要提示**
即使临时开启详细日志记录,我们也会:
* ✅ 采用加密存储保护您的数据
* ✅ 严格限制日志访问权限(仅授权管理员)
* ✅ 问题解决后立即关闭功能
* ✅ 定期自动清理过期日志数据
* ✅ 遵守相关数据保护法规
* ✅ 详细日志不会透出给任何第三方
## 常见问题
### 我可以自己在后台开启这个功能吗?
不可以。这个功能仅在管理员后台开启,客户无法自主操作。如需协助排查问题,请联系客服。
### 开启后我能看到详细日志吗?
不能。详细日志内容仅管理员可见,用于技术支持目的。客户只能看到基础的调用记录(Token 统计、错误类型等)。
### 开启详细日志会影响性能吗?
影响极小,主要是增加少量日志写入时间(通常 \< 10ms),不会影响正常使用。
### 日志保存多久?
详细日志默认保存 7-30 天,问题解决后管理员会及时关闭记录功能。
### 管理员会看到我所有的请求内容吗?
仅在开启详细日志期间的请求会被记录。管理员仅在协助您排查问题时查看相关日志,严格遵守保密协议。
### 可以只记录特定时间段的调用吗?
可以。您可以与客服约定具体的开启时间段,例如只在复现问题的时候临时开启。
## 联系我们
如遇到技术问题需要管理员协助排查,请通过以下方式联系我们:
[feedback@apiyi.com](mailto:feedback@apiyi.com)
详细描述问题和复现步骤
扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)
快速响应,实时沟通
@apiyi001
即时消息,高效解决
**提高排查效率的建议**
联系客服时,请尽量提供以下信息:
* 问题发生的时间段
* 受影响的 API 调用次数
* 错误信息或异常现象描述
* 是否可复现及复现步骤
这些信息能帮助管理员更快定位和解决问题。
# 实时动态归档
Source: https://docs.apiyi.com/live/archive
按月份、分类、厂商三种维度浏览历史动态,每条均有独立详情页可分享。
这里是实时动态的完整历史归档。每条动态都有独立子页(含 SEO frontmatter),可以单独分享给客户。三种入口可任选其一:按时间倒序找最新、按分类聚焦话题、按厂商跟踪某家动态。
## 按月浏览
8 条
74 条
62 条
## 按分类浏览
并发、负载、稳定性、故障恢复播报 · 81 条
新模型上线、新分组、新功能 · 27 条
降价、涨价、优惠活动 · 6 条
平台维护、停机、迁移 · 16 条
AI 领域重要事件、文档更新 · 7 条
文档新增、改版、修订 · 7 条
## 按厂商浏览
5 条
5 条
2 条
1 条
71 条
1 条
1 条
35 条
2 条
2 条
***
## 2026 年 5 月
* **2026-05-07 15:20** [AI图片大师:拖拽/替换图片 + 上传扩容到 12 张](/live/2026-05/imagen-drag-replace-12) — 服务通知
* **2026-05-07 01:44** [AI图片大师批量生成页:一键下载全部 + 全屏预览升级](/live/2026-05/imagen-batch-download) — 服务通知
* **2026-05-06 15:35** [文档中心每页支持一键复制 + 问 AI(ChatGPT / Claude / Perplexity / Google AI Studio)](/live/2026-05/docs-copy-ask-ai) — 文档更新
* **2026-05-06 15:33** [gpt-image-2 官转 vs 官逆对比文档已更新,建议双通道接入互为兜底](/live/2026-05/gpt-image-2-vs-doc-updated) — 文档更新 · OpenAI
* **2026-05-06 11:45** [VEO 3.1 高负载报错已解决,视频生成恢复正常](/live/2026-05/veo-3-1-recovered) — 模型状态 · Google
* **2026-05-03 23:10** [Grok 4.3 上线(全分组开放)](/live/2026-05/grok-4-3-launch) — 新模型 · xAI
* **2026-05-03 23:00** [gpt-5.5-pro 上线(仅 SVIP 分组)](/live/2026-05/gpt-5-5-pro-launch) — 新模型 · OpenAI
* **2026-05-03 22:40** [Claude Code 超高缓存命中率,单次调用低至 \\\$0.08](/live/2026-05/claude-code-cache-hit) — 行业快讯 · Anthropic
## 2026 年 4 月
* **2026-04-30 23:12** [FLUX.2 系列图片编辑文档更新:Playground 现可在线测试](/live/2026-04/flux-2-image-edit-playground) — 文档更新
* **2026-04-30 14:26** [图片大师工具上线 gpt-image-2 全系列三模型](/live/2026-04/image-master-gpt-image-2-trio) — 新模型 · OpenAI
* **2026-04-30 13:52** [飞书多维表格 + Coze 零代码生图方案上线](/live/2026-04/feishu-coze-nano-banana-pro) — 文档更新 · Google
* **2026-04-29 14:58** [官转 gpt-image-2 建议把 timeout 调到 360–600 秒兜底](/live/2026-04/gpt-image-2-latency-spike) — 模型状态 · OpenAI
* **2026-04-29 11:06** [gpt-image-2 通道状态:企业分组稳定,官逆 -all / -vip 双模型都稳](/live/2026-04/image2-vip-channels-stable) — 模型状态 · OpenAI
* **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic
* **2026-04-28 17:14** [经验分享:gpt-5.5 / gpt-image-2 官转 API 不能直接输出 PSD](/live/2026-04/api-psd-output-explained) — 行业快讯 · OpenAI
* **2026-04-28 16:15** [线上故障复盘:14:50–15:15 流量分发节点 SSL 证书到期](/live/2026-04/ssl-cert-incident-postmortem) — 服务通知
* **2026-04-28 15:59** [默认 \$30 余额告警邮件已停用,可在后台自行开启](/live/2026-04/default-balance-alert-off) — 服务通知
* **2026-04-28 15:36** [gpt-image-2 双通道状态:官转走企业分组、官逆很稳](/live/2026-04/gpt-image-2-channels-stable) — 模型状态 · OpenAI
* **2026-04-28 00:29** [Qwen3.6 开源双模上线(API易官转托管 · 免租卡)](/live/2026-04/qwen3-6-opensource) — 新模型 · Alibaba
* **2026-04-27 23:59** [Qwen3.6-Max-Preview 与 Flash 上线(阿里云官转)](/live/2026-04/qwen3-6-max-flash) — 新模型 · Alibaba
* **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu
* **2026-04-27 15:59** [image2Enterprise 分组稳定运行中(官转 gpt-image-2 推荐路径)](/live/2026-04/image2-enterprise-stable) — 模型状态 · OpenAI
* **2026-04-27 15:28** [官逆 gpt-image-2-all 报错 500 通常是内容违规(不计费)](/live/2026-04/gpt-image-2-all-500-content-policy) — 模型状态 · OpenAI
* **2026-04-27 12:06** [gpt-image-2-all(官逆)已恢复正常;gpt-image-2 官转建议走 image2Enterprise 更稳](/live/2026-04/gpt-image-2-all-recovered) — 模型状态 · OpenAI
* **2026-04-27 11:24** [gpt-image-2 报错 429 / 408 提醒(Default 分组资源紧张)](/live/2026-04/gpt-image-2-429-408) — 模型状态 · OpenAI
* **2026-04-26 15:10** [Codex 接入 API易 文档已更新,接入更简单](/live/2026-04/codex-cli-docs-updated) — 文档更新 · OpenAI
* **2026-04-26 14:25** [默认分组 gpt-image-2 资源已补充,并发调用恢复正常](/live/2026-04/gpt-image-2-default-recovered) — 模型状态 · OpenAI
* **2026-04-25 18:39** [GPT-5.5 官转上线(OpenAI 官方直转)](/live/2026-04/gpt-5-5) — 新模型 · OpenAI
* **2026-04-25 11:54** [新增 image2Enterprise 企业分组(1.2x 倍率)](/live/2026-04/image2-enterprise) — 新模型 · OpenAI
* **2026-04-25 11:18** [Gemini 图像双模周末平稳](/live/2026-04/gemini) — 模型状态 · Google
* **2026-04-25 11:15** [gpt-image-2 官转通道资源拥挤(算力紧张)](/live/2026-04/gpt-image-2) — 模型状态 · OpenAI
* **2026-04-25 01:30** [Kimi K2.6 上线(华为云官转)](/live/2026-04/kimi-k2-6) — 新模型 · Moonshot
* **2026-04-24 22:26** [gpt-image-2 官方通道临时限额(负载中)](/live/2026-04/gpt-image-2-0424-2226) — 模型状态 · OpenAI
* **2026-04-24 20:20** [DeepSeek V4-Pro / V4-Flash 预览版上线(阿里云官转)](/live/2026-04/deepseek-v4-pro-v4-flash) — 新模型 · DeepSeek
* **2026-04-24 15:35** [新增社区贡献:APIYI GPT-Image 2 Skills](/live/2026-04/apiyi-gpt-image-2-skills) — 文档更新 · OpenAI
* **2026-04-24 15:33** [新增社区贡献:Luck GPT-Image 2 ComfyUI 节点](/live/2026-04/luck-gpt-image-2-comfyui) — 文档更新 · OpenAI
* **2026-04-24 12:49** [喜报:在线充值已完全修复](/live/2026-04/service-notice-0424-1249) — 服务通知
* **2026-04-24 10:26** [充值页面仍异常,已开通企业微信人工充值通道](/live/2026-04/service-notice-0424-1026) — 服务通知
* **2026-04-24 09:36** [充值页面跳转已恢复](/live/2026-04/service-notice-0424-0936) — 服务通知
* **2026-04-23 18:52** [gpt-image-2 官转已恢复](/live/2026-04/gpt-image-2-0423-1852) — 模型状态 · OpenAI
* **2026-04-23 18:17** [gpt-image-2 官转状态更新](/live/2026-04/gpt-image-2-0423-1817) — 模型状态 · OpenAI
* **2026-04-23 16:37** [gpt-image-2 官转模型并发告急](/live/2026-04/gpt-image-2-0423-1637) — 模型状态 · OpenAI
* **2026-04-23 13:40** [新增 GPT-image-2 官转 vs 官逆 选型对照文档](/live/2026-04/gpt-image-2-vs) — 新模型 · OpenAI
* **2026-04-23 09:19** [OpenAI gpt-image-2 旗舰图像模型上线](/live/2026-04/openai-gpt-image-2) — 新模型 · OpenAI
* **2026-04-22 13:36** [gpt-image-2-all 新增对话式 Playground 文档](/live/2026-04/gpt-image-2-all-playground) — 新模型 · OpenAI
* **2026-04-22 09:53** [旧版图像模型已官方下线 — 请尽快切换至 gpt-image-2-all](/live/2026-04/gpt-image-2-all) — 服务通知 · OpenAI
* **2026-04-22 01:36** [ChatGPT 最新生图能力 gpt-image-2-all 已上线](/live/2026-04/chatgpt-gpt-image-2-all) — 新模型 · OpenAI
* **2026-04-21 17:32** [gemini-3-pro-image-preview(Nano Banana Pro)谷歌官方算力紧…](/live/2026-04/model-status-0421-1732) — 模型状态 · Google
* **2026-04-21 15:37** [Nano Banana Pro (gemini-3-pro-image-preview) 出现 50…](/live/2026-04/model-status-0421-1537) — 模型状态 · Google
* **2026-04-21 10:27** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-1027) — 模型状态 · Google
* **2026-04-21 09:33** [⏳ gemini-3-pro-image-preview(Nano Banana Pro)自今早 0…](/live/2026-04/model-status-0421-0933) — 模型状态 · Google
* **2026-04-21 00:45** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-0045) — 模型状态 · Google
* **2026-04-20 23:18** [gemini-3-pro-image-preview 受谷歌官方资源限制,默认分组 + 企业分组暂时…](/live/2026-04/model-status-0420-2318) — 模型状态 · Google
* **2026-04-20 23:11** [Claude 系列运行稳定:claude-opus-4-7、claude-sonnet-4-6 今日…](/live/2026-04/model-status-0420-2311) — 模型状态 · Anthropic
* **2026-04-20 18:46** [⏳ gemini-3-pro-image-preview 仍未恢复,并发不足,失败会直接报 429(…](/live/2026-04/model-status-0420-1846) — 模型状态 · Google
* **2026-04-20 16:12** [gemini-3-pro-image-preview 资源配额不足(含企业分组),目前正在维护补配额…](/live/2026-04/model-status-0420-1612) — 模型状态 · Google
* **2026-04-20 12:41** [gemini-3.](/live/2026-04/model-status-0420-1241) — 模型状态 · Google
* **2026-04-17 00:25** [Claude Opus 4.](/live/2026-04/new-model-0417-0025) — 新模型 · Anthropic
* **2026-04-16 20:11** [针对近期 Nano Banana 系列的价格调整,我们专门制作了价格对比页面:含默认定价、常规充值(…](/live/2026-04/price-0416-2011) — 价格变动 · Google
* **2026-04-16 11:08** [因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后 Nano Banana 2 按…](/live/2026-04/price-0416-1108) — 价格变动 · Google
* **2026-04-14 23:15** [Nano Banana Pro 与 Nano Banana 2 今日稳定运行一整天,默认分组已全面恢…](/live/2026-04/model-status-0414-2315) — 模型状态 · Google
* **2026-04-14 00:25** [默认分组已恢复 gemini-3-pro-image-preview(Nano Banana Pro…](/live/2026-04/model-status-0414-0025) — 模型状态 · Google
* **2026-04-13 10:00** [好消息](/live/2026-04/price-0413-1000) — 价格变动 · Google
* **2026-04-11 12:34** [Nano Banana 2 已增加更多资源,默认分组正常使用](/live/2026-04/model-status-0411-1234) — 模型状态 · Google
* **2026-04-10 17:29** [模型状态播报:gemini-3.](/live/2026-04/model-status-0410-1729) — 模型状态 · Google
* **2026-04-10 17:25** [常规分组仍在努力排查中,暂未恢复](/live/2026-04/model-status-0410-1725) — 模型状态 · Google
* **2026-04-10 14:05** [Nano Banana 2:Default 分组暂时恢复可用,但仍较拥堵](/live/2026-04/model-status-0410-1405) — 模型状态 · Google
* **2026-04-10 10:56** [Nano Banana 令牌设置最佳实践:计费模式选「按量优先」(兼容 Nano Banana 2 …](/live/2026-04/model-status-0410-1056) — 模型状态 · Google
* **2026-04-10 10:09** [默认分组 Nano Banana 系列故障(IP 代理问题 + KEY 配额不足),正在处理中](/live/2026-04/model-status-0410-1009) — 模型状态 · Google
* **2026-04-09 12:51** [glm-5.](/live/2026-04/new-model-0409-1251) — 新模型 · Zhipu
* **2026-04-09 11:13** [Veo 3.](/live/2026-04/model-status-0409-1113) — 模型状态 · Google
* **2026-04-09 10:37** [经半小时观察,10:00 (UTC+8) 之后 Nano Banana Pro / 2 超低价默认分…](/live/2026-04/model-status-0409-1037) — 模型状态 · Google
* **2026-04-09 09:47** [谷歌 Nano Banana 系列直连官网,今早 KEY 异常掉线较快,部分失败任务请重试](/live/2026-04/model-status-0409-0947) — 模型状态 · Google
* **2026-04-07 23:57** [新上线 NanoBananaEnterprise 分组:The Most Stable API fo…](/live/2026-04/new-model-0407-2357) — 新模型 · Google
* **2026-04-06 01:30** [qwen3.](/live/2026-04/new-model-0406-0130) — 新模型 · Alibaba
* **2026-04-04 21:20** [新增模型名 gemini-3.](/live/2026-04/new-model-0404-2120) — 新模型 · Google
* **2026-04-03 16:19** [Claude 系列模型缓存写入价格从 1.](/live/2026-04/price-0403-1619) — 价格变动 · Anthropic
* **2026-04-03 10:50** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-04/model-status-0403-1050) — 模型状态 · Google
* **2026-04-02 17:10** [Fallback 建议:gemini-3-pro-preview 文本模型资源紧张,建议合理设置超时…](/live/2026-04/model-status-0402-1710) — 模型状态 · Google
* **2026-04-02 13:52** [稳定性播报:gemini-3.](/live/2026-04/model-status-0402-1352) — 模型状态 · Google
* **2026-04-01 23:38** [Nano Banana Pro 和 Nano Banana 2 今天稳定运行一整天,4 月好兆头](/live/2026-04/model-status-0401-2338) — 模型状态 · Google
* **2026-04-01 00:03** [gemini-embedding-2-preview 谷歌首个原生多模态嵌入模型上线](/live/2026-04/new-model-0401-0003) — 新模型 · Google
## 2026 年 3 月
* **2026-03-31 16:11** [Nano Banana Pro 同样受谷歌官方 503 高负载影响,并发受限,静待官方恢复](/live/2026-03/model-status-0331-1611) — 模型状态 · Google
* **2026-03-31 11:04** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0331-1104) — 模型状态 · Google
* **2026-03-30 22:46** [seed-2-0-pro-260328 字节跳动 Seed 2.](/live/2026-03/new-model-0330-2246) — 新模型 · ByteDance
* **2026-03-30 11:09** [近期 Gemini 官方偶尔存在波动,如遇到 gemini-3-pro-image-preview …](/live/2026-03/model-status-0330-1109) — 模型状态 · Google
* **2026-03-28 06:04** [Nano Banana Pro 和 Nano Banana 2 均已恢复正常速度](/live/2026-03/model-status-0328-0604) — 模型状态 · Google
* **2026-03-28 00:19** [Nano Banana Pro:谷歌尚未修复,静待恢复中](/live/2026-03/model-status-0328-0019) — 模型状态 · Google
* **2026-03-27 20:52** [初代小香蕉 gemini-2.](/live/2026-03/model-status-0327-2052) — 模型状态 · Google
* **2026-03-27 20:07** [gemini-3.](/live/2026-03/model-status-0327-2007) — 模型状态 · Google
* **2026-03-27 16:48** [gemini-3-pro-image-preview(Nano Banana Pro)目测已恢复正常…](/live/2026-03/model-status-0327-1648) — 模型状态 · Google
* **2026-03-27 15:47** [Nano Banana 2 当下比 Nano Banana Pro 稳定](/live/2026-03/model-status-0327-1547) — 模型状态 · Google
* **2026-03-27 15:06** [gemini-3.](/live/2026-03/model-status-0327-1506) — 模型状态 · Google
* **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google
* **2026-03-27 11:28** [API易有哪些可选的 Base URL](/live/2026-03/industry-news-0327-1128) — 行业快讯
* **2026-03-27 11:28** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0327-1128) — 模型状态 · Google
* **2026-03-24 23:49** [新增常见问题:Base URL 配置指南,详解 OpenAI /v1、Claude 根域名、Gemi…](/live/2026-03/industry-news-0324-2349) — 行业快讯
* **2026-03-24 23:15** [新增常见问题:模型倍率与价格说明,帮助大家理解倍率计算方式和不同模型的计费逻辑](/live/2026-03/industry-news-0324-2315) — 行业快讯
* **2026-03-24 00:22** [MiniMax-M2.](/live/2026-03/new-model-0324-0022) — 新模型 · MiniMax
* **2026-03-23 19:20** [网站后台频现 429 的问题已解决,后台刷新、查看日志、充值等功能恢复正常](/live/2026-03/service-notice-0323-1920) — 服务通知
* **2026-03-23 12:56** [Sora-2 低价版本今天挺稳的,可以试试~使用默认分组或 sora-2 分组,\$0.](/live/2026-03/model-status-0323-1256) — 模型状态 · OpenAI
* **2026-03-23 10:25** [网站后台出现 429 限流,属于整体流量过大的自我保护机制,几分钟后会自动解除,不影响 API 接口…](/live/2026-03/service-notice-0323-1025) — 服务通知
* **2026-03-21 11:48** [今天 Nano Banana Pro(gemini-3-pro-image-preview)和 Na…](/live/2026-03/model-status-0321-1148) — 模型状态 · Google
* **2026-03-21 00:54** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0321-0054) — 模型状态 · Google
* **2026-03-20 10:50** [新增 4 款 Grok 4.](/live/2026-03/new-model-0320-1050) — 新模型 · xAI
* **2026-03-19 21:12** [Veo 3.](/live/2026-03/model-status-0319-2112) — 模型状态 · Google
* **2026-03-19 20:41** [谷歌算力已恢复,Nano Banana Pro(gemini-3-pro-image-preview…](/live/2026-03/model-status-0319-2041) — 模型状态 · Google
* **2026-03-19 17:28** [Nano Banana Pro(gemini-3-pro-image-preview)又遇谷歌算力偏…](/live/2026-03/model-status-0319-1728) — 模型状态 · Google
* **2026-03-19 16:21** [Nano Banana Pro(gemini-3-pro-image-preview)下午超高并发,…](/live/2026-03/model-status-0319-1621) — 模型状态 · Google
* **2026-03-19 16:00** [技巧分享:受谷歌算力波动影响,建议将 Nano Banana Pro 和 2 的 API 超时时间 …](/live/2026-03/model-status-0319-1600) — 模型状态 · Google
* **2026-03-19 15:59** [Nano Banana Pro(gemini-3-pro-image-preview)又受谷歌高负载…](/live/2026-03/model-status-0319-1559) — 模型状态 · Google
* **2026-03-19 13:12** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-03/model-status-0319-1312) — 模型状态 · Google
* **2026-03-19 12:50** [Veo 3.](/live/2026-03/model-status-0319-1250) — 模型状态 · Google
* **2026-03-19 10:58** [Nano Banana Pro(gemini-3-pro-image-preview)已恢复正常水平…](/live/2026-03/model-status-0319-1058) — 模型状态 · Google
* **2026-03-19 10:25** [Nano Banana Pro(gemini-3-pro-image-preview)目前并发不足,…](/live/2026-03/model-status-0319-1025) — 模型状态 · Google
* **2026-03-18 14:54** [新上线 gpt-5.](/live/2026-03/new-model-0318-1454) — 新模型 · OpenAI
* **2026-03-18 12:27** [Sora-2 官逆低价版目前成功率不高,但仍能产出,还需进一步优化号池](/live/2026-03/model-status-0318-1227) — 模型状态 · OpenAI
* **2026-03-18 01:27** [Sora-2 官逆低价版本已恢复,观察中,希望这次不是一日游](/live/2026-03/model-status-0318-0127) — 模型状态 · OpenAI
* **2026-03-17 16:30** [今天下午 Nano Banana Pro(gemini-3-pro-image-preview)和 …](/live/2026-03/model-status-0317-1630) — 模型状态 · Google
* **2026-03-17 11:37** [推荐:gemini-3.](/live/2026-03/new-model-0317-1137) — 新模型 · Google
* **2026-03-16 18:13** [Nano Banana Pro 目前已基本恢复正常,约 3% 的请求偶尔会卡顿,谷歌算力恢复中](/live/2026-03/model-status-0316-1813) — 模型状态 · Google
* **2026-03-16 17:49** [Nano Banana Pro(gemini-3-pro-image-preview)陆续恢复中,但…](/live/2026-03/model-status-0316-1749) — 模型状态 · Google
* **2026-03-16 16:27** [谷歌图片模型状态更新:gemini-3.](/live/2026-03/model-status-0316-1627) — 模型状态 · Google
* **2026-03-16 15:49** [Nano Banana 2 出现 503 错误(谷歌官方负载过高),原始报错:This model …](/live/2026-03/model-status-0316-1549) — 模型状态 · Google
* **2026-03-14 00:29** [周末福利](/live/2026-03/price-0314-0029) — 价格变动
* **2026-03-13 16:11** [OVH 故障已解决,API易网站已恢复正常访问和接口调用](/live/2026-03/service-notice-0313-1611) — 服务通知
* **2026-03-13 15:35** [紧急通知:服务器厂商 OVH 系统故障,目前正在修复中,预计 15 分钟内恢复](/live/2026-03/service-notice-0313-1535) — 服务通知
* **2026-03-13 11:22** [网站后台出现 429 限流问题,不影响 API 接口调用,但影响后台页面使用](/live/2026-03/service-notice-0313-1122) — 服务通知
* **2026-03-10 23:30** [文档中心 OpenClaw 栏目进行了更细化调整,帮助大家更快用上 OpenClaw,一起来"养虾"…](/live/2026-03/industry-news-0310-2330) — 行业快讯
* **2026-03-10 23:19** [谷歌公告:gemini-3-pro-preview 已于 3 月 9 日关停弃用](/live/2026-03/service-notice-0310-2319) — 服务通知 · Google
* **2026-03-09 19:25** [整理了 Nano Banana 图片 API 系列常见的出图失败原因,遇到问题可先自查](/live/2026-03/industry-news-0309-1925) — 行业快讯
* **2026-03-09 11:58** [网站频现 429 的问题已解决](/live/2026-03/service-notice-0309-1158) — 服务通知
* **2026-03-09 10:39** [网站后台频现 429 繁忙问题,不影响 API 接口调用,但会影响网站后台正常使用和充值(人工充值可…](/live/2026-03/service-notice-0309-1039) — 服务通知
* **2026-03-08 10:04** [seed-2-0-lite-260228 新模型上线](/live/2026-03/new-model-0308-1004) — 新模型 · ByteDance
* **2026-03-07 19:41** [Gemini 全系列已恢复正常水平](/live/2026-03/model-status-0307-1941) — 模型状态 · Google
* **2026-03-06 15:08** [Veo 3.](/live/2026-03/model-status-0306-1508) — 模型状态 · Google
* **2026-03-06 11:05** [GPT-5.](/live/2026-03/new-model-0306-1105) — 新模型 · OpenAI
* **2026-03-06 11:03** [gemini-3-pro-image-preview 正常运行,gemini-3.](/live/2026-03/model-status-0306-1103) — 模型状态 · Google
* **2026-03-06 10:04** [Sora 2 低价版本一日游,目前再次被风控,已无法使用](/live/2026-03/model-status-0306-1004) — 模型状态 · OpenAI
* **2026-03-05 20:12** [Sora 2 官逆已恢复,\$0.](/live/2026-03/model-status-0305-2012) — 模型状态 · OpenAI
* **2026-03-05 20:11** [gemini-3-pro-image-preview 和 gemini-3.](/live/2026-03/model-status-0305-2011) — 模型状态 · Google
* **2026-03-05 11:50** [Veo 3.](/live/2026-03/model-status-0305-1150) — 模型状态 · Google
* **2026-03-05 11:04** [gemini-3-pro-image-preview 今早 10 点左右并发不足,10:20 后已补…](/live/2026-03/model-status-0305-1104) — 模型状态 · Google
* **2026-03-04 23:30** [gemini-3-pro-image-preview 正常,gemini-3.](/live/2026-03/model-status-0304-2330) — 模型状态 · Google
***
## 分类:模型状态
* **2026-05-06 11:45** [VEO 3.1 高负载报错已解决,视频生成恢复正常](/live/2026-05/veo-3-1-recovered) — 模型状态 · Google
* **2026-04-29 14:58** [官转 gpt-image-2 建议把 timeout 调到 360–600 秒兜底](/live/2026-04/gpt-image-2-latency-spike) — 模型状态 · OpenAI
* **2026-04-29 11:06** [gpt-image-2 通道状态:企业分组稳定,官逆 -all / -vip 双模型都稳](/live/2026-04/image2-vip-channels-stable) — 模型状态 · OpenAI
* **2026-04-28 15:36** [gpt-image-2 双通道状态:官转走企业分组、官逆很稳](/live/2026-04/gpt-image-2-channels-stable) — 模型状态 · OpenAI
* **2026-04-27 15:59** [image2Enterprise 分组稳定运行中(官转 gpt-image-2 推荐路径)](/live/2026-04/image2-enterprise-stable) — 模型状态 · OpenAI
* **2026-04-27 15:28** [官逆 gpt-image-2-all 报错 500 通常是内容违规(不计费)](/live/2026-04/gpt-image-2-all-500-content-policy) — 模型状态 · OpenAI
* **2026-04-27 12:06** [gpt-image-2-all(官逆)已恢复正常;gpt-image-2 官转建议走 image2Enterprise 更稳](/live/2026-04/gpt-image-2-all-recovered) — 模型状态 · OpenAI
* **2026-04-27 11:24** [gpt-image-2 报错 429 / 408 提醒(Default 分组资源紧张)](/live/2026-04/gpt-image-2-429-408) — 模型状态 · OpenAI
* **2026-04-26 14:25** [默认分组 gpt-image-2 资源已补充,并发调用恢复正常](/live/2026-04/gpt-image-2-default-recovered) — 模型状态 · OpenAI
* **2026-04-25 11:18** [Gemini 图像双模周末平稳](/live/2026-04/gemini) — 模型状态 · Google
* **2026-04-25 11:15** [gpt-image-2 官转通道资源拥挤(算力紧张)](/live/2026-04/gpt-image-2) — 模型状态 · OpenAI
* **2026-04-24 22:26** [gpt-image-2 官方通道临时限额(负载中)](/live/2026-04/gpt-image-2-0424-2226) — 模型状态 · OpenAI
* **2026-04-23 18:52** [gpt-image-2 官转已恢复](/live/2026-04/gpt-image-2-0423-1852) — 模型状态 · OpenAI
* **2026-04-23 18:17** [gpt-image-2 官转状态更新](/live/2026-04/gpt-image-2-0423-1817) — 模型状态 · OpenAI
* **2026-04-23 16:37** [gpt-image-2 官转模型并发告急](/live/2026-04/gpt-image-2-0423-1637) — 模型状态 · OpenAI
* **2026-04-21 17:32** [gemini-3-pro-image-preview(Nano Banana Pro)谷歌官方算力紧…](/live/2026-04/model-status-0421-1732) — 模型状态 · Google
* **2026-04-21 15:37** [Nano Banana Pro (gemini-3-pro-image-preview) 出现 50…](/live/2026-04/model-status-0421-1537) — 模型状态 · Google
* **2026-04-21 10:27** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-1027) — 模型状态 · Google
* **2026-04-21 09:33** [⏳ gemini-3-pro-image-preview(Nano Banana Pro)自今早 0…](/live/2026-04/model-status-0421-0933) — 模型状态 · Google
* **2026-04-21 00:45** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-0045) — 模型状态 · Google
* **2026-04-20 23:18** [gemini-3-pro-image-preview 受谷歌官方资源限制,默认分组 + 企业分组暂时…](/live/2026-04/model-status-0420-2318) — 模型状态 · Google
* **2026-04-20 23:11** [Claude 系列运行稳定:claude-opus-4-7、claude-sonnet-4-6 今日…](/live/2026-04/model-status-0420-2311) — 模型状态 · Anthropic
* **2026-04-20 18:46** [⏳ gemini-3-pro-image-preview 仍未恢复,并发不足,失败会直接报 429(…](/live/2026-04/model-status-0420-1846) — 模型状态 · Google
* **2026-04-20 16:12** [gemini-3-pro-image-preview 资源配额不足(含企业分组),目前正在维护补配额…](/live/2026-04/model-status-0420-1612) — 模型状态 · Google
* **2026-04-20 12:41** [gemini-3.](/live/2026-04/model-status-0420-1241) — 模型状态 · Google
* **2026-04-14 23:15** [Nano Banana Pro 与 Nano Banana 2 今日稳定运行一整天,默认分组已全面恢…](/live/2026-04/model-status-0414-2315) — 模型状态 · Google
* **2026-04-14 00:25** [默认分组已恢复 gemini-3-pro-image-preview(Nano Banana Pro…](/live/2026-04/model-status-0414-0025) — 模型状态 · Google
* **2026-04-11 12:34** [Nano Banana 2 已增加更多资源,默认分组正常使用](/live/2026-04/model-status-0411-1234) — 模型状态 · Google
* **2026-04-10 17:29** [模型状态播报:gemini-3.](/live/2026-04/model-status-0410-1729) — 模型状态 · Google
* **2026-04-10 17:25** [常规分组仍在努力排查中,暂未恢复](/live/2026-04/model-status-0410-1725) — 模型状态 · Google
* **2026-04-10 14:05** [Nano Banana 2:Default 分组暂时恢复可用,但仍较拥堵](/live/2026-04/model-status-0410-1405) — 模型状态 · Google
* **2026-04-10 10:56** [Nano Banana 令牌设置最佳实践:计费模式选「按量优先」(兼容 Nano Banana 2 …](/live/2026-04/model-status-0410-1056) — 模型状态 · Google
* **2026-04-10 10:09** [默认分组 Nano Banana 系列故障(IP 代理问题 + KEY 配额不足),正在处理中](/live/2026-04/model-status-0410-1009) — 模型状态 · Google
* **2026-04-09 11:13** [Veo 3.](/live/2026-04/model-status-0409-1113) — 模型状态 · Google
* **2026-04-09 10:37** [经半小时观察,10:00 (UTC+8) 之后 Nano Banana Pro / 2 超低价默认分…](/live/2026-04/model-status-0409-1037) — 模型状态 · Google
* **2026-04-09 09:47** [谷歌 Nano Banana 系列直连官网,今早 KEY 异常掉线较快,部分失败任务请重试](/live/2026-04/model-status-0409-0947) — 模型状态 · Google
* **2026-04-03 10:50** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-04/model-status-0403-1050) — 模型状态 · Google
* **2026-04-02 17:10** [Fallback 建议:gemini-3-pro-preview 文本模型资源紧张,建议合理设置超时…](/live/2026-04/model-status-0402-1710) — 模型状态 · Google
* **2026-04-02 13:52** [稳定性播报:gemini-3.](/live/2026-04/model-status-0402-1352) — 模型状态 · Google
* **2026-04-01 23:38** [Nano Banana Pro 和 Nano Banana 2 今天稳定运行一整天,4 月好兆头](/live/2026-04/model-status-0401-2338) — 模型状态 · Google
* **2026-03-31 16:11** [Nano Banana Pro 同样受谷歌官方 503 高负载影响,并发受限,静待官方恢复](/live/2026-03/model-status-0331-1611) — 模型状态 · Google
* **2026-03-31 11:04** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0331-1104) — 模型状态 · Google
* **2026-03-30 11:09** [近期 Gemini 官方偶尔存在波动,如遇到 gemini-3-pro-image-preview …](/live/2026-03/model-status-0330-1109) — 模型状态 · Google
* **2026-03-28 06:04** [Nano Banana Pro 和 Nano Banana 2 均已恢复正常速度](/live/2026-03/model-status-0328-0604) — 模型状态 · Google
* **2026-03-28 00:19** [Nano Banana Pro:谷歌尚未修复,静待恢复中](/live/2026-03/model-status-0328-0019) — 模型状态 · Google
* **2026-03-27 20:52** [初代小香蕉 gemini-2.](/live/2026-03/model-status-0327-2052) — 模型状态 · Google
* **2026-03-27 20:07** [gemini-3.](/live/2026-03/model-status-0327-2007) — 模型状态 · Google
* **2026-03-27 16:48** [gemini-3-pro-image-preview(Nano Banana Pro)目测已恢复正常…](/live/2026-03/model-status-0327-1648) — 模型状态 · Google
* **2026-03-27 15:47** [Nano Banana 2 当下比 Nano Banana Pro 稳定](/live/2026-03/model-status-0327-1547) — 模型状态 · Google
* **2026-03-27 15:06** [gemini-3.](/live/2026-03/model-status-0327-1506) — 模型状态 · Google
* **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google
* **2026-03-27 11:28** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0327-1128) — 模型状态 · Google
* **2026-03-23 12:56** [Sora-2 低价版本今天挺稳的,可以试试~使用默认分组或 sora-2 分组,\$0.](/live/2026-03/model-status-0323-1256) — 模型状态 · OpenAI
* **2026-03-21 11:48** [今天 Nano Banana Pro(gemini-3-pro-image-preview)和 Na…](/live/2026-03/model-status-0321-1148) — 模型状态 · Google
* **2026-03-21 00:54** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0321-0054) — 模型状态 · Google
* **2026-03-19 21:12** [Veo 3.](/live/2026-03/model-status-0319-2112) — 模型状态 · Google
* **2026-03-19 20:41** [谷歌算力已恢复,Nano Banana Pro(gemini-3-pro-image-preview…](/live/2026-03/model-status-0319-2041) — 模型状态 · Google
* **2026-03-19 17:28** [Nano Banana Pro(gemini-3-pro-image-preview)又遇谷歌算力偏…](/live/2026-03/model-status-0319-1728) — 模型状态 · Google
* **2026-03-19 16:21** [Nano Banana Pro(gemini-3-pro-image-preview)下午超高并发,…](/live/2026-03/model-status-0319-1621) — 模型状态 · Google
* **2026-03-19 16:00** [技巧分享:受谷歌算力波动影响,建议将 Nano Banana Pro 和 2 的 API 超时时间 …](/live/2026-03/model-status-0319-1600) — 模型状态 · Google
* **2026-03-19 15:59** [Nano Banana Pro(gemini-3-pro-image-preview)又受谷歌高负载…](/live/2026-03/model-status-0319-1559) — 模型状态 · Google
* **2026-03-19 13:12** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-03/model-status-0319-1312) — 模型状态 · Google
* **2026-03-19 12:50** [Veo 3.](/live/2026-03/model-status-0319-1250) — 模型状态 · Google
* **2026-03-19 10:58** [Nano Banana Pro(gemini-3-pro-image-preview)已恢复正常水平…](/live/2026-03/model-status-0319-1058) — 模型状态 · Google
* **2026-03-19 10:25** [Nano Banana Pro(gemini-3-pro-image-preview)目前并发不足,…](/live/2026-03/model-status-0319-1025) — 模型状态 · Google
* **2026-03-18 12:27** [Sora-2 官逆低价版目前成功率不高,但仍能产出,还需进一步优化号池](/live/2026-03/model-status-0318-1227) — 模型状态 · OpenAI
* **2026-03-18 01:27** [Sora-2 官逆低价版本已恢复,观察中,希望这次不是一日游](/live/2026-03/model-status-0318-0127) — 模型状态 · OpenAI
* **2026-03-17 16:30** [今天下午 Nano Banana Pro(gemini-3-pro-image-preview)和 …](/live/2026-03/model-status-0317-1630) — 模型状态 · Google
* **2026-03-16 18:13** [Nano Banana Pro 目前已基本恢复正常,约 3% 的请求偶尔会卡顿,谷歌算力恢复中](/live/2026-03/model-status-0316-1813) — 模型状态 · Google
* **2026-03-16 17:49** [Nano Banana Pro(gemini-3-pro-image-preview)陆续恢复中,但…](/live/2026-03/model-status-0316-1749) — 模型状态 · Google
* **2026-03-16 16:27** [谷歌图片模型状态更新:gemini-3.](/live/2026-03/model-status-0316-1627) — 模型状态 · Google
* **2026-03-16 15:49** [Nano Banana 2 出现 503 错误(谷歌官方负载过高),原始报错:This model …](/live/2026-03/model-status-0316-1549) — 模型状态 · Google
* **2026-03-07 19:41** [Gemini 全系列已恢复正常水平](/live/2026-03/model-status-0307-1941) — 模型状态 · Google
* **2026-03-06 15:08** [Veo 3.](/live/2026-03/model-status-0306-1508) — 模型状态 · Google
* **2026-03-06 11:03** [gemini-3-pro-image-preview 正常运行,gemini-3.](/live/2026-03/model-status-0306-1103) — 模型状态 · Google
* **2026-03-06 10:04** [Sora 2 低价版本一日游,目前再次被风控,已无法使用](/live/2026-03/model-status-0306-1004) — 模型状态 · OpenAI
* **2026-03-05 20:12** [Sora 2 官逆已恢复,\$0.](/live/2026-03/model-status-0305-2012) — 模型状态 · OpenAI
* **2026-03-05 20:11** [gemini-3-pro-image-preview 和 gemini-3.](/live/2026-03/model-status-0305-2011) — 模型状态 · Google
* **2026-03-05 11:50** [Veo 3.](/live/2026-03/model-status-0305-1150) — 模型状态 · Google
* **2026-03-05 11:04** [gemini-3-pro-image-preview 今早 10 点左右并发不足,10:20 后已补…](/live/2026-03/model-status-0305-1104) — 模型状态 · Google
* **2026-03-04 23:30** [gemini-3-pro-image-preview 正常,gemini-3.](/live/2026-03/model-status-0304-2330) — 模型状态 · Google
## 分类:新模型
* **2026-05-03 23:10** [Grok 4.3 上线(全分组开放)](/live/2026-05/grok-4-3-launch) — 新模型 · xAI
* **2026-05-03 23:00** [gpt-5.5-pro 上线(仅 SVIP 分组)](/live/2026-05/gpt-5-5-pro-launch) — 新模型 · OpenAI
* **2026-04-30 14:26** [图片大师工具上线 gpt-image-2 全系列三模型](/live/2026-04/image-master-gpt-image-2-trio) — 新模型 · OpenAI
* **2026-04-28 00:29** [Qwen3.6 开源双模上线(API易官转托管 · 免租卡)](/live/2026-04/qwen3-6-opensource) — 新模型 · Alibaba
* **2026-04-27 23:59** [Qwen3.6-Max-Preview 与 Flash 上线(阿里云官转)](/live/2026-04/qwen3-6-max-flash) — 新模型 · Alibaba
* **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu
* **2026-04-25 18:39** [GPT-5.5 官转上线(OpenAI 官方直转)](/live/2026-04/gpt-5-5) — 新模型 · OpenAI
* **2026-04-25 11:54** [新增 image2Enterprise 企业分组(1.2x 倍率)](/live/2026-04/image2-enterprise) — 新模型 · OpenAI
* **2026-04-25 01:30** [Kimi K2.6 上线(华为云官转)](/live/2026-04/kimi-k2-6) — 新模型 · Moonshot
* **2026-04-24 20:20** [DeepSeek V4-Pro / V4-Flash 预览版上线(阿里云官转)](/live/2026-04/deepseek-v4-pro-v4-flash) — 新模型 · DeepSeek
* **2026-04-23 13:40** [新增 GPT-image-2 官转 vs 官逆 选型对照文档](/live/2026-04/gpt-image-2-vs) — 新模型 · OpenAI
* **2026-04-23 09:19** [OpenAI gpt-image-2 旗舰图像模型上线](/live/2026-04/openai-gpt-image-2) — 新模型 · OpenAI
* **2026-04-22 13:36** [gpt-image-2-all 新增对话式 Playground 文档](/live/2026-04/gpt-image-2-all-playground) — 新模型 · OpenAI
* **2026-04-22 01:36** [ChatGPT 最新生图能力 gpt-image-2-all 已上线](/live/2026-04/chatgpt-gpt-image-2-all) — 新模型 · OpenAI
* **2026-04-17 00:25** [Claude Opus 4.](/live/2026-04/new-model-0417-0025) — 新模型 · Anthropic
* **2026-04-09 12:51** [glm-5.](/live/2026-04/new-model-0409-1251) — 新模型 · Zhipu
* **2026-04-07 23:57** [新上线 NanoBananaEnterprise 分组:The Most Stable API fo…](/live/2026-04/new-model-0407-2357) — 新模型 · Google
* **2026-04-06 01:30** [qwen3.](/live/2026-04/new-model-0406-0130) — 新模型 · Alibaba
* **2026-04-04 21:20** [新增模型名 gemini-3.](/live/2026-04/new-model-0404-2120) — 新模型 · Google
* **2026-04-01 00:03** [gemini-embedding-2-preview 谷歌首个原生多模态嵌入模型上线](/live/2026-04/new-model-0401-0003) — 新模型 · Google
* **2026-03-30 22:46** [seed-2-0-pro-260328 字节跳动 Seed 2.](/live/2026-03/new-model-0330-2246) — 新模型 · ByteDance
* **2026-03-24 00:22** [MiniMax-M2.](/live/2026-03/new-model-0324-0022) — 新模型 · MiniMax
* **2026-03-20 10:50** [新增 4 款 Grok 4.](/live/2026-03/new-model-0320-1050) — 新模型 · xAI
* **2026-03-18 14:54** [新上线 gpt-5.](/live/2026-03/new-model-0318-1454) — 新模型 · OpenAI
* **2026-03-17 11:37** [推荐:gemini-3.](/live/2026-03/new-model-0317-1137) — 新模型 · Google
* **2026-03-08 10:04** [seed-2-0-lite-260228 新模型上线](/live/2026-03/new-model-0308-1004) — 新模型 · ByteDance
* **2026-03-06 11:05** [GPT-5.](/live/2026-03/new-model-0306-1105) — 新模型 · OpenAI
## 分类:价格变动
* **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic
* **2026-04-16 20:11** [针对近期 Nano Banana 系列的价格调整,我们专门制作了价格对比页面:含默认定价、常规充值(…](/live/2026-04/price-0416-2011) — 价格变动 · Google
* **2026-04-16 11:08** [因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后 Nano Banana 2 按…](/live/2026-04/price-0416-1108) — 价格变动 · Google
* **2026-04-13 10:00** [好消息](/live/2026-04/price-0413-1000) — 价格变动 · Google
* **2026-04-03 16:19** [Claude 系列模型缓存写入价格从 1.](/live/2026-04/price-0403-1619) — 价格变动 · Anthropic
* **2026-03-14 00:29** [周末福利](/live/2026-03/price-0314-0029) — 价格变动
## 分类:服务通知
* **2026-05-07 15:20** [AI图片大师:拖拽/替换图片 + 上传扩容到 12 张](/live/2026-05/imagen-drag-replace-12) — 服务通知
* **2026-05-07 01:44** [AI图片大师批量生成页:一键下载全部 + 全屏预览升级](/live/2026-05/imagen-batch-download) — 服务通知
* **2026-04-28 16:15** [线上故障复盘:14:50–15:15 流量分发节点 SSL 证书到期](/live/2026-04/ssl-cert-incident-postmortem) — 服务通知
* **2026-04-28 15:59** [默认 \$30 余额告警邮件已停用,可在后台自行开启](/live/2026-04/default-balance-alert-off) — 服务通知
* **2026-04-24 12:49** [喜报:在线充值已完全修复](/live/2026-04/service-notice-0424-1249) — 服务通知
* **2026-04-24 10:26** [充值页面仍异常,已开通企业微信人工充值通道](/live/2026-04/service-notice-0424-1026) — 服务通知
* **2026-04-24 09:36** [充值页面跳转已恢复](/live/2026-04/service-notice-0424-0936) — 服务通知
* **2026-04-22 09:53** [旧版图像模型已官方下线 — 请尽快切换至 gpt-image-2-all](/live/2026-04/gpt-image-2-all) — 服务通知 · OpenAI
* **2026-03-23 19:20** [网站后台频现 429 的问题已解决,后台刷新、查看日志、充值等功能恢复正常](/live/2026-03/service-notice-0323-1920) — 服务通知
* **2026-03-23 10:25** [网站后台出现 429 限流,属于整体流量过大的自我保护机制,几分钟后会自动解除,不影响 API 接口…](/live/2026-03/service-notice-0323-1025) — 服务通知
* **2026-03-13 16:11** [OVH 故障已解决,API易网站已恢复正常访问和接口调用](/live/2026-03/service-notice-0313-1611) — 服务通知
* **2026-03-13 15:35** [紧急通知:服务器厂商 OVH 系统故障,目前正在修复中,预计 15 分钟内恢复](/live/2026-03/service-notice-0313-1535) — 服务通知
* **2026-03-13 11:22** [网站后台出现 429 限流问题,不影响 API 接口调用,但影响后台页面使用](/live/2026-03/service-notice-0313-1122) — 服务通知
* **2026-03-10 23:19** [谷歌公告:gemini-3-pro-preview 已于 3 月 9 日关停弃用](/live/2026-03/service-notice-0310-2319) — 服务通知 · Google
* **2026-03-09 11:58** [网站频现 429 的问题已解决](/live/2026-03/service-notice-0309-1158) — 服务通知
* **2026-03-09 10:39** [网站后台频现 429 繁忙问题,不影响 API 接口调用,但会影响网站后台正常使用和充值(人工充值可…](/live/2026-03/service-notice-0309-1039) — 服务通知
## 分类:行业快讯
* **2026-05-03 22:40** [Claude Code 超高缓存命中率,单次调用低至 \\\$0.08](/live/2026-05/claude-code-cache-hit) — 行业快讯 · Anthropic
* **2026-04-28 17:14** [经验分享:gpt-5.5 / gpt-image-2 官转 API 不能直接输出 PSD](/live/2026-04/api-psd-output-explained) — 行业快讯 · OpenAI
* **2026-03-27 11:28** [API易有哪些可选的 Base URL](/live/2026-03/industry-news-0327-1128) — 行业快讯
* **2026-03-24 23:49** [新增常见问题:Base URL 配置指南,详解 OpenAI /v1、Claude 根域名、Gemi…](/live/2026-03/industry-news-0324-2349) — 行业快讯
* **2026-03-24 23:15** [新增常见问题:模型倍率与价格说明,帮助大家理解倍率计算方式和不同模型的计费逻辑](/live/2026-03/industry-news-0324-2315) — 行业快讯
* **2026-03-10 23:30** [文档中心 OpenClaw 栏目进行了更细化调整,帮助大家更快用上 OpenClaw,一起来"养虾"…](/live/2026-03/industry-news-0310-2330) — 行业快讯
* **2026-03-09 19:25** [整理了 Nano Banana 图片 API 系列常见的出图失败原因,遇到问题可先自查](/live/2026-03/industry-news-0309-1925) — 行业快讯
## 分类:文档更新
* **2026-05-06 15:35** [文档中心每页支持一键复制 + 问 AI(ChatGPT / Claude / Perplexity / Google AI Studio)](/live/2026-05/docs-copy-ask-ai) — 文档更新
* **2026-05-06 15:33** [gpt-image-2 官转 vs 官逆对比文档已更新,建议双通道接入互为兜底](/live/2026-05/gpt-image-2-vs-doc-updated) — 文档更新 · OpenAI
* **2026-04-30 23:12** [FLUX.2 系列图片编辑文档更新:Playground 现可在线测试](/live/2026-04/flux-2-image-edit-playground) — 文档更新
* **2026-04-30 13:52** [飞书多维表格 + Coze 零代码生图方案上线](/live/2026-04/feishu-coze-nano-banana-pro) — 文档更新 · Google
* **2026-04-26 15:10** [Codex 接入 API易 文档已更新,接入更简单](/live/2026-04/codex-cli-docs-updated) — 文档更新 · OpenAI
* **2026-04-24 15:35** [新增社区贡献:APIYI GPT-Image 2 Skills](/live/2026-04/apiyi-gpt-image-2-skills) — 文档更新 · OpenAI
* **2026-04-24 15:33** [新增社区贡献:Luck GPT-Image 2 ComfyUI 节点](/live/2026-04/luck-gpt-image-2-comfyui) — 文档更新 · OpenAI
***
## 厂商:Alibaba
* **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic
* **2026-04-28 00:29** [Qwen3.6 开源双模上线(API易官转托管 · 免租卡)](/live/2026-04/qwen3-6-opensource) — 新模型 · Alibaba
* **2026-04-27 23:59** [Qwen3.6-Max-Preview 与 Flash 上线(阿里云官转)](/live/2026-04/qwen3-6-max-flash) — 新模型 · Alibaba
* **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu
* **2026-04-06 01:30** [qwen3.](/live/2026-04/new-model-0406-0130) — 新模型 · Alibaba
## 厂商:Anthropic
* **2026-05-03 22:40** [Claude Code 超高缓存命中率,单次调用低至 \\\$0.08](/live/2026-05/claude-code-cache-hit) — 行业快讯 · Anthropic
* **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic
* **2026-04-20 23:11** [Claude 系列运行稳定:claude-opus-4-7、claude-sonnet-4-6 今日…](/live/2026-04/model-status-0420-2311) — 模型状态 · Anthropic
* **2026-04-17 00:25** [Claude Opus 4.](/live/2026-04/new-model-0417-0025) — 新模型 · Anthropic
* **2026-04-03 16:19** [Claude 系列模型缓存写入价格从 1.](/live/2026-04/price-0403-1619) — 价格变动 · Anthropic
## 厂商:ByteDance
* **2026-03-30 22:46** [seed-2-0-pro-260328 字节跳动 Seed 2.](/live/2026-03/new-model-0330-2246) — 新模型 · ByteDance
* **2026-03-08 10:04** [seed-2-0-lite-260228 新模型上线](/live/2026-03/new-model-0308-1004) — 新模型 · ByteDance
## 厂商:DeepSeek
* **2026-04-24 20:20** [DeepSeek V4-Pro / V4-Flash 预览版上线(阿里云官转)](/live/2026-04/deepseek-v4-pro-v4-flash) — 新模型 · DeepSeek
## 厂商:Google
* **2026-05-06 11:45** [VEO 3.1 高负载报错已解决,视频生成恢复正常](/live/2026-05/veo-3-1-recovered) — 模型状态 · Google
* **2026-04-30 13:52** [飞书多维表格 + Coze 零代码生图方案上线](/live/2026-04/feishu-coze-nano-banana-pro) — 文档更新 · Google
* **2026-04-25 11:18** [Gemini 图像双模周末平稳](/live/2026-04/gemini) — 模型状态 · Google
* **2026-04-21 17:32** [gemini-3-pro-image-preview(Nano Banana Pro)谷歌官方算力紧…](/live/2026-04/model-status-0421-1732) — 模型状态 · Google
* **2026-04-21 15:37** [Nano Banana Pro (gemini-3-pro-image-preview) 出现 50…](/live/2026-04/model-status-0421-1537) — 模型状态 · Google
* **2026-04-21 10:27** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-1027) — 模型状态 · Google
* **2026-04-21 09:33** [⏳ gemini-3-pro-image-preview(Nano Banana Pro)自今早 0…](/live/2026-04/model-status-0421-0933) — 模型状态 · Google
* **2026-04-21 00:45** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-0045) — 模型状态 · Google
* **2026-04-20 23:18** [gemini-3-pro-image-preview 受谷歌官方资源限制,默认分组 + 企业分组暂时…](/live/2026-04/model-status-0420-2318) — 模型状态 · Google
* **2026-04-20 18:46** [⏳ gemini-3-pro-image-preview 仍未恢复,并发不足,失败会直接报 429(…](/live/2026-04/model-status-0420-1846) — 模型状态 · Google
* **2026-04-20 16:12** [gemini-3-pro-image-preview 资源配额不足(含企业分组),目前正在维护补配额…](/live/2026-04/model-status-0420-1612) — 模型状态 · Google
* **2026-04-20 12:41** [gemini-3.](/live/2026-04/model-status-0420-1241) — 模型状态 · Google
* **2026-04-16 20:11** [针对近期 Nano Banana 系列的价格调整,我们专门制作了价格对比页面:含默认定价、常规充值(…](/live/2026-04/price-0416-2011) — 价格变动 · Google
* **2026-04-16 11:08** [因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后 Nano Banana 2 按…](/live/2026-04/price-0416-1108) — 价格变动 · Google
* **2026-04-14 23:15** [Nano Banana Pro 与 Nano Banana 2 今日稳定运行一整天,默认分组已全面恢…](/live/2026-04/model-status-0414-2315) — 模型状态 · Google
* **2026-04-14 00:25** [默认分组已恢复 gemini-3-pro-image-preview(Nano Banana Pro…](/live/2026-04/model-status-0414-0025) — 模型状态 · Google
* **2026-04-13 10:00** [好消息](/live/2026-04/price-0413-1000) — 价格变动 · Google
* **2026-04-11 12:34** [Nano Banana 2 已增加更多资源,默认分组正常使用](/live/2026-04/model-status-0411-1234) — 模型状态 · Google
* **2026-04-10 17:29** [模型状态播报:gemini-3.](/live/2026-04/model-status-0410-1729) — 模型状态 · Google
* **2026-04-10 17:25** [常规分组仍在努力排查中,暂未恢复](/live/2026-04/model-status-0410-1725) — 模型状态 · Google
* **2026-04-10 14:05** [Nano Banana 2:Default 分组暂时恢复可用,但仍较拥堵](/live/2026-04/model-status-0410-1405) — 模型状态 · Google
* **2026-04-10 10:56** [Nano Banana 令牌设置最佳实践:计费模式选「按量优先」(兼容 Nano Banana 2 …](/live/2026-04/model-status-0410-1056) — 模型状态 · Google
* **2026-04-10 10:09** [默认分组 Nano Banana 系列故障(IP 代理问题 + KEY 配额不足),正在处理中](/live/2026-04/model-status-0410-1009) — 模型状态 · Google
* **2026-04-09 11:13** [Veo 3.](/live/2026-04/model-status-0409-1113) — 模型状态 · Google
* **2026-04-09 10:37** [经半小时观察,10:00 (UTC+8) 之后 Nano Banana Pro / 2 超低价默认分…](/live/2026-04/model-status-0409-1037) — 模型状态 · Google
* **2026-04-09 09:47** [谷歌 Nano Banana 系列直连官网,今早 KEY 异常掉线较快,部分失败任务请重试](/live/2026-04/model-status-0409-0947) — 模型状态 · Google
* **2026-04-07 23:57** [新上线 NanoBananaEnterprise 分组:The Most Stable API fo…](/live/2026-04/new-model-0407-2357) — 新模型 · Google
* **2026-04-04 21:20** [新增模型名 gemini-3.](/live/2026-04/new-model-0404-2120) — 新模型 · Google
* **2026-04-03 10:50** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-04/model-status-0403-1050) — 模型状态 · Google
* **2026-04-02 17:10** [Fallback 建议:gemini-3-pro-preview 文本模型资源紧张,建议合理设置超时…](/live/2026-04/model-status-0402-1710) — 模型状态 · Google
* **2026-04-02 13:52** [稳定性播报:gemini-3.](/live/2026-04/model-status-0402-1352) — 模型状态 · Google
* **2026-04-01 23:38** [Nano Banana Pro 和 Nano Banana 2 今天稳定运行一整天,4 月好兆头](/live/2026-04/model-status-0401-2338) — 模型状态 · Google
* **2026-04-01 00:03** [gemini-embedding-2-preview 谷歌首个原生多模态嵌入模型上线](/live/2026-04/new-model-0401-0003) — 新模型 · Google
* **2026-03-31 16:11** [Nano Banana Pro 同样受谷歌官方 503 高负载影响,并发受限,静待官方恢复](/live/2026-03/model-status-0331-1611) — 模型状态 · Google
* **2026-03-31 11:04** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0331-1104) — 模型状态 · Google
* **2026-03-30 11:09** [近期 Gemini 官方偶尔存在波动,如遇到 gemini-3-pro-image-preview …](/live/2026-03/model-status-0330-1109) — 模型状态 · Google
* **2026-03-28 06:04** [Nano Banana Pro 和 Nano Banana 2 均已恢复正常速度](/live/2026-03/model-status-0328-0604) — 模型状态 · Google
* **2026-03-28 00:19** [Nano Banana Pro:谷歌尚未修复,静待恢复中](/live/2026-03/model-status-0328-0019) — 模型状态 · Google
* **2026-03-27 20:52** [初代小香蕉 gemini-2.](/live/2026-03/model-status-0327-2052) — 模型状态 · Google
* **2026-03-27 20:07** [gemini-3.](/live/2026-03/model-status-0327-2007) — 模型状态 · Google
* **2026-03-27 16:48** [gemini-3-pro-image-preview(Nano Banana Pro)目测已恢复正常…](/live/2026-03/model-status-0327-1648) — 模型状态 · Google
* **2026-03-27 15:47** [Nano Banana 2 当下比 Nano Banana Pro 稳定](/live/2026-03/model-status-0327-1547) — 模型状态 · Google
* **2026-03-27 15:06** [gemini-3.](/live/2026-03/model-status-0327-1506) — 模型状态 · Google
* **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google
* **2026-03-27 11:28** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0327-1128) — 模型状态 · Google
* **2026-03-21 11:48** [今天 Nano Banana Pro(gemini-3-pro-image-preview)和 Na…](/live/2026-03/model-status-0321-1148) — 模型状态 · Google
* **2026-03-21 00:54** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0321-0054) — 模型状态 · Google
* **2026-03-19 21:12** [Veo 3.](/live/2026-03/model-status-0319-2112) — 模型状态 · Google
* **2026-03-19 20:41** [谷歌算力已恢复,Nano Banana Pro(gemini-3-pro-image-preview…](/live/2026-03/model-status-0319-2041) — 模型状态 · Google
* **2026-03-19 17:28** [Nano Banana Pro(gemini-3-pro-image-preview)又遇谷歌算力偏…](/live/2026-03/model-status-0319-1728) — 模型状态 · Google
* **2026-03-19 16:21** [Nano Banana Pro(gemini-3-pro-image-preview)下午超高并发,…](/live/2026-03/model-status-0319-1621) — 模型状态 · Google
* **2026-03-19 16:00** [技巧分享:受谷歌算力波动影响,建议将 Nano Banana Pro 和 2 的 API 超时时间 …](/live/2026-03/model-status-0319-1600) — 模型状态 · Google
* **2026-03-19 15:59** [Nano Banana Pro(gemini-3-pro-image-preview)又受谷歌高负载…](/live/2026-03/model-status-0319-1559) — 模型状态 · Google
* **2026-03-19 13:12** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-03/model-status-0319-1312) — 模型状态 · Google
* **2026-03-19 12:50** [Veo 3.](/live/2026-03/model-status-0319-1250) — 模型状态 · Google
* **2026-03-19 10:58** [Nano Banana Pro(gemini-3-pro-image-preview)已恢复正常水平…](/live/2026-03/model-status-0319-1058) — 模型状态 · Google
* **2026-03-19 10:25** [Nano Banana Pro(gemini-3-pro-image-preview)目前并发不足,…](/live/2026-03/model-status-0319-1025) — 模型状态 · Google
* **2026-03-17 16:30** [今天下午 Nano Banana Pro(gemini-3-pro-image-preview)和 …](/live/2026-03/model-status-0317-1630) — 模型状态 · Google
* **2026-03-17 11:37** [推荐:gemini-3.](/live/2026-03/new-model-0317-1137) — 新模型 · Google
* **2026-03-16 18:13** [Nano Banana Pro 目前已基本恢复正常,约 3% 的请求偶尔会卡顿,谷歌算力恢复中](/live/2026-03/model-status-0316-1813) — 模型状态 · Google
* **2026-03-16 17:49** [Nano Banana Pro(gemini-3-pro-image-preview)陆续恢复中,但…](/live/2026-03/model-status-0316-1749) — 模型状态 · Google
* **2026-03-16 16:27** [谷歌图片模型状态更新:gemini-3.](/live/2026-03/model-status-0316-1627) — 模型状态 · Google
* **2026-03-16 15:49** [Nano Banana 2 出现 503 错误(谷歌官方负载过高),原始报错:This model …](/live/2026-03/model-status-0316-1549) — 模型状态 · Google
* **2026-03-10 23:19** [谷歌公告:gemini-3-pro-preview 已于 3 月 9 日关停弃用](/live/2026-03/service-notice-0310-2319) — 服务通知 · Google
* **2026-03-07 19:41** [Gemini 全系列已恢复正常水平](/live/2026-03/model-status-0307-1941) — 模型状态 · Google
* **2026-03-06 15:08** [Veo 3.](/live/2026-03/model-status-0306-1508) — 模型状态 · Google
* **2026-03-06 11:03** [gemini-3-pro-image-preview 正常运行,gemini-3.](/live/2026-03/model-status-0306-1103) — 模型状态 · Google
* **2026-03-05 20:11** [gemini-3-pro-image-preview 和 gemini-3.](/live/2026-03/model-status-0305-2011) — 模型状态 · Google
* **2026-03-05 11:50** [Veo 3.](/live/2026-03/model-status-0305-1150) — 模型状态 · Google
* **2026-03-05 11:04** [gemini-3-pro-image-preview 今早 10 点左右并发不足,10:20 后已补…](/live/2026-03/model-status-0305-1104) — 模型状态 · Google
* **2026-03-04 23:30** [gemini-3-pro-image-preview 正常,gemini-3.](/live/2026-03/model-status-0304-2330) — 模型状态 · Google
## 厂商:MiniMax
* **2026-03-24 00:22** [MiniMax-M2.](/live/2026-03/new-model-0324-0022) — 新模型 · MiniMax
## 厂商:Moonshot
* **2026-04-25 01:30** [Kimi K2.6 上线(华为云官转)](/live/2026-04/kimi-k2-6) — 新模型 · Moonshot
## 厂商:OpenAI
* **2026-05-06 15:33** [gpt-image-2 官转 vs 官逆对比文档已更新,建议双通道接入互为兜底](/live/2026-05/gpt-image-2-vs-doc-updated) — 文档更新 · OpenAI
* **2026-05-03 23:00** [gpt-5.5-pro 上线(仅 SVIP 分组)](/live/2026-05/gpt-5-5-pro-launch) — 新模型 · OpenAI
* **2026-04-30 14:26** [图片大师工具上线 gpt-image-2 全系列三模型](/live/2026-04/image-master-gpt-image-2-trio) — 新模型 · OpenAI
* **2026-04-29 14:58** [官转 gpt-image-2 建议把 timeout 调到 360–600 秒兜底](/live/2026-04/gpt-image-2-latency-spike) — 模型状态 · OpenAI
* **2026-04-29 11:06** [gpt-image-2 通道状态:企业分组稳定,官逆 -all / -vip 双模型都稳](/live/2026-04/image2-vip-channels-stable) — 模型状态 · OpenAI
* **2026-04-28 17:14** [经验分享:gpt-5.5 / gpt-image-2 官转 API 不能直接输出 PSD](/live/2026-04/api-psd-output-explained) — 行业快讯 · OpenAI
* **2026-04-28 15:36** [gpt-image-2 双通道状态:官转走企业分组、官逆很稳](/live/2026-04/gpt-image-2-channels-stable) — 模型状态 · OpenAI
* **2026-04-27 15:59** [image2Enterprise 分组稳定运行中(官转 gpt-image-2 推荐路径)](/live/2026-04/image2-enterprise-stable) — 模型状态 · OpenAI
* **2026-04-27 15:28** [官逆 gpt-image-2-all 报错 500 通常是内容违规(不计费)](/live/2026-04/gpt-image-2-all-500-content-policy) — 模型状态 · OpenAI
* **2026-04-27 12:06** [gpt-image-2-all(官逆)已恢复正常;gpt-image-2 官转建议走 image2Enterprise 更稳](/live/2026-04/gpt-image-2-all-recovered) — 模型状态 · OpenAI
* **2026-04-27 11:24** [gpt-image-2 报错 429 / 408 提醒(Default 分组资源紧张)](/live/2026-04/gpt-image-2-429-408) — 模型状态 · OpenAI
* **2026-04-26 15:10** [Codex 接入 API易 文档已更新,接入更简单](/live/2026-04/codex-cli-docs-updated) — 文档更新 · OpenAI
* **2026-04-26 14:25** [默认分组 gpt-image-2 资源已补充,并发调用恢复正常](/live/2026-04/gpt-image-2-default-recovered) — 模型状态 · OpenAI
* **2026-04-25 18:39** [GPT-5.5 官转上线(OpenAI 官方直转)](/live/2026-04/gpt-5-5) — 新模型 · OpenAI
* **2026-04-25 11:54** [新增 image2Enterprise 企业分组(1.2x 倍率)](/live/2026-04/image2-enterprise) — 新模型 · OpenAI
* **2026-04-25 11:15** [gpt-image-2 官转通道资源拥挤(算力紧张)](/live/2026-04/gpt-image-2) — 模型状态 · OpenAI
* **2026-04-24 22:26** [gpt-image-2 官方通道临时限额(负载中)](/live/2026-04/gpt-image-2-0424-2226) — 模型状态 · OpenAI
* **2026-04-24 15:35** [新增社区贡献:APIYI GPT-Image 2 Skills](/live/2026-04/apiyi-gpt-image-2-skills) — 文档更新 · OpenAI
* **2026-04-24 15:33** [新增社区贡献:Luck GPT-Image 2 ComfyUI 节点](/live/2026-04/luck-gpt-image-2-comfyui) — 文档更新 · OpenAI
* **2026-04-23 18:52** [gpt-image-2 官转已恢复](/live/2026-04/gpt-image-2-0423-1852) — 模型状态 · OpenAI
* **2026-04-23 18:17** [gpt-image-2 官转状态更新](/live/2026-04/gpt-image-2-0423-1817) — 模型状态 · OpenAI
* **2026-04-23 16:37** [gpt-image-2 官转模型并发告急](/live/2026-04/gpt-image-2-0423-1637) — 模型状态 · OpenAI
* **2026-04-23 13:40** [新增 GPT-image-2 官转 vs 官逆 选型对照文档](/live/2026-04/gpt-image-2-vs) — 新模型 · OpenAI
* **2026-04-23 09:19** [OpenAI gpt-image-2 旗舰图像模型上线](/live/2026-04/openai-gpt-image-2) — 新模型 · OpenAI
* **2026-04-22 13:36** [gpt-image-2-all 新增对话式 Playground 文档](/live/2026-04/gpt-image-2-all-playground) — 新模型 · OpenAI
* **2026-04-22 09:53** [旧版图像模型已官方下线 — 请尽快切换至 gpt-image-2-all](/live/2026-04/gpt-image-2-all) — 服务通知 · OpenAI
* **2026-04-22 01:36** [ChatGPT 最新生图能力 gpt-image-2-all 已上线](/live/2026-04/chatgpt-gpt-image-2-all) — 新模型 · OpenAI
* **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google
* **2026-03-23 12:56** [Sora-2 低价版本今天挺稳的,可以试试~使用默认分组或 sora-2 分组,\$0.](/live/2026-03/model-status-0323-1256) — 模型状态 · OpenAI
* **2026-03-18 14:54** [新上线 gpt-5.](/live/2026-03/new-model-0318-1454) — 新模型 · OpenAI
* **2026-03-18 12:27** [Sora-2 官逆低价版目前成功率不高,但仍能产出,还需进一步优化号池](/live/2026-03/model-status-0318-1227) — 模型状态 · OpenAI
* **2026-03-18 01:27** [Sora-2 官逆低价版本已恢复,观察中,希望这次不是一日游](/live/2026-03/model-status-0318-0127) — 模型状态 · OpenAI
* **2026-03-06 11:05** [GPT-5.](/live/2026-03/new-model-0306-1105) — 新模型 · OpenAI
* **2026-03-06 10:04** [Sora 2 低价版本一日游,目前再次被风控,已无法使用](/live/2026-03/model-status-0306-1004) — 模型状态 · OpenAI
* **2026-03-05 20:12** [Sora 2 官逆已恢复,\$0.](/live/2026-03/model-status-0305-2012) — 模型状态 · OpenAI
## 厂商:Zhipu
* **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu
* **2026-04-09 12:51** [glm-5.](/live/2026-04/new-model-0409-1251) — 新模型 · Zhipu
## 厂商:xAI
* **2026-05-03 23:10** [Grok 4.3 上线(全分组开放)](/live/2026-05/grok-4-3-launch) — 新模型 · xAI
* **2026-03-20 10:50** [新增 4 款 Grok 4.](/live/2026-03/new-model-0320-1050) — 新模型 · xAI
# 实时动态
Source: https://docs.apiyi.com/live/index
API易模型状态、行业快讯、服务动态实时更新
🛠️ **「AI图片大师」新增图片拖拽 / 替换 + 上传扩容到 12 张** —— `imagen.apiyi.com` 测试工具升级:支持图片拖拽上传、一键替换已上传图片,常用模型的上传图片数量上限扩充到 **12 张**,多图融合、批量编辑都更顺手。请刷新后使用新版本。
🎯 **工具定位**:「AI图片大师」是 API易服务客户的**接口测试 Demo**,用于展示接口能力、帮助企业客户更快接入与试用,**不做直面 C 端的产品**。欢迎广大用户继续提需求,我们持续打磨。
📖 立即访问:`imagen.apiyi.com`
📖 [查看详情](/live/2026-05/imagen-drag-replace-12)
🛠️ **「AI图片大师」批量生成页升级:一键下载全部 + 全屏预览改进** —— API易测试工具 `imagen.apiyi.com/#batch` 批量生成页面新增「一键下载所有图片」功能,并改进了全屏预览等交互体验,批量出图后不用再一张张右键保存。欢迎更多客户继续提改进建议,我们会持续打磨。
📖 测试工具:`imagen.apiyi.com/#batch`
📖 [查看详情](/live/2026-05/imagen-batch-download)
🛠️ **文档中心每页一键复制 + 问 AI 上线** —— API易文档中心产品升级:每个页面右上角现在自带「复制页面」下拉菜单,支持以 Markdown 格式复制给 LLMs、以纯文本查看,或直接在 ChatGPT / Claude / Perplexity / Google AI Studio 中打开询问关于此页面的问题。看文档遇到不懂的地方,可以直接丢给 AI 解释。
📖 [查看详情](/live/2026-05/docs-copy-ask-ai)
📘 **gpt-image-2 官转 vs 官逆对比文档已更新(更全面)** —— 重新梳理了价格、参数支持、速度、限制项的差异。**个人推荐业务方双通道都接入**:官逆 `gpt-image-2-all` 成本低适合主链路,官转 `gpt-image-2` 作为兜底,参数完整、上游稳定,也把选择权留给最终用户。
📖 对比文档:[/api-capabilities/gpt-image-2/vs-gpt-image-2-all](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)
📖 [查看详情](/live/2026-05/gpt-image-2-vs-doc-updated)
✅ **VEO 3.1 高负载报错已解决** —— VEO 3.1 视频生成接口此前的 `We're under heavy load, please try again later.` 报错已恢复正常,恢复时间 2026-05-06 11:30 (UTC+8)。此前失败的视频生成任务直接重新发起即可。
📖 [查看详情](/live/2026-05/veo-3-1-recovered)
🚀 **Grok 4.3 上线(全分组开放)** —— xAI 全新旗舰 `grok-4.3` 通过官方直转上线,Intelligence Index **53**、GDPval-AA ELO **1500(+321)**、τ²-Bench **98%**、IFBench **81%**,1M 上下文 + 多模态 + **159 t/s** 极速输出。挂牌 \$1.25/\$2.50 每 1M tokens(输入降 37.5%、输出降 58.3% vs Grok 4.20),阶梯计费:0–200K 标准价、200K–∞ \$2.50/\$5.00。
✅ **Default、SVIP 等常用分组全开放**,价格亲民、风险可控;充值 100 美金赠 10%,综合成本约官网 85 折。
📖 上线说明:[/news/grok-4-3-launch](/news/grok-4-3-launch)
📖 [查看详情](/live/2026-05/grok-4-3-launch)
🚀 **gpt-5.5-pro 上线(仅 SVIP 分组)** —— OpenAI 当前最强推理模型 `gpt-5.5-pro` 通过官方直转通道上线,Terminal-Bench 2.0 **82.7%**、Expert-SWE **73.1%**、GDPval **84.9%**,1.05M 上下文 + 128K 输出。阶梯计费:0–272K \$30/\$180、272K–∞ \$60/\$270 每 1M tokens。
⚠️ **仅 SVIP 分组开放**:未对 Default 默认分组开放——单次调用可能数美金到十几美金,请确认场景必要性后再调,并务必在应用层设置预算上限。
📖 上线说明:[/news/gpt-5-5-pro-launch](/news/gpt-5-5-pro-launch)
📖 [查看详情](/live/2026-05/gpt-5-5-pro-launch)
🚀 **Claude Code 超高缓存命中率,等你来用\~** —— 实测 `claude-opus-4-7` 在 Claude Code 场景下缓存命中率极高,连续多次调用单价稳定在 \$0.08–0.12 区间(已含 `ClaudeCode` 分组 0.95x 折扣),首字节多在 1–4 秒。长上下文反复调用、大段代码 review、多轮对话都能命中缓存,综合成本远低于按 token 直算。
🔐 **资源说明**:本站 Claude Code 通道直连 Anthropic 官方 KEY(T4 等级)+ AWS Bedrock 高配额大账户,专做 Claude 官转资源 API,**非逆向**——稳定性、配额、缓存命中机制与官方上游一致。
📖 接入指南:[/scenarios/programming/claude-code](/scenarios/programming/claude-code)
📖 [查看详情](/live/2026-05/claude-code-cache-hit)
📘 **FLUX.2 系列图片编辑文档更新:Playground 现可在线测试** —— `flux-2-max` / `flux-2-pro` 等系列模型的图片编辑接口文档已更新,右侧交互式 Playground 现在支持在线试用:填好 `Bearer sk-xxx`、把参考图的公网 URL 写进 `input_image`(多图融合继续填 `input_image_2 … _8`),再加 prompt 一键发送即可,免写代码。
📄 文档:[/api-capabilities/flux/image-edit](/api-capabilities/flux/image-edit)
📖 [查看详情](/live/2026-04/flux-2-image-edit-playground)
🎨 **「AI图片大师」测试工具上线 gpt-image-2 全系列三模型** —— 浏览器内一键切换、对比体验:`gpt-image-2-all`(chatgpt 网页版官逆,60s 出图,提示词控尺寸,\$0.03/张)、`gpt-image-2-vip`(codex 官逆,90s,1K/2K 共 5 档 size + 自适应,\$0.03/张)、`gpt-image-2`(OpenAI 官转,全参数支持但按 tokens 计费偏贵)。需要快速试用又不想写代码的同学可以直接进去对比。
📖 官转 vs 官逆区别:[/api-capabilities/gpt-image-2/vs-gpt-image-2-all](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)
📖 [查看详情](/live/2026-04/image-master-gpt-image-2-trio)
***
> 📖 查看更早的动态请访问 [实时动态归档](/live/archive),按月份、分类、厂商浏览历史动态。
查看 AI风向标栏目
适合全球用户
陆续上新
# Claude Opus 4.5 震撼发布:编程能力登顶,价格降至原版 1/3
Source: https://docs.apiyi.com/news/claude-opus-4-5-launch
Anthropic 最新旗舰模型 Claude Opus 4.5 正式上线,SWE-bench Verified 达 80.9% 超越所有竞品,价格仅为前代 1/3,API易已全面支持 OpenAI 和 Anthropic 原生格式调用。
## 核心要点
* **性能登顶**:SWE-bench Verified 达 80.9%,超越 GPT-5.1-Codex-Max(77.9%)和 Gemini 3 Pro(76.2%)
* **价格暴降**:\$5/\$25 每百万 token,仅为前代 Opus 的 1/3,性价比飙升
* **编程之王**:内部工程师招聘考试超越历史最高人类成绩,Aider Polyglot 比 Sonnet 4.5 提升 10.6%
* **智能推理**:全新 effort 参数可调节推理深度,medium 模式下比 Sonnet 4.5 节省 76% 输出 token
* **API易上线**:已全面支持 OpenAI 和 Anthropic 原生格式调用,可在 Claude Code 中直接使用
## 背景介绍
2025年11月24日,Anthropic 正式发布旗舰模型 Claude Opus 4.5(版本号 `claude-opus-4-5-20251101`),这是继 Claude 4.1 系列后的重磅升级。此次发布最大的亮点是在大幅提升性能的同时,将价格降至前代的 1/3,彻底打破了"顶级模型必然昂贵"的行业规律。
Claude Opus 4.5 在编程、推理、工具使用等方面实现了全面突破,特别是在真实软件工程任务(SWE-bench Verified)上达到了 80.9% 的准确率,超越了 OpenAI GPT-5.1-Codex-Max 和 Google Gemini 3 Pro,成为目前编程能力最强的 AI 模型。
API易已在第一时间上线 Claude Opus 4.5,支持 OpenAI 和 Anthropic 两种原生格式调用,开发者可以无缝切换,享受顶级 AI 能力。
## 详细解析
### 核心特性
SWE-bench Verified 达 80.9%,超越所有竞品,内部工程师考试超越人类历史最高分
全新 effort 参数(low/medium/high),平衡速度与质量,medium 模式节省 76% 输出 token
\$5/\$25 每百万 token,仅为前代 1/3,让顶级 AI 能力触手可及
升级视觉理解能力,支持图像分析、图表解读、UI 识别等复杂视觉任务
### 性能亮点
Claude Opus 4.5 在多个权威评测中展现出卓越性能,特别是在编程和推理任务上:
| 评测项目 | Claude Opus 4.5 | GPT-5.1-Codex-Max | Gemini 3 Pro | Sonnet 4.5 |
| ---------------------- | ------------------------ | ----------------- | ------------ | ---------- |
| **SWE-bench Verified** | **80.9%** | 77.9% | 76.2% | 77.2% |
| **Aider Polyglot** | **比 Sonnet 4.5 高 10.6%** | - | - | 基准 |
| **Vending-Bench** | **比 Sonnet 4.5 高 29%** | - | - | 基准 |
数据来源:Anthropic 官方博客(2025年11月24日发布),SWE-bench Verified 是业界公认的真实软件工程任务评测基准。
**编程能力突破**:
* 在真实代码仓库修复任务中达到 80.9% 准确率
* 内部工程师招聘考试中超越历史最高人类成绩
* Aider Polyglot 多语言编程测试中比 Sonnet 4.5 提升 10.6%
**推理效率革新**:
* 全新 `effort` 参数可调节推理深度(low/medium/high)
* medium 模式下输出质量与 Sonnet 4.5 相当,但仅使用 24% 的输出 token
* 在保证质量的前提下大幅降低使用成本
### 技术规格
| 参数 | 规格 |
| ---------- | -------------------------- |
| **上下文长度** | 200,000 tokens |
| **最大输出** | 64,000 tokens |
| **知识截止** | 2025年3月 |
| **多模态** | 支持图像输入(视觉能力升级) |
| **推理控制** | effort 参数(low/medium/high) |
| **API 格式** | OpenAI 兼容 / Anthropic 原生 |
推理模式(effort 参数)会影响响应速度和 token 消耗:high 模式质量最高但速度较慢,low 模式速度快但推理深度有限,medium 模式平衡性能与成本。
## 实际应用
### 推荐场景
Claude Opus 4.5 凭借顶级编程能力和推理深度,特别适合以下场景:
1. **复杂代码开发**:多文件项目重构、架构设计、代码审查
2. **软件工程任务**:Bug 修复、功能实现、测试用例生成
3. **深度推理分析**:技术决策、方案对比、问题诊断
4. **多模态应用**:UI 设计分析、图表数据提取、文档理解
5. **长文本处理**:20万 token 上下文支持完整代码库分析
### 代码示例
#### OpenAI 格式调用
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="claude-opus-4-5-20251101",
messages=[
{
"role": "user",
"content": "帮我重构这段 Python 代码,提升性能并增加错误处理..."
}
],
# 可选:设置推理深度(默认 medium)
extra_body={
"anthropic_effort": "high" # low/medium/high
}
)
print(response.choices[0].message.content)
```
#### Anthropic 原生格式调用
```python theme={null}
import anthropic
client = anthropic.Anthropic(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com"
)
message = client.messages.create(
model="claude-opus-4-5-20251101",
max_tokens=8192,
messages=[
{
"role": "user",
"content": "分析这个架构设计的优缺点..."
}
],
# 设置推理深度
extra_headers={
"anthropic-effort": "high"
}
)
print(message.content[0].text)
```
#### 在 Claude Code 中使用
Claude Code 桌面应用已集成 Opus 4.5,只需在配置中选择:
```json theme={null}
{
"model": "claude-opus-4-5-20251101",
"apiKey": "your-apiyi-key",
"baseURL": "https://api.apiyi.com/v1"
}
```
### 最佳实践
1. **选择合适的推理模式**:
* **low 模式**:快速响应、简单任务、成本敏感场景
* **medium 模式**(默认):平衡质量与成本,适合大多数场景
* **high 模式**:复杂推理、关键任务、质量优先场景
2. **充分利用长上下文**:
* 20万 token 上下文可容纳约 15 万字中文或完整代码库
* 适合多轮对话、长文档分析、代码库级别操作
3. **多模态能力应用**:
* 上传 UI 截图让 AI 生成对应代码
* 分析技术架构图并提供优化建议
* 从图表中提取数据并生成报告
4. **成本优化技巧**:
* 优先使用 medium 模式(比 high 模式节省约 70% 输出 token)
* 对比前代 Opus,相同任务成本降低 66%
* 通过 API易 充值加赠活动,实际成本可低至 8 折
## 价格与可用性
### 定价信息
| 计费项 | Claude Opus 4.5 | Claude Opus 4.1 | 降幅 |
| ------ | ---------------- | ---------------- | -------- |
| **输入** | \$5 / 百万 tokens | \$15 / 百万 tokens | **-66%** |
| **输出** | \$25 / 百万 tokens | \$75 / 百万 tokens | **-66%** |
价格仅为前代 1/3(相当于降价 66%),在保持顶级性能的同时大幅降低使用成本。
**与竞品价格对比**:
| 模型 | 输入价格 | 输出价格 | 性能水平 |
| ------------------- | ------- | -------- | --------------- |
| **Claude Opus 4.5** | **\$5** | **\$25** | SWE-bench 80.9% |
| GPT-5.1-Codex-Max | \$1.25 | \$10 | SWE-bench 77.9% |
| Gemini 3 Pro | \$2 | \$12 | SWE-bench 76.2% |
| Claude Sonnet 4.5 | \$3 | \$15 | SWE-bench 77.2% |
Claude Opus 4.5 虽然价格略高于竞品,但性能显著领先,在复杂任务中更具性价比。
### 优惠活动
**API易充值加赠**:
* 充值满 700 元,加赠 10%
**实际成本**:通过加赠活动,Claude Opus 4.5 实际使用成本可低至:
* 输入:\$4 / 百万 tokens(8 折)
* 输出:\$20 / 百万 tokens(8 折)
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* 支持 OpenAI 格式(`https://api.apiyi.com/v1`)
* 支持 Anthropic 原生格式(`https://api.apiyi.com`)
* 兼容 Claude Code 桌面应用
**其他渠道**:
* Anthropic 官方 API
* AWS Bedrock
* Google Cloud Vertex AI
* Azure AI
## 总结与建议
Claude Opus 4.5 的发布标志着 AI 编程能力的新里程碑,它不仅在 SWE-bench Verified 等权威评测中登顶,更在价格上实现了 66% 的大幅下降,让顶级 AI 能力真正触手可及。
**核心优势**:
* **编程之王**:80.9% SWE-bench Verified,超越所有竞品
* **性价比之选**:价格仅为前代 1/3,配合 effort 参数进一步优化成本
* **推理深度**:high 模式适合复杂任务,medium 模式平衡质量与成本
* **生态完善**:支持 OpenAI/Anthropic 双格式,兼容 Claude Code
**使用建议**:
1. **复杂编程任务**:优先选择 Opus 4.5,配合 high 或 medium 模式
2. **成本优化**:使用 medium 模式,通过 API易 充值加赠降低成本
3. **快速开发**:简单任务可降级到 Sonnet 4.5(\$3/\$15),节省成本
4. **长文本处理**:充分利用 20万 token 上下文,一次性处理完整项目
**谁应该使用 Opus 4.5**:
* 需要最强编程能力的开发者
* 处理复杂推理任务的研究人员
* 追求质量优先的企业级应用
* 需要长上下文支持的代码库分析场景
API易已全面上线 Claude Opus 4.5,支持 OpenAI 和 Anthropic 双格式调用,现在注册充值即享加赠优惠,立即体验编程之王的强大能力!
信息来源:Anthropic 官方博客(2025年11月24日)、SWE-bench 官方评测数据。数据获取时间:2025年11月25日。
# Claude Opus 4.7 重磅上线:编程再进化,视觉能力三倍升级
Source: https://docs.apiyi.com/news/claude-opus-4-7-launch
Anthropic 最新旗舰模型 Claude Opus 4.7 正式发布,编程基准提升 13%、Rakuten-SWE-Bench 三倍于前代、新增 xhigh 推理档位与 ultrareview 能力,API易已同步上线 claude-opus-4-7 与 claude-opus-4-7-thinking。
## 核心要点
* **编程再进化**:93 任务编程基准较 Opus 4.6 提升 13%,解决了 Opus 4.6 与 Sonnet 4.6 都无法完成的 4 个任务
* **真实任务三倍**:Rakuten-SWE-Bench 解决的生产级任务数是 Opus 4.6 的 3 倍,代码质量、测试质量均有两位数增长
* **多步工作流**:CursorBench 得分 70%(Opus 4.6 为 58%),复杂多步任务比前代领先 14%,工具错误降低至 1/3
* **视觉升级 3 倍**:支持长边最长 2,576 像素的图像输入,分辨率承载能力是以往 Claude 模型的三倍以上
* **API易已上线**:`claude-opus-4-7` 与 `claude-opus-4-7-thinking` 同步上线,提示 \$5 / 补全 \$25 每百万 tokens,与 Opus 4.6 持平
## 背景介绍
2026 年 4 月 16 日,Anthropic 正式发布旗舰模型 Claude Opus 4.7,这是继 Opus 4.5、Opus 4.6 之后的又一次重大升级。在延续上一代定价的前提下,Opus 4.7 在编程、视觉、Agentic 多步任务等核心能力上实现了全面跨越,继续稳居"编程最强模型"的位置。
本次升级的重点并非颠覆,而是"更强、更稳、更深":在难度更高、步骤更长的真实工程任务上交付更一致的结果;在视觉理解上大幅提升图像分辨率承载能力;在 Agent 场景中减少工具调用错误、节省 token 消耗。
API易已同步上线 `claude-opus-4-7` 和带推理模式的 `claude-opus-4-7-thinking` 两个版本,支持 OpenAI 与 Anthropic 双原生格式调用,Claude Code 用户可直接切换使用。
## 详细解析
### 核心特性
93 任务基准较 Opus 4.6 提升 13%,多项 Opus 4.6/Sonnet 4.6 无解任务被攻克
CursorBench 70% vs 58%,多步工作流 +14%,工具错误降低至 1/3
图像长边最长 2,576 像素,分辨率承载力为此前 Claude 模型的 3 倍以上
在 high 与 max 之间新增 xhigh 档,更细粒度平衡推理深度与响应速度
### 性能亮点
Claude Opus 4.7 的提升主要体现在"难度更大、流程更长"的真实任务上,而非单点刷榜:
| 评测项目 | Claude Opus 4.7 | Claude Opus 4.6 | 提升幅度 |
| --------------------------- | ---------------- | --------------- | --------- |
| **93 任务编程基准** | 较 4.6 +13% | 基准 | **+13%** |
| **Rakuten-SWE-Bench(生产任务)** | 约为 4.6 的 **3 倍** | 基准 | **3×** |
| **CursorBench** | **70%** | 58% | **+12pp** |
| **复杂多步工作流** | +14%(更少 token) | 基准 | **+14%** |
| **工具调用错误** | 约为 4.6 的 **1/3** | 基准 | **-67%** |
数据来源:Anthropic 官方博客(2026 年 4 月 16 日发布)及 GitHub Changelog 的 Opus 4.7 GA 公告,部分独立评测转引自 TechBriefly、Dataconomy 等媒体报道。
**工程任务更扎实**:
* 在真实代码仓库与生产问题上,Opus 4.7 不仅"能做",而且"做得更稳",在代码质量与测试质量两个维度均有两位数提升。
* 更擅长解决前代 Opus 4.6 与 Sonnet 4.6 都无法完成的高难度任务。
**Agentic 场景更省钱**:
* 同样完成多步工作流,Opus 4.7 使用更少 token,并且工具调用错误只有前代的 1/3,大幅降低 Agent 系统的"失败重试"成本。
**视觉理解更强**:
* 图像长边支持最长 2,576 像素,适合架构图、UI 截图、长截图、高清图表等高信息密度场景。
### 技术规格
| 参数 | 规格 |
| ---------- | ----------------------------------------------------------------- |
| **模型标识** | `claude-opus-4-7` / `claude-opus-4-7-thinking` |
| **上下文长度** | 200,000 tokens |
| **图像输入** | 长边最长 2,576 像素 |
| **推理控制** | effort 参数(low / medium / high / **xhigh** / max) |
| **思考模式** | `claude-opus-4-7-thinking` 默认开启扩展思考 |
| **API 格式** | OpenAI 兼容 / Anthropic 原生 |
| **可用渠道** | Anthropic API、AWS Bedrock、Google Vertex AI、Microsoft Foundry、API易 |
`claude-opus-4-7` 与 `claude-opus-4-7-thinking` 计费价格相同,但 thinking 版本在扩展思考过程中会额外消耗输出 token,总体成本通常会高于普通版。追求极致深度推理时再启用。
### 新增功能
* **xhigh 推理档位**:在原有 high 与 max 之间新增一档,适合"比 high 更深、比 max 更省"的日常高质量场景。
* **Task Budgets(任务预算)公测**:API 端新增任务级别预算能力,可在 Agent 多步任务中对 token、工具调用做硬性上限控制,避免失控消耗。
* **ultrareview(Claude Code)**:为 Claude Code 新增的深度代码审查指令,可识别潜在 Bug、设计缺陷和边界问题,定位在"上线前最后一道关口"使用。
## 实际应用
### 推荐场景
Claude Opus 4.7 特别适合以下场景:
1. **大型仓库级编程**:跨文件重构、复杂 Bug 修复、架构级设计决策
2. **长链路 Agent 任务**:研究代理、代码代理、浏览器代理等需要多步工具调用的场景
3. **高信息密度视觉**:架构图解读、完整 UI 截图生成代码、长截图总结
4. **关键代码审查**:结合 Claude Code 的 ultrareview 指令,用于重要 PR 的最后一道把关
5. **需要"稳"的生产调用**:希望减少工具调用错误、降低失败重试成本的线上服务
### 代码示例
#### OpenAI 格式调用(普通版)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="claude-opus-4-7",
messages=[
{
"role": "user",
"content": "审查这段 TypeScript 代码,指出潜在 Bug 与可以改进的设计。"
}
],
extra_body={
"anthropic_effort": "xhigh" # low / medium / high / xhigh / max
}
)
print(response.choices[0].message.content)
```
#### Anthropic 原生格式调用(思考版)
```python theme={null}
import anthropic
client = anthropic.Anthropic(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com"
)
message = client.messages.create(
model="claude-opus-4-7-thinking",
max_tokens=8192,
messages=[
{
"role": "user",
"content": "我有一个 Rakuten 订单系统的生产 Bug,请一步步定位根因并给出修复方案。"
}
]
)
print(message.content[0].text)
```
#### 在 Claude Code 中使用
Claude Code 中只需更换模型名称即可使用:
```json theme={null}
{
"model": "claude-opus-4-7",
"apiKey": "your-apiyi-key",
"baseURL": "https://api.apiyi.com/v1"
}
```
日常编码推荐 `claude-opus-4-7`;在关键 PR、复杂重构前执行 `/ultrareview` 审查时,可切换至 `claude-opus-4-7-thinking` 以获得更深的推理链路。
### 最佳实践
1. **按任务选型**:
* **日常代码/重构/审查**:`claude-opus-4-7` + `xhigh` 档位
* **复杂根因定位/多步规划**:`claude-opus-4-7-thinking`
* **成本敏感的批量任务**:继续使用 Sonnet 4.6 或 Opus 4.7 的 `medium` 档位
2. **善用 Task Budgets**:
* 在长链路 Agent 任务中设置 token 与工具调用上限,避免失控。
* 结合 Opus 4.7 "工具错误仅为 1/3" 的特性,构建更稳的生产 Agent。
3. **发挥视觉能力**:
* 直接上传高清截图、架构图,让模型在一次调用中完成读图 + 生成。
* 对长截图、数据表格图像的理解比此前模型更完整。
4. **充分利用上下文**:
* 200K tokens 可覆盖完整项目源码 + 文档,一次性完成仓库级操作。
## 价格与可用性
### 定价信息
| 计费项 | Claude Opus 4.7 | Claude Opus 4.6 | 变化 |
| ------ | ---------------- | ---------------- | -- |
| **输入** | \$5 / 百万 tokens | \$5 / 百万 tokens | 持平 |
| **输出** | \$25 / 百万 tokens | \$25 / 百万 tokens | 持平 |
Opus 4.7 维持了 Opus 4.6 的价格,在"不加价"的前提下显著提升编程、Agentic 与视觉能力,等同于"白嫖"一次性能升级。
**与主流竞品价格对比**(仅供参考):
| 模型 | 输入价格 | 输出价格 | 定位 |
| ------------------- | ------- | -------- | -------------- |
| **Claude Opus 4.7** | **\$5** | **\$25** | 最强编程 / Agentic |
| Claude Sonnet 4.6 | \$3 | \$15 | 日常高性价比 |
| GPT-5.1-Codex-Max | \$1.25 | \$10 | 编程竞品 |
| Gemini 3 Pro | \$2 | \$12 | 通用旗舰 |
### 叠加网站充值活动
可结合 API易 充值加赠活动进一步降低实际成本,详见:`docs.apiyi.com/faq/recharge-promotions`。
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* OpenAI 格式:`https://api.apiyi.com/v1`
* Anthropic 原生格式:`https://api.apiyi.com`
* 模型名:`claude-opus-4-7`、`claude-opus-4-7-thinking`
**其他渠道**:
* Anthropic 官方 API
* AWS Bedrock
* Google Cloud Vertex AI
* Microsoft Foundry
## 总结与建议
Claude Opus 4.7 是一次"不加价但明显更强"的升级:编程基准 +13%、生产任务 3 倍、工具错误降至 1/3、视觉承载力提升 3 倍,同时带来 xhigh 档位、Task Budgets、ultrareview 等实用新能力。
**核心优势**:
* **更强**:93 任务编程基准 +13%,Rakuten-SWE-Bench 生产任务 3 倍
* **更稳**:Agent 工具调用错误只剩 1/3,长链路任务更省 token
* **更深**:xhigh 档位 + thinking 版本,适合关键任务与复杂根因分析
* **更广**:视觉输入长边升至 2,576 像素,覆盖高清图表与长截图
**使用建议**:
1. **关键编码任务**:直接选用 `claude-opus-4-7`,搭配 `xhigh` 档位
2. **生产 Agent 系统**:用 Opus 4.7 替换 Opus 4.6,并启用 Task Budgets
3. **高价值 PR 审查**:在 Claude Code 中使用 `ultrareview` + thinking 版本
4. **大规模批量调用**:继续沿用 Sonnet 4.6 或 Opus 4.7 的 `medium` 档位
API易已全面上线 `claude-opus-4-7` 与 `claude-opus-4-7-thinking`,兼容 OpenAI 与 Anthropic 原生格式,欢迎立即在自己的编码与 Agent 工作流中体验这次"白嫖式"升级。
信息来源:Anthropic 官方公告(`anthropic.com/claude/opus`)、GitHub Changelog(2026-04-16 Opus 4.7 GA)、The Information、TechBriefly、Dataconomy 等报道。数据获取时间:2026 年 4 月 17 日。
# DeepSeek V4-Pro / V4-Flash 上线:百万上下文 + 开源 SOTA
Source: https://docs.apiyi.com/news/deepseek-v4-launch
DeepSeek V4 预览版双模型上线 API易!1M 超长上下文、Hybrid Attention 架构、Agentic Coding 达开源 SOTA、SWE-Verified 80.6 接近 Claude/Gemini。官方同价,叠加充值活动可做到约 85 折。
## 核心要点
* **双模型上线**:`deepseek-v4-pro`(1.6T 总参 / 49B 激活)与 `deepseek-v4-flash`(284B 总参 / 13B 激活),均为 MoE 架构
* **百万上下文**:全系支持 1M tokens 超长上下文,配合全新 Hybrid Attention 架构 + DSA 稀疏注意力
* **开源 SOTA**:V4-Pro 在 Agentic Coding 评测中达当前开源模型最佳,SWE-Verified 80.6,和 Claude(80.8)、Gemini(80.6)基本持平
* **思考模式可调**:支持 `reasoning_effort` 参数(high / max),复杂 Agent 场景官方推荐 max 强度
* **双接口兼容**:同时支持 OpenAI ChatCompletions 与 Anthropic 接口
* **价格亲民**:Flash 输入 \$0.14 / 输出 \$0.28(每 1M tokens),Pro 输入 \$1.74 / 输出 \$3.48,均与官方同价
* **充值加赠**:叠加 API易 充值活动可做到官方约 **85 折**
当前上架版本为**阿里云官转通道**,发布日期 2026-04-24(官方预览版),信息来源:DeepSeek 官方文档 `api-docs.deepseek.com/zh-cn/news/news260424`。
## 背景介绍
距离 DeepSeek-R1 震撼业界已过去整整一年。2026 年 4 月 24 日,DeepSeek 正式发布 V4 预览版,一次性带来面向性能的 **V4-Pro** 和面向成本 / 速度的 **V4-Flash** 两款模型。
V4 最关键的技术进展是 **Hybrid Attention Architecture**(混合注意力架构)——在 token 维度对注意力进行压缩,并结合 DSA 稀疏注意力机制,使长上下文下的推理既高效又准确。配合 **1M 超长上下文**,这代模型在设计上就是为了 Agent 与长程推理而生。
在与闭源前沿模型的对比上,DeepSeek 坦率地给出了自我定位:V4-Pro 在世界知识上仅稍逊于 Gemini-Pro-3.1,整体与 GPT-5.4 / Gemini-Pro-3.1 的差距"约为 3 到 6 个月"——对开源阵营而言,这已是近期最亮眼的追赶。
## 详细解析
### 两款新模型
**性能旗舰**
1.6T 总参 / 49B 激活,MoE 架构,1M 上下文。面向复杂 Agent、Coding、数学、STEM 与竞赛级代码场景。Agentic Coding 为当前开源 SOTA。
**速度经济版**
284B 总参 / 13B 激活,MoE 架构,1M 上下文。面向高并发、低延迟、成本敏感场景,适合日常对话、文本处理、批量任务。
### 性能亮点
基于官方及第三方评测报告的关键数据:
| 评测维度 | DeepSeek-V4-Pro | 对手参考 |
| ------------------------------- | ------------------ | ------------------------- |
| SWE-Verified(真实软件工程) | **80.6** | Claude 80.8 / Gemini 80.6 |
| Agentic Coding | **开源 SOTA** | 接近 Claude Opus 4.5 |
| 世界知识 | 开源领先 | 仅次于 Gemini-Pro-3.1 |
| 数学 / STEM / 竞赛代码 | **超越所有已公开评测的开源模型** | — |
| 与 GPT-5.4 / Gemini-Pro-3.1 整体差距 | 约 **3-6 个月** | — |
官方内部评测中,**V4-Pro-Max(max 思考强度)** 在 Agent 任务上优于 Claude Sonnet 4.5,并逼近 Claude Opus 4.5。
### 架构与技术规格
* **token 维度压缩**:全新注意力机制在 token 维度上做压缩,显著降低长上下文推理成本
* **DSA 稀疏注意力**:与稀疏注意力结合,进一步优化长程依赖建模
* **MoE 专家模型**:V4-Pro 激活率约 3%(49B/1.6T),V4-Flash 激活率约 4.6%(13B/284B)
* **1M 上下文**:全系支持 1,000,000 tokens,天然适合 Agent、代码库级任务、长文档分析
### 思考模式与 reasoning\_effort
V4 同时支持**非思考模式**与**思考模式**。思考模式下提供 `reasoning_effort` 参数:
* `high`:标准深度思考,适合一般复杂问题
* `max`:最大思考强度,**官方推荐用于复杂 Agent 场景**
对于复杂的 Agent 任务(长程工具调用、代码库级重构等),官方明确建议使用**思考模式 + `reasoning_effort=max`**,可显著提升任务完成率,但会增加输出 token 与耗时。
## 实际应用
### 推荐场景
V4-Pro-Max 在开源阵营中 Agent 能力最强,适合 Claude Code / Cline / 自研 Agent 流水线
SWE-Verified 80.6 + 1M 上下文,可一次性装入中大型仓库上下文
研报、法律合同、论文批量处理,1M 上下文 + 压缩注意力成本友好
V4-Flash 输入仅 \$0.14 / 1M tokens,适合客服、分类、翻译等高频任务
### 快速开始(OpenAI 兼容接口)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
# 性能旗舰:V4-Pro + 最大思考强度,适合复杂 Agent
resp = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "你是一名资深全栈工程师"},
{"role": "user", "content": "请基于现有仓库实现一个登录重试的熔断策略"}
],
extra_body={"reasoning_effort": "max"}
)
print(resp.choices[0].message.content)
```
### 经济型调用(Flash)
```python theme={null}
# 高并发经济型:V4-Flash,默认非思考模式,延迟更低
resp = client.chat.completions.create(
model="deepseek-v4-flash",
messages=[{"role": "user", "content": "把下面这段英文翻译成中文:..."}]
)
```
### Anthropic 接口调用
```python theme={null}
import anthropic
client = anthropic.Anthropic(
api_key="sk-your-apiyi-key",
base_url="https://api.apiyi.com"
)
msg = client.messages.create(
model="deepseek-v4-pro",
max_tokens=4096,
messages=[{"role": "user", "content": "帮我设计一个分布式队列的限流方案"}]
)
print(msg.content[0].text)
```
### 最佳实践
* **选型建议**:默认用 Flash,遇到 Agent / 复杂代码 / 推理密集任务再切 Pro
* **思考强度**:简单任务关闭思考模式;复杂 Agent 场景用 `reasoning_effort=max`
* **长上下文**:1M 上下文虽香,但输入 token 越多计费越高,建议做一轮预筛选再投喂
* **流式输出**:思考模式可能产出较多中间 token,建议客户端开启 stream 改善体验
## 价格与可用性
### 定价表(USD / 1M tokens)
| 模型 | 计费类型 | 提示价格(输入) | 补全价格(输出) | 提示倍率 | 补全倍率 |
| ------------------- | ----------- | ------------ | ------------ | ---- | ------ |
| `deepseek-v4-flash` | 按量付费 - Chat | **\$0.1400** | **\$0.2800** | 0.07 | 2.0000 |
| `deepseek-v4-pro` | 按量付费 - Chat | **\$1.7400** | **\$3.4800** | 0.87 | 2.0000 |
API易 挂牌价格与 DeepSeek 官方完全一致,无加价。当前为**阿里云官转**通道,稳定性与官方直连一致。
### 叠加网站充值活动
充值活动可把实际成本做到**官方约 85 折**,详见:
查看最新充值加赠规则,越大额加赠比例越高
## 总结与建议
DeepSeek V4 预览版给出了开源阵营近一年最有分量的一份答卷:
* ✅ **Agent / Coding 首选开源**:V4-Pro 是目前开源世界最能打的 Agent 基座,Claude Sonnet 级性能,价格只是一个零头
* ✅ **成本敏感首选 Flash**:\$0.14 / 1M tokens 的输入成本,配合 1M 上下文,几乎是长文档处理的性价比天花板
* ✅ **平滑迁移**:OpenAI + Anthropic 双接口兼容,现有代码改一行 `base_url` 和 `model` 即可切换
**推荐迁移路径**:
1. 把现有 DeepSeek-V3 / R1 调用逐步切到 V4-Flash 做 A/B
2. Agent / 代码类任务升级到 V4-Pro + `reasoning_effort=max`
3. 搭配 API易 充值加赠,把成本再拉低 \~15%
**信息来源与日期**
* DeepSeek 官方发布公告:`api-docs.deepseek.com/zh-cn/news/news260424`
* 第三方报道与评测:`simonwillison.net/2026/Apr/24/deepseek-v4/`、`thenextweb.com`、`felloai.com/deepseek-v4/`、`techxplore.com`、`digitalapplied.com`
* 数据获取日期:2026-04-24
# Gemini 2.5 Flash Lite:谷歌最快最省的轻量级模型,海量文本处理首选
Source: https://docs.apiyi.com/news/gemini-2-5-flash-lite-preview-launch
谷歌发布 Gemini 2.5 Flash Lite Preview 09-2025,性能提升 50%,专为高吞吐量场景优化。API易独家稳定供应,超过 500 并发支持,让您的海量文本处理更高效。
## 核心要点
* **独家稳定供应**:该模型市场供应稀缺,API易确保稳定可靠的服务,无需担心配额限制
* **性能跃升**:输出 tokens 减少 50%,降低成本和延迟的同时提升响应质量
* **极速响应**:延迟低于 2.0 Flash Lite 和 2.0 Flash,专为高吞吐量场景优化
* **全能力覆盖**:支持 100 万上下文,64K 输出,多模态能力(文本、视觉、音频)
* **API易优势**:提供超过 500 并发支持,稳定可靠,让您的海量文本处理无忧
## 背景介绍
在 AI 应用快速发展的今天,海量文本处理已成为许多企业的核心需求。无论是内容审核、智能客服、文档分析,还是代码生成、数据提取,都需要在保证质量的前提下,尽可能降低成本、提高效率。
2025 年 9 月 25 日,谷歌发布了 **Gemini 2.5 Flash Lite Preview 09-2025**,这是 Gemini 2.5 系列中最轻量、最快速、最经济的模型。相比前代 2.0 Flash Lite,新版本在编程、数学、科学推理和多模态能力上全面提升,同时将输出成本和延迟降低了 50%。
对于有海量文本处理需求的开发者和企业,这是一个理想的选择。而 **API易** 作为国内领先的 AI API 服务商,不仅提供极具竞争力的价格,更能提供 **超过 500 并发** 的稳定支持,让您的业务高速运转。
## 详细解析
### 核心特性
* API易独家稳定供应
* 市场供应稀缺,服务可靠
* 持续稳定的性能表现
* 延迟低于 2.0 Flash Lite
* 输出 tokens 减少 50%
* 专为高吞吐量场景优化
* 显著提升复杂指令理解
* 更精准的系统提示响应
* 降低冗余输出
* 文本、代码、图像、音频
* 100 万上下文窗口
* 64K 输出限制
### 性能亮点
Gemini 2.5 Flash Lite Preview 09-2025 在多个维度实现了显著提升:
**质量提升**
* 编程、数学、科学推理能力全面超越 2.0 Flash Lite
* 指令遵循准确性大幅提高
* 音频转录、图像理解、翻译质量显著增强
**效率提升**
* 输出 tokens 减少 50%,直接降低成本和延迟
* 响应速度比 7 月版本快 40%
* 非推理模式得分提升 12 分,推理模式提升 8 分
**经济性优势**
* 优化的定价结构,适合大规模部署
* 更低的单 token 成本,支持更大规模应用
* 降低延迟提升用户体验和吞吐量
### 技术规格
| 规格项 | 参数 |
| ------ | ------------------------ |
| 上下文窗口 | 1,048,576 tokens (1M) |
| 最大输出 | 65,536 tokens (64K) |
| 架构 | 稀疏混合专家 (MoE) Transformer |
| 多模态支持 | 文本、代码、图像、音频、视频 |
| 最大输入大小 | 500 MB |
| 发布日期 | 2025 年 9 月 25 日 |
## 实际应用
### 推荐场景
Gemini 2.5 Flash Lite 特别适合以下高吞吐量场景:
* 海量 UGC 内容审核
* 多语言内容分类
* 敏感信息检测
* 大规模客服机器人
* FAQ 自动回复
* 多轮对话理解
* 批量文档解析
* 结构化数据提取
* 多格式转换
* 代码补全与优化
* 错误诊断与修复
* 自动化测试生成
### 代码示例
以下是使用 API易 调用 Gemini 2.5 Flash Lite 的 Python 示例:
```python theme={null}
import openai
# 配置 API易 客户端
client = openai.OpenAI(
api_key="your-apiyi-api-key", # 替换为您的 API易 密钥
base_url="https://api.apiyi.com/v1"
)
# 调用 Gemini 2.5 Flash Lite
response = client.chat.completions.create(
model="gemini-2.5-flash-lite-preview-09-2025",
messages=[
{
"role": "system",
"content": "你是一个专业的内容审核助手,能够快速识别文本中的敏感信息。"
},
{
"role": "user",
"content": "请分析以下评论是否包含不当内容:这个产品真的太棒了!"
}
],
max_tokens=1024,
temperature=0.7
)
print(response.choices[0].message.content)
```
### 最佳实践
**高并发场景优化建议**
1. **批量处理**:将多个请求合并为单个请求,减少网络开销
2. **异步调用**:使用异步客户端提高吞吐量(API易支持超过 500 并发)
3. **缓存策略**:对于重复性高的请求,使用缓存减少 API 调用
4. **Token 控制**:合理设置 `max_tokens`,避免不必要的输出成本
5. **错误重试**:实现指数退避重试机制,提高稳定性
**成本优化技巧**
* 使用简洁的 System Prompt,减少输入 tokens
* 利用模型的低冗余特性,避免过度生成
* 对于简单任务,优先选择 Flash Lite 而非 Flash 或 Pro
* 监控 Token 使用量,及时调整策略
## 价格与可用性
### API易 独家定价
**现已在 API易 上线**
* 极具竞争力的大规模使用定价
* 模型倍率:0.1(超低成本)
* 补全倍率:8
* 超过 500 并发支持
* 7x24 小时技术支持
* 稳定供应保障
**供应状态与重要提醒**
* 该模型目前市场供应稀缺,API易 确保稳定供应
* Preview 版本可能会有 API 变更,建议密切关注官方更新
* 高并发场景建议配置合理的限流和重试策略
* 对于关键业务,建议同时备用稳定版模型(gemini-2.5-flash-lite)
### 为什么选择 API易?
**稀缺市场中的可靠供应**
尽管 Gemini 2.5 Flash Lite Preview 在全球范围内供应受限,API易 确保:
1. **持续可用性**:无中断或配额限制
2. **高并发能力**:支持超过 500 并发请求
3. **稳定性能**:99.9% 可用性保证
4. **响应式支持**:7x24 小时技术支持
### 购买渠道
**快速开始使用 API易**
1. 访问 API易 官网:`apiyi.com`
2. 注册并充值(支持多种充值方式)
3. 在控制台获取 API Key
4. 使用 OpenAI SDK 格式调用(base\_url 设置为 API易 端点)
5. 享受超过 500 并发的稳定服务
**其他渠道**
* Google AI Studio:`ai.google.dev`(供应有限)
* Vertex AI:`cloud.google.com/vertex-ai`(供应有限)
* 模型标识符:`gemini-2.5-flash-lite-preview-09-2025`
## 总结与建议
Gemini 2.5 Flash Lite Preview 09-2025 是谷歌为高吞吐量场景打造的理想模型:**超低成本**、**极速响应**(延迟降低 50%)、**全能力支持**(100 万上下文 + 多模态)、**稳定供应**(API易独家保障),特别适合内容审核、智能客服、文档处理、代码辅助等海量文本处理场景。
**我们的建议**
* **小型团队/初创企业**:优先选择 Flash Lite,成本低、速度快、能力足够
* **中大型企业**:结合 Flash Lite(高吞吐)和 Flash/Pro(复杂任务)混合使用
* **海量处理场景**:选择 API易,享受超过 500 并发 + 稳定供应 + 可靠服务保障
**信息来源与更新日期**
* 官方公告:Google Developers Blog(2025年9月25日)
* 技术文档:Google Cloud Vertex AI 文档
* 性能数据:Google AI Studio 基准测试
* 定价信息:API易官方定价
* 数据获取时间:2025年11月24日
**立即开始使用**
访问 API易 官网,获取 API Key,开始您的 Gemini 2.5 Flash Lite 之旅。如有任何疑问,欢迎联系我们的技术支持团队!
# Gemini 3.1 Flash Lite Preview:谷歌最新轻量级模型,代理任务与低延迟场景首选
Source: https://docs.apiyi.com/news/gemini-3-1-flash-lite-preview-launch
谷歌发布 Gemini 3.1 Flash Lite Preview,专为高吞吐量代理任务和低延迟场景优化。支持 100 万上下文、多模态输入,API易官方直连通道同步上线。
## 核心要点
* **全新轻量级模型**:Gemini 3.1 Flash Lite Preview 是谷歌 Gemini 3.1 系列中最轻量、最快速的模型变体
* **代理任务优化**:专为高吞吐量代理任务、简单数据提取、极低延迟应用场景设计
* **超大上下文**:支持 1,048,576 tokens(100 万+)上下文窗口,65,536 tokens 最大输出
* **全模态输入**:支持文本、图像、视频、音频、PDF 五种输入模态
* **官方直连**:API易通过官转通道接入,定价与官网一致,稳定可靠
## 背景介绍
随着 AI Agent(智能代理)应用的爆发式增长,开发者对轻量级、低延迟、高吞吐的模型需求日益增强。大量代理任务场景——如工具调用、数据提取、路由分发、简单分类——并不需要最强大的推理能力,而是需要快速响应和低成本。
谷歌推出的 **Gemini 3.1 Flash Lite Preview** 正是为此而生。作为 Gemini 3.1 系列的轻量级变体,它在保持强大多模态能力的同时,大幅降低了延迟和成本,成为代理任务流水线中的理想选择。
API易已通过官方直连(官转)通道同步接入该模型,定价与谷歌官网完全一致,为开发者提供稳定可靠的调用体验。
## 详细解析
### 核心特性
* 专为 Agent 工作流设计
* 极低延迟响应
* 高吞吐量并发支持
* 文本、图像、视频、音频、PDF
* 100 万+ tokens 上下文窗口
* 65K tokens 最大输出
* 函数调用 (Function Calling)
* 代码执行 (Code Execution)
* 结构化输出 (Structured Output)
* 搜索 Grounding
* Batch API 批量处理
* 上下文缓存 (Caching)
* 思维链输出
* 文件搜索 & URL 上下文
### 技术规格
| 规格项 | 参数 |
| ----- | ------------------------------- |
| 模型名称 | `gemini-3.1-flash-lite-preview` |
| 上下文窗口 | 1,048,576 tokens (1M+) |
| 最大输出 | 65,536 tokens (64K) |
| 输入模态 | 文本、图像、视频、音频、PDF |
| 输出模态 | 文本 |
| 接入渠道 | 官方直连(官转) |
### 与前代对比
| 特性 | 3.1 Flash Lite Preview | 2.5 Flash Lite |
| ------------ | ---------------------- | -------------- |
| 上下文窗口 | 1M+ tokens | 1M tokens |
| 最大输出 | 64K tokens | 64K tokens |
| 函数调用 | ✅ | ✅ |
| 代码执行 | ✅ | ✅ |
| 结构化输出 | ✅ | ✅ |
| 思维链 | ✅ | ✅ |
| 文件搜索 | ✅ | ❌ |
| URL 上下文 | ✅ | ❌ |
| 搜索 Grounding | ✅ | ❌ |
| 代理任务优化 | ✅ | ❌ |
Gemini 3.1 Flash Lite Preview 在前代基础上新增了文件搜索、URL 上下文、搜索 Grounding 等能力,更好地服务代理任务场景。
## 实际应用
### 推荐场景
* 工具调用与路由分发
* 多步骤代理编排
* 轻量级决策节点
* 结构化信息提取
* 表格/表单解析
* 批量文档处理
* 内容分类与标注
* 意图识别
* 情感分析
* 图片/视频内容理解
* 音频转文字
* PDF 文档解析
### 代码示例
以下是使用 API易 调用 Gemini 3.1 Flash Lite Preview 的 Python 示例:
```python theme={null}
import openai
# 配置 API易 客户端
client = openai.OpenAI(
api_key="your-apiyi-api-key", # 替换为您的 API易 密钥
base_url="https://api.apiyi.com/v1"
)
# 调用 Gemini 3.1 Flash Lite Preview
response = client.chat.completions.create(
model="gemini-3.1-flash-lite-preview",
messages=[
{
"role": "system",
"content": "你是一个高效的数据提取助手,从用户提供的文本中提取结构化信息。"
},
{
"role": "user",
"content": "请从以下文本中提取公司名称、成立时间和主营业务:API易成立于2024年,是一家专注于AI大模型API中转服务的科技公司,支持200+热门AI模型。"
}
],
max_tokens=1024,
temperature=0.3,
response_format={"type": "json_object"}
)
print(response.choices[0].message.content)
```
**函数调用示例**
```python theme={null}
import openai
import json
client = openai.OpenAI(
api_key="your-apiyi-api-key",
base_url="https://api.apiyi.com/v1"
)
# 定义工具
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名称"}
},
"required": ["city"]
}
}
}
]
response = client.chat.completions.create(
model="gemini-3.1-flash-lite-preview",
messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
tools=tools,
tool_choice="auto"
)
print(response.choices[0].message.tool_calls)
```
### 最佳实践
**代理任务优化建议**
1. **精简提示词**:Flash Lite 对简洁指令响应更好,避免冗长的系统提示
2. **结构化输出**:使用 `response_format` 获取 JSON 格式输出,便于下游处理
3. **批量处理**:高吞吐场景使用 Batch API,进一步降低成本
4. **缓存利用**:对重复上下文启用缓存,减少输入 token 消耗
5. **温度控制**:数据提取类任务建议 temperature 设置为 0-0.3
## 价格与可用性
### API易定价
**现已在 API易 上线**
| 类型 | 价格 |
| ---- | ------------------ |
| 文本输入 | \$0.25 / 百万 tokens |
| 图片输入 | \$0.25 / 百万 tokens |
| 视频输入 | \$0.25 / 百万 tokens |
| 输出 | \$1.50 / 百万 tokens |
* 官方直连(官转)通道
* 定价与谷歌官网一致
* 支持充值加赠优惠
**重要提醒**
* 当前为 Preview 预览版,API 接口可能会有调整
* 建议在非关键业务中先行测试
* 关注 API易 公告获取后续更新信息
### 购买渠道
1. 访问 API易 官网:`apiyi.com`
2. 注册并充值(支持多种支付方式)
3. 在控制台获取 API Key
4. 使用 OpenAI SDK 格式调用(base\_url 设置为 `https://api.apiyi.com/v1`)
## 总结与建议
Gemini 3.1 Flash Lite Preview 是谷歌为代理任务和低延迟场景量身打造的轻量级模型:**超低成本**(输入 \$0.25/M)、**极速响应**、**全模态输入**(文本/图像/视频/音频/PDF)、**丰富能力**(函数调用/结构化输出/搜索 Grounding),是构建 AI Agent 工作流的理想基础组件。
**我们的建议**
* **Agent 开发者**:优先用于工具调用、路由分发、简单分类等轻量级节点
* **数据处理团队**:适合批量文档解析、信息提取、内容分类
* **成本敏感场景**:以极低成本获得 Gemini 3.1 系列的多模态能力
**信息来源与更新日期**
* 来源:Google AI 官方文档
* 模型标识符:`gemini-3.1-flash-lite-preview`
* 数据获取时间:2026年3月5日
**立即开始使用**
访问 API易 官网,获取 API Key,开始您的 Gemini 3.1 Flash Lite Preview 之旅!
# Gemini 3 Flash Preview 震撼发布:Pro 级性能,Flash 级速度
Source: https://docs.apiyi.com/news/gemini-3-flash-preview-launch
谷歌最新高性能快速模型 Gemini 3 Flash Preview 正式上线!SWE-bench 78% 超越 Gemini 3 Pro,速度比 2.5 Pro 快 3 倍,MMMU-Pro 81.2% 击败所有竞品。API易同步上线 3 个模型变体,灵活切换推理模式。
## 核心要点
* **🏆 超越 Pro 性能**:SWE-bench Verified 78%,超越 Gemini 3 Pro 和整个 2.5 系列
* **⚡ 极速响应**:速度比 Gemini 2.5 Pro 快 3 倍,Pro 级性能 Flash 级价格
* **🧠 顶尖推理**:MMMU-Pro 81.2% 击败所有竞品,Humanity's Last Exam 33.7%
* **🎯 三种模式**:自动推理、强制推理、默认不推理,灵活切换适配不同场景
* **💰 性价比高**:仅为 Gemini 3 Pro 价格的 1/4(\$0.5/\$3.0 每百万 tokens)
* **🚀 即刻可用**:API易已于12月18日同步上线,价格与官网一致,充值活动享额外折扣
## 背景介绍
2025年12月17日,Google 正式发布 **Gemini 3 Flash Preview**,这是继 Gemini 3 Pro Preview 之后的又一重磅更新。作为 Gemini 3 系列的"快速版本",Flash Preview 在保持 Pro 级推理能力的同时,实现了 3 倍速度提升和大幅成本降低,重新定义了高性能 AI 模型的性价比标准。
令人惊讶的是,Gemini 3 Flash Preview 在编程能力方面甚至**超越了 Gemini 3 Pro**。在 SWE-bench Verified 测试中,Flash Preview 达到了 78% 的惊人成绩,不仅超越了同系列的 3 Pro,也全面领先于整个 Gemini 2.5 系列。这标志着 Google 在"速度与智能"的平衡上取得了新的突破。
Google 将 Gemini 3 Flash 定位为"人人可用的前沿智能",已将其设为 Gemini 应用和 AI Mode 搜索的默认模型。企业客户如 JetBrains、Figma、Cursor、Harvey 等已经开始使用这一模型。
API易团队在第一时间完成了模型接入,于**2025年12月18日**正式向所有用户开放 Gemini 3 Flash Preview API 调用服务,并提供 **3 个模型变体**以满足不同的推理需求。定价与 Google 官网保持一致,同时支持充值活动的额外折扣。
## 详细解析
### 核心特性
SWE-bench Verified 达到 78%,不仅超越 Gemini 3 Pro(约 76%),也全面领先 Gemini 2.5 系列。在智能体编程场景中表现尤为出色。
相比 Gemini 2.5 Pro 快 3 倍,同时保持 Pro 级的推理质量。适合需要快速响应的交互式应用和实时场景。
MMMU-Pro 达到 81.2%,超越所有竞品。支持文本、图像、视频、音频、PDF 等多种输入格式,单一模型处理所有内容。
定价仅为 Gemini 3 Pro 的 1/4(\$0.5/\$3.0 vs \$2.0/\$12.0),大幅降低企业和开发者的使用成本。
### 性能亮点
#### 1. 编程能力对比
Gemini 3 Flash Preview 在编程领域的表现令人惊艳:
| 模型 | SWE-bench Verified | 智能体编程 | 性能/价格比 |
| -------------------------- | ------------------ | ----- | ------ |
| **Gemini 3 Flash Preview** | **78%** | ✅ 优秀 | ⭐⭐⭐⭐⭐ |
| Gemini 3 Pro | \~76% | ✅ 优秀 | ⭐⭐⭐ |
| Gemini 2.5 Pro | \~72% | ✅ 良好 | ⭐⭐ |
| Gemini 2.5 Flash | \~65% | ✅ 良好 | ⭐⭐⭐⭐ |
Flash Preview 成为首个在编程能力上超越同系列 Pro 版本的 Flash 模型,为开发者提供了最佳的性价比选择。
#### 2. 推理能力对比
在多个权威评测中,Gemini 3 Flash Preview 展现了卓越的推理能力:
| 评测基准 | Gemini 3 Flash Preview | Gemini 2.5 Flash | Gemini 3 Pro |
| ------------------------ | ---------------------- | ---------------- | ------------ |
| **MMMU-Pro** | **81.2%** 🥇 | \~70% | \~82% |
| **Humanity's Last Exam** | **33.7%** | 11% | 37.5% |
| **SWE-bench Verified** | **78%** 🥇 | \~65% | \~76% |
在 Humanity's Last Exam(被称为"人类最后的考试")中,Flash Preview 的 33.7% 成绩已经接近 Pro 版本的 37.5%,远超 2.5 Flash 的 11%。
#### 3. 速度与效率
Google 官方数据显示:
* **响应速度**:比 Gemini 2.5 Pro 快 **3 倍**
* **吞吐量**:适合高并发场景,支持大规模部署
* **延迟**:交互式应用中提供近实时响应
### 技术规格
| 规格项 | Gemini 3 Flash Preview |
| ------ | ------------------------------- |
| 上下文窗口 | 1,048,576 tokens(约 100 万) |
| 最大输出 | 65,536 tokens(约 6.5 万) |
| 输入格式 | 文本、图像、视频、音频、PDF |
| 输出格式 | 文本 |
| API 端点 | `gemini-3-flash-preview` 系列 |
| 可用性 | Google AI Studio、Vertex AI、API易 |
## 模型变体说明
API易为 Gemini 3 Flash Preview 提供 **3 个模型变体**,满足不同的推理需求:
### 1. gemini-3-flash-preview(自动推理)
**推荐使用** - 智能自动判断是否需要推理
**工作原理**:模型根据问题复杂度自动决定是否启用推理模式
**适用场景**:
* 通用对话和问答(简单问题快速响应,复杂问题深度思考)
* 代码生成与调试(自动识别复杂度)
* 混合任务场景(同时包含简单和复杂问题)
* 不确定任务复杂度的场景
**优势**:
* ✅ 平衡速度与质量
* ✅ 无需手动切换
* ✅ 成本自动优化
### 2. gemini-3-flash-preview-thinking(强制推理)
**深度思考** - 始终启用推理模式,显示完整思考过程
**工作原理**:每次请求都启用推理模式,输出包含 `` 标签的完整思考过程
**适用场景**:
* 复杂数学和逻辑问题
* 需要多步骤推理的任务
* 代码架构设计和优化
* 需要可解释性的场景(查看推理过程)
* 科研和学术任务
**优势**:
* ✅ 最高质量输出
* ✅ 完整推理过程可见
* ✅ 适合复杂任务
**注意**:
* ⚠️ 响应时间较长
* ⚠️ Token 消耗较多
### 3. gemini-3-flash-preview-nothinking(默认不推理)
**快速响应** - 默认不启用推理,追求最快速度
**工作原理**:默认不启用推理模式,直接输出结果
**适用场景**:
* 简单问答和对话
* 文本摘要和翻译
* 快速信息检索
* 需要低延迟的实时应用
* 批量处理任务
**优势**:
* ✅ 最快响应速度
* ✅ 最低 Token 消耗
* ✅ 适合高并发场景
**适用时机**:
* 问题相对简单明确
* 对响应时间要求高
* 成本敏感场景
### 模型选择建议
| 场景类型 | 推荐模型 | 原因 |
| ----------- | ----------------------------------- | ----------- |
| **通用开发** | `gemini-3-flash-preview` | 自动平衡,无需手动切换 |
| **复杂编程任务** | `gemini-3-flash-preview-thinking` | 显示推理过程,质量最高 |
| **简单问答/聊天** | `gemini-3-flash-preview-nothinking` | 速度最快,成本最低 |
| **代码生成** | `gemini-3-flash-preview` | 自动识别复杂度 |
| **数学/逻辑推理** | `gemini-3-flash-preview-thinking` | 需要深度推理 |
| **实时应用** | `gemini-3-flash-preview-nothinking` | 低延迟要求 |
## 实际应用
### 推荐场景
* AI 编程助手(Cursor、Cline 等)
* 代码审查和重构
* 智能体自主编程
* IDE 集成开发
* Bug 修复和调试
* 数据分析和报告生成
* 多步骤推理问题
* 科研和学术任务
* 商业决策支持
* 复杂查询解答
* 图像理解和描述
* 视频内容分析
* PDF 文档解析
* 音频转录和分析
* 跨模态内容生成
* 智能客服机器人
* 教育辅导系统
* 知识问答平台
* 实时对话应用
* 内容创作助手
### 代码示例
以下是使用 API易 调用 Gemini 3 Flash Preview 的 Python 示例:
#### 示例 1:自动推理模式(推荐)
```python theme={null}
import openai
# 配置 API易 端点
client = openai.OpenAI(
api_key="your-apiyi-api-key",
base_url="https://api.apiyi.com/v1"
)
# 使用自动推理模式
response = client.chat.completions.create(
model="gemini-3-flash-preview", # 自动判断是否需要推理
messages=[
{"role": "user", "content": "帮我优化这段 Python 代码的性能:\n\ndef fibonacci(n):\n if n <= 1:\n return n\n return fibonacci(n-1) + fibonacci(n-2)"}
],
temperature=1.0,
)
print(response.choices[0].message.content)
```
#### 示例 2:强制推理模式(复杂任务)
```python theme={null}
# 使用强制推理模式(显示完整思考过程)
response = client.chat.completions.create(
model="gemini-3-flash-preview-thinking", # 强制推理
messages=[
{"role": "user", "content": "设计一个高并发的分布式缓存系统架构,需要支持每秒 100 万次读写操作"}
],
temperature=1.0,
)
# 输出会包含 标签,显示推理过程
print(response.choices[0].message.content)
```
#### 示例 3:快速响应模式(简单任务)
```python theme={null}
# 使用快速响应模式(不推理,速度最快)
response = client.chat.completions.create(
model="gemini-3-flash-preview-nothinking", # 默认不推理
messages=[
{"role": "user", "content": "将这段话翻译成英文:人工智能正在改变世界"}
],
temperature=1.0,
)
print(response.choices[0].message.content)
```
#### 示例 4:多模态输入(图像分析)
```python theme={null}
# 多模态:分析图像内容
response = client.chat.completions.create(
model="gemini-3-flash-preview",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "这张图片中有什么?请详细描述。"},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/image.jpg" # 或 base64 编码
}
}
]
}
],
)
print(response.choices[0].message.content)
```
### 最佳实践
**模型选择建议**:
* 如果不确定任务复杂度,使用 `gemini-3-flash-preview`(自动推理)
* 需要查看推理过程或处理超复杂任务时,使用 `gemini-3-flash-preview-thinking`
* 简单任务或对速度要求高时,使用 `gemini-3-flash-preview-nothinking`
* 可以在同一个应用中根据不同任务混合使用三种变体
**使用限制**:
* 遵守 Google 使用政策,禁止生成有害内容
* API 调用有速率限制,具体限制视账户等级而定
* 推理模式(thinking)会消耗更多 tokens,请合理使用
* 上下文窗口虽大(100万 tokens),但过长上下文可能影响响应速度
## 价格与可用性
### 定价信息
Gemini 3 Flash Preview 定价显著低于 Pro 版本:
| 模型 | 输入价格 | 输出价格 | 相比 3 Pro | 相比 2.5 Flash |
| -------------------------- | ---------------------- | ---------------------- | ------------ | ------------ |
| **Gemini 3 Flash Preview** | **\$0.50** / 1M tokens | **\$3.00** / 1M tokens | **1/4 价格** ⭐ | 略高 |
| Gemini 3 Pro | \$2.00 / 1M tokens | \$12.00 / 1M tokens | - | - |
| Gemini 2.5 Flash | \$0.30 / 1M tokens | \$2.50 / 1M tokens | - | - |
**定价说明**:
* 价格基于每百万 tokens 计算
* 三个模型变体(自动推理/强制推理/不推理)价格相同
* 推理模式(thinking)会产生额外的推理 tokens 消耗
* 多模态输入(图像、视频等)按 tokens 等价计算
* 数据来源:Google 官方定价(2025年12月17日发布)
### 性价比分析
Gemini 3 Flash Preview 在"性能/价格比"上达到了新的高度:
* **编程任务**:SWE-bench 78%,价格仅为 3 Pro 的 1/4,性价比约 **4 倍**
* **推理任务**:接近 3 Pro 质量,价格仅 1/4,性价比约 **3-4 倍**
* **通用任务**:超越 2.5 系列,价格略高但性能提升显著
### 优惠活动
在 API易 使用 Gemini 3 Flash Preview,除了享受与官网一致的定价外,还可通过**充值活动**获得额外折扣:
* 充值 \$100 可获赠额外额度
* 充值越多,赠送比例越高(最高可达 8 折优惠)
* 详情请访问 API易 官网或联系客服
### 购买渠道
Gemini 3 Flash Preview 已在以下渠道可用:
1. **API易 API 服务**(推荐)
* 地址:`api.apiyi.com`
* 支持 OpenAI SDK 直接调用
* 提供 3 个模型变体灵活切换
* 享受充值活动折扣
2. **Google Gemini App**
* 免费用户和 Gemini Advanced 用户均可使用
* 在模型选择器中选择"Fast"(快速)或"Thinking"(思考)模式
3. **Google AI Studio / Vertex AI**
* 官网定价,无额外折扣
* 适合企业级部署
## 总结与建议
Gemini 3 Flash Preview 是 Google 在"速度与智能"平衡上的又一次突破,以 **Flash 级价格**提供 **Pro 级性能**,甚至在编程能力上超越了 Gemini 3 Pro。这标志着高性能 AI 模型正式进入"普惠时代"。
### 核心竞争力
* ✅ **编程之王**:SWE-bench 78%,超越 Gemini 3 Pro
* ✅ **速度优势**:比 2.5 Pro 快 3 倍
* ✅ **性价比无敌**:仅为 3 Pro 价格的 1/4
* ✅ **灵活切换**:3 个模型变体适配不同场景
### 推荐使用场景
* 🎯 **首选场景**:AI 编程助手、代码生成、智能体开发
* 🎯 **推荐场景**:多模态内容分析、复杂推理任务、数据分析
* 🎯 **适合场景**:交互式应用、实时对话、知识问答
### 使用建议
1. **优先使用自动推理模式**:`gemini-3-flash-preview` 适合大多数场景,无需手动切换
2. **复杂任务用强制推理**:需要深度思考或查看推理过程时,使用 `thinking` 变体
3. **简单任务用快速模式**:追求极致速度时,使用 `nothinking` 变体
4. **充分利用多模态**:支持图像、视频、音频、PDF 等多种输入
5. **结合充值活动**:在 API易 充值可享额外折扣,降低长期使用成本
### 与竞品对比
| 对比维度 | Gemini 3 Flash Preview | Claude Sonnet 4.5 | GPT-5.1 |
| -------- | ---------------------- | ----------------- | ------------- |
| **编程能力** | ⭐⭐⭐⭐⭐ (78%) | ⭐⭐⭐⭐⭐ (77.2%) | ⭐⭐⭐⭐⭐ (76.3%) |
| **响应速度** | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| **性价比** | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ |
| **多模态** | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
Gemini 3 Flash Preview 在编程能力、速度和性价比三个维度上都达到了业界顶尖水平,是当前最值得推荐的高性价比 AI 模型之一。
**信息来源与日期**:
* Google 官方博客发布日期:2025年12月17日
* API易 接入上线日期:2025年12月18日
* 官方公告:`blog.google/products/gemini/gemini-3-flash/`
* 技术分析来源:TechCrunch、SiliconANGLE、9to5Google 等科技媒体
* 性能数据来源:Google AI Studio、官方评测报告
***
立即体验 Gemini 3 Flash Preview 的强大能力,访问 API易 官网获取 API 密钥,开启高性价比 AI 开发之旅!
# Gemini 3 Pro Preview 正式发布:LMArena 全球第一
Source: https://docs.apiyi.com/news/gemini-3-pro-preview-launch
谷歌最新多模态智能模型 Gemini 3 Pro Preview 震撼上线!LMArena 排行榜 1501 Elo 全球第一,SWE-bench Verified 76.2%,支持 100 万上下文和思维链输出。API易第一时间接入,充值加赠可达 8 折优惠。
## 核心要点
* **全球最强**:LMArena 排行榜 1501 Elo 位居全球第一,超越所有竞品
* **代码能力顶尖**:SWE-bench Verified 76.2%,代码生成与修复能力业界领先
* **超大上下文**:100 万 Token 上下文窗口,支持处理超大型代码库和文档
* **思维链输出**:支持显示完整推理过程,提升复杂任务的推理能力
* **价格优势**:与谷歌官网价格一致,充值加赠活动可达 8 折优惠
## 背景介绍
2025年11月18日,谷歌正式发布了 Gemini 3 Pro Preview 多模态智能模型,这是继 Gemini 2.5 系列之后的又一次重大升级。新模型在 LMArena 排行榜上以 1501 Elo 分数位居全球第一,超越了 GPT-5、Claude Opus 4.1 等所有竞品,标志着谷歌在大模型领域重回巅峰。
Gemini 3 Pro Preview 不仅在性能上实现了突破,还引入了多项创新特性,包括可配置的思维层级、更强大的 Agentic 能力,以及业界领先的多模态理解能力。API易第一时间完成接入,为开发者提供稳定、高性价比的 API 服务。
## 详细解析
### 新增模型
API易上线了 Gemini 3 Pro Preview 的两个版本:
**自动推理模型**
根据任务复杂度自动调整推理力度,无需手动配置。适合大多数场景,提供最佳的性能与成本平衡。
**强制思考输出模型**
显示完整的推理过程,特别适合需要透明推理的场景,如高级编程、数学、科学计算等。
### 性能亮点
Gemini 3 Pro Preview 在多项权威评测中取得了业界领先的成绩:
| 评测项目 | 分数 | 排名 |
| ---------------------- | -------- | ------- |
| **LMArena** | 1501 Elo | 🏆 全球第一 |
| **SWE-bench Verified** | 76.2% | 🥇 顶尖水平 |
| **Terminal-Bench 2.0** | 54.2% | 🥇 业界领先 |
| **多模态理解** | - | 🏆 全球最强 |
数据来源:LMArena 官方排行榜(2025年11月18日)、OpenAI SWE-bench 评测(2025年11月)。Gemini 3 Pro Preview 是目前唯一在 LMArena 上突破 1500 Elo 的模型。
### 核心特性
#### 🧠 超大上下文窗口
* **100 万 Token 输入**:支持处理超大型代码库、长篇文档、多轮对话历史
* **64K Token 输出**:生成长篇代码、详细文档、深度分析报告无压力
* **应用场景**:企业级文档分析、大型项目代码审查、知识库问答系统
#### 🌟 思维链推理
`gemini-3-pro-preview-thinking` 模型支持显示完整的推理过程:
* **透明推理**:清晰展示模型的思考步骤
* **可控性提升**:通过 `thinking_level` 参数控制推理深度
* **适用场景**:数学证明、逻辑推理、复杂编程任务、科学计算
#### 🎯 多模态理解
* **文本**:长文本理解、多语言翻译、内容创作
* **图像**:图像识别、场景理解、OCR 文字提取
* **视频**:视频内容分析、关键帧提取、动作识别
* **音频**:语音转文字、音频分类、情感分析
#### 🛠️ 工具增强
Gemini 3 Pro Preview 内置多种工具能力:
内置网络搜索能力,实时获取最新信息
文件搜索和分析,支持多种文档格式
代码执行能力,支持 Python、JavaScript 等语言
标准函数调用,轻松集成外部工具和 API
## 实际应用
### 推荐场景
* IDE 集成(Cursor、VS Code)
* 代码审查和优化建议
* 自主开发和问题修复
* 技术文档生成
* 数学证明和科学计算
* 逻辑推理和决策分析
* 策略规划和优化
* 数据分析和洞察
* 图像内容理解和描述
* 视频分析和摘要
* OCR 和文档解析
* 跨模态内容生成
* Agentic Workflows
* 自主任务执行
* 工具调用和集成
* 长期记忆和上下文管理
### 代码示例
#### OpenAI 兼容模式调用
```python theme={null}
import openai
client = openai.OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 基础对话
response = client.chat.completions.create(
model="gemini-3-pro-preview",
messages=[
{"role": "user", "content": "解释一下量子纠缠的原理"}
]
)
print(response.choices[0].message.content)
# 思维链模式
response = client.chat.completions.create(
model="gemini-3-pro-preview-thinking",
messages=[
{"role": "user", "content": "证明:对于任意正整数 n,1+2+3+...+n = n(n+1)/2"}
]
)
print(response.choices[0].message.content)
```
#### 多模态理解
```python theme={null}
# 图像理解
response = client.chat.completions.create(
model="gemini-3-pro-preview",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "这张图片中有什么?"},
{
"type": "image_url",
"image_url": {"url": "https://example.com/image.jpg"}
}
]
}
]
)
```
#### 函数调用
```python theme={null}
# 函数调用示例
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名称"}
},
"required": ["city"]
}
}
}
]
response = client.chat.completions.create(
model="gemini-3-pro-preview",
messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
tools=tools
)
```
### 最佳实践
#### 1. 上下文管理
* **长对话优化**:利用 100 万 Token 上下文,保留完整对话历史
* **文档分析**:一次性输入整个代码库或文档集合,无需分段处理
* **结构化输入**:使用 XML 标签或 Markdown 结构化长文本
#### 2. 思维链使用
* **复杂任务**:使用 `gemini-3-pro-preview-thinking` 获取推理过程
* **调试优化**:通过思维链输出理解模型决策逻辑
* **教学场景**:展示解题步骤,帮助用户理解推理过程
#### 3. 多模态集成
* **图文结合**:在 prompt 中混合文本和图像,实现更丰富的交互
* **视频分析**:将视频拆分为关键帧,逐帧分析内容
* **文档解析**:结合 OCR 和语义理解,提取结构化信息
## 价格与可用性
### 定价信息
Gemini 3 Pro Preview 的定价与谷歌官网保持一致:
| 计费项 | 价格 | 说明 |
| ------------ | ------------------- | ---------------- |
| **输入 Token** | \$2.00 / 百万 tokens | 200K tokens 以内提示 |
| **输出 Token** | \$12.00 / 百万 tokens | 所有输出 tokens |
| **缓存输入** | \$0.20 / 百万 tokens | 提示缓存(如支持) |
**价格优势**:API易充值加赠活动进行中,实际可达 **8 折优惠**!相比官网价格,输入成本低至 \$1.6/百万 tokens,输出成本低至 \$9.6/百万 tokens。
### 调用方式
Gemini 3 Pro Preview 支持两种调用方式:
**推荐方式**
使用 OpenAI SDK,只需更改 `base_url` 和 `model` 参数,无需修改其他代码。
**完整功能**
支持 Vertex AI API 格式,使用谷歌官方 SDK 调用,获取完整特性支持。
### 可用渠道
* ✅ **Google AI Studio**(免费交互使用,有速率限制)
* ✅ **Vertex AI**(企业版)
* ✅ **GitHub Copilot**(Pro/Business/Enterprise)
* ✅ **Gemini CLI**(命令行工具)
* ✅ **API易**(稳定直连,充值享 8 折优惠)⭐ 推荐
## 总结与建议
Gemini 3 Pro Preview 是谷歌迄今为止最强大的多模态智能模型,在性能、能力和灵活性上都实现了显著提升。以下是我们的使用建议:
### 💡 谁应该使用?
* **开发者**:需要强大代码生成和调试能力的编程场景
* **研究人员**:需要复杂推理和科学计算的研究任务
* **企业用户**:需要处理大量文档和数据的业务场景
* **产品团队**:需要构建智能助手和 Agentic 应用的产品开发
### 🎯 选择建议
* **通用场景**:使用 `gemini-3-pro-preview`,自动推理更高效
* **需要透明推理**:使用 `gemini-3-pro-preview-thinking`,了解决策过程
* **长上下文任务**:充分利用 100 万 Token 上下文窗口
* **多模态应用**:结合文本、图像、视频实现丰富交互
### 📊 性价比分析
相比竞品:
* **vs GPT-5**:性能更强(1501 vs 1485 Elo),价格相当
* **vs Claude Opus 4.1**:推理能力更强,价格更低
* **vs DeepSeek V3**:性能显著领先,价格略高但物有所值
**速率限制**:免费渠道(Google AI Studio)有速率限制,生产环境建议使用 API易 等付费服务,确保稳定性和可用性。
## 立即开始
准备好体验 Gemini 3 Pro Preview 了吗?
1. **注册 API易账号**:[https://api.apiyi.com](https://api.apiyi.com)
2. **充值获取令牌**:享受充值加赠活动,实际可达 8 折优惠
3. **查看 API 文档**:[Gemini API 使用指南](/api-capabilities/gemini)
4. **开始调用**:将 `model` 参数改为 `gemini-3-pro-preview` 即可
有任何问题?欢迎加入我们的技术社区交流,或查看 [常见问题](/faq/model-availability) 获取帮助。
***
**信息来源**:
* 谷歌官方博客:Gemini 3 Pro Preview 发布公告 `blog.google/technology/ai/google-gemini-3-pro-preview/`
* LMArena 排行榜:`lmarena.ai/leaderboard`
* SWE-bench 评测:`swebench.com`
* 数据获取日期:2025年11月20日
# Gemini Embedding 2 Preview 上线:首个原生多模态嵌入模型
Source: https://docs.apiyi.com/news/gemini-embedding-2-preview-launch
谷歌首个原生多模态嵌入模型 Gemini Embedding 2 Preview 上线 API易,支持文本/图片/视频/音频/PDF 统一向量空间,MTEB 英文榜首 68.32,3072 维 MRL 灵活降维,文本仅 $0.20/百万 tokens。
## 核心要点
* **首个原生多模态嵌入**:支持文本、图片、视频、音频、PDF 五种模态统一映射到同一向量空间
* **MTEB 英文榜首**:68.32 分登顶,分类 +9.6、检索 +9.0、聚类 +3.7 领先第二名
* **灵活维度控制**:默认 3072 维,支持 128~3072 任意截断(Matryoshka 表征学习),768 维仍达 67.99
* **超长输入支持**:文本最大 8192 tokens,图片最多 6 张/请求,视频最长 120 秒
* **100+ 语言覆盖**:多语言嵌入能力,MTEB 多语言榜 Top 5
## 背景介绍
2026 年 3 月 10 日,谷歌正式发布 Gemini Embedding 2 Preview,这是 Gemini 系列的**首个原生多模态嵌入模型**。与此前仅支持文本的 text-embedding-004 和 gemini-embedding-001 不同,Gemini Embedding 2 可以将文本、图片、视频、音频和 PDF 文档统一映射到同一个向量空间,实现真正的跨模态语义检索。
这意味着你可以用一段文本去搜索相关的图片,或者用一张图片去检索匹配的文档——所有模态共享同一套向量表示,无需分别处理。
API易已上架 `gemini-embedding-2-preview`,支持 OpenAI 兼容的 `/v1/embeddings` 接口直接调用。
## 详细解析
### 核心特性
文本、图片、视频、音频、PDF 统一向量空间,实现跨模态语义搜索和相似度计算
英文 68.32 分登顶,分类、检索、聚类三项大幅领先,多语言 Top 5
支持 128~3072 维灵活截断,低维仍保持高质量,按需平衡性能与存储成本
告别固定 task\_type 枚举,使用自然语言 prompt 描述任务类型,更灵活精确
### 性能亮点
Gemini Embedding 2 Preview 在 MTEB 基准上全面领先:
| 维度 | MTEB 英文总分 | 说明 |
| ------------ | --------- | ------------ |
| **3072**(默认) | **68.32** | 榜首 |
| **2048** | **68.16** | 接近满维表现 |
| **1536** | **68.17** | 适合替代 3-large |
| **768** | **67.99** | 存储减半,性能几乎无损 |
**分项领先幅度**(相比第二名):
| 任务类型 | 领先幅度 |
| ------ | ------ |
| **分类** | +9.6 分 |
| **检索** | +9.0 分 |
| **聚类** | +3.7 分 |
数据来源:谷歌官方博客(`blog.google`)及 MTEB 排行榜。Gemini Embedding 2 Preview 于 2026 年 3 月 10 日发布。
### 与前代模型对比
| 特性 | text-embedding-004 | gemini-embedding-001 | gemini-embedding-2-preview |
| ----------- | ------------------ | -------------------- | -------------------------- |
| **模态** | 仅文本 | 仅文本 | 文本/图片/视频/音频/PDF |
| **最大输入** | 2048 tokens | 2048 tokens | **8192 tokens** |
| **默认维度** | 768 | 3072 | **3072** |
| **维度范围** | 有限 | MRL 支持 | **128~3072(MRL)** |
| **任务指定** | task\_type 枚举 | task\_type 枚举 | **Prompt 指令式** |
| **MTEB 英文** | 较低 | 中等 | **68.32(榜首)** |
| **语言** | 有限 | 100+ | **100+** |
Gemini Embedding 2 与之前版本的嵌入空间不兼容,不能混用不同版本生成的向量。迁移时需要重新生成全部嵌入。
### 多模态输入规格
| 输入类型 | 限制 | 支持格式 |
| ------- | -------------- | -------- |
| **文本** | 最大 8192 tokens | 纯文本 |
| **图片** | 每请求最多 6 张 | PNG、JPEG |
| **视频** | 最长 120 秒 | MP4、MOV |
| **音频** | 原生音频嵌入(无需转文本) | 常见音频格式 |
| **PDF** | 原生支持 | PDF 文档 |
### 支持的任务类型
Gemini Embedding 2 使用 prompt 指令式任务描述:
| 任务 | 说明 |
| ----------- | ------------- |
| **语义相似度** | 评估文本间的语义相似程度 |
| **分类** | 按预设标签对文本分类 |
| **聚类** | 按相似度对文本分组 |
| **检索(文档端)** | 优化文档侧的搜索嵌入 |
| **检索(查询端)** | 优化查询侧的搜索嵌入 |
| **代码检索** | 用自然语言检索代码片段 |
| **问答** | 为 QA 系统生成问题嵌入 |
| **事实验证** | 为事实核查生成陈述嵌入 |
### 技术规格
| 参数 | Gemini Embedding 2 Preview |
| ---------- | -------------------------- |
| **模型 ID** | gemini-embedding-2-preview |
| **发布日期** | 2026 年 3 月 10 日 |
| **开发商** | Google |
| **输入类型** | 文本、图片、视频、音频、PDF |
| **输出** | 浮点向量 |
| **默认维度** | 3072 |
| **维度范围** | 128~3072(MRL) |
| **最大文本输入** | 8192 tokens |
| **语言** | 100+ |
## 实际应用
### 推荐场景
1. **跨模态语义搜索**:用文本搜图片、用图片搜文档,统一向量空间实现混合检索
2. **多语言 RAG**:100+ 语言覆盖,适合构建全球化检索增强生成系统
3. **文档智能分析**:直接嵌入 PDF,无需预处理即可建立文档检索库
4. **视频/音频内容检索**:原生支持视频和音频嵌入,适合媒体内容管理
5. **聚类与分类**:分类 +9.6、聚类 +3.7 的优势,适合大规模内容组织
6. **代码语义搜索**:自然语言查询代码片段,提升开发效率
### 代码示例
#### 文本嵌入
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.embeddings.create(
model="gemini-embedding-2-preview",
input="谷歌最新的多模态嵌入模型有哪些特点?",
dimensions=768 # 可选:128~3072
)
embedding = response.data[0].embedding
print(f"维度: {len(embedding)}")
```
#### 批量文本嵌入
```python theme={null}
texts = [
"人工智能的最新发展趋势",
"机器学习在医疗领域的应用",
"大语言模型的工作原理"
]
response = client.embeddings.create(
model="gemini-embedding-2-preview",
input=texts,
dimensions=1536
)
for i, data in enumerate(response.data):
print(f"文本 {i}: 维度 {len(data.embedding)}")
```
#### 语义搜索示例
```python theme={null}
import numpy as np
def cosine_similarity(a, b):
return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b))
# 构建文档库嵌入
docs = ["量子计算原理", "深度学习入门", "区块链技术概述"]
doc_resp = client.embeddings.create(
model="gemini-embedding-2-preview",
input=docs,
dimensions=768
)
doc_embeddings = [d.embedding for d in doc_resp.data]
# 查询
query_resp = client.embeddings.create(
model="gemini-embedding-2-preview",
input="神经网络是怎么工作的?",
dimensions=768
)
query_embedding = query_resp.data[0].embedding
# 计算相似度
for i, doc_emb in enumerate(doc_embeddings):
sim = cosine_similarity(query_embedding, doc_emb)
print(f"{docs[i]}: {sim:.4f}")
```
### 最佳实践
1. **选择合适维度**:768 维性价比最优(67.99 分,存储减半),3072 维追求极致精度
2. **注意向量归一化**:3072 维已预归一化,降维后需手动归一化
3. **利用 prompt 指令**:检索场景区分 query 和 document 端,可显著提升效果
4. **不可混用版本**:与 text-embedding-004 或 gemini-embedding-001 的向量空间不兼容,迁移需全量重建
## 价格与可用性
### 定价
| 输入类型 | 价格(每百万 tokens) |
| ------ | ---------------------- |
| **文本** | \$0.20 |
| **图片** | \$0.45(约 \$0.00012/张) |
| **音频** | \$6.50(约 \$0.00016/秒) |
| **视频** | \$12.00(约 \$0.00079/帧) |
### 与竞品价格对比
| 模型 | 文本价格/百万 tokens | 维度 | 多模态 |
| ------------------------------ | -------------- | ---- | ----- |
| **gemini-embedding-2-preview** | **\$0.20** | 3072 | ✅ 五模态 |
| text-embedding-3-large | \$0.13 | 3072 | ❌ 仅文本 |
| text-embedding-3-small | \$0.02 | 1536 | ❌ 仅文本 |
文本价格略高于 OpenAI text-embedding-3 系列,但 Gemini Embedding 2 是唯一支持五模态统一嵌入的模型,跨模态检索场景无需额外模型。
### 叠加网站充值活动
API易 提供充值加赠优惠,充值越多加赠越多,叠加模型本身的价格优势,实际使用成本更低。
### 可用模型
| 模型名称 | 说明 |
| ---------------------------- | --------------------------- |
| `gemini-embedding-2-preview` | 原生多模态嵌入模型,支持文本/图片/视频/音频/PDF |
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 接口:`/v1/embeddings`(OpenAI 兼容格式)
* 兼容所有 OpenAI SDK
## 总结与建议
Gemini Embedding 2 Preview 是当前最强大的嵌入模型,也是业界首个原生多模态嵌入模型。它在 MTEB 英文榜登顶,同时支持五种模态的统一向量表示,为跨模态检索开辟了全新可能。
**核心优势**:
* **多模态统一**:文本/图片/视频/音频/PDF 共享向量空间,一个模型搞定所有检索
* **性能榜首**:MTEB 68.32 登顶,分类、检索、聚类三项大幅领先
* **灵活降维**:MRL 支持 128~3072 维,按需平衡精度与成本
* **超长输入**:8192 tokens,4 倍于前代
**使用建议**:
1. **跨模态检索**:首选 Gemini Embedding 2,目前唯一选择
2. **纯文本 + 极致低价**:text-embedding-3-small 仍是最便宜的选项
3. **纯文本 + 高精度**:Gemini Embedding 2 的 768 维已超越 text-embedding-3-large
4. **RAG 场景**:8192 tokens 长输入 + 灵活降维,非常适合大文档分块检索
**谁应该使用 Gemini Embedding 2**:
* 需要跨模态搜索的应用(图搜文、文搜图等)
* 构建多语言 RAG 系统的开发者
* 需要处理 PDF/视频/音频内容的企业场景
* 追求最高嵌入质量的检索系统
信息来源:Google 官方博客(`blog.google`)、Google AI 开发者文档(`ai.google.dev`)、MTEB 排行榜。Gemini Embedding 2 Preview 于 2026 年 3 月 10 日发布。数据获取时间:2026 年 3 月 31 日。
# GLM-5.1 上线:智谱开源最强编程 Agent 模型
Source: https://docs.apiyi.com/news/glm-5-1-launch
智谱 Z.AI 最新旗舰开源模型 GLM-5.1 上线 API易,SWE-Bench Pro 58.4 击败 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,744B MoE 架构,200K 上下文,支持长达 8 小时长程编程任务,MIT 开源协议。
## 核心要点
* **SWE-Bench Pro 全球第一**:58.4 分超越 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,开源模型登顶
* **超大 MoE 架构**:744B 总参数 / 256 专家 / 每 token 激活 8 个,有效计算量约 40B
* **长程任务能力**:可自主执行单个编程任务长达 8 小时,覆盖规划、执行、测试、优化全流程
* **200K 上下文**:200,000 token 上下文窗口,支持 128,000 token 输出
* **开源 + 高性价比**:MIT 协议开源,API 输入 \$1.00/百万 tokens、输出 \$3.20/百万 tokens
## 背景介绍
2026 年 4 月 7 日,智谱 Z.AI 正式发布旗舰开源模型 **GLM-5.1**,这是 GLM-5 系列的重要升级版本。在权威的 SWE-Bench Pro 编程评测中,GLM-5.1 以 58.4 分的成绩超越了 GPT-5.4、Claude Opus 4.6 和 Gemini 3.1 Pro,成为该评测的新晋全球第一,也是首个在该榜单击败所有闭源旗舰模型的开源模型。
GLM-5.1 专为「智能体工程」和「长程软件开发」场景设计,可以自主完成单个编程任务长达 8 小时,期间持续进行规划、执行、测试和优化。模型完全使用 100,000 颗华为昇腾 910B 芯片训练,展现了国产算力在前沿大模型训练上的实力。
API易现已上线 `glm-5.1`,支持 OpenAI 兼容模式直接调用。
## 详细解析
### 核心特性
58.4 分超越所有闭源旗舰,开源模型登顶 SWE-Bench Pro 编程评测
744B 总参数 / 256 专家 / 激活 8 个,有效计算约 40B,性能与效率兼得
可自主完成单个编程任务最长 8 小时,规划-执行-测试-优化全流程闭环
权重已上传 HuggingFace 和 ModelScope,支持 vLLM、SGLang 推理框架
### 性能亮点
| 评测项目 | GLM-5.1 | 对比 |
| ---------------------- | -------- | -------------------------------------------------- |
| **SWE-Bench Pro** | **58.4** | 全球第一,超越 GPT-5.4 / Claude Opus 4.6 / Gemini 3.1 Pro |
| **Terminal-Bench 2.0** | **63.5** | 终端操作能力顶尖 |
| **NL2Repo** | **42.7** | 仓库级代码生成 |
| **CyberGym** | **68.7** | 安全编程评测 |
| **BrowseComp** | **68.0** | 浏览器 Agent 任务 |
| **vs GLM-5** | **+28%** | 相比前代编程能力大幅跃升 |
数据来源:智谱 Z.AI 官方文档(`docs.z.ai`)、Dataconomy、Z.AI 开发者文档。GLM-5.1 于 2026 年 4 月 7 日正式发布,独立基准测试结果同日更新。
**与竞品对比**:
* **vs Claude Opus 4.6**:编程评测 GLM-5.1 (58.4) 超越 Opus 4.6 (47.9),达到 94.6%-122% 性能水平
* **vs GPT-5.4 / Gemini 3.1 Pro**:在 SWE-Bench Pro 上均超越
* **价格优势**:API 价格远低于闭源旗舰,性价比突出
### 技术规格
| 参数 | GLM-5.1 |
| --------- | --------------------- |
| **架构** | MoE(混合专家) |
| **总参数** | 744B |
| **专家数量** | 256 个(每 token 激活 8 个) |
| **有效参数** | \~40B |
| **上下文窗口** | 200,000 tokens |
| **最大输出** | 128,000 tokens |
| **训练硬件** | 100,000 颗华为昇腾 910B |
| **开源协议** | MIT License |
| **模型名称** | `glm-5.1` |
## 实际应用
### 推荐场景
8 小时连续编程任务,适合复杂项目重构、大型功能开发、自动化代码迁移
SWE-Bench Pro 第一,是 Claude Code、Cursor 等编程助手的优质开源替代
CyberGym 68.7 的安全编程能力,适合代码审计、漏洞分析、安全修复
MIT 协议开源,企业可下载权重本地部署,数据完全自主可控
### 代码示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="glm-5.1",
messages=[
{"role": "system", "content": "你是一个资深软件工程师,擅长长程编程任务。"},
{"role": "user", "content": "请帮我重构这个 Python 项目,实现从单体架构到微服务架构的迁移。"}
],
max_tokens=16384
)
print(response.choices[0].message.content)
```
```javascript theme={null}
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.apiyi.com/v1",
});
const response = await client.chat.completions.create({
model: "glm-5.1",
messages: [
{ role: "user", content: "Audit this codebase for security vulnerabilities and propose fixes." }
],
max_tokens: 16384,
});
console.log(response.choices[0].message.content);
```
### 最佳实践
GLM-5.1 专为长程任务设计,长任务建议设置较长的 timeout(如 600 秒以上),充分利用其 8 小时连续推理能力。
* **长程编程**:将完整项目代码作为上下文,让 GLM-5.1 自主规划重构方案并执行
* **Agent 工作流**:充分利用 BrowseComp 68.0 的浏览器操作能力,构建自主 Web Agent
* **本地化部署**:开源 MIT 协议允许企业下载权重本地部署,结合 vLLM 或 SGLang 实现高效推理
## 价格与可用性
### 定价信息
| 计费项 | 价格 |
| ------ | ------------------ |
| **输入** | \$1.00 / 百万 tokens |
| **输出** | \$3.20 / 百万 tokens |
### 叠加网站充值活动
当前充值加赠活动持续进行中,充值越多加赠越多,详情请查看 [充值优惠政策](/faq/recharge-promotions)。
## 总结与建议
GLM-5.1 是当前最强的开源编程 Agent 模型,在 SWE-Bench Pro 上击败所有闭源旗舰,744B MoE 架构带来出色性能与效率平衡。最长 8 小时的长程任务执行能力 + 200K 上下文 + MIT 开源协议,使其成为编程 Agent、长程代码任务和企业本地化部署的理想选择。
**推荐人群**:
* 需要顶级编程 Agent 能力的开发者和团队
* 寻求 Claude Opus / GPT-5.4 高性价比开源替代的用户
* 构建长程编程任务、自主 Agent 工作流的技术团队
* 需要本地化部署、数据自主可控的企业用户
信息来源:智谱 Z.AI 官方开发者文档(`docs.z.ai`)、Dataconomy、TechBriefly、OpenRouter。数据获取日期:2026 年 4 月 9 日。GLM-5.1 完全使用国产华为昇腾 910B 芯片训练。
# Google AI Studio 使用指南:轻松体验 Gemini 模型的三种方案
Source: https://docs.apiyi.com/news/google-ai-studio-usage-guide
Google AI Studio 是谷歌推出的免费 AI 开发平台,但使用 Nano Banana Pro 等付费模型需要海外信用卡。本文为您详解三种解决方案:API 中转站(2 折优惠)、会员代充(230 元/月)和官方订阅,帮您选择最适合的方式。
## 核心要点
* **Google AI Studio 是什么**:谷歌推出的免费在线 AI 开发平台,可直接在浏览器中测试 Gemini 模型
* **为何需要 API Key**:使用付费模型(如 Nano Banana Pro 图像生成)需要绑定 Google Cloud 账单,门槛较高
* **方案一:API 中转站**:通过 API易 使用,价格仅官费 2 折,适合 API 调用场景
* **方案二:会员代充**:通过林兄 AI 代充 Gemini 会员,230 元/月,享受原生交互体验
* **方案三:官方订阅**:直接订阅 Google AI Pro/Ultra,需要海外支付方式
## Google AI Studio 是什么?
### 产品定位
**Google AI Studio** 是谷歌推出的基于浏览器的集成开发环境(IDE),旨在帮助开发者、学生和研究人员快速体验和构建基于 Gemini 模型的应用。您无需安装任何软件,只需访问 `aistudio.google.com`,就能立即开始使用。
### 核心功能
* 可视化提示词工程
* 实时模型测试
* 对话流设计
* 文本、图像、音频、视频
* 文件上传与分析
* Google Drive 集成
* 完全免费体验所有模型
* 每分钟 60 次请求
* 无需绑定信用卡(基础功能)
* 自动生成 API 调用代码
* 支持多种编程语言
* 一键导出项目
### 使用场景
* **快速测试**:在写代码之前,先在 AI Studio 中测试提示词效果
* **模型对比**:同时测试多个模型,选择最适合的
* **教育学习**:学生和教师可以免费学习 AI 开发
* **原型演示**:向客户或团队展示 AI 功能原型
## 为什么 Nano Banana Pro 需要绑定 API Key?
### Nano Banana Pro 是什么?
**Nano Banana Pro** 是谷歌在 2025 年 11 月发布的最新图像生成模型,也被称为 **Gemini 3 Pro Image**。它能够生成高质量的 1080p、2K 甚至 4K 分辨率的图像,是目前谷歌最强大的图像生成模型。
### 为何需要 API Key?
与 Gemini 2.5 Flash 等文本模型不同,**Nano Banana Pro 没有免费配额**。这意味着:
**计费要求**
* 必须创建 Google Cloud 项目并启用计费
* 需要绑定有效的信用卡(通常需要海外信用卡)
* 谷歌会验证信用卡的有效性和持卡人身份
* 价格:\$0.139/张(1080p/2K),\$0.24/张(4K)
### 门槛在哪里?
很多国内用户在尝试使用 Nano Banana Pro 时会遇到以下问题:
1. **海外信用卡要求**:Google Cloud 通常要求海外信用卡(Visa、MasterCard 等)
2. **严格验证**:谷歌会验证持卡人身份,部分银行卡可能无法通过
3. **复杂流程**:需要注册 Google Cloud、创建项目、设置计费账户等多个步骤
4. **汇率损失**:使用外币支付可能产生汇率损失和手续费
**关键信息**
在 Google AI Studio 中绑定的 API Key 实际上是 **Google Cloud** 的 API Key,而非单纯的 AI Studio Key。这意味着您需要具备 Google Cloud 的账单权限,这是门槛较高的主要原因。
## 三种解决方案对比
针对上述门槛,我们为您提供三种解决方案,各有优劣,您可以根据自己的需求选择。
### 方案一:使用 API 中转站(API易)
**适合人群**:开发者、企业用户、需要大量 API 调用的场景
**核心优势**
* **超低价格**:仅为官方价格的 2 折,大幅降低成本
* **无需海外信用卡**:支持国内支付方式(微信、支付宝等)
* **即开即用**:注册即可获取 API Key,无需复杂配置
* **高并发支持**:支持超过 500 并发请求
* **稳定可靠**:7x24 小时技术支持
**使用步骤**
1. 访问 API易 官网:`apiyi.com`
2. 注册并充值(支持多种充值方式)
3. 获取 API Key
4. 使用 OpenAI SDK 格式调用(base\_url 设置为 API易 端点)
**代码示例**
```python theme={null}
import openai
client = openai.OpenAI(
api_key="your-apiyi-api-key",
base_url="https://api.apiyi.com/v1"
)
# 调用 Nano Banana Pro(Gemini 3 Pro Image)
response = client.images.generate(
model="nano-banana-pro",
prompt="A futuristic city with flying cars at sunset",
size="1080p"
)
print(response.data[0].url)
```
**劣势分析**
* **交互界面**:无法使用 Google AI Studio 的原生可视化界面
* **功能限制**:仅支持 API 调用,不支持 AI Studio 的高级功能(如实时流、屏幕共享等)
* **中转依赖**:依赖第三方服务,需要信任中转商的稳定性
**适用场景**
* 需要集成到自己的应用或网站中
* 大量批量生成图像
* 对价格敏感,希望降低成本
* 不需要 AI Studio 的可视化界面
### 方案二:会员代充(林兄 AI)
**适合人群**:个人用户、内容创作者、需要原生体验的用户
**核心优势**
* **原生体验**:完整享受 Google AI Studio 的所有功能
* **价格实惠**:230 元/月,低于官方 Pro 订阅(约 144 元官方价,但需海外支付)
* **无需海外信用卡**:通过代充服务绕过支付门槛
* **包含额外权益**:2TB 云存储、Veo 2 视频生成等
**购买渠道**
* 访问林兄 AI 网站:`ai.daishengji.com`
* 选择 Gemini Pro 或 Ultra 会员套餐
* 完成支付后,代充服务会为您开通会员
**会员权益**
* **Gemini Pro(230 元/月)**:
* 每日 100 次 Gemini 2.5 Pro 对话
* 每日生成 1000 张图片
* 每日 3 个 Veo 3 Fast 视频
* 2TB 云存储
* Deep Research 每日 20 份报告
* **Gemini Ultra(价格咨询)**:
* 每日 500 次任何模型对话
* 每日生成 1000 张图片
* 每日 5 个 Veo 3 视频
* 30TB 云存储
* Deep Research 每日 200 份报告
**劣势分析**
* **按月付费**:需要持续支付会员费,不适合低频使用
* **第三方依赖**:依赖代充服务,存在一定风险
* **账号安全**:需要提供 Google 账号信息,存在安全隐患
**适用场景**
* 需要使用 Google AI Studio 的可视化界面
* 经常使用 Gemini 进行对话、图像生成、视频生成
* 不仅需要 API,还需要完整的 AI 工具套件
* 对原生体验有要求
### 方案三:官方订阅
**适合人群**:有海外支付方式的用户、企业用户
**官方定价**
* **Google AI Pro**:\$19.99/月(约 144 元人民币)
* **Google AI Ultra**:\$249.99/月(约 1,803 元人民币)
**订阅方式**
1. 访问 Google Gemini 订阅页面:`gemini.google/subscriptions/`
2. 选择 Pro 或 Ultra 套餐
3. 绑定海外信用卡或 PayPal
4. 完成支付
**核心优势**
* **官方服务**:最高的安全性和稳定性
* **完整功能**:所有最新功能第一时间可用
* **无中介费用**:直接支付给谷歌,无额外成本
**劣势分析**
* **支付门槛**:需要海外信用卡或 PayPal
* **价格较高**:Ultra 套餐价格昂贵(近 2000 元/月)
* **汇率波动**:使用外币支付,可能受汇率影响
**适用场景**
* 已有海外支付方式
* 企业用户,需要最高级别的服务保障
* 对数据安全和隐私有严格要求
## 方案对比总结
| 对比项 | API 中转站(API易) | 会员代充(林兄 AI) | 官方订阅 |
| --------- | ------------- | ----------- | ------------------ |
| **价格** | 官费 2 折(最低) | 230 元/月 | \$19.99-\$249.99/月 |
| **支付方式** | 国内支付 | 国内支付 | 海外信用卡/PayPal |
| **交互界面** | 仅 API | 完整原生界面 | 完整原生界面 |
| **功能完整度** | API 调用 | 所有功能 | 所有功能 |
| **并发能力** | 500+ | 取决于套餐 | 取决于套餐 |
| **适合场景** | 开发者/API 集成 | 个人/创作者 | 企业/海外用户 |
| **门槛** | 极低 | 低 | 高(需海外支付) |
## 使用建议
### 如果您是开发者
**推荐方案一:API 中转站(API易)**
* 价格最低(仅官费 2 折)
* 支持高并发(500+)
* 无需海外信用卡
* 适合集成到应用中
### 如果您是内容创作者
**推荐方案二:会员代充(林兄 AI)**
* 享受完整的 Google AI Studio 体验
* 包含图像生成、视频生成、对话等全套功能
* 230 元/月性价比较高
* 无需海外信用卡
### 如果您是企业用户
**推荐方案三:官方订阅**
* 最高级别的服务保障
* 数据安全和隐私保护
* 适合有海外支付方式的企业
* Ultra 套餐适合高频使用场景
## 常见问题
### Q1: API易 的 2 折价格是如何实现的?
API易 通过规模化采购和优化的技术架构,能够以更低的成本提供服务。同时,作为中转平台,省去了用户直接对接 Google Cloud 的复杂流程,降低了运营成本。
### Q2: 会员代充安全吗?
选择信誉良好的代充服务(如林兄 AI)相对安全,但仍需注意:
* 选择有良好口碑的代充平台
* 不要使用主账号,建议使用单独的 Google 账号
* 定期更改密码,启用两步验证
### Q3: 免费的 Google AI Studio 和付费会员有什么区别?
| 项目 | 免费版 | AI Pro | AI Ultra |
| ----------------- | ------- | -------- | -------- |
| Gemini 2.5 Pro 对话 | 5 次/天 | 100 次/天 | 500 次/天 |
| 图像生成 | 100 张/天 | 1000 张/天 | 1000 张/天 |
| Veo 视频生成 | 不支持 | 3 个/天 | 5 个/天 |
| Deep Research | 5 份/月 | 20 份/天 | 200 份/天 |
| 云存储 | 15GB | 2TB | 30TB |
### Q4: 如何选择适合自己的方案?
* **低频使用**:免费的 Google AI Studio(每天少于 5 次对话)
* **API 集成**:API易 中转站(价格低、并发高)
* **日常创作**:会员代充(完整体验、价格适中)
* **企业应用**:官方订阅(最高保障)
## 总结
Google AI Studio 是一个强大的 AI 开发平台,但使用 Nano Banana Pro 等付费模型时,海外信用卡的门槛确实让很多国内用户望而却步。本文介绍的三种方案各有优劣:
* **API 中转站(API易)**:适合开发者,价格最低(2 折),但仅支持 API 调用
* **会员代充(林兄 AI)**:适合个人和创作者,230 元/月,享受完整原生体验
* **官方订阅**:适合企业和有海外支付方式的用户,安全性最高
无论您选择哪种方案,都能轻松体验 Gemini 的强大能力。如果您有任何疑问,欢迎联系我们的技术支持团队!
**信息来源与更新日期**
* Google AI Studio 官方文档:`ai.google.dev/aistudio`
* Nano Banana Pro 官方公告:Google Developers Blog(2025 年 11 月 20 日)
* Gemini 订阅计划:`gemini.google/subscriptions/`
* 定价信息:Google AI Studio 定价页面
* 数据获取时间:2025 年 11 月 24 日
# GPT-5.2 重磅发布:OpenAI 反击 Gemini 3,推出三大版本应对竞争
Source: https://docs.apiyi.com/news/gpt-5-2-launch
OpenAI 于 2025 年 12 月 11 日发布 GPT-5.2 系列,推出 Instant、Thinking、Pro 三大版本,在推理、编程、长文本等领域全面升级,API易已全面支持 OpenAI 原生格式调用。
## 核心要点
* **三大版本**:Instant(快速写作)、Thinking(结构化编程)、Pro(专业难题),满足不同场景需求
* **推理突破**:GPT-5.2 Pro 在 ARC-AGI-1 上达到 90%,首个突破该阈值的模型,成本降低 390 倍
* **专业能力**:GDPval 评测中 70.9% 任务超越或持平行业专业人士,专业知识工作能力登顶
* **超长上下文**:400,000 tokens 上下文窗口,支持 128,000 tokens 单次输出,处理海量信息
* **知识更新**:知识截止日期提升至 2025 年 8 月 31 日,覆盖最新技术和事件
## 背景介绍
2025 年 12 月 11 日,OpenAI 正式发布 GPT-5.2 系列模型,这是继上月 GPT-5.1 发布后的快速迭代,也是对 Google Gemini 3 和 Anthropic Claude Opus 4.5 等竞品的强势回应。
此次发布背景是 OpenAI 在上月宣布进入"代码红色"(Code Red)紧急状态,以应对 Google Gemini 3 和 Anthropic 新模型的挑战。OpenAI CEO Sam Altman 表示,随着 GPT-5.2 的发布,公司有望在 2026 年 1 月退出"代码红色"状态。
GPT-5.2 系列包含三个版本:
* **GPT-5.2 Instant**(`gpt-5.2-chat-latest`):快速响应,擅长写作和信息检索
* **GPT-5.2 Thinking**(`gpt-5.2`):结构化工作,擅长编程和规划
* **GPT-5.2 Pro**(`gpt-5.2-pro`):最高精度,应对最复杂的专业问题
API易已在第一时间上线 GPT-5.2 全系列,支持 OpenAI 原生格式调用,开发者可立即使用。
## 详细解析
### 核心特性
ARC-AGI-1 达 90%,首个突破该阈值的模型,成本降低 390 倍
GDPval 评测中 70.9% 任务超越或持平行业专业人士
400,000 tokens 上下文窗口,128,000 tokens 单次输出
知识截止日期提升至 2025 年 8 月 31 日
### 性能亮点
GPT-5.2 系列在多个权威评测中展现出卓越性能,特别是在推理、科学、数学和编程任务上:
| 评测项目 | GPT-5.2 Pro | GPT-5.2 Thinking | GPT-5.1 | Gemini 3 Pro |
| --------------------------- | ----------- | ---------------- | ------- | ------------ |
| **ARC-AGI-1 (Verified)** | **90.0%** | - | 87.0% | - |
| **ARC-AGI-2** | **54.2%** | - | - | - |
| **GPQA Diamond** | **93.2%** | 92.4% | - | - |
| **FrontierMath (Tier 1-3)** | - | **40.3%** | - | - |
| **SWE-Bench Pro** | - | **55.6%** | 76.3% | 76.2% |
| **GDPval(专业知识)** | - | **70.9%** | - | - |
数据来源:OpenAI 官方博客(2025 年 12 月 11 日发布),ARC-AGI、GPQA、FrontierMath、SWE-Bench 均为业界权威评测基准。
**推理能力突破**:
* **ARC-AGI-1**:GPT-5.2 Pro 达到 90%,首个突破该阈值的模型
* **成本优化**:相比去年的 o3-preview(87%),成本降低约 390 倍
* **ARC-AGI-2**:达到 54.2%,在更难的抽象推理任务上继续领先
**科学与数学能力**:
* **GPQA Diamond**:GPT-5.2 Pro 达 93.2%,研究生级别 Google-proof 问答
* **FrontierMath**:GPT-5.2 Thinking 在专家级数学问题上解决 40.3%
**编程与专业工作**:
* **SWE-Bench Pro**:达 55.6%,真实软件工程任务评测
* **GDPval**:70.9% 任务中超越或持平行业专业人士
**长文本理解**:
* **256k tokens** 范围内几乎完美准确率
* 相当于约 20 万字中文或一部完整小说
### 技术规格
| 参数 | GPT-5.2 / Thinking | GPT-5.2 Pro |
| --------- | ------------------------ | ----------------------- |
| **上下文长度** | 400,000 tokens | 400,000 tokens |
| **最大输出** | 128,000 tokens | 128,000 tokens |
| **知识截止** | 2025 年 8 月 31 日 | 2025 年 8 月 31 日 |
| **输入价格** | \$1.75 / 百万 tokens | \$21.00 / 百万 tokens |
| **输出价格** | \$14.00 / 百万 tokens | \$168.00 / 百万 tokens |
| **缓存输入** | \$0.175 / 百万 tokens(9 折) | \$2.10 / 百万 tokens(9 折) |
相比 GPT-5.1(\$1.25/\$10),GPT-5.2 价格上涨 40%,但性能和知识更新显著提升。
### 三大版本对比
| 版本 | 模型名称 | 适用场景 | 核心优势 |
| ------------ | --------------------- | ----------- | ----- |
| **Instant** | `gpt-5.2-chat-latest` | 快速写作、信息检索 | 响应速度快 |
| **Thinking** | `gpt-5.2` | 编程、规划、结构化任务 | 逻辑推理强 |
| **Pro** | `gpt-5.2-pro` | 复杂难题、科学研究 | 精度最高 |
不同版本适用于不同场景,Thinking 和 Pro 版本在复杂任务中表现更佳,但成本更高,请根据实际需求选择。
## 实际应用
### 推荐场景
GPT-5.2 系列凭借强大的推理、编程和长文本能力,特别适合以下场景:
1. **复杂推理任务**:抽象问题求解、逻辑推理、数学证明
2. **软件工程开发**:代码生成、Bug 修复、架构设计
3. **科学研究分析**:研究生级问答、文献综述、数据分析
4. **专业知识工作**:报告撰写、方案设计、决策支持
5. **长文本处理**:40 万 token 上下文支持完整书籍、代码库分析
### 代码示例
#### OpenAI 格式调用(推荐)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
# 使用 GPT-5.2 Thinking(推荐用于编程任务)
response = client.chat.completions.create(
model="gpt-5.2",
messages=[
{
"role": "user",
"content": "设计一个高性能的分布式缓存系统,包含架构图和核心代码..."
}
],
max_tokens=8192
)
print(response.choices[0].message.content)
```
#### 使用 GPT-5.2 Pro(最高精度)
```python theme={null}
# 使用 GPT-5.2 Pro 处理复杂科学问题
response = client.chat.completions.create(
model="gpt-5.2-pro",
messages=[
{
"role": "user",
"content": "推导量子纠缠的数学证明,并解释其物理意义..."
}
],
max_tokens=16384
)
print(response.choices[0].message.content)
```
#### 使用锁定版本(企业推荐)
```python theme={null}
# 使用锁定版本确保输出一致性
response = client.chat.completions.create(
model="gpt-5.2-2025-12-11", # 锁定版本
messages=[
{
"role": "user",
"content": "分析这个市场报告的关键趋势..."
}
]
)
```
### 最佳实践
1. **选择合适的版本**:
* **Instant**:快速写作、邮件回复、简单查询
* **Thinking**(默认):编程、规划、结构化任务
* **Pro**:科学研究、复杂推理、关键决策
2. **充分利用长上下文**:
* 40 万 token 上下文可容纳约 30 万字中文
* 适合完整代码库分析、长文档处理
* 支持 12.8 万 token 单次输出
3. **缓存优化成本**:
* 缓存输入价格享受 9 折优惠
* 适合重复使用相同 system prompt 的场景
* 高并发应用可显著降低成本
4. **企业级应用建议**:
* 使用锁定版本(`gpt-5.2-2025-12-11`)确保输出一致性
* 生产环境推荐 Thinking 或 Pro 版本
* 开发测试可使用 Instant 版本降低成本
## 价格与可用性
### 定价信息
| 计费项 | GPT-5.2 / Thinking | GPT-5.2 Pro | GPT-5.1 | 变化 |
| -------- | ------------------- | -------------------- | ------------------- | ---- |
| **输入** | \$1.75 / 百万 tokens | \$21.00 / 百万 tokens | \$1.25 / 百万 tokens | +40% |
| **输出** | \$14.00 / 百万 tokens | \$168.00 / 百万 tokens | \$10.00 / 百万 tokens | +40% |
| **缓存输入** | \$0.175 / 百万 tokens | \$2.10 / 百万 tokens | \$0.125 / 百万 tokens | +40% |
相比 GPT-5.1,GPT-5.2 价格上涨 40%,但性能提升明显,知识截止日期更新至 2025 年 8 月。
**与竞品价格对比**:
| 模型 | 输入价格 | 输出价格 | 性能水平 |
| -------------------- | ----------- | ------------ | --------------- |
| **GPT-5.2 Thinking** | **\$1.75** | **\$14.00** | GDPval 70.9% |
| **GPT-5.2 Pro** | **\$21.00** | **\$168.00** | ARC-AGI 90% |
| Claude Opus 4.5 | \$5.00 | \$25.00 | SWE-bench 80.9% |
| Gemini 3 Pro | \$2.00 | \$12.00 | SWE-bench 76.2% |
| GPT-5.1 | \$1.25 | \$10.00 | SWE-bench 76.3% |
GPT-5.2 Thinking 价格适中,Pro 版本虽然昂贵但在推理任务上性能卓越。
### 优惠活动
API易 提供充值加赠优惠,充值越多加赠越多(10%-20%),实际使用成本可低至官方价格的 8 折。点击查看详细的首充加赠、阶梯加赠比例等信息。
### 可用模型
| 模型名称 | 版本 | 说明 |
| ------------------------ | -------- | ------------ |
| `gpt-5.2` | Thinking | 默认版本,适合编程和规划 |
| `gpt-5.2-2025-12-11` | Thinking | 锁定版本,输出一致性高 |
| `gpt-5.2-chat-latest` | Instant | 快速响应版本 |
| `gpt-5.2-pro` | Pro | 最高精度版本 |
| `gpt-5.2-pro-2025-12-11` | Pro | Pro 锁定版本 |
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 支持 OpenAI 原生格式
* 兼容所有 OpenAI SDK
**其他渠道**:
* OpenAI 官方 API
* Azure OpenAI Service
* AWS Bedrock(即将支持)
## 总结与建议
GPT-5.2 系列的发布标志着 OpenAI 在推理、科学和专业知识工作领域的全面突破,特别是 GPT-5.2 Pro 在 ARC-AGI-1 上首次突破 90% 阈值,同时将成本降低 390 倍,展现了强大的技术实力。
**核心优势**:
* **推理之王**:ARC-AGI-1 达 90%,首个突破该阈值的模型
* **专业能力**:GDPval 评测 70.9% 超越专业人士
* **超长上下文**:40 万 token 上下文,12.8 万 token 输出
* **知识更新**:截止日期提升至 2025 年 8 月 31 日
**使用建议**:
1. **日常任务**:使用 Instant 版本,响应快、成本低
2. **编程开发**:使用 Thinking 版本(默认 `gpt-5.2`),逻辑推理强
3. **科学研究**:使用 Pro 版本,精度最高
4. **企业生产**:使用锁定版本(`gpt-5.2-2025-12-11`),输出一致性高
**谁应该使用 GPT-5.2**:
* 需要强大推理能力的研究人员
* 处理复杂编程任务的开发者
* 追求最新知识的专业用户
* 需要超长上下文的代码库分析场景
**版本选择建议**:
* **成本敏感**:GPT-5.1 仍是性价比之选(\$1.25/\$10)
* **性能优先**:GPT-5.2 Thinking 平衡性能与成本
* **极致追求**:GPT-5.2 Pro 适合最复杂的任务
API易已全面上线 GPT-5.2 系列,支持 OpenAI 原生格式调用,现在注册充值即享加赠优惠,立即体验 OpenAI 最新推理能力!
信息来源:OpenAI 官方博客(2025 年 12 月 11 日)、TechCrunch、CNBC、VentureBeat 等权威媒体报道。数据获取时间:2025 年 12 月 13 日。
# GPT-5.3 Chat 上线:更少幻觉、更自然的 ChatGPT 聊天模型
Source: https://docs.apiyi.com/news/gpt-5-3-chat-launch
OpenAI 于 2026 年 3 月 3 日发布 GPT-5.3 Instant,幻觉率降低 26.8%,对话更自然流畅,API易已通过官方直连通道第一时间接入。
## 核心要点
* **幻觉率大幅降低**:联网搜索场景降低 26.8%,纯知识场景降低 19.7%,回答更准确可靠
* **对话风格优化**:减少不必要的拒绝、说教式回复和过度谨慎措辞,对话更自然流畅
* **128K 上下文窗口**:支持 16,384 tokens 最大输出,满足各类对话需求
* **多模态输入**:支持文本 + 图像输入,可理解和分析图片内容
* **官方直连**:API易通过 OpenAI 官方 API 透明转发,稳定可靠
## 背景介绍
2026 年 3 月 3 日,OpenAI 正式发布 GPT-5.3 Instant,取代 GPT-5.2 Instant 成为所有 ChatGPT 用户的默认模型。这是 OpenAI 在 GPT-5.2 系列基础上的又一次重要迭代,重点优化了对话体验和准确性。
GPT-5.3 Instant 的 API 模型名称为 `gpt-5.3-chat-latest`,是 ChatGPT 中实际使用的聊天模型快照。与此同时,OpenAI 还发布了 GPT-5.3-Codex(编程模型)和 GPT-5.3-Codex-Spark(实时编程模型)等其他变体。
API易已在第一时间通过**官方直连通道**接入 GPT-5.3-chat-latest,开发者可立即使用。
## 详细解析
### 核心改进
联网搜索场景幻觉率降低 26.8%,纯知识场景降低 19.7%,回答更值得信赖
减少过度防御性和说教式前缀,不再动不动就加免责声明
显著减少不必要的拒绝回复,有用的回答直接给出
支持文本和图像输入,可分析图片内容并生成文字回复
### 性能提升
GPT-5.3 Instant 相比前代模型在多个维度实现了显著改进:
| 改进维度 | 具体提升 |
| ------------ | ------------ |
| **幻觉率(联网)** | 降低 26.8% |
| **幻觉率(纯知识)** | 降低 19.7% |
| **不必要拒绝** | 显著减少 |
| **对话自然度** | 大幅提升,更接近自然对话 |
数据来源:OpenAI 官方博客(2026 年 3 月 3 日发布)。
### 技术规格
| 参数 | GPT-5.3 Chat | GPT-5.2 Instant |
| --------- | --------------------- | --------------------- |
| **模型名称** | `gpt-5.3-chat-latest` | `gpt-5.2-chat-latest` |
| **上下文窗口** | 128,000 tokens | 128,000 tokens |
| **最大输出** | 16,384 tokens | 16,384 tokens |
| **知识截止** | 2025 年 8 月 31 日 | 2025 年 8 月 31 日 |
| **输入格式** | 文本 + 图像 | 文本 + 图像 |
| **流式输出** | ✅ | ✅ |
| **函数调用** | ✅ | ✅ |
| **结构化输出** | ✅ | ✅ |
### GPT-5.3 系列全家福
GPT-5.3 系列包含多个变体,面向不同使用场景:
| 模型 | 定位 | 特点 |
| ----------------------- | ---- | ---------------------------------- |
| **GPT-5.3 Chat** | 日常对话 | 更少幻觉、更自然对话 |
| **GPT-5.3 Codex** | 编程代理 | 77.3% Terminal-Bench 2.0,比前代更快 25% |
| **GPT-5.3 Codex Spark** | 实时编程 | 15 倍生成速度,128K 上下文 |
GPT-5.3-Codex 是首个被 OpenAI Preparedness Framework 分类为"高能力"网络安全级别的模型。
## 实际应用
### 推荐场景
GPT-5.3 Chat 特别适合以下场景:
1. **客服对话机器人**:更准确的回答 + 更自然的对话风格
2. **内容创作助手**:减少不必要的免责声明,直接输出有用内容
3. **知识问答系统**:幻觉率大幅降低,回答更可靠
4. **多模态应用**:结合图像理解能力,实现图文混合对话
### 快速开始
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="gpt-5.3-chat-latest",
messages=[
{"role": "system", "content": "你是一个友好的助手"},
{"role": "user", "content": "请用简洁的语言解释量子计算的基本原理"}
]
)
print(response.choices[0].message.content)
```
### 流式输出
```python theme={null}
response = client.chat.completions.create(
model="gpt-5.3-chat-latest",
messages=[
{"role": "user", "content": "写一篇关于 AI 发展趋势的短文"}
],
stream=True
)
for chunk in response:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
```
### 从 GPT-5.2 迁移
迁移非常简单,只需更改模型名称:
```python theme={null}
# 之前使用 GPT-5.2 Instant
# model="gpt-5.2-chat-latest"
# 现在使用 GPT-5.3 Chat
model="gpt-5.3-chat-latest"
```
## 价格与可用性
### 定价信息
| 计费项 | GPT-5.3 Chat | GPT-5.2 | GPT-5 |
| -------- | ------------------- | ------------------- | ------------------- |
| **输入** | \$1.75 / 百万 tokens | \$1.75 / 百万 tokens | \$1.25 / 百万 tokens |
| **缓存输入** | \$0.175 / 百万 tokens | \$0.175 / 百万 tokens | \$0.125 / 百万 tokens |
| **输出** | \$14.00 / 百万 tokens | \$14.00 / 百万 tokens | \$10.00 / 百万 tokens |
GPT-5.3 Chat 与 GPT-5.2 定价一致,性能更优,是直接升级替换的理想选择。
### 优惠活动
API易提供充值加赠优惠,充值越多加赠越多(10%-20%),实际使用成本可低至官方价格的 8 折。
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 渠道类型:OpenAI 官方直连(官转)
* 兼容所有 OpenAI SDK
## 总结与建议
GPT-5.3 Chat 是 OpenAI 在对话体验方面的一次重要优化。虽然在参数规格上与 GPT-5.2 保持一致,但在实际使用中,幻觉率大幅降低和更自然的对话风格带来了明显的体验提升。
**核心优势**:
* 🎯 幻觉率降低 26.8%,回答更准确
* 💬 对话风格更自然,告别"说教式"回复
* 🖼️ 支持图像输入,多模态能力
* 💰 价格与 GPT-5.2 一致,性能更优
**使用建议**:
1. **日常对话**:首选 GPT-5.3 Chat,体验最自然
2. **编程任务**:推荐 GPT-5.3 Codex,专业性更强
3. **复杂推理**:继续使用 GPT-5.2 Pro,精度最高
4. **成本优先**:GPT-5.1 仍是性价比之选
**谁应该升级到 GPT-5.3 Chat**:
* 对回答准确性要求较高的应用
* 客服、助手等需要自然对话风格的场景
* 正在使用 GPT-5.2 Instant 的开发者(无缝切换)
API易已通过官方直连通道第一时间接入,现在注册充值即享加赠优惠,立即体验更准确、更自然的 GPT-5.3 Chat!
信息来源:OpenAI 官方博客(2026 年 3 月 3 日)、9to5Mac、NxCode 等媒体报道。数据获取时间:2026 年 3 月 4 日。
# GPT-5.4 重磅发布:OpenAI 最强专业模型,原生计算机使用能力
Source: https://docs.apiyi.com/news/gpt-5-4-launch
OpenAI 于 2026 年 3 月 5 日发布 GPT-5.4 系列,推出标准版、Thinking 和 Pro 三大版本,原生支持计算机使用、深度研究,专业任务表现超越 83% 人类办公人员。API易已全面上架,定价与官网一致。
## 核心要点
* **最强专业模型**:GPT-5.4 在专业任务中 83% 的情况下优于人类办公人员,文档创建、电子表格分析、演示文稿设计表现卓越
* **原生计算机使用**:OpenAI 首个搭载原生计算机使用能力的通用模型,支持多步骤跨应用工作流
* **百万级上下文**:API 版本支持最高 100 万 tokens 上下文窗口,OpenAI 迄今最大
* **更少错误**:单项声明错误率降低 33%,整体回答错误率降低 18%
* **三大版本**:标准版(GPT-5.4)、Thinking(深度分析)、Pro(高性能企业级)
## 背景介绍
2026 年 3 月 5 日,OpenAI 正式发布 GPT-5.4 系列模型,这是 OpenAI 迄今为止最强大、最高效的前沿模型,专为专业工作场景设计。
此次发布距离 GPT-5.3 仅一个月不到,标志着 OpenAI 加快了模型迭代节奏。GPT-5.4 被定位为面向企业级专业任务的旗舰模型,在文档处理、电子表格分析、代码生成和自主代理等领域实现了全面突破。
GPT-5.4 系列包含三个版本:
* **GPT-5.4**(标准版):通用旗舰模型,适合日常和专业任务
* **GPT-5.4 Thinking**:深度分析与多步骤问题推理
* **GPT-5.4 Pro**:高性能企业级版本,专为规模化应用优化
API易已在第一时间上架 GPT-5.4 全系列,定价与 OpenAI 官网完全一致,充值 100 美金起享 10% 加赠优惠。
## 详细解析
### 核心特性
83% 的专业任务中优于人类办公人员,文档、电子表格、演示文稿全面领先
OpenAI 首个搭载原生计算机使用能力的通用模型,支持多步骤跨应用工作流
API 支持最高 100 万 tokens 上下文窗口,OpenAI 迄今最大
单项错误率降低 33%,整体错误率降低 18%,回答更可靠
### 性能亮点
GPT-5.4 系列在多个权威评测中展现出卓越性能:
| 评测项目 | GPT-5.4 / Pro | GPT-5.2 | 说明 |
| --------------------------- | ------------- | ------- | ------------ |
| **GDPval(专业知识)** | **83%** | 70.9% | 专业任务超越人类办公人员 |
| **SWE-Bench Pro** | **57.7%** | 55.6% | 真实软件工程任务 |
| **OSWorld-Verified(计算机使用)** | **75%** | - | 计算机使用基准测试 |
| **APEX-Agents** | **#1** | - | 专业服务工作代理基准 |
| **WebArena Verified** | **#1** | - | 网页操作基准测试 |
数据来源:OpenAI 官方博客(2026 年 3 月 5 日发布)、TechCrunch、VentureBeat 等权威媒体报道。
**专业工作能力**:
* **GDPval 83%**:在专业知识工作评测中,83% 的任务优于人类办公人员
* 擅长文档创建、电子表格分析、演示文稿设计
* 金融插件支持 Microsoft Excel 和 Google Sheets
**计算机使用能力**:
* OpenAI 首个在 Codex 和 API 中搭载原生计算机使用能力的通用模型
* OSWorld-Verified 基准测试达 75%
* 支持跨应用多步骤自动化工作流
**编程与代理能力**:
* SWE-Bench Pro 达 57.7%,持续提升
* APEX-Agents 和 WebArena Verified 均排名第一
* Token 效率显著提升,解决相同问题所需 tokens 大幅减少
**准确性提升**:
* 单项声明错误率比 GPT-5.2 降低 33%
* 整体回答错误率降低 18%
### 技术规格
| 参数 | GPT-5.4 | GPT-5.4 Pro |
| ------------------- | ------------------- | -------------------- |
| **上下文长度** | 1,050,000 tokens | 1,050,000 tokens |
| **输入价格** | \$2.50 / 百万 tokens | \$30.00 / 百万 tokens |
| **输出价格** | \$15.00 / 百万 tokens | \$180.00 / 百万 tokens |
| **长上下文输入(大于 272K)** | \$5.00 / 百万 tokens | \$60.00 / 百万 tokens |
| **长上下文输出(大于 272K)** | \$22.50 / 百万 tokens | \$270.00 / 百万 tokens |
当输入超过 272K tokens 时,输入价格为 2 倍,输出价格为 1.5 倍(适用于整个会话)。
### 三大版本对比
| 版本 | 定位 | 适用场景 | 核心优势 |
| -------------------- | ---- | ----------- | ------- |
| **GPT-5.4** | 通用旗舰 | 日常专业任务、文档处理 | 平衡性能与成本 |
| **GPT-5.4 Thinking** | 深度推理 | 复杂分析、多步骤推理 | 深度分析能力强 |
| **GPT-5.4 Pro** | 企业级 | 高性能规模化应用 | 速度快、吞吐高 |
## 实际应用
### 推荐场景
GPT-5.4 系列凭借原生计算机使用、超强专业能力和百万级上下文,特别适合:
1. **企业办公自动化**:文档创建、电子表格分析、演示文稿设计
2. **软件工程开发**:代码生成、Bug 修复、自主编程代理
3. **深度研究分析**:长文档分析、跨源研究、数据挖掘
4. **自主代理工作流**:计算机使用、多步骤跨应用自动化
5. **金融数据处理**:Excel/Sheets 金融插件、报表生成
### 代码示例
#### 标准调用
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
# 使用 GPT-5.4 标准版
response = client.chat.completions.create(
model="gpt-5.4",
messages=[
{
"role": "user",
"content": "分析这份季度财务报告,生成关键指标摘要和趋势预测..."
}
],
max_tokens=8192
)
print(response.choices[0].message.content)
```
#### 使用 GPT-5.4 Pro
```python theme={null}
# 使用 GPT-5.4 Pro 处理高性能企业级任务
response = client.chat.completions.create(
model="gpt-5.4-pro",
messages=[
{
"role": "user",
"content": "设计一个完整的微服务架构,包含服务发现、负载均衡、熔断器和分布式追踪..."
}
],
max_tokens=16384
)
print(response.choices[0].message.content)
```
### 最佳实践
1. **选择合适的版本**:
* **GPT-5.4**:日常专业任务,平衡性能与成本
* **GPT-5.4 Thinking**:需要深度推理的复杂问题
* **GPT-5.4 Pro**:企业级高吞吐量应用
2. **充分利用百万级上下文**:
* 100 万 token 上下文可容纳整个代码库或多份长文档
* 注意超过 272K tokens 时价格会调整
3. **利用计算机使用能力**:
* 通过 Codex 和 API 构建自主代理
* 实现跨应用多步骤自动化工作流
## 价格与可用性
### 定价信息
| 计费项 | GPT-5.4 | GPT-5.4 Pro | GPT-5.2 | 变化 |
| ------ | ------------------- | -------------------- | ------------------- | ---- |
| **输入** | \$2.50 / 百万 tokens | \$30.00 / 百万 tokens | \$1.75 / 百万 tokens | +43% |
| **输出** | \$15.00 / 百万 tokens | \$180.00 / 百万 tokens | \$14.00 / 百万 tokens | +7% |
GPT-5.4 相比 GPT-5.2 输入价格上涨 43%,输出价格仅上涨 7%。Pro 版本定价为 OpenAI 最贵模型,但专业能力也最强。
**与竞品价格对比**:
| 模型 | 输入价格 | 输出价格 | 定位 |
| --------------- | ----------- | ------------ | ---- |
| **GPT-5.4** | **\$2.50** | **\$15.00** | 专业旗舰 |
| **GPT-5.4 Pro** | **\$30.00** | **\$180.00** | 企业级 |
| Claude Opus 4.5 | \$5.00 | \$25.00 | 编码旗舰 |
| Gemini 3 Pro | \$2.00 | \$12.00 | 多模态 |
| GPT-5.2 | \$1.75 | \$14.00 | 前代旗舰 |
### 优惠活动
API易 提供充值加赠优惠,充值 100 美金起享 10% 加赠,充值越多加赠越多。定价与官网一致,通过充值优惠实现折扣,实际使用成本更低。
### 可用模型
| 模型名称 | 版本 | 说明 |
| ------------- | --- | -------------- |
| `gpt-5.4` | 标准版 | 通用旗舰,适合大多数专业场景 |
| `gpt-5.4-pro` | Pro | 高性能企业级版本 |
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 支持 OpenAI 原生格式
* 兼容所有 OpenAI SDK
## 总结与建议
GPT-5.4 系列的发布标志着 OpenAI 在专业工作领域的全面突破。原生计算机使用能力、百万级上下文窗口和 83% 超越人类的专业表现,使其成为企业级应用的首选模型。
**核心优势**:
* **专业之王**:83% 任务优于人类办公人员
* **原生计算机使用**:首个搭载原生 CUA 的通用模型
* **百万级上下文**:100 万 tokens,OpenAI 最大
* **更少错误**:错误率降低 18-33%
**使用建议**:
1. **日常专业任务**:使用 GPT-5.4 标准版,性能与成本平衡
2. **深度分析推理**:使用 GPT-5.4 Thinking,复杂问题首选
3. **企业级应用**:使用 GPT-5.4 Pro,高吞吐低延迟
4. **成本敏感场景**:GPT-5.2 仍是性价比之选
**谁应该使用 GPT-5.4**:
* 需要自动化办公流程的企业用户
* 构建自主代理和工作流的开发者
* 处理超长文档和代码库的专业用户
* 追求最高准确性的研究人员
API易已全面上架 GPT-5.4 系列,定价与官网一致,充值 100 美金起享 10% 加赠优惠,立即体验 OpenAI 最强专业模型!
信息来源:OpenAI 官方博客(2026 年 3 月 5 日)、TechCrunch、VentureBeat、Axios、Fortune 等权威媒体报道。数据获取时间:2026 年 3 月 6 日。
# GPT-5.4 Mini & Nano 上线:轻量高性价比,为规模化场景而生
Source: https://docs.apiyi.com/news/gpt-5-4-mini-nano-launch
OpenAI 于 2026 年 3 月 17 日发布 GPT-5.4 Mini 和 Nano,Mini 速度比 GPT-5 Mini 快 2 倍以上,Nano 仅需 $0.20/百万输入 tokens。API易已全面上架,定价与官网一致,官转 API 充值约 9 折起。
## 核心要点
* **最强小模型**:GPT-5.4 Mini 在编码、推理、多模态理解和工具调用全面超越 GPT-5 Mini,速度快 2 倍以上
* **极致性价比**:GPT-5.4 Nano 输入仅 \$0.20/百万 tokens,输出 \$1.25/百万 tokens,OpenAI 最便宜的 5.4 系列模型
* **接近旗舰水准**:Mini 在 SWE-Bench Pro(54.4%)和 OSWorld-Verified(72.1%)上接近 GPT-5.4 全尺寸版本
* **40 万上下文**:与 GPT-5 家族一致的 400K context window
* **全能力支持**:文本、图像输入、工具调用、网页搜索、计算机使用能力一应俱全
## 背景介绍
2026 年 3 月 17 日,OpenAI 正式发布 GPT-5.4 Mini 和 GPT-5.4 Nano,官方称其为「迄今最强大的小模型」。这是继 3 月初 GPT-5.4 旗舰系列发布后,OpenAI 将 5.4 系列能力下沉到轻量级模型的重要举措。
GPT-5.4 Mini 面向需要高性能但预算有限的开发者,在保持接近旗舰水准的同时大幅降低成本;GPT-5.4 Nano 则专为高吞吐量、低成本场景设计,适合分类、数据提取、排序和编码子代理等任务。
API易已在第一时间上架两款模型,定价与 OpenAI 官网完全一致,官转 API 通道稳定可靠,充值加赠约 9 折起。
## 详细解析
### 核心特性
GPT-5.4 Mini 比 GPT-5 Mini 快 2 倍以上,延迟大幅降低
Nano 输入仅 \$0.20/百万 tokens,76000 张图片描述仅需约 \$52
Mini SWE-Bench Pro 54.4%(GPT-5.4 为 57.7%),差距极小
图像理解、工具调用、网页搜索、计算机使用全部支持
### GPT-5.4 Mini 性能亮点
GPT-5.4 Mini 在多个权威评测中全面碾压前代 GPT-5 Mini:
| 评测项目 | GPT-5.4 Mini | GPT-5.4(旗舰) | GPT-5 Mini | 说明 |
| ---------------------- | ------------ | ----------- | ---------- | -------- |
| **SWE-Bench Pro** | **54.4%** | 57.7% | 45.7% | 真实软件工程任务 |
| **OSWorld-Verified** | **72.1%** | 75.0% | 42.0% | 计算机使用基准 |
| **Toolathlon** | **42.9%** | — | 26.9% | 工具调用评测 |
| **GPQA Diamond** | **88.0%** | — | 81.6% | 研究级科学推理 |
| **Tau2-Bench** | **93.4%** | — | 74.1% | 工具调用基准 |
| **MCP Atlas** | **57.7%** | — | 47.6% | MCP 协议评测 |
| **Terminal-Bench 2.0** | **60.0%** | — | — | 终端操作评测 |
GPT-5.4 Mini 在 OSWorld-Verified 上达到 72.1%,相比 GPT-5 Mini 的 42.0% 提升了 71.7%,接近旗舰 GPT-5.4 的 75.0%。
### GPT-5.4 Nano 性能定位
Nano 是 GPT-5.4 系列中最小、最便宜的版本,专为速度和成本优先的场景设计:
| 评测项目 | GPT-5.4 Nano | GPT-5.4 Mini |
| ---------------------- | ------------ | ------------ |
| **Terminal-Bench 2.0** | 46.3% | 60.0% |
| **OSWorld-Verified** | 39.0% | 72.1% |
OpenAI 官方推荐 Nano 用于分类、数据提取、排序以及编码子代理中处理简单辅助任务的场景。
### 推理能力可调
两款模型均支持可变推理力度设置,开发者可根据任务复杂度灵活调整:
* `none`:无推理,最快响应
* `low` / `medium` / `high`:递增推理深度
* `xhigh`:最大推理力度
值得关注的是,GPT-5.4 Nano 在最大推理力度下的表现已超过前代 GPT-5 Mini,以极低成本实现了上一代中端模型的能力。
## 实际应用
### 推荐场景
**GPT-5.4 Mini 适合:**
1. **编程助手**:SWE-Bench Pro 54.4%,适合代码生成、审查和调试
2. **自主代理**:OSWorld 72.1%,支持计算机使用和多步骤工作流
3. **日常对话**:ChatGPT 免费版和 Go 版用户的默认思考模型
4. **OpenClaw 等场景**:高性能低成本,适合批量智能任务处理
**GPT-5.4 Nano 适合:**
1. **数据处理流水线**:分类、提取、排序等高吞吐量任务
2. **编码子代理**:处理简单辅助任务,作为代理架构中的执行层
3. **批量图像理解**:76000 张图片描述仅需约 \$52
4. **实时分类系统**:极低延迟,极低成本
### 代码示例
#### 使用 GPT-5.4 Mini
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
# GPT-5.4 Mini - 高性价比编程助手
response = client.chat.completions.create(
model="gpt-5.4-mini",
messages=[
{
"role": "user",
"content": "帮我重构这段代码,提取公共逻辑并添加错误处理..."
}
],
max_tokens=4096
)
print(response.choices[0].message.content)
```
#### 使用 GPT-5.4 Nano 批量处理
```python theme={null}
# GPT-5.4 Nano - 极致性价比批量任务
response = client.chat.completions.create(
model="gpt-5.4-nano",
messages=[
{
"role": "system",
"content": "你是一个文本分类器,将用户输入分类为:正面、负面、中性。只输出分类结果。"
},
{
"role": "user",
"content": "这个产品质量非常好,下次还会购买!"
}
],
max_tokens=10
)
print(response.choices[0].message.content)
```
## 价格与可用性
### 定价信息
| 计费项 | GPT-5.4 Nano | GPT-5.4 Mini | GPT-5.4(旗舰) |
| -------- | ------------------ | ------------------- | ------------------- |
| **输入** | \$0.20 / 百万 tokens | \$0.75 / 百万 tokens | \$2.50 / 百万 tokens |
| **缓存输入** | \$0.02 / 百万 tokens | \$0.075 / 百万 tokens | — |
| **输出** | \$1.25 / 百万 tokens | \$4.50 / 百万 tokens | \$15.00 / 百万 tokens |
GPT-5.4 Mini 成本仅为旗舰 GPT-5.4 的 30%,而性能接近旗舰水准。Nano 更是仅为旗舰的 8%,极致性价比。
**与同级别竞品对比**:
| 模型 | 输入价格 | 输出价格 | 定位 |
| --------------------- | ---------- | ---------- | ----- |
| **GPT-5.4 Nano** | **\$0.20** | **\$1.25** | 极致轻量 |
| **GPT-5.4 Mini** | **\$0.75** | **\$4.50** | 高性价比 |
| Gemini 3.1 Flash Lite | \$0.25 | \$0.50 | 轻量快速 |
| Claude Haiku 4.5 | \$0.80 | \$4.00 | 快速响应 |
| GPT-5.2 mini | \$0.30 | \$1.80 | 前代小模型 |
### 优惠活动
API易 提供充值加赠优惠,官转 API 充值约 9 折起。定价与官网一致,通过充值优惠实现折扣,实际使用成本更低。
### 可用模型
| 模型名称 | 版本 | 上下文 | 说明 |
| -------------- | ---- | ---- | ------------ |
| `gpt-5.4-mini` | Mini | 400K | 高性价比,接近旗舰水准 |
| `gpt-5.4-nano` | Nano | 400K | 极致低成本,高吞吐量场景 |
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 支持 OpenAI 原生格式,兼容所有 OpenAI SDK
* 官转 API 通道,稳定可靠
## 总结与建议
GPT-5.4 Mini 和 Nano 的发布,让 GPT-5.4 系列的强大能力以极低成本触达更多开发者和应用场景。
**核心优势**:
* **Mini**:旗舰级能力,30% 的价格,2 倍速度
* **Nano**:极致低价,8% 的旗舰成本,适合规模化部署
**选型建议**:
1. **需要接近旗舰性能**:选 GPT-5.4 Mini,SWE-Bench Pro 54.4%,OSWorld 72.1%
2. **高吞吐量批处理**:选 GPT-5.4 Nano,\$0.20/百万输入 tokens
3. **代理架构子任务**:Nano 作为执行层,Mini 作为决策层
4. **OpenClaw 等场景**:Mini 和 Nano 均适用,按需选择性价比最优方案
5. **成本不敏感的专业任务**:仍推荐 GPT-5.4 旗舰或 Pro
API易已全面上架 GPT-5.4 Mini 和 Nano,定价与官网一致,官转 API 充值约 9 折起,立即体验 OpenAI 最强轻量级模型!
信息来源:OpenAI 官方博客(2026 年 3 月 17 日)、9to5Mac、The New Stack、Simon Willison's Weblog 等权威媒体报道。数据获取时间:2026 年 3 月 18 日。
# GPT-5.5 官转上线:OpenAI 最强前沿模型,xhigh 推理新档位
Source: https://docs.apiyi.com/news/gpt-5-5-launch
OpenAI 于 2026 年 4 月 23 日发布 GPT-5.5,距离 GPT-5.4 仅六周。SWE-bench 88.7%、幻觉率降低 60%,新增 xhigh 推理档位。API易官方直转通道已上架,定价与官网完全一致:输入 $5、输出 $30 / 百万 tokens。
## 核心要点
* **最新前沿模型**:OpenAI 面向最复杂专业工作打造的旗舰,距 GPT-5.4 仅 6 周
* **xhigh 推理档位**:reasoning.effort 新增 `xhigh`,覆盖 none / low / medium(默认)/ high / xhigh 五档
* **百万级上下文**:1,050,000 tokens 输入窗口、128,000 tokens 最大输出
* **官转通道**:API易上线 OpenAI 官方直转通道,模型质量与官网一致
* **定价持平官网**:\$5 / 百万输入、\$30 / 百万输出,缓存输入仅 \$0.50
## 背景介绍
2026 年 4 月 23 日,OpenAI 发布 GPT-5.5,定位为"面向最复杂专业工作的最新前沿模型"。距离 3 月初的 GPT-5.4 仅六周时间,OpenAI 的迭代节奏继续加速。
与 GPT-5.4 相比,GPT-5.5 的价格直接翻倍(GPT-5.4 标准版输入 \$2.50、输出 \$15)。OpenAI 给出的解释是:新模型在难任务上 token 效率显著提升,独立评测显示综合智能成本实际只增加约 20%。换句话说,**单价更贵,但解同一道题烧的 token 更少**。
GPT-5.5 系列包含三个版本:标准版 GPT-5.5、GPT-5.5 Thinking(扩展推理预算)、GPT-5.5 Pro(更高准确率,仅 Pro/Business/Enterprise 套餐可用)。本次 API易先行上线标准版 `gpt-5.5`,走的是 **OpenAI 官方直转通道**——模型权重、行为、限速与官网一致,无任何中转或降级。
## 详细解析
### 核心特性
reasoning.effort 新增 xhigh 档位,专为最难的多步推理与代码任务设计
SWE-bench Verified 达到 88.7%,刷新 OpenAI 自家纪录
较 GPT-5.4 减少约 60% 幻觉,专业场景输出更可靠
1.05M 输入 + 128K 输出,可吞下整套代码库或多份长文档
### reasoning.effort 五档详解
GPT-5.5 是 API易当前唯一支持五档推理强度的 OpenAI 模型:
| 档位 | 适用场景 | 说明 |
| ------------ | ----------- | ---------------- |
| `none` | 即时回复、简单问答 | 不投入推理 token,最快最省 |
| `low` | 日常对话、轻量任务 | 少量推理,平衡速度与质量 |
| `medium`(默认) | 通用任务 | 默认档位,覆盖大多数场景 |
| `high` | 复杂分析、长链推理 | 显著增加推理预算 |
| `xhigh` | 最难的代码、研究、规划 | 推理预算上限,新增档位 |
xhigh 档位会显著增加推理 token 消耗。建议先用 medium / high 试跑,确认确实需要时再升档到 xhigh。
### 性能亮点
| 评测项目 | GPT-5.5 | GPT-5.4 | 提升 |
| ---------------------- | ------------ | ------- | ------- |
| **SWE-bench Verified** | **88.7%** | \~85% | +3.7pp |
| **幻觉率** | **降低 60%** | 基线 | 大幅改善 |
| **Token 效率** | 同任务 token 更少 | 基线 | 抵消约一半涨价 |
数据来源:OpenAI 官方模型卡及 Microsoft Foundry 公告(2026 年 4 月 23 日)。基准测试结果可能因评测条件不同而存在差异。
### 技术规格
| 参数 | GPT-5.5 |
| -------------------- | -------------------------------------- |
| **模型名称** | `gpt-5.5` |
| **快照版本** | `gpt-5.5-2026-04-23` |
| **上下文窗口** | 1,050,000 tokens |
| **最大输出** | 128,000 tokens |
| **知识截止** | 2025 年 12 月 1 日 |
| **推理 token** | 支持 |
| **reasoning.effort** | none / low / medium / high / xhigh |
| **API 端点** | `/v1/chat/completions`、`/v1/responses` |
## 实际应用
### 推荐场景
GPT-5.5 的高单价决定了它**不是日常对话的首选**,更适合下列场景:
1. **复杂代码工程**:大型重构、跨文件 Bug 定位、SWE-bench 类多步任务
2. **专业知识研究**:法律、金融、医疗等需要严密推理与低幻觉的领域
3. **长上下文分析**:百万级代码库审计、多份长文档交叉对比
4. **自主代理任务**:需要多步规划、自我纠错的 agent 工作流
5. **xhigh 推理场景**:常规模型无法解决、需要最深推理预算的难题
### 代码示例
#### 标准调用(默认 medium 推理)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="gpt-5.5",
messages=[
{"role": "user", "content": "帮我重构这段 Python 代码并解释设计决策..."}
],
max_tokens=8192
)
print(response.choices[0].message.content)
```
#### 使用 xhigh 推理档
```python theme={null}
response = client.chat.completions.create(
model="gpt-5.5",
messages=[
{"role": "user", "content": "这是一个复杂的分布式系统死锁问题,请给出根因分析和修复方案..."}
],
reasoning_effort="xhigh",
max_tokens=16384
)
print(response.choices[0].message.content)
```
#### 节省成本:none 档跳过推理
```python theme={null}
response = client.chat.completions.create(
model="gpt-5.5",
messages=[
{"role": "user", "content": "把这段中文翻译成英文"}
],
reasoning_effort="none",
max_tokens=2048
)
print(response.choices[0].message.content)
```
### 最佳实践
1. **按任务难度选档**:简单任务用 `none` / `low`,难题再升 `xhigh`,避免无谓烧推理 token
2. **善用缓存输入**:缓存命中后输入价仅 \$0.50 / 百万 tokens,是原价的 1/10
3. **长上下文场景慎用 xhigh**:百万 tokens + xhigh 推理 = 单次成本可能很高,先评估必要性
4. **不是所有任务都需要 GPT-5.5**:对话、翻译、摘要等常规任务,GPT-5.4 标准版甚至更早版本可能更划算
## 价格与可用性
### 定价信息(与 OpenAI 官网完全一致)
| 计费项 | 单价 | 备注 |
| -------- | ------------------- | --------- |
| **输入** | \$5.00 / 百万 tokens | 标准输入 |
| **缓存输入** | \$0.50 / 百万 tokens | 命中缓存时,1 折 |
| **输出** | \$30.00 / 百万 tokens | 含推理 token |
### 与近期模型价格对比
| 模型 | 输入 | 输出 | 定位 |
| --------------- | ---------- | ----------- | ------------- |
| **GPT-5.5** | **\$5.00** | **\$30.00** | 最新前沿,xhigh 推理 |
| GPT-5.4 | \$2.50 | \$15.00 | 上代旗舰,性价比仍优 |
| Claude Opus 4.7 | \$5.00 | \$25.00 | 编程旗舰 |
| Gemini 3 Pro | \$2.00 | \$12.00 | 多模态 |
GPT-5.5 单价是 GPT-5.4 的两倍。如果任务用 GPT-5.4 已经能解决,**不建议盲目升级**。GPT-5.5 的价值主要在 xhigh 推理与最难任务上。
### 叠加网站充值活动
API易 提供充值加赠优惠,定价与官网一致,通过加赠折扣摊薄单次调用成本。
### 可用模型
| 模型名称 | 通道 | 说明 |
| -------------------- | ----------- | ------------- |
| `gpt-5.5` | OpenAI 官方直转 | 当前最新,自动跟随官网快照 |
| `gpt-5.5-2026-04-23` | OpenAI 官方直转 | 固定快照版本 |
### 购买渠道
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 兼容 OpenAI 原生 SDK,仅需替换 `base_url` 与 `api_key`
## 总结与建议
GPT-5.5 是 OpenAI 当前最强、也最贵的通用模型。它的价值集中在两个点:**xhigh 推理档位**和**显著降低的幻觉率**。
**适合升级的场景**:
* 已经在用 GPT-5.4 但仍碰到推理上限的难题
* 对幻觉敏感的专业领域(法律、金融、医疗、研究)
* 需要 xhigh 档位才能解决的多步代码 / 规划任务
**不建议升级的场景**:
* 常规对话、翻译、摘要等任务(GPT-5.4 或更早版本更划算)
* 高频调用、对单次成本敏感的应用
* 任务用 GPT-5.4 medium 推理已经稳定通过
API易已上线 GPT-5.5 **官方直转通道**,行为与官网一致,定价持平。建议先用小流量在自己的真实任务上对比 GPT-5.4 与 GPT-5.5 的效果差距,再决定是否切换。
信息来源:OpenAI 官方模型卡(developers.openai.com)、Microsoft Azure Foundry 公告、独立评测报道。数据获取时间:2026 年 4 月 25 日。
# GPT-5.5 Pro 官转上线:OpenAI 当前最强推理模型
Source: https://docs.apiyi.com/news/gpt-5-5-pro-launch
OpenAI 于 2026 年 4 月 24 日开放 GPT-5.5 Pro API,Terminal-Bench 2.0 达 82.7%、Expert-SWE 73.1%、GDPval 84.9%,单价为基础版 6 倍。API易官转通道已上架,仅对 SVIP 分组开放,单次调用可能数美金,请谨慎使用。
## 核心要点
* **OpenAI 当前最强推理**:面向最复杂专业工作流的旗舰推理版本,比基础版 GPT-5.5 准确率显著更高
* **顶级 agentic / 代码评测**:Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9%
* **百万级上下文**:1,050,000 tokens 输入窗口、128,000 tokens 最大输出
* **阶梯计费**:0–272K 区间 \$30 / \$180 每百万 tokens;272K–∞ 区间 \$60 / \$270,长上下文 2x 溢价
* **仅 SVIP 分组开放**:未对 Default 默认分组开放,防止误用——**单次调用可能数美金**,请确认场景必要性后再调
## 背景介绍
2026 年 4 月 23 日 (UTC+8),OpenAI 在发布 GPT-5.5 的同时推出 **GPT-5.5 Pro** 旗舰推理版本,4 月 24 日全面开放 API。GPT-5.5 Pro 定位为"OpenAI 当前最强推理模型",针对最复杂的专业研究、长链代码、自主代理工作流场景。
与基础版 GPT-5.5(输入 \$5、输出 \$30)相比,GPT-5.5 Pro 的单价直接 **翻 6 倍**——输入 \$30、输出 \$180 / 百万 tokens。OpenAI 的解释是:Pro 版投入更高的推理预算与更严格的多次验证流程,在最难的任务上准确率显著领先,但对应的算力成本也呈指数级上升。
API易经过一周的稳定性观察后,于 2026 年 5 月 3 日正式上线 `gpt-5.5-pro` **OpenAI 官方直转通道**,行为、限速与官网完全一致。考虑到该模型单次调用可能消耗数美金,**仅对 SVIP 分组开放**,未挂载到 Default 默认分组——避免新用户因误调用而产生意外费用。
## 详细解析
### 核心特性
Terminal-Bench 2.0 82.7%,刷新 OpenAI 自家 agentic 编程纪录
Expert-SWE long-horizon benchmark 73.1%,跨文件多步任务表现领先
GDPval 综合专业评测 84.9%,覆盖律师、医生、研究员等高门槛任务
1.05M 输入 + 128K 输出,可吞下整个代码库或多份长文档
### 性能亮点
| 评测项目 | GPT-5.5 Pro | 说明 |
| ---------------------- | ----------- | ------------------------ |
| **Terminal-Bench 2.0** | **82.7%** | OpenAI 当前最高 agentic 编程得分 |
| **Expert-SWE** | **73.1%** | 内部长链 SWE 评测,跨文件多步推理 |
| **GDPval** | **84.9%** | 综合专业评测,覆盖多个高门槛行业 |
| **FrontierMath** | SOTA | 前沿数学题,开放评测之一 |
| **CyberGym** | SOTA | 网络安全推理评测 |
数据来源:OpenAI 官方模型卡(2026 年 4 月 23 日)。基准测试结果可能因评测条件不同而存在差异。Pro 版相比基础 GPT-5.5 在所有难任务上都有显著提升,但日常任务差距不明显。
### 技术规格
| 参数 | GPT-5.5 Pro |
| ------------ | -------------------------------------- |
| **模型名称** | `gpt-5.5-pro` |
| **快照版本** | `gpt-5.5-pro-2026-04-23` |
| **上下文窗口** | 1,050,000 tokens |
| **最大输出** | 128,000 tokens |
| **知识截止** | 2025 年 12 月 1 日 |
| **推理 token** | 支持(推理预算高于基础版) |
| **API 端点** | `/v1/chat/completions`、`/v1/responses` |
| **可用分组** | **仅 SVIP** |
## 实际应用
### 推荐场景
GPT-5.5 Pro 的高单价决定了它**不是日常对话或常规任务的选择**,仅适合下列高价值场景:
1. **最难的代码工程**:百万行代码库审计、跨多模块死锁定位、Expert-SWE 类长链任务
2. **专业领域研究**:法律深度分析、医学临床决策、金融复杂建模等容错率极低的任务
3. **长上下文综合分析**:百万 tokens 级别的多文档交叉对比、合同审查、专利分析
4. **自主代理多步规划**:需要严密推理、自我纠错的复杂 agent 工作流
5. **基础版搞不定的难题**:先用 `gpt-5.5` 试跑,确认无法解决再升 Pro 版
### 代码示例
#### 标准调用
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key", # 需 SVIP 分组的 KEY
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="gpt-5.5-pro",
messages=[
{"role": "user", "content": "请分析这份 800 页合同的潜在合规风险..."}
],
max_tokens=16384
)
print(response.choices[0].message.content)
```
#### 长上下文场景(注意 272K 阶梯)
```python theme={null}
response = client.chat.completions.create(
model="gpt-5.5-pro",
messages=[
{"role": "user", "content": long_codebase_audit_prompt} # 总 tokens > 272K
],
max_tokens=32768
)
# 注意:超过 272K 上下文后,input/output 单价翻倍
# 单次成本可能从几美金跃升至十几美金,请谨慎评估
```
### 最佳实践
1. **先用基础版兜底**:90% 的"难题"用 `gpt-5.5` 已能解决,只有真正卡住才升 Pro
2. **控制上下文长度**:尽量保持总 tokens 在 272K 以内,避开长上下文 2x 阶梯
3. **设置硬性预算上限**:在自家应用层加 `max_tokens` 与单 user 配额,防止意外烧费
4. **批量任务用 Batch**:如果是离线批处理,OpenAI 官方 Batch API 享 50% 折扣(API易暂未开放该折扣通道)
5. **不适合实时高频场景**:单次响应慢、单价高,不要拿它做 chat-bot 后端
## 价格与可用性
### 定价信息(阶梯计费)
| 上下文区间 | 输入价格 | 输出价格 | 备注 |
| ------------------- | ------------------- | -------------------- | ---------------- |
| **0 – 272K tokens** | \$30.00 / 百万 tokens | \$180.00 / 百万 tokens | 标准段,对齐 OpenAI 官网 |
| **272K – ∞ tokens** | \$60.00 / 百万 tokens | \$270.00 / 百万 tokens | 长上下文段,2x 溢价 |
### 单次调用成本估算
| 场景 | 输入 tokens | 输出 tokens | 估算成本 |
| ----------- | --------- | --------- | ---------------------- |
| 短问答 | 5K | 2K | 约 \$0.51 |
| 中等代码 review | 50K | 8K | 约 \$2.94 |
| 长文档分析 | 200K | 16K | 约 \$8.88 |
| **超长上下文审计** | **500K** | **32K** | **约 \$24.84**(含 2x 溢价) |
**单次调用可能数美金到十几美金**。本站为防止误用,未对 Default 默认分组开放 `gpt-5.5-pro`,**仅 SVIP 分组可调用**。请在确认场景必要性后再使用,并务必在应用层设置预算告警。
### 与近期模型价格对比
| 模型 | 输入 | 输出 | 定位 |
| --------------- | ----------- | ------------ | ------------- |
| **GPT-5.5 Pro** | **\$30.00** | **\$180.00** | OpenAI 当前最强推理 |
| GPT-5.5 | \$5.00 | \$30.00 | 基础版前沿模型 |
| GPT-5.4 | \$2.50 | \$15.00 | 上代旗舰,性价比仍优 |
| Claude Opus 4.7 | \$5.00 | \$25.00 | 编程旗舰 |
| Gemini 3 Pro | \$2.00 | \$12.00 | 多模态 |
### 叠加网站充值活动
API易 提供充值加赠优惠,定价与官网一致,通过加赠折扣摊薄单次调用成本。
### 可用模型与分组
| 模型名称 | 通道 | 分组 | 说明 |
| ------------------------ | ----------- | -------- | ------------- |
| `gpt-5.5-pro` | OpenAI 官方直转 | **SVIP** | 当前最新,自动跟随官网快照 |
| `gpt-5.5-pro-2026-04-23` | OpenAI 官方直转 | **SVIP** | 固定快照版本 |
如需开通 SVIP 分组权限,请联系客服或在后台「分组管理」查看升级条件。
## 总结与建议
GPT-5.5 Pro 是 OpenAI 当前最强、也最贵的通用推理模型。它的价值集中在**最难任务的准确率天花板**——Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9% 这三个数字只对真的卡在难题上的人有意义。
**适合升级 Pro 的场景**:
* 已经用 GPT-5.5 基础版试跑,确认仍无法解决的难题
* 对单次错误成本极高的专业领域(法律、医疗、金融、科研)
* 长链代码、跨文件多步重构、深度 agent 工作流
* 单次调用价值远高于 \$5–\$15 成本的高 ROI 场景
**不建议用 Pro 的场景**:
* 常规对话、翻译、摘要、代码补全(GPT-5.5 或 GPT-5.4 完全够用)
* 高频、低延迟要求的应用(Pro 响应较慢)
* 对单次成本敏感、用户量大的 to-C 产品
API易已上线 GPT-5.5 Pro **OpenAI 官方直转通道**,行为与官网一致、定价持平。**仅 SVIP 分组开放**,建议先在小流量、可控预算下评估实际收益,再决定是否在生产环境放开。
信息来源:OpenAI 官方模型卡(developers.openai.com)、Inworld AI 模型库、独立评测报道。数据获取时间:2026 年 5 月 3 日 (UTC+8)。
# OpenAI GPT Image 1.5 正式上线:4倍速度提升,精准编辑新体验
Source: https://docs.apiyi.com/news/gpt-image-1-5-launch
OpenAI 最新图片生成模型 GPT Image 1.5 震撼发布!生成速度提升4倍,支持精准编辑保持细节一致,文本渲染能力大幅增强,价格更优惠。API易已于12月17日同步上线。
## 核心要点
* **⚡ 4倍速度提升**:图片生成速度比前代 GPT-Image-1 快4倍,大幅缩短等待时间
* **🎯 精准编辑能力**:支持局部编辑,保持光照、构图、人物外观一致,避免整体重绘
* **📝 文本渲染增强**:更好地渲染小而密集的文本,适合海报、宣传图等场景
* **💰 价格更优惠**:比前代降低20%,低质量 \$0.01/张、中质量 \$0.04/张、高质量 \$0.17/张
* **🚀 即刻可用**:API易已于12月17日同步上线,所有用户均可使用,充值活动享额外折扣
## 背景介绍
2025年12月16日,OpenAI 正式发布了新一代图片生成模型 **GPT Image 1.5**,这是继 DALL-E 3 和 GPT-Image-1 之后的又一次重大升级。此次发布正值 AI 图片生成领域竞争白热化之际,紧随 Google Gemini 3 和其他竞品之后,OpenAI 加快了产品迭代节奏。
GPT Image 1.5 的核心改进集中在**速度、精准度和成本**三个方面。官方数据显示,新模型的生成速度提升了4倍,同时引入了业界领先的精准编辑功能,用户可以对上传的图片进行局部修改,而不会影响其他区域的视觉一致性。这一突破性功能将大幅提升设计师、创作者和开发者的工作效率。
API易团队在第一时间完成了模型接入,于**2025年12月17日**正式向所有用户开放 GPT Image 1.5 API 调用服务。定价与 OpenAI 官网保持一致,同时支持充值活动的额外折扣,为开发者提供更高性价比的选择。
## 详细解析
### 核心特性
生成速度比 GPT-Image-1 快4倍,显著缩短从提示词到成图的等待时间。适合需要快速迭代和批量生成的场景。
支持局部编辑功能,可针对特定区域进行修改(如调整表情、改变光照),同时保持其他区域的构图、色调、人物外观完全一致,避免整体重绘。
大幅提升小字体、密集文本的渲染质量,适合生成包含大量文字的海报、宣传图、信息图表等内容。
API 调用成本比前代降低20%,三种质量档位分别为 \$0.01(低)、\$0.04(中)、\$0.17(高),性价比进一步提升。
### 性能亮点
#### 1. 生成速度对比
GPT Image 1.5 相比前代模型,生成速度提升了**4倍**。以中等质量的正方形图片为例:
| 模型 | 平均生成时间 | 速度提升 |
| ---------------------- | ------ | ---- |
| GPT-Image-1 (DALL-E 3) | 约 12 秒 | - |
| GPT Image 1.5 | 约 3 秒 | 4倍 ⚡ |
这意味着在批量生成、快速迭代场景下,开发者可以节省大量时间成本。
#### 2. 精准编辑能力
GPT Image 1.5 引入了业界领先的**后期编辑功能**,用户可以:
* 上传一张现有图片
* 使用自然语言描述需要修改的部分(如"让人物微笑""把天空改为夜晚""调整光线更冷")
* 模型仅修改指定区域,保持其他部分的视觉一致性(人物外观、构图、色调等)
这一功能特别适合需要微调图片细节的场景,避免了传统方法中"整体重新生成"导致的不可控变化。
#### 3. 文本渲染改进
相比前代模型,GPT Image 1.5 在渲染小字体和密集文本时表现更出色。适合以下场景:
* 海报设计(包含标题、副标题、正文)
* 宣传图制作(产品介绍、价格标签)
* 信息图表(数据可视化、流程图)
* 社交媒体配图(带文字说明的图片)
### 技术规格
| 规格项 | GPT Image 1.5 |
| ------- | --------------------- |
| 支持的图片尺寸 | 正方形、横向、纵向(多种分辨率) |
| 输入方式 | 文本提示词 + 可选参考图片 |
| 编辑功能 | 支持局部编辑、保持视觉一致性 |
| API 端点 | `gpt-image-1.5` |
| 可用性 | ChatGPT 所有用户 + API 调用 |
## 实际应用
### 推荐场景
* 快速生成产品原型图
* 创意海报和宣传素材
* 社交媒体配图和封面
* 品牌视觉资产制作
* 博客文章配图
* 电商产品展示图
* 广告素材快速迭代
* 信息图表和数据可视化
* 局部调整图片细节
* 修改人物表情和姿态
* 调整光照和色调
* 添加/修改文字内容
* 游戏资产批量制作
* 多版本设计方案对比
* A/B 测试素材准备
* 大规模内容生产
### 代码示例
以下是使用 API易 调用 GPT Image 1.5 的 Python 示例:
```python theme={null}
import openai
# 配置 API易 端点
client = openai.OpenAI(
api_key="your-apiyi-api-key", # 替换为你的 API易 密钥
base_url="https://api.apiyi.com/v1"
)
# 示例1:文本生成图片
response = client.images.generate(
model="gpt-image-1.5",
prompt="一只在太空中漂浮的宇航猫,背景是五彩斑斓的星云,高清写实风格",
size="1024x1024",
quality="standard", # 可选:standard (中质量) 或 hd (高质量)
n=1
)
print(f"图片URL: {response.data[0].url}")
# 示例2:编辑现有图片(精准编辑功能)
# 注意:需要先将图片转为 base64 或提供 URL
edit_response = client.images.edit(
model="gpt-image-1.5",
image=open("original.png", "rb"), # 原始图片
prompt="让猫咪的表情变得更开心,保持其他部分不变",
size="1024x1024",
n=1
)
print(f"编辑后的图片URL: {edit_response.data[0].url}")
```
### 最佳实践
**提示词优化建议**:
* 详细描述场景、风格、色调、光照等细节
* 使用"高清""写实""插画风格"等关键词控制画风
* 编辑时明确指出需要修改的区域,避免整体重绘
* 多次迭代时,使用精准编辑功能而非重新生成
**使用限制**:
* 遵守 OpenAI 使用政策,禁止生成暴力、色情、侵权内容
* 商业使用需遵循相关版权和授权规定
* API 调用有速率限制,具体限制视账户等级而定
## 价格与可用性
### 定价信息
GPT Image 1.5 比前代 GPT-Image-1 降价 **20%**,具体定价如下:
| 质量档位 | 分辨率示例 | 每张价格 | 适用场景 |
| ------------ | ------------- | ------ | ---------- |
| **Low** | 1024x1024 | \$0.01 | 快速原型、测试迭代 |
| **Standard** | 1024x1024 | \$0.04 | 常规设计、内容创作 |
| **HD** | 1024x1024 及以上 | \$0.17 | 高质量输出、商业用途 |
**定价说明**:
* 价格基于正方形图片(1024x1024)计算
* 不同尺寸的价格可能略有差异,详见官方文档
* 图片编辑功能与生成功能价格相同
* 数据来源:OpenAI 官方定价(2025年12月16日发布)
### 优惠活动
在 API易 使用 GPT Image 1.5,除了享受与官网一致的定价外,还可通过**充值活动**获得额外折扣:
* 充值 \$100 可获赠额外额度
* 充值越多,赠送比例越高(最高可达8折优惠)
* 详情请访问 API易 官网或联系客服
### 购买渠道
GPT Image 1.5 已在以下渠道可用:
1. **API易 API 服务**(推荐)
* 地址:`api.apiyi.com`
* 支持 OpenAI SDK 直接调用
* 享受充值活动折扣
2. **ChatGPT 网页版**
* 免费用户、Plus 用户、Enterprise 用户均可使用
* 在对话中直接请求生成或编辑图片
3. **OpenAI 官方 API**
* 官网定价,无额外折扣
## 总结与建议
GPT Image 1.5 是 OpenAI 在图片生成领域的一次重要升级,**4倍速度提升**、**精准编辑功能**和**20%降价**三大亮点使其成为目前市场上极具竞争力的图片生成模型。
### 推荐使用场景
* ✅ **设计师和创作者**:利用精准编辑功能快速调整细节,避免重复生成
* ✅ **内容营销团队**:批量生成高质量配图,加速内容生产流程
* ✅ **开发者**:集成到应用中,为用户提供图片生成和编辑能力
* ✅ **电商从业者**:快速制作产品展示图、广告素材
### 使用建议
1. **优先使用精准编辑**:对于需要微调的图片,使用编辑功能而非重新生成,节省成本和时间
2. **选择合适的质量档位**:测试和原型阶段使用 Low/Standard,正式发布使用 HD
3. **优化提示词**:详细的提示词能显著提升生成质量,减少重试次数
4. **利用充值活动**:在 API易 充值可享额外折扣,降低长期使用成本
**信息来源与日期**:
* OpenAI 官方博客发布日期:2025年12月16日
* API易 接入上线日期:2025年12月17日
* 官方公告:`openai.com/index/new-chatgpt-images-is-here/`
* 技术分析来源:TechCrunch、SiliconANGLE、VentureBeat 等科技媒体
***
立即体验 GPT Image 1.5 的强大能力,访问 API易 官网获取 API 密钥,或在 ChatGPT 中直接使用!
# gpt-image-2-all 上线:$0.03/张 GPT 官逆图像模型
Source: https://docs.apiyi.com/news/gpt-image-2-all-launch
API易上线 GPT 图像生成官逆模型 gpt-image-2-all!$0.03/张按次计费,约30秒出图,支持文生图、多图融合编辑、自然语言改图,文字还原度高、中文提示词原生友好。
## 核心要点
* **官逆通道稳定**:GPT 图像生成官方逆向模型,行为对齐官方能力
* **极具竞争力定价**:统一 \$0.03/张,无分辨率阶梯,成本完全可预测
* **三大能力覆盖**:文生图 / 单图编辑 / 多图融合 / 自然语言改图,一站到位
* **文字还原度高**:招牌、海报、信息图中的中英文字渲染稳定
* **中文提示词原生**:无需翻译即可获得高质量输出
* **30 秒出图**:约 30 秒返回,R2 CDN 加速下载
## 背景介绍
2026 年 4 月,API易 正式上线 **gpt-image-2-all** —— 一款 GPT 图像生成的\*\*官方逆向(官逆)\*\*模型。在官方 GPT-Image-1.5 走阶梯计费、单张高质量图成本可达 \$0.20 的背景下,gpt-image-2-all 以 **统一 \$0.03/张** 的按次计费方式,为需要"成本可控 + 文字强 + 中文友好"的场景提供了更经济的选择。
对于大量面向中文用户的信息图、营销海报、社交媒体内容生产场景,这是一个在保留 GPT 图像生成风格基础上,把单张成本拉到一个全新水位的选择。
## 详细解析
### 新增模型
**GPT 图像生成官逆模型**
统一 \$0.03/张,约 30 秒出图,支持文生图、单图编辑、多图融合、自然语言改图。无需关心 size/n/quality 等参数,尺寸与风格全部写进 prompt 即可。
### 模型对比
| 特性 | **gpt-image-2-all** | GPT-Image-1.5(官转) | Nano Banana 2 |
| ----- | ------------------- | ----------------------- | ---------------- |
| 通道性质 | 官方逆向 | 官方直连 | 官方直连 |
| 计费方式 | 统一按次 | 按分辨率阶梯 + Token | 按次 / 按量 |
| 典型价格 | **\$0.03/张** | 低 \$0.009 \~ 高 \$0.20/张 | \$0.055/次 |
| 出图速度 | 约 30 秒 | 约 10 秒 | 约 5-15 秒 |
| 尺寸控制 | 通过 prompt 描述 | `size` 参数 | `aspectRatio` 参数 |
| 中文提示词 | ✅ 原生友好 | ✅ 支持 | ✅ 支持 |
| 文字渲染 | ✅ 高还原度 | ⭐⭐⭐⭐⭐ 最强 | ⭐⭐⭐⭐ 优秀 |
| 多图融合 | ✅ `image[]` 数组 | ✅ 编辑接口 | ✅ inlineData |
| 内容限制 | 较少 | 较严格 | 中等 |
**选择建议**:
* 💰 **成本敏感、中文场景** → gpt-image-2-all(\$0.03/张统一价)
* 🎨 **极致文字渲染、官方直连** → GPT-Image-1.5
* 🍌 **4K 大图、14 种比例** → Nano Banana 2
### 三端点兼容
gpt-image-2-all 同时兼容三个标准 OpenAI 风格端点:
1. **文生图**:`POST /v1/images/generations`(JSON)
2. **图片编辑**:`POST /v1/images/edits`(multipart/form-data)
3. **对话式**:`POST /v1/chat/completions`(适合多轮 + 参考图)
可以无缝复用已有的 OpenAI SDK 和工作流,只需切换 `base_url` 和 `model` 即可。
### 重要注意事项
**不接受 size/n/quality/aspect\_ratio 字段**
本模型为自适应模型,传入这些字段可能触发参数校验错误。**尺寸和比例请直接写进 `prompt`**,并把尺寸词放在提示词最前面,模型遵循度更高。
推荐写法示例:
* `横版 16:9 电影画幅,黄昏时的海边老灯塔`
* `1024×1024 方形 LOGO,极简猫咪线条`
* `竖版 9:16 手机海报,赛博朋克雨夜`
**b64\_json 字段已含 data URL 前缀**
与部分旧版 OpenAI 兼容模型不同,本模型返回的 `b64_json` 字段已经包含 `data:image/png;base64,` 前缀,可直接用作 HTML `
`。**请不要再手动拼接前缀**,否则会产出损坏的 data URL。
建议先用 `startsWith('data:')` 做兼容性检测。
## 实际应用
### 快速开始(Python)
```python theme={null}
import requests
response = requests.post(
"https://api.apiyi.com/v1/images/generations",
headers={"Authorization": "Bearer sk-your-api-key"},
json={
"model": "gpt-image-2-all",
"prompt": "横版 16:9 电影画幅,黄昏时的海边老灯塔",
"response_format": "url"
},
timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时
).json()
print(response["data"][0]["url"])
```
### 多图融合(cURL)
```bash theme={null}
curl -X POST "https://api.apiyi.com/v1/images/edits" \
-H "Authorization: Bearer sk-your-api-key" \
-F "model=gpt-image-2-all" \
-F "prompt=把图1的人物放进图2的场景,参考图3的画风" \
-F "response_format=url" \
-F "image[]=@./ref1.png" \
-F "image[]=@./ref2.png" \
-F "image[]=@./ref3.png"
```
### 适用场景
海报、直播封面、社交媒体图文,中文文字渲染稳定
多图融合生成产品场景图,比合成软件更灵活
带文字标注的信息图,成本远低于官方 high 质量
无需蒙版,通过自然语言描述迭代修改画面
## 价格与可用性
| 项目 | 详情 |
| --------- | -------------------- |
| **模型名** | `gpt-image-2-all` |
| **定价** | \$0.03 / 张,按次计费 |
| **计费规则** | 统一定价,不区分分辨率/质量/提示词长度 |
| **失败请求** | 不计费(鉴权失败、参数校验失败) |
| **N 张生成** | 单次 1 张,N 张请客户端并行调用 |
| **充值优惠** | 可叠加充值加赠活动 |
**接入即可使用**:已有 API易 令牌可直接调用,无需特殊开通。
## 总结与建议
gpt-image-2-all 的核心价值是 **"GPT 风格 + 中文友好 + 成本可预测"**:
* ✅ 如果你的业务大量产出中文内容营销物料 → 推荐作为**主力生图通道**
* ✅ 如果对文字渲染有极致要求 → 可作为 **GPT-Image-1.5 的补充**(成本敏感任务走 gpt-image-2-all,极致文字任务走 1.5)
* ⚠️ 如果对分辨率/宽高比有严格参数化控制需求 → 更推荐 **Nano Banana 2**(支持 14 种宽高比、4K 输出)
立即开始使用:
查看完整能力说明与最佳实践
在线调试文生图接口
上传图片实测改图/融合
查看最新充值加赠活动
# OpenAI gpt-image-2 正式上线:原生 4K + 降价 30%
Source: https://docs.apiyi.com/news/gpt-image-2-launch
OpenAI 旗舰图像生成模型 gpt-image-2 震撼发布!原生支持 2K/4K 任意分辨率、参考图自动高保真、价格较 1.5 降低 20-30%。API易已同步上线,OpenAI SDK 零改动直连。
## 核心要点
* **🖼️ 原生 2K/4K**:单次出图最大 3840×2160(约 8.3MP),不再需要外挂超分
* **🎯 参考图自动高保真**:编辑/融合自动启用 high-fidelity,无需手动设 `input_fidelity`
* **💰 同档降价 20-30%**:相比 `gpt-image-1.5` 同尺寸 + 同画质,token 成本明显下降
* **🌏 中文提示词原生支持**:无需翻译即可获得高质量结果,文字渲染更稳
* **🔌 OpenAI SDK 零改动**:把 `base_url` 指向 `api.apiyi.com/v1` 即可直接调用
* **🛠️ 能力齐全**:文生图 / 参考图编辑 / 多图融合(最多 5 张)/ mask 局部重绘
## 背景介绍
2026 年 4 月,OpenAI 正式发布 **gpt-image-2**,作为 `gpt-image-1.5` 的旗舰升级版。这是 OpenAI 在图像生成赛道的又一次结构性提速:上一代 `gpt-image-1.5` 主打"速度提升 4 倍 + 精准编辑",而这一代把焦点放到了**分辨率上限**与**单位成本**两个长期痛点上。
`gpt-image-2` 最直接的变化是**任意合法尺寸**——只要满足"最大边 ≤ 3840px、两边都是 16 的倍数、长短比 ≤ 3:1、总像素 0.65MP–8.3MP"四个约束,就能直接出图。这意味着 4K 横屏壁纸、1792×1024 电影画幅、3200×1800 信息图等以往需要超分后处理的尺寸,现在一次出图就能拿到。
API易团队在第一时间完成了模型接入,OpenAI 官方 SDK 仅需修改 `base_url` 即可直接调用 `gpt-image-2`,零代码改动迁移。
## 详细解析
### 核心特性
支持任意合法尺寸输出,预设涵盖 1K / 2K / 3840×2160 4K,自定义尺寸只需满足边长 16 倍数、比例 ≤ 3:1 等基本约束。
编辑场景下自动启用 high-fidelity 处理,参考图细节、人物身份、文字内容保留度大幅提升。**无需也不能**再传 `input_fidelity` 参数。
1024×1024 高画质从 1.5 时代的 \$0.25 级别降到 \$0.211/张,2K/4K 按 token 实计但同样下行,长期使用成本明显降低。
中文提示词原生支持,招牌、海报、UI 截图等场景的中英文文字渲染稳定,`high` 档位下精细文字几乎不糊。
### 性能与规格
| 维度 | gpt-image-2 |
| --------- | ------------------------------------- |
| 输出分辨率 | 任意合法尺寸(1K/2K/4K,最大 3840×2160) |
| 画质档位 | `auto` / `low` / `medium` / `high` |
| 输出格式 | `png`(默认) / `jpeg` / `webp` |
| 单次出图 | 1 张(`n=1`) |
| 速度 | 约 120 秒(高画质 4K 接近 2 分钟) |
| 中文提示词 | ✅ 原生支持 |
| 参考图上限 | 5 张(`image[]`) |
| mask 局部重绘 | ✅ 支持(要求带 alpha 通道) |
| 透明背景 | ❌ 暂不支持(`background: transparent` 会报错) |
### 与 gpt-image-1.5 的关键差异
| 对比项 | gpt-image-1.5 | **gpt-image-2** |
| ------ | -------------------- | ------------------- |
| 最大分辨率 | 1024×1536 | **3840×2160(4K)** |
| 自定义尺寸 | 受限的几个预设 | **任意合法尺寸** |
| 参考图高保真 | 需手动 `input_fidelity` | **自动启用** |
| 同档价格 | 基准 | **降低 20-30%** |
| 透明背景 | ✅ 支持 | ❌ 暂不支持 |
| 出图速度 | 约 30 秒 | 约 120 秒(换更大尺寸/更高保真) |
超过 `2560×1440`(约 3.69MP)的输出目前官方标记为**实验性**,可能出现质量波动。生产环境建议优先用预设尺寸:`2048x1152` / `2048x2048` / `3840x2160` 等。
## 实际应用
### 推荐场景
一次出图直达 4K(3840×2160 / 2160×3840),适合电影海报、桌面壁纸、视频预览图、大屏物料等以往要走超分管线的场景。
参考图自动高保真,传入角色立绘后做不同场景的二次创作,人物身份、服饰、配色保留度显著提升。
最多 5 张参考图 + mask 软引导,支持"图1人物 + 图2场景 + 图3风格"这类复合编辑指令。
支持 3:1 内的任意比例,1792×1024 电影画幅、3200×1800 长图、2048×1152 视频封面均可一次成图。
### 代码示例
#### 文生图(Python,OpenAI SDK 直连)
```python theme={null}
from openai import OpenAI
import base64
client = OpenAI(
api_key="your-apiyi-api-key",
base_url="https://api.apiyi.com/v1"
)
resp = client.images.generate(
model="gpt-image-2",
prompt="赛博朋克城市雨夜,霓虹招牌特写,电影画幅",
size="2048x1152",
quality="high",
output_format="jpeg",
output_compression=85
)
with open("out.jpg", "wb") as f:
f.write(base64.b64decode(resp.data[0].b64_json))
```
#### 多图融合 + 高保真编辑
```python theme={null}
resp = client.images.edit(
model="gpt-image-2",
image=[
open("person.png", "rb"),
open("scene.png", "rb"),
open("style.png", "rb"),
],
prompt="把图1人物放进图2场景,沿用图3的色彩风格",
size="1536x1024",
quality="high"
)
with open("edited.png", "wb") as f:
f.write(base64.b64decode(resp.data[0].b64_json))
```
**响应格式说明**:`gpt-image-2` 返回的是**纯 base64 字符串**(无 `data:image/...;base64,` 前缀),需要客户端自行 decode 写文件,或在浏览器端拼前缀渲染。
### 最佳实践
**生产环境建议**:
* 尺寸优先选官方预设(1024×1024 / 1536×1024 / 2048×1152 / 3840×2160 等),速度和质量更稳定
* 默认 `output_format=jpeg` + `output_compression=85`,比 PNG 快且体积小一半以上
* 文字 / 招牌 / 海报场景锁 `quality=high`,低档位文字仍可能糊
* 客户端超时建议 **360 秒起步**(保守值;`quality=high` + 2K/4K 实测可能 3-5 分钟,按 120 秒配会大量误超时)
* 5xx 与超时做指数退避,最多重试 2 次;记录 `x-request-id` 便于排障
**迁移注意**:
* 原先传了 `input_fidelity` 的代码必须**移除该参数**,新模型强制高保真,传了会报错
* 原先用 `background: "transparent"` 的代码暂不可用,需改用 `opaque` 或后处理抠透明
* 单次仍只能出 1 张(`n=1`),需要多张请并发调用
## 价格与可用性
### 定价信息(按 token 实计,常用预设参考价)
| 画质 | 1024×1024 | 1024×1536 | 1536×1024 |
| ---------- | --------- | --------- | --------- |
| **Low** | \$0.006 | \$0.005 | \$0.005 |
| **Medium** | \$0.053 | \$0.041 | \$0.041 |
| **High** | \$0.211 | \$0.165 | \$0.165 |
**定价说明**:
* 2K/4K 无固定每张价,按输入 + 输出 token 实计
* 编辑场景因强制高保真,输入 token 会明显高于纯文生图
* 流式出图(`stream: true` + `partial_images: N`)每张 partial 额外消耗 100 个输出 image token
* 数据来源:OpenAI 官方定价(2026年4月)
### 叠加网站充值活动
在 API易 使用 `gpt-image-2`,除享受与官网一致的按 token 计价外,还可叠加充值活动赠送额度,最高可达 8 折。详情见:
📖 充值活动说明:`docs.apiyi.com/faq/recharge-promotions`
### 与 gpt-image-2-all(官逆)的选型
| 选 | 场景 |
| ----------------------- | ------------------------------------ |
| **gpt-image-2**(官方) | 需要精确控制 size / quality、对官方契约有强依赖、要 4K |
| **gpt-image-2-all**(官逆) | 追求统一价 \$0.03/张、约 30 秒出图、参数极简 |
## 总结与建议
`gpt-image-2` 把"原生大分辨率 + 自动高保真 + 同档降价"三件事一次给齐,对**大图物料生产**和**带参考图的二创编辑**两类场景是结构性升级。
### 推荐使用场景
* ✅ **设计 / 视频团队**:直接出 4K 海报、视频封面、桌面壁纸,省掉超分后处理
* ✅ **IP / 角色一致性**:参考图自动高保真,做角色二创、不同场景延展
* ✅ **多图融合工作流**:最多 5 张参考图 + mask,复合编辑指令一次到位
* ✅ **从 1.5 平滑迁移**:删掉 `input_fidelity`、避开 `transparent`,其它字段不动即可跑通
### 使用建议
1. **不需要 4K 时仍用 1K 预设**:1024×1024 /1536×1024 出图最快,成本最低
2. **编辑请求预算要留足**:因强制高保真,输入 token 会明显高于纯文生图
3. **超时配置 ≥ 360 秒**:`quality=high` + 2K/4K 实测可能 3-5 分钟,前端务必给进度反馈
4. **走预设尺寸更稳**:超过 2560×1440 仍属实验性,生产环境慎用
**信息来源与日期**:
* OpenAI 官方文档:`developers.openai.com/api/docs/guides/image-generation`
* API易 接入文档:`docs.apiyi.com/knowledge-base/gpt-image-2-API-for-user`
* 数据获取日期:2026年4月23日
***
立即体验 `gpt-image-2` 的原生 4K 出图能力,访问 API易 官网获取 API 密钥,OpenAI SDK 直接 `base_url=https://api.apiyi.com/v1` 即可调用!
# Grok 4.20 Beta 系列上线:四智能体协作架构,200 万上下文
Source: https://docs.apiyi.com/news/grok-4-20-beta-launch
xAI 发布 Grok 4.20 Beta 系列 4 款模型,采用四智能体协作架构,200 万 token 上下文,统一定价输入 $2 / 输出 $6 每百万 tokens。API易已全面上架。
## 核心要点
* **四智能体架构**:Grok 4.20 的核心创新——4 个专业智能体并行思考、相互辩论后输出最终答案,幻觉率降低约 65%
* **200 万上下文**:相比 Grok 4 的 256K,上下文窗口提升 8 倍至 200 万 tokens
* **4 款模型覆盖全场景**:推理版、多智能体版、基础版、非推理版,满足从极速响应到深度研究的各类需求
* **统一低价**:输入 \$2 / 输出 \$6 每百万 tokens,比 Grok 4(\$3/\$15)大幅降价
* **多模态输入**:支持文本 + 图片(JPG、PNG)输入
## 背景介绍
2026 年 2 月 17 日,xAI 在 `grok.com` 上首次发布 Grok 4.20 Beta 消费端产品,3 月 9-10 日正式开放 API 访问,包含 3 个独立模型变体。Grok 4.20 是 Grok 系列的重大升级,从单一模型架构演进为多智能体协作系统。
Grok 4.20 的核心创新在于四智能体协作架构:Grok(队长/协调者)、Harper(研究与事实核查)、Benjamin(逻辑/数学/编程专家)、Lucas(创意综合与"唱反调"角色)。四个智能体并行运作、相互辩论,最终输出更准确、更全面的答案。
API易已在第一时间上架全部 4 款模型,统一定价与 xAI 官网一致。
## 详细解析
### 4 款模型对比
| 模型 | 定位 | 适用场景 |
| ----------------------------------- | ------ | ----------------- |
| `grok-4.20-beta` | 基础通用版 | 日常对话、内容生成、通用任务 |
| `grok-4.20-beta-0309-reasoning` | 推理增强版 | 复杂逻辑、多步数学、科学推理、编程 |
| `grok-4.20-beta-0309-non-reasoning` | 极速非推理版 | 低延迟场景、简单问答、分类任务 |
| `grok-4.20-multi-agent-beta-0309` | 多智能体版 | 深度研究、复杂多步工作流、协作任务 |
### 核心特性
Grok(协调者)、Harper(研究)、Benjamin(逻辑)、Lucas(创意),并行思考相互辩论
上下文窗口 200 万 tokens,是 Grok 4(256K)的 8 倍
多智能体协作使幻觉率从约 12% 降至约 4.2%,降幅约 65%
输入 \$2 / 输出 \$6 每百万 tokens,比 Grok 4 降价约 60%
### 性能数据
以下数据来源于 Artificial Analysis 等第三方评测平台,xAI 官方尚未发布完整 benchmark 数据。
| 指标 | 推理版 | 非推理版 | Grok 4(参考) |
| ----------- | --------- | ----------- | ---------- |
| **AA 智能指数** | 48 | 30 | 42 |
| **输出速度** | \~231 t/s | \~232.5 t/s | — |
| **上下文窗口** | 200 万 | 200 万 | 25.6 万 |
| **输入价格** | \$2/百万 | \$2/百万 | \$3/百万 |
| **输出价格** | \$6/百万 | \$6/百万 | \$15/百万 |
### 多智能体版特别说明
`grok-4.20-multi-agent-beta-0309` 内置了多种工具能力:
* **web\_search**:网页搜索
* **x\_search**:X(Twitter)实时数据搜索
* **code\_execution**:代码执行
* **collections\_search**:知识库搜索
API 调用时只返回主智能体的最终响应,子智能体的中间推理过程默认不暴露。
## 实际应用
### 代码示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 推理版 - 适合复杂逻辑任务
response = client.chat.completions.create(
model="grok-4.20-beta-0309-reasoning",
messages=[
{"role": "user", "content": "分析以下代码的时间复杂度并给出优化方案..."}
]
)
print(response.choices[0].message.content)
```
```python theme={null}
# 非推理版 - 适合低延迟场景
response = client.chat.completions.create(
model="grok-4.20-beta-0309-non-reasoning",
messages=[
{"role": "user", "content": "将以下文本翻译为英文:..."}
]
)
print(response.choices[0].message.content)
```
### 推荐使用场景
数学竞赛题、科研分析、复杂编程、多步逻辑推理
快速问答、文本分类、翻译、数据提取
日常对话、内容创作、通用助手
深度研究报告、复杂调研、需要多角度分析的任务
## 价格与可用性
### 定价信息
| 模型 | 输入价格 | 输出价格 | 计费方式 |
| ----------------------------------- | --------------- | --------------- | ---- |
| `grok-4.20-beta` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 |
| `grok-4.20-beta-0309-reasoning` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 |
| `grok-4.20-beta-0309-non-reasoning` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 |
| `grok-4.20-multi-agent-beta-0309` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 |
### 叠加网站充值活动
充值加赠活动同样适用,详见 [充值优惠说明](/faq/recharge-promotions)。
## 总结与建议
Grok 4.20 Beta 系列的核心亮点在于四智能体协作架构和 200 万超长上下文。虽然在 AA 智能指数上(48)尚不及 Gemini 3.1 Pro(57)和 GPT-5.4(57),但其独特的多智能体协作机制在降低幻觉、提升复杂任务准确性方面表现突出。统一 \$2/\$6 的定价也非常有竞争力。
Grok 4.20 目前仍处于 Beta 阶段,xAI 表示每天都在修复 bug 和改进。建议在生产环境中做好容错处理。
信息来源:xAI 官方文档 `docs.x.ai`、Artificial Analysis 评测数据、xAI 发布公告。数据获取时间:2026 年 3 月。
# Grok 4.3 上线:xAI 全新旗舰,输入降 37.5% / 输出降 58.3%
Source: https://docs.apiyi.com/news/grok-4-3-launch
xAI 于 2026 年 4 月 30 日发布 Grok 4.3,Intelligence Index 53、GDPval-AA ELO 1500、τ²-Bench 98%、IFBench 81%,速度 159 tokens/s。挂牌仅 \$1.25/\$2.50 每百万 tokens,全分组可用,叠加充值赠 10% 后约官网 85 折。
## 核心要点
* **xAI 全新旗舰**:4 月 30 日发布的 Grok 4.3,定位"幻觉率最低、Agent 工具调用最强、指令遵循最好"
* **大降价**:输入价格较 Grok 4.20 0309 v2 降 **37.5%**、输出降 **58.3%**,整体跑评测预算下降约 20%
* **响应飞快**:159 tokens/s 输出速度,远超同价位推理模型中位数 64.6 t/s
* **百万级上下文 + 多模态**:1M tokens 上下文,文本 + 图片输入,always-on reasoning(推理常开不可关)
* **全分组可用**:Default、SVIP 等常用分组均开放,**充值 100 美金赠 10%,相当于官网 85 折**
## 背景介绍
2026 年 4 月 30 日 (UTC+8),xAI 发布 **Grok 4.3**,作为 Grok 4.20 之后的下一代旗舰。这个版本最大的亮点不是"刷榜",而是**性价比的整体跃迁**:在 Artificial Analysis Intelligence Index 上拿到 53 分,跑完一次完整评测套件成本仅 \$395,比 Grok 4.20 0309 v2 低约 20%。
xAI 给出的官方定位是"业界领先的非幻觉率(non-hallucination rate)、Agent 工具调用、指令遵循"——三个维度都瞄准生产级 Agent 场景。性能上 Grok 4.3 在 Intelligence Index 综合排名上略超 Claude Sonnet 4.6,单项最大跃升发生在 GDPval-AA 评测:ELO 从 Grok 4.20 v2 的 1179 直接拉到 **1500**,单代提升 321 分。
API易已上线 Grok 4.3,**Default、SVIP 等常用用户分组均可调用**——价格亲民、风险可控,无需像 GPT-5.5 Pro 那样限制分组。叠加充值加赠 10% 后,综合成本约官网 85 折。
## 详细解析
### 核心特性
τ²-Bench Telecom 达 98%,IFBench 81%,复杂工具链与多步代理任务表现稳定
AA-Omniscience Accuracy 较上代 +8 分,xAI 自评"非幻觉率"业界领先
159 tokens/s 输出,是同价位推理模型中位数(64.6 t/s)的 2.5 倍
1M tokens 上下文窗口,支持文本 + 图片输入,Always-on Reasoning
### 性能亮点
| 评测项目 | Grok 4.3 | Grok 4.20 v2 | 变化 |
| --------------------------- | ----------- | ------------ | -------- |
| **Intelligence Index** | **53** | 49 | +4 |
| **GDPval-AA (ELO)** | **1500** | 1179 | **+321** |
| **τ²-Bench Telecom** | **98%** | — | 业界领先 |
| **IFBench** | **81%** | — | 指令遵循 |
| **AA-Omniscience Accuracy** | +8 vs v2 | 基线 | 准确率提升 |
| **输出速度** | **159 t/s** | 较低 | 大幅提升 |
| **跑完 Index 评测成本** | **\$395** | \~\$494 | -20% |
数据来源:xAI 官方公告、Artificial Analysis 独立评测(2026 年 4 月 30 日)。Intelligence Index 综合多项基准,可作为模型综合智能的参考指标。
### 技术规格
| 参数 | Grok 4.3 |
| ---------- | ---------------------------- |
| **模型名称** | `grok-4.3` |
| **上下文窗口** | 1,000,000 tokens |
| **最大输出** | 无显式上限(按上下文余量) |
| **输入模态** | 文本 + 图片 |
| **推理模式** | Always-on Reasoning(常开,不可关闭) |
| **输出速度** | \~159 tokens/s |
| **API 端点** | `/v1/chat/completions` |
| **可用分组** | **Default、SVIP** 等常用分组 |
## 实际应用
### 推荐场景
Grok 4.3 的"高速 + 低价 + 强 Agent"组合特别适合:
1. **生产级 Agent 工作流**:高频工具调用、多步规划、需要稳定指令遵循的场景
2. **大规模文档处理**:1M 上下文 + 159 t/s 速度,长文档摘要、跨文件审计跑得快
3. **客服 / Telecom 类对话**:τ²-Bench Telecom 98% 表明在工单、技术问答类工具调用任务上表现强
4. **多模态分析**:图片 + 文本混合输入,适合截图分析、图表解读
5. **成本敏感的高 QPS 应用**:单价低 + 速度快,用 Grok 4.3 替代部分 GPT-5.4 / Claude Sonnet 场景可显著降本
### 代码示例
#### 标准调用
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="grok-4.3",
messages=[
{"role": "user", "content": "帮我分析这份客户工单并生成处理方案"}
],
max_tokens=4096
)
print(response.choices[0].message.content)
```
#### 多模态调用(图片 + 文本)
```python theme={null}
response = client.chat.completions.create(
model="grok-4.3",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "这张截图里的报错是什么原因?"},
{"type": "image_url", "image_url": {"url": "https://example.com/error.png"}}
]
}
]
)
print(response.choices[0].message.content)
```
#### Agent 工具调用
```python theme={null}
tools = [
{
"type": "function",
"function": {
"name": "query_order_status",
"description": "查询客户订单状态",
"parameters": {
"type": "object",
"properties": {"order_id": {"type": "string"}},
"required": ["order_id"]
}
}
}
]
response = client.chat.completions.create(
model="grok-4.3",
messages=[{"role": "user", "content": "帮我查询订单 #A1024 的状态"}],
tools=tools,
tool_choice="auto"
)
```
### 最佳实践
1. **Agent 场景首选**:τ²-Bench / IFBench 数据显示 Grok 4.3 在工具调用、指令遵循上有明显优势,比通用模型更适合 Agent
2. **关注 200K 上下文阶梯**:超过 200K 后 input/output 单价翻倍,长文档场景注意控制传入长度
3. **always-on reasoning 是默认行为**:推理 token 计入输出账单,简单任务也会有少量推理消耗
4. **速度优先的对话场景**:159 t/s 的吞吐让 Grok 4.3 适合"边生成边渲染"的实时聊天
5. **充值加赠摊薄成本**:API易充值 100 美金赠 10%,叠加挂牌价相当于官网 85 折
## 价格与可用性
### 定价信息(阶梯计费)
| 上下文区间 | 输入价格 | 输出价格 | 备注 |
| ------------------- | ------------------ | ------------------ | ------------- |
| **0 – 200K tokens** | \$1.25 / 百万 tokens | \$2.50 / 百万 tokens | 标准段,对齐 xAI 官网 |
| **200K – ∞ tokens** | \$2.50 / 百万 tokens | \$5.00 / 百万 tokens | 长上下文段,2x 溢价 |
### 与近期模型价格对比
| 模型 | 输入 | 输出 | 速度 | 综合定位 |
| ----------------- | ---------- | ---------- | ----------- | -------------- |
| **Grok 4.3** | **\$1.25** | **\$2.50** | **159 t/s** | 高速 Agent 性价比之选 |
| Grok 4.20 | \$2.00 | \$6.00 | 较低 | 上代旗舰 |
| Claude Sonnet 4.6 | \$3.00 | \$15.00 | 中等 | 编程通用 |
| GPT-5.5 | \$5.00 | \$30.00 | 中等 | 前沿推理 |
| Gemini 3 Pro | \$2.00 | \$12.00 | 较高 | 多模态 |
Grok 4.3 在 \$1.25/\$2.50 的价位段几乎没有同档对手——同性能模型基本都贵 2-10 倍。性价比是当前最大卖点。
### 叠加网站充值活动
API易 提供充值加赠优惠:充 \$100 赠 10%,叠加挂牌价后综合成本相当于 xAI 官网约 85 折,长期使用更划算。
### 可用模型与分组
| 模型名称 | 通道 | 可用分组 | 说明 |
| ---------- | -------- | ---------------------- | ----------- |
| `grok-4.3` | xAI 官方直转 | **Default、SVIP** 等常用分组 | 当前最新,自动跟随官网 |
### 购买渠道
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 兼容 OpenAI 原生 SDK,仅需替换 `base_url` 与 `api_key`、`model` 改为 `grok-4.3`
## 总结与建议
Grok 4.3 是 xAI 当前最有性价比的旗舰:**\$1.25 / \$2.50 + 159 t/s + 1M 上下文 + 强 Agent 能力**,这套组合在 \$1-3 输入价位段几乎找不到对手。
**适合升级 / 切换到 Grok 4.3 的场景**:
* 已经在用 Grok 4.20 / Claude Sonnet 4.6 / GPT-5.4 mini 做 Agent 类任务,可优先评估迁移
* 高频工具调用、客服自动化、Telecom 类工单处理
* 成本敏感、QPS 要求高的实时对话产品
* 需要图片输入的多模态分析
**暂不需要切换的场景**:
* 已在使用 GPT-5.5 / Claude Opus 4.7 做最难推理任务(Grok 4.3 智能上限相对较低)
* 强依赖 OpenAI / Anthropic 特定 API 能力(如 OpenAI 函数 schema 严格行为)
* 已稳定用 GPT-5.4 / Gemini 3 Pro 跑业务,迁移收益不明显
API易 已开放 Grok 4.3 的 **Default、SVIP 等常用用户分组**,价格亲民、速度快、风险可控。叠加充值加赠 10% 后约官网 85 折。建议先用小流量在自家真实场景跑对比,验证效果后逐步替换。
信息来源:xAI 官方 API 文档(docs.x.ai)、Artificial Analysis 独立评测、VentureBeat 与 The Decoder 报道。数据获取时间:2026 年 5 月 3 日 (UTC+8)。
# Kimi K2.6 上线:开源旗舰 Agent 编程登顶
Source: https://docs.apiyi.com/news/kimi-k2-6-launch
月之暗面 Kimi K2.6 上线 API易!1T MoE / 32B 激活、256K 上下文、SWE-Bench Pro 58.6 反超 GPT-5.4 与 Claude Opus 4.6,通过华为云官转通道接入,\$0.60 输入 / \$2.40 输出每 1M tokens,比官网 6.5 / 27 元人民币约 6 折。
## 核心要点
* **开源最强 Agent 编程模型**:`kimi-k2.6` 正式上线 API易,MoE 架构,1T 总参 / 32B 激活,Modified MIT 协议开源
* **256K 超长上下文**:原生 256K tokens 上下文,天然适配代码库级任务与长程 Agent 调度
* **编程基准反超闭源旗舰**:SWE-Bench Pro 58.6,领先 GPT-5.4(57.7)、Claude Opus 4.6 Max(53.4)、Gemini 3.1 Pro(54.2)
* **工程能力完备**:官方支持 **Function Call**、**前缀续写**(Prefix Continuation),方便构建严格结构化输出与多轮工具调用
* **华为云官转接入**:稳定性与官方直连一致,中文场景响应友好
* **价格直降约 4 成**:API易 挂牌 \$0.60 输入 / \$2.40 输出(每 1M tokens),相比官网 6.5 元输入 / 27 元输出约 **6 折**
* **充值加赠**:叠加 API易 充值活动可进一步拉低实际成本
当前上架版本为**华为云官转通道**,模型基于 Moonshot 2026-04-20 开源的 Kimi K2.6 正式版。信息来源:`moonshotai/Kimi-K2` Hugging Face 仓库、`platform.moonshot.ai` 官方文档,数据获取日期:2026-04-25。
## 背景介绍
K2 系列是月之暗面(Moonshot AI)面向 Agent 场景重点打造的开源旗舰线。K2.5 开启了"开源也能挑战闭源旗舰"的势头,K2.6 则把这条路线推到了新阶段——在代码与长程任务两个维度上,首次以开源模型的身份反超 GPT-5.4 与 Claude Opus 4.6。
2026 年 4 月 20 日,Moonshot 正式发布 Kimi K2.6,沿用 MoE 架构(1T 总参 / 32B 激活),把上下文统一拉到 **256K**,并显著强化了长程编码稳定性、指令遵循、自我纠错与 Agent 自主执行能力。K2.6 也是 K 系列中首个原生支持 Agent Swarm 调度(官方演示中可并行 300 子 Agent、协调 4000 步)的版本,面向"真实软件工程 / Coding Agent"这类高价值场景做了系统级优化。
对于中文开发者而言,这代模型的意义不止在分数:**在真实代码仓库、Claude Code / Cursor 类 Agent 工作流里,K2.6 的表现已经足以作为主力**,而价格又只是闭源旗舰的一个零头。
## 详细解析
### 核心特性
**1T 总参 / 32B 激活**
约 3.2% 的激活率,推理成本按"32B 级"付费,却能调度万亿参数的专家知识池。
**代码库级长文适配**
全量 256K tokens 上下文,适合整仓代码、长合同、研究报告、Agent 多步轨迹。
**长程编码 / 群体调度**
官方演示支持最高 300 子 Agent 并行、4000 协同步骤的 Agent Swarm 形态。
**Function Call + 前缀续写**
原生支持 Function Call(工具调用)与 Prefix Continuation(前缀续写),方便做结构化输出、格式约束与多轮接力。
### 性能亮点
以下数据来源于 Moonshot 官方评测报告与第三方公开基准:
| 评测维度 | Kimi K2.6 | GPT-5.4 | Claude Opus 4.6 Max | Gemini 3.1 Pro | 前代 K2.5 |
| ------------------------- | ------------- | ------- | ------------------- | -------------- | ------- |
| SWE-Bench Pro(真实软工) | **58.6** | 57.7 | 53.4 | 54.2 | 50.7 |
| Humanity's Last Exam(含工具) | **54.0** | 52.1 | 53.0 | 51.4 | — |
| 长程编码稳定性 | 显著增强 | — | — | — | 基准 |
| 自主 Agent 步数上限 | 4000 步(Swarm) | — | — | — | — |
K2.6 是目前**首个在 SWE-Bench Pro 上超过 GPT-5.4 与 Claude Opus 4.6 Max 的开源模型**,且对开源权重没有额外限制,这对自研 Agent 团队非常关键。
### 技术规格
* **模型 ID**:`kimi-k2.6`
* **架构**:Mixture-of-Experts(MoE)
* **总参数量**:1T(1 万亿)
* **激活参数**:32B(每 token 激活约 3.2%)
* **上下文长度**:256K tokens(原生)
* **工具调用**:✅ Function Call
* **前缀续写**:✅ Prefix Continuation
* **接口兼容**:OpenAI ChatCompletions 兼容
* **通道**:华为云官转
* **开源协议**:Modified MIT(权重公开,商用友好)
Function Call 与前缀续写适合构建严格结构化输出(JSON / DSL / 指令流)。在做多工具并行调度时,建议客户端侧做好调用栈管理与错误回滚,以发挥 K2.6 的长程执行优势。
## 实际应用
### 推荐场景
SWE-Bench Pro 58.6 + 256K 上下文,整仓读代码、多文件重构、真实 PR 任务首选开源模型
官方原生支持大规模子 Agent 并行,适合研究向 Agent 框架、自动化流水线
Function Call + 前缀续写组合,保证 JSON / 工具参数 / DSL 输出严格可解析
256K 上下文一次吞下中大型仓库或长报告,减少切片与检索成本
### 快速开始(OpenAI 兼容接口)
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="sk-your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
# 典型用法:Agent 编程 + 工具调用
resp = client.chat.completions.create(
model="kimi-k2.6",
messages=[
{"role": "system", "content": "你是一名资深全栈工程师,擅长在真实代码库中完成 PR 级任务。"},
{"role": "user", "content": "帮我把这个仓库的日志系统统一迁移到 structlog,并给出最小变更的 PR"}
],
temperature=0.3,
)
print(resp.choices[0].message.content)
```
### 前缀续写(Prefix Continuation)示例
前缀续写非常适合"让模型顺着一段已写好的内容继续生成",在生成 JSON、SQL、代码补丁等严格结构时尤为好用:
```python theme={null}
# 让模型严格从给定前缀继续补全(常用于结构化输出)
resp = client.chat.completions.create(
model="kimi-k2.6",
messages=[
{"role": "user", "content": "请输出一个用户对象,仅返回 JSON"},
{
"role": "assistant",
"content": '{"id": 1, "name": "',
}
],
extra_body={"prefix": True}, # 开启前缀续写
temperature=0.2,
)
print(resp.choices[0].message.content)
```
### Function Call 示例
```python theme={null}
tools = [{
"type": "function",
"function": {
"name": "search_repo",
"description": "在指定仓库里按关键词检索代码",
"parameters": {
"type": "object",
"properties": {
"repo": {"type": "string"},
"query": {"type": "string"}
},
"required": ["repo", "query"]
}
}
}]
resp = client.chat.completions.create(
model="kimi-k2.6",
messages=[{"role": "user", "content": "在 apiyi/core 仓库里找一下限流中间件的实现"}],
tools=tools,
tool_choice="auto",
)
print(resp.choices[0].message.tool_calls)
```
### 最佳实践
* **选型建议**:代码 / Agent / 严格结构化输出场景首选 `kimi-k2.6`;成本敏感或高并发对话可搭配 Flash 级模型做路由
* **长上下文**:256K 足够塞入中大型仓库,建议对输入做一轮裁剪 / 摘要再投喂,兼顾成本与召回
* **温度参数**:Agent / 代码场景建议 `temperature=0.2 ~ 0.4`,保留稳定性
* **流式输出**:长程任务建议开启 stream,改善用户感知延迟
* **工具调用稳健性**:给工具参数写清楚 schema,配合前缀续写可显著降低 JSON 解析失败率
## 价格与可用性
### 定价表(USD / 1M tokens)
| 模型 | 计费类型 | 提示价格(输入) | 补全价格(输出) | 官网对应价(CNY/1M) | API易 相对官网 |
| ----------- | ----------- | ------------ | ------------ | ------------- | --------- |
| `kimi-k2.6` | 按量付费 - Chat | **\$0.6000** | **\$2.4000** | ¥6.5 / ¥27 | **约 6 折** |
API易 通过**华为云官转**通道接入 Kimi K2.6,稳定性与月之暗面官方一致。相比官网 6.5 元人民币输入 / 27 元人民币输出(约合 \$0.90 / \$3.73),API易 挂牌价大致**打到 6 折左右**,中文团队可直接按美元计费平移,无需担心汇率波动。
### 叠加网站充值活动
充值活动叠加之后,实际成本还能进一步拉低:
查看最新充值加赠规则,越大额加赠比例越高
## 总结与建议
Kimi K2.6 把"开源旗舰能不能真上生产"这个问题,给出了一个相对明确的答案:
* ✅ **基准反超**:SWE-Bench Pro 58.6,领先 GPT-5.4 / Opus 4.6 / Gemini 3.1 Pro
* ✅ **工程友好**:Function Call + 前缀续写 + 256K 上下文三件套齐全,拿来就能做 Agent
* ✅ **价格友好**:华为云官转 \$0.60 / \$2.40,相比官网 6.5 / 27 元人民币约 6 折,充值加赠后更低
* ✅ **开源权重**:Modified MIT,方便自研团队做离线评测 / 二次训练,与 API 调用双轨推进
**推荐迁移路径**:
1. 把现有 K2.5 / DeepSeek V3 的 Agent / 编程调用切一部分到 `kimi-k2.6` 做 A/B
2. 用前缀续写重构现有 JSON / 工具调用管线,降低解析失败率
3. 在 Claude Code / Cursor / 自研 Agent 里把 `kimi-k2.6` 作为"开源旗舰"兜底或主力选项
4. 搭配 API易 充值加赠,把单次 Agent 任务成本拉到闭源旗舰的 **1/5 \~ 1/4**
**信息来源与日期**
* Moonshot 官方发布:`moonshotai.github.io`、`platform.moonshot.ai`
* 开源权重仓库:`huggingface.co/moonshotai/Kimi-K2`
* 第三方报道与评测:`marktechpost.com`、`siliconangle.com`、`ithome.com/0/941/385.htm`、`linux.do/t/topic/2019847`
* 数据获取日期:2026-04-25
# MiMo-V2 系列上线:小米万亿参数智能体模型,性能逼近 Opus 4.6
Source: https://docs.apiyi.com/news/mimo-v2-launch
小米发布 MiMo-V2-Pro(万亿参数推理模型)和 MiMo-V2-Omni(全模态理解模型),Pro 版性能逼近 Claude Opus 4.6 但价格仅为 1/6。API易已全面上架。
## 核心要点
* **万亿参数**:MiMo-V2-Pro 总参数超 1 万亿,活跃参数 42B,MoE 架构
* **性能逼近顶级**:AA 智能指数 49(全球第 8),ClawEval 61.5 逼近 Opus 4.6(66.3),编码能力超越 Sonnet 4.6
* **价格仅 1/6**:Pro 版输入 \$1 / 输出 \$3 每百万 tokens,约为 GPT-5.2、Opus 4.6 的 1/6
* **全模态理解**:MiMo-V2-Omni 支持文本、图片、视频、音频输入,10+ 小时连续音频理解
* **100 万上下文**:Pro 版支持 100 万 token 上下文窗口
## 背景介绍
2026 年 3 月 18-19 日,小米正式发布 MiMo-V2 系列基础模型。此前 MiMo-V2-Pro 曾以代号 "Hunter Alpha" 在 OpenRouter 上匿名测试,凭借出色表现引发广泛关注和猜测,最终小米确认了其身份。
MiMo-V2-Pro 定位为智能体基础模型,专为编排复杂工作流、工具调用和代码执行优化;MiMo-V2-Omni 则是统一多模态理解模型,原生处理文本/图片/视频/音频,号称首个支持 10+ 小时连续音频理解的全模态模型。
API易已在第一时间上架两款模型。
## 详细解析
### 核心特性
Pro 版总参数超 1T,活跃参数 42B,7:1 混合注意力比率
Pro 版 \$1/\$3 每百万 tokens,约为同级竞品的 1/6
Omni 版支持文本、图片、视频、音频四模态输入
Pro 版 100 万 token 上下文,最大输出 131,072 tokens
### MiMo-V2-Pro 性能数据
| 评测项目 | MiMo-V2-Pro | Claude Opus 4.6 | GPT-5.2 | 说明 |
| ------------ | ------------- | --------------- | ------- | ---------------- |
| **AA 智能指数** | **49** | — | — | 全球第 8,中国 LLM 第 2 |
| **ClawEval** | **61.5** | 66.3 | 50.0 | 智能体评测 |
| **编码能力** | 超越 Sonnet 4.6 | — | — | 代码生成与理解 |
### MiMo-V2-Omni 性能数据
| 评测项目 | MiMo-V2-Omni | 对比 | 说明 |
| ------------------ | --------------- | ---------------- | ---------- |
| **AA 智能指数** | **43** | 平均 14 | 远超同类 |
| **BigBench Audio** | **94.0** | — | 音频理解 |
| **MMAU-Pro** | **69.4** | — | 多模态音频理解 |
| **图像理解** | 超越 Opus 4.6 | MMMU-Pro、CharXiv | 视觉推理 |
| **音频理解** | 超越 Gemini 3 Pro | — | 环境音分类、多说话人 |
### 技术规格
| 规格 | MiMo-V2-Pro | MiMo-V2-Omni |
| --------- | ------------------ | ----------------- |
| **上下文窗口** | 1,000,000 tokens | 256,000 tokens |
| **最大输出** | 131,072 tokens | — |
| **输入模态** | 文本 + 图片 | 文本 + 图片 + 视频 + 音频 |
| **输出模态** | 文本 | 文本 |
| **架构** | MoE(1T+ 总参,42B 活跃) | 统一多模态 |
| **特色** | 推理链、智能体工作流 | 10+ 小时连续音频理解 |
## 实际应用
### 代码示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
# MiMo-V2-Pro - 适合复杂推理和编码任务
response = client.chat.completions.create(
model="mimo-v2-pro",
messages=[
{"role": "user", "content": "设计一个高并发消息队列系统的架构方案,要求支持百万级 TPS..."}
]
)
print(response.choices[0].message.content)
```
```python theme={null}
# MiMo-V2-Omni - 多模态理解
response = client.chat.completions.create(
model="mimo-v2-omni",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "描述这张图片中的内容"},
{"type": "image_url", "image_url": {"url": "https://example.com/image.png"}}
]
}
]
)
print(response.choices[0].message.content)
```
### 推荐使用场景
复杂编码、智能体工作流、深度推理、长文档分析(100 万上下文)
视频内容理解、音频转写分析、多模态文档解析、图表分析
## 价格与可用性
### 定价信息
| 模型 | 输入价格 | 输出价格 | 说明 |
| ---------------------- | ------------------ | ------------------ | --------- |
| `mimo-v2-pro`(256K 内) | \$1.00 / 百万 tokens | \$3.00 / 百万 tokens | 推理模型,含思维链 |
| `mimo-v2-pro`(256K-1M) | \$2.00 / 百万 tokens | \$6.00 / 百万 tokens | 超长上下文场景 |
| `mimo-v2-omni` | \$0.40 / 百万 tokens | \$2.00 / 百万 tokens | 全模态理解 |
MiMo-V2-Pro 的定价约为 Claude Opus 4.6 和 GPT-5.2 的 1/6,性价比极高。
### 叠加网站充值活动
充值加赠活动同样适用,详见 [充值优惠说明](/faq/recharge-promotions)。
## 总结与建议
MiMo-V2 系列是小米 AI 领域的重磅之作。Pro 版以万亿参数和 100 万上下文在智能体评测中逼近 Opus 4.6,但价格仅为其 1/6,性价比极其突出。Omni 版的全模态理解(尤其是 10+ 小时音频)在同类产品中独树一帜。
**推荐策略**:需要高性价比推理和编码时选 Pro,需要多模态理解(尤其音视频)时选 Omni。
MiMo-V2 系列刚发布不久,建议在生产环境中做好容错处理,关注后续更新。
信息来源:小米官方 `mimo.xiaomi.com`、Artificial Analysis 评测数据、OpenRouter 定价信息。数据获取时间:2026 年 3 月。
# MiniMax-M2.7 上线:10B 参数的自进化智能体模型,性价比惊人
Source: https://docs.apiyi.com/news/minimax-m2-7-launch
MiniMax 发布 M2.7 和 M2.7-highspeed,仅 10B 活跃参数即达到 Tier-1 级别性能,SWE-bench Pro 56.22%,价格低至竞品的 1/50。API易已全面上架。
## 核心要点
* **最小 Tier-1 模型**:仅 10B 活跃参数,SWE-bench Pro 56.22%、SWE-bench Verified 78%,媲美 Opus 级别性能
* **自进化能力**:业界首个深度参与自身训练进化的模型,自主完成 30-50% 的强化学习开发流程
* **原生多智能体**:内建 Agent Teams 协作能力,支持 40+ 复杂技能,技能遵循率达 97%
* **极致性价比**:输入 \$0.30 / 输出 \$1.20 每百万 tokens,约为同级竞品的 1/50
* **双版本可选**:标准版和 highspeed 版输出质量完全一致,highspeed 速度约 100 TPS
## 背景介绍
2026 年 3 月 18 日,MiniMax 正式发布 M2.7 系列模型。M2.7 被称为「最小的 Tier-1 模型」,仅用 10B 活跃参数就在多项权威评测中达到了与 Claude Opus 4.6、GPT-5.3 Codex 等顶级模型相当的水平。
M2.7 最大的亮点是其「自进化」能力——它能自主触发日志分析、调试和指标评估,独立完成 30-50% 的自身强化学习开发流程,包括分析自身失败案例、重写部分代码、执行评估并决定保留或丢弃结果。
API易已上架 M2.7 和 M2.7-highspeed 两个版本,按量付费 Chat 类型。
## 详细解析
### 核心特性
业界首个深度参与自身训练的模型,自主处理 30-50% 的 RL 开发流程
内建 Agent Teams 协作,角色边界、对抗推理、协议遵循均为内化能力
仅 10B 活跃参数达到 Tier-1 水准,效率极高
管理 40+ 复杂技能(每个超 2000 tokens),遵循率 97%
### 性能评测
| 评测基准 | M2.7 得分 | 说明 |
| ------------------ | ------- | ---------- |
| SWE-bench Pro | 56.22% | 接近 Opus 级别 |
| SWE-bench Verified | 78% | 软件工程能力强劲 |
| VIBE-Pro | 55.6% | 端到端项目交付 |
| Terminal Bench 2 | 57.0% | 复杂工程系统 |
| MM Claw | 62.7% | 智能体任务 |
| MLE Bench Lite | 66.6% | ML 竞赛获奖率 |
| 技能遵循率 | 97% | 40+ 复杂技能 |
在 Artificial Analysis 智能指数中得分 **50**,与 GLM-5 并列,领先 MiMo-V2-Pro(49)和 Kimi K2.5(47),而输出 token 用量少 20%,成本仅为同级竞品的三分之一以下。
### M2.7 vs M2.7-highspeed
两个版本**输出质量完全相同**,区别仅在速度和价格:
| 对比项 | M2.7 标准版 | M2.7-highspeed |
| ----- | -------------- | -------------- |
| 输出质量 | 完全一致 | 完全一致 |
| 速度 | \~60 TPS | \~100 TPS |
| 上下文窗口 | 204,800 tokens | 204,800 tokens |
| 适用场景 | 预算优先 | 延迟敏感的生产环境 |
### 技术规格
* **上下文窗口**:204,800 tokens(约 205K)
* **最大输出**:131,072 tokens
* **推理能力**:支持 `` 标签强制推理
* **架构**:MoE 混合专家架构
## 价格与可用性
| 模型 | 提示价格 | 补全价格 | 计费类型 |
| ---------------------- | ------------------ | ------------------ | ----------- |
| MiniMax-M2.7 | \$0.30 / 1M tokens | \$1.20 / 1M tokens | 按量付费 - Chat |
| MiniMax-M2.7-highspeed | \$0.60 / 1M tokens | \$2.40 / 1M tokens | 按量付费 - Chat |
M2.7-highspeed 速度约为标准版的 1.7 倍,适合对延迟敏感的生产场景。两个版本智能水平完全一致,可根据实际需求选择。
## 总结与建议
MiniMax-M2.7 以仅 10B 活跃参数实现了 Tier-1 级别的性能表现,堪称「以小博大」的典范。其自进化能力和原生多智能体协作是独特亮点,在软件工程、工具调用和复杂工作流编排方面表现出色。
**推荐场景**:
* 需要高智能但预算有限的开发者
* 智能体 / Agent 工作流和多步任务
* 软件工程辅助和代码生成
* 需要强工具调用能力的生产环境
# Nano Banana 2 上线:Pro画质 Flash价格
Source: https://docs.apiyi.com/news/nano-banana-2-launch
谷歌最新图像生成模型 Nano Banana 2(gemini-3.1-flash-image-preview)正式发布!Pro级画质+Flash级速度,支持4K输出、14种宽高比、图像搜索Grounding,API易按次 $0.055/次,按量低至 $0.025/张。
## 核心要点
* **Pro 级画质 + Flash 级速度**:画质媲美 Nano Banana Pro,生成速度快数倍
* **超低价格**:API易按次 \$0.055/次,按量低至 \$0.025/张,性价比极高
* **14 种宽高比**:新增 1:4、4:1、1:8、8:1,覆盖长图、信息图等特殊场景
* **图像搜索 Grounding**:独家功能,从 Google 图片搜索拉取视觉上下文
* **思维模式**:可配置推理级别,处理复杂提示词更精准
## 背景介绍
2026 年 2 月 26 日,谷歌正式发布了 **Nano Banana 2**(模型 ID:`gemini-3.1-flash-image-preview`),这是 Nano Banana 系列的最新旗舰。不同于基于 Gemini 3 Pro 的 Nano Banana Pro,Nano Banana 2 基于 **Gemini 3.1 Flash**,在保持接近 Pro 级画质的同时,大幅提升了生成速度并降低了成本。
这意味着用户不再需要在"画质"和"价格"之间艰难取舍——Nano Banana 2 同时做到了两者兼顾。
## 详细解析
### 新增模型
**Nano Banana 2 图像生成**
基于 Gemini 3.1 Flash 的图像生成模型,Pro 级画质、Flash 级速度。支持 4K 输出、14 种宽高比、图像搜索 Grounding、思维模式等特性。
### 与前代版本对比
| 特性 | **Nano Banana 2** | Nano Banana Pro | Nano Banana |
| ------------------ | -------------------------------- | ---------------------------- | ------------------------ |
| **模型 ID** | `gemini-3.1-flash-image-preview` | `gemini-3-pro-image-preview` | `gemini-2.5-flash-image` |
| **画质** | ⭐⭐⭐⭐⭐ Pro 级 | ⭐⭐⭐⭐⭐ 最高 | ⭐⭐⭐⭐ 优秀 |
| **速度** | 🚀 最快 | 🐢 较慢(约20秒) | ⚡ 快速(约10秒) |
| **最高分辨率** | 4K | 4K | 1K |
| **宽高比** | 14 种 | 10 种 | 10 种 |
| **图像搜索 Grounding** | ✅ 独家 | ❌ | ❌ |
| **思维模式** | ✅ | ❌ | ❌ |
| **谷歌官方 4K 定价** | \$0.151 | \$0.151 | \$0.039(仅1K) |
| **API易定价** | **\$0.055(按次)/ \~\$0.025起(按量)** | \$0.09 | \$0.02 |
**关键数据**:谷歌官方 4K 定价 \$0.151/次,API易 Nano Banana 2 按次仅需 **\$0.055/次**(约 3.6 折),按量计费低至 **\~\$0.025/张**(512px),性价比极高!
### 独家新特性
#### 🔍 图像搜索 Grounding
这是 Nano Banana 2 的独家功能。通过接入 Google 图片搜索,模型可以:
* 参考真实世界的视觉素材生成更准确的图像
* 生成真实地标、人物、产品等更贴合现实
* 结合实时数据生成天气图表、事件海报等
```python theme={null}
import requests
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
headers={"Authorization": "Bearer sk-your-api-key", "Content-Type": "application/json"},
json={
"contents": [{"parts": [{"text": "今天上海外滩的实景插画风格图"}]}],
"generationConfig": {
"responseModalities": ["TEXT", "IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
},
"tools": [{"google_search": {}}]
},
timeout=300
).json()
```
#### 🧠 思维模式
可配置 `minimal` 或 `high` 两种思维级别,让模型在生成前进行推理分析:
* **minimal**:快速生成,适合简单提示词
* **high**:深度推理,适合复杂构图、精确文字、多元素场景
```python theme={null}
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
headers={"Authorization": "Bearer sk-your-api-key", "Content-Type": "application/json"},
json={
"contents": [{"parts": [{"text": "设计一张科技公司年度报告封面,包含文字'2026 Annual Report',深蓝渐变背景,数据可视化元素"}]}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "3:4", "imageSize": "4K"},
"thinkingConfig": {"thinkingLevel": "high", "includeThoughts": True}
}
},
timeout=300
).json()
```
#### 📐 14 种宽高比
新增 4 种超长/超宽比例:
| 新增比例 | 适用场景 |
| ----- | -------------- |
| `1:4` | 超长竖图、手机长图 |
| `4:1` | 超宽横幅、网站 Banner |
| `1:8` | 极长竖图、信息图 |
| `8:1` | 极宽横幅、全景图 |
完整支持的宽高比:`1:1`、`1:4`、`4:1`、`1:8`、`8:1`、`2:3`、`3:2`、`3:4`、`4:3`、`4:5`、`5:4`、`9:16`、`16:9`、`21:9`
### 其他亮点
继承 Nano Banana Pro 的文字渲染能力,支持多语言清晰文字。适合海报、广告、品牌素材等包含文字的场景。
支持通过多轮对话逐步编辑图像。上传原图后,可以通过对话指令进行背景虚化、物体移除、风格转换等操作。
最多保持 5 个角色的相貌一致性和 14 个参考物体的高保真度,适合系列素材和角色 IP 创作。
支持 Batch API(24 小时内完成),享受更高的速率限制,适合大批量图像生成任务。
## 实际应用
### 快速开始
#### 谷歌原生格式(推荐)
```python theme={null}
import requests
import base64
API_KEY = "sk-your-api-key"
response = requests.post(
"https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent",
headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"},
json={
"contents": [{"parts": [{"text": "一只可爱的柴犬坐在樱花树下,水彩画风格"}]}],
"generationConfig": {
"responseModalities": ["IMAGE"],
"imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"}
}
},
timeout=300
).json()
img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"]
with open("output.png", 'wb') as f:
f.write(base64.b64decode(img_data))
print("图片已保存")
```
#### OpenAI 兼容模式
```python theme={null}
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1")
response = client.chat.completions.create(
model="gemini-3.1-flash-image-preview",
stream=False,
messages=[{"role": "user", "content": "一幅秋天的山水画,远处有红叶和飞鸟"}]
)
print(response.choices[0].message.content)
```
OpenAI 兼容模式使用 `/v1/chat/completions` 端点,不是 `/v1/images/generations`。
### 从 Nano Banana Pro 迁移
只需更改模型名称即可:
```python theme={null}
# Nano Banana Pro(旧)
model = "gemini-3-pro-image-preview"
# Nano Banana 2(新)- 更便宜、更快
model = "gemini-3.1-flash-image-preview"
# 其他参数保持不变
```
## 价格与可用性
### 定价对比
| 模型 | API易定价(按次) | 谷歌官方 4K 定价 | 节省幅度 |
| ----------------- | ------------- | ------------ | -------------- |
| **Nano Banana 2** | **\$0.055/次** | \$0.151 | **🔥 约 3.6 折** |
| Nano Banana Pro | \$0.09/次 | \$0.151 | 约 6 折 |
| Nano Banana | \$0.02/次 | \$0.039(仅1K) | 约 6.4 折 |
Nano Banana(`gemini-2.5-flash-image`)最高仅支持 2K,无 4K 选项,表中为其 1K 官方定价。
### 按量计费(Nano Banana 2 专属)
| 计费项目 | Google 官方 | API易 | 官网折扣 |
| ----------- | --------------------- | --------------- | ------- |
| Input | \$0.50/M tokens | \$0.14/M tokens | **28%** |
| Output(统一价) | 图片 \$60/M, 文本 \$1.5/M | \$16.8/M tokens | **28%** |
#### 按量计费价格预估
| 分辨率 | Google 官方 | API易 |
| ----- | --------- | ------------- |
| 512px | \$0.045 | **\~\$0.025** |
| 1K | \$0.067 | **\~\$0.035** |
| 2K | \$0.101 | **\~\$0.045** |
| 4K | \$0.151 | **\~\$0.07** |
**计费模式选择**:通过创建令牌时的「Billing model」设置选择:
* **Pay-as-you-go / Pay-as-you-go Priority** → 按量计费
* **Pay-per-request / Pay-per-request Priority** → 按次计费
* ⚠️ 请勿选择 Hybrid billing(混合计费)
**💰 4K 高清超值!** 谷歌官方 4K 定价高达 \$0.151/次,API易按次仅需 \$0.055/次(约 3.6 折),按量计费低至 \~\$0.07/张(4K)。结合充值加赠活动,实际成本更低。
### 谷歌官方分辨率定价参考
| 分辨率 | 谷歌官方价格 |
| ------ | ------- |
| 512px | \$0.045 |
| 1K(默认) | \$0.067 |
| 2K | \$0.101 |
| 4K | \$0.151 |
### 可用渠道
* ✅ **API易**(稳定直连,第一时间上线)⭐ 推荐
* ✅ **Gemini 应用**(网页端和移动端,已设为默认图像模型)
* ✅ **Google AI Studio**(标记为"New")
* ✅ **Vertex AI**(Preview 访问)
## 总结与建议
Nano Banana 2 重新定义了图像生成的性价比——**Pro 级画质、Flash 级速度、超低价格**。对于绝大多数用户来说,它是取代 Nano Banana Pro 的最佳选择。
### 💡 谁应该使用?
* **所有图像生成用户**:画质接近 Pro,按量计费低至 \$0.025/张,性价比极高
* **需要特殊宽高比**:14 种宽高比覆盖更多场景
* **需要实时数据**:图像搜索 Grounding 可结合搜索结果生成图像
* **复杂提示词用户**:思维模式让复杂场景生成更精准
### 🎯 版本选择建议
* 🔥 **首选 Nano Banana 2**:性价比之王,按量低至 \$0.025/张,适合 90% 的场景
* 🎨 **极致画质选 Nano Banana Pro**:对保真度有极致要求的专业场景
* ⚡ **最低成本选 Nano Banana**:\$0.025/次,适合大批量低成本需求
***
**信息来源**:
* 谷歌官方博客:Nano Banana 2 发布公告 `blog.google/innovation-and-ai/technology/ai/nano-banana-2/`
* 谷歌开发者博客:`blog.google/innovation-and-ai/technology/developers-tools/build-with-nano-banana-2/`
* 谷歌 AI 开发者文档:`ai.google.dev/gemini-api/docs/image-generation`
* 谷歌 API 定价:`ai.google.dev/gemini-api/docs/pricing`
* 数据获取日期:2026年2月27日
# Nano Banana Pro 震撼上线:4K高清图像生成
Source: https://docs.apiyi.com/news/nano-banana-pro-launch
谷歌最新图像生成模型 Nano Banana Pro(Gemini 3 Pro Image)正式发布!支持 4K 高清出图,业界最佳文本渲染能力,强大的局部编辑功能。API易第一时间接入,与官网价格一致。
## 核心要点
* **4K 高清支持**:支持 1K、2K、4K 三种高清图像生成,比前代分辨率大幅提升
* **文本渲染之王**:业界最佳的图像文本渲染能力,文字清晰可读
* **局部编辑能力**:支持调整摄像机角度、焦点、色彩分级、场景照明等
* **基于 Gemini 3 Pro**:融合最先进的推理和真实世界知识
* **稳定可靠**:客户反馈"强+稳",生成速度约 20 秒
## 背景介绍
2025年11月20日,谷歌正式发布了 Nano Banana Pro(代号 Gemini 3 Pro Image Preview),这是继 Nano Banana(Gemini 2.5 Flash Image)之后的重大升级版本。新模型基于 Gemini 3 Pro 的强大推理能力,在分辨率、文本渲染和编辑能力上都实现了显著提升。
Nano Banana Pro 特别适合需要高分辨率图像和精确文字渲染的专业场景,如海报设计、广告创意、品牌营销等。API易第一时间完成接入,为设计师和开发者提供稳定、高质量的图像生成服务。
## 详细解析
### 新增模型
API易上线了 Nano Banana Pro 的图像生成模型:
**Nano Banana Pro 图像生成**
基于 Gemini 3 Pro 的图像生成模型,支持 4K 高清出图,业界最佳文本渲染,强大的局部编辑能力。
### 核心特性对比
| 特性 | Nano Banana (2.5) | Nano Banana Pro (3.0) | 提升幅度 |
| ---------- | ----------------- | --------------------- | ---------- |
| **最高分辨率** | 1024×1024 | 4K (4096×4096) | 🚀 16倍像素 |
| **文本渲染** | 良好 | 业界最佳 | ⭐⭐⭐ |
| **局部编辑** | 基础 | 高级(角度、焦点、光照) | ⭐⭐⭐ |
| **生成速度** | \~10秒 | \~20秒 | ⏱️ 稍慢但质量更强 |
| **推理能力** | Gemini 2.5 Flash | Gemini 3 Pro | 🧠 显著提升 |
| **价格** | \$0.039 | \$0.134-\$0.24 | 💰提价不少 |
| **API易价格** | \$0.02 | \$0.09 | 约官网 38%! |
**技术升级**:Nano Banana Pro 深度融合了 Gemini 3 Pro 的推理能力,能够更好地理解复杂提示词,生成更符合预期的高质量图像。
### 核心特性详解
#### 🎨 4K 高清支持
Nano Banana Pro 支持三种分辨率级别:
1024×1024 像素
适合快速原型、社交媒体内容
2048×2048 像素
适合网站横幅、数字广告
4096×4096 像素
适合印刷品、专业设计、大屏展示
#### ✍️ 文本渲染之王
Nano Banana Pro 在图像文本渲染方面达到了业界最佳水平:
* **清晰可读**:生成的文字边缘清晰,字体识别准确
* **样式丰富**:支持多种字体、大小、颜色、效果
* **中英文支持**:完美支持中文、英文及其他语言文字
* **排版精准**:文字位置、对齐、间距符合设计规范
**适用场景**:
* 📊 海报和宣传物料
* 🏷️ 品牌标语和广告
* 📰 社交媒体图文内容
* 🎨 包装设计和产品标签
#### 🛠️ 局部编辑能力
Nano Banana Pro 提供强大的局部编辑功能:
* 调整拍摄角度
* 改变焦距和景深
* 控制构图和视角
* 场景照明控制
* 日夜转换效果
* 阴影和高光调整
* 色调和饱和度
* 对比度和亮度
* 滤镜和风格化
* 背景虚化(Bokeh)
* 景深效果
* 艺术化渲染
#### 🔒 透明度与安全
* **SynthID 水印**:内置隐形水印,确保内容可追溯性
* **安全过滤**:自动过滤不当内容请求
* **版权保护**:遵守图像版权和使用规范
## 实际应用
### 推荐场景
* 高分辨率海报设计
* 印刷品和宣传册
* 品牌视觉设计
* 产品包装设计
* 带文字的广告创意
* 社交媒体图文内容
* 标语和口号图片
* 信息图表和图解
* 图像风格调整
* 光照和氛围优化
* 背景虚化效果
* 细节精修和优化
* 品牌形象一致性
* 视觉营销素材
* 多渠道内容生成
* A/B 测试素材制作
### 代码示例
#### OpenAI 兼容模式调用
```python theme={null}
import openai
client = openai.OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 基础图像生成
response = client.images.generate(
model="gemini-3-pro-image-preview",
prompt="一张现代简约风格的咖啡店海报,包含文字'晨光咖啡 Morning Brew',温暖的色调,专业摄影",
n=1,
size="1024x1024", # 支持 1024x1024, 2048x2048, 4096x4096
quality="hd" # 高清质量
)
image_url = response.data[0].url
print(f"生成的图像: {image_url}")
```
#### 高级参数配置
```python theme={null}
# 4K 高清图像生成
response = client.images.generate(
model="gemini-3-pro-image-preview",
prompt="一张 4K 高清的科技公司宣传海报,包含文字'AI 改变未来 AI Changes Future',科技感强烈,蓝色调,未来主义风格",
size="4096x4096",
quality="hd",
response_format="url"
)
# 局部编辑(通过 prompt 控制)
response = client.images.generate(
model="gemini-3-pro-image-preview",
prompt="一张咖啡杯的特写照片,背景虚化(bokeh effect),暖色调,从侧面45度角拍摄,柔和的自然光",
size="2048x2048",
quality="hd"
)
```
#### 批量生成
```python theme={null}
import asyncio
from openai import AsyncOpenAI
async_client = AsyncOpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
async def generate_image(prompt, index):
response = await async_client.images.generate(
model="gemini-3-pro-image-preview",
prompt=prompt,
size="2048x2048"
)
return f"Image {index}: {response.data[0].url}"
async def batch_generate():
prompts = [
"夏日海滩风格的饮料广告,文字'清凉一夏'",
"科技感十足的手机广告,文字'未来已来'",
"温馨家居风格的家具广告,文字'家的温度'"
]
tasks = [generate_image(prompt, i+1) for i, prompt in enumerate(prompts)]
results = await asyncio.gather(*tasks)
for result in results:
print(result)
# 运行批量生成
asyncio.run(batch_generate())
```
### 最佳实践
#### 1. Prompt 优化技巧
**文本渲染 Prompt**:
```
✅ 好的 Prompt:
"一张现代简约风格的海报,包含清晰可读的文字'Morning Coffee',
使用 sans-serif 字体,白色文字在深蓝色背景上,居中对齐"
❌ 避免的 Prompt:
"海报,有文字" # 太简略,结果不可控
```
**高清图像 Prompt**:
```
✅ 好的 Prompt:
"一张 4K 超高清的产品照片,细节丰富,专业摄影,工作室光照,
白色背景,产品居中,柔和阴影"
❌ 避免的 Prompt:
"产品照片" # 缺少细节描述
```
**局部编辑 Prompt**:
```
✅ 好的 Prompt:
"一张咖啡杯的特写,浅景深,背景虚化(bokeh),从45度角俯拍,
暖色调,柔和的自然光从左侧照射"
❌ 避免的 Prompt:
"咖啡杯照片" # 没有指定编辑效果
```
#### 2. 分辨率选择建议
* **1K (1024×1024)**:
* 快速原型和测试
* 社交媒体内容(Instagram、Twitter)
* Web 缩略图和图标
* **2K (2048×2048)**:
* 网站横幅和 Hero 图
* 数字广告素材
* 演示文稿和 PPT
* **4K (4096×4096)**:
* 印刷品(海报、宣传册)
* 大屏展示和广告牌
* 专业设计项目
* 需要后期裁剪的素材
#### 3. 文本渲染优化
* 在 prompt 中用引号标注文字内容
* 指定字体风格(serif/sans-serif)
* 说明文字颜色和位置
* 描述背景色和对比度
* 文字内容过长(建议少于20字)
* 复杂的排版需求
* 小字号文字(可能模糊)
* 过于艺术化的字体
## 价格与可用性
### 定价信息
Nano Banana Pro 的定价与谷歌官网保持一致:
| 分辨率 | 价格/张 | 推荐场景 |
| ------------------ | ------ | --------- |
| **1K (1024×1024)** | \$0.04 | 快速原型、社交媒体 |
| **2K (2048×2048)** | \$0.08 | 网站横幅、数字广告 |
| **4K (4096×4096)** | \$0.16 | 印刷品、专业设计 |
**价格优势**:API易充值加赠活动进行中,结合充值优惠,实际成本更低!满血 4K 高清版本定价只需要 \$0.09/张,官方 4K 价格为 \$0.24/张,约为官网 38%!批量生成享受更多优惠。
### 调用方式
**推荐方式**
使用 OpenAI SDK 的 `images.generate` 接口,只需更改 `model` 参数为 `gemini-3-pro-image-preview` 即可。
**完整功能**
使用谷歌官方 `/v1beta/models/gemini-3-pro-image-preview:generateContent` 端点,获取完整特性支持。
### 可用渠道
* ✅ **Google Gemini 应用**(网页端和移动端)
* ✅ **Google Ads**(广告创意生成)
* ✅ **Google Workspace**(文档和演示)
* ✅ **API易**(稳定直连,第一时间上线)⭐ 推荐
### 从旧版本迁移
如果您之前使用 Nano Banana (Gemini 2.5 Flash Image),升级到 Nano Banana Pro 非常简单:
```python theme={null}
# 旧版本
model="gemini-2.5-flash-image"
# 新版本 - 只需更改模型名
model="gemini-3-pro-image-preview"
# 其他参数保持不变
```
## 总结与建议
Nano Banana Pro 是谷歌迄今为止最强大的图像生成模型,特别适合需要高分辨率和精确文字渲染的专业场景。以下是我们的使用建议:
### 💡 谁应该使用?
* **设计师**:需要制作高质量海报、宣传品的专业设计师
* **营销人员**:需要快速生成广告素材和品牌内容的营销团队
* **内容创作者**:需要为社交媒体、博客生成图文内容的创作者
* **开发者**:需要为应用生成动态图像内容的软件开发者
### 🎯 选择建议
* **高分辨率需求**:优先选择 Nano Banana Pro,分辨率提升 16 倍
* **文字渲染**:有文字内容的图像,必选 Nano Banana Pro
* **快速原型**:如果只是快速测试,旧版 Nano Banana 也够用
* **专业项目**:印刷品和专业设计项目,强烈推荐 Nano Banana Pro
### 📊 与竞品对比
| 模型 | 最高分辨率 | 文本渲染 | 局部编辑 | 价格/张(4K) |
| ------------------- | ----- | ----- | ----- | -------- |
| **Nano Banana Pro** | 4K | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | \$0.16 |
| DALL-E 3 | 1K | ⭐⭐⭐ | ⭐⭐ | - |
| Midjourney | 2K | ⭐⭐⭐⭐ | ⭐⭐⭐ | \$0.20 |
| Stable Diffusion 3 | 2K | ⭐⭐ | ⭐⭐⭐⭐ | \$0.10 |
**注意事项**:
* 4K 图像生成时间约 20 秒,请耐心等待
* 文字渲染虽然是业界最佳,但仍建议文字内容少于20字
* 生成的图像包含 SynthID 水印,用于内容追溯
## 立即开始
准备好体验 Nano Banana Pro 了吗?
1. **注册 API易账号**:[https://api.apiyi.com](https://api.apiyi.com)
2. **充值获取令牌**:享受充值加赠活动
3. **查看 API 文档**:[Nano Banana 使用指南](/api-capabilities/nano-banana-image)
4. **开始调用**:将 `model` 参数改为 `gemini-3-pro-image-preview` 即可
有任何问题?欢迎加入我们的技术社区交流,或查看 [常见问题](/faq/model-availability) 获取帮助。
***
**信息来源**:
* 谷歌官方博客:Nano Banana Pro 发布公告 `blog.google/products/gemini/nano-banana-pro/`
* 谷歌云文档:Gemini 3 Pro Image API `cloud.google.com/vertex-ai/docs/generative-ai/image/generate-images`
* API易用户反馈:客户实测"强+稳"
* 数据获取日期:2025年11月20日
# Qwen3.6 双模上线:Max-Preview + Flash
Source: https://docs.apiyi.com/news/qwen-3-6-max-flash-launch
通义千问 Qwen3.6-Max-Preview 与 Qwen3.6-Flash 阿里云官转上线 API易,定价持平官网。Max 旗舰在 SWE-bench Pro 等 6 项编程基准登顶,Flash 支持 1M 多模态上下文。叠加充值活动约 85 折优惠。
## 核心要点
* **阿里云官转直发**:`qwen3.6-max-preview` 与 `qwen3.6-flash` 通过阿里云百炼官方通道接入 API易,稳定性与官方直连一致
* **Max 旗舰编程登顶**:Qwen3.6-Max-Preview 在 SWE-bench Pro、Terminal-Bench 2.0 等 6 项编程基准夺得第一,AIME 2025 93%、GPQA 86%、LiveCodeBench 79%
* **Flash 1M 多模态**:Qwen3.6-Flash 35B-A3B MoE,原生 256K(可扩 1M)上下文,支持文本 / 图像 / 视频输入
* **价格持平官网**:Max 挂牌 \$1.28 输入 / \$7.68 输出,Flash 挂牌 \$0.17 输入 / \$1.02 输出(每 1M tokens)
* **充值活动加赠约 85 折**:定价持平官网的同时,通过 API易 充值加赠活动可拉低实际单价至约 8.5 折
* **计费模式**:按量付费 - Chat,无需预订资源包
上架版本为**阿里云百炼官方通道**。模型基于阿里通义千问团队 2026 年 4 月发布的 Qwen3.6 系列。Max-Preview 为预览版,仍在持续迭代;Flash 为正式版。信息来源:阿里云百炼官方文档 `help.aliyun.com/zh/model-studio/models`、Qwen 团队博客 `qwen.ai/blog`,数据获取日期:2026-04-27。
## 背景介绍
Qwen3.6 是通义千问团队在 2026 年第二季度发布的新一代大模型家族,整体路线分四档:**Max**(旗舰)、**Plus**(均衡)、**Flash**(极速)、**35B-A3B**(开源本地)。Max-Preview 于 2026-04-20 在 Qwen Studio 首发后即开启 API 上架准备,本次随 Flash 一同接入 API易 阿里云官转分组。
对中文场景的实际意义在于两点:一是 **Max-Preview 把编程与 Agent 评测推到国产模型新高**,在 SWE-bench Pro 上以 58.4 反超此前国产顶配 GLM-5.1(56.6);二是 **Flash 用极低单价覆盖了"高频 + 多模态 + 长上下文"这一过去最贵的场景组合**,0.17 美金每百万输入 token 的价格,使图像 / 视频 + 长上下文工作流真正具备跑量条件。
## 详细解析
### 核心特性
**国产模型 Coding 新天花板**
SWE-bench Pro / Terminal-Bench 2.0 / SkillsBench / QwenClawBench / QwenWebBench / SciCode 6 项基准登顶,适合 Agent 与代码库级任务。
**35B-A3B MoE / 1M 上下文**
原生支持文本 / 图像 / 视频输入,256K 基础上下文可扩展至 1M,单价仅 Max 的约 1/8。
**稳定性与官方一致**
通过阿里云百炼官方通道接入,鉴权与限流策略与官网一致,国内访问延迟低。
**无需预订资源包**
Chat 接口直接按量计费,配合 API易 充值活动加赠,实际单价约 8.5 折。
### 性能亮点(Qwen3.6-Max-Preview)
以下数据来源于 Qwen 团队官方博客与第三方公开基准:
| 评测维度 | Qwen3.6-Max-Preview | GLM-5.1 | Qwen3.6-Plus |
| ------------------- | ------------------- | ------- | ------------ |
| SWE-bench Pro(真实软工) | **58.4** | 56.6 | — |
| LiveCodeBench | **79%** | — | — |
| AIME 2025(数学竞赛) | **93%** | — | — |
| GPQA(科学推理) | **86%** | — | — |
| Terminal-Bench 2.0 | **第 1** | — | — |
| 编程基准登顶项数 | **6 项** | — | — |
Max-Preview 标记为 Preview,意味着官方仍在迭代权重;Qwen 团队明确表示后续版本会有进一步提升,建议关键链路上线前先做小流量灰度。
### 技术规格
**Qwen3.6-Max-Preview**
* 模型 ID:`qwen3.6-max-preview`
* 架构:稠密大模型(具体参数未公开)
* 上下文:262K tokens
* 输入模态:文本
* 计费模式:按量付费 - Chat
* 通道:阿里云官转
**Qwen3.6-Flash**
* 模型 ID:`qwen3.6-flash`
* 架构:MoE,35B 总参 / 3B 激活(35B-A3B)
* 上下文:256K 基础,可扩展至 1M tokens
* 输入模态:文本 / 图像 / 视频
* 计费模式:按量付费 - Chat(高 token 段阶梯价)
* 通道:阿里云官转
Qwen3.6-Flash 在阿里云官网采用阶梯价:单次请求总输入 token 数会决定整请求的单价档位。API易 上架的挂牌价对应基础档;超过 256K 的超长请求请关注实际计费回执。
## 实际应用
### 推荐场景
用 `qwen3.6-max-preview` 做主驱动模型,配合 Cursor / Claude Code 等 Agent 工作流,SWE-bench Pro 表现可媲美 GPT-5 / Claude Opus 旗舰。
用 `qwen3.6-flash` 处理图像 / 视频理解、长文档总结、批量翻译这类高频任务,0.17/1.02 美金的单价让"跑量"真正成立。
Flash 256K → 1M 的扩展窗口适合 RAG 后检索 + 整篇综合归纳的链路,避免分块带来的语义断裂。
阿里云官转通道,对国内合规与数据出境敏感场景友好,可作为对标 GPT/Claude 的国产替代选项。
### 代码示例
```python theme={null}
import openai
client = openai.OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 编程旗舰:用 Max-Preview 跑 Agent 任务
resp = client.chat.completions.create(
model="qwen3.6-max-preview",
messages=[
{"role": "system", "content": "你是一个资深 Python 工程师,按规范返回 diff。"},
{"role": "user", "content": "为下面这段代码补充类型注解并修复潜在 bug ..."}
]
)
print(resp.choices[0].message.content)
# 极速多模态:用 Flash 处理图像 + 文本输入
resp = client.chat.completions.create(
model="qwen3.6-flash",
messages=[
{"role": "user", "content": [
{"type": "text", "text": "请用中文描述这张图片的关键信息"},
{"type": "image_url", "image_url": {"url": "https://your-image-url.png"}}
]}
]
)
print(resp.choices[0].message.content)
```
### 最佳实践
* **任务路由**:以 Flash 作为默认通道处理常规对话与分类,仅在编程 / 复杂推理 / Agent 调度时升级到 Max-Preview,可在不损失质量的前提下把成本压到最低。
* **Preview 灰度**:Max-Preview 仍在迭代,关键链路建议先小流量灰度 + AB 比对,待版本稳定后再切主流量。
* **多模态分批**:Flash 支持 1M 上下文,但单次过长仍会触发阶梯价。建议把超长视频先切片再喂入,按 256K 分批控制单次成本。
## 价格与可用性
### 定价信息
| 模型 | 计费模式 | 输入价格 | 输出价格 |
| --------------------- | ----------- | ------------------ | ------------------ |
| `qwen3.6-max-preview` | 按量付费 - Chat | \$1.28 / 1M tokens | \$7.68 / 1M tokens |
| `qwen3.6-flash` | 按量付费 - Chat | \$0.17 / 1M tokens | \$1.02 / 1M tokens |
挂牌价持平阿里云官网。叠加 API易 当期充值加赠后,实际单价约为 **8.5 折**。
### 叠加网站充值活动
API易 充值加赠活动详情:[/faq/recharge-promotions](/faq/recharge-promotions)
充值后实际折算单价(参考 8.5 折):
| 模型 | 实际输入 | 实际输出 |
| --------------------- | --------------- | -------------- |
| `qwen3.6-max-preview` | ≈ \$1.088 / 1M | ≈ \$6.528 / 1M |
| `qwen3.6-flash` | ≈ \$0.1445 / 1M | ≈ \$0.867 / 1M |
## 总结与建议
Qwen3.6-Max-Preview 与 Qwen3.6-Flash 是 API易 阿里云官转分组的最新补强:**Max 在编程与推理上把国产模型推到新高,Flash 把多模态长上下文的单价压到极低**。两款模型搭配使用,可以覆盖从重型 Agent 到高频分发的完整需求曲线。
推荐策略:**Flash 默认 + Max-Preview 升级**。常规对话 / 多模态批量交给 Flash,编程 / Agent / 复杂推理升级到 Max-Preview,再叠加充值加赠拿到约 85 折单价,是当前阿里云官转通道里性价比最优的组合。
数据来源:阿里云百炼官方文档(`help.aliyun.com/zh/model-studio/models`)、Qwen 团队官方博客(`qwen.ai/blog`)、Qwen3.6-Max-Preview 评测报告。Max-Preview 发布日期:2026-04-20。文章数据获取日期:2026-04-27 (UTC+8)。
# Qwen3.6 开源双模上线:API易官转托管 · 免租卡
Source: https://docs.apiyi.com/news/qwen-3-6-opensource-launch
Qwen3.6 系列新增 qwen3.6-27b 与 qwen3.6-35b-a3b 两款开源权重模型,由 API易 官转托管:27b 编程对标 397B、35b-a3b 与闭源 Flash 同源 MoE。按量付费 Chat 平价不分档(27b $0.42/$2.52,35b-a3b $0.26/$1.56),免去客户租 GPU、运维推理框架。
## 核心要点
* **Qwen3.6 系列扩展为 5 模型**:在闭源 Max-Preview / Flash / Plus 之外,新增 `qwen3.6-27b`(27B 稠密)与 `qwen3.6-35b-a3b`(35B MoE / 3B 激活)两款**开源权重**模型
* **API易 官转托管**:开源不等于免费跑,权重虽然在 Hugging Face 公开(`Qwen/Qwen3.6-27B`、`Qwen/Qwen3.6-35B-A3B`),但本地推理需要 GPU、显存、推理框架与运维。**API易 官转托管把这些全部托掉**
* **免去客户租卡 / 买算力**:按 token 计费,开发期直接调 API 跑通,未来若需自托管再切换权重,路径平滑
* **平价不分档**:开源版采用按量付费 - Chat **平价计费**(不分阶梯):`qwen3.6-27b` \$0.42 输入 / \$2.52 输出,`qwen3.6-35b-a3b` \$0.26 输入 / \$1.56 输出 每 1M tokens
* **OpenAI 兼容**:与闭源版共用 `/v1/chat/completions` 端点,仅 `model` 字段区分,5 模型同一份 SDK
* **充值加赠叠加约 8.5 折**:挂牌持平官网,叠加 API易 充值活动后实际单价约官网 8.5 折
上架版本基于 Qwen 团队开源权重:`Qwen/Qwen3.6-27B`(Hugging Face)、`Qwen/Qwen3.6-35B-A3B`(Hugging Face)。本次上线为 **API易 官转托管版本**,权重与官方一致,调用方式 OpenAI Chat Completions 兼容。信息来源:Qwen 团队 Hugging Face 模型卡片,数据获取日期:2026-04-28 (UTC+8)。
## 背景介绍
Qwen 团队在发布 Qwen3.6 闭源生产版(Max / Plus / Flash)的同时,也按照惯例把 27B 稠密版与 35B-A3B MoE 版的权重在 Hugging Face 开源放出,给希望"权重可审计、协议可控、可本地部署"的客户一条退路。
但开源 ≠ 跑得起来。本地推理一个 27B 稠密模型至少需要:A100 40G ×1 起步、vLLM / TensorRT-LLM 等推理框架、监控告警、容灾、版本升级流程;35B-A3B 虽然激活 3B 但显存仍按 35B 总参算。**对绝大多数客户而言,"想用开源 Qwen3.6"和"养得起一台开源 Qwen3.6 推理集群"之间,差着一支 SRE 团队的距离。**
API易 这次上架的核心价值就是把这条路径补齐:**开源权重 + 官转托管 = 客户调 API 直接用,不用关心 GPU**。开发期跑通业务、生产期再决定要不要切自托管,路径平滑、成本可控。
## 详细解析
### 核心特性
**27B 稠密 · 开源权重**
Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-27B`),27B 编程能力对标 397B 量级模型,单 GPU 友好。
**35B-A3B 开源 MoE**
Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-35B-A3B`),与闭源 Flash 同源,3B 激活极低算力成本。
**权重在公网,算力在我们这里**
客户调 API 即可使用,省去租 GPU / 部署推理 / 监控运维 / 版本升级,按 token 计费、按需扩缩。
**预算简单可控**
开源版按量付费 - Chat 平价计费,不分阶梯档位。无需提前评估 P95 token 数,预算可直接按 token 数线性估算。
### 性能与定位
| 维度 | qwen3.6-27b | qwen3.6-35b-a3b |
| ----------------- | --------------------- | ---------------------- |
| 架构 | 27B 稠密 | MoE 35B 总参 / 3B 激活 |
| 开源协议 | Qwen 团队开源 | Qwen 团队开源 |
| Hugging Face 仓库 | `Qwen/Qwen3.6-27B` | `Qwen/Qwen3.6-35B-A3B` |
| 编程能力 | 对标 397B 级别(小尺寸编程冠军) | 与闭源 Flash 同源 |
| 多模态 | 文本 | 文本 |
| 推荐场景 | 成本敏感的编程辅助、合规审计、本地部署评估 | 高频低成本对话、未来可切自托管的过渡期 |
| 单 GPU 部署门槛(自托管参考) | A100 40G 起 | 显存按 35B 总参,推理算力按 3B 激活 |
**小尺寸的编程模型有什么用?**——在 IDE 内联补全、PR 审查、代码搜索这类**低延迟 / 高频次**场景,27B 比闭源旗舰更适合:响应快、成本低、又有接近大模型的代码理解能力。
### 技术规格
* **模型 ID**:`qwen3.6-27b` / `qwen3.6-35b-a3b`
* **端点**:`POST /v1/chat/completions`(OpenAI Chat Completions 兼容)
* **输入模态**:文本
* **流式输出**:✅ 支持
* **函数调用 / Tool Use**:✅ 支持
* **计费模式**:按量付费 - Chat(平价,**不分档**)
* **通道**:API易 官转托管
* **上下文 / 最大输出**:与官方权重卡片一致,详见 Hugging Face 模型仓库
## 实际应用
### 推荐场景
用 `qwen3.6-27b` 做 IDE 内联补全、PR Bot、commit 摘要等高频任务,27B 体积响应快,单价远低于 Max-Preview 旗舰。
用 `qwen3.6-35b-a3b` 处理客服对话、批量翻译、内容审核等高并发任务,3B 激活算力极低,单价仅 \$0.26/\$1.56。
需要"权重可审计 / 协议可备案"的客户,可拉取 Hugging Face 公开权重做内部合规检查,运行时仍走 API易 官转托管。
评估开源 Qwen3.6 是否适合业务前,先用 API易 跑通 PoC、量化 token 成本,再决定是否上自有 GPU 集群。
### 代码示例
```python theme={null}
import openai
client = openai.OpenAI(
api_key="sk-your-api-key",
base_url="https://api.apiyi.com/v1"
)
# 27B 编程小钢炮:低延迟代码补全
resp = client.chat.completions.create(
model="qwen3.6-27b",
messages=[
{"role": "system", "content": "你是 Python IDE 内联补全助手,只返回代码差异,不解释。"},
{"role": "user", "content": "为下面这个函数补全实现:def merge_intervals(intervals): ..."}
],
stream=True
)
for chunk in resp:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
# 35B-A3B 极速 MoE:高并发对话
resp = client.chat.completions.create(
model="qwen3.6-35b-a3b",
messages=[
{"role": "user", "content": "用一句话介绍量子纠缠"}
]
)
print(resp.choices[0].message.content)
```
### 最佳实践
* **小模型先行**:成本敏感场景,先尝试 27B / 35B-A3B;如能力足够则停在开源档;不足时再升级到闭源 Plus / Max-Preview,避免过度投入旗舰单价。
* **平价计费的预算估算**:开源版**不分档**,可以直接按 `输入 token × 单价 + 输出 token × 单价` 线性估算月度成本,不用算 P95 token 落档概率。
* **未来自托管的平滑过渡**:API易 官转 SDK 与自托管 vLLM 的 OpenAI 兼容接口完全一致,未来若有自有算力,把 `base_url` 切到内部网关即可,业务代码零改动。
## 价格与可用性
### 定价信息
| 模型 | 计费模式 | 输入价格 | 输出价格 |
| ----------------- | ------------------ | -------------------- | -------------------- |
| `qwen3.6-27b` | 按量付费 - Chat(平价不分档) | \$0.4200 / 1M tokens | \$2.5200 / 1M tokens |
| `qwen3.6-35b-a3b` | 按量付费 - Chat(平价不分档) | \$0.2600 / 1M tokens | \$1.5600 / 1M tokens |
**平价计费 vs 阶梯计费**:闭源 Max-Preview / Flash / Plus 采用阶梯计费(按单次请求输入 token 数决定档位),开源 27b / 35b-a3b 采用**单一档位平价计费**,预算估算更直接。挂牌价持平阿里云官网,叠加 API易 充值加赠后实际单价约**官网 8.5 折**。
### 叠加网站充值活动
API易 充值加赠活动详情:[/faq/recharge-promotions](/faq/recharge-promotions)
充值加赠后实际折算单价(参考 8.5 折):
| 模型 | 实际输入 | 实际输出 |
| ----------------- | -------------- | -------------- |
| `qwen3.6-27b` | ≈ \$0.357 / 1M | ≈ \$2.142 / 1M |
| `qwen3.6-35b-a3b` | ≈ \$0.221 / 1M | ≈ \$1.326 / 1M |
## 总结与建议
Qwen3.6 开源双模上线,把"开源权重可控"和"免租卡 / 免运维"这两件原本互斥的事缝合到一起:
* **27B 稠密** —— 编程小钢炮,低延迟、高频次、成本可控,适合 IDE 类内嵌场景
* **35B-A3B 开源 MoE** —— 与闭源 Flash 同源、3B 激活极速,适合大并发分发
**推荐策略**:成本敏感场景从开源档(27b / 35b-a3b)起步,跑通业务再决定要不要升级到闭源生产版。叠加充值加赠后开源 35B-A3B 实际输入约 \$0.22 / 1M tokens,是当前阿里云官转通道里最便宜的开源方案。
数据来源:Qwen 团队 Hugging Face 模型仓库(`Qwen/Qwen3.6-27B`、`Qwen/Qwen3.6-35B-A3B`)。本次上线为 API易 官转托管版本,与官方权重一致,调用方式 OpenAI Chat 兼容。文章数据获取日期:2026-04-28 (UTC+8)。
## 相关阅读
* [Qwen3.6 系列文本模型概览](/api-capabilities/qwen-3-6/overview) - 5 模型完整介绍 + 价格 + 路由策略
* [Qwen3.6 双模上线:Max-Preview + Flash](/news/qwen-3-6-max-flash-launch) - 闭源生产版深度解读
* [Qwen3.6-Plus 上线:阿里千问最强编程 Agent 模型](/news/qwen-3-6-plus-launch) - Plus 均衡主力深度解读
# Qwen3.6-Plus 上线:阿里千问最强编程 Agent 模型
Source: https://docs.apiyi.com/news/qwen-3-6-plus-launch
阿里通义千问3.6系列首款模型 Qwen3.6-Plus 上线 API易,MoE 架构 72B 参数仅 18B 有效计算,100万 Token 上下文,Terminal-Bench 61.6 超越 Claude Opus 4.5,编程 Agent 能力国产第一。
## 核心要点
* **国产编程最强**:Terminal-Bench 2.0 达 61.6 超越 Claude Opus 4.5(59.3),SWE-bench Verified 78.8,编程 Agent 能力全球顶尖
* **MoE 高效架构**:72B 总参数 / 8 专家 / 激活 2 个,有效计算量仅约 18B 密集模型水平,推理速度约为 Claude Opus 4.6 的 3 倍
* **百万级上下文**:100 万 Token 上下文窗口,可一次性处理约 75 万字文本或完整大型代码仓库
* **始终开启思维链**:always-on chain-of-thought 推理 + 原生函数调用,天生适合 Agent 工作流
* **多模态感知**:原生多模态训练,支持基于截图、设计稿生成前端代码
## 背景介绍
2026 年 4 月 2 日,阿里通义千问团队正式发布 Qwen3.6 系列的首款模型 **Qwen3.6-Plus**,被誉为「中国编程能力最强的模型」。这是千问系列在 MoE(混合专家)架构上的重大升级,在保持极高推理效率的同时,编程和 Agent 能力直接对标 Claude Opus 4.5。
Qwen3.6-Plus 的发布标志着国产大模型在编程 Agent 领域迈入世界第一梯队。在 Terminal-Bench 2.0 等真实编程任务评测中,Qwen3.6-Plus 超越了 Claude Opus 4.5,并在 OpenRouter 上架后短时间内刷新了日调用量纪录。
API易现已上线 `qwen3.6-plus`,支持 OpenAI 兼容模式直接调用。
## 详细解析
### 核心特性
Terminal-Bench 61.6 超越 Claude Opus 4.5,SWE-bench 78.8,可自主拆解任务、规划路径、测试修改直至完成
72B 总参数 / 8 专家模块 / 每次激活 2 个,有效计算约 18B,推理速度快且成本低
100 万 Token 窗口,可一次摄入完整大型代码仓库或约 75 万字文本,长文档处理无压力
基于原生多模态数据训练,可基于界面截图、设计稿完成前端页面生成、代码补全等任务
### 性能亮点
| 评测领域 | 评测项目 | Qwen3.6-Plus | 对比 |
| ------------- | ------------------ | ------------ | --------------------- |
| **编程** | Terminal-Bench 2.0 | **61.6** | Claude Opus 4.5: 59.3 |
| **编程** | SWE-bench Verified | **78.8** | Claude Opus 4.5: 80.9 |
| **文档** | OmniDocBench v1.5 | **91.2** | 全球第一 |
| **真实问答** | RealWorldQA | **85.4** | 领先主流模型 |
| **Web Agent** | QwenWebBench Elo | **1502** | 仅次于 Gemini 3 Pro |
数据来源:阿里通义千问官方博客(`qwen.ai/blog`)、OpenRouter 评测数据。Qwen3.6-Plus 于 2026 年 4 月 2 日正式发布。
**与竞品对比**:
* **vs Claude Opus 4.5**:Terminal-Bench 超越(61.6 vs 59.3),SWE-bench 接近(78.8 vs 80.9)
* **vs Gemini 3 Pro**:OmniDocBench 领先,QwenWebBench 接近
* **推理速度**:社区实测约为 Claude Opus 4.6 的 3 倍
### 技术规格
| 参数 | Qwen3.6-Plus |
| --------- | ------------------- |
| **架构** | MoE(混合专家) |
| **总参数** | 72B |
| **专家数量** | 8 个(每次激活 2 个) |
| **有效计算量** | \~18B |
| **上下文窗口** | 1,000,000 tokens |
| **最大输出** | 65,536 tokens |
| **思维链** | 始终开启(always-on CoT) |
| **函数调用** | 原生支持 |
| **多模态** | 文本 + 图片输入 |
| **模型名称** | `qwen3.6-plus` |
## 实际应用
### 推荐场景
自主代码修复、仓库级重构、复杂终端操作,适合 Claude Code / Cursor 等编程助手场景
百万 Token 上下文,一次性分析完整代码仓库或长篇文档,OmniDocBench 全球第一
基于设计稿或截图自动生成前端页面,支持交互式修改和代码补全
始终开启思维链 + 原生函数调用,适合复杂工作流编排和多步骤任务执行
### 代码示例
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="qwen3.6-plus",
messages=[
{"role": "system", "content": "你是一个专业的编程助手。"},
{"role": "user", "content": "请帮我写一个 Python 函数,实现 LRU 缓存,要求支持并发访问。"}
],
max_tokens=8192
)
print(response.choices[0].message.content)
```
```javascript theme={null}
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.apiyi.com/v1",
});
const response = await client.chat.completions.create({
model: "qwen3.6-plus",
messages: [
{ role: "user", content: "Review this code for potential security issues and suggest fixes." }
],
max_tokens: 8192,
});
console.log(response.choices[0].message.content);
```
### 最佳实践
Qwen3.6-Plus 始终启用思维链推理,输出可能包含推理过程。如果只需要最终答案,可在 system prompt 中指定「直接给出结果,不要推理过程」。
* **编程场景**:利用百万上下文窗口,将完整项目代码作为上下文传入,获得更精准的代码修改建议
* **Agent 场景**:充分利用原生函数调用能力,定义清晰的工具描述,让模型自主规划执行路径
* **长文档**:对于超长文档,Qwen3.6-Plus 的 OmniDocBench 91.2 全球第一,非常适合文档理解和信息抽取
## 价格与可用性
### 定价信息
| 计费项 | 价格 |
| ------ | ----------- |
| **输入** | 详见 API易 控制台 |
| **输出** | 详见 API易 控制台 |
### 叠加网站充值活动
当前充值加赠活动持续进行中,充值越多加赠越多,详情请查看 [充值优惠政策](/faq/recharge-promotions)。
## 总结与建议
Qwen3.6-Plus 是目前国产最强的编程 Agent 模型,Terminal-Bench 61.6 超越 Claude Opus 4.5,MoE 架构带来出色的推理速度和成本优势。百万 Token 上下文 + 始终开启思维链 + 原生函数调用的组合,使其成为编程助手、Agent 工作流和长文档处理的理想选择。
**推荐人群**:
* 需要高质量编程助手的开发者
* 构建 Agent 工作流的技术团队
* 需要处理超长文档或大型代码仓库的用户
* 追求高性价比的国产模型替代方案
信息来源:阿里通义千问官方博客(`qwen.ai/blog`)、中新网、观察者网、IT之家。数据获取日期:2026 年 4 月 6 日。千问 3.6 系列后续还将发布更强的 Qwen3.6-Max 旗舰模型及其他尺寸的开源模型。
# Seed 2.0 Lite 上线:字节跳动高性价比企业级多模态模型
Source: https://docs.apiyi.com/news/seed-2-0-lite-launch
字节跳动 Seed 2.0 Lite 正式上线 API易,整体性能超越 Seed 1.8,支持图片/视频/文本多模态输入,AIME 2025 达 93.0,MMLU-Pro 87.7,适合高吞吐量生产场景,OpenAI 兼容模式即可调用。
## 核心要点
* **超越前代**:整体性能全面超越上一代 Seed 1.8,在视觉推理、指令跟随、工具调用等方面均有显著提升
* **多模态输入**:支持图片、视频、文本多种输入类型,覆盖文档/图表分析和视频理解场景
* **灵活视觉分级**:提供 low / high / xhigh 三档视觉输入质量选项,按需平衡成本与精度
* **强劲评测表现**:AIME 2025 达 93.0,MMLU-Pro 87.7(超越 Pro),SWE-Bench Verified 73.5%
* **高性价比部署**:成本约为 Pro 的 1/5,适合高 QPS、大规模覆盖的生产场景
## 背景介绍
2026 年 2 月 14 日,字节跳动 Seed 团队正式发布 Seed 2.0 系列大语言模型,推出 Pro、Lite、Mini 三个版本,覆盖从旗舰到轻量的全场景需求。
Seed 2.0 Lite 定位为**通用生产级模型**,在保持强劲能力的同时大幅降低推理成本。它专为高频企业工作负载设计,适用于非结构化信息处理、文本内容创作、搜索推荐和数据分析等核心生产任务。
相比上一代 Seed 1.8,Lite 在多模态理解、指令跟随、推理能力和工具调用方面均实现了大幅提升,同时新增了视频理解和灵活的视觉分级能力。
API易已全面上架 Seed 2.0 Lite,支持 OpenAI 兼容模式直接调用。
## 详细解析
### 核心特性
支持图片、视频、文本输入,覆盖文档/图表分析、视频字幕和视觉定位等常见场景
提供 low / high / xhigh 三档视觉输入质量,默认 high 档提升可预测性,xhigh 档处理密集文本和复杂图表
指令跟随、推理和工具/函数调用能力大幅提升,COLLIE 达 94.0,MARS-Bench 达 80.5
成本约为 Pro 的 1/5,在保持能力优势的同时大幅降本,适合高 QPS 和大规模覆盖场景
### 性能亮点
Seed 2.0 Lite 在多个权威评测中表现出色:
| 评测项目 | Seed 2.0 Lite | Seed 2.0 Pro | Seed 1.8 | 说明 |
| ---------------------- | ------------- | ------------ | -------- | ------------- |
| **AIME 2025** | **93.0** | 96.0 | - | 数学推理,接近旗舰水平 |
| **MMLU-Pro** | **87.7** | 87.0 | - | 知识理解,超越 Pro |
| **SWE-Bench Verified** | **73.5%** | 76.5% | - | 软件工程任务 |
| **LiveCodeBench v6** | **81.7** | 84.0 | - | 实时编程评测 |
| **MathVision** | **86.4** | - | 81.3 | 视觉数学推理,大幅超越前代 |
| **MathVista** | **89.0** | - | - | 视觉数学理解 |
| **VideoMME** | **87.7** | - | - | 视频多模态理解 |
| **COLLIE** | **94.0** | - | - | 指令跟随能力 |
数据来源:ByteDance Seed 官方网站(`seed.bytedance.com`)及 LLM Stats(`llm-stats.com`)。Seed 2.0 系列于 2026 年 2 月 14 日正式发布。
**关键亮点**:
* **数学推理接近旗舰**:AIME 2025 达 93.0,仅比 Pro(96.0)低 3 分
* **知识理解超越 Pro**:MMLU-Pro 以 87.7 超过 Pro 的 87.0,证明在知识理解任务上 Lite 完全胜任
* **视觉推理大幅提升**:MathVision 从 Seed 1.8 的 81.3 提升至 86.4,进步显著
* **视频理解能力**:VideoMME 达 87.7,VideoReasonBench 达 64.2,支持时空视频分析
### 多模态能力详解
Seed 2.0 Lite 的多模态能力是此次升级的一大亮点:
**图像理解**:
* 支持混合图文内容的信息提取
* 文档和图表分析覆盖大部分常见场景
* 视觉定位(Grounding)能力
**视频理解**:
* 时空视频理解和运动感知
* 视频字幕生成
* 视频推理分析
**视觉质量分级**:
| 分级 | 适用场景 | 成本 |
| ------------ | ---------------- | -- |
| **low** | 简单图像识别、快速分类 | 最低 |
| **high**(默认) | 常规文档/图表分析,可预测性好 | 中等 |
| **xhigh** | 密集文本、复杂图表、细节丰富场景 | 最高 |
Seed 2.0 Lite 支持多模态输入(图片/视频/文本),但输出仅支持文本格式。
### 技术规格
| 参数 | Seed 2.0 Lite |
| -------- | ------------------ |
| **发布日期** | 2026 年 2 月 14 日 |
| **开发商** | 字节跳动 Seed 团队 |
| **输入类型** | 文本、图片、视频 |
| **输出类型** | 文本 |
| **视觉分级** | low / high / xhigh |
| **知识截止** | 2024 年 1 月 |
| **调用方式** | OpenAI 兼容模式 |
## 实际应用
### 推荐场景
Seed 2.0 Lite 凭借高性价比和强劲多模态能力,特别适合以下场景:
1. **非结构化信息处理**:文档解析、票据识别、合同分析
2. **文本内容创作**:营销文案、产品描述、内容摘要
3. **搜索与推荐**:语义理解、意图识别、内容排序
4. **数据分析**:报表解读、图表理解、趋势分析
5. **视频内容理解**:视频字幕、内容审核、片段分析
6. **代理工作流**:多步骤指令执行、工具调用、函数调用
### 代码示例
#### 文本对话
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="seed-2-0-lite-260228",
messages=[
{
"role": "user",
"content": "分析以下季度数据,给出关键趋势和建议..."
}
],
max_tokens=4096
)
print(response.choices[0].message.content)
```
#### 图像理解
```python theme={null}
response = client.chat.completions.create(
model="seed-2-0-lite-260228",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "请分析这张图表中的关键数据和趋势"
},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/chart.png",
"detail": "high"
}
}
]
}
],
max_tokens=4096
)
print(response.choices[0].message.content)
```
#### 工具调用
```python theme={null}
response = client.chat.completions.create(
model="seed-2-0-lite-260228",
messages=[
{"role": "user", "content": "北京今天的天气怎么样?"}
],
tools=[
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名称"}
},
"required": ["city"]
}
}
}
]
)
print(response.choices[0].message)
```
### 最佳实践
1. **选择合适的视觉分级**:
* 常规文档分析使用默认 **high** 档即可
* 密集文本或复杂图表使用 **xhigh** 档确保准确性
* 简单分类任务使用 **low** 档节省成本
2. **充分利用多模态能力**:
* 混合图文输入可提升信息提取效果
* 视频理解支持时空分析,适合内容审核场景
3. **大规模生产部署**:
* Lite 成本约为 Pro 的 1/5,高 QPS 场景优先选择
* 在知识理解(MMLU-Pro)等任务上 Lite 可完全替代 Pro
## 价格与可用性
### Seed 2.0 系列对比
| 版本 | 定位 | 适用场景 | 成本级别 |
| ----------------- | ----- | ------- | ----------- |
| **Seed 2.0 Pro** | 旗舰模型 | 最高精度任务 | 最高 |
| **Seed 2.0 Lite** | 生产级模型 | 日常生产任务 | 约 Pro 的 1/5 |
| **Seed 2.0 Mini** | 轻量模型 | 低延迟、高并发 | 最低 |
Seed 2.0 Lite 的定价约为 Pro 的 1/5,在大部分评测中性能接近甚至超越 Pro(如 MMLU-Pro),是生产环境的最佳性价比之选。
### 叠加网站充值活动
API易 提供充值加赠优惠,充值越多加赠越多,叠加模型本身的价格优势,实际使用成本更低。
### 可用模型
| 模型名称 | 说明 |
| ---------------------- | ------------- |
| `seed-2-0-lite-260228` | 通用生产级模型,多模态输入 |
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 支持 OpenAI 兼容格式
* 兼容所有 OpenAI SDK
## 总结与建议
Seed 2.0 Lite 是字节跳动 Seed 2.0 系列中性价比最优的选择,在多模态理解、指令跟随和推理能力方面全面超越前代 Seed 1.8,同时保持了极具竞争力的低成本。
**核心优势**:
* **性价比之王**:成本约为 Pro 的 1/5,部分评测(MMLU-Pro)甚至超越 Pro
* **全面多模态**:图片、视频、文本输入全覆盖,视觉分级灵活可控
* **生产就绪**:长上下文处理、多源信息融合、高保真结构化输出
* **代理能力强**:指令跟随 94.0(COLLIE),工具调用大幅提升
**使用建议**:
1. **日常生产任务**:Lite 是默认首选,平衡能力与成本
2. **高精度需求**:考虑升级到 Pro,如 SWE-Bench 任务
3. **高并发轻量场景**:考虑 Mini,成本更低
4. **视觉密集场景**:使用 xhigh 视觉分级确保准确性
**谁应该使用 Seed 2.0 Lite**:
* 需要大规模部署 AI 能力的企业用户
* 需要多模态文档/视频分析的生产场景
* 构建代理工作流的开发者
* 追求性价比的高 QPS 应用
API易已全面上架 Seed 2.0 Lite,OpenAI 兼容模式直接调用,立即体验字节跳动高性价比企业级模型!
信息来源:ByteDance Seed 官方网站(`seed.bytedance.com`)、LLM Stats(`llm-stats.com`)。Seed 2.0 系列于 2026 年 2 月 14 日正式发布。数据获取时间:2026 年 3 月 8 日。
# Seed 2.0 Pro 旗舰版上线:字节跳动最强推理模型
Source: https://docs.apiyi.com/news/seed-2-0-pro-launch
字节跳动 Seed 2.0 Pro 旗舰推理模型正式上线 API易,AIME 2025 达 98.3,Codeforces 3020,SWE-Bench Verified 76.5%,支持多模态理解和 Agent 工作流,OpenAI 兼容模式即可调用。
## 核心要点
* **旗舰推理能力**:AIME 2025 达 98.3,AIME 2026 达 94.2,数学推理能力全球顶尖
* **顶级编程表现**:Codeforces 评分 3020(无工具),LiveCodeBench v6 达 87.8,SWE-Bench Verified 76.5%
* **强大 Agent 能力**:BrowseComp 77.3,tau2-Bench Retail 90.4 / Telecom 94.2,WideSearch 74.7
* **多模态理解**:支持图片、视频、文本输入,VideoMME 89.5,MMMU 85.4
* **全球竞争力**:LMArena 排行榜第 6,直接对标 GPT-5.2、Claude Opus 4.5、Gemini 3 Pro
## 背景介绍
2026 年 2 月 14 日,字节跳动 Seed 团队正式发布 Seed 2.0 系列大语言模型,推出 Pro、Lite、Mini、Code 四个版本。其中 **Seed 2.0 Pro** 作为旗舰版本,定位为最高精度的推理和 Agent 模型,在数学、编程、多模态理解和复杂工作流执行方面均展现出世界级水准。
Seed 2.0 Pro 是豆包(Doubao)App 背后的核心模型之一,该应用每周活跃用户超过 1.55 亿。Pro 版本专为需要长链推理、复杂决策和多步骤任务执行的场景设计。
API易现已上架 Seed 2.0 Pro 最新版本 `seed-2-0-pro-260328`,支持 OpenAI 兼容模式直接调用。
## 详细解析
### 核心特性
AIME 2025 达 98.3,GPQA Diamond 88.9,长链推理鲁棒性出色,适合复杂数学和科学问题
Codeforces 3020(无工具),SWE-Bench 76.5%,TerminalBench 2.0 达 55.8,覆盖从竞赛到工程全场景
BrowseComp 77.3,tau2-Bench 零售/电信均超 90,设计用于长链任务执行和工具增强推理
支持图片、视频、文本输入,VideoMME 89.5,MMMU 85.4,MotionBench 75.2
### 性能亮点
Seed 2.0 Pro 在多个权威评测中达到世界级水准:
| 评测领域 | 评测项目 | Seed 2.0 Pro | 说明 |
| --------- | -------------------- | ------------ | ---------- |
| **数学** | AIME 2025 | **98.3** | 接近满分 |
| **数学** | AIME 2026 | **94.2** | 最新数学竞赛 |
| **数学** | GPQA Diamond | **88.9** | 研究生级别推理 |
| **数学** | MathVision | **88.8** | 视觉数学推理 |
| **知识** | MMLU-Pro | **87.0** | 专业知识理解 |
| **编程** | Codeforces | **3020** | 无工具竞赛编程 |
| **编程** | LiveCodeBench v6 | **87.8** | 实时编程评测 |
| **编程** | SWE-Bench Verified | **76.5%** | 软件工程任务 |
| **编程** | TerminalBench 2.0 | **55.8** | 终端操作能力 |
| **多模态** | VideoMME | **89.5** | 视频理解 |
| **多模态** | MMMU | **85.4** | 多模态大学级推理 |
| **Agent** | BrowseComp | **77.3** | 浏览器操作 |
| **Agent** | tau2-Bench (Retail) | **90.4** | 零售场景 Agent |
| **Agent** | tau2-Bench (Telecom) | **94.2** | 电信场景 Agent |
数据来源:ByteDance Seed 官方网站(`seed.bytedance.com`)及 LLM Stats(`llm-stats.com`)。Seed 2.0 系列于 2026 年 2 月 14 日正式发布。
**竞品对比**:
* **vs GPT-5.2**:输入成本约为 GPT-5.2 的 1/3.7,输出成本约为 1/5.9
* **vs Claude Opus 4.5**:输入成本约为 Opus 4.5 的 1/10
* **vs Gemini 3 Pro**:在 Agent 和数学推理方面各有优势
* Seed 2.0 Pro 在 ICPC、IMO、CMO 竞赛中均获得金牌
### 技术规格
| 参数 | Seed 2.0 Pro |
| -------- | --------------------------- |
| **模型版本** | seed-2-0-pro-260328 |
| **发布日期** | 2026 年 2 月 14 日(3 月 28 日更新) |
| **开发商** | 字节跳动 Seed 团队 |
| **输入类型** | 文本、图片、视频 |
| **输出类型** | 文本 |
| **知识截止** | 2024 年 1 月 |
| **调用方式** | OpenAI 兼容模式 |
## 实际应用
### 推荐场景
Seed 2.0 Pro 凭借顶级推理和 Agent 能力,特别适合:
1. **复杂数学与科学推理**:高难度数学证明、科研辅助、定量分析
2. **高级编程任务**:代码生成、代码审查、大型项目重构、Bug 修复
3. **Agent 工作流**:多步骤自动化、浏览器操作、复杂决策链
4. **图像转代码**:将设计稿转换为功能页面
5. **3D 设计与 CAD**:辅助工程设计和建模
6. **多模态文档分析**:复杂图表、视频内容的深度理解
### 代码示例
#### 文本对话
```python theme={null}
from openai import OpenAI
client = OpenAI(
api_key="your-apiyi-key",
base_url="https://api.apiyi.com/v1"
)
response = client.chat.completions.create(
model="seed-2-0-pro-260328",
messages=[
{
"role": "user",
"content": "证明:对于所有正整数 n,n^3 + 2n 能被 3 整除"
}
],
max_tokens=4096
)
print(response.choices[0].message.content)
```
#### 图像理解
```python theme={null}
response = client.chat.completions.create(
model="seed-2-0-pro-260328",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "将这个设计稿转换为 HTML + CSS 代码"
},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/design.png",
"detail": "high"
}
}
]
}
],
max_tokens=4096
)
print(response.choices[0].message.content)
```
#### 工具调用
```python theme={null}
response = client.chat.completions.create(
model="seed-2-0-pro-260328",
messages=[
{"role": "user", "content": "帮我查询最近的航班信息并比较价格"}
],
tools=[
{
"type": "function",
"function": {
"name": "search_flights",
"description": "搜索航班信息",
"parameters": {
"type": "object",
"properties": {
"origin": {"type": "string", "description": "出发城市"},
"destination": {"type": "string", "description": "目的城市"},
"date": {"type": "string", "description": "出发日期"}
},
"required": ["origin", "destination", "date"]
}
}
}
]
)
print(response.choices[0].message)
```
### 最佳实践
1. **充分利用长链推理**:Pro 的优势在于复杂多步骤问题,简单任务可使用 Lite 或 Mini 节省成本
2. **Agent 场景优先选 Pro**:需要工具调用和多步决策时,Pro 的鲁棒性远超其他版本
3. **搭配 Lite 使用**:日常生产任务用 Lite(成本约 Pro 的 1/5),高精度需求升级到 Pro
## 价格与可用性
### Seed 2.0 系列对比
| 版本 | 定位 | 适用场景 | 成本级别 |
| ----------------- | ------ | ---------------- | ----------- |
| **Seed 2.0 Pro** | 旗舰推理模型 | 最高精度任务、Agent 工作流 | 最高 |
| **Seed 2.0 Lite** | 生产级模型 | 日常生产任务、高 QPS | 约 Pro 的 1/5 |
| **Seed 2.0 Mini** | 轻量模型 | 低延迟、高并发 | 最低 |
| **Seed 2.0 Code** | 编程专用 | 软件开发(TRAE 平台) | - |
Seed 2.0 Pro 的输入定价约 \$0.47/百万 tokens,输出约 \$2.37/百万 tokens,相比 GPT-5.2(\$1.75/\$14.00)和 Claude Opus 4.5(\$5.00/\$25.00)具有显著的价格优势。
### 叠加网站充值活动
API易 提供充值加赠优惠,充值越多加赠越多,叠加模型本身的价格优势,实际使用成本更低。
### 可用模型
| 模型名称 | 说明 |
| --------------------- | ----------------------- |
| `seed-2-0-pro-260328` | 旗舰推理模型,最新版本(2026年3月28日) |
### 购买渠道
**API易平台**:
* 官网:`apiyi.com`
* API 端点:`https://api.apiyi.com/v1`
* 支持 OpenAI 兼容格式
* 兼容所有 OpenAI SDK
## 总结与建议
Seed 2.0 Pro 是字节跳动 Seed 2.0 系列的旗舰模型,在数学推理、编程能力和 Agent 工作流方面均达到世界级水准,同时价格相比同级竞品具有显著优势。
**核心优势**:
* **推理之王**:AIME 2025 达 98.3,Codeforces 3020,IMO/ICPC/CMO 金牌
* **Agent 能力强**:BrowseComp 77.3,tau2-Bench 均超 90,适合复杂自动化场景
* **多模态理解**:视频、图片、文本全覆盖,VideoMME 89.5
* **极具竞争力的价格**:相比 GPT-5.2 便宜约 4-6 倍,相比 Opus 4.5 便宜约 10 倍
**使用建议**:
1. **高难度推理任务**:Pro 是首选,尤其是数学证明、科研分析
2. **Agent 工作流**:Pro 的长链推理鲁棒性最佳
3. **日常生产**:考虑 Lite(约 Pro 的 1/5 成本),部分场景性能相当
4. **高并发轻量场景**:考虑 Mini,成本最低
**谁应该使用 Seed 2.0 Pro**:
* 需要最高精度推理的研究人员和工程师
* 构建复杂 Agent 系统的开发者
* 需要高质量代码生成和审查的团队
* 追求旗舰性能同时关注成本的企业用户
API易已全面上架 Seed 2.0 Pro 最新版本,OpenAI 兼容模式直接调用,立即体验字节跳动旗舰推理模型!
信息来源:ByteDance Seed 官方网站(`seed.bytedance.com`)、LLM Stats(`llm-stats.com`)、TechNode。Seed 2.0 系列于 2026 年 2 月 14 日正式发布,`seed-2-0-pro-260328` 为 2026 年 3 月 28 日更新版本。数据获取时间:2026 年 3 月 30 日。
# SeeDream 4.5 震撼上线:BytePlus 火山方舟最强 4K 图像生成模型
Source: https://docs.apiyi.com/news/seedream-4-5-launch
BytePlus 火山方舟最新图像生成模型 SeeDream 4.5 正式发布!12亿参数架构,更强的 4K 图像生成能力,文本渲染大幅提升,支持最多10张参考图像,价格仅 $0.035/张。官方提供 200 张免费图片测试额度。
## 核心要点
* **12亿参数架构**:ByteDance 最新的统一图像生成和编辑系统
* **4K 高清增强**:相比 SeeDream 4.0,画质和细节表现显著提升
* **文本渲染突破**:小文本渲染更清晰,面部特征更自然
* **多图合成能力**:支持最多 10 张参考图像,保持主体一致性
* **超值定价**:\$0.035/张,官方提供 200 张免费测试额度
## 背景介绍
2025年12月4日,BytePlus 火山方舟正式发布 **SeeDream 4.5**(模型代号:`seedream-4-5-251128`),这是继 SeeDream 4.0 之后的重大升级版本。作为 ByteDance 旗下的高品质图像生成模型,SeeDream 系列一直以其出色的 4K 高清输出和视觉一致性受到专业设计师和内容创作者的青睐。
API易已与 BytePlus 火山方舟达成官方战略合作,第一时间接入 SeeDream 4.5 模型,为用户提供稳定可靠的服务。相比前代版本,SeeDream 4.5 在画质、文本渲染、多图合成等方面都实现了全面突破,是专业设计和商业内容创作的理想选择。
## 详细解析
### 核心特性
**画质全面提升**
* 支持最高 4K 分辨率输出
* 纹理细节更丰富,层次更分明
* 相比 4.0 版本,画质显著增强
* 适合专业设计和印刷输出
**清晰可读的文字**
* 小文本渲染大幅改进,减少模糊
* 面部特征更清晰,保持自然感
* 适合海报、广告、营销物料
* 文字准确性业界领先
**强大的一致性控制**
* 支持最多 10 张参考图像
* 准确识别主体,保持视觉一致性
* 可生成连贯的图像系列
* 批处理最多 15 张图像
**生成与编辑一体化**
* 图像生成和编辑集成架构
* 编辑时保留光照、色调和细节
* 跨迭代的一致性编辑
* 灵活处理复杂多模态任务
### 性能亮点
SeeDream 4.5 基于 **12亿参数**的深度学习架构,在多项关键指标上实现突破:
**技术规格**
* **模型架构**:12 亿参数统一生成-编辑系统
* **最大分辨率**:4K(4096×4096)
* **参考图像**:最多 10 张
* **批处理**:最多 15 张图像
* **生成速度**:平均 15 秒/张
* **知识截止**:2025年11月
#### 与 SeeDream 4.0 对比
| 特性 | SeeDream 4.5 | SeeDream 4.0 |
| --------- | --------------- | ------------ |
| **画质** | 🔥 4K 高保真,细节更丰富 | ⭐ 4K 高清 |
| **文本渲染** | 🔥 小文本清晰,无模糊 | ⭐ 基础文本渲染 |
| **面部细节** | 🔥 清晰自然,保真度高 | ⭐ 标准水平 |
| **参考图像** | 🔥 最多 10 张 | ⭐ 标准支持 |
| **批处理** | 🔥 最多 15 张 | ⭐ 标准支持 |
| **编辑一致性** | 🔥 保留光照和细节 | ⭐ 基础编辑 |
| **价格** | \$0.035/张 | \$0.03/张 |
### 技术规格
SeeDream 4.5 采用标准的 OpenAI Image API 格式,完全兼容现有的图像生成工作流:
**支持的尺寸设置**:
* **分辨率规格**:"1K", "2K", "4K" - 让模型根据提示词自动决定最佳宽高比
* **精确像素**:"2048x2048", "1920x1080", "3840x2160" 等
* **像素范围**:\[1280×720, 4096×4096]
* **宽高比范围**:\[1/16, 16]
**质量选项**:
* `standard` - 标准质量,速度更快
* `hd` - 高清质量,细节更丰富
**返回格式**:
* `url` - 返回图片 URL
* `b64_json` - 返回 Base64 编码的图片数据
## 实际应用
### 推荐场景
SeeDream 4.5 特别适合以下应用场景:
* 海报设计(支持清晰文字)
* 广告横幅
* 社交媒体图片
* 产品宣传图
* 电商产品图
* 产品展示图
* 场景化产品摄影
* 多角度产品视图
* 博客配图
* 文章插图
* 品牌视觉设计
* 创意素材库
* 平面设计
* UI/UX 设计参考
* 视觉概念图
* 高分辨率打印输出
### 代码示例
以下是使用 SeeDream 4.5 的完整 Python 示例:
```python theme={null}
import requests
import base64
import datetime
# API 配置
API_KEY = "sk-your-api-key"
API_URL = "https://api.apiyi.com/v1/images/generations"
# 生成图片
def generate_image(prompt, size="4K", quality="hd"):
response = requests.post(
API_URL,
headers={
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
},
json={
"model": "seedream-4-5-251128",
"prompt": prompt,
"size": size,
"quality": quality,
"n": 1,
"response_format": "url"
},
timeout=60
)
if response.status_code == 200:
result = response.json()
image_url = result["data"][0]["url"]
print(f"✅ 图片生成成功!")
print(f"🔗 图片URL: {image_url}")
return image_url
else:
print(f"❌ 生成失败: {response.text}")
return None
# 使用示例
if __name__ == "__main__":
# 生成营销海报
prompt = """
A modern tech product launch poster with bold typography,
featuring a sleek smartphone on gradient background,
text: 'Innovation 2025', 4K, ultra detailed, professional
"""
generate_image(prompt, size="4K", quality="hd")
```
### 最佳实践
**提示词优化技巧**:
1. **详细描述**:提供具体的场景、风格、颜色等描述
2. **添加质量标签**:如 "4K", "ultra detailed", "high quality", "professional"
3. **指定风格**:如 "photorealistic", "minimalist", "cinematic"
4. **包含光线信息**:如 "soft lighting", "golden hour", "studio lighting"
5. **文字内容**:使用 "text: '...'" 明确指定图中文字
**示例提示词**:
✅ **好的提示词**:
```
A professional product photography of wireless headphones on white background,
soft studio lighting from top-left, subtle shadows, minimal composition,
text: 'Premium Sound', 4K resolution, commercial photography style
```
❌ **简单提示词**:
```
headphones on white background
```
**使用限制**
* 生成速度:平均 15 秒/张(4K 分辨率)
* 批处理:建议不超过 15 张以保证稳定性
* 参考图像:最多 10 张
* 文件大小:4K 图片约 3-5 MB
## 价格与可用性
### 定价信息
SeeDream 4.5 在 API易 提供极具竞争力的定价:
| 版本 | API易价格 | 官网价格 | 优势 |
| ---------------- | ------------ | --------- | -------------- |
| **SeeDream 4.5** | \$0.035/张 | \$0.03/张起 | 🔥 最强画质,文本渲染最佳 |
| SeeDream 4.0 | \$0.03/张 | \$0.03/张 | ⭐ 稳定可靠,性价比高 |
| Nano Banana Pro | \$0.05/张(4K) | \$0.24/张 | 谷歌技术,21% 折扣 |
| Nano Banana | \$0.020/张 | \$0.04/张 | 10秒快速生成 |
**价格说明**
* **计费方式**:按次计费,每张图片独立计费
* **充值优惠**:结合充值加赠活动,实际成本约 ¥0.21/张
* **免费额度**:官方提供 200 张免费图片测试额度
* **批量优惠**:大批量使用可联系客服获取企业定价
### 优惠活动
🎁 **限时优惠**:
1. **新用户福利**:
* 官方提供 **200 张免费图片**测试额度
* API易 提供首充加赠优惠
2. **充值加赠**:
* 充值享受阶梯加赠优惠(10%-20%),[查看详细政策](/faq/recharge-promotions)
* 企业用户支持对公转账和发票
3. **性价比优势**:
* 相比 Nano Banana Pro(\$0.05/张),价格更优
* 文本渲染能力更强,适合营销物料
* 批处理能力强,适合大量生产
### 购买渠道
**开始使用 SeeDream 4.5**:
1. **注册账号**:访问 API易官网注册账号
2. **获取 API Key**:在控制台创建 API 密钥
3. **充值余额**:选择合适的充值套餐
4. **开始调用**:使用标准 OpenAI Image API 格式调用
**相关资源**:
* API易官网:`api.apiyi.com`
* 控制台:`api.apiyi.com/account/profile`
* 详细文档:`docs.apiyi.com/api-capabilities/seedream-image`
* 图像测试工具:`imagen.apiyi.com`
## 总结与建议
SeeDream 4.5 是 BytePlus 火山方舟在图像生成领域的又一次重大突破。12亿参数的统一架构、增强的 4K 画质、突破性的文本渲染能力,使其成为专业设计和商业内容创作的理想选择。
### 使用建议
**推荐使用 SeeDream 4.5**:
* ✅ 需要包含清晰文字的图片(海报、广告)
* ✅ 追求最佳画质和细节表现
* ✅ 专业设计、商业用途
* ✅ 需要高分辨率打印输出
* ✅ 多图合成、系列图片生成
**可以使用 SeeDream 4.0**:
* ✅ 追求性价比
* ✅ 日常图片生成需求
* ✅ 对文本渲染要求不高
**版本对比总结**:
* **最佳画质** → SeeDream 4.5(\$0.035/张)
* **性价比** → SeeDream 4.0(\$0.03/张)
* **快速生成** → Nano Banana(\$0.025/张,10秒)
**数据来源与发布信息**
* **官方发布**:BytePlus Volcano Engine, 2025年12月4日
* **模型版本**:seedream-4-5-251128
* **API文档**:`docs.byteplus.com/en/docs/ModelArk/1824121`
* **技术参数**:基于官方文档和实际测试
* **价格信息**:截至 2025年12月4日
本文信息经过联网搜索验证,确保准确性和时效性。
***
**立即体验 SeeDream 4.5**,开启专业级 4K 图像创作之旅!
💡 访问 API易官网获取 200 张免费测试额度
# Chat Completions
Source: https://docs.apiyi.com/api-reference/chat/chat-completions
/api-reference/apiyi-openapi-en.yaml post /v1/chat/completions
Core chat interface, compatible with the OpenAI Chat Completions API format.
Supports 200+ AI models — just change the `model` parameter to switch between providers, with no other code changes needed.
**Supported providers**: OpenAI, Anthropic, Google, xAI, DeepSeek, Alibaba, Moonshot, and more.
**Note**: Streaming output (stream: true) cannot be previewed in the Playground. Use an SDK to test.
# Create Embeddings
Source: https://docs.apiyi.com/api-reference/embeddings/create-embeddings
/api-reference/apiyi-openapi-en.yaml post /v1/embeddings
Convert text into vector representations (embeddings) for use in semantic search, text clustering, recommendation systems, and more.
Supports single text or batch text input.
# List Models
Source: https://docs.apiyi.com/api-reference/models/list-models
/api-reference/apiyi-openapi-en.yaml get /v1/models
Retrieve the list of all currently available models.
The returned list includes model ID, creation time, owner, and other information. Can be used to check if a specific model is available.