# 余额查询 API Source: https://docs.apiyi.com/api-capabilities/balance-query 获取账户余额、已使用额度和请求次数等信息,实现主动余额告警控制 ## 接口概述 余额查询接口用于获取当前账户的额度使用情况,包括总配额、已使用额度、剩余额度和请求次数等信息。 这个接口可帮助客户以简单的方式获取账号余额,以便更主动、自由地控制余额告警。 ## 如何获取 Authorization 访问 `api.apiyi.com/account/profile` 个人中心页面 在页面最下方找到"账号选项 - 系统令牌"部分 输入当前的账户密码后,会得到一个 AccessToken,该密钥可用于后续接口的查询数据 获取系统令牌 ## 接口信息 | 项目 | 说明 | | --------- | ------------------------------------- | | **接口URL** | `https://api.apiyi.com/api/user/self` | | **请求方法** | `GET` | | **认证方式** | Authorization Header | | **响应格式** | JSON | ## 请求说明 ### 请求 Headers | Header名称 | 必填 | 说明 | | --------------- | -- | ------------------------ | | `Authorization` | 是 | API访问令牌,格式:直接填写token字符串 | | `Accept` | 否 | 建议设置为 `application/json` | | `Content-Type` | 否 | 建议设置为 `application/json` | ### 请求参数 该接口为 GET 请求,**不需要**传递任何请求体(body)参数。 ## 响应说明 ### 成功响应示例 ```json theme={null} { "success": true, "message": null, "data": { "id": 19489, "username": "testnano", "display_name": "testnano", "role": 1, "status": 1, "email": "", "quota": 24997909, "used_quota": 10027091, "request_count": 339, "group": "ceshi", "aff_code": "ZM0H", "inviter_id": 0, "access_token": "...", "ModelFixedPrice": [...] } } ``` ### 核心响应字段说明 | 字段名 | 类型 | 说明 | | ---------------------- | ------- | ---------------------- | | `success` | Boolean | 请求是否成功 | | `message` | String | 错误信息(成功时为null) | | `data.username` | String | 用户名 | | `data.display_name` | String | 显示名称 | | `data.quota` | Integer | **剩余额度**(当前可用余额,单位:额度) | | `data.used_quota` | Integer | **已使用额度**(单位:额度) | | `data.request_count` | Integer | **总请求次数** | | `data.group` | String | 用户所属组 | | `data.ModelFixedPrice` | Array | 模型价格列表(可忽略) | ### 额度换算说明 500,000 额度 = \$1.00 美金 (USD) **计算公式:** * 美金金额 = 额度 ÷ 500,000 * 剩余额度 = quota(quota 本身就是当前剩余余额) * 剩余美金 = quota ÷ 500,000 **示例:** * `quota: 24997909` → \$49.99 USD(当前剩余余额) * `used_quota: 10027091` → \$20.05 USD(已使用) ## 错误响应 ### HTTP 401 - 认证失败 ```json theme={null} { "success": false, "message": "Unauthorized" } ``` **原因:** Authorization令牌无效或已过期 **解决方法:** 检查并更新API令牌 ### HTTP 403 - 权限不足 ```json theme={null} { "success": false, "message": "Forbidden" } ``` **原因:** 当前令牌无权访问该接口 **解决方法:** 联系管理员确认权限配置 ## 代码示例 ### cURL 示例 ```bash theme={null} curl --compressed 'https://api.apiyi.com/api/user/self' \ -H 'Accept: application/json' \ -H 'Authorization: YOUR_TOKEN_HERE' \ -H 'Content-Type: application/json' ``` **重要提示:** 必须添加 `--compressed` 选项,因为API返回的是gzip压缩内容,否则会得到乱码。 **快速测试(替换YOUR\_TOKEN\_HERE):** ```bash theme={null} export APIYI_TOKEN='YOUR_TOKEN_HERE' curl --compressed -s 'https://api.apiyi.com/api/user/self' \ -H 'Accept: application/json' \ -H "Authorization: $APIYI_TOKEN" \ -H 'Content-Type: application/json' | \ jq '.data | {quota, used_quota, request_count}' ``` 说明:`-s` 选项隐藏进度条,`--compressed` 自动解压gzip响应 ### Python 示例(基础版) ```python theme={null} import requests {/* 配置 */} url = "https://api.apiyi.com/api/user/self" authorization = "YOUR_TOKEN_HERE" # 替换为你的令牌 {/* 请求头 */} headers = { 'Accept': 'application/json', 'Authorization': authorization, 'Content-Type': 'application/json' } {/* 发送请求 */} response = requests.get(url, headers=headers, timeout=10) {/* 检查响应 */} if response.status_code == 200: data = response.json() user_data = data['data'] {/* 提取核心信息 */} quota = user_data['quota'] used_quota = user_data['used_quota'] request_count = user_data['request_count'] {/* 计算美金金额 */} {/* 注意:quota 就是当前剩余余额 */} remaining_usd = quota / 500000 used_usd = used_quota / 500000 {/* 打印结果 */} print(f"剩余额度:${remaining_usd:.2f} USD ({quota:,} 额度)") print(f"已使用:${used_usd:.2f} USD ({used_quota:,} 额度)") print(f"请求次数:{request_count:,} 次") else: print(f"请求失败:HTTP {response.status_code}") print(response.text) ``` ### Python 示例(完整优化版) 我们提供了完整的优化版脚本 `quota_optimized.py`,包含以下特性: 完整的异常处理和错误捕获 安全管理令牌,避免硬编码 美观的表格展示和数字格式化 自动计算美金金额 **使用方法:** ```bash theme={null} {/* 方式1:使用环境变量(推荐) */} export APIYI_TOKEN='YOUR_TOKEN_HERE' python quota_optimized.py {/* 方式2:命令行参数 */} python quota_optimized.py 'YOUR_TOKEN_HERE' ``` **输出示例:** ``` ============================================================ 📊 APIYI 账户余额信息 ============================================================ 用户名称:testnano (testnano) ------------------------------------------------------------ 剩余额度:24,997,909 额度 ($49.99 USD) 已使用: 10,027,091 额度 ($20.05 USD) 请求次数:339 次 ============================================================ 💡 换算说明:500,000 额度 = $1.00 USD ============================================================ ``` ## 常见问题 请参考上方"如何获取 Authorization"部分的步骤说明,或访问控制台的个人中心页面获取系统令牌。 否,查询账户余额接口不会消耗您的配额额度。 建议查询间隔不少于1秒,避免频繁请求触发限流。 该字段返回各个AI模型的定价信息。如果您只关心余额信息,可以忽略该字段。 `quota` 字段就是当前的剩余额度。如果 `quota` 为 0 或接近 0,说明账户余额不足,需要及时充值。 **问题:** 执行curl命令时得到乱码,或者jq报错 "Invalid numeric literal" **原因:** API返回的是gzip压缩内容(`Content-Encoding: gzip`),curl没有自动解压。 **解决方案:** 添加 `--compressed` 选项让curl自动解压: ```bash theme={null} {/* ✅ 正确(带 --compressed) */} curl --compressed 'https://api.apiyi.com/api/user/self' \ -H 'Authorization: YOUR_TOKEN' | jq {/* ❌ 错误(缺少 --compressed) */} curl 'https://api.apiyi.com/api/user/self' \ -H 'Authorization: YOUR_TOKEN' | jq ``` ## 注意事项 **安全性提醒** * 切勿在代码中硬编码 Authorization 令牌 * 建议使用环境变量或配置文件管理敏感信息 * 不要将包含令牌的代码提交到公开仓库 **请求限制** * 建议设置合理的请求超时时间(推荐10秒) * 避免过于频繁的查询请求 * 务必处理网络异常、超时、认证失败等错误情况 * 建议记录错误日志便于排查问题 * API返回gzip压缩内容,使用curl时必须添加 `--compressed` 选项 * Python的requests库会自动处理gzip解压,无需额外配置 # Claude 模型调用指南 Source: https://docs.apiyi.com/api-capabilities/claude API易第一时间上架 Claude 全系列模型,支持 OpenAI 兼容格式和 Anthropic 原生格式调用,可在 Claude Code 中直接使用。 API易 是 Claude 模型的官方合作伙伴,通过 **AWS Bedrock** 和 **Anthropic 官网直连**双通道接入,确保第一时间上架 Anthropic 官方最新模型,如 Claude Opus 4.5、Sonnet 4.5 等。 ## 核心优势 AWS Bedrock + 官网直连双通道,新模型同步上线,无需等待 支持 OpenAI 兼容格式和 Anthropic 原生格式,灵活切换 完美支持 Claude Code 桌面应用,一键配置即可使用 AWS + 官网双线路冗余,保障服务稳定性和可用性 ## 可用模型 API易 支持 Claude 全系列模型,包括最新发布的 Opus 4.5: | 模型系列 | 模型名称 | 推荐场景 | 价格(输入/输出) | | -------------- | ---------------------------- | --------- | ----------- | | **Opus 4.5** | `claude-opus-4-5-20251101` | 复杂编程、深度推理 | \$5 / \$25 | | **Sonnet 4.5** | `claude-sonnet-4-5-20250929` | 通用智能、代码生成 | \$3 / \$15 | | **Haiku 4.5** | `claude-haiku-4-5-20251001` | 快速响应、高并发 | \$1 / \$5 | | **Opus 4.1** | `claude-opus-4-1-250806` | 高级任务(旧版) | \$15 / \$75 | 推荐使用最新的 4.5 系列模型,性能更强、价格更低。Opus 4.5 编程能力登顶 SWE-bench(80.9%),价格仅为 4.1 的 1/3。 ## OpenAI 兼容格式调用 API易 支持标准的 OpenAI SDK 调用 Claude 模型,只需修改 `base_url` 和 `model` 参数即可。 ### Python 示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="claude-opus-4-5-20251101", messages=[ { "role": "user", "content": "用 Python 实现一个快速排序算法,并解释时间复杂度。" } ], # 可选:设置推理深度 extra_body={ "output_config": {"effort": "medium"} # low/medium/high } ) print(response.choices[0].message.content) ``` ### Node.js 示例 ```javascript theme={null} import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'your-apiyi-key', baseURL: 'https://api.apiyi.com/v1' }); const response = await client.chat.completions.create({ model: 'claude-sonnet-4-5-20250929', messages: [ { role: 'user', content: '分析这段代码的性能瓶颈...' } ] }); console.log(response.choices[0].message.content); ``` ### cURL 示例 ```bash theme={null} curl https://api.apiyi.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer your-apiyi-key" \ -d '{ "model": "claude-haiku-4-5-20251001", "messages": [ { "role": "user", "content": "你好,介绍一下你自己。" } ] }' ``` ## Anthropic 原生格式调用 API易 完整支持 Anthropic 官方 SDK 的原生 `/messages` 端点,无需任何转换。 ### Python 原生 SDK ```python theme={null} import anthropic client = anthropic.Anthropic( api_key="your-apiyi-key", base_url="https://api.apiyi.com" ) message = client.messages.create( model="claude-opus-4-5-20251101", max_tokens=8192, messages=[ { "role": "user", "content": "设计一个高可用的微服务架构,并解释核心设计理念。" } ], # 设置推理深度 output_config={ "effort": "high" # low/medium/high } ) print(message.content[0].text) ``` ### 流式响应 ```python theme={null} import anthropic client = anthropic.Anthropic( api_key="your-apiyi-key", base_url="https://api.apiyi.com" ) with client.messages.stream( model="claude-sonnet-4-5-20250929", max_tokens=4096, messages=[ {"role": "user", "content": "写一篇关于 AI 发展趋势的文章..."} ] ) as stream: for text in stream.text_stream: print(text, end="", flush=True) ``` ### 视觉理解(多模态) Claude 支持图像输入,适合 UI 分析、图表解读等场景: ```python theme={null} import anthropic import base64 client = anthropic.Anthropic( api_key="your-apiyi-key", base_url="https://api.apiyi.com" ) # 读取图片并编码为 base64 with open("screenshot.png", "rb") as f: image_data = base64.b64encode(f.read()).decode('utf-8') message = client.messages.create( model="claude-opus-4-5-20251101", max_tokens=4096, messages=[ { "role": "user", "content": [ { "type": "image", "source": { "type": "base64", "media_type": "image/png", "data": image_data } }, { "type": "text", "text": "这是一个网页截图,请用 React + Tailwind CSS 实现相同的 UI。" } ] } ] ) print(message.content[0].text) ``` ## 推理深度控制(effort 参数) Claude 模型支持通过 `output_config.effort` 参数调节推理深度(官方文档:`platform.claude.com/docs/en/build-with-claude/effort`): | 模式 | 说明 | 适用场景 | Token 消耗 | | ---------- | ----------- | ----------- | ----------------- | | **low** | 快速响应,推理深度较浅 | 简单问答、快速原型 | 低 | | **medium** | 平衡质量与速度(默认) | 大多数编程任务 | 中等(比 high 节省 76%) | | **high** | 深度推理,质量最高 | 复杂架构设计、难题分析 | 高 | ### Anthropic 原生格式设置 effort ```python theme={null} message = client.messages.create( model="claude-opus-4-5-20251101", max_tokens=4096, messages=[{"role": "user", "content": "优化这段 SQL 查询..."}], output_config={ "effort": "medium" # low/medium/high } ) ``` ### OpenAI 格式设置 effort ```python theme={null} response = client.chat.completions.create( model="claude-opus-4-5-20251101", messages=[{"role": "user", "content": "设计一个分布式缓存系统..."}], extra_body={ "output_config": {"effort": "high"} # low/medium/high } ) ``` ### cURL 示例 ```bash theme={null} curl https://api.apiyi.com/v1/messages \ -H "x-api-key: your-apiyi-key" \ -H "anthropic-version: 2023-06-01" \ -H "content-type: application/json" \ -d '{ "model": "claude-opus-4-5-20251101", "max_tokens": 4096, "messages": [{ "role": "user", "content": "分析微服务与单体架构的权衡" }], "output_config": { "effort": "medium" } }' ``` effort 参数目前主要适用于 Claude Opus 4.5,其他模型(Sonnet/Haiku)的支持情况请参考官方文档。 ## 最佳实践 ### 1. 模型选择建议 * **复杂编程任务**:使用 `claude-opus-4-5-20251101` + `high` 或 `medium` 模式 * **日常代码生成**:使用 `claude-sonnet-4-5-20250929`,性价比最高 * **快速问答/高并发**:使用 `claude-haiku-4-5-20251001`,速度快成本低 * **多模态任务**:优先选择 Opus 或 Sonnet,视觉理解能力更强 ### 2. 成本优化技巧 * **优先使用 medium 模式**:Opus 4.5 的 medium 模式输出质量接近 Sonnet,但 token 消耗仅 24% * **充值加赠活动**:通过 API易 充值享受最高 20% 加赠,实际成本低至 8 折 * **合理使用缓存**:对于重复的 Prompt 或上下文,启用 prompt caching 节省成本 * **按需降级**:简单任务使用 Haiku 或 Sonnet,复杂任务再用 Opus ### 3. 提示词优化 Claude 模型对清晰、结构化的提示词响应更好: ```python theme={null} # 推荐:清晰的任务描述 prompt = """ 任务:重构以下 Python 代码 要求: 1. 提升性能(时间复杂度从 O(n²) 降至 O(n log n)) 2. 增加错误处理和类型提示 3. 添加单元测试 代码: [粘贴代码] """ # 不推荐:模糊的指令 prompt = "帮我改一下这段代码" ``` ### 4. 长上下文使用 Claude Opus 4.5 支持 20 万 token 上下文,适合代码库级别分析: ```python theme={null} # 示例:分析整个代码库 files_content = "" for file in ["main.py", "utils.py", "models.py"]: with open(file) as f: files_content += f"\n\n# {file}\n{f.read()}" response = client.chat.completions.create( model="claude-opus-4-5-20251101", messages=[{ "role": "user", "content": f"分析以下代码库的架构设计,并提出优化建议:\n{files_content}" }] ) ``` ## 技术规格对比 | 参数 | Opus 4.5 | Sonnet 4.5 | Haiku 4.5 | | ------------- | -------------- | -------------- | -------------- | | **上下文长度** | 200,000 tokens | 200,000 tokens | 200,000 tokens | | **最大输出** | 64,000 tokens | 8,192 tokens | 8,192 tokens | | **知识截止** | 2025年3月 | 2024年10月 | 2024年10月 | | **多模态** | ✅ 图像输入 | ✅ 图像输入 | ✅ 图像输入 | | **推理控制** | ✅ effort 参数 | ❌ | ❌ | | **SWE-bench** | 80.9% | 77.2% | 73.3% | ## 常见问题 ### 如何在 Claude Code 中使用 API易? 只需在 Claude Code 设置中配置: * **Base URL**: `https://api.apiyi.com` * **API Key**: 您的 API易 密钥 * **Model**: `claude-opus-4-5-20251101` 或其他 Claude 模型 ### OpenAI 格式和 Anthropic 原生格式有什么区别? * **OpenAI 格式**:使用 `/v1/chat/completions` 端点,兼容 OpenAI SDK * **Anthropic 格式**:使用 `/v1/messages` 端点,支持 Anthropic 官方 SDK 全部特性 * **推荐**:如果使用 Claude Code 或 OpenAI SDK,选择 OpenAI 格式;如果需要 Anthropic 特有功能(如 tool use),选择原生格式 ### effort 参数如何影响性能和成本? * **high 模式**:推理深度最大,输出质量最高,但 token 消耗最多(约 3-4 倍于 medium) * **medium 模式**:平衡质量与成本,输出质量接近 Sonnet,token 消耗仅为 high 的 24% * **low 模式**:快速响应,适合简单任务,token 消耗最少 ### API易 的双通道是什么? API易 通过 **AWS Bedrock** 和 **Anthropic 官网直连**两条线路接入 Claude 模型: * **AWS Bedrock**:稳定性高,延迟低,适合企业级应用 * **官网直连**:第一时间获取新模型,功能完整 * **自动切换**:系统智能选择最优线路,保障服务可用性 ### 如何获取 API易 密钥? 访问 API易 官网(`apiyi.com`)注册账号,充值后即可在控制台获取 API 密钥。新用户注册即送额度,充值享受最高 20% 加赠。 ## 相关资源 * [Claude Opus 4.5 发布公告](/news/claude-opus-4-5-launch) * [OpenAI SDK 使用指南](/api-capabilities/openai-sdk) * [多模态视觉理解](/api-capabilities/vision-understanding) * [Anthropic 官方文档](https://docs.anthropic.com) API易 第一时间上架 Anthropic 最新模型,支持 OpenAI/Anthropic 双格式调用,完美兼容 Claude Code。立即注册体验! # 废弃模型列表 Source: https://docs.apiyi.com/api-capabilities/deprecated-models 查看即将下线和已废弃的模型列表,及时迁移到推荐替代模型。 ## 说明 本页面列出即将下线和已废弃的模型,帮助您了解模型生命周期,提前做好迁移准备。 如果您正在使用即将废弃的模型,请尽快迁移到推荐的替代模型,以避免服务中断。 ## ⚠️ 废弃模型预告 以下模型即将下线,请在预计下线日期前完成迁移。 | 模型名称 | 模型ID | 预计下线日期 | 推荐替代模型 | 备注 | | ----------------------------------- | ------------------------------------- | ------ | ------------------ | ----------------- | | Gemini 2.0 Flash Lite | `gemini-2.0-flash-lite` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 | | Gemini 2.0 Flash Lite 001 | `gemini-2.0-flash-lite-001` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 | | Gemini 2.0 Flash | `gemini-2.0-flash` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 | | Gemini 2.0 Flash 001 | `gemini-2.0-flash-001` | 待定 | `gemini-2.5-flash` | Gemini 2.0 系列整体下线 | | Gemini 2.0 Flash Lite Preview 02-05 | `gemini-2.0-flash-lite-preview-02-05` | 待定 | `gemini-2.5-flash` | Preview 版本 | 谷歌 Gemini 模型废弃详情请参考官方文档:`ai.google.dev/gemini-api/docs/deprecations` ## 🚫 已下线模型 以下模型已废弃,不再可用。如果您的应用仍在调用这些模型,请尽快切换到替代模型。 | 模型名称 | 模型ID | 下线日期 | 替代模型 | 备注 | | ---------------------- | ----------------------------------------------------------------------------------------- | ---------- | ------------------------- | ------------------------------------------------------------------------- | | GPT-4 | `gpt-4` | 2026-02-27 | `gpt-5.2` | 一代目强者,已停用 | | GPT-4(32K) | `gpt-4-32k` | 2026-02-27 | `gpt-5.2` | 一代目强者,已停用 | | Grok 4 | `grok-4` | 2026-03-12 | `grok-4-1-fast-reasoning` | 已下线,请迁移至新版 | | Grok 4 0709 | `grok-4-0709` | 2026-03-12 | `grok-4-1-fast-reasoning` | 已下线,请迁移至新版 | | Sora 2 视频生成(逆向) | `sora_video2` / `sora_video2-landscape` / `sora_video2-15s` / `sora_video2-landscape-15s` | 2026-04-26 | `sora-2-pro`(官方版) | 逆向通道下线,请迁移至 [Sora 2 官方版](/api-capabilities/sora-2-video-official) | | Sora 2 角色生成 | `sora-character` | 2026-04-26 | `sora-2-pro`(官方版) | 逆向通道下线,请改用官方 [Sora 2 官方版](/api-capabilities/sora-2-video-official) | | Sora Image 生图/编辑(逆向) | `sora_image` | 2026-04-26 | `gpt-image-2-all`(新版官逆) | 逆向通道下线,请迁移至 [GPT-Image-2-All](/api-capabilities/gpt-image-2-all/overview) | | GPT-4o Image 生图/编辑(逆向) | `gpt-4o-image` | 2026-04-26 | `gpt-image-2-all`(新版官逆) | 逆向通道下线,请迁移至 [GPT-Image-2-All](/api-capabilities/gpt-image-2-all/overview) | 本页面会持续更新,建议定期查看以获取最新的模型废弃信息。 # FLUX 历史版本 Source: https://docs.apiyi.com/api-capabilities/flux/historical-versions FLUX.1 [pro] / [pro] 1.1 / [pro] 1.1 Ultra / [dev] 历史版本规格、定价与迁移到 FLUX.2 的建议 本页仅记录 APIYI **仍可调用**的 FLUX.1 \[pro] 系列文生图模型。最新一代 FLUX.2 与图编辑专用 FLUX.1 Kontext 见 [FLUX 总览](/api-capabilities/flux/overview)。 ## 版本一览 | 版本 ID | 发布时间 (UTC+0) | APIYI 单价 | 状态 | 推荐使用场景 | | -------------------- | ------------ | ---------- | ------ | --------------- | | `flux-pro-1.1-ultra` | 2024-11 | \$0.0500/次 | 🟡 维护中 | 老项目超高分辨率(4MP) | | `flux-pro-1.1` | 2024-10 | \$0.0350/次 | 🟡 维护中 | 老项目文生图标杆 | | `flux-pro` | 2024-08 | \$0.0400/次 | 🟡 维护中 | 初代 pro,老接入兼容 | | `flux-dev` | 2024-08 | \$0.0200/次 | 🟡 维护中 | 开发/测试,开源权重可本地部署 | **新项目建议直接用 FLUX.2**:`flux-2-pro` 与 `flux-pro-1.1` 同档位但画质、多图、长 prompt、4MP 全面提升,价格相近甚至更低。详见下方迁移建议。 ## 各版本详细规格 ### `flux-pro-1.1-ultra` * **发布时间**:2024-11(UTC+0) * **APIYI 单价**:\$0.0500/次(官方 \$0.06,节省 17%) * **最大输出分辨率**:约 4MP(FLUX.1 系列里最高) * **核心特性**:超高分辨率、可选 raw 模式(更接近真实摄影质感) * **已知限制**:单参考图、无 hex 色控、无 grounding search * **官方介绍**:`docs.bfl.ai/flux_models/flux_1_1_pro_ultra_raw` ### `flux-pro-1.1` * **发布时间**:2024-10(UTC+0) * **APIYI 单价**:\$0.0350/次(官方 \$0.04,节省 12.5%) * **最大输出分辨率**:约 1.6MP(1024×1536 等) * **核心特性**:在 1.0 基础上提升画质和提示词遵循,行业标杆 * **已知限制**:单参考图、prompt 短(无 32K) * **官方介绍**:`docs.bfl.ai/flux_models/flux_1_1_pro` ### `flux-pro` * **发布时间**:2024-08(UTC+0) * **APIYI 单价**:\$0.0400/次(官方 \$0.04,同价) * **最大输出分辨率**:约 1.6MP * **核心特性**:BFL 第一代商用 pro,文生图基础款 * **已知限制**:画质和遵循度低于 1.1,新项目无理由继续使用 ### `flux-dev` * **APIYI 单价**:\$0.0200/次 * **最大输出分辨率**:约 1MP * **核心特性**:开源权重版(FLUX.1 \[dev],非商用 license),可本地部署 * **已知限制**:质量低于 \[pro] 系列,主要用于研究、原型、本地推理验证 * **官方权重**:`huggingface.co/black-forest-labs/FLUX.1-dev` ## 迁移建议 FLUX.2 全面替代 FLUX.1 \[pro]:4MP 输出(vs 1.6MP)、最多 8 张多参考图(vs 1 张)、32K tokens prompt(vs 短)、原生 hex 色控、文字渲染特化。价格在 1MP 内同档位下基本持平甚至更低。 拿同一批 prompt 在 `flux-pro-1.1` 与 `flux-2-pro` 各跑一轮,重点对比:文字清晰度、多对象一致性、品牌色还原。多数场景 FLUX.2 \[pro] 全面胜出。 业务流量先 10% 切到 `flux-2-pro`,观察质量与成本一周后逐步全量。低分辨率(1MP 内)单价基本持平、4MP 场景 FLUX.2 显著更便宜。 多数参数兼容,但需注意: * FLUX.1 \[pro] 系列单参考图,FLUX.2 改用 `image[]` 数组(OpenAI 兼容) * FLUX.1 不支持 `prompt_upsampling`,FLUX.2 \[pro/max/flex] 支持 * 老版的部分自定义比例标识(如 `aspect_ratio`)在 FLUX.2 中改用 `width`/`height` 或 `size` 字符串 ## 旧版调用示例 ```python theme={null} {/* 调用任意历史版本,仅 model 字段不同,其余参数与 OpenAI Images API 兼容 */} from openai import OpenAI import requests client = OpenAI(api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1") resp = client.images.generate( model="flux-pro-1.1-ultra", prompt="A serene mountain landscape at golden hour, raw photo style", size="2048x1536" ) # data[0].url 仅 10 分钟有效 url = resp.data[0].url with open("legacy.jpg", "wb") as f: f.write(requests.get(url, timeout=30).content) ``` ## 计费差异 按典型用量估算(每张固定单价): | 版本 | APIYI 单价 | 100 张 | 1,000 张 | 10,000 张 | | -------------------- | ---------- | ---------- | ----------- | ------------ | | `flux-pro-1.1-ultra` | \$0.05 | \$5.00 | \$50.00 | \$500.00 | | `flux-pro-1.1` | \$0.035 | \$3.50 | \$35.00 | \$350.00 | | `flux-pro` | \$0.04 | \$4.00 | \$40.00 | \$400.00 | | `flux-dev` | \$0.02 | \$2.00 | \$20.00 | \$200.00 | | **`flux-2-pro`(新版)** | **\$0.03** | **\$3.00** | **\$30.00** | **\$300.00** | | **`flux-2-max`(新版)** | **\$0.07** | **\$7.00** | **\$70.00** | **\$700.00** | **如何选**:新项目优先 FLUX.2(`flux-2-pro` 综合最优,`flux-2-max` 旗舰)。仅当老项目对接已固化、不便回归测试时,再继续维持 FLUX.1 \[pro] 系列调用。`flux-dev` 可继续作为开发环境的低成本占位选项。 ## 相关文档 * [FLUX 总览](/api-capabilities/flux/overview) - 全模型矩阵与选型 * [文生图 Playground](/api-capabilities/flux/text-to-image) - FLUX.2 + FLUX.1 通用调试 * [图片编辑 Playground](/api-capabilities/flux/image-edit) - 多图融合 + 编辑 # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/flux/image-edit api-reference/flux-edit-openapi.yaml POST /v1/images/generations FLUX 图片编辑 API 参考与在线调试 — 上传参考图(最多 8 张)+ 指令进行单图改图、多图融合,FLUX.2 全系列 + FLUX.1 Kontext 通用 右侧的交互式 Playground:在 **Authorization** 中填入 API Key(格式:`Bearer sk-xxx`),把参考图的**公网 URL** 填到 `input_image`,多图融合继续填 `input_image_2` … `input_image_8`,然后填 `prompt`、`model` 一键发送即可。Playground 只支持 URL 输入;如需用 base64 data URL,请复制下方代码示例到本地调试。 **场景说明**:本页用于「基于一张或多张参考图改图 / 多图融合」。**FLUX 系列文生图与图片编辑共用同一端点 `/v1/images/generations`**(与 OpenAI gpt-image 不同,FLUX 没有独立的 `/edits` 路径):传入 `input_image` 即触发编辑模式,不传则走纯文本生成。请求是 `application/json` 格式,所有参考图字段都是 URL 字符串(也可在本地代码中传 base64 data URL)。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/flux/text-to-image)。 **⚠️ 关键差异 / 注意事项** * **端点路径**:`/v1/images/generations`(与文生图共用,**不是** `/v1/images/edits`) * **Content-Type**:`application/json`(apiyi 的 FLUX 通道要求 JSON,不是 multipart) * **所有参考图字段是字符串**:`input_image` / `input_image_2` … `input_image_8`,值为公网 URL(推荐)或 `data:image/...;base64,xxx` data URL * **多图上限因模型而异**:FLUX.2 \[pro/max/flex] 最多 **8 张**,FLUX.2 \[klein] 最多 **4 张**,FLUX.1 Kontext 系列原生只支持 **1 张** * **单张参考图 ≤ 20MB 或 20MP**,格式 `png` / `jpg` / `webp` * **输入分辨率**:最小 64×64,最大 4MP;dimensions 必须是 16 的倍数 * **结果 URL 仅 10 分钟有效** — `data[0].url` 必须立即下载 * **不传 `aspect_ratio` 时,输出尺寸自动匹配第一张输入图** **📎 多图融合顺序有意义** `input_image` / `input_image_2` / `input_image_3` … 的编号 **就是 prompt 中「image 1 / image 2 / image 3」的引用依据**。建议在 prompt 中显式指代,例如: > Place the person from image 1 into the scene from image 2, applying the color palette of image 3. 每张图必须为可公网访问的 URL(推荐 ≤ 20MB),或 `data:image/png;base64,xxx` 格式 base64 data URL。 ## 代码示例 ### cURL(双图融合 · URL) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "flux-2-pro", "prompt": "自然融合这两个图片", "input_image": "https://static.apiyi.com/apiyi-logo.png", "input_image_2": "https://images.unsplash.com/photo-1762138012600-2ab523f8b35a", "seed": 42, "output_format": "jpeg" }' ``` ### cURL(三图融合 · URL) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "flux-2-pro", "prompt": "The person from image 1 is petting the cat from image 2, the bird from image 3 is next to them", "input_image": "https://example.com/person.jpg", "input_image_2": "https://example.com/cat.jpg", "input_image_3": "https://example.com/bird.jpg", "seed": 42, "output_format": "jpeg" }' ``` ### cURL(单图编辑 · Kontext) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "flux-kontext-pro", "prompt": "Convert this architectural photo into a pencil sketch style, preserve all structural details", "input_image": "https://your-oss.example.com/architecture.jpg" }' ``` ### cURL(本地文件 · base64 data URL) ```bash theme={null} # 先把本地图片转为 base64 data URL(macOS / Linux) B64=$(base64 -w0 < person.png 2>/dev/null || base64 < person.png | tr -d '\n') curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d "$(jq -nc --arg img "data:image/png;base64,$B64" '{ model: "flux-2-pro", prompt: "把图1风格化为油画", input_image: $img }')" ``` ### Python(requests · 双图融合) ```python theme={null} import requests resp = requests.post( "https://api.apiyi.com/v1/images/generations", headers={ "Authorization": "Bearer sk-your-api-key", "Content-Type": "application/json", }, json={ "model": "flux-2-pro", "prompt": "自然融合这两个图片", "input_image": "https://static.apiyi.com/apiyi-logo.png", "input_image_2": "https://images.unsplash.com/photo-1762138012600-2ab523f8b35a", "seed": 42, "output_format": "jpeg", }, timeout=120, ) image_url = resp.json()["data"][0]["url"] # data[0].url 仅 10 分钟有效,立即下载 with open("fused.jpg", "wb") as f: f.write(requests.get(image_url, timeout=30).content) ``` ### Python(requests · 本地文件 base64) ```python theme={null} import base64, requests, mimetypes def to_data_url(path: str) -> str: mime = mimetypes.guess_type(path)[0] or "image/png" with open(path, "rb") as f: b64 = base64.b64encode(f.read()).decode() return f"data:{mime};base64,{b64}" resp = requests.post( "https://api.apiyi.com/v1/images/generations", headers={ "Authorization": "Bearer sk-your-api-key", "Content-Type": "application/json", }, json={ "model": "flux-2-pro", "prompt": "把图1人物放进图2场景", "input_image": to_data_url("person.png"), "input_image_2": "https://your-oss.example.com/scene.jpg", }, timeout=120, ) print(resp.json()["data"][0]["url"]) ``` ### Python(OpenAI SDK · extra\_body 注入 input\_image) ```python theme={null} from openai import OpenAI import requests client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) # OpenAI SDK 的 images.generate() 走 /v1/images/generations + JSON, # BFL 原生字段通过 extra_body 直接拼到 JSON 请求体里 resp = client.images.generate( model="flux-2-pro", prompt="自然融合这两个图片", extra_body={ "input_image": "https://static.apiyi.com/apiyi-logo.png", "input_image_2": "https://images.unsplash.com/photo-1762138012600-2ab523f8b35a", "seed": 42, "output_format": "jpeg", }, ) image_url = resp.data[0].url with open("fused.jpg", "wb") as f: f.write(requests.get(image_url, timeout=30).content) ``` ### Node.js(fetch · 多图融合) ```javascript theme={null} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key', 'Content-Type': 'application/json', }, body: JSON.stringify({ model: 'flux-2-pro', prompt: '自然融合这两个图片', input_image: 'https://static.apiyi.com/apiyi-logo.png', input_image_2: 'https://images.unsplash.com/photo-1762138012600-2ab523f8b35a', seed: 42, output_format: 'jpeg', }), }); const { data } = await resp.json(); const img = await fetch(data[0].url); const fs = await import('node:fs'); fs.writeFileSync('fused.jpg', Buffer.from(await img.arrayBuffer())); ``` ## 参数说明速查 | 字段 | 类型 | 必填 | 默认 | 说明 | | ---------------------------------- | ------- | -- | ------- | --------------------------------------------------------------------------------------------------------- | | `model` | string | 是 | — | FLUX 模型 ID,多图融合推荐 `flux-2-pro` / `flux-2-max`,单图改图也可用 `flux-kontext-max` / `flux-kontext-pro` | | `prompt` | string | 是 | — | 编辑 / 融合指令,最长 32K tokens;多图场景用「image 1 / image 2 / image 3」指代 image / input\_image\_2 / input\_image\_3 顺序 | | `input_image` | string | 是 | — | 参考图 1。公网 URL(推荐)或 `data:image/...;base64,xxx` data URL | | `input_image_2` \~ `input_image_8` | string | 否 | — | 第 2–8 张参考图,URL 或 data URL。FLUX.2 \[pro/max/flex] **最多 8 张**,\[klein] **4 张**,Kontext 不支持 | | `aspect_ratio` | string | 否 | 跟随首图 | 例如 `1:1` / `16:9` / `9:16` / `4:3` / `3:2` | | `seed` | integer | 否 | 随机 | 固定可复现 | | `safety_tolerance` | integer | 否 | `2` | 0(最严)– 6(最宽松) | | `output_format` | string | 否 | `jpeg` | `jpeg` / `png` | | `prompt_upsampling` | boolean | 否 | `false` | 是否自动扩写 prompt | | `steps` | integer | 否 | `50` | **仅 `flux-2-flex`**,最大 50 | | `guidance` | number | 否 | `4.5` | **仅 `flux-2-flex`**,1.5–10 | ## 多图融合策略 上传同一角色的多张照片作参考,模型会自动维持身份特征。适合广告系列、漫画分镜、时尚编辑。 ``` Eight consistent characters from the reference images, in a fashion editorial set on a Tokyo rooftop at golden hour ``` 一张内容图 + 一张风格图,prompt 显式指代: ``` Using the style of image 2, render the subject from image 1 ``` 把多张图里的不同物体组合到一个新场景: ``` The person from image 1 is petting the cat from image 2, the bird from image 3 is next to them ``` 把图1人物的上衣换成图2 的款式: ``` Replace the top of the person in image 1 with the one from image 2, keep the pose and background unchanged ``` **多轮迭代**:把上一次的 `data[0].url` 重新下载后作为下一次 `image[]` 输入,配合新指令逐步精调画面。每轮按张数计费。 ## 响应格式 ```json theme={null} { "created": 1776832476, "data": [ { "url": "https://delivery-eu.bfl.ai/results/xxx/sample.jpeg?signature=..." } ] } ``` **⚠️ `data[0].url` 仅 10 分钟有效** * URL 托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,签名 10 分钟过期 * **不开启 CORS**,浏览器 `fetch` 会被拦 * 生产服务**必须**服务端代下载到自有 OSS / CDN * FLUX 编辑端点**不返回** `b64_json`,仅返回 url 编辑请求与文生图同价,按张数计费而非按 token。多图融合不会因图片数量加价(与 OpenAI gpt-image-2 编辑不同)。 # FLUX 生图/编辑 Source: https://docs.apiyi.com/api-capabilities/flux/overview Black Forest Labs 的 FLUX 模型族 — 从 sub-second 的 FLUX.2 [klein] 到 4MP 旗舰 [max],覆盖文生图、参考图编辑、多图融合、文字渲染、hex 精确色控。OpenAI 兼容直连。 ## 概述 **FLUX** 是德国 Black Forest Labs(BFL)推出的旗舰图像生成模型族。最新一代 **FLUX.2** 横跨 sub-second 到 4MP 旗舰画质共 5 档,叠加上一代图像编辑专用的 **FLUX.1 Kontext** 共 7 个模型在售;老版本 FLUX.1 \[pro] 系列也保留可调用。API易 网关把 BFL 的异步 API 封装成标准 OpenAI Images API(`/v1/images/generations` 与 `/v1/images/edits`),OpenAI 官方 SDK 把 `base_url` 指过来即可零代码改动直连。 **🎨 核心亮点**:FLUX.2 \[max] 独家支持 **grounding search 联网搜索**,原生 4MP 输出(2048×2048)+ 多参考图最多 8 张 + 32K tokens 长 prompt + hex 色精确控制 + 文字渲染领先。**适合需要旗舰画质、多图一致性、品牌色精确还原、专业排版** 的生产场景。 `/v1/images/generations`,输入文本提示词生成图片,覆盖 FLUX.2 全部 5 个模型。 `/v1/images/edits`,multipart 上传参考图(最多 8 张)+ 编辑/融合指令,FLUX.2 + FLUX.1 Kontext 通用。 FLUX.1 \[pro] / \[pro] 1.1 / \[pro] 1.1 Ultra / \[dev] 老版本规格、迁移建议、计费差异。 ## 为什么选 API易 的 FLUX? 对标 BFL 官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化: BFL 官方走异步 polling,APIYI 把它封装成同步的 **OpenAI Images API**。OpenAI 官方 SDK 把 `base_url` 指过来直接用,不用自己写 `polling_url` 轮询循环。 BFL 官方对单账号限 **24 个 active tasks**(kontext-max 仅 6),APIYI 在网关层做了池化,企业用户线性放量不受单账号限制。 FLUX.2 \[pro/max/flex] 与官方 1MP 同价,klein 4B/9B 比官方更便宜(节省约 28%),FLUX.1 \[pro] 1.1 Ultra 节省 17%,叠加 [充值加赠活动](/faq/recharge-promotions) **最低可享 85 折**。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。 搭配 [gpt-image-2](/api-capabilities/gpt-image-2/overview)、[Seedream](/api-capabilities/seedream-image/overview)、[Nano Banana](/api-capabilities/nano-banana-image/overview) 等同站系列,可按场景自由组合。 团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 核心特性 klein 4B/9B **sub-second** 出图(消费级 GPU 即可)、pro **\< 10 秒**、max **\< 15 秒**、flex 较慢但精度更高。一个系列横跨实时到旗舰。 最大 2048×2048(约 4MP),是 FLUX.1 时代 1.6MP 的 2.5 倍。任意宽高(边长须 16 倍数),最小 64×64。 `image[]` 数组上传多张参考图:FLUX.2 \[pro/max/flex] 最多 **8 张**,\[klein] 最多 4 张,prompt 中可用「图1/图2」精确指代。 FLUX.2 \[max] 独家:prompt 触发实时网络检索,可生成"昨日比赛比分"、"实时天气"、"历史事件复刻"等需要外部知识的画面。 在 prompt 里直接写 `#02eb3c` / `#ff0088` 等 hex 码,模型按精确色值出图,专业品牌设计无需后期调色。 支持最长 **32K tokens** 的 prompt,可用结构化 JSON 描述(subject / background / lighting / style 等),适合产线自动化。 FLUX.2 \[flex] 专为文字场景调优,海报标题、UI 截图、信息图等小字保留度业内领先;max / pro 同样可用。 把 `base_url` 指向 `https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 直接调 `client.images.generate(model="flux-2-pro", ...)`,零代码改动。 ## 模型定价 按次计费,单价见下表(**APIYI 单价**列)。BFL 官方按 **MP(megapixel)** 计费,1MP 内同价、超过逐 MP 加成;APIYI 按张定价更可预测。 ### FLUX.2 系列(最新一代) | 模型 ID | APIYI 单价 | 官方价 | 速度 | 适用场景 | | ----------------- | ---------- | -------------- | ---------- | ------------------------ | | `flux-2-max` | \$0.0700/次 | from \$0.07/MP | \< 15 秒 | 旗舰画质 + 联网搜索(grounding) | | `flux-2-pro` | \$0.0300/次 | from \$0.03/MP | \< 10 秒 | 生产规模、最佳性价比 | | `flux-2-flex` | \$0.0600/次 | \$0.06/MP | 较慢 | 文字渲染特化,可调 steps/guidance | | `flux-2-klein-9b` | \$0.0100/次 | from \$0.015 | sub-second | 平衡画质和速度 | | `flux-2-klein-4b` | \$0.0100/次 | from \$0.014 | sub-second | 最快、消费级 GPU 友好 | ### FLUX.1 Kontext 系列(图像编辑专用) | 模型 ID | APIYI 单价 | 官方价 | 节省 | 适用场景 | | ------------------ | ---------- | ------ | ----- | --------------- | | `flux-kontext-max` | \$0.0700/次 | \$0.08 | 12.5% | 编辑最高质量、文字精修 | | `flux-kontext-pro` | \$0.0350/次 | \$0.04 | 12.5% | 编辑性价比首选、5-6 秒生成 | ### FLUX.1 \[pro] 经典版本(历史版本,仍可调用) | 模型 ID | APIYI 单价 | 官方价 | 节省 | | -------------------- | ---------- | ------ | ----- | | `flux-pro-1.1-ultra` | \$0.0500/次 | \$0.06 | 17% | | `flux-pro-1.1` | \$0.0350/次 | \$0.04 | 12.5% | | `flux-pro` | \$0.0400/次 | \$0.04 | 同价 | | `flux-dev` | \$0.0200/次 | — | — | 详细规格与迁移建议见 [历史版本页](/api-capabilities/flux/historical-versions)。 **计费说明**: * APIYI 走按次定价,1 张图固定单价,与输出 MP 无关 * 官方按 MP 计费,1MP 起步价 + 超过部分逐 MP 加成 * 编辑请求与文生图同价(不像 OpenAI gpt-image-2 编辑要按 Vision 加价) * klein 4B / klein 9B 的开源权重可在 Hugging Face 自行部署(Apache 2.0 / FLUX NCL 协议) * 失败请求(4xx / 内容审核拦截)不计费 ## 技术规格 | 维度 | 参数 | | ---------------------- | ---------------------------------------------------------------------- | | **当前主力推荐** | `flux-2-pro` / `flux-2-pro-preview`(综合)+ `flux-kontext-max`(编辑文字) | | **速度** | sub-second(klein)/ \< 10 秒(pro)/ \< 15 秒(max)/ 较慢(flex) | | **输出分辨率** | 最大 4MP(2048×2048),任意宽高,边长须 16 倍数 | | **输入分辨率** | 最小 64×64,最大 4MP(仅编辑端点) | | **参考图上限** | 8 张(FLUX.2 \[pro/max/flex])/ 4 张(FLUX.2 \[klein])/ 1 张(FLUX.1 Kontext) | | **Prompt 长度** | 最长 32K tokens | | **输出格式** | `jpeg`(默认)/ `png` | | **审核档位** | `safety_tolerance` 0–6(0 最严、6 最宽松,默认 2) | | **联网搜索** | 仅 `flux-2-max` 支持 grounding search | | **响应字段** | `data[0].url`(**10 分钟内有效**,需立即下载) | | **单次出图数量** | 1 张(`n=1`) | | **prompt\_upsampling** | FLUX.2 \[pro/max/flex] 支持,\[klein] 不支持 | ## 端点一览 | 端点 | 用途 | Content-Type | | ----------------------------- | ----------------------------- | --------------------- | | `POST /v1/images/generations` | 文生图(所有 FLUX 模型) | `application/json` | | `POST /v1/images/edits` | 图像编辑 / 多图融合(FLUX.2 + Kontext) | `multipart/form-data` | **域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。 ## 尺寸(width / height)详解 ### 常用尺寸 | 尺寸 | 含义 | 像素 | 适用 | | ----------- | -------- | ------- | --------------- | | `1024x1024` | 方形 1:1 | \~1MP | 通用、社媒头像 | | `1024x1536` | 竖版 2:3 | \~1.6MP | 海报、肖像 | | `1536x1024` | 横版 3:2 | \~1.6MP | 风景、桌面 | | `1440x2048` | 竖版 \~3:4 | \~2.9MP | 电影竖幅 | | `1920x1080` | 横版 16:9 | \~2MP | 视频缩略图 | | `2048x2048` | 方形 1:1 | 4MP | 旗舰打印(FLUX.2 上限) | ### 自定义尺寸约束 FLUX.2 接受任意尺寸,只需同时满足: 1. **width / height 都是 16 的倍数** 2. **最小 64×64** 3. **最大约 4MP**(如 2048×2048 / 1920×2048 / 2048×1920 等) 4. **推荐总像素 ≤ 2MP** 以兼顾速度与价格 **合法示例**:`1280x720`、`1920x1080`、`2048x1024`、`1456x1920` **非法示例**:`1000x1000`(非 16 倍数)、`3840x2160`(超 4MP 上限)、`32x32`(小于 64×64) **API 端 width/height 与 OpenAI 兼容写法的差异**:BFL 原生使用 `width` / `height` 整数;APIYI 也接受 OpenAI 风格的 `size: "1024x1024"` 字符串,两种写法等价,二选一即可。 ## 最佳实践 旗舰终稿 + 需要联网知识 → `flux-2-max`;生产批量 → `flux-2-pro`;文字海报 / 信息图 → `flux-2-flex`;高吞吐实时 → `flux-2-klein-9b`;图像编辑首选 → `flux-kontext-max` 或 `flux-kontext-pro`。 速度和价格的最优平衡点在 1MP–2MP 之间。仅在打印 / 4K 屏幕等明确需要时再上 4MP,klein 高分辨率会显著增加单次成本。 上传 `image[]` 时顺序作为指代依据,prompt 中显式说"图1的人物放进图2的场景,沿用图3的色彩风格",比让模型自己推断稳得多。 `data[0].url` 仅 **10 分钟有效**,且托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,CORS 默认关闭。生产服务必须代下载到自有 CDN。 招牌、海报、UI 截图等带文字的场景优先用 `flux-2-flex`(专精文字)或 `flux-2-max`(综合质量更高),其它模型小字仍可能糊。 需要"今天的天气"、"昨晚比赛"等实时知识时仅 `flux-2-max` 能用。其它模型纯靠训练数据,无法实时检索。 APIYI 已封装好同步等待,pro / max \< 15 秒到帧,但叠加排队 + 网络抖动建议客户端超时 60–120 秒。flex 较慢可设到 180 秒。 传相同 `seed` + 相同其它参数可获一致结果,适合 A/B 测试与客户验收。klein 不支持 prompt\_upsampling,pro/max/flex 默认关闭,按需开启。 ## 错误码与重试 | 状态码 | 含义 | 处理建议 | | ----- | ------------------------------------------------------ | -------------------------------------- | | `400` | 参数非法(width/height 非 16 倍数、超 4MP、prompt 超 32K tokens 等) | 按尺寸约束章节校验,特别检查 16 倍数 | | `401` | 令牌无效 | 检查 Bearer Token | | `403` | 内容审核拦截 | 调整 prompt 或调高 `safety_tolerance`(最高 6) | | `429` | 限流 / 余额不足 / active tasks 超限 | 指数退避重试 | | `5xx` | 网关 / 后端错误 | 重试 1–2 次 | | 超时 | 长尾 | 客户端超时 ≥ **60 秒**(flex 建议 180 秒) | **建议客户端**: * 请求超时 **60–120 秒** 起步(flex 模型放宽到 180 秒) * 对 5xx 与 429 做 **指数退避重试**(建议 2 次) * 拿到 `data[0].url` 后**立即异步下载**,不要等用户点击再拉 * 记录响应头 `x-request-id` 方便排查 ## 常见问题 BFL 官方设计:所有结果都托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,签名 URL 有效期 10 分钟,且**不开启 CORS**。生产服务必须服务端代下载到自有 OSS / CDN,不能直接给浏览器渲染、也不能让用户长期访问。 APIYI 网关沿用了同一套 URL 机制,行为与官方一致。 APIYI 网关替你做了 polling:你发一个标准的 OpenAI Images API 请求,网关内部代你 POST 到 BFL、轮询 `polling_url` 直到 `Ready`,再把最终的 `result.sample` URL 包装成 `data[0].url` 返回。客户端看到的就是一发请求一次响应,与 OpenAI / GPT-Image / Nano Banana 完全一致。 * **FLUX.2 \[pro/max/flex]**:最多 **8 张** * **FLUX.2 \[klein]**:最多 **4 张** * **FLUX.1 Kontext \[pro/max]**:单张为主(多图融合靠拼图变通) 在 prompt 里用「图1/图2/图3」明确指代,例如"把图1的人物放进图2的场景,沿用图3的色彩风格"。也可以自然语言描述,模型理解输入图的内容能力较强。 `prompt_upsampling=true` 时模型会自动扩写 / 优化你的 prompt(特别适合短 prompt)。但**会改变原意**,专业排版 / 品牌素材建议关闭、自由探索时可以开。 **限制**:FLUX.2 \[klein] 系列不支持,传了会被忽略。 仅 `flux-2-max` 支持。**无需特殊参数**,只要 prompt 里包含需要实时知识的内容,模型就会自动联网搜索后再出图。例如: > "Generate a news photo of the snowstorm hitting NYC on Dec 15, 2025" 适合"昨日比赛比分"、"实时天气"、"历史事件复刻"、"最新流行趋势"等。无联网知识的 prompt 即使打开也不会触发,按普通生图计费。 直接在 prompt 中写 hex 码,并用「color」/「hex」之类关键词显式标注: ``` A vase on a table, the color of the vase is gradient from #02eb3c to #edfa3c, the flowers have color #ff0088 ``` 或者多色品牌: ``` Luxury eyeshadow palette with 6 pans: top row #B76E79, #E8D5B7, #8B4789; bottom row #CD7F32, #F8F6F0, #800020 ``` 精度业内领先,无需后期调色。 FLUX.2 支持把 prompt 写成 JSON: ```json theme={null} { "subject": "Mona Lisa painting by Leonardo da Vinci", "background": "museum gallery wall, ornate gold frame", "lighting": "soft gallery lighting", "style": "digital art, high contrast", "camera_angle": "eye level view", "composition": "centered, portrait orientation" } ``` 把 JSON 字符串作为 `prompt` 字段值传入。适合产线自动化、批量生成同模板素材。 走 `/v1/images/edits`,`multipart/form-data` 上传 `image[]` + `prompt`,详细参数和示例见 [图片编辑 API](/api-capabilities/flux/image-edit)。 **注意**:FLUX.1 Kontext 系列原生只支持单参考图;FLUX.2 系列原生支持最多 8 张。 可以,零代码改动。把 `base_url` 指向 `https://api.apiyi.com/v1` 即可: ```python theme={null} from openai import OpenAI client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1") resp = client.images.generate( model="flux-2-pro", prompt="...", size="1024x1024" ) ``` Node.js 的 `openai` 包同理。所有 FLUX 模型都按 OpenAI Images API 规范返回 `data[0].url`。 **不支持**。客户端断开连接后服务端仍会把生成跑完并照常计费。建议客户端做好超时控制,不要依赖"断连不收费"的假设。 BFL 官方对单账号限 **24 active tasks**,`flux-kontext-max` 单独限 **6 active tasks**。 APIYI 在网关层做了池化,企业用户的并发不受单账号上限制约。如需明确 SLA / RPM 配额,请联系商务申请扩容。 BFL 官方支持 `webhook_url` + `webhook_secret`,但 APIYI 的 OpenAI 兼容封装走同步等待,**未透传 webhook 字段**——不需要轮询,发一发拿一发。如果业务确实需要 webhook,请联系我们说明场景,可单独开启原生异步通道。 **不会**。参数 `400`、内容审核 `403`、限流 `429` 都返回错误且不计费。**只有请求实际进入模型生成阶段(即收到 `200` + `data[0].url`)才会按张数计费**。 ## 相关文档 * [文生图 Playground](/api-capabilities/flux/text-to-image) - `/v1/images/generations` 在线调试 * [图片编辑 Playground](/api-capabilities/flux/image-edit) - `/v1/images/edits` 多图融合 + 编辑 * [历史版本与迁移](/api-capabilities/flux/historical-versions) - FLUX.1 \[pro] / \[pro] 1.1 / Ultra / \[dev] * [API 使用手册](/api-manual) - 通用调用规范 * [GPT-Image-2 概览](/api-capabilities/gpt-image-2/overview) - OpenAI 官方旗舰图像,支持 4K * [Seedream 概览](/api-capabilities/seedream-image/overview) - 字节火山战略合作通道 FLUX 是 BFL 自研模型族,在 hex 色精确控制、文字渲染、长 prompt 理解上业内领先。如果你更看重 OpenAI 生态一致性可参考 [GPT-Image-2](/api-capabilities/gpt-image-2/overview);更看重中文场景可参考 [Seedream](/api-capabilities/seedream-image/overview)。 # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/flux/text-to-image api-reference/flux-generate-openapi.yaml POST /v1/images/generations FLUX 文生图 API 参考与在线调试 — FLUX.2 [klein/pro/max/flex] 全系列 OpenAI 兼容直连,支持 4MP 输出与 hex 精确色控 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择模型与尺寸后一键发送即可。 **场景说明**:本页用于「文本生成图片」,仅需输入提示词,无需上传任何图片。如需根据现有图片做编辑、多图融合,请使用 [图片编辑接口](/api-capabilities/flux/image-edit)。 **⚠️ 关键差异 / 不支持的参数** * **结果 URL 仅 10 分钟有效** — `data[0].url` 必须立即下载,过期返回 404 * **`width` / `height` 必须是 16 的倍数** — 不满足会 400 报错 * **`prompt_upsampling` FLUX.2 \[klein] 不支持** — 传入会被忽略 * **总像素上限 4MP**(约 2048×2048)— 超过会 400 报错 * **`grounding search` 仅 `flux-2-max`** — 其它模型 prompt 含实时知识也不会触发 ## 代码示例 ### Python(OpenAI SDK 直连) ```python theme={null} from openai import OpenAI import requests client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.generate( model="flux-2-pro", prompt="A cinematic shot of a futuristic city at sunset, 85mm lens, hyper-realistic", size="1920x1080" ) # data[0].url 仅 10 分钟有效,立即下载 image_url = resp.data[0].url with open("out.jpg", "wb") as f: f.write(requests.get(image_url, timeout=30).content) ``` ### Python(原生 requests · 含 width/height 写法) ```python theme={null} import requests API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={ "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" }, json={ "model": "flux-2-max", "prompt": "Score of yesterday's Champions League final, infographic style", "width": 1920, "height": 1080, "safety_tolerance": 2, "output_format": "jpeg", "seed": 42 }, timeout=120 ).json() image_url = response["data"][0]["url"] with open("out.jpg", "wb") as f: f.write(requests.get(image_url, timeout=30).content) ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "flux-2-pro", "prompt": "Luxury eyeshadow palette with 6 pans: top row #B76E79, #E8D5B7, #8B4789; bottom row #CD7F32, #F8F6F0, #800020", "size": "1024x1024", "output_format": "png" }' ``` ### Node.js(原生 fetch) ```javascript theme={null} import fs from 'node:fs'; const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'flux-2-klein-9b', prompt: 'A serene mountain landscape at golden hour, soft diffused light', width: 1024, height: 1024 }) }); const { data } = await resp.json(); // 立即下载 - URL 10 分钟过期 const img = await fetch(data[0].url); fs.writeFileSync('out.jpg', Buffer.from(await img.arrayBuffer())); ``` ### 浏览器 JavaScript(直接渲染) ```javascript theme={null} {/* 仅作演示,生产请走后端代理避免 Key 泄露;URL 不开 CORS,需要后端代下载 */} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'flux-2-pro', prompt: 'Watercolor aurora borealis over Nordic mountains', size: '1536x1024' }) }); const { data } = await resp.json(); {/* delivery URL 不开 CORS,浏览器直接 渲染可行(不走 fetch 即可),但建议后端代下载到自有 CDN */} document.getElementById('img').src = data[0].url; ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 默认 | 说明 | | ------------------- | ------- | -- | ----------- | -------------------------------- | | `model` | string | 是 | — | FLUX 模型 ID,见下表 | | `prompt` | string | 是 | — | 提示词,最长 32K tokens,支持中英文与结构化 JSON | | `size` | string | 否 | `1024x1024` | OpenAI 风格尺寸字符串,如 `1920x1080` | | `width` | integer | 否 | `1024` | BFL 原生写法,与 size 二选一,必须 16 倍数 | | `height` | integer | 否 | `1024` | BFL 原生写法,必须 16 倍数 | | `seed` | integer | 否 | 随机 | 固定可复现 | | `safety_tolerance` | integer | 否 | `2` | 0(最严)– 6(最宽松) | | `output_format` | string | 否 | `jpeg` | `jpeg` / `png` | | `prompt_upsampling` | boolean | 否 | `false` | 自动扩写 prompt(\[klein] 不支持) | | `steps` | integer | 否 | `50` | **仅 `flux-2-flex`**,最大 50 | | `guidance` | number | 否 | `4.5` | **仅 `flux-2-flex`**,1.5–10 | | `n` | integer | 否 | `1` | 仅支持 1 | ### 支持的模型 ID | 模型 ID | 速度 | 适用 | | -------------------- | ---------- | --------------- | | `flux-2-max` | \< 15s | 旗舰画质 + 联网搜索 | | `flux-2-pro` | \< 10s | 生产规模、最佳性价比 | | `flux-2-flex` | 较慢 | 文字渲染特化 | | `flux-2-klein-9b` | sub-second | 平衡型 | | `flux-2-klein-4b` | sub-second | 最快 | | `flux-pro-1.1-ultra` | \~10s | 老版 4MP(详见历史版本页) | | `flux-pro-1.1` | \~5s | 老版 1.6MP | | `flux-pro` | \~6s | 初代 pro | | `flux-dev` | \~5s | 开发版 | 详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。 ## 响应格式 ```json theme={null} { "created": 1776832476, "data": [ { "url": "https://delivery-eu.bfl.ai/results/xxx/sample.jpeg?signature=..." } ] } ``` **⚠️ `data[0].url` 仅 10 分钟有效** * URL 托管在 `delivery-eu.bfl.ai` / `delivery-us.bfl.ai`,签名 10 分钟过期 * **不开启 CORS**,浏览器 `fetch` 会被拦,但 `` 直显可行 * 生产服务**必须**服务端代下载到自有 OSS / CDN,不要把原 URL 直接给客户端 与 OpenAI `gpt-image-2`(返回 `b64_json` 纯 base64)不同,**FLUX 走 URL,不返回 base64**。 FLUX 不返回 `usage` 字段(按张计费而非按 token),实际扣费按本文档定价表执行。响应头 `x-request-id` 用于排查。 # Gemini 原生格式调用 Source: https://docs.apiyi.com/api-capabilities/gemini-native-format 通过 API易 直接使用 Gemini 官方原生格式进行 API 调用。 API易 除了支持 OpenAI 兼容格式外,也提供了直接使用 **Gemini 官方原生格式**进行 API 调用的能力。这意味着您可以无缝迁移现有的 Gemini 代码,或直接使用 Gemini 官方 SDK 的原生请求体与 API易 交互。 ## 优势 * **无缝兼容**:直接使用 Gemini 官方请求和响应结构,无需任何转换。 * **功能完整**:支持 Gemini 的所有原生特性,包括多模态输入(文本、图片、视频)、Function Calling、代码执行等。 * **推理能力**:完整支持 Gemini 2.5 系列的思维链推理功能。 * **便捷迁移**:对于已有 Gemini 项目的用户,可以快速切换到 API易,享受更灵活的服务。 ## 配置与使用 要使用 Gemini 原生格式,您需要将 API 请求发送到特定的 `/v1beta/` 端点。 ### 环境准备 我们推荐使用 Google 官方的最新 `google-genai` Python SDK(统一的 Gen AI SDK)。旧版 `google-generative-ai` 已于 2025 年 11 月 30 日停止支持。 首先,确保您已安装 `google-genai` 库: ```bash theme={null} pip install google-genai ``` ### 基础配置 配置 API易 服务端点: ```python theme={null} from google import genai {/* 配置 API易 服务 */} client = genai.Client( api_key="YOUR_API_KEY", # 您的 API易 密钥 http_options={"base_url": "https://api.apiyi.com"} ) {/* 使用 Gemini 模型生成内容 */} response = client.models.generate_content( model='gemini-3-pro-preview', contents='您的提示词' ) print(response.text) ``` ## 基础文本生成 ### 非流式响应 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 发送请求 */} response = client.models.generate_content( model='gemini-2.0-flash', contents="讲一个关于人工智能的科幻故事。" ) {/* 输出结果 */} print(response.text) ``` ### 流式响应 对于长文本生成,推荐使用流式响应以获得更好的用户体验: ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 流式生成 */} response = client.models.generate_content_stream( model='gemini-2.5-flash', contents="请写一篇关于量子计算的详细文章。" ) {/* 实时输出 */} for chunk in response: print(chunk.text, end='', flush=True) ``` ## Gemini 2.5 系列推理功能 Gemini 2.5 系列模型支持强大的思维链推理能力,可以显示模型的思考过程。 ### 推理模型类型 * **gemini-2.5-flash**:混合推理型,可通过 `thinking_budget` 参数调整推理深度(范围:0-16384 tokens) * **gemini-2.5-pro**:纯推理型,自动启用思维链推理,无法关闭 ### 控制推理预算 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 使用推理预算配置 */} response = client.models.generate_content( model='gemini-2.5-flash', contents="如何设计一个高效的分布式缓存系统?请详细分析各个技术方案。", config={ "thinking_budget": 8192, # 推理预算:0-16384 "temperature": 1.0 # 温度范围:0-2 } ) print(response.text) ``` **推理预算说明**: * `thinking_budget=0`:关闭推理,快速响应 * `thinking_budget=1024-8192`:中等推理深度,平衡速度和质量 * `thinking_budget=16384`:最大推理深度,适合复杂问题 ### 显示思考过程 如果您想看到模型的思考过程(thinking tokens),可以设置 `include_thoughts=True`: ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 启用思考过程显示 */} response = client.models.generate_content( model='gemini-2.5-flash', contents="分析以下代码的时间复杂度:def fibonacci(n): return n if n <= 1 else fibonacci(n-1) + fibonacci(n-2)", config={ "thinking_budget": 8192, "include_thoughts": True # 显示思考过程 } ) {/* 遍历所有部分,包括思考过程 */} for part in response.candidates[0].content.parts: if hasattr(part, 'thought') and part.thought: print(f"💭 思考过程: {part.text}") else: print(f"📝 最终答案: {part.text}") ``` **费用说明**:推理过程产生的 thinking tokens 会计入输出 tokens 成本,使用高推理预算可能会增加费用。 ## 多模态处理 Gemini 模型支持处理图片、音频、视频等多种媒体类型。 ### 图片处理 ```python theme={null} from google import genai from PIL import Image client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 加载本地图片 */} img = Image.open('path/to/your/image.jpg') {/* 多模态请求 */} response = client.models.generate_content( model='gemini-2.0-flash', contents=[ "请详细描述这张图片的内容,包括主要元素、颜色、构图等。", img ] ) print(response.text) ``` ### 视频处理 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 上传视频文件 */} video_file = client.files.upload(path='path/to/video.mp4') {/* 分析视频内容 */} response = client.models.generate_content( model='gemini-2.5-flash', contents=[ "请总结这个视频的主要内容和关键信息。", video_file ] ) print(response.text) ``` ### 音频处理 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 上传音频文件 */} audio_file = client.files.upload(path='path/to/audio.mp3') {/* 转录和分析音频 */} response = client.models.generate_content( model='gemini-2.5-flash', contents=[ "请转录这段音频的内容,并总结主要话题。", audio_file ] ) print(response.text) ``` ### 媒体分辨率优化 为了节省 tokens 费用,您可以调整媒体文件的分辨率: ```python theme={null} from google import genai from PIL import Image client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 使用较低分辨率处理图片,节省费用 */} img = Image.open('large_image.jpg') response = client.models.generate_content( model='gemini-2.0-flash', contents=[ "这张图片的主题是什么?", img ], config={ "response_modalities": ["TEXT"], "media_resolution": "MEDIA_RESOLUTION_LOW" # LOW | MEDIUM | HIGH } ) print(response.text) ``` **媒体文件限制**: * 文件大小:少于 20MB * 支持格式:图片(JPG、PNG、WebP)、音频(MP3、WAV)、视频(MP4、MOV) * 上传方式:使用 `client.files.upload()` 或直接传递 PIL Image 对象 ## 代码执行功能 Gemini 模型支持自动执行 Python 代码,非常适合数据分析场景。 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 数据分析示例,启用代码执行工具 */} response = client.models.generate_content( model='gemini-2.5-flash', contents=""" 假设我有以下销售数据: - 产品A:100件,单价50元 - 产品B:200件,单价30元 - 产品C:150件,单价40元 请计算: 1. 总销售额 2. 平均单价 3. 绘制销售额分布的柱状图 """, config={'tools': [{'code_execution': {}}]} ) {/* 查看执行的代码和结果 */} for part in response.candidates[0].content.parts: if hasattr(part, 'executable_code'): print(f"执行的代码:\n{part.executable_code.code}") if hasattr(part, 'code_execution_result'): print(f"执行结果:\n{part.code_execution_result.output}") if hasattr(part, 'text'): print(f"分析说明:\n{part.text}") ``` **代码执行限制**: * 仅支持 Python 代码 * 执行环境为沙箱环境,无法访问网络和文件系统 * 执行超时时间有限制 ## Function Calling(工具调用) Gemini 原生格式完整支持 Function Calling,让模型可以调用外部工具。 ### 定义工具 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 定义天气查询工具 */} tools = [ { "function_declarations": [ { "name": "get_current_weather", "description": "获取指定城市的当前天气信息", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "城市名称,例如:北京、上海" }, "unit": { "type": "string", "enum": ["celsius", "fahrenheit"], "description": "温度单位" } }, "required": ["location"] } } ] } ] ``` ### 自动工具调用 ```python theme={null} from google import genai {/* 设置工具调用模式 */} response = client.models.generate_content( model='gemini-2.5-flash', contents="北京现在的天气怎么样?温度是多少摄氏度?", config={ 'tools': tools, 'tool_config': {'function_calling_config': {'mode': 'AUTO'}} } ) {/* 检查是否需要调用工具 */} function_call = response.candidates[0].content.parts[0].function_call if function_call: print(f"调用工具: {function_call.name}") print(f"参数: {dict(function_call.args)}") {/* 实际调用您的天气 API */} def get_current_weather(location, unit="celsius"): # 这里应该调用真实的天气 API return { "location": location, "temperature": 22, "unit": unit, "condition": "晴朗" } {/* 获取工具执行结果 */} weather_data = get_current_weather(**dict(function_call.args)) {/* 将结果返回给模型 */} from google.genai import types response = client.models.generate_content( model='gemini-2.5-flash', contents=[ types.Content( parts=[ types.Part( function_response=types.FunctionResponse( name=function_call.name, response=weather_data ) ) ] ) ] ) print(f"最终回答: {response.text}") ``` **工具调用模式**: * `mode: 'AUTO'`:模型自动决定是否调用工具(推荐) * `mode: 'ANY'`:强制模型必须调用工具 * `mode: 'NONE'`:禁用工具调用 ## 上下文缓存 API易 自动为 Gemini 原生格式启用隐式上下文缓存,可以显著降低重复对话的费用。 ### 缓存机制 * **自动启用**:无需手动配置,系统自动缓存上下文 * **缓存费用**:缓存的 tokens 按正常价格的 25% 计费 * **有效期**:缓存会在一定时间后自动过期 ### 检测缓存命中 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 发送请求 */} response = client.models.generate_content( model='gemini-2.5-flash', contents="你好,请介绍一下量子计算。" ) {/* 检查缓存命中 */} usage = response.usage_metadata if hasattr(usage, 'cached_content_token_count'): print(f"缓存命中 tokens: {usage.cached_content_token_count}") print(f"输入 tokens: {usage.prompt_token_count}") print(f"输出 tokens: {usage.candidates_token_count}") ``` **缓存优势**: * 对于长上下文对话,可节省 75% 的输入 tokens 费用 * 适合多轮对话、文档分析、代码审查等场景 * 缓存命中非保证,实际节省因场景而异 ## Tokens 用量追踪 每次 API 调用都会返回详细的 tokens 用量信息。 ### 获取用量统计 ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) response = client.models.generate_content( model='gemini-2.5-flash', contents="解释一下机器学习的基本原理。" ) {/* 获取用量元数据 */} usage = response.usage_metadata print(f"提示词 tokens: {usage.prompt_token_count}") print(f"输出 tokens: {usage.candidates_token_count}") print(f"总计 tokens: {usage.total_token_count}") {/* 如果有缓存命中 */} if hasattr(usage, 'cached_content_token_count'): print(f"缓存 tokens: {usage.cached_content_token_count}") {/* 如果有推理 tokens(Gemini 2.5 系列)*/} if hasattr(usage, 'thoughts_token_count'): print(f"推理 tokens: {usage.thoughts_token_count}") ``` ### Tokens 字段说明 | 字段 | 说明 | 计费 | | ---------------------------- | ---------------- | ------------- | | `prompt_token_count` | 输入提示词的 tokens 数量 | 按输入价格计费 | | `candidates_token_count` | 输出内容的 tokens 数量 | 按输出价格计费 | | `cached_content_token_count` | 缓存命中的 tokens 数量 | 按输入价格的 25% 计费 | | `thoughts_token_count` | 推理过程的 tokens 数量 | 按输出价格计费 | | `total_token_count` | 总计 tokens 数量 | - | ## 注意事项 请确保使用您的 **API易 密钥**,而非 Google AI Studio 的密钥。 Gemini 原生格式使用 `https://api.apiyi.com` 作为 base\_url,兼容 Google 官方 REST API 格式。 直接使用 Gemini 官方模型名称,如 `gemini-3-pro-preview`、`gemini-2.5-flash`。 完全支持 Gemini 官方的多模态数据格式,可直接传递图片、视频、音频。 **重要限制**: * 媒体文件大小不能超过 20MB * 代码执行仅支持 Python,且在沙箱环境中运行 * 推理 tokens 会增加输出成本,请合理设置 `thinking_budget` ## 与 OpenAI 兼容格式的对比 | 特性 | Gemini 原生格式 | OpenAI 兼容格式 | | -------- | -------------------------------- | ------------------------------------------- | | **端点** | `https://api.apiyi.com` | `https://api.apiyi.com/v1/chat/completions` | | **SDK** | `google-genai` | `openai` | | **推理控制** | `thinking_budget` (0-16384) | `reasoning_effort` (low/medium/high) | | **思考过程** | `include_thoughts=True` | 不支持 | | **代码执行** | `tools=[{'code_execution': {}}]` | 不支持 | | **媒体上传** | `client.files.upload()` | Base64 编码 | | **缓存检测** | `cached_content_token_count` | 无详细字段 | 如果您需要调用其他类型的模型(如 OpenAI 系列)或使用 OpenAI 兼容格式,请参考 [OpenAI 官方库使用](/api-capabilities/openai-sdk) 文档。 ## 完整示例 以下是一个综合示例,展示了多种功能的组合使用: ```python theme={null} from google import genai from PIL import Image {/* 配置 */} client = genai.Client( api_key="YOUR_API_KEY", http_options={"base_url": "https://api.apiyi.com"} ) {/* 定义工具 */} tools = [{ "function_declarations": [{ "name": "search_database", "description": "搜索产品数据库", "parameters": { "type": "object", "properties": { "query": {"type": "string", "description": "搜索关键词"} }, "required": ["query"] } }] }] {/* 多模态 + 工具调用 + 流式输出 */} img = Image.open('product.jpg') response = client.models.generate_content_stream( model='gemini-2.5-flash', contents=[ "这张图片中的产品是什么?请搜索数据库查找类似产品,并推荐给我。", img ], config={ 'tools': tools, 'tool_config': {'function_calling_config': {'mode': 'AUTO'}}, 'thinking_budget': 4096, 'temperature': 0.7, 'include_thoughts': False } ) {/* 处理流式响应 */} for chunk in response: if chunk.text: print(chunk.text, end='', flush=True) {/* 检查工具调用 */} if chunk.candidates and chunk.candidates[0].content.parts: for part in chunk.candidates[0].content.parts: if hasattr(part, 'function_call'): print(f"\n[调用工具: {part.function_call.name}]") {/* 查看最终用量(需要等待流式响应完全结束)*/} if hasattr(response, 'usage_metadata'): print(f"\n\nTokens 用量: {response.usage_metadata.total_token_count}") ``` ## 获取帮助 如果您在使用 Gemini 原生格式时遇到问题,可以: * 查看 [API 文档](/api-reference) 了解详细的 API 规范 * 参考 [模型列表](/models) 查看可用的 Gemini 模型 * 联系技术支持获取帮助 # 对话式 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/chat-completions api-reference/gpt-image-2-all-chat-openapi.yaml POST /v1/chat/completions gpt-image-2-all 对话式端点 — 一个端点同时支持文生图与带参考图改图,方便直接传入在线图片 URL,支持多轮迭代。 **对话式端点特点**:**一个端点同时支持文生图与带参考图改图**,方便直接传入**在线图片 URL**(CDN 链接或 base64 data URL)作为参考图,并能天然做多轮迭代。右侧 Playground 填入 API Key 后,直接从下拉选择 example(文生图 / 带参考图改图 / 多轮迭代)即可。 如果你希望同一套代码兼容官转和官逆,建议使用 `/v1/images/generations` 与 `/v1/images/edits`(OpenAI Images API 标准格式)。 **选择模式**: * 仅输入文本 `messages` → **文生图** * `messages` 中加入 `image_url`(URL 或 base64 data URL)→ **带参考图改图** * 保留 `assistant` 历史消息继续追问 → **多轮迭代改图** **🖥️ 浏览器 Playground 限制(响应含 base64 时)** 本端点**默认返回 R2 CDN URL**(`data[0].url`),Playground 显示正常。少数情况下如果返回的是 base64(`data[0].b64_json`),或你在 `image_url` 里传入了大 base64 输入图,响应字符串可能达数 MB,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的内容。 **推荐做法**:遇到此提示时,**直接复制下方"代码示例"到本地运行**,程序可从 `data[0].url` 或 `data[0].b64_json` 中拿到结果(**两者只会出现其一**,不会同时返回)。 ## 代码示例 ### Python(文生图) ```python theme={null} import requests API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/chat/completions", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "model": "gpt-image-2-all", "messages": [ {"role": "user", "content": "横版 16:9 电影画幅,黄昏时的海边老灯塔,写实风格"} ] }, timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() # 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"] print(response["data"][0]["url"]) ``` ### Python(带参考图改图) ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" # 可用 HTTPS URL,也可以用 base64 data URL with open("photo.png", "rb") as f: data_url = "data:image/png;base64," + base64.b64encode(f.read()).decode() response = requests.post( "https://api.apiyi.com/v1/chat/completions", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "model": "gpt-image-2-all", "messages": [ { "role": "user", "content": [ {"type": "text", "text": "把这张图改成水彩画风"}, {"type": "image_url", "image_url": {"url": data_url}} ] } ] }, timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() # 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"] print(response["data"][0]["url"]) ``` ### cURL(文生图) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2-all", "messages": [ {"role": "user", "content": "横版 16:9,赛博朋克雨夜街景,霓虹招牌写着 Hello World"} ] }' ``` ### cURL(带参考图改图) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2-all", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "把这张图改成水彩画风" }, { "type": "image_url", "image_url": { "url": "https://example.com/photo.png" } } ] } ] }' ``` ### Node.js(文生图) ```javascript theme={null} const API_KEY = "sk-your-api-key"; const response = await fetch("https://api.apiyi.com/v1/chat/completions", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ model: "gpt-image-2-all", messages: [ { role: "user", content: "1024x1024 方形 LOGO,极简猫咪线条" } ] }) }); const data = await response.json(); // 默认返回 url;如显式切到 b64_json 模式则取 data.data[0].b64_json console.log(data.data[0].url); ``` ### Node.js(带参考图改图) ```javascript theme={null} import fs from "node:fs"; const API_KEY = "sk-your-api-key"; const imgB64 = fs.readFileSync("./photo.png").toString("base64"); const dataUrl = `data:image/png;base64,${imgB64}`; const response = await fetch("https://api.apiyi.com/v1/chat/completions", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ model: "gpt-image-2-all", messages: [ { role: "user", content: [ { type: "text", text: "把这张图改成水彩画风" }, { type: "image_url", image_url: { url: dataUrl } } ] } ] }) }); const data = await response.json(); // 默认返回 url;如显式切到 b64_json 模式则取 data.data[0].b64_json console.log(data.data[0].url); ``` **关于 OpenAI SDK**:本端点**请求格式**与 OpenAI Chat Completions 兼容,但**响应格式**为 `{data: [{url|b64_json}], created, usage}`,不含 `choices` 字段。直接用 `client.chat.completions.create(...)` 解析时会失败,请改用上面的 `requests` / `fetch` 直接拿到原始 JSON 解析。 ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | -------------------- | --------------- | -- | ------------------------------------------------- | | `model` | string | 是 | 固定填 `gpt-image-2-all` | | `messages` | array | 是 | 对话消息数组;支持 `system` / `user` / `assistant` 三种 role | | `messages[].content` | string \| array | 是 | 纯文本字符串(文生图)或多模态数组(带图改图) | | `stream` | boolean | 否 | 是否流式。本模型为一次性出图,建议保持 `false` | **多模态 content 片段**(`content` 为数组时): | 字段 | 类型 | 必填 | 说明 | | --------------- | ------ | -- | --------------------------------------------------------------------- | | `type` | enum | 是 | `text` 或 `image_url` | | `text` | string | 条件 | 当 `type=text` 时必填 | | `image_url.url` | string | 条件 | 当 `type=image_url` 时必填。支持 `https://...` 或 `data:image/png;base64,...` | 详细的字段说明与可选值请查看右侧 Playground。下拉 "Example" 可在 **文生图 / 带参考图改图 / 多轮迭代** 之间切换。 ## 响应格式 对话式端点的响应格式为 `{data: [{url|b64_json}], created, usage}` ——`data[0]` 中**只会出现 `url` 或 `b64_json` 之一**,不会同时返回。本端点**默认返回 `url`**。 **默认 `url` 输出**: ```json theme={null} { "data": [ { "url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png" } ], "created": 1778037331, "usage": { "input_tokens": 30, "output_tokens": 2074, "total_tokens": 2104 } } ``` **`b64_json` 输出**(少数情况): ```json theme={null} { "data": [ { "b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..." } ], "created": 1778037127, "usage": { "input_tokens": 98, "output_tokens": 1185, "total_tokens": 1283 } } ``` **解析建议**:先取 `data[0].url`,若为空再取 `data[0].b64_json`。`b64_json` 已带 `data:image/png;base64,` 前缀,可直接作为 `` 使用。 ## 对话式端点的优势 不需要在 generations / edits 两个端点之间切换,统一走一个端点 `image_url` 直接接受 CDN 图片地址或 base64 data URL,无需 multipart 上传 保留 `assistant` 历史消息即可继续精调,逻辑与 ChatGPT 一致 OpenAI 官方 SDK、LangChain、各类 Chat 前端都能直接对接 如果你的代码需要**同时兼容官转与官逆**,建议改用 `/v1/images/generations` 与 `/v1/images/edits`(OpenAI Images API 标准格式),同一套代码即可切换通道。 ## 相关资源 能力说明、定价、最佳实践 OpenAI Images API 兼容端点 multipart/form-data 上传参考图改图 imagen.apiyi.com 在线测试 # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/image-edit api-reference/gpt-image-2-all-edit-openapi.yaml POST /v1/images/edits gpt-image-2-all 图片编辑 API 参考与在线调试 — 上传参考图 + 指令进行单图改图或多图融合 右侧的交互式 Playground 支持直接上传本地图片。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),选择图片与填入 `prompt`、`model` 后一键发送即可。 **场景说明**:本页用于「基于一张或多张参考图改图 / 融合生成」。请求为 `multipart/form-data` 格式。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/gpt-image-2-all/text-to-image)。 **🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)** 本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。 **推荐做法**: * 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。 * 想要 base64 或要传超大参考图:**复制下方"代码示例"到本地运行**,代码会自动处理上传与解码。 **📎 多图融合顺序有意义** `image` 字段可重复传入多张参考图,**顺序将作为 prompt 中「图1/图2/图3」的引用依据**。建议在 prompt 中显式指代,例如: > 把图1的人物放进图2的场景,参考图3的画风 推荐单张 **≤ 10MB**,格式 `png` / `jpg` / `webp`,过大的图可能触发网关限制。 **🎯 保形改图小技巧**:本端点的输出尺寸**跟随 prompt 里点名要修改的那张图的比例**——多图场景下**不一定是第一张**。 例如 prompt 写"**修改图2**,把图2 的衣服和帽子改成图1 里的样子",那图2 是 1:1,则输出也是 1:1(即便图1 是横版 16:9)。 对换装、加帽子、修图等保形场景特别好用。**`size` 字段在本模型不生效**(传入静默忽略,要严格锁尺寸请用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/image-edit));prompt 没明确指代时由模型自行判断。 ## 代码示例 ### Python **单图编辑**: ```python theme={null} import requests API_KEY = "sk-your-api-key" with open("photo.png", "rb") as f: response = requests.post( "https://api.apiyi.com/v1/images/edits", headers={"Authorization": f"Bearer {API_KEY}"}, data={ "model": "gpt-image-2-all", "prompt": "把背景换成海边黄昏", "response_format": "url" }, files=[ ("image", ("photo.png", f, "image/png")) ], timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() print(response["data"][0]["url"]) ``` **多图融合**: ```python theme={null} import requests with open("ref1.png", "rb") as f1, \ open("ref2.png", "rb") as f2, \ open("ref3.png", "rb") as f3: response = requests.post( "https://api.apiyi.com/v1/images/edits", headers={"Authorization": "Bearer sk-your-api-key"}, data={ "model": "gpt-image-2-all", "prompt": "把图1的人物放进图2的场景,参考图3的画风", "response_format": "b64_json" }, files=[ ("image", ("ref1.png", f1, "image/png")), ("image", ("ref2.png", f2, "image/png")), ("image", ("ref3.png", f3, "image/png")) ], timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() # b64_json 已含 "data:image/png;base64," 前缀,可直接用于 data_url = response["data"][0]["b64_json"] ``` ### cURL **单图编辑**: ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2-all" \ -F "prompt=把背景换成海边黄昏" \ -F "response_format=url" \ -F "image=@./photo.png" ``` **多图融合**: ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2-all" \ -F "prompt=把图1的人物放进图2的场景,参考图3的画风" \ -F "response_format=b64_json" \ -F "image=@./ref1.png" \ -F "image=@./ref2.png" \ -F "image=@./ref3.png" ``` ### Node.js(原生 fetch + FormData) ```javascript theme={null} import fs from 'node:fs'; const form = new FormData(); form.append('model', 'gpt-image-2-all'); form.append('prompt', '把背景换成太空'); form.append('response_format', 'url'); form.append( 'image', new Blob([fs.readFileSync('./photo.png')]), 'photo.png' ); const resp = await fetch('https://api.apiyi.com/v1/images/edits', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key' }, body: form }); const data = await resp.json(); console.log(data.data[0].url); ``` ### 浏览器 JavaScript(File 对象) ```javascript theme={null} // const files = document.getElementById('fileInput').files; const form = new FormData(); form.append('model', 'gpt-image-2-all'); form.append('prompt', '把这几张图融合成一张海报'); form.append('response_format', 'url'); for (const f of files) form.append('image', f); const resp = await fetch('https://api.apiyi.com/v1/images/edits', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key' }, body: form }); const { data } = await resp.json(); document.getElementById('result').src = data[0].url; ``` ## 参数说明速查 | 字段 | 类型 | 必填 | 说明 | | ----------------- | ---- | -- | ------------------------------------------------------------------------------------------------------------------------------------------ | | `model` | text | 是 | 固定填 `gpt-image-2-all` | | `prompt` | text | 是 | 改图/融合的自然语言描述 | | `image` | file | 是 | 参考图,可重复多次(数组字段) | | `size` | text | 否 | **本字段不生效,传入会被静默忽略**。输出尺寸**跟随 prompt 里点名要修改的那张图的比例**(多图下不一定是第一张)。要严格锁尺寸请用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/image-edit) | | `response_format` | text | 否 | `b64_json`(默认)或 `url` | **多轮迭代**:把上一次的输出图片作为下一次的 `image` 输入,配合新的编辑指令,可逐步精调画面效果。 ## 响应格式 与文生图接口一致:**`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。 **`b64_json` 模式**(默认): ```json theme={null} { "data": [ { "b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..." } ], "created": 1778037127, "usage": { "input_tokens": 98, "output_tokens": 1185, "total_tokens": 1283 } } ``` **`url` 模式**(需显式 `"response_format": "url"`): ```json theme={null} { "data": [ { "url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png" } ], "created": 1778037331, "usage": { "input_tokens": 30, "output_tokens": 2074, "total_tokens": 2104 } } ``` `b64_json` 字段已经包含 `data:image/png;base64,` 前缀,可直接使用。**无需再手动拼接前缀**。 # GPT-Image-2-All 生图/编辑 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/overview GPT 图像生成 ChatGPT 网页版官逆模型 gpt-image-2-all,$0.03/张按次计费,约 30–60 秒出图,支持文生图、多图融合编辑、自然语言改图,文字还原度高、中文提示词友好。 ## 概述 **gpt-image-2-all** 是 API易 平台上线的一款 **GPT 图像生成官逆模型**(逆向 ChatGPT 网页版)。以 **\$0.03/张** 的极具竞争力的按次计费定价,**约 30–60 秒出图**,支持 **文生图 / 单图编辑 / 多图融合 / 自然语言改图**,文字还原度高、内容限制少、原生支持中文提示词。 **🎨 核心亮点**:官逆通道稳定、定价统一每张 \$0.03,无需关心 size/quality/n 等参数,尺寸与风格全部写进 prompt 即可——最适合"开箱即用"的图像生成场景。同时兼容 `/v1/chat/completions` 与 `/v1/images/generations`、`/v1/images/edits` 三个端点,按需选择即可。 **需要锁定输出尺寸或 4K?** 请改用姐妹模型 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)——调用方式与本模型完全一致,仅多一个 `size` 字段。 OpenAI Chat Completions 格式,同端点支持文生图与带图改图,方便直接传入在线图片 URL。 `/v1/images/generations`,输入文本提示词生成图片。 `/v1/images/edits`,multipart 上传参考图 + 编辑/融合指令。 ## 核心特性 统一按次计费 \$0.03/张,无分辨率阶梯,出图成本可预测 图内中英文、招牌、海报文字还原稳定,适合信息图与营销物料 原生理解中文描述,无需翻译即可获得高质量输出 支持多张参考图同时输入,prompt 中可用「图1/图2/图3」指代 相比部分官方模型,对创作类题材更宽松,出图成功率更高 默认返回 R2 CDN 链接,全球低延迟下载,可改为 b64\_json 支持通过对话描述直接改图,无需蒙版,可多轮迭代 同时兼容 `/images/generations`、`/images/edits`、`/chat/completions` ## 模型定价 | 模型名 | 计费方式 | 价格 | 输出 | | ----------------- | ---- | -------------- | ---------- | | `gpt-image-2-all` | 按次计费 | **\$0.03 / 张** | 单次返回 1 张图片 | **计费说明**: * 统一定价,不区分分辨率、质量或提示词长度 * 失败请求不计费(如鉴权失败、参数校验失败) * 如需生成 N 张,客户端并行调用 N 次 **同价姐妹模型**:[`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)(逆向 Codex 线路)同样 \$0.03/张,支持 30 档常见 size(含 4K),调用方式与本模型完全一致——需要锁定输出尺寸时切过去即可。 ## 分组介绍 `gpt-image-2-all` **放在 `Default` 默认分组**即可,不需要额外切分组。逆向通道目前供给稳定,不存在像官转那样需要"企业分组"过渡的场景。 | 模型 | 分组 | 备注 | | ----------------- | --------- | --------------------------------------- | | `gpt-image-2-all` | `Default` | 逆向 ChatGPT 官网线路,统一 \$0.03/张,约 30–60 秒出图 | **进阶玩法(同时使用 `gpt-image-2-vip` 与官转 `gpt-image-2`)**:如果你的令牌同时覆盖逆向两模与官转 `gpt-image-2`,可以在令牌的「分组优先级」里这样配—— * **第一优先级**:`image2Enterprise`(1.2x 企业分组,官转专用稳定通道) * **默认(兜底)**:`Default`(逆向两模都在这里,按模型路由) 这样官转 `gpt-image-2` 走企业分组保稳,逆向两模仍走默认分组——一把令牌覆盖三种模型,互不干扰。 📖 关于 `image2Enterprise` 企业分组:[/live/2026-04/image2-enterprise](/live/2026-04/image2-enterprise) ## 技术规格 | 维度 | 参数 | | ---------- | ------------------------------------------ | | **模型名** | `gpt-image-2-all` | | **渠道性质** | 官方逆向(逆向 ChatGPT 官网) | | **定价** | \$0.03 / 张,按次计费 | | **出图速度** | 约 30–60 秒 | | **输出分辨率** | 无显式 size 参数,由模型自适应(建议在 prompt 中描述) | | **默认响应格式** | `url`(R2 CDN 加速链接,**默认 1 天有效期**) | | **可选响应格式** | `b64_json`(已含 `data:image/png;base64,` 前缀) | | **中文提示词** | ✅ 原生支持 | | **支持能力** | 文生图、单图编辑、多图融合、自然语言改图 | 本模型为**自适应输出尺寸**,不等同于官转 `gpt-image-2` API。需要严格锁定输出尺寸或 4K 时,请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)(逆向 Codex 线路,30 档 size 含 4K);需要官方完全一致字段时,请使用 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)(官转)。 **⏰ 图片 URL 有效期:默认 1 天** 默认响应的 `url` 字段是 R2 CDN 加速链接,**有效期约 24 小时**,过期后访问会 404。对于需要长期保存的图片(商品图、用户作品、历史记录等),请**在生成后尽快转存到自己的对象存储 / CDN / 数据库**。 两种常见做法: * **服务端立即下载并入库**:收到响应后用 `requests` / `fetch` 把图片拉回来存到 S3 / OSS / R2 / 本地磁盘 * **改用 `b64_json` 响应格式**:直接拿到 base64 图片数据,省一次跨域下载,适合前端直接渲染或写入文件 ## 端点一览 | 端点 | 用途 | Content-Type | 适用场景 | | ----------------------------- | ------------------------ | --------------------- | --------------------------------------- | | `POST /v1/chat/completions` | 对话式(文生图 / 改图 / 多轮 / 参考图) | `application/json` | 方便直接传入在线图片 URL;一个端点同时支持文生图与图片编辑 | | `POST /v1/images/generations` | 文生图 | `application/json` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 | | `POST /v1/images/edits` | 图片编辑(单图 / 多图) | `multipart/form-data` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 | **域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。 **想用 `size` 参数锁定输出尺寸?** 改用姐妹模型 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)——三个端点完全一致,仅多一个 `size` 字段(30 档常见 size,含 4K)。 ## 尺寸与比例控制(写进 prompt) `gpt-image-2-all` 没有 `size` 参数,尺寸通过 prompt 描述。如果你需要严格锁定输出尺寸(电商主图、海报模板、4K 壁纸等),请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)。 ### 经过验证的「提示词 → 实际分辨率」对照表 下表是实测复现稳定的 8 种写法。把第一列的描述放在 prompt **最前面**,就能拿到第二列的分辨率(输出全部在 1.5K 像素量级): | 提示词包含描述 | 实测分辨率 | 文件体积 | 实际比例 | | --------- | ----------- | -------- | ---- | | `横版 16:9` | 1672 × 941 | \~1.9 MB | 16:9 | | `竖屏 9:16` | 941 × 1672 | \~2.1 MB | 9:16 | | `4:3` | 1448 × 1086 | \~2.3 MB | 4:3 | | `3:4` | 1086 × 1448 | \~2.5 MB | 3:4 | | `3:2 尺寸` | 1024 × 1536 | \~3.0 MB | 3:2 | | `2:3 尺寸` | 1536 × 1024 | \~2.9 MB | 2:3 | | `2:5 竖屏` | 793 × 1983 | \~1.9 MB | 2:5 | | `5:2 横屏` | 1983 × 793 | \~1.9 MB | 5:2 | **使用须知**: * 输出统一在 \~1.5K 量级(最长边 1500–2000 px),**不是真正的"任意分辨率"**——所有 8 种写法都属于"约 1.5K"水平的模型上限 * prompt 里**只**包含表中描述词时复现度最高;和其它构图词混写会发生偏离 * `3:2 尺寸` / `2:3 尺寸` 实测方向与典型 W:H 直觉**相反**(前者得到 1024×1536 竖图),请按表里给定的写法照搬,不要望文生义 ### 风格化补充写法(无固定分辨率) 下面这些写法没有稳定的实测分辨率,仅作风格修饰用,搭配上表使用: | 需求 | 写法(仅风格参考,不保证分辨率) | | ---- | --------------------------- | | 方形 | `1024×1024 方图` / `1:1 方形构图` | | 超宽横幅 | `横幅 21:9 超宽银幕` | | 画幅风格 | `电影画幅` / `手机海报` / `方形构图` | **技巧**:在 prompt **开头** 描述尺寸/构图,模型遵循度更高。 ### 把这张表暴露给终端用户 虽然 `gpt-image-2-all` 没有 `size` 参数,但接入方完全可以在前端加一个「尺寸 / 比例」下拉框,给用户**和官方 size 一样的体验**: * 每个选项的 value 直接用上表的 prompt 前缀(如 `横版 16:9`) * label 同时展示**预期分辨率**(如 `横版 16:9 (1672×941)`),让用户对最终输出有数 * 后端把选中的 prefix 拼到用户原始 prompt 的最前面再发给 API ```js theme={null} const SIZE_OPTIONS = [ { label: "横版 16:9 (1672×941)", prefix: "横版 16:9" }, { label: "竖屏 9:16 (941×1672)", prefix: "竖屏 9:16" }, { label: "4:3 (1448×1086)", prefix: "4:3" }, { label: "3:4 (1086×1448)", prefix: "3:4" }, { label: "3:2 (1024×1536)", prefix: "3:2 尺寸" }, { label: "2:3 (1536×1024)", prefix: "2:3 尺寸" }, { label: "2:5 竖屏 (793×1983)", prefix: "2:5 竖屏" }, { label: "5:2 横屏 (1983×793)", prefix: "5:2 横屏" }, ]; const finalPrompt = `${selected.prefix},${userPrompt}`; ``` 底层模型仍是**自适应**——返回分辨率允许 ±少量像素偏差,请不要在 UI 上向用户承诺"像素级精确"。**需要严格锁死输出尺寸**(电商主图、海报模板、4K 壁纸等),请改用姐妹模型 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)——同价、同套调用代码,仅多一个 `size` 字段。 ## 最佳实践 把比例、分辨率、画幅描述放在提示词最前面,模型遵循度更高。 该模型文字还原度是主要卖点,招牌、海报、信息图都可直接写中英文文字。 重复传入的同名 `image` 字段顺序有意义,在 prompt 里可用「图1/图2/图3」明确指代。 Web 应用直接渲染用 `b64_json`,服务端中转存储用 `url`。 典型 30–60s,但叠加图片上传 / 下载、官逆高峰长尾后实际耗时波动较大。**保守按 300 秒配**,避免大量误超时。 `gpt-image-2-all` 不接受 `size`、`n`、`quality`、`aspect_ratio`,传入可能触发参数校验错误——请把它们从请求里去掉。需要传 `size` 时改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)。 ## 错误码与重试 | 状态码 | 含义 | 建议 | | ----- | ------------------ | ------------------------ | | `401` | 令牌无效 | 检查 Bearer Token | | `429` | 限流/额度不足 | 指数退避重试 | | `5xx` | 网关/后端临时错误 | 重试 1–2 次 | | 超时 | 官逆高峰偶发 + 图片上传/下载长尾 | 客户端设置 **≥ 300s 超时**(保守值) | **建议客户端**: * 请求超时 **300 秒** 起步(保守值;典型 30–60s,但叠加图片上传 / 下载、官逆高峰长尾后波动大,按 120s 配置容易误超时) * 对 5xx 与超时做 **指数退避重试**(建议 2–3 次) * 记录响应头 `request-id` 方便排查 ## 常见问题 两者价格一样(\$0.03/次),都是逆向通道,**调用方式完全一致**,差异主要在 `size` 和出图速度: * **不需要严格控尺寸、追求出图速度** → `gpt-image-2-all`(约 30–60s 出图,尺寸写进 prompt)。 * **要锁死输出尺寸或要 4K** → [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/overview)(约 90–150s 出图,30 档常见 size 含 4K)。 * **需要画质参数 `quality` 或 OpenAI 官方完全对齐字段** → 改用官方版 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)。 本模型单次返回 1 张。如需 N 张,请客户端并行调用 N 次。每张独立按 \$0.03 计费。 **不支持。** 本模型单次只返回 1 张图,请通过**重复调用 / 并发调用**的方式生成多张。 ⚠️ **重要**:如果在请求里传入 `n=3`,**计费会按 0.03 × 3 = \$0.09 扣费**,但**实际上仍然只返回 1 张图**。请务必把 `n` 字段从请求里去掉,避免被多扣费。 **不要**。本模型返回的 `b64_json` 字段已经带前缀,可直接赋给 HTML `` 或写入文件。如果你的代码沿用了"先拼前缀"的老逻辑,会产出损坏的 data URL,请先做 `startsWith('data:')` 检测。 自适应模型对尺寸描述是"参考"不是"强制"。提升遵循度的写法:把尺寸/画幅词放在 prompt 最前面,并配合画幅风格词(如 `电影画幅`、`手机海报`、`方形构图`)。 具体能稳定复现的写法和对应分辨率,参见上文「尺寸与比例控制 → 经过验证的『提示词 → 实际分辨率』对照表」。 推荐 **单张 ≤ 10MB**,格式 `png` / `jpg` / `webp`。过大的图可能触发网关限制。多图融合时每张都需满足此限制。 默认响应的 `url` 字段是 **R2 CDN 加速链接,有效期约 1 天(24 小时)**,过期后会 404。 **强烈建议**:生成后尽快把图片 **转存到自己的对象存储(S3 / OSS / R2)、CDN 或数据库**,不要长期直接引用本服务返回的 URL。 **两种推荐做法**: * **服务端中转**:收到响应后立即 `requests.get(url)` 把图片拉回来存到你自己的存储,把你自己的 URL 返回给前端; * **改用 b64\_json**:请求时加 `"response_format": "b64_json"`,直接拿到 base64 图片数据,少一次跨域下载,适合前端直接渲染或写入文件。 如果只是短期展示(如单次会话预览),可以直接用 R2 URL 无需转存。 本模型为一次性出图,不支持 stream 输出。如果对响应延迟敏感,建议客户端显示"生成中"进度提示,并合理配置 **300s 超时**(保守值)。 可以。把 `base_url` 指向 `https://api.apiyi.com/v1`,`api_key` 设为 API易 令牌即可。但 `client.images.generate()` 方法默认带 `size`/`n` 参数——建议: * 使用 `client.chat.completions.create()` 方式调用;或 * 直接用 `requests` / `fetch` 发原生 HTTP 请求。 本模型原生支持中文,两者效果接近。对中文特有的场景(如中式书法、传统节日元素)中文表达更自然。 ## 相关文档 * [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - 与官方版 `gpt-image-2` 选型对照表 * [对话式 Playground](/api-capabilities/gpt-image-2-all/chat-completions) - Chat Completions 风格,同端点支持文生图与改图,方便传入在线图片 URL * [文生图 Playground](/api-capabilities/gpt-image-2-all/text-to-image) - `/v1/images/generations` 兼容端点 * [图片编辑 Playground](/api-capabilities/gpt-image-2-all/image-edit) - `/v1/images/edits` 多图融合与改图 * [GPT-Image-2-VIP(同价、支持 size 和 4K)](/api-capabilities/gpt-image-2-vip/overview) - 同价位姐妹模型,30 档常见 size(含 4K),调用方式与本模型完全一致 * [GPT-Image-2 官方版(按 token 计费)](/api-capabilities/gpt-image-2/overview) - 需要 `quality` 参数 / mask 局部重绘 / OpenAI 官方对齐字段时的选择 * [GPT-Image 系列总览](/api-capabilities/gpt-image-series) - 官方 GPT-Image 系列对比 * [社区贡献:Luck GPT-Image 2 ComfyUI 节点](/scenarios/ecosystem/luckgpt2-comfyui) - 在 ComfyUI 中一键调用 `gpt-image-2-all`(支持 chat\_completions / images\_api 双端点) * [社区贡献:APIYI GPT-Image 2 Skills](/scenarios/ecosystem/apiyi-gpt-image-skills) - 在 Codex CLI / Cursor / Gemini CLI 等 AI 编程工具中一句话调用 * [API 使用手册](/api-manual) - 通用调用规范 gpt-image-2-all 属于官逆通道,行为对齐但定价/能力与官方版本不完全一致。如需官方直连版本,请参考 [GPT-Image-1.5](/api-capabilities/gpt-image-1-5)。 # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-all/text-to-image api-reference/gpt-image-2-all-generate-openapi.yaml POST /v1/images/generations gpt-image-2-all 文生图 API 参考与在线调试 — 输入文本描述生成图片,$0.03/张 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt 后一键发送即可。 **场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑或融合,请使用 [图片编辑接口](/api-capabilities/gpt-image-2-all/image-edit)。 **🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)** 本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。 **推荐做法**: * 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。 * 想要 base64:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。 **⚠️ 参数支持情况** * **`size`**:**字段不生效**——传 `auto` 或具体尺寸都不会报错,但会被服务端**静默忽略**。最终尺寸完全由 prompt 决定: * prompt 写了尺寸/比例(如"横版 16:9")→ 模型会遵循 prompt * prompt 没写尺寸 → 同一 prompt 多次调用会**抽卡式**出现多样化尺寸,适合看多种构图变体 * 需要严格锁尺寸请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/text-to-image)(支持 `auto` + 30 档锁定) * **`n` / `quality` / `aspect_ratio`**:❌ 不接受,传入可能触发参数校验错误。 尺寸与比例请直接写进 `prompt`,例如: * `横版 16:9 电影画幅,黄昏时的海边老灯塔` * `竖版 9:16 手机壁纸,赛博朋克城市雨夜` * `1024×1024 方形 LOGO,极简猫咪线条` **建议把尺寸描述放在 prompt 最前面**,模型遵循度更高。 ## 代码示例 ### Python ```python theme={null} import requests API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={"Authorization": f"Bearer {API_KEY}"}, json={ "model": "gpt-image-2-all", "prompt": "横版 16:9 日落海边的老灯塔,电影画幅,写实风格", "response_format": "url" }, timeout=300 # 保守值,吸收长尾 + 图片下载耗时 ).json() image_url = response["data"][0]["url"] print(image_url) ``` **b64\_json 模式(直接拿到可渲染的 data URL)**: ```python theme={null} import requests response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={"Authorization": "Bearer sk-your-api-key"}, json={ "model": "gpt-image-2-all", "prompt": "1024x1024 方形 LOGO,极简猫咪线条", "response_format": "b64_json" }, timeout=300 # 保守值,吸收长尾 + 图片下载耗时 ).json() # 注意:b64_json 字段已经包含 "data:image/png;base64," 前缀,无需再拼接 data_url = response["data"][0]["b64_json"] ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2-all", "prompt": "横版 16:9 电影画幅,黄昏时的海边老灯塔", "response_format": "url" }' ``` ### Node.js ```javascript theme={null} const API_KEY = "sk-your-api-key"; const response = await fetch( "https://api.apiyi.com/v1/images/generations", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ model: "gpt-image-2-all", prompt: "1024x1024 方形 LOGO,极简猫咪线条", response_format: "b64_json" }) } ); const data = await response.json(); // b64_json 已含前缀,可直接用作 document.getElementById("result").src = data.data[0].b64_json; ``` ### 浏览器 JavaScript(Fetch) ```javascript theme={null} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'gpt-image-2-all', prompt: '竖版 9:16 手机壁纸,赛博朋克城市雨夜', response_format: 'b64_json' }) }); const { data } = await resp.json(); document.getElementById('result').src = data[0].b64_json; ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | ----------------- | ------ | -- | ------------------------------------------------------ | | `model` | string | 是 | 固定填 `gpt-image-2-all` | | `prompt` | string | 是 | 提示词,尺寸/比例/风格请写在此处(**唯一控制尺寸的方式**) | | `response_format` | string | 否 | `b64_json`(默认,返回 base64 data URL)或 `url`(返回 R2 CDN 链接) | 本模型**不支持 `size` 入参**——即便传入也会被静默忽略,不会报错;如需用 `size` 字段锁定 30 档尺寸,请改用 [`gpt-image-2-vip`](/api-capabilities/gpt-image-2-vip/text-to-image)。 详细的参数约束和可选值请查看右侧 Playground 中的字段说明,`response_format` 字段支持下拉选择。 ## 响应格式 **`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。 **`b64_json` 模式**(默认): ```json theme={null} { "data": [ { "b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..." } ], "created": 1778037127, "usage": { "input_tokens": 98, "output_tokens": 1185, "total_tokens": 1283 } } ``` **`url` 模式**(需显式 `"response_format": "url"`,R2 CDN 全球加速): ```json theme={null} { "data": [ { "url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png" } ], "created": 1778037331, "usage": { "input_tokens": 30, "output_tokens": 2074, "total_tokens": 2104 } } ``` **兼容性提示**:`b64_json` 字段本身已经包含 `data:image/png;base64,` 前缀,可直接赋给 HTML `` 或写入文件;**无需再手动拼接** `data:image/...;base64,`。与部分旧版 OpenAI 兼容模型不同,请留意。 # 对话式 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/chat-completions api-reference/gpt-image-2-vip-chat-openapi.yaml POST /v1/chat/completions gpt-image-2-vip 对话式端点 — 一个端点同时支持文生图与带参考图改图,方便直接传入在线图片 URL,支持多轮迭代。 **对话式端点特点**:**一个端点同时支持文生图与带参考图改图**,方便直接传入**在线图片 URL**(CDN 链接或 base64 data URL)作为参考图,并能天然做多轮迭代。右侧 Playground 填入 API Key 后,直接从下拉选择 example(文生图 / 带参考图改图 / 多轮迭代)即可。 如果你希望同一套代码兼容官转和官逆,建议使用 `/v1/images/generations` 与 `/v1/images/edits`(OpenAI Images API 标准格式)。 **选择模式**: * 仅输入文本 `messages` → **文生图** * `messages` 中加入 `image_url`(URL 或 base64 data URL)→ **带参考图改图** * 保留 `assistant` 历史消息继续追问 → **多轮迭代改图** **与 `gpt-image-2-all` 的区别**:调用方式完全一致,把 `model` 换成 `gpt-image-2-vip` 即可;本端点额外支持顶层 `size` 字段锁尺寸(30 档常见尺寸,与 `/v1/images/generations` 一致)。 ✨ **`size` 字段为可选**:传入则严格锁定输出尺寸;不传则由 prompt 描述决定(行为与 `-all` 一致)。 **🖥️ 浏览器 Playground 限制(响应含 base64 时)** 本端点**默认返回 R2 CDN URL**(`data[0].url`),Playground 显示正常。少数情况下如果返回的是 base64(`data[0].b64_json`),或你在 `image_url` 里传入了大 base64 输入图,响应字符串可能达数 MB,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的内容。 **推荐做法**:遇到此提示时,**直接复制下方"代码示例"到本地运行**,程序可从 `data[0].url` 或 `data[0].b64_json` 中拿到结果(**两者只会出现其一**,不会同时返回)。 ## 代码示例 ### Python(文生图) ```python theme={null} import requests API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/chat/completions", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "model": "gpt-image-2-vip", "size": "2048x1152", # 可选;不传则由 prompt 描述决定 "messages": [ {"role": "user", "content": "横版 16:9 电影画幅,黄昏时的海边老灯塔,写实风格"} ] }, timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() # 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"] print(response["data"][0]["url"]) ``` ### Python(带参考图改图) ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" # 可用 HTTPS URL,也可以用 base64 data URL with open("photo.png", "rb") as f: data_url = "data:image/png;base64," + base64.b64encode(f.read()).decode() response = requests.post( "https://api.apiyi.com/v1/chat/completions", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "model": "gpt-image-2-vip", "size": "2048x2048", # 可选;不传则由 prompt 描述决定 "messages": [ { "role": "user", "content": [ {"type": "text", "text": "把这张图改成水彩画风"}, {"type": "image_url", "image_url": {"url": data_url}} ] } ] }, timeout=300 ).json() # 默认返回 url;如显式切到 b64_json 模式则取 response["data"][0]["b64_json"] print(response["data"][0]["url"]) ``` ### cURL(文生图) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2-vip", "size": "2048x1152", "messages": [ {"role": "user", "content": "横版 16:9,赛博朋克雨夜街景,霓虹招牌写着 Hello World"} ] }' ``` ### cURL(带参考图改图) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2-vip", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "把这张图改成水彩画风" }, { "type": "image_url", "image_url": { "url": "https://example.com/photo.png" } } ] } ] }' ``` ### Node.js(文生图) ```javascript theme={null} const API_KEY = "sk-your-api-key"; const response = await fetch("https://api.apiyi.com/v1/chat/completions", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ model: "gpt-image-2-vip", messages: [ { role: "user", content: "1024x1024 方形 LOGO,极简猫咪线条" } ] }) }); const data = await response.json(); // 默认返回 url;如显式切到 b64_json 模式则取 data.data[0].b64_json console.log(data.data[0].url); ``` **关于 OpenAI SDK**:本端点**请求格式**与 OpenAI Chat Completions 兼容,但**响应格式**为 `{data: [{url|b64_json}], created, usage}`,不含 `choices` 字段。直接用 `client.chat.completions.create(...)` 解析时会失败,请改用上面的 `requests` / `fetch` 直接拿到原始 JSON 解析。 ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | -------------------- | --------------- | -- | ------------------------------------------------------------------------------------------------------------- | | `model` | string | 是 | 固定填 `gpt-image-2-vip` | | `messages` | array | 是 | 对话消息数组;支持 `system` / `user` / `assistant` 三种 role | | `messages[].content` | string \| array | 是 | 纯文本字符串(文生图)或多模态数组(带图改图) | | `size` | string | 否 | 输出尺寸(30 档),如 `2048x1152`、`3840x2160`。不传则由 prompt 描述决定。完整档位见[模型概览](/api-capabilities/gpt-image-2-vip/overview) | | `stream` | boolean | 否 | 是否流式。本模型为一次性出图,建议保持 `false` | **多模态 content 片段**(`content` 为数组时): | 字段 | 类型 | 必填 | 说明 | | --------------- | ------ | -- | --------------------------------------------------------------------- | | `type` | enum | 是 | `text` 或 `image_url` | | `text` | string | 条件 | 当 `type=text` 时必填 | | `image_url.url` | string | 条件 | 当 `type=image_url` 时必填。支持 `https://...` 或 `data:image/png;base64,...` | 详细的字段说明与可选值请查看右侧 Playground。下拉 "Example" 可在 **文生图 / 带参考图改图 / 多轮迭代** 之间切换。 ## 响应格式 对话式端点的响应格式为 `{data: [{url|b64_json}], created, usage}` ——`data[0]` 中**只会出现 `url` 或 `b64_json` 之一**,不会同时返回。本端点**默认返回 `url`**。 **默认 `url` 输出**: ```json theme={null} { "data": [ { "url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png" } ], "created": 1778037331, "usage": { "input_tokens": 30, "output_tokens": 2074, "total_tokens": 2104 } } ``` **`b64_json` 输出**(少数情况): ```json theme={null} { "data": [ { "b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..." } ], "created": 1778037127, "usage": { "input_tokens": 98, "output_tokens": 1185, "total_tokens": 1283 } } ``` **解析建议**:先取 `data[0].url`,若为空再取 `data[0].b64_json`。`b64_json` 已带 `data:image/png;base64,` 前缀,可直接作为 `` 使用。 ## 对话式端点的优势 不需要在 generations / edits 两个端点之间切换,统一走一个端点 `image_url` 直接接受 CDN 图片地址或 base64 data URL,无需 multipart 上传 保留 `assistant` 历史消息即可继续精调,逻辑与 ChatGPT 一致 OpenAI 官方 SDK、LangChain、各类 Chat 前端都能直接对接 **严格锁尺寸**:传入顶层 `size` 字段(30 档常见尺寸,如 `2048x1152`、`3840x2160`)即可锁定输出。需要 OpenAI Images API 标准格式时,仍可改走 [文生图接口](/api-capabilities/gpt-image-2-vip/text-to-image)(`/v1/images/generations`)。 ## 相关资源 30 档 size 完整对照表、定价、技术规格 OpenAI Images API 兼容端点,传 `size` 锁定输出尺寸 multipart/form-data 上传参考图改图 不需要锁尺寸时调用方式一致,出图更快 # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/image-edit api-reference/gpt-image-2-vip-edit-openapi.yaml POST /v1/images/edits gpt-image-2-vip 图片编辑 API 参考与在线调试 — 上传参考图 + 指令进行单图改图或多图融合,可用 size 锁定输出尺寸 右侧的交互式 Playground 支持直接上传本地图片。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),选择图片与填入 `prompt`、`model`、`size` 后一键发送即可。 **场景说明**:本页用于「基于一张或多张参考图改图 / 融合生成」。请求为 `multipart/form-data` 格式。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/gpt-image-2-vip/text-to-image)。 **与 `gpt-image-2-all` 的区别**:调用结构完全一致,只多一个 `size` 字段;不需要锁尺寸、追求出图速度时改用 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/image-edit)。 **🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)** 本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。 **推荐做法**: * 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。 * 想要 base64 或要传超大参考图:**复制下方"代码示例"到本地运行**,代码会自动处理上传与解码。 **📎 多图融合顺序有意义** `image` 字段可重复传入多张参考图,**顺序将作为 prompt 中「图1/图2/图3」的引用依据**。建议在 prompt 中显式指代,例如: > 把图1的人物放进图2的场景,参考图3的画风 推荐单张 **≤ 10MB**,格式 `png` / `jpg` / `webp`,过大的图可能触发网关限制。 **🎯 保形改图小技巧**:传 `size=auto`(或不传 `size`)时,输出会**跟随 prompt 里点名要修改的那张图的尺寸比例**——多图场景下**不一定是第一张**。 例如 prompt 写"**修改图2**,把图2 的衣服和帽子改成图1 里的样子",那图2 是 1:1,则输出也是 1:1(即便图1 是横版 16:9)。 对换装、加帽子、修图等保形场景特别好用。如果 prompt 没明确指代要改哪张,模型会自行判断;需要切换到 30 档锁定尺寸时再显式传 `size`。 **⚠️ 关键参数说明** * **`size`**:**改图建议传 `auto`(或不传)**——模型会**根据 prompt 里点名要修改的那张图的尺寸比例**输出,多图场景下不一定是第一张。例如 prompt 写"修改图2,把图2 的衣服换成图1 的样子",输出比例就跟图2 一致;prompt 没明确指代时由模型自行判断。需要强制改变尺寸时,从 30 档常见尺寸里选;写法用半角小写 `x`,如 `2048x1360`、`3840x2160`。完整表见 [概览页](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表)。 * **`quality`**:❌ 不接受,**不要传**。 * **`n`**:❌ 不接受,单次仅返回 1 张图。 ## 代码示例 ### Python **单图编辑**: ```python theme={null} import requests API_KEY = "sk-your-api-key" with open("photo.png", "rb") as f: response = requests.post( "https://api.apiyi.com/v1/images/edits", headers={"Authorization": f"Bearer {API_KEY}"}, data={ "model": "gpt-image-2-vip", "prompt": "把背景换成海边黄昏", "size": "2048x1360", # 3:2 2K Recommended "response_format": "url" }, files=[ ("image", ("photo.png", f, "image/png")) ], timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() print(response["data"][0]["url"]) ``` **多图融合**: ```python theme={null} import requests with open("ref1.png", "rb") as f1, \ open("ref2.png", "rb") as f2, \ open("ref3.png", "rb") as f3: response = requests.post( "https://api.apiyi.com/v1/images/edits", headers={"Authorization": "Bearer sk-your-api-key"}, data={ "model": "gpt-image-2-vip", "prompt": "把图1的人物放进图2的场景,参考图3的画风", "size": "2048x2048", # 1:1 2K Recommended "response_format": "b64_json" }, files=[ ("image", ("ref1.png", f1, "image/png")), ("image", ("ref2.png", f2, "image/png")), ("image", ("ref3.png", f3, "image/png")) ], timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() # b64_json 已含 "data:image/png;base64," 前缀,可直接用于 data_url = response["data"][0]["b64_json"] ``` ### cURL **单图编辑**: ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2-vip" \ -F "prompt=把背景换成海边黄昏" \ -F "size=2048x1360" \ -F "response_format=url" \ -F "image=@./photo.png" ``` **多图融合**: ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2-vip" \ -F "prompt=把图1的人物放进图2的场景,参考图3的画风" \ -F "size=2048x2048" \ -F "response_format=b64_json" \ -F "image=@./ref1.png" \ -F "image=@./ref2.png" \ -F "image=@./ref3.png" ``` ### Node.js(原生 fetch + FormData) ```javascript theme={null} import fs from 'node:fs'; const form = new FormData(); form.append('model', 'gpt-image-2-vip'); form.append('prompt', '把背景换成太空'); form.append('size', '2048x1360'); form.append('response_format', 'url'); form.append( 'image', new Blob([fs.readFileSync('./photo.png')]), 'photo.png' ); const resp = await fetch('https://api.apiyi.com/v1/images/edits', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key' }, body: form }); const data = await resp.json(); console.log(data.data[0].url); ``` ### 浏览器 JavaScript(File 对象) ```javascript theme={null} // const files = document.getElementById('fileInput').files; const form = new FormData(); form.append('model', 'gpt-image-2-vip'); form.append('prompt', '把这几张图融合成一张海报'); form.append('size', '2048x2048'); form.append('response_format', 'url'); for (const f of files) form.append('image', f); const resp = await fetch('https://api.apiyi.com/v1/images/edits', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key' }, body: form }); const { data } = await resp.json(); document.getElementById('result').src = data[0].url; ``` ## 参数说明速查 | 字段 | 类型 | 必填 | 说明 | | ----------------- | ---- | -- | --------------------------------------------------------------------------------- | | `model` | text | 是 | 固定填 `gpt-image-2-vip` | | `prompt` | text | 是 | 改图/融合的自然语言描述 | | `image` | file | 是 | 参考图,可重复多次(数组字段) | | `size` | text | 否 | 输出尺寸:`auto`(默认,**跟随 prompt 里点名要修改的那张图的比例**,多图下不一定是第一张)或 30 档之一;写法 `宽x高`(半角小写 `x`) | | `response_format` | text | 否 | `b64_json`(默认)或 `url` | **多轮迭代**:把上一次的输出图片作为下一次的 `image` 输入,配合新的编辑指令,可逐步精调画面效果。每一轮都可以独立指定 `size`。 ## 响应格式 与文生图接口一致:**`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。 **`b64_json` 模式**(默认): ```json theme={null} { "data": [ { "b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..." } ], "created": 1778037127, "usage": { "input_tokens": 98, "output_tokens": 1185, "total_tokens": 1283 } } ``` **`url` 模式**(需显式 `"response_format": "url"`): ```json theme={null} { "data": [ { "url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png" } ], "created": 1778037331, "usage": { "input_tokens": 30, "output_tokens": 2074, "total_tokens": 2104 } } ``` `b64_json` 字段已经包含 `data:image/png;base64,` 前缀,可直接使用。**无需再手动拼接前缀**。 ## 相关资源 30 档 size 完整对照表、定价、技术规格 Chat Completions 格式,方便传入在线 URL 改图 `/v1/images/generations` 兼容端点 不需要锁尺寸时调用方式一致,出图更快 # GPT-Image-2-VIP 生图/编辑 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/overview GPT 图像生成 Codex 官逆模型 gpt-image-2-vip,$0.03/张统一价,支持 10 比例 × 3 档分辨率(1K/2K/4K)共 30 档常见 size,调用方式与 gpt-image-2-all 一致;约 90–150 秒出图,适合需要稳定锁定输出尺寸的场景。 ## 概述 **gpt-image-2-vip** 是 API易 平台上线的 **GPT 图像生成 Codex 官逆模型**。与 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview) 同价 **\$0.03/张**,**调用方式完全一致**,最大区别是 **支持 `size` 参数**——覆盖 **10 比例 × 3 分辨率档(1K Fast / 2K Recommended / 4K Detail)共 30 档常见尺寸**,含 4K。 **🎨 核心定位**:当你需要**锁定输出尺寸**(电商主图、海报模板、视频封面、4K 壁纸等)时使用 `gpt-image-2-vip`。请求体里只需把 `model` 改成 `gpt-image-2-vip`、加一个 `size` 字段,其它代码与 `gpt-image-2-all` **完全相同**。 OpenAI Chat Completions 格式,同端点支持文生图与带图改图,方便直接传入在线图片 URL。 `/v1/images/generations`,输入文本提示词 + `size` 生成指定尺寸图片。 `/v1/images/edits`,multipart 上传参考图 + 编辑/融合指令。 ## 与 `gpt-image-2-all` 的关键差异 `gpt-image-2-vip` 与 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview) 同属逆向通道、同价、同套调用代码。**互相映射**——把同一段请求里的 `model` 字段从一个换成另一个,行为整体一致,差异如下: | 维度 | `gpt-image-2-all` | `gpt-image-2-vip` | | --------------------- | ------------------------------------------------------------- | -------------------------------- | | **渠道** | 逆向 ChatGPT 官网 | 逆向 Codex 线路 | | **价格** | \$0.03 / 张 | \$0.03 / 张(所有 size 统一价) | | **`size` 参数** | ❌ 不接受(写进 prompt) | ✅ 30 档 size,含 4K | | **4K(如 `3840x2160`)** | ❌ | ✅ 4K Detail 档 | | **出图速度** | 约 30–60 秒 | 约 90–150 秒(与官转 `gpt-image-2` 持平) | | **`quality` 参数** | ❌ 不接受 | ❌ 不接受(不要传) | | **支持端点** | `/chat/completions` + `/images/generations` + `/images/edits` | 同左(一模一样) | | **响应格式** | `url` / `b64_json`(已含前缀) | 同左 | | **适合场景** | 提示词驱动、对尺寸不敏感 | 需要稳定指定输出尺寸(含 4K) | **一句话决策**:**不需要严格控尺寸、追求出图速度** → `gpt-image-2-all`;**要锁死输出尺寸或要 4K** → `gpt-image-2-vip`;**需要画质参数 `quality` 或 OpenAI 官方完全对齐的字段** → 改用官方版 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)。 ## 核心特性 `size` 字段直接接受 30 档常见尺寸,电商主图、海报模板、4K 壁纸都能严格输出 4K Detail 档支持 2880×2880 / 3840×2160 / 3840×1632 等,适合大尺寸交付物 1K / 2K / 4K 所有档位统一 \$0.03/张,4K 不额外加价 请求结构、字段、响应字段与 `gpt-image-2-all` 完全一致,可秒级切换模型名 图内中英文、招牌、海报文字还原稳定,适合信息图与营销物料 原生理解中文描述,无需翻译即可获得高质量输出 支持通过对话描述直接改图,无需蒙版,可多轮迭代 同时兼容 `/images/generations`、`/images/edits`、`/chat/completions` ## 模型定价 | 模型名 | 计费方式 | 价格 | 输出 | | ----------------- | ---- | -------------- | -------------------------- | | `gpt-image-2-vip` | 按次计费 | **\$0.03 / 张** | 单次返回 1 张图片,`size` 字段锁定输出尺寸 | **计费说明**: * **所有 30 档 size 统一定价 \$0.03/张**——4K Detail 不加价 * 失败请求不计费(如鉴权失败、参数校验失败) * 如需生成 N 张,客户端并行调用 N 次 ## 分组介绍 `gpt-image-2-vip` 放在 **`Default` 默认分组** 即可,不需要额外切分组。逆向通道目前供给稳定,不存在像官转那样需要"企业分组"过渡的场景。 | 模型 | 分组 | 备注 | | ----------------- | --------- | ------------------------------------ | | `gpt-image-2-vip` | `Default` | 逆向 Codex 线路,统一 \$0.03/张,约 90–150 秒出图 | **进阶玩法(同时使用 `gpt-image-2-all` 与官转 `gpt-image-2`)**:如果你的令牌同时覆盖逆向两模与官转 `gpt-image-2`,可以在令牌的「分组优先级」里这样配—— * **第一优先级**:`image2Enterprise`(1.2x 企业分组,官转专用稳定通道) * **默认(兜底)**:`Default`(逆向两模都在这里,按模型路由) 这样官转 `gpt-image-2` 走企业分组保稳,逆向两模仍走默认分组——一把令牌覆盖三种模型,互不干扰。 📖 关于 `image2Enterprise` 企业分组:[/live/2026-04/image2-enterprise](/live/2026-04/image2-enterprise) ## 技术规格 | 维度 | 参数 | | ---------------- | ------------------------------------------------------------------- | | **模型名** | `gpt-image-2-vip` | | **渠道性质** | 官方逆向(逆向 Codex 线路) | | **定价** | \$0.03 / 张,按次计费(所有 size 统一价) | | **出图速度** | 约 **90–150 秒**(与官转 `gpt-image-2` 持平,慢于 `gpt-image-2-all` 的 30–60 秒) | | **`size` 参数** | ✅ 30 档:10 比例 × 3 分辨率档(1K Fast / 2K Recommended / 4K Detail) | | **4K 支持** | ✅ 4K Detail 档(如 `3840x2160` / `2880x2880`) | | **`quality` 参数** | ❌ 不支持,不要传 | | **`n` 参数** | ❌ 不支持,单次仅返回 1 张 | | **默认响应格式** | `url`(R2 CDN 加速链接,**默认 1 天有效期**) | | **可选响应格式** | `b64_json`(已含 `data:image/png;base64,` 前缀) | | **中文提示词** | ✅ 原生支持 | | **支持能力** | 文生图、单图编辑、多图融合、自然语言改图(三端点皆可) | **⏰ 图片 URL 有效期:默认 1 天** 默认响应的 `url` 字段是 R2 CDN 加速链接,**有效期约 24 小时**,过期后访问会 404。需要长期保存的图片请**在生成后尽快转存到自己的对象存储 / CDN / 数据库**,或改用 `b64_json` 响应格式。 ## 端点一览 `gpt-image-2-vip` 与 `gpt-image-2-all` 兼容**完全相同**的三个端点。把 `model` 字段换掉、按需加上 `size` 即可: | 端点 | 用途 | Content-Type | 适用场景 | | ----------------------------- | ------------------------ | --------------------- | --------------------------------------- | | `POST /v1/chat/completions` | 对话式(文生图 / 改图 / 多轮 / 参考图) | `application/json` | 方便直接传入在线图片 URL;一个端点同时支持文生图与图片编辑 | | `POST /v1/images/generations` | 文生图 | `application/json` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 | | `POST /v1/images/edits` | 图片编辑(单图 / 多图) | `multipart/form-data` | OpenAI Images API 标准格式,方便同一套代码同时调用官转与官逆 | **域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。 ## 支持的 size(30 档完整对照表) `gpt-image-2-vip` 支持 **10 个比例 × 3 个分辨率档 = 30 档** 常见尺寸。请求体直接传 `size: "宽x高"`(半角小写 `x`)。 ### 1K Fast — 草稿与低成本试稿 | 比例 | 命名 | 像素 | | ---- | -------- | ----------- | | 1:1 | Square | `1280x1280` | | 2:3 | Portrait | `848x1280` | | 3:2 | Photo | `1280x848` | | 3:4 | Portrait | `960x1280` | | 4:3 | Standard | `1280x960` | | 4:5 | Social | `1024x1280` | | 5:4 | Large | `1280x1024` | | 9:16 | Story | `720x1280` | | 16:9 | Wide | `1280x720` | | 21:9 | Cinema | `1280x544` | ### 2K Recommended — 默认推荐档(多数终稿) | 比例 | 命名 | 像素 | | ---- | -------- | ----------- | | 1:1 | Square | `2048x2048` | | 2:3 | Portrait | `1360x2048` | | 3:2 | Photo | `2048x1360` | | 3:4 | Portrait | `1536x2048` | | 4:3 | Standard | `2048x1536` | | 4:5 | Social | `1632x2048` | | 5:4 | Large | `2048x1632` | | 9:16 | Story | `1152x2048` | | 16:9 | Wide | `2048x1152` | | 21:9 | Cinema | `2048x864` | ### 4K Detail — 大尺寸交付物 | 比例 | 命名 | 像素 | | ---- | -------- | ----------- | | 1:1 | Square | `2880x2880` | | 2:3 | Portrait | `2336x3520` | | 3:2 | Photo | `3520x2336` | | 3:4 | Portrait | `2480x3312` | | 4:3 | Standard | `3312x2480` | | 4:5 | Social | `2560x3216` | | 5:4 | Large | `3216x2560` | | 9:16 | Story | `2160x3840` | | 16:9 | Wide | `3840x2160` | | 21:9 | Cinema | `3840x1632` | **30 档统一价**:所有档位都是 \$0.03/张,4K Detail 不额外加价。 **怎么选档位**: * **1K Fast**:用于草稿、缩略图、A/B 测试,省时(也不省钱,价格统一),出图最快。 * **2K Recommended**:**默认档**,覆盖大部分终稿场景(电商主图、海报、信息图)。 * **4K Detail**:印刷、大屏壁纸、视频封面、桌面 / 户外大图。 **最小调用示例**(只传 `size`,**不要传 `quality`**): ```bash theme={null} curl "https://api.apiyi.com/v1/images/generations" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $YI_API_KEY" \ -d '{ "model": "gpt-image-2-vip", "prompt": "生成一张白色陶瓷马克杯放在灰色桌面上的产品图,柔和自然光,简洁背景", "size": "2048x1360" }' ``` ## 最佳实践 草稿用 1K Fast、终稿用 2K Recommended、印刷/大屏用 4K Detail。所有档位统一价,按需要选。 请求体写 `"size": "1536x1024"`,不是 `1536×1024`、不是大写 `X`。 `quality` 不接受;`n` 单次仅返回 1 张图,多张请客户端并行调用。 出图典型 90–150s,叠加图片上传/下载与高峰长尾,**保守按 300s 配**,避免大量误超时。 Web 应用直接渲染用 `b64_json`,服务端中转存储用 `url`。 同一套调用代码,把 `model` 在 `gpt-image-2-all` ↔ `gpt-image-2-vip` 之间切换即可。需要锁尺寸时切到 -vip,需要更快出图时切回 -all。 ## 错误码与重试 | 状态码 | 含义 | 建议 | | ----- | -------------------- | ------------------------ | | `400` | size 取值不在 30 档内或格式错误 | 用上表中的精确字符串 | | `401` | 令牌无效 | 检查 Bearer Token | | `429` | 限流/额度不足 | 指数退避重试 | | `5xx` | 网关/后端临时错误 | 重试 1–2 次 | | 超时 | Codex 高峰 + 4K 长尾 | 客户端设置 **≥ 300s 超时**(保守值) | **建议客户端**: * 请求超时 **300 秒** 起步(保守值;典型 90–150s,但 4K Detail + 高峰长尾会更长) * 对 5xx 与超时做 **指数退避重试**(建议 2–3 次) * 记录响应头 `request-id` 方便排查 ## 常见问题 **可以,几乎完全一样。** 三个端点(`/v1/chat/completions`、`/v1/images/generations`、`/v1/images/edits`)的请求字段、响应字段、`b64_json` 前缀行为都一致。差异只有两处: 1. `model` 字段:`gpt-image-2-vip` ↔ `gpt-image-2-all` 2. `size` 字段:vip 接受 30 档常见尺寸;-all 不接受 `size`,尺寸要写进 prompt 实际工程实践:保留同一套代码,做一个 `if model == 'vip': payload['size'] = ...` 的开关即可。 `gpt-image-2-vip` 走的是 Codex 逆向通道,**典型 90–150 秒**,与官转 `gpt-image-2`(100–120 秒)持平,比 ChatGPT 网页线路的 `gpt-image-2-all`(约 30–60 秒)慢。如果对**响应延迟敏感**,建议优先用 `gpt-image-2-all`;只在**必须锁尺寸或 4K** 时切换到 vip。 **是的,建议严格用表里 30 档之一**。非表内 size 可能触发上游 `invalid_request_error`,请按交付需求选最接近的档位。 **不加价**,4K Detail 档(`3840x2160` / `2880x2880` 等)与 1K / 2K 同价 \$0.03/张。 **不支持。** 本模型单次只返回 1 张图,请通过**重复调用 / 并发调用**的方式生成多张。 ⚠️ **重要**:如果在请求里传入 `n=3`,**计费会按 0.03 × 3 = \$0.09 扣费**,但**实际上仍然只返回 1 张图**。请务必把 `n` 字段从请求里去掉,避免被多扣费。 **不要**。本模型返回的 `b64_json` 字段已经带前缀,可直接赋给 HTML `` 或写入文件。如果你的代码沿用了"先拼前缀"的老逻辑,会产出损坏的 data URL,请先做 `startsWith('data:')` 检测。 推荐 **单张 ≤ 10MB**,格式 `png` / `jpg` / `webp`。过大的图可能触发网关限制。多图融合时每张都需满足此限制。 默认响应的 `url` 字段是 **R2 CDN 加速链接,有效期约 1 天(24 小时)**,过期后会 404。 **强烈建议**:生成后尽快把图片 **转存到自己的对象存储(S3 / OSS / R2)、CDN 或数据库**,不要长期直接引用本服务返回的 URL。 本模型为一次性出图,不支持 stream 输出。如果对响应延迟敏感,建议客户端显示"生成中"进度提示,并合理配置 **300s 超时**(保守值)。 可以。把 `base_url` 指向 `https://api.apiyi.com/v1`,`api_key` 设为 API易 令牌即可。`client.images.generate(model="gpt-image-2-vip", size="2048x1360", prompt=...)` 直接可用。 需要 `quality`(low/medium/high)档位、需要 mask 局部重绘、需要 OpenAI 官方完全一致的字段行为时,改用 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)(官转)。详见 [官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)。 ## 相关文档 * [GPT-Image-2-All 概览](/api-capabilities/gpt-image-2-all/overview) - 同价位、出图更快的姐妹模型,适合不需要锁尺寸的场景 * [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - 与官方版 `gpt-image-2`(含 `-all` / `-vip`)的选型对照表 * [对话式 Playground](/api-capabilities/gpt-image-2-vip/chat-completions) - Chat Completions 风格,同端点支持文生图与改图 * [文生图 Playground](/api-capabilities/gpt-image-2-vip/text-to-image) - `/v1/images/generations` 兼容端点,传 `size` 锁定尺寸 * [图片编辑 Playground](/api-capabilities/gpt-image-2-vip/image-edit) - `/v1/images/edits` 多图融合与改图 * [GPT-Image-2 官方版](/api-capabilities/gpt-image-2/overview) - 需要 `quality` 参数 / mask 局部重绘 / OpenAI 官方对齐字段时的选择 * [GPT-Image 系列总览](/api-capabilities/gpt-image-series) - 官方 GPT-Image 系列对比 * [API 使用手册](/api-manual) - 通用调用规范 gpt-image-2-vip 属于官逆通道(Codex 线路),行为对齐但定价/能力与官方版本不完全一致。需要官方完全一致字段时,请使用 [`gpt-image-2`](/api-capabilities/gpt-image-2/overview)。 # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2-vip/text-to-image api-reference/gpt-image-2-vip-generate-openapi.yaml POST /v1/images/generations gpt-image-2-vip 文生图 API 参考与在线调试 — 输入文本描述 + size 锁定输出尺寸生成图片,$0.03/张统一价 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 `prompt` 与 `size` 后一键发送即可。 **场景说明**:本页用于「文本生成图片」。只需输入提示词与 `size` 即可,无需上传任何图片。如需根据现有图片做编辑或融合,请使用 [图片编辑接口](/api-capabilities/gpt-image-2-vip/image-edit)。 **与 `gpt-image-2-all` 的区别**:调用结构完全一致,只多一个 `size` 字段;不需要锁尺寸、追求出图速度时改用 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/text-to-image) 即可。 **🖥️ 浏览器 Playground 限制(默认 b64\_json 模式)** 本端点**默认 `response_format: "b64_json"`**,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。 **推荐做法**: * 只想在 Playground 里看图:**显式传 `"response_format": "url"`**,响应是单条 R2 链接,浏览器渲染正常。 * 想要 base64:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。 **⚠️ 关键参数说明** * **`size`**:可传 `auto` 让模型自动决定尺寸(vip 在同一提示词下尺寸相对**收敛/固定**),或从 30 档常见尺寸里选(10 比例 × 1K Fast / 2K Recommended / 4K Detail,详见 [概览页 size 完整表](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表))严格锁尺寸。**写法用半角小写 `x`**,例如 `2048x1360`、`3840x2160`,不要用 `×` 或大写 `X`。 * **`quality`**:❌ 不接受,**不要传**。 * **`n`**:❌ 不接受,单次仅返回 1 张图。**传 n=3 会按 0.09 \$ 扣费但只返回 1 张**,请把 `n` 字段从请求里去掉。 * **`aspect_ratio`**:❌ 不接受。比例直接由 `size` 决定。 ## 代码示例 ### Python ```python theme={null} import requests API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={"Authorization": f"Bearer {API_KEY}"}, json={ "model": "gpt-image-2-vip", "prompt": "黄昏时的海边老灯塔,电影画幅,写实风格", "size": "2048x1152", # 16:9 2K Recommended "response_format": "url" }, timeout=300 # 保守值,吸收长尾 + 图片下载耗时 ).json() image_url = response["data"][0]["url"] print(image_url) ``` **4K Detail 档示例(壁纸 / 印刷)**: ```python theme={null} import requests response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={"Authorization": "Bearer sk-your-api-key"}, json={ "model": "gpt-image-2-vip", "prompt": "桌面壁纸,赛博朋克城市夜景,霓虹招牌,雨后倒影", "size": "3840x2160", # 16:9 4K Detail "response_format": "b64_json" }, timeout=300 ).json() # b64_json 已含 "data:image/png;base64," 前缀,可直接用于 或写文件 data_url = response["data"][0]["b64_json"] ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2-vip", "prompt": "白色陶瓷马克杯放在灰色桌面上的产品图,柔和自然光", "size": "2048x1360", "response_format": "url" }' ``` ### Node.js ```javascript theme={null} const API_KEY = "sk-your-api-key"; const response = await fetch( "https://api.apiyi.com/v1/images/generations", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ model: "gpt-image-2-vip", prompt: "1:1 方形 LOGO,极简猫咪线条", size: "2048x2048", // 1:1 2K Recommended response_format: "b64_json" }) } ); const data = await response.json(); // b64_json 已含前缀,可直接用作 document.getElementById("result").src = data.data[0].b64_json; ``` ### OpenAI SDK(Python,推荐) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.generate( model="gpt-image-2-vip", prompt="水墨山水,国画风格,纵向构图", size="1536x2048", # 3:4 2K Portrait ) print(resp.data[0].url) ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | ----------------- | ------ | -------- | --------------------------------------------------------------------------------- | | `model` | string | 是 | 固定填 `gpt-image-2-vip` | | `prompt` | string | 是 | 提示词,描述画面内容、风格、光线等 | | `size` | string | **强烈建议** | 输出尺寸:`auto`(模型自动决定,**vip 在同一提示词下尺寸相对固定**)或 30 档之一;写法 `宽x高`(半角小写 `x`);省略时等同 `auto` | | `response_format` | string | 否 | `b64_json`(默认,返回 base64 data URL)或 `url`(返回 R2 CDN 链接) | **size 速查**:常用挑这几个就够: * 电商主图:`2048x1360` (3:2 2K) / `2048x2048` (1:1 2K) * 海报竖图:`1536x2048` (3:4 2K) / `2480x3312` (3:4 4K) * 视频封面:`2048x1152` (16:9 2K) / `3840x2160` (16:9 4K) * 故事/手机壁纸:`1152x2048` (9:16 2K) / `2160x3840` (9:16 4K) 完整 30 档表见 [概览页](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表)。 ## 响应格式 **`data[0]` 中只会出现 `url` 或 `b64_json` 之一**(取决于 `response_format`),不会两者都返回。本端点**默认返回 `b64_json`**。 **`b64_json` 模式**(默认): ```json theme={null} { "data": [ { "b64_json": "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAA..." } ], "created": 1778037127, "usage": { "input_tokens": 98, "output_tokens": 1185, "total_tokens": 1283 } } ``` **`url` 模式**(需显式 `"response_format": "url"`,R2 CDN 全球加速): ```json theme={null} { "data": [ { "url": "https://r2cdn.copilotbase.com/r2cdn2/0e82148a-bec0-4b42-bbca-117c6b42581b.png" } ], "created": 1778037331, "usage": { "input_tokens": 30, "output_tokens": 2074, "total_tokens": 2104 } } ``` **兼容性提示**:`b64_json` 字段本身已经包含 `data:image/png;base64,` 前缀,可直接赋给 HTML `` 或写入文件;**无需再手动拼接** `data:image/...;base64,`。与部分旧版 OpenAI 兼容模型不同,请留意。 ## 相关资源 30 档 size 完整对照表、定价、技术规格 Chat Completions 格式,方便传入在线 URL `/v1/images/edits` 多图融合与改图 不需要锁尺寸时调用方式一致,出图更快(约 30–60s) # GPT-Image 历史版本 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/historical-versions GPT-Image-1 / 1-mini / 1.5 历史模型概览,包含模型 ID、计费、端点与迁移到 GPT-Image-2 / GPT-Image-2-All 的建议。 新项目请直接使用 [GPT-Image-2](/api-capabilities/gpt-image-2/overview)(官方版)或 [GPT-Image-2-All](/api-capabilities/gpt-image-2-all/overview)(官逆,\$0.03/张统一价)。本页面仅保留历史版本的核心参数,方便老项目排查与迁移。 ## 历史版本一览 | 模型 ID | 发布时间 | 端点 | 价格特点 | 状态 | | ------------------ | -------- | ------------------------------------------- | ---------------------------------- | ----------------------- | | `gpt-image-1.5` | 2025年12月 | `/v1/images/generations` | 输入 \$5.00 / 输出 \$10.00 / 百万 tokens | 仍可用,建议升级至 `gpt-image-2` | | `gpt-image-1` | 2025年4月 | `/v1/images/generations`、`/v1/images/edits` | 输入 \$2.50 / 输出 \$8.00 / 百万 tokens | 仍可用,建议升级至 `gpt-image-2` | | `gpt-image-1-mini` | 2025年4月 | `/v1/images/generations` | 较 `gpt-image-1` 更低 | 仍可用 | **直接迁移**:把 `model` 改成 `gpt-image-2` 或 `gpt-image-2-all` 即可,参数(`size` / `quality` / `output_format` 等)大体兼容,无需改代码结构。 ## 通用参数(生图) 历史版本共享一套生图参数: | 参数 | 说明 | | -------------------- | ---------------------------------------------------- | | `model` | `gpt-image-1.5` / `gpt-image-1` / `gpt-image-1-mini` | | `prompt` | 图像描述(最长 1000 字符) | | `size` | `1024x1024` / `1536x1024` / `1024x1536` / `auto` | | `quality` | `low` / `medium` / `high` / `auto` | | `output_format` | `png`(默认) / `jpeg` / `webp` | | `output_compression` | 仅 JPEG / WebP,0–100% | | `background` | `transparent` / `opaque` / `auto` | | `n` | 生成数量(1–10) | ## 快速调用示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.images.generate( model="gpt-image-1.5", {/* 也可填 gpt-image-1 / gpt-image-1-mini */} prompt="A professional product photo on white background, soft studio lighting", size="1024x1024", quality="high" ) print(response.data[0].url) ``` ## 按图片计费参考 GPT-Image-1 / 1.5 同时支持 Token 计费与按图片计费,系统自动取较优方式: ### GPT-Image-1.5 | 质量 | 1024×1024 | 1024×1536 / 1536×1024 | | ------ | --------- | --------------------- | | Low | \$0.009 | \$0.013 | | Medium | \$0.034 | \$0.050 | | High | \$0.133 | \$0.200 | ### GPT-Image-1 | 质量 | 1024×1024 | 1024×1536 / 1536×1024 | | ------ | --------- | --------------------- | | Low | \$0.005 | \$0.006 | | Medium | \$0.011 | \$0.015 | | High | \$0.036 | \$0.052 | 按图片计费仅作参考。实际扣费以系统自动选择的更优方式(Token 或按图片)为准。 ## 图像编辑(仅 `gpt-image-1`) `gpt-image-1` 支持基于遮罩的局部编辑端点 `/v1/images/edits`: ```python theme={null} response = client.images.edit( model="gpt-image-1", image=open("original.png", "rb"), mask=open("mask.png", "rb"), prompt="A modern glass skyscraper with reflective windows", size="1024x1024" ) ``` | 参数 | 说明 | | -------- | ---------------------------------- | | `image` | 原图,PNG/WebP/JPG,单张 \< 50MB,最多 16 张 | | `mask` | 遮罩图,alpha=0 的区域将被重绘 | | `prompt` | 描述要在遮罩区生成的内容 | 新项目编辑场景推荐使用 [GPT-Image-2 编辑](/api-capabilities/gpt-image-2/image-edit)(官方)或 [GPT-Image-2-All 编辑](/api-capabilities/gpt-image-2-all/image-edit)(官逆,最多 16 张多图融合)。 ## 迁移到 GPT-Image-2 / 2-All | 你的诉求 | 推荐迁移到 | | --------------------------- | --------------------------------- | | 沿用 OpenAI 官方端点、需要精确尺寸/质量控制 | `gpt-image-2`(官转) | | 想要可预测的统一价(\$0.03/张)、提示词遵循更优 | `gpt-image-2-all`(官逆) | | 仍需图像编辑 + 遮罩 | `gpt-image-2-all` 编辑端点(支持最多 16 张) | OpenAI 官方最新版,端点 / 参数与历史版兼容 官逆通道,\$0.03/张统一价,速度更快 一文看懂两者的差异和选型建议 # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/image-edit api-reference/gpt-image-2-edit-openapi.yaml POST /v1/images/edits gpt-image-2 图片编辑 API 参考与在线调试 — 上传参考图(最多 16 张)+ 指令进行单图改图、多图融合或 mask 局部重绘 右侧的交互式 Playground 支持直接上传本地图片。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),选择 image / mask 文件并填入 `prompt`、`model` 后一键发送即可。 **场景说明**:本页用于「基于一张或多张参考图改图 / 融合生成 / mask 局部重绘」。请求为 `multipart/form-data` 格式。如需纯文本生成图片,请使用 [文生图接口](/api-capabilities/gpt-image-2/text-to-image)。 **🖥️ 浏览器 Playground 限制(重要)** 本接口的响应包含**纯 base64 字符串**(数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。 **推荐做法**(小白零踩坑): * **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。 * 如要在浏览器里试 Playground,**用极小的参考图(\< 50KB)** 并把 `size` 设为最小档(如 `1024x1024`)、`quality` 改为 `low`。 **⚠️ 关键差异(从 gpt-image-1.5 迁移注意)** * **不要传 `input_fidelity`** —— `gpt-image-2` 强制启用高保真,传了会 400 报错 * **编辑请求的输入 token 明显更高** —— 因为参考图按 Vision 计费规则换算成大量 token,预算要留足 * **`background: transparent` 不支持** —— 改用 `opaque` 或自行后处理 * **多图融合最多 16 张** —— `image[]` 字段重复传入,超过会报错 **📎 多图融合顺序有意义** `image[]` 字段可重复传入多张参考图,**顺序将作为 prompt 中「图1/图2/图3」的引用依据**。建议在 prompt 中显式指代,例如: > 把图1的人物放进图2的场景,沿用图3的色彩风格 推荐单张 **≤ 10MB**,格式 `png` / `jpg` / `webp`。 ## 代码示例 ### Python(OpenAI SDK · 单图编辑) ```python theme={null} from openai import OpenAI import base64 client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.edit( model="gpt-image-2", image=open("photo.png", "rb"), prompt="把背景换成海边黄昏,保留人物细节", size="1536x1024", quality="high" ) # b64_json 是纯 base64(无前缀),需自己 decode with open("edited.png", "wb") as f: f.write(base64.b64decode(resp.data[0].b64_json)) ``` ### Python(OpenAI SDK · 多图融合) ```python theme={null} resp = client.images.edit( model="gpt-image-2", image=[ open("person.png", "rb"), open("scene.png", "rb"), open("style.png", "rb"), ], prompt="把图1人物放进图2场景,沿用图3的色彩风格,保持光线一致", size="1536x1024", quality="high" ) with open("fused.png", "wb") as f: f.write(base64.b64decode(resp.data[0].b64_json)) ``` ### cURL(多图融合) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2" \ -F "prompt=把图1的人物放进图2的场景,保留图3的色彩风格" \ -F "size=1536x1024" \ -F "quality=high" \ -F "image[]=@person.png" \ -F "image[]=@scene.png" \ -F "image[]=@style.png" ``` ### cURL(mask 局部重绘) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2" \ -F "prompt=把天空换成粉色晚霞" \ -F "size=1024x1024" \ -F "quality=high" \ -F "image[]=@photo.png" \ -F "mask=@mask.png" \ | jq -r '.data[0].b64_json' | base64 -d > photo_edited.png ``` ### Node.js(原生 fetch + FormData · 多图融合) ```javascript theme={null} import fs from 'node:fs'; const form = new FormData(); form.append('model', 'gpt-image-2'); form.append('prompt', '把图1的人物放进图2的场景'); form.append('size', '1536x1024'); form.append('quality', 'high'); form.append('image[]', new Blob([fs.readFileSync('./person.png')]), 'person.png'); form.append('image[]', new Blob([fs.readFileSync('./scene.png')]), 'scene.png'); const resp = await fetch('https://api.apiyi.com/v1/images/edits', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key' }, body: form }); const { data } = await resp.json(); fs.writeFileSync('fused.png', Buffer.from(data[0].b64_json, 'base64')); ``` ## 参数说明速查 | 字段 | 类型 | 必填 | 默认 | 说明 | | -------------------- | ---- | -- | ------ | ---------------------------------------- | | `model` | text | 是 | — | 固定填 `gpt-image-2` | | `prompt` | text | 是 | — | 编辑 / 融合指令 | | `image[]` | file | 是 | — | 参考图,可重复多次(**最多 16 张**) | | `mask` | file | 否 | — | 掩码图(仅对第一张 image 生效,要求带 alpha 通道) | | `size` | text | 否 | `auto` | 输出尺寸,同文生图 | | `quality` | text | 否 | `auto` | `low` / `medium` / `high` / `auto` | | `output_format` | text | 否 | `png` | `png` / `jpeg` / `webp` | | `output_compression` | text | 否 | — | 0–100,仅 `jpeg` / `webp` 生效 | | `background` | text | 否 | `auto` | `auto` / `opaque`(**不支持** `transparent`) | ## mask 局部重绘要求 * 与原图**相同尺寸、相同格式**,单张 ≤ 50MB * **必须带 alpha 通道**:透明区域(alpha=0)= 要重绘的部分,不透明区域 = 保留 * mask 仅对**第一张** image 生效 * mask 作为「软引导」而非精确边界,模型可能在蒙版周围扩展 / 收敛 **多轮迭代**:把上一次的输出作为下一次的 `image[]` 输入,配合新的编辑指令,可逐步精调画面。每一轮都按 token 实计,预算时留意累计成本。 ## 响应格式 ```json theme={null} { "created": 1776832476, "data": [ { "b64_json": "iVBORw0KGgoAAAANSUhEUgAA..." } ], "usage": { "input_tokens": 1280, "output_tokens": 6240, "total_tokens": 7520 } } ``` `b64_json` 字段是**纯 base64**,**不含** `data:image/...;base64,` 前缀,与 `gpt-image-2-all` 不同。客户端需自行 decode 写文件,或在浏览器端拼前缀渲染。 编辑请求的 `input_tokens` 通常**显著高于**同尺寸文生图,原因是参考图按 Vision 计费规则换算。多图融合时输入 token 会随图片数量进一步增加。 # GPT-Image-2 生图/编辑 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/overview OpenAI 旗舰图像生成模型 gpt-image-2,原生 2K/4K 任意分辨率,参考图自动高保真,同档降价 20-30%,支持文生图、参考图编辑、多图融合、mask 局部重绘。 ## 概述 **gpt-image-2** 是 OpenAI 最新旗舰图像生成模型,是 `gpt-image-1.5` 的升级版。核心升级:**任意合法分辨率(含 2K / 3840×2160 4K)**、**参考图自动高保真**、**同档降价 20-30%**。API易 网关完整兼容 OpenAI Images API,OpenAI 官方 SDK 把 `base_url` 指过来即可零代码改动直连。 **🎨 核心亮点**:原生支持任意合法分辨率(最大 3840×2160 4K)+ 参考图编辑自动启用 high-fidelity + 同尺寸同画质成本较 1.5 降低 20-30% + 中文提示词原生支持。**适合需要精确控制 size / quality、要求与 OpenAI 官方一致、要 4K 出图**的生产场景。 `/v1/images/generations`,输入文本提示词生成图片,支持 size / quality / output\_format。 `/v1/images/edits`,multipart 上传参考图(最多 16 张)+ 编辑/融合指令,支持 mask 局部重绘。 ## 为什么选 API易 的 GPT-image-2 官转? 对标 OpenAI 官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化: 严格走 OpenAI 官方转发链路,请求和响应 **100% 与 OpenAI 官方一致**——字段、错误码、模型行为完全相同,质量无损、无偷跑风险。 不受 OpenAI 官方 **Tier 等级** 对 RPM / TPM 的硬限,企业量级请求可线性放大,批量生图与高峰场景更从容。 默认单价与 OpenAI 官方一致,叠加 [充值加赠活动](/faq/recharge-promotions) **最低可享 85 折**,长期使用成本显著下降。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。 官逆 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview)(\$0.03/张统一价)可无缝切换,另有性价比标杆 [Nano Banana Pro / 2](/api-capabilities/nano-banana-2-image/overview),按场景自由组合。 团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 核心特性 支持任意合法尺寸输出,预设涵盖 1K / 2K / 3840×2160 4K,自定义尺寸只需满足边长 16 倍数、比例 ≤ 3:1 等基本约束。 编辑场景下自动启用 high-fidelity,参考图细节、人物身份、文字内容保留度大幅提升。**无需也不能**再传 `input_fidelity`。 1024×1024 高画质从 1.5 时代的 \$0.25 级别降到 \$0.211/张,2K/4K 按 token 实计但同样下行,长期使用成本明显降低。 中文提示词原生支持,招牌、海报、UI 截图等场景的中英文文字渲染稳定,`high` 档位下精细文字几乎不糊。 `image[]` 数组最多接受 16 张参考图,prompt 中可用「图1/图2/图3」明确指代。 支持上传带 alpha 通道的 mask 图,透明区域为重绘区,不透明区域保留原图。 支持 png(默认)/ jpeg / webp,jpeg/webp 可设 `output_compression` 控制体积。 把 `base_url` 指向 `https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 直接调用,零代码改动迁移。 ## 模型定价 按 token 计费(输入 text + 输入 image + 输出 image 三段之和)。**官方按量定价表**(每张输出图): | 画质 | 1024×1024 | 1024×1536 | 1536×1024 | | ------ | --------- | --------- | --------- | | Low | \$0.006 | \$0.005 | \$0.005 | | Medium | \$0.053 | \$0.041 | \$0.041 | | High | \$0.211 | \$0.165 | \$0.165 | **计费说明**: * 2K / 4K 无固定每张价,按输入 + 输出 token 实计 * 编辑场景因强制高保真,输入 token 明显高于纯文生图 * 流式出图(`stream: true` + `partial_images: N`)每张 partial 额外消耗 100 个输出 image token * 对比 `gpt-image-1.5`,同档同尺寸 `gpt-image-2` 成本低约 20-30% ## 分组介绍 `gpt-image-2` 官转目前提供两个分组,可在后台「令牌设置 → 分组」中切换: | 分组 | 倍率 | 适用场景 | | ----------------------- | ---- | -------------------------------------- | | `Default` 默认分组 | 1.0x | 与 OpenAI 官方同价,资源宽裕时首选;高峰期可能并发紧张、出现 429 | | `image2Enterprise` 企业分组 | 1.2x | 默认分组紧张时的稳定过渡通道,稳定优先 | **1.2x 倍率怎么来的?** 基于"3000 美金单次充值大客户加赠 20% 后约等官网原价"的口径设定——平台不计税务成本,不赚钱也优先保障供给。默认分组不稳定时,把令牌切到 `image2Enterprise` 即可临时过渡使用。 令牌创建界面:计费模式选「按量优先」,分组选 image2Enterprise(1.2x),高速正价的 GPT image 2 企业分组 📖 分组上线公告:[/live/2026-04/image2-enterprise](/live/2026-04/image2-enterprise) ## 技术规格 | 维度 | 参数 | | ------------- | ------------------------------------ | | **模型名** | `gpt-image-2` | | **速度** | 约 120 秒(高画质 4K 接近 2 分钟) | | **输出分辨率** | 任意合法尺寸(1K/2K/4K,最大 3840×2160) | | **画质档位** | `auto` / `low` / `medium` / `high` | | **输出格式** | `png`(默认)/ `jpeg` / `webp` | | **中文提示词** | ✅ 原生支持 | | **单次出图数量** | 1 张(`n=1`) | | **参考图上限** | 16 张(`image[]`) | | **mask 局部重绘** | ✅ 支持(要求带 alpha 通道) | | **透明背景** | ❌ 不支持(`background: transparent` 会报错) | | **响应字段** | `b64_json`(**纯 base64,无前缀**) | ## 端点一览 | 端点 | 用途 | Content-Type | | ----------------------------- | ---------------------- | --------------------- | | `POST /v1/images/generations` | 文生图 | `application/json` | | `POST /v1/images/edits` | 参考图编辑 / 多图融合 / mask 重绘 | `multipart/form-data` | **域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。 ## 尺寸(size)详解 ### 预设尺寸 | size | 含义 | 像素 | | ----------- | ------- | ---- | | `auto` | 自适应(默认) | 模型决定 | | `1024x1024` | 方形 1:1 | 1K | | `1536x1024` | 横版 3:2 | 1K | | `1024x1536` | 竖版 2:3 | 1K | | `2048x2048` | 方形 1:1 | 2K | | `2048x1152` | 横版 16:9 | 2K | | `3840x2160` | 横版 16:9 | 4K | | `2160x3840` | 竖版 9:16 | 4K | ### 自定义尺寸约束 `gpt-image-2` 接受**任意合法尺寸**,只需同时满足: 1. **最大边 ≤ 3840px** 2. **两条边都是 16 的倍数** 3. **长短边比例 ≤ 3:1** 4. **总像素数 ∈ \[655,360, 8,294,400]**(下限约 0.65MP,上限约 8.3MP) **合法示例**:`1600x1200`、`1792x1024`、`2048x1536`、`3200x1800` **非法示例**:`1000x1000`(非 16 倍数)、`4000x4000`(超上限)、`3840x1000`(比例超 3:1) 超过 `2560×1440`(约 3.69MP)的输出目前官方标记为**实验性**,可能不稳定或出现质量波动。生产环境建议优先用预设尺寸:`2048x1152` / `2048x2048` / `3840x2160` 等。 ## 最佳实践 8 个预设尺寸经过官方优化,速度和质量更稳定;自定义尺寸留给真有比例需求的场景。 草稿 / 批量 → `low`;默认 / 终稿 → `medium`;文字、精细纹理、印刷 → `high`。 对最终展示无特别要求时,`output_format=jpeg` + `output_compression=85` 比 PNG 快且体积小一半以上。 文字渲染是主要卖点,但 low/medium 仍可能糊;招牌、海报类场景锁 `quality=high`。 单张 ≤ 10MB,PNG/JPEG/WebP 均可;最多 16 张;prompt 里用「图1/图2」指代顺序。 `quality=high` + 2K/4K 实测可能达数分钟,单纯按"约 120 秒"配置会大量误超时。**保守按 360 秒起配**,前端务必给进度反馈;服务端建议用任务队列解耦。 从 `gpt-image-1.5` 迁移:删掉 `input_fidelity`(强制高保真,传了会报错);避开 `background: transparent`(暂不支持)。 ## 错误码与重试 | 状态码 | 含义 | 处理建议 | | ----- | ------------------------- | ---------------------------------------------------------------- | | `400` | 参数非法(size 不合约束、传了不支持的字段等) | 按尺寸约束章节校验;**注意不要传** `input_fidelity` / `background: transparent` | | `401` | 令牌无效 | 检查 Bearer Token | | `403` | 内容审核拦截 | 调整 prompt 或传 `moderation: low` | | `429` | 限流 / 余额不足 | 指数退避重试 | | `5xx` | 网关 / 后端错误 | 重试 1–2 次 | | 超时 | 长尾 | 客户端超时 ≥ **360 秒**(high + 2K/4K 实测可能 3-5 分钟) | **建议客户端**: * 请求超时 **360 秒** 起步(保守值;`quality=high` + 2K/4K 实测可能 3-5 分钟,按 120 秒配会大量误超时) * 对 5xx 与超时做 **指数退避重试**(建议 2 次) * 记录响应头 `x-request-id` 方便排查 ## 常见问题 **要**。`gpt-image-2` 返回的是**纯 base64 字符串**(无前缀),与 `gpt-image-2-all` 不同。客户端有两种用法: * **写文件**:`base64.b64decode(b64_str)` 后写入磁盘 * **浏览器渲染**:`img.src = 'data:image/png;base64,' + b64_str` 自行拼前缀 若你的代码沿用了 1.5 时代的"已含前缀"假设,会拿到损坏的 data URL,请显式判断。 `gpt-image-2` **强制启用** high-fidelity 处理参考图,不再接受 `input_fidelity` 参数。从 1.5 迁移时把这个字段移除即可,无需替换。 `gpt-image-2` **暂不支持** `background: transparent`(会报错)。两个变通方案: * 把 `background` 改为 `opaque` / 或不传,自行用 PIL / sharp / 在线工具抠透明 * 仍需透明背景的场景临时回退到 `gpt-image-1.5` 1 张(`n=1`)。如需 N 张请客户端并行 N 次调用。每次独立按 token 计费。 输出分辨率越高、画质档位越高,需要生成的 image token 越多,自然耗时越长。`3840×2160` + `quality=high` 实测可接近 2 分钟。建议: * 客户端超时 **≥ 360 秒**(保守值) * 前端显示"生成中"进度反馈 * 不需要 4K 时仍用 1024×1024 / 1536×1024 等 1K 预设 因为 `gpt-image-2` 对参考图自动启用 high-fidelity 处理,参考图本身会按 Vision 计费规则换算成大量输入 token。带图编辑的输入 token 明显高于文生图,预算时要留足。 * 与原图**相同尺寸、相同格式**,单张 ≤ 50MB * **必须带 alpha 通道**:透明区域(alpha=0)= 要重绘的部分,不透明区域 = 保留 * 仅对第一张 image 生效 * mask 是"软引导"非精确边界,模型可能在蒙版周围扩展 / 收敛 | 选 | 场景 | | ----------------------- | ----------------------------------------------------------- | | **gpt-image-2**(官方) | 需要精确控制 size / quality、要求与 OpenAI 官方完全一致、要 4K 出图、要 mask 局部重绘 | | **gpt-image-2-all**(官逆) | 追求统一价 \$0.03/张、约 30–60 秒出图、参数极简、对一致性 / 中文文字要求高 | 可以,零代码改动。把 `base_url` 指向 `https://api.apiyi.com/v1`,`api_key` 设为 API易 令牌即可: ```python theme={null} from openai import OpenAI client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1") resp = client.images.generate(model="gpt-image-2", prompt="...", size="2048x1152", quality="high") ``` **不支持**。`gpt-image-2` 走 OpenAI 官方同步端点,请求一旦提交就会跑到结束,无法发出"取消"指令。客户端即使断开连接,服务端仍会把这次生成完整跑完并照常计费。建议在客户端做好超时控制,不要依赖"断连就不收费"的假设。 默认 **100 RPM**(每分钟 100 次请求)。实际可用 RPM 还会受**全平台总并发**动态调整。如果你的业务需要更高配额,请联系我们告知预估 QPS / RPM,可单独申请扩容资源。 **不支持**。`gpt-image-2` 严格与 OpenAI 官方一致——只有同步调用,发起请求后阻塞等待结果(`high` 档 + 4K 实测 1–2 分钟)。如需异步队列、回调通知等能力: * 在业务层用任务队列(Celery / BullMQ 等)自行封装异步 * 或改用 [`gpt-image-2-all`](/api-capabilities/gpt-image-2-all/overview),出图约 30–60 秒,更适合前端轮询 **不会**。OpenAI 自带内容安全审核,触发审核或参数非法时会直接返回 `400` 错误并**不计费**。典型响应: ```json theme={null} { "status_code": 400, "error": { "message": "Your request was rejected by the safety system. ...", "type": "shell_api_error", "code": "moderation_blocked" } } ``` 其它常见的 0 计费错误:`401`(令牌无效)、`429`(限流)。**只有请求实际进入模型生成阶段(即收到 `200` + `b64_json`)才会按 token 计费**。 ## 相关文档 * [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - 选型对照表,帮你决定用哪个 * [文生图 Playground](/api-capabilities/gpt-image-2/text-to-image) - `/v1/images/generations` 在线调试 * [图片编辑 Playground](/api-capabilities/gpt-image-2/image-edit) - `/v1/images/edits` 多图融合 + mask * [深度解读:gpt-image-2 上线说明](/news/gpt-image-2-launch) - News 文章 * [完整接入文档(中文)](/knowledge-base/gpt-image-2-API-for-user) - 完整 API 参考 * [GPT-Image-2-All(官逆版本)](/api-capabilities/gpt-image-2-all/overview) - 更便宜、更快的备选方案 * [社区贡献:Luck GPT-Image 2 ComfyUI 节点](/scenarios/ecosystem/luckgpt2-comfyui) - 在 ComfyUI 中一键调用 `gpt-image-2`(含 mask / 5 图输入 / 自定义尺寸) * [社区贡献:APIYI GPT-Image 2 Skills](/scenarios/ecosystem/apiyi-gpt-image-skills) - 在 Codex CLI / Cursor / Gemini CLI 等 AI 编程工具中一句话调用 * [API 使用手册](/api-manual) - 通用调用规范 `gpt-image-2` 是 OpenAI 官方旗舰,按 token 实计;如果你更看重统一定价(\$0.03/张)和出图速度(30–60s),可参考 [gpt-image-2-all](/api-capabilities/gpt-image-2-all/overview)。 # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/text-to-image api-reference/gpt-image-2-generate-openapi.yaml POST /v1/images/generations gpt-image-2 文生图 API 参考与在线调试 — 任意合法尺寸(含 4K),按 token 计费 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择 size / quality 后一键发送即可。 **场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑、多图融合或 mask 局部重绘,请使用 [图片编辑接口](/api-capabilities/gpt-image-2/image-edit)。 **🖥️ 浏览器 Playground 限制(重要)** 本接口的响应包含**纯 base64 字符串**(数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。 **推荐做法**(小白零踩坑): * **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。 * 如要在浏览器里试 Playground,把 `size` 设为最小档(如 `1024x1024`)、`quality` 改为 `low`,缩小响应体积。 **⚠️ 不支持的参数** * `input_fidelity` —— `gpt-image-2` 强制启用高保真,传了会 400 报错(从 1.5 迁移时直接删掉这一行) * `background: "transparent"` —— 暂不支持透明背景,请改用 `opaque` 或自行后处理抠透明 **超过 `2560×1440` 的输出仍属实验性**,生产环境建议优先用预设尺寸:`2048x1152` / `2048x2048` / `3840x2160`。 ## 代码示例 ### Python(OpenAI SDK 直连) ```python theme={null} from openai import OpenAI import base64 client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.generate( model="gpt-image-2", prompt="赛博朋克城市雨夜,霓虹招牌特写,电影画幅", size="2048x1152", quality="high", output_format="jpeg", output_compression=85 ) # b64_json 是纯 base64(无前缀),需要自己 decode 写文件 with open("out.jpg", "wb") as f: f.write(base64.b64decode(resp.data[0].b64_json)) ``` ### Python(原生 requests) ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={ "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" }, json={ "model": "gpt-image-2", "prompt": "横版 2K 海边日落老灯塔,电影画幅", "size": "2048x1152", "quality": "high" }, timeout=360 # high + 2K/4K 实测可能 3-5 分钟,按 120s 配会大量误超时 ).json() with open("out.png", "wb") as f: f.write(base64.b64decode(response["data"][0]["b64_json"])) ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-2", "prompt": "一只戴墨镜的橘猫坐在海边吧台,电影画幅", "size": "2048x1152", "quality": "high", "output_format": "jpeg", "output_compression": 85 }' ``` ### Node.js(原生 fetch) ```javascript theme={null} import fs from 'node:fs'; const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'gpt-image-2', prompt: '极简线条风格的猫咪 LOGO', size: '1024x1024', quality: 'medium' }) }); const { data } = await resp.json(); // b64_json 是纯 base64(无前缀),需自己 decode fs.writeFileSync('logo.png', Buffer.from(data[0].b64_json, 'base64')); ``` ### 浏览器 JavaScript(直接渲染) ```javascript theme={null} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'gpt-image-2', prompt: '水彩风的北欧极光', size: '1536x1024', quality: 'high' }) }); const { data } = await resp.json(); // 浏览器渲染需自己拼 data URL 前缀 document.getElementById('img').src = `data:image/png;base64,${data[0].b64_json}`; ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 默认 | 说明 | | -------------------- | ------ | -- | ------ | ---------------------------------------- | | `model` | string | 是 | — | 固定填 `gpt-image-2` | | `prompt` | string | 是 | — | 提示词,支持中英文 | | `size` | string | 否 | `auto` | 输出尺寸,预设或满足约束的自定义尺寸 | | `quality` | string | 否 | `auto` | `low` / `medium` / `high` / `auto` | | `output_format` | string | 否 | `png` | `png` / `jpeg` / `webp` | | `output_compression` | int | 否 | — | 0–100,仅 `jpeg` / `webp` 生效 | | `background` | string | 否 | `auto` | `opaque` / `auto`(**不支持** `transparent`) | | `moderation` | string | 否 | `auto` | `auto` / `low`(低强度审核) | | `n` | int | 否 | 1 | 仅支持 1 | 详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。 ## 响应格式 ```json theme={null} { "created": 1776832476, "data": [ { "b64_json": "iVBORw0KGgoAAAANSUhEUgAA..." } ], "usage": { "input_tokens": 42, "output_tokens": 6240, "total_tokens": 6282 } } ``` **⚠️ b64\_json 字段是纯 base64**,**不含** `data:image/...;base64,` 前缀。客户端需要: * **写文件**:`base64.b64decode(b64_str)` → 写入磁盘 * **浏览器渲染**:自行拼前缀 `data:image/png;base64,` + b64 这与 `gpt-image-2-all` 的"已带前缀"行为不同,请留意。 `usage` 字段反映本次实际计费的 token 数。按"输入 text + 输入 image + 输出 image"三段之和计费,可结合 [概览页定价表](/api-capabilities/gpt-image-2/overview#模型定价) 估算成本。 # GPT-image-2 官转 vs 官逆 对比 Source: https://docs.apiyi.com/api-capabilities/gpt-image-2/vs-gpt-image-2-all gpt-image-2(官方正式版)与官逆姐妹模型 gpt-image-2-all / gpt-image-2-vip 对比:性质、计费、端点、上传/输出格式、分辨率控制、速度、指令遵循等差异,帮你选对模型。 ## 一句话结论 | 你需要 | 选这个 | | ------------------------------------------------ | ---------------------------------------- | | **`quality` 画质参数 / mask 局部重绘 / OpenAI 官方完全对齐字段** | `gpt-image-2`(官转) | | **可预测的统一价(\$0.03/张)+ 出图较快** | `gpt-image-2-all`(官逆,ChatGPT 网页线,30–60s) | | **可预测的统一价 + 严格锁尺寸(含 4K)** | `gpt-image-2-vip`(官逆,Codex 线,\~90–150s) | 三个模型**底层都是 OpenAI gpt-image-2**,差别在通道性质(官方直连 vs 逆向)、计费方式、参数粒度。 **官逆两兄弟(-all / -vip)**:本页"官逆"列同时覆盖 **`gpt-image-2-all`** 与 **`gpt-image-2-vip`**——两者**调用方式完全一致**、同价 \$0.03/张,差异仅在 **`size` 字段** 和 **出图速度**: * `gpt-image-2-all`:无 `size`(写进 prompt),ChatGPT 网页线,**约 30–60 秒** 出图 * `gpt-image-2-vip`:支持 **30 档 size**(10 比例 × 1K/2K/4K,**含 4K**),Codex 线,**约 90–150 秒** 出图(与官转持平) * 共同点:均不支持 `quality`、不支持 `n`、不支持 mask 局部重绘 下表"官逆"列差异行会用 `-all` / `-vip` 子格分别标注。需要 `quality` 画质或 mask 局部重绘时仍请走官转 `gpt-image-2`。 ## 完整对比表 | 维度 | **gpt-image-2-all / -vip**(官逆,高性价比) | **gpt-image-2**(官转,正式版) | | -------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------- | | **模型名** | `gpt-image-2-all`(不锁尺寸、出图最快) / `gpt-image-2-vip`(要指定 size 或 4K 时用) | `gpt-image-2` | | **通道性质** | `-all`:逆向 ChatGPT 官网线路
`-vip`:逆向 Codex 线路 | 官方直连(OpenAI Images API) | | **计费方式** | **按次计费**:固定 \$0.03/次(两模同价、所有 size 统一价) | **按量计费**:按 token 实计,官网同价;本站充值加赠后约 **8.5 折** | | **典型成本/张** | \$0.03(不区分尺寸 / 画质 / 模型) | 实测 **\$0.03 – \$0.2**(与提示词长度、size、quality 正相关) | | **令牌分组** | 默认分组(Default) | 默认分组(Default) | | **令牌类型** | **按次计费** 或 **按量优先** 均可 | **仅支持按量优先**(本模型按 token 计费,按次计费令牌不可用) | | **推荐端点** | `/v1/chat/completions`(方便传 URL) + `/v1/images/generations` + `/v1/images/edits`(同套代码兼容官转) | `/v1/images/generations` + `/v1/images/edits` | | **备选端点** | 三端点皆可,按场景选 | (仅官方两个端点) | | **上传图片格式** | base64 或 https URL(chat 端点)/ multipart file(edits 端点) | multipart file(编辑接口) | | **输出图片格式** | `b64_json`(**已带前缀**)或 `url`(R2 CDN) | `b64_json`(**纯 base64,无前缀**) | | **上传图片数(编辑)** | 多张(chat 模式理论上限较高) | **最多 16 张**(`image[]`) | | **mask 局部重绘** | ❌ 不支持 | ✅ 支持(要求带 alpha 通道) | | **指令遵循** | 好 | **优秀** | | **生成速度** | `-all`:约 **30–60 秒**(较快)
`-vip`:约 **90–150 秒**(与官转持平) | 约 **100-120 秒**,复杂场景 + 4K 可达 3-5 分钟 | | **`size` 参数** | `-all`:❌ 不接受(写进 prompt)
`-vip`:✅ 30 档常见 size(10 比例 × 1K/2K/4K) | ✅ 任意合法尺寸 | | **`size = auto` 行为** | `-all`:— 不接受 `size` 字段
`-vip`:文生图时模型自动选尺寸(同 prompt 倾向收敛到一个相对固定值);改图时按 prompt 指代图的比例输出 | ✅ 默认值,OpenAI 官方语义"按 prompt 智能选";**社区实测偏向 1:1 方形(1024×1024)**,要其它比例请显式传 `size` | | **支持 4K** | `-all`:❌
`-vip`:✅ 4K Detail 档(如 `3840x2160` / `2880x2880`) | ✅ 含 `3840×2160` | | **常见输出尺寸** | `-all`:16:9 → 1672×941、9:16 → 941×1672、1:1 → 1254×1254(自适应)
`-vip`:见 [完整 30 档表](/api-capabilities/gpt-image-2-vip/overview#支持的-size30-档完整对照表) | 8 个预设 + 任意合法自定义尺寸 | | **画质参数 `quality`** | ❌ 两模均不支持(不要传) | ✅ `low` / `medium` / `high` / `auto` | | **`n` 参数** | ❌ 两模均不支持(单次仅返回 1 张) | ✅ 支持 | | **透明背景** | — | ❌ 不支持(`background: transparent` 会报错) | | **中文提示词** | ✅ 原生 | ✅ 原生 | | **文字渲染** | 高还原度 | 高还原度(`high` 档位最强) | | **内容限制** | 较少(更宽松) | 较严格(OpenAI 官方策略) | | **API 文档** | [GPT-Image-2-All 概览](/api-capabilities/gpt-image-2-all/overview) / [GPT-Image-2-VIP 概览](/api-capabilities/gpt-image-2-vip/overview) | [GPT-Image-2 概览](/api-capabilities/gpt-image-2/overview) | 🔑 **如何创建或管理令牌**:[https://api.apiyi.com/token](https://api.apiyi.com/token)\ 在控制台创建令牌时可以选择分组(`Default` 默认即可)和令牌类型(**按次计费** / **按量优先**)。**调用 `gpt-image-2`(官转)必须使用「按量优先」类型的令牌**,否则会因计费方式不匹配被拒。 ## 选型场景 ### 选 `gpt-image-2-all`(官逆)的场景 单价稳定 \$0.03/张,无尺寸 / 画质阶梯,**适合大批量生产、成本必须封顶的场景**(信息图、营销物料、电商素材批量)。 约 30–60 秒出图,**比官转和 `-vip` 快约 2 倍**,前端实时交互体验更好。 `/v1/chat/completions` 同端点支持多轮迭代改图、文生图、带图编辑,**集成最简单**。 中文提示词原生友好、招牌 / 海报 / 信息图文字还原度高,**适合面向中文用户的内容生产**。 ### 选 `gpt-image-2-vip`(官逆,要锁尺寸或 4K)的场景 支持 **30 档常见 size**(10 比例 × 1K/2K/4K),适合电商主图、海报模板、视频封面、桌面壁纸等需要稳定输出尺寸的场景。 **4K Detail 档**(2880×2880 / 3840×2160 / 3840×1632 等)与 1K/2K 同价 \$0.03/张,4K **不加价**。 调用结构与 `-all` **完全一致**,请求体里只多一个 `size` 字段——可以一套代码两个模型来回切。 单价仍稳定 \$0.03/张,**比官转 4K 高画质便宜很多**——4K 锁尺寸场景的高性价比之选。 ### 选 `gpt-image-2`(官转)的场景 `quality` 支持 low/medium/high/auto。**草稿用 low 省成本,终稿 high 出印刷级效果**——这是官转独有,官逆两模都不支持。 支持 alpha 通道蒙版,**精准修改图片局部区域而保留其余部分**——官逆两模都不支持。 `size` 参数接受任意合法尺寸;如果你的尺寸**不在 `-vip` 的 30 档之内**,需要更细粒度的尺寸控制时选官转。 走官方 Images API,字段与行为完全与官方一致。**已有基于 OpenAI 官方 SDK 的代码 / 系统**可零改动迁移,长期更稳。 ## 关键差异详解 ### 1. `b64_json` 格式差异(迁移坑!) ```python theme={null} # gpt-image-2-all:b64_json 已含前缀,可直接用作 all_b64 = resp["data"][0]["b64_json"] # "data:image/png;base64,iVBORw0KGgo..." img_tag = f'' # ✅ 直接用 # gpt-image-2:b64_json 是纯 base64,无前缀,需自己 decode 或拼前缀 official_b64 = resp.data[0].b64_json # "iVBORw0KGgo..." with open("out.png", "wb") as f: f.write(base64.b64decode(official_b64)) # ✅ 写文件 img_tag = f'' # ✅ 浏览器渲染 ``` 从一个切到另一个时,**`b64_json` 处理代码必须改**,否则会拿到损坏的 data URL 或 decode 失败。 ### 2. 分辨率控制方式 **gpt-image-2-all**(写在 prompt 里): ``` "横版 16:9 电影画幅,黄昏时的海边老灯塔" → 输出约 1672×941 "竖版 9:16 手机壁纸,赛博朋克城市雨夜" → 输出约 941×1672 "1024×1024 方形 LOGO,极简猫咪线条" → 输出约 1254×1254 ``` **gpt-image-2-vip**(同为官逆,可直接传 `size`,30 档含 4K): ```bash theme={null} curl "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer $YI_API_KEY" \ -d '{ "model": "gpt-image-2-vip", "prompt": "白色陶瓷马克杯放在灰色桌面上", "size": "2048x1360" }' # 4K 也可以,同价 $0.03 # "size": "3840x2160" ``` **gpt-image-2**(`size` 参数严格控制 + `quality` 档位): ```python theme={null} client.images.generate( model="gpt-image-2", prompt="...", size="2048x1152", # ✅ 精确按此输出 quality="high" # 仅官转支持 ) ``` ### 3. 上传 / 输出格式差异 | 操作 | gpt-image-2-all | gpt-image-2 | | --------- | ------------------------------------------------------------ | --------------------------------- | | **上传参考图** | base64 data URL 或 https URL(在 chat messages 的 `image_url` 里) | multipart `image[]` 文件字段 | | **下载生成图** | 默认 `url`(R2 CDN,**24 小时有效期**),可改 `b64_json`(带前缀) | `b64_json`(**纯 base64**,需 decode) | | **多图融合** | chat 端点多个 `image_url` 即可 | `image[]` 数组重复传入,**最多 16 张** | ### 4. 价格示例(粗算) | 场景 | gpt-image-2-all / -vip | gpt-image-2 | | ---------------- | ---------------------- | --------------------------- | | 1024×1024 草图 | \$0.03 | \~\$0.006(low) | | 1024×1024 中等画质 | \$0.03 | \~\$0.053(medium) | | 1024×1024 高画质 | \$0.03 | \~\$0.211(high) | | 2048×1152 高画质 | \$0.03 | \~\$0.20+(按 token 实计) | | 3840×2160 4K 高画质 | \$0.03(仅 `-vip` 支持 4K) | 按 token 实计,**显著高于 1K** | | 编辑 / 多图融合 | \$0.03 | 输入 token 显著上升,单次成本可达 \$0.1+ | **结论**:批量、低画质场景用官逆不一定省(草图 1K low 在官转上反而更便宜);**中-高画质区段 + 4K** 都是官逆 \$0.03 的甜点区——`-vip` 的 4K 与 1K/2K 同价,相比官转 4K 高画质能省一个数量级。**需要 `quality` 档位 / mask 局部重绘 / OpenAI 官方完全对齐字段** 时再选官转。 ## 客户端调用建议 | 设置项 | gpt-image-2-all / -vip | gpt-image-2 | | ----------- | --------------------------------------------------------------------- | ---------------------------- | | **超时(保守值)** | `-all`:**300 秒**(典型 30–60s)
`-vip`:**300 秒**(典型 90–150s,4K 长尾更长) | **360 秒**(4K 高画质实测可达 3-5 分钟) | | **重试策略** | 5xx 与超时指数退避 2 次 | 同左 | | **并发** | chat 端点天然并发友好;单次仅返回 1 张,多张请并发 | 单次 1 张,需要多张请并发 | | **请求 ID** | `request-id` 响应头 | `x-request-id` 响应头 | ## 常见问题 可以。三者都走默认分组(Default),同一个 API Key 同时调用即可,无需额外配置。注意:调用 `gpt-image-2`(官转)需要「按量优先」类型的令牌;`-all` / `-vip` 两种令牌类型都能用。 有可能。当出图意图不够明确时,官逆模型的 chat 端点可能返回纯文字。**强化办法**:在用户提示词的开头追加固定前缀如「生成图片:」或 system 提示词约束输出。 两者都是逆向通道、同价 \$0.03/张、**调用方式完全一致**,差异只有: * **`size` 字段**:`-all` 不接受(写进 prompt);`-vip` 接受 30 档常见 size(含 4K) * **出图速度**:`-all` 约 30–60 秒;`-vip` 约 90–150 秒(与官转持平) 决策:不锁尺寸、追求最快出图 → `-all`;要锁尺寸或要 4K → `-vip`。详见 [GPT-Image-2-VIP 概览](/api-capabilities/gpt-image-2-vip/overview)。 需要。官转独有:**`quality` 档位**(low/medium/high/auto)、**mask 局部重绘**(alpha 通道蒙版)、**OpenAI 官方完全对齐字段**(已有官方 SDK 代码零改动迁移)、**任意非 30 档之外的合法尺寸**。 成本上,`-vip` 的 4K 与 1K/2K 同价 \$0.03/张,相比官转 4K 高画质能省一个数量级——4K 锁尺寸场景首推 `-vip`。 * **沿用官方 SDK / 要求与 OpenAI 官方一致**:选 `gpt-image-2`(官转),需要删掉 `input_fidelity`、避开 `background: transparent`,其它字段不动 * **想顺便降低成本,对尺寸不敏感**:选 `gpt-image-2-all`(官逆,30–60s) * **想顺便降低成本,要锁尺寸或 4K**:选 `gpt-image-2-vip`(官逆,\~90–150s) 可以。常见做法:**主用 `-all` 或 `-vip`**(成本可预测,按业务是否要锁尺寸选),**兜底用 `gpt-image-2`**(需要 `quality` 档位 / mask 时切过去)。官转和官逆两类模型响应字段不同,业务层做一次格式归一即可。 详见 [下载 CDN 图片/视频很慢怎么办?](/faq/cdn-download-slow) ## 相关文档 * [GPT-Image-2 概览](/api-capabilities/gpt-image-2/overview) - 官转完整接入文档 * [GPT-Image-2-All 概览](/api-capabilities/gpt-image-2-all/overview) - 官逆 ChatGPT 网页线(出图最快)完整接入文档 * [GPT-Image-2-VIP 概览](/api-capabilities/gpt-image-2-vip/overview) - 官逆 Codex 线(30 档 size,含 4K)完整接入文档 * [深度解读:gpt-image-2 上线](/news/gpt-image-2-launch) - 官转上线说明 * [深度解读:gpt-image-2-all 上线](/news/gpt-image-2-all-launch) - 官逆上线说明 * [社区贡献:Luck GPT-Image 2 ComfyUI 节点](/scenarios/ecosystem/luckgpt2-comfyui) - 多模型合一的 ComfyUI 节点包 * [社区贡献:APIYI GPT-Image 2 Skills](/scenarios/ecosystem/apiyi-gpt-image-skills) - 多模型合一的 AI Agent Skill 包 * [充值优惠活动](/faq/recharge-promotions) - 充值加赠政策 # 图像与视频生成模型 Source: https://docs.apiyi.com/api-capabilities/image-video-models 查看支持的图像生成和视频生成 AI 模型,包括定价和使用说明。 API易 支持多种图像和视频生成模型,本页面提供详细的模型信息、定价和使用说明。 查看文本和多模态模型请访问 [当下热门模型](/api-capabilities/model-info)。 ## 🎨 图像生成模型 | 模型名称 | 状态 | 特点 | 分辨率/规格 | 价格 | | -------------------------------------------------------------------- | -------- | ---------------------------------------------------------------------- | --------------------------- | -------------------------- | | [**Nano Banana Pro**](/api-capabilities/nano-banana-image-edit) 🔥 | 热卖中,本站最强 | 知识理解、中文字支持好、精准编辑 | 1K/2K/4K,支持原比例改图 | \$0.09/张 | | [**Nano Banana 2**](/api-capabilities/nano-banana-2-image) 🔥 | 热卖中,新上线 | 同 Pro,支持按量计费 | 0.5K-4K,新增 1:8 和 8:1(可制作长图) | \$0.055/张(按量 \$0.025-0.07) | | [**gpt-image-2-all**](/api-capabilities/gpt-image-2-all/overview) 🔥 | 热卖中,官逆 | GPT 官逆 ChatGPT 网页线、文字还原好、中文原生、约 30–60s 出图较快、尺寸写进 prompt | 1K-2K(prompt 控制) | \$0.03/张(按次) | | [**gpt-image-2-vip**](/api-capabilities/gpt-image-2-vip/overview) 🆕 | 新上线,官逆 | GPT 官逆 Codex 线、调用同 -all、`size` 字段锁尺寸、30 档常见 size 含 **4K**、约 90–150s 出图 | 1K/2K/**4K**(30 档统一价) | \$0.03/张(按次,4K 不加价) | | [**gpt-image-2**](/api-capabilities/gpt-image-2/overview) 🆕 | 新上线,官转 | OpenAI 旗舰官转、size/quality 精确控、参考图自动高保真、支持 mask 局部重绘 | 1K/2K/**4K**(任意合法尺寸) | 按 token 计费(\$0.006-0.211) | | [**Nano Banana**](/api-capabilities/nano-banana-image) | 正常可用 | 速度快、一致性佳、电商改图 | 多种尺寸 | \$0.02/张 | | [**Sora Image**](/api-capabilities/sora-image-generation) | 正常可用(官逆) | 平替 GPT Image 1.5,支持透明 PNG,一次出 2 张 | 三种尺寸 | \$0.01/张 | | [**Seedream 5.0**](/api-capabilities/seedream-image) | 正常可用 | 价格优势、速度快、输出 URL,lite 版本最新上线 | 2K/3K | \$0.035/张 | | [**Seedream 4.5**](/api-capabilities/seedream-image) | 正常可用 | 价格优势、速度快、输出 URL | 2K/4K | \$0.045/张 | | [**Seedream 4.0**](/api-capabilities/seedream-image) | 正常可用 | 价格优势、速度快、输出 URL | 2K | \$0.035/张 | | [**GPT Image 1.5**](/news/gpt-image-1-5-launch) 🔥 | 官方系列 | 精准编辑,速度提升 4 倍,文本渲染增强 | 低/中/高质量 | 按量计费 | | [**GPT Image 1**](/api-capabilities/gpt-image-1) | 官方系列 | 精准编辑 | 多种尺寸 | 按量计费 | | **GPT Image 1-Mini** | 官方系列 | 可替代 sora\_image | 多种尺寸 | 按量计费 | | [**Flux Kontext Pro**](/api-capabilities/flux-image-generation) | 正常可用 | 图像编辑 | 多种尺寸 | 详见文档 | | [**Flux Kontext Max**](/api-capabilities/flux-image-generation) | 正常可用 | 高质量图像编辑 | 多种尺寸 | 详见文档 | **Nano Banana Pro**:1K-4K 所有分辨率统一价格 \$0.09/张,官方 4K 价格为 \$0.24/张,约官网 38%!企业高可用分组 `NanoBananaEnterprise`(1.4x)可作为兜底。[查看详情](/news/nano-banana-pro-launch) **图像生成测试工具** * 国内访问:[image.apiyi.com](https://image.apiyi.com) * 全球访问:[imagen.apiyi.com](https://imagen.apiyi.com) 详细文档: * [Nano Banana Pro 文档](/api-capabilities/nano-banana-image-edit) - 本站最强,知识理解+精准编辑 * [Nano Banana 2 文档](/api-capabilities/nano-banana-2-image) - 支持按量计费,新增超长比例 * [gpt-image-2-all 文档](/api-capabilities/gpt-image-2-all/overview) - GPT 官逆 ChatGPT 网页线,\$0.03/张、约 30–60s 出图较快 * [gpt-image-2-vip 文档](/api-capabilities/gpt-image-2-vip/overview) - GPT 官逆 Codex 线,\$0.03/张、30 档 size 含 4K、约 90–150s 出图 * [gpt-image-2 文档](/api-capabilities/gpt-image-2/overview) - OpenAI 官转、原生 4K、size/quality 精确控 * [⚖️ 官转 vs 官逆 对比](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) - gpt-image-2 与官逆姐妹模型 -all / -vip 选型对照 * [Nano Banana 文档](/api-capabilities/nano-banana-image) - 速度快、一致性佳 * [Sora Image 文档](/api-capabilities/sora-image-generation) - 平替 GPT Image 1.5 * [Seedream 文档](/api-capabilities/seedream-image) - 价格优势、速度快 * [GPT Image 1.5 文档](/news/gpt-image-1-5-launch) - 速度提升 4 倍,精准编辑 * [GPT Image 1 文档](/api-capabilities/gpt-image-1) - 官方图像生成 * [Flux 文档](/api-capabilities/flux-image-generation) - 图像编辑 ## 🎬 视频生成模型 | 模型名称 | 状态 | 特点 | 时长 | 价格 | | ----------------------------------------------------------- | ------- | ----------------------------- | ------- | ----------------------- | | **Veo 3.1 官逆** 🔥 | 已上线,热卖中 | 谷歌 Flow 官逆,声画同步、支持真人、能出 HD/4K | 固定 8s | \$0.15-\$0.25(4K \$0.6) | | [**Sora 2 官转**](/api-capabilities/sora-2-video-official) 🔥 | 已上线,热卖中 | 专业创作、稳定性高、不支持「角色」引用 | 4/8/12s | 按秒计费(官网 85%) | | [**Sora 2 官逆**](/api-capabilities/sora-2-video) | 已上线(波动) | 电商带货、动漫漫剧、支持「角色」引用 | 10s/15s | \$0.12/次 | **视频模型核心特性**: * **Veo 3.1**:谷歌最新视频模型,业界领先的声画同步,支持真人出镜,可输出 HD 和 4K * **Sora 2 官转**:OpenAI 官方转发,专业创作首选,稳定性高,支持 sora-2-pro * **Sora 2 官逆**:适合电商带货和动漫漫剧场景,支持「角色」引用功能 * 视频在线测试:`icover.com/zh` **即将上线的视频模型**: * VEO 3.1 官转 * SeeDance 1.5 / 2.0 * 阿里万象 Wan 2.6 * Kling 3.0 敬请期待!关注我们获取最新上线通知。 ## 💰 定价说明 * **按量计费**:根据实际使用计费,无最低消费 * **余额永不过期**:充多少用多少 * 访问 [API易控制台定价页面](https://www.apiyi.com/account/pricing) 查看所有模型的最新价格 # Kimi K2.5 文本生成 Source: https://docs.apiyi.com/api-capabilities/kimi-k2-5 Moonshot AI 原生多模态旗舰模型,256K 上下文,支持 Thinking 深度思考模式。API易阿里云官转通道稳定可靠,分组价 0.88 倍,叠加充值加赠可享官网 8 折以内。 Kimi K2.5 是 Moonshot AI 于 2026 年 1 月 27 日发布的原生多模态旗舰模型,主打视觉编程(Visual Coding)与自主 Agent Swarm 编排能力,提供 256K 超长上下文。API易通过**阿里云官转**通道接入,稳定可靠;分组价采用 0.88 倍率(官网 88 折),再叠加充值加赠(充值 \$100 送 \$10 起),**实际成本可低于官网 8 折**。 **API易已接入 Kimi K2.5**:阿里云官转通道,OpenAI 兼容格式直接调用,模型名 `kimi-k2.5`。与 Kimi 官网不同的是——**Thinking(思考)模式需要显式传入 `enable_thinking: true` 参数才会启用**,默认为 Instant 模式。 ## 核心优势 无需额外加价即可享受 256K 上下文,整个大型代码库或长文档一次塞进去。 通过 `enable_thinking: true` 开启推理链路,适合复杂规划、根因分析与 Agent 任务。 原生理解图像与代码,擅长把 UI 截图、设计稿、图表转化为可运行的代码。 经阿里云官方转发通道接入,企业级 SLA,高并发下稳定不断供。 ## 模型信息 | 参数 | 值 | | --------------- | ---------------------------------------- | | **模型名称** | `kimi-k2.5` | | **上下文窗口** | 256,000 tokens | | **运行模式** | Instant / Thinking / Agent / Agent Swarm | | **Thinking 开关** | 请求体 `enable_thinking: true`(默认 `false`) | | **输入格式** | 文本 + 图像(原生多模态) | | **输出格式** | 文本 | | **流式输出** | ✅ 支持 | | **函数调用 / 工具使用** | ✅ 支持 | | **通道** | 阿里云官转(稳定可靠) | Kimi 官网内置的 `$web_search` 工具目前与 Thinking 模式不兼容,官方建议:如需使用 web\_search,先关闭 `enable_thinking`。这一限制与 Moonshot 官方一致。 ## 定价 | 项目 | 官网价格 | API易分组价(0.88 倍率) | 叠加充值加赠(约) | | -------- | ------------------ | ------------------- | -------------------- | | 输入 | \$0.60 / 1M tokens | \$0.528 / 1M tokens | 约 \$0.48 / 1M tokens | | 输出 | \$2.50 / 1M tokens | \$2.20 / 1M tokens | 约 \$2.00 / 1M tokens | | 缓存命中(输入) | \$0.10 / 1M tokens | \$0.088 / 1M tokens | — | **价格说明**:API易采用 **0.88 倍率**(官网 88 折)作为分组基础价;叠加首充/大额充值加赠后(如充值 \$100 送 \$10 起),实际使用成本可**低于官网 8 折**。更多加赠政策详见 [充值优惠](/faq/recharge-promotions)。 ## 如何开启 Thinking 模式 在 API易 上使用 Kimi K2.5,与 Kimi 官网最大的区别是——**默认是 Instant 模式**,需要通过请求体的 `enable_thinking` 参数显式启用深度思考: | 场景 | `enable_thinking` | 说明 | | ---------------------- | ----------------- | ------------------------------- | | 日常对话 / 快速响应 | `false`(默认) | Instant 模式,响应最快 | | 复杂推理 / 代码规划 / 根因分析 | `true` | Thinking 模式,输出推理链路 | | Agent 任务 + web\_search | `false` | 官方限制:web\_search 与 thinking 不兼容 | ### cURL 示例(开启 Thinking) ```bash theme={null} curl --location 'https://api.apiyi.com/v1/chat/completions' \ --header "Authorization: Bearer sk-xxxx" \ --header 'Content-Type: application/json' \ --data '{ "model": "kimi-k2.5", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "1+1等于多少?" } ], "enable_thinking": true }' ``` ## 调用方式 ### 端点地址 ``` https://api.apiyi.com/v1/chat/completions ``` ### 基础调用(Instant 模式) ```bash cURL theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "kimi-k2.5", "messages": [ {"role": "user", "content": "用一句话介绍你自己"} ] }' ``` ```python Python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "user", "content": "用一句话介绍你自己"} ] ) print(response.choices[0].message.content) ``` ```javascript Node.js theme={null} import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); const response = await client.chat.completions.create({ model: 'kimi-k2.5', messages: [ { role: 'user', content: '用一句话介绍你自己' } ] }); console.log(response.choices[0].message.content); ``` ### 进阶调用(Thinking 模式) ```python Python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "分析这段代码的时间复杂度并给出优化建议"} ], extra_body={ "enable_thinking": True } ) print(response.choices[0].message.content) ``` ```javascript Node.js theme={null} import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); const response = await client.chat.completions.create({ model: 'kimi-k2.5', messages: [ { role: 'system', content: 'You are a helpful assistant.' }, { role: 'user', content: '分析这段代码的时间复杂度并给出优化建议' } ], // @ts-ignore - 自定义字段 enable_thinking: true }); console.log(response.choices[0].message.content); ``` ### 流式输出 ```python theme={null} response = client.chat.completions.create( model="kimi-k2.5", messages=[{"role": "user", "content": "写一首关于春天的短诗"}], stream=True, extra_body={"enable_thinking": True} ) for chunk in response: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="", flush=True) ``` ## 请求参数 | 参数名 | 类型 | 必填 | 说明 | | ----------------- | ------- | -- | --------------------------- | | `model` | string | 是 | 固定为 `kimi-k2.5` | | `messages` | array | 是 | 对话消息数组 | | `enable_thinking` | boolean | 否 | 是否开启 Thinking 模式,默认 `false` | | `stream` | boolean | 否 | 是否流式输出 | | `temperature` | number | 否 | 采样温度,0\~2 之间 | | `max_tokens` | integer | 否 | 最大输出 tokens | | `tools` | array | 否 | 函数调用 / 工具列表 | ## 响应格式 ```json theme={null} { "id": "chatcmpl-xxxxxxxx", "object": "chat.completion", "created": 1706300000, "model": "kimi-k2.5", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "1+1 等于 2。" }, "finish_reason": "stop" } ], "usage": { "prompt_tokens": 24, "completion_tokens": 12, "total_tokens": 36 } } ``` ## 最佳实践 1. **按任务切换模式**:日常对话、短文本生成用默认 Instant 模式;复杂推理、代码审查、Agent 规划任务加上 `enable_thinking: true`。 2. **善用 256K 上下文**:整个中型代码仓库、产品文档、长会议纪要都可以一次塞进去,不额外加价。 3. **多模态视觉编程**:上传 UI 截图 / 设计稿,一次调用完成「读图 → 规划 → 出代码」。 4. **成本进一步优化**:充值 \$100 起享受加赠,叠加 0.88 分组价,实际成本可低于官网 8 折。 5. **注意 web\_search 限制**:如需使用官方 `$web_search` 内置工具,请关闭 `enable_thinking`。 ## 常见问题 默认不会开启。请检查请求体是否包含 `"enable_thinking": true`;使用 OpenAI Python SDK 时需放在 `extra_body` 中,Node.js SDK 可直接作为顶层字段传入。 是同一个模型。API易通过阿里云官转通道接入 Moonshot 官方 Kimi K2.5,模型能力完全一致。区别仅在于:Thinking 模式默认关闭,需通过 `enable_thinking` 参数显式启用。 在 API易控制台创建令牌时,将令牌分组设置为支持 Kimi K2.5 的分组即可按 0.88 倍率计费。搭配充值加赠后,整体成本可进一步下降。详见 [充值优惠](/faq/recharge-promotions)。 支持。可通过标准 OpenAI 格式的 `tools` 字段传入函数定义。注意官方 `$web_search` 内置工具与 Thinking 模式互斥,请分别使用。 Thinking 模式生成的推理内容按输出 tokens 正常计费。复杂任务可能会显著增加输出 tokens 数量,建议按需启用。 ## 相关资源 查看完整的 API 使用指南 了解加赠活动,把价格做得更低 查看所有可用模型及分组 查看各种客户端接入教程 # 当下热门模型(保持更新) Source: https://docs.apiyi.com/api-capabilities/model-info 查看支持的200+AI模型详细信息,推荐给你当下热门、好用的 AI 大模型。 API易 支持 300+ 主流 AI 模型,本页面提供详细的模型信息、定价和使用说明。 **企业级专业稳定的AI大模型API中转站**\ 本站均为官方源头转发,价格八折(叠加充值加赠和汇率优势),聚合各种优秀大模型。不限速,不过期,不惧封号,按量计费,长期可靠服务。 ## 🔥 当前推荐模型 以下为当前稳定供给的热门模型,完整模型列表和实时价格请访问 [API易控制台定价页面](https://www.apiyi.com/account/pricing)。 **模型升级建议**:我们推荐优先使用最新模型以获得最佳性能,但请注意: 1. **上线初期可能不稳定**:新模型刚发布时,原厂商算力可能不足,导致响应慢、超时或偶发错误,通常数天至数周后趋于稳定 2. **注意参数兼容性**:新模型可能新增或变更参数(如 `max_completion_tokens` 替代 `max_tokens`),升级前请检查 API 参数是否兼容老模型 3. **务必先测试再上线**:在将新模型用于生产环境前,务必在测试环境充分验证,确保输出质量和接口兼容性符合预期 ## 模型分类 ### 🤖 OpenAI 系列 #### 🆕 最新模型 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | -------------------------- | --------------------- | ----- | ------------------------------------------------ | ----------- | | **GPT-5.4** 🔥 | `gpt-5.4` | 1M | 原生计算机操控,GDPval 83%,错误率降低 33% | 复杂智能体、专业工作流 | | **GPT-5.4 Pro** 🔥 | `gpt-5.4-pro` | 1M | 最强推理性能,适合顶级任务 | 顶级推理、科研 | | **GPT-5.2** | `gpt-5.2` | 400K | GDPval 70.9% 超越专业人士 | 编程规划、结构化任务 | | **GPT-5.3 Instant** | `gpt-5.3-chat-latest` | 400K | 快速响应版本,保持顶级推理 | 快速写作、信息检索 | | **GPT-5.1** | `gpt-5.1` | 128K | 智能与速度平衡,SWE-bench 76.3%,24h 缓存 | 综合应用、编程 | | **GPT-5.3 Codex** 🔥 | `gpt-5.3-codex` | 128K | SWE-Bench Pro SOTA,比 5.2 Codex 快 25%,首个参与自身创建的模型 | 复杂编程、智能体任务 | | **GPT-5.3 Codex Spark** 🔥 | `gpt-5.3-codex-spark` | 128K | 轻量实时编码版本,快速响应 | 日常编程、实时编码 | #### ✅ 稳定/经典系列 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ---------------- | -------------- | ----- | ---------------- | ---------- | | **GPT-5** ⭐ | `gpt-5` | 128K | 旗舰稳定版,超强推理能力 | 顶级推理、复杂任务 | | **GPT-5 Mini** | `gpt-5-mini` | 128K | GPT-5 轻量版,性能优异 | 平衡性能与成本 | | **GPT-5 Nano** | `gpt-5-nano` | 128K | GPT-5 超轻量版 | 大批量处理 | | **o3** ⭐ | `o3` | 200K | 推理模型,已大幅降价,性价比极高 | 复杂推理、数学、编程 | | **o4-mini** | `o4-mini` | 200K | 轻量级推理模型 | 编程任务首选 | | **GPT-4.1** ⭐ | `gpt-4.1` | 128K | 速度快,主力模型之一 | 综合应用 | | **GPT-4.1 Mini** | `gpt-4.1-mini` | 128K | 更便宜的轻量版本 | 成本敏感场景 | | **GPT-4o** | `gpt-4o` | 128K | 综合能力平衡,多模态支持 | 通用场景 | | **GPT-4o Mini** | `gpt-4o-mini` | 128K | 轻量快速版本 | 快速响应 | **GPT-5 系列使用注意事项**: 1. 温度参数 `temperature` 必须设置为 1(只支持 1) 2. 使用 `max_completion_tokens` 替代 `max_tokens` 3. 不要传递 `top_p` 参数 **图像和视频生成模型**已移至专属页面,请访问 [图像与视频生成模型](/api-capabilities/image-video-models) 查看完整列表和定价。 ### 🎭 Claude 系列 (Anthropic) #### 🆕 最新模型 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | --------------------------------- | ---------------------------- | --------- | ------------------------------------- | ---------- | | **Claude Opus 4.6** 🔥 | `claude-opus-4-6` | 1M (Beta) | Terminal-Bench 2.0 登顶,智能体团队协作,128K 输出 | 顶级编程、复杂智能体 | | **Claude Opus 4.6 Thinking** 🔥 | `claude-opus-4-6-thinking` | 1M (Beta) | 自适应思维链,深度推理增强 | 顶级推理任务 | | **Claude Sonnet 4.6** 🔥 | `claude-sonnet-4-6` | 1M (Beta) | 全面升级,性能媲美 Opus 4.5,性价比极高 | 编程首选、智能体开发 | | **Claude Sonnet 4.6 Thinking** 🔥 | `claude-sonnet-4-6-thinking` | 1M (Beta) | 思维链模式,深度推理 | 复杂编程推理任务 | #### ✅ 稳定/经典系列 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ------------------------------ | ------------------------------------- | ----- | ------------------------------- | ---------- | | **Claude Opus 4.5** ⭐ | `claude-opus-4-5-20251101` | 200K | SWE-bench 80.9%,价格降至前代 1/3 | 复杂编程、顶级推理 | | **Claude Sonnet 4.5** ⭐ | `claude-sonnet-4-5-20250929` | 200K | 世界级编码模型,SWE-bench 77.2% | 代码生成、智能体开发 | | **Claude Sonnet 4.5 Thinking** | `claude-sonnet-4-5-20250929-thinking` | 200K | 思维链模式,深度推理 | 复杂编程推理任务 | | **Claude Haiku 4.5** ⭐ | `claude-haiku-4-5-20251001` | 200K | 高性价比编码模型,SWE-bench 73.3%,速度 2 倍 | 实时聊天、结对编程 | | **Claude 4 Sonnet** | `claude-sonnet-4-20250514` | 200K | 稳定版本,编程首选 | 代码生成、分析 | | **Claude Opus 4.1** | `claude-opus-4-1-20250805` | 200K | 迭代升级版,编程优化 | 高要求编程任务 | **最新推荐**:Claude Opus 4.6 以 Terminal-Bench 2.0 登顶,支持 1M 上下文和智能体团队协作。Sonnet 4.6 性能媲美 Opus 4.5,已成为 claude.ai 默认模型,性价比极高。**稳定首选**:Opus 4.5 和 Sonnet 4.5 经过充分验证,适合生产环境。Haiku 4.5 速度快 2 倍,性价比高。 ### 🌟 Google Gemini 系列 #### 🆕 最新模型 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ------------------------------------ | ----------------------------------- | ----- | --------------------------------------- | ----------- | | **Gemini 3.1 Pro Preview** 🔥 | `gemini-3.1-pro-preview` | 1M | ARC-AGI-2 77.1%(3 Pro 的 2 倍+),最强推理模型 | 复杂推理、多模态分析 | | **Gemini 3 Flash Preview** 🔥 | `gemini-3-flash-preview` | 1M | SWE-bench 78% 超越 3 Pro,速度快 3 倍,价格仅 1/4 | 编程首选、性价比之王 | | **Gemini 3 Flash Thinking** 🔥 | `gemini-3-flash-preview-thinking` | 1M | 强制推理模式,显示完整思考过程 | 复杂编程、深度推理 | | **Gemini 3 Flash NoThinking** 🔥 | `gemini-3-flash-preview-nothinking` | 1M | 快速响应模式,最低延迟 | 简单任务、实时应用 | | **Gemini 3.1 Flash Lite Preview** 🔥 | `gemini-3.1-flash-lite-preview` | 1M | 速度快 2.5 倍,超越 GPT-5 Mini 和 Haiku 4.5,超低价 | 高并发、大批量、低成本 | **注意**:Gemini 3 Pro Preview 已于 2026 年 3 月 9 日停止服务,请迁移至 Gemini 3.1 Pro Preview。 #### ✅ 稳定/经典系列 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ------------------------- | ----------------------- | ----- | --------------- | ---------- | | **Gemini 2.5 Pro** ⭐ | `gemini-2.5-pro` | 2M | 正式版,编程优势,多模态能力强 | 长文本、编程、多模态 | | **Gemini 2.5 Flash** ⭐ | `gemini-2.5-flash` | 1M | 速度快,成本低,正式版 | 快速响应场景 | | **Gemini 2.5 Flash Lite** | `gemini-2.5-flash-lite` | 1M | 超轻量版本,更快更便宜 | 大批量简单任务 | **最新推荐**:Gemini 3.1 Pro Preview 推理能力翻倍(ARC-AGI-2 77.1%),是谷歌最先进推理模型。Gemini 3 Flash Preview 以 SWE-bench 78% 继续领跑编程性价比。Gemini 3.1 Flash Lite Preview 是最便宜的前沿模型,适合高并发场景。**稳定首选**:Gemini 2.5 Pro(2M 超长上下文)和 Gemini 2.5 Flash 已正式发布,适合生产环境。 ### 🚀 xAI Grok 系列 #### 🆕 最新模型 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ----------------------------- | --------------------------- | ----- | -------------------- | ---------- | | **Grok 4** 🔥 | `grok-4` | 标准 | 最新官方版本 | 综合任务 | | **Grok 4 All** 🔥 | `grok-4-all` | 标准 | 原生联网,无需工具调用 | 需要实时信息场景 | | **Grok 4 Fast Reasoning** 🔥 | `grok-4-fast-reasoning` | 200K | 推理模式,显示思考过程,降价 93%+ | 复杂推理任务 | | **Grok 4 Fast Non-Reasoning** | `grok-4-fast-non-reasoning` | 200K | 非推理模式,快速响应 | 大上下文场景 | | **Grok Code Fast 1** ⭐ | `grok-code-fast-1` | 256K | SWE-bench 70.8%,高速生成 | 代码生成、智能体编程 | #### ✅ 稳定/经典系列 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | --------------- | ------------- | ----- | --------- | --------- | | **Grok 3** ⭐ | `grok-3` | 标准 | 官方稳定版本 | 日常使用 | | **Grok 3 All** | `grok-3-all` | 标准 | 原生联网增强版 | 新闻资讯、市场分析 | | **Grok 3 Mini** | `grok-3-mini` | 标准 | 带推理能力的小模型 | 轻量任务 | **Grok Fast 系列价格优势**: * 相比 Grok-4 系列降价 **93%+** * 输入:\$0.20/1M tokens,输出:\$0.50/1M tokens * 业界领先的性价比,适合超长上下文场景 ### 🔍 DeepSeek 系列 #### 🆕 最新模型 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ----------------------------- | ------------------------ | ----- | -------------------------------- | ----------- | | **DeepSeek V3.2** 🔥 | `deepseek-v3.2` | 128K | 性能比肩 GPT-5,工具调用融入推理,IMO 金牌 | 复杂推理、编程、智能体 | | **DeepSeek V3.2 Speciale** 🔥 | `deepseek-v3.2-speciale` | 128K | 高算力版本,超越 GPT-5,推理媲美 Gemini 3 Pro | 顶级推理任务 | #### ✅ 稳定/经典系列 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ------------------- | ---------------------- | ----- | -------------------------- | ------- | | **DeepSeek V3.1** ⭐ | `deepseek-v3-1-250821` | 128K | 混合推理模式,Think/Non-Think 双模式 | 智能推理、编程 | | **DeepSeek R1** | `deepseek-r1` | 64K | 推理模型 | 数学、推理 | | **DeepSeek V3** | `deepseek-v3` | 128K | 综合能力强 | 通用场景 | ### 🐘 国产模型系列 #### 智谱 AI (GLM) **🆕 最新**:GLM-5 | **✅ 稳定/经典**:GLM-4.6、GLM-4.5 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | --------------- | ------------- | ----- | --------------------------------------- | ------------- | | **GLM-5** 🔥 | `glm-5` | 200K | 744B 参数(40B 激活),编程对齐 Claude Opus 4.5,开源 | 复杂编程、系统工程、智能体 | | **GLM-4.6** ⭐ | `glm-4.6` | 200K | 代码与推理增强版,稳定可靠 | 编程、推理、智能体 | | **GLM-4.5** | `glm-4.5` | 128K | 标准版本,综合能力强 | 通用场景 | | **GLM-4.5 Air** | `glm-4.5-air` | 128K | 轻量版本,速度快 | 快速响应 | **GLM-5 特性**: * 744B 参数(40B 激活),预训练数据 28.5T * 编程能力对齐 Claude Opus 4.5,超越 Gemini 3 Pro * 全新 Slime 框架,支持长时序智能体强化学习 * 开源模型中编程能力最强,性价比极高 #### 阿里通义千问 (Qwen) **🆕 最新**:Qwen 3.5-Plus | **✅ 稳定/经典**:Qwen Max、Plus、Turbo | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | -------------------- | -------------- | ----- | ------------------------------------ | ----------- | | **Qwen 3.5-Plus** 🔥 | `qwen3.5-plus` | 1M | 397B(17B 激活),支持 201 种语言,自称超越 GPT-5.2 | 智能体、多语言、长文本 | | **Qwen Max** ⭐ | `qwen-max` | 32K | 最强稳定版本 | 综合任务 | | **Qwen Plus** | `qwen-plus` | 32K | 增强版本 | 性价比场景 | | **Qwen Turbo** | `qwen-turbo` | 32K | 快速版本 | 低延迟场景 | #### Moonshot Kimi 系列 **🆕 最新**:Kimi K2.5 | **✅ 稳定/经典**:Kimi K2 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ----------------- | ---------------- | ----- | ----------------------------------------- | ------- | | **Kimi K2.5** 🔥 | `kimi-k2.5` | 200K | 1T 参数(32B 激活),原生多模态,Agent Swarm 100 智能体协作 | 多模态、智能体 | | **Kimi K2 正式版** ⭐ | `kimi-k2-250711` | 200K | 火山引擎官方合作,稳定性强 | 生产环境 | ### 🌐 MiniMax 系列 **🆕 最新**:MiniMax M2.5 | 模型名称 | 模型ID | 上下文长度 | 特点 | 推荐场景 | | ------------------- | -------------- | ----- | ---------------------------------------- | ------------ | | **MiniMax M2.5** 🔥 | `minimax-m2.5` | 标准 | 230B(10B 激活),SWE-bench 80.2%,\$1/小时极致性价比 | 编程、智能体、办公自动化 | **MiniMax M2.5 特性**: * SWE-bench 80.2%,编程能力顶级,速度比 M2.1 快 37% * 仅 \$1/小时持续运行,业界最低成本前沿模型 * 支持 10+ 编程语言,20 万+ 真实环境训练 * 模型权重已完全开源 ## 💰 定价说明 ### 计费方式 * **按量计费**:根据实际使用的 Token 数量计费 * **无最低消费**:充多少用多少,余额永不过期 * **实时扣费**:每次调用后立即从余额扣除费用 ### 价格优势 * 官方源头转发,价格略有优势 * 批量使用可联系客服获取更优惠价格 * 新用户注册送 300万 Token 测试额度 ### 查看实时价格 访问 [API易控制台定价页面](https://www.apiyi.com/account/pricing) 查看所有模型的最新价格。 ## 🛠️ 使用建议 ### 模型选择指南 **编程开发** * 顶级性能:Claude Opus 4.6(Terminal-Bench 2.0 登顶)、GPT-5.4(GDPval 83%)、Claude Sonnet 4.6(媲美 Opus 4.5) * 高性价比:Gemini 3 Flash Preview(SWE-bench 78%,价格仅 1/4)、Claude Sonnet 4.6、MiniMax M2.5(SWE-bench 80.2%,\$1/小时)、GLM-5 * 备选:GPT-5.2 系列、DeepSeek V3.2、Kimi K2.5、Qwen 3.5-Plus、o4-mini **文本创作** * 首选:GPT-5.4、GPT-5.2 系列、Gemini 3.1 Pro Preview、Claude Opus 4.6、Claude Sonnet 4.6 * 备选:GPT-5.1 Chat Latest、Claude Sonnet 4.5、GPT-4.1、GPT-4o、Claude Haiku 4.5、GLM-4.6 **快速响应** * 首选:Gemini 3 Flash NoThinking(极致速度)、Claude Haiku 4.5(速度快 2 倍)、GPT-4o Mini * 备选:Gemini 2.5 Flash、Gemini 2.5 Flash Lite、GLM-4.5 Air、Grok 3 Mini、GPT-4.1 Mini **图像生成** * 最新推荐:GPT Image 1.5(速度提升 4 倍,精准编辑,低 \$0.01 起) * 专业设计:SeeDream 4.5(12 亿参数,4K 画质,\$0.035/张)、Nano Banana Pro(4K 高清,最佳文本渲染) * 高性价比:Nano Banana 正式版(10 种宽高比,\$0.025/张)、SeeDream 4.0(\$0.025/张) * 逆向、价格最便宜:sora\_image、gpt-4o-image **视频生成** * 首选:Sora 2 系列(音视频同步,无水印,\$0.15/次起) * 竖屏:sora\_video2,横屏:sora\_video2-landscape,高清:sora-2-pro **长文本处理** * 超长上下文:Gemini 2.5 Pro(2M)、Grok 4 Fast 系列(200K)、Grok Code Fast 1(256K) * 编程场景:GLM-4.6(200K)、Claude 4 系列(200K)、Kimi K2(200K) **联网搜索** * 原生联网:Grok 4 All、Grok 3 All(无需工具调用) * 适合场景:实时信息、新闻资讯、市场动态分析 ### 成本优化建议 1. **分级使用**:简单任务用便宜模型,复杂任务用高级模型 2. **测试优化**:先用小模型测试,确定需求后再用大模型 3. **批量处理**:大量相似任务可以选择 Nano 或 Mini 版本 4. **缓存复用**:对重复查询结果进行缓存 ## 🔗 相关资源 * [模型对比测试](https://imagen.apiyi.com/) - 图像生成效果对比 * [实时价格查询](https://www.apiyi.com/account/pricing) - 最新定价信息 * [API 文档](/api-manual) - 详细接口说明 * [快速开始](/getting-started) - 集成指南 模型列表持续更新中,我们会及时添加最新发布的优秀模型。如需使用特定模型或有批量需求,请联系客服。 # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/nano-banana-2-image/image-edit api-reference/nano-banana-2-edit-openapi.yaml POST /v1beta/models/gemini-3.1-flash-image-preview:generateContent Nano Banana 2 图片编辑 API 参考与在线调试 — 输入图片 + 指令生成新图片 右侧的交互式 Playground 支持下拉选择参数。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。 **场景说明**:本页用于「图片编辑」,必须上传一张待编辑的图片(base64 编码)+ 编辑指令。如果只想根据文本生成新图片,请使用 [文生图接口](/api-capabilities/nano-banana-2-image/text-to-image)。 **🖥️ 浏览器 Playground 限制(重要)** 本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。 **推荐做法**(小白零踩坑): * **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。 * 如要在浏览器里试 Playground,**用极小的参考图(\< 50KB)** 并把 `imageSize` 设为最小档(如 `512` / `1K`)。 **⚠️ `parts` 数组结构(重要,多图编辑必看)** 每个 `part` **只能是 `text` 或 `inlineData` 中的一个**,二者不能同时出现在同一个 part 里。这与谷歌官方 `gemini-3.1-flash-image-preview` 的契约一致。 **正确**:一个 text part(编辑指令)+ N 个 inlineData part(每张图一个): ```json theme={null} "contents": [{ "parts": [ {"text": "把这两张图里的人物合成到同一个办公室场景中"}, {"inlineData": {"mimeType": "image/png", "data": ""}}, {"inlineData": {"mimeType": "image/png", "data": ""}} ] }] ``` **错误**(每个 part 同时塞了 text 和 inlineData,会导致非预期行为): ```json theme={null} "contents": [{ "parts": [ {"inlineData": {...}, "text": "这是提示词吗 1"}, {"inlineData": {...}, "text": "这是提示词吗 2"} ] }] ``` **🖼️ 关于 `inlineData.data` 字段** 本接口是 **JSON 格式**(非 multipart 文件上传),所以 Playground 无法直接选择本地文件,需要先把图片转成 **Base64 字符串**再粘贴到 `data` 输入框。 **一行命令转换 + 自动复制到剪贴板**: ```bash theme={null} # macOS base64 -i your-image.jpg | tr -d '\n' | pbcopy # Linux base64 -w0 your-image.jpg | xclip -selection clipboard # Windows PowerShell [Convert]::ToBase64String([IO.File]::ReadAllBytes("your-image.jpg")) | Set-Clipboard ``` 执行后直接在 Playground 的 `data` 字段 `Cmd+V` / `Ctrl+V` 粘贴即可。同时记得把 `mimeType` 切换为对应的 `image/jpeg` 或 `image/png`。 **建议**:测试用小图(\< 200KB),避免 base64 字符串过长导致浏览器卡顿。频繁测试图片编辑更推荐用下方代码示例直接在本地运行。 ## 代码示例 ### Python ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" # 读取待编辑的图片 with open("input.jpg", "rb") as f: image_b64 = base64.b64encode(f.read()).decode() response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{ "parts": [ {"text": "请把背景模糊化,突出前景的人物"}, {"inlineData": {"mimeType": "image/jpeg", "data": image_b64}} ] }], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("edited.png", 'wb') as f: f.write(base64.b64decode(img_data)) print("编辑后的图片已保存至 edited.png") ``` ### Node.js ```javascript theme={null} import fs from "fs"; const API_KEY = "sk-your-api-key"; const imageB64 = fs.readFileSync("input.jpg").toString("base64"); const response = await fetch( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ contents: [{ parts: [ { text: "请把背景模糊化,突出前景的人物" }, { inlineData: { mimeType: "image/jpeg", data: imageB64 } } ] }], generationConfig: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K" } } }) } ); const data = await response.json(); const imgBase64 = data.candidates[0].content.parts[0].inlineData.data; fs.writeFileSync("edited.png", Buffer.from(imgBase64, "base64")); ``` ### cURL ```bash theme={null} # 注意:需要先将图片转为 base64 字符串 # IMAGE_B64=$(base64 -i input.jpg | tr -d '\n') curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "contents": [{ "parts": [ {"text": "请把背景模糊化,突出前景的人物"}, {"inlineData": {"mimeType": "image/jpeg", "data": "'"$IMAGE_B64"'"}} ] }], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }' ``` ## 多图编辑示例 把多张图作为输入合成或对比时,**只用一个 `text` part**(编辑指令),后面追加多个 `inlineData` part(每张图一个)。 ### Python(多图) ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" def to_b64(path): with open(path, "rb") as f: return base64.b64encode(f.read()).decode() # 准备多张图(这里以 2 张为例,最多可上传多张) images = ["person1.png", "person2.png"] parts = [{"text": "把这两张图里的人物合成到同一个办公室场景中,做着搞怪表情"}] for path in images: parts.append({"inlineData": {"mimeType": "image/png", "data": to_b64(path)}}) response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{"parts": parts}], "generationConfig": { "responseModalities": ["TEXT", "IMAGE"], "imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("merged.png", "wb") as f: f.write(base64.b64decode(img_data)) ``` ### cURL(多图,对齐谷歌官方格式) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "contents": [{ "parts": [ {"text": "An office group photo of these people, they are making funny faces."}, {"inlineData": {"mimeType": "image/png", "data": ""}}, {"inlineData": {"mimeType": "image/png", "data": ""}}, {"inlineData": {"mimeType": "image/png", "data": ""}} ] }], "generationConfig": { "responseModalities": ["TEXT", "IMAGE"], "imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"} } }' ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | ------------------------------------------------- | ------- | -- | ---------------------------------------------------------------------------------------- | | `contents[].parts` | array | 是 | 由「**1 个 text part + N 个 inlineData part**」组成。每个 part 只能含 `text` 或 `inlineData` 之一,不可同时出现 | | `contents[].parts[].text` | string | 是 | 编辑指令(建议只放在第一个 part 中) | | `contents[].parts[].inlineData.mimeType` | string | 是 | `image/jpeg` 或 `image/png` | | `contents[].parts[].inlineData.data` | string | 是 | 图片的 Base64 编码(多图编辑时重复多个 inlineData part) | | `generationConfig.responseModalities` | array | 是 | 通常为 `["IMAGE"]` | | `generationConfig.imageConfig.aspectRatio` | string | 否 | 14 种宽高比,默认 `1:1` | | `generationConfig.imageConfig.imageSize` | string | 否 | `512` / `1K` / `2K` / `4K`,默认 `1K` | | `generationConfig.thinkingConfig.thinkingLevel` | string | 否 | `minimal`(快速)/ `High`(深度推理) | | `generationConfig.thinkingConfig.includeThoughts` | boolean | 否 | 是否返回思维过程文本 | Nano Banana 2 支持多轮对话式编辑:把上一次的输出图片作为下一次的 `inlineData` 输入,配合新的编辑指令,可以逐步精调画面效果。 # Nano Banana 2 生图/编辑 Source: https://docs.apiyi.com/api-capabilities/nano-banana-2-image/overview 谷歌最新图像生成模型 Nano Banana 2 (gemini-3.1-flash-image-preview),Pro级画质、Flash级速度,支持4K输出、14种宽高比、图像搜索Grounding,按次 $0.055/次,按量低至 $0.025/张。 ## 概述 **Nano Banana 2**(代号)是谷歌于 2026 年 2 月 26 日发布的最新图像生成模型,模型 ID 为 `gemini-3.1-flash-image-preview`。它以 **Pro 级画质 + Flash 级速度和成本** 重新定义了图像生成的性价比,是 Nano Banana 系列的最新旗舰。 **🔥 2026年2月26日发布**:Nano Banana 2 上线!Pro 级画质、Flash 级速度,支持按量计费(低至官网 28%),512px 低至 \$0.025/张!支持 4K 输出、14 种宽高比、图像搜索 Grounding 等独家特性。 输入文本提示词生成图片,带交互式 Playground 在线调试。 上传图片 + 编辑指令生成新图片,带交互式 Playground 在线调试。 ## 为什么选 API易 的 Nano Banana 2 **Nano Banana Pro / 2 是 API易 消耗量排名第一的图像模型**——稳定、可靠、速度快。如果你期望跟专业的团队合作,那选 API易 就对了。 针对 Nano Banana 2 这种谷歌官方刚发布、产能仍紧张的新模型,API易 在**稳定性**、**成本**、**接入体验**三方面做了深度优化: 完全兼容谷歌官方 Gemini API 格式(`/v1beta/models/.../generateContent`),同时支持 OpenAI SDK 模式,请求体、响应字段、错误码与官方一致,迁移零改造。 无谷歌 AI Studio 的 RPM/RPD 硬限制,企业批量出图、高峰流量都能线性放大,避免被官方配额打断。 按次 \$0.055/张(官方 \$0.151)、按量 512px 低至 \$0.025/张(官方 \$0.045),叠加 [充值加赠活动](/faq/recharge-promotions) 最低可达官方 30.3%。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。 同系列覆盖 [Nano Banana Pro](/api-capabilities/nano-banana-image/overview)(极致画质)、Nano Banana 2(性价比)、Nano Banana 第一代(基础版),按场景自由组合。 团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 核心特性 生动光影、丰富纹理、锐利细节,画质媲美 Nano Banana Pro,速度却快得多 支持 512px、1K、2K、4K 四档分辨率,最高 4096×4096 新增 1:4、4:1、1:8、8:1,共支持 14 种宽高比,覆盖更多场景 Nano Banana 2 独家功能,可从 Google 图片搜索拉取视觉上下文 图片内文字清晰可读,支持多语言文本渲染,适合海报、营销物料 支持多轮对话式图像编辑,逐步精调画面效果 可配置 minimal 或 high 思维级别,处理复杂提示词更精准 最多保持 5 个角色的相貌一致性,14 个参考物体的高保真度 ## 版本对比 | 特性 | **Nano Banana 2** | Nano Banana Pro | Nano Banana | | -------------- | -------------------------------- | ---------------------------- | ------------------------ | | 模型 ID | `gemini-3.1-flash-image-preview` | `gemini-3-pro-image-preview` | `gemini-2.5-flash-image` | | 画质 | ⭐⭐⭐⭐⭐ Pro 级 | ⭐⭐⭐⭐⭐ 最高 | ⭐⭐⭐⭐ 优秀 | | 速度 | 🚀 最快 | 🐢 较慢 | ⚡ 快速 | | 最高分辨率 | 4K | 4K | 1K | | 宽高比数量 | 14 种 | 10 种 | 10 种 | | 图像搜索 Grounding | ✅ 独家 | ❌ | ❌ | | API易定价 | **\$0.055/次(按次)** | \$0.09/次 | \$0.02/次 | | 状态 | Preview | Preview | GA | **选择建议**: * 🔥 **追求性价比** → Nano Banana 2(按量计费低至 \$0.025/张,Pro 级画质 + Flash 级速度) * 🎨 **追求极致画质** → Nano Banana Pro(\$0.09/次,最高保真度) * ⚡ **追求最低成本** → Nano Banana(\$0.02/次,快速稳定) ## 模型定价 **计费模式选择**:Nano Banana 2 支持两种计费方式,通过创建令牌时的「Billing model」设置选择: * 选择 **Pay-as-you-go**(按量计费)或 **Pay-as-you-go Priority**(按量优先)→ 按量计费 * 选择 **Pay-per-request**(按次计费)或 **Pay-per-request Priority**(按次优先)→ 按次计费(与 Nano Banana Pro 相同) * ⚠️ **请勿选择 Hybrid billing(混合计费)** ### 按次计费 | 模型 | API易定价 | 谷歌官方 4K 定价 | 折扣 | | -------------------------------------------------- | ------------- | -------------- | -------------- | | **Nano Banana 2** `gemini-3.1-flash-image-preview` | **\$0.055/次** | \$0.151/次 | **🔥 约 3.6 折** | | Nano Banana Pro `gemini-3-pro-image-preview` | \$0.09/次 | \$0.151/次 | **约 6 折** | | Nano Banana `gemini-2.5-flash-image` | \$0.020/次 | \$0.039/次(仅1K) | 约 5 折 | Nano Banana Pro 另提供 `NanoBananaEnterprise` 企业 HA 通道(1.4 倍费率,即 \$0.126/次),适合对可用性有更高要求的场景。 ### 按量计费(Nano Banana 2 专属) | 计费项目 | Google 官方 | API易 | 官网折扣 | | --------------- | --------------------- | --------------- | ------- | | Input | \$0.50/M tokens | \$0.14/M tokens | **28%** | | Output(图片和文本统一) | 图片 \$60/M, 文本 \$1.5/M | \$16.8/M tokens | **28%** | ### 按量计费价格预估 | 分辨率 | Google 官方 | API易 | Fal AI | | ----- | --------- | ------------- | ------ | | 512px | \$0.045 | **\~\$0.025** | \$0.06 | | 1K | \$0.067 | **\~\$0.035** | \$0.08 | | 2K | \$0.101 | **\~\$0.045** | \$0.12 | | 4K | \$0.151 | **\~\$0.07** | \$0.16 | **💰 按量计费更省钱!** 使用按量计费,512px 低至 \$0.025/张,仅为官方 28%!低分辨率场景下比按次计费(\$0.055/次)更实惠。4K 场景按量计费约 \$0.07/张,仍远低于谷歌官方 \$0.151/次。结合充值加赠活动,实际成本更低。 ## 分组介绍 Nano Banana 2 在 API易提供两个分组,可在后台「令牌设置」中切换: | 分组 | 倍率 | 适用场景 | | --------------------------- | ---- | ------------------------ | | `Default` 默认分组 | 1.0x | 基础通道,与定价表一致;默认推荐 | | `NanoBananaEnterprise` 企业分组 | 1.4x | 兜底通道,默认紧张/超时高发时手动切换,稳定优先 | **1.4x 倍率怎么来的?** 1.4x 后仍约等于谷歌官方 5 折水平,远低于官网原价。这是面向更高并发需求、应对意外风控时的兜底方案,为企业客户提供高可用性保障。默认分组紧张时,把令牌切到 `NanoBananaEnterprise` 即可临时过渡。 **令牌「计费模式」推荐**:选 `按量优先`(Pay-as-you-go Priority)—— 同时兼容 Nano Banana 2 的按量计费 和 Nano Banana Pro 的按次计费,**一把令牌跑全系列**。 令牌创建界面:计费模式『按量优先』兼容 NB2 按量 + NB Pro 按次;主分组 Default + 兜底分组 NanoBananaEnterprise(1.4x 兜底通道) **拓展玩法**:如果你的令牌还覆盖其它图像模型(如 GPT-image-2),把更稳的 Default 分组放主位、`NanoBananaEnterprise` 放兜底位即可,主分组 429 会自动回退到企业分组继续出图,无需切换 token。 ## 支持的分辨率与宽高比 ### 输出分辨率 | 分辨率 | 说明 | 推荐场景 | | ----- | ---- | --------- | | 512px | 低分辨率 | 缩略图、快速预览 | | 1K | 默认 | 社交媒体、网页展示 | | 2K | 高清 | 高清显示、打印材料 | | 4K | 超高清 | 专业设计、商业海报 | ### 支持的宽高比(14 种) `1:1`、`1:4`、`4:1`、`1:8`、`8:1`、`2:3`、`3:2`、`3:4`、`4:3`、`4:5`、`5:4`、`9:16`、`16:9`、`21:9` 相比 Nano Banana Pro 的 10 种宽高比,Nano Banana 2 新增了 `1:4`、`4:1`、`1:8`、`8:1` 四种超长/超宽比例,适合长图、信息图等特殊场景。 ## 常见问题 **Nano Banana 2** (`gemini-3.1-flash-image-preview`) 基于 Gemini 3.1 Flash,**Nano Banana Pro** (`gemini-3-pro-image-preview`) 基于 Gemini 3 Pro。主要区别: * ✅ **速度**:Nano Banana 2 更快(Flash 级速度) * ✅ **价格**:Nano Banana 2 按量计费更便宜(低至 \$0.025 vs \$0.09) * ✅ **宽高比**:Nano Banana 2 支持 14 种(多 4 种) * ✅ **图像搜索 Grounding**:Nano Banana 2 独家 * ⚠️ **极致画质**:Nano Banana Pro 仍略优 **推荐切换**!Nano Banana 2 以更低的价格提供了接近 Pro 级别的画质,速度还更快。除非你对画质有极致要求,否则 Nano Banana 2 是更好的选择。 只需将模型名称从 `gemini-3-pro-image-preview` 改为 `gemini-3.1-flash-image-preview` 即可。 图像搜索 Grounding 是 Nano Banana 2 的独家功能。它可以从 Google 图片搜索拉取视觉上下文,生成更贴合现实世界的图像。例如,当你要求生成某个真实地标的图片时,它能参考搜索结果来提高准确性。 思维模式(Thinking Mode)让模型在生成图像前进行推理分析,对复杂提示词的理解更准确。设置为 `high` 时效果最好,但会稍微增加生成时间。适合需要精确构图、包含文字、或涉及复杂场景的生成任务。 生成时间取决于分辨率和是否启用思维模式: * **1K 分辨率**:约 5-10 秒 * **2K 分辨率**:约 10-15 秒 * **4K 分辨率**:约 15-25 秒 * 启用高级思维模式会额外增加几秒 建议设置较长的超时时间(至少 120 秒)以应对偶发延迟。 支持 `image/png` 和 `image/jpeg` 格式。可以通过 base64 编码或 Files API 上传。 所有输出图片都带有 SynthID 隐形数字水印(Google 的 AI 生成内容标识技术),肉眼不可见,不影响使用。 ## 相关文档 * [Nano Banana Pro 图片生成](/api-capabilities/nano-banana-image) - 上一代旗舰版 * [Nano Banana 图片编辑](/api-capabilities/nano-banana-image-edit) - 图片编辑功能 * [图像生成对比测试](https://imagen.apiyi.com/) * [API 使用手册](/api-manual) Nano Banana 2 目前处于 Preview 状态,功能和定价可能会有调整。建议关注文档更新获取最新信息。 # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/nano-banana-2-image/text-to-image api-reference/nano-banana-2-generate-openapi.yaml POST /v1beta/models/gemini-3.1-flash-image-preview:generateContent Nano Banana 2 文生图 API 参考与在线调试 — 输入文本描述生成图片 右侧的交互式 Playground 支持下拉选择参数(宽高比、分辨率、响应类型等)。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。 **场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑,请使用 [图片编辑接口](/api-capabilities/nano-banana-2-image/image-edit)。 **🖥️ 浏览器 Playground 限制(重要)** 本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。 **推荐做法**(小白零踩坑): * **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。 * 如要在浏览器里试 Playground,把 `imageSize` 设为最小档(如 `512` / `1K`),缩小响应体积。 ## 代码示例 ### Python ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" PROMPT = "一只可爱的柴犬坐在樱花树下,水彩画风格,高清细节" response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{"parts": [{"text": PROMPT}]}], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("output.png", 'wb') as f: f.write(base64.b64decode(img_data)) print("图片已保存至 output.png") ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "contents": [{"parts": [{"text": "未来主义的城市夜景,霓虹灯,赛博朋克风格"}]}], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }' ``` ### Node.js ```javascript theme={null} import fs from "fs"; const API_KEY = "sk-your-api-key"; const response = await fetch( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ contents: [{ parts: [{ text: "未来主义的城市夜景,霓虹灯,赛博朋克风格" }] }], generationConfig: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K" } } }) } ); const data = await response.json(); const imgBase64 = data.candidates[0].content.parts[0].inlineData.data; fs.writeFileSync("output.png", Buffer.from(imgBase64, "base64")); ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | ------------------------------------------------- | ------- | -- | ---------------------------------------- | | `contents[].parts[].text` | string | 是 | 文本提示词 | | `generationConfig.responseModalities` | array | 是 | `["IMAGE"]` 或 `["TEXT","IMAGE"]` | | `generationConfig.imageConfig.aspectRatio` | string | 否 | 14 种宽高比,默认 `1:1` | | `generationConfig.imageConfig.imageSize` | string | 否 | `512` / `1K` / `2K` / `4K`,默认 `1K` | | `generationConfig.thinkingConfig.thinkingLevel` | string | 否 | `minimal`(快速)/ `High`(深度推理),默认 `minimal` | | `generationConfig.thinkingConfig.includeThoughts` | boolean | 否 | 是否返回思维过程文本,默认 `false` | 详细的参数文档、可选值和默认值请查看右侧 Playground 中的字段说明,所有 enum 类型字段(如 `aspectRatio`、`imageSize`、`thinkingLevel`)都支持下拉选择,无需手动输入。 **不支持的功能** 以下谷歌官方功能在 API易 中**不支持**,需要单独计费: * **Grounding with Google Search**(谷歌搜索增强):通过 `tools: [{"google_search": {}}]` 调用实时搜索信息 * **Image Search Grounding**(图片搜索增强,Nano Banana 2 独有):通过谷歌图片搜索获取视觉上下文 这些功能需要额外的谷歌搜索 API 费用,暂不纳入 API易 转发范围。 # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/nano-banana-image/image-edit api-reference/nano-banana-pro-edit-openapi.yaml POST /v1beta/models/gemini-3-pro-image-preview:generateContent Nano Banana Pro 图片编辑 API 参考与在线调试 — 输入图片 + 指令生成新图片 右侧的交互式 Playground 支持下拉选择参数。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。 **场景说明**:本页用于「图片编辑」,必须上传一张待编辑的图片(base64 编码)+ 编辑指令。如果只想根据文本生成新图片,请使用 [文生图接口](/api-capabilities/nano-banana-image/text-to-image)。 **🖥️ 浏览器 Playground 限制(重要)** 本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。 **推荐做法**(小白零踩坑): * **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。 * 如要在浏览器里试 Playground,**用极小的参考图(\< 50KB)** 并把 `imageSize` 设为最小档(如 `1K`)。 **⚠️ `parts` 数组结构(重要,多图编辑必看)** 每个 `part` **只能是 `text` 或 `inlineData` 中的一个**,二者不能同时出现在同一个 part 里。这与谷歌官方 `gemini-3-pro-image-preview` 的契约一致。 **正确**:一个 text part(编辑指令)+ N 个 inlineData part(每张图一个): ```json theme={null} "contents": [{ "parts": [ {"text": "把这两张图里的人物合成到同一个办公室场景中"}, {"inlineData": {"mimeType": "image/png", "data": ""}}, {"inlineData": {"mimeType": "image/png", "data": ""}} ] }] ``` **错误**(每个 part 同时塞了 text 和 inlineData,会导致非预期行为): ```json theme={null} "contents": [{ "parts": [ {"inlineData": {...}, "text": "这是提示词吗 1"}, {"inlineData": {...}, "text": "这是提示词吗 2"} ] }] ``` **关于 `inlineData.data` 字段** 本接口是 **JSON 格式**(非 multipart 文件上传),所以 Playground 无法直接选择本地文件,需要先把图片转成 **Base64 字符串**再粘贴到 `data` 输入框。 **一行命令转换 + 自动复制到剪贴板**: ```bash theme={null} # macOS base64 -i your-image.jpg | tr -d '\n' | pbcopy # Linux base64 -w0 your-image.jpg | xclip -selection clipboard # Windows PowerShell [Convert]::ToBase64String([IO.File]::ReadAllBytes("your-image.jpg")) | Set-Clipboard ``` 执行后直接在 Playground 的 `data` 字段 `Cmd+V` / `Ctrl+V` 粘贴即可。同时记得把 `mimeType` 切换为对应的 `image/jpeg` 或 `image/png`。 **建议**:测试用小图(少于 200KB),避免 base64 字符串过长导致浏览器卡顿。频繁测试图片编辑更推荐用下方代码示例直接在本地运行。 ## 代码示例 ### Python ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" # 读取待编辑的图片 with open("input.jpg", "rb") as f: image_b64 = base64.b64encode(f.read()).decode() response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{ "parts": [ {"text": "请把背景模糊化,突出前景的人物"}, {"inlineData": {"mimeType": "image/jpeg", "data": image_b64}} ] }], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("edited.png", 'wb') as f: f.write(base64.b64decode(img_data)) print("编辑后的图片已保存至 edited.png") ``` ### Node.js ```javascript theme={null} import fs from "fs"; const API_KEY = "sk-your-api-key"; const imageB64 = fs.readFileSync("input.jpg").toString("base64"); const response = await fetch( "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ contents: [{ parts: [ { text: "请把背景模糊化,突出前景的人物" }, { inlineData: { mimeType: "image/jpeg", data: imageB64 } } ] }], generationConfig: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K" } } }) } ); const data = await response.json(); const imgBase64 = data.candidates[0].content.parts[0].inlineData.data; fs.writeFileSync("edited.png", Buffer.from(imgBase64, "base64")); ``` ### cURL ```bash theme={null} # 注意:需要先将图片转为 base64 字符串 # IMAGE_B64=$(base64 -i input.jpg | tr -d '\n') curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "contents": [{ "parts": [ {"text": "请把背景模糊化,突出前景的人物"}, {"inlineData": {"mimeType": "image/jpeg", "data": "'"$IMAGE_B64"'"}} ] }], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }' ``` ## 多图编辑示例 把多张图作为输入合成或对比时,**只用一个 `text` part**(编辑指令),后面追加多个 `inlineData` part(每张图一个)。 ### Python(多图) ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" def to_b64(path): with open(path, "rb") as f: return base64.b64encode(f.read()).decode() # 准备多张图(这里以 2 张为例,最多可上传多张) images = ["person1.png", "person2.png"] parts = [{"text": "把这两张图里的人物合成到同一个办公室场景中,做着搞怪表情"}] for path in images: parts.append({"inlineData": {"mimeType": "image/png", "data": to_b64(path)}}) response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{"parts": parts}], "generationConfig": { "responseModalities": ["TEXT", "IMAGE"], "imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("merged.png", "wb") as f: f.write(base64.b64decode(img_data)) ``` ### cURL(多图,对齐谷歌官方格式) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "contents": [{ "parts": [ {"text": "An office group photo of these people, they are making funny faces."}, {"inlineData": {"mimeType": "image/png", "data": ""}}, {"inlineData": {"mimeType": "image/png", "data": ""}}, {"inlineData": {"mimeType": "image/png", "data": ""}} ] }], "generationConfig": { "responseModalities": ["TEXT", "IMAGE"], "imageConfig": {"aspectRatio": "5:4", "imageSize": "2K"} } }' ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | ------------------------------------------ | ------ | -- | ---------------------------------------------------------------------------------------- | | `contents[].parts` | array | 是 | 由「**1 个 text part + N 个 inlineData part**」组成。每个 part 只能含 `text` 或 `inlineData` 之一,不可同时出现 | | `contents[].parts[].text` | string | 是 | 编辑指令(建议只放在第一个 part 中) | | `contents[].parts[].inlineData.mimeType` | string | 是 | `image/jpeg` 或 `image/png` | | `contents[].parts[].inlineData.data` | string | 是 | 图片的 Base64 编码(多图编辑时重复多个 inlineData part) | | `generationConfig.responseModalities` | array | 是 | 通常为 `["IMAGE"]` | | `generationConfig.imageConfig.aspectRatio` | string | 否 | 10 种宽高比,默认 `1:1` | | `generationConfig.imageConfig.imageSize` | string | 否 | `1K` / `2K` / `4K`,默认 `1K` | Nano Banana Pro 支持多图编辑:可以同时输入多张图片和编辑指令,实现多图合成、风格迁移等高级编辑功能。 # Nano Banana Pro 图片生成 Source: https://docs.apiyi.com/api-capabilities/nano-banana-image/overview 谷歌最新、最强的图像生成模型 gemini-3-pro-image-preview,俗称 Nano Banana Pro。支持自定义分辨率 1K、2K、4K 输出、10种宽高比,低至官网 2 折优惠。 **🔥 最新发布**:谷歌于 2026年2月26日发布了 **Nano Banana 2** (`gemini-3.1-flash-image-preview`),Pro 级画质 + Flash 级速度,按量低至 \$0.025/张![查看 Nano Banana 2 文档](/api-capabilities/nano-banana-2-image/overview) **Nano Banana Pro**(代号)是谷歌图像生成模型系列,目前有以下版本可用: ### 最新版本 * **Nano Banana 2**:`gemini-3.1-flash-image-preview`(🔥 2026年2月26日上线)— [查看详情](/api-capabilities/nano-banana-2-image/overview) * **Nano Banana Pro**:`gemini-3-pro-image-preview`(2025年11月20日上线) ### 前代版本 * **正式版**:`gemini-2.5-flash-image`(稳定版,支持 10 种宽高比) * **预览版**:`gemini-2.5-flash-image-preview`(⚠️ 已于2025年10月30日下线) **飞书完整使用指南** - 更新最快,支持评论互动 访问飞书文档获取最新的使用教程、技巧分享和问题解答。文档持续更新,遇到问题可直接在飞书上评论交流。 **核心优势** * 🔥 **Nano Banana Pro 新特性**: * 🎯 **4K 高清支持**:支持 1K、2K、4K 三种分辨率,最高可达 4096×4096 * 📝 **文本渲染之王**:图像中的文字清晰可读,适合海报、广告等场景 * ✨ **局部编辑**:支持摄像机角度、焦点、色彩分级、场景照明调整 * 🧠 **智能推理**:基于 Gemini 3 Pro,更好地理解复杂提示词 * 🚀 **通用优势**: * ⚡ **生成速度**:Nano Banana Pro 约 20 秒,前代版本约 10 秒 * 💰 **价格实惠**:结合充值优惠,性价比极高 * 🔄 **完全兼容**:完全兼容谷歌官方 Gemini API 格式 * 🎨 **谷歌技术**:基于谷歌最新、最强的图像生成/编辑技术 ## 在线调试 API 输入文本提示词生成图片,带交互式 Playground 在线调试。 上传图片 + 编辑指令生成新图片,带交互式 Playground 在线调试。 ## 为什么选 API易 的 Nano Banana Pro **Nano Banana Pro / 2 是 API易 消耗量排名第一的图像模型**——稳定、可靠、速度快。如果你期望跟专业的团队合作,那选 API易 就对了。 针对 Nano Banana Pro 这种谷歌最新旗舰、内容安全管控严格的模型,API易 在**稳定性**、**成本**、**接入体验**三方面做了深度优化: 完全兼容谷歌官方 Gemini API 格式(`/v1beta/models/.../generateContent`),同时支持 OpenAI SDK 模式,请求体、响应字段、错误码与官方一致,迁移零改造。 无谷歌 AI Studio 的 RPM/RPD 硬限制,企业批量出图、高峰流量都能线性放大,避免被官方配额打断。 按次 \$0.09/张(官方 4K \$0.24),叠加 [充值加赠活动](/faq/recharge-promotions) 最低可达官方 31.25%——4K 场景最多省 68.75%。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,延迟稳定、免去出海改造。 同系列覆盖 [Nano Banana 2](/api-capabilities/nano-banana-2-image/overview)(性价比 + Flash 速度)、Nano Banana Pro(极致画质)、Nano Banana 第一代(基础版),按场景自由组合。 团队深耕图像生成场景,具备丰富的选型、调优与集成经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 调用方式 使用谷歌原生 Gemini API 格式调用: ``` POST /v1beta/models/gemini-3-pro-image-preview:generateContent ``` * ✅ 支持 4K 高清分辨率(1K / 2K / 4K) * ✅ 10 种宽高比自由选择 * ✅ 业界最佳文字渲染 * ✅ 支持高级局部编辑 * 📖 完全兼容谷歌官方 API 格式,参考 `ai.google.dev/gemini-api/docs/image-generation` ### 不支持的功能 以下谷歌官方功能在 API易 中**不支持**,需要单独计费: * **Grounding with Google Search**(谷歌搜索增强):通过 `tools: [{"google_search": {}}]` 调用 * **thinkingConfig**(思维模式):仅 Nano Banana 2 支持,Nano Banana Pro 不支持 * **Image Search Grounding**(图片搜索增强):仅 Nano Banana 2 独有 其他图片生成和编辑能力均正常支持。 ## 价格对比 | 模型 | 定价 | 优势 | | --------------------------- | ----------------- | ---------------- | | **Nano Banana Pro** (4K) | \$0.09/张(约¥0.52) | 🔥 4K 支持,约官方 38% | | **Nano Banana Pro** (1K-2K) | \$0.09/张(约¥0.52) | 🔥 高清出图,约官方 67% | | **Nano Banana** | \$0.025/张(约¥0.15) | ⭐ 快速生成,官方 52% | | gpt-image-1 | 较高 | - | | flux-kontext-pro | \$0.035/张 | 持平 | **性价比推荐**: * **Nano Banana Pro**:4K 支持,文字渲染最强,定价约官方 38-67% * **NanoBananaEnterprise**:企业 HA 通道 1.4 倍率(\$0.126/张),适合高可用需求 * **Nano Banana**:快速生成(约10秒),官方 52% 价格,适合常规高质量图像生成 ## 分组介绍 Nano Banana Pro 在 API易提供两个分组,可在后台「令牌设置」中切换: | 分组 | 倍率 | 适用场景 | | --------------------------- | ---- | ------------------------------------- | | `Default` 默认分组 | 1.0x | 基础通道,按次 \$0.09/张;默认推荐 | | `NanoBananaEnterprise` 企业分组 | 1.4x | 兜底通道,按次 \$0.126/张,默认紧张/超时高发时手动切换,稳定优先 | **1.4x 倍率怎么来的?** 1.4x 后仍约等于谷歌官方 5 折水平,远低于官网原价。这是面向更高并发需求、应对意外风控时的兜底方案,为企业客户提供高可用性保障。默认分组紧张时,把令牌切到 `NanoBananaEnterprise` 即可临时过渡。 **令牌「计费模式」推荐**:选 `按量优先`(Pay-as-you-go Priority)—— 同时兼容 Nano Banana Pro 的按次计费 和 Nano Banana 2 的按量计费,**一把令牌跑全系列**。 令牌创建界面:计费模式『按量优先』兼容 NB Pro 按次 + NB2 按量;主分组 Default + 兜底分组 NanoBananaEnterprise(1.4x 兜底通道) **拓展玩法**:如果你的令牌还覆盖其它图像模型(如 GPT-image-2),把更稳的 Default 分组放主位、`NanoBananaEnterprise` 放兜底位即可,主分组 429 会自动回退到企业分组继续出图,无需切换 token。 ## 兼容性说明 如果你之前使用过以下模型,可以直接替换模型名称: ### 升级到最新版本 * 任何旧版本 → `gemini-3-pro-image-preview`(🔥 推荐,Nano Banana Pro) * 支持 4K 高清出图 * 文本渲染能力最强 * 局部编辑功能 ### 使用稳定版本 * `gpt-4o-image` → `gemini-2.5-flash-image` * `sora_image` → `gemini-2.5-flash-image` * 旧版 Nano Banana → `gemini-2.5-flash-image` 其他参数保持不变,即可无缝切换使用。 ## API 错误处理指南 Nano Banana Pro 有严格的内容安全管控,可能在多个层级拒绝不合规请求。 **最高优先级** 值为 0 时,内容在审核阶段被拒绝,未生成任何候选内容。 **次要优先级** 值非 `STOP`(如 `PROHIBITED_CONTENT`、`SAFETY`)时,表示生成过程中被拒绝。 **拒绝说明** API 返回拒绝说明文本而非图片数据时,应将这些说明展示给用户。 **完整错误处理文档** 详细错误处理流程、代码实现示例和最佳实践,请访问: `https://xinqikeji.feishu.cn/wiki/Rslqw724YiBwlokHmRLcMVKHnRf` ## FAQ **追求性价比**推荐 **Nano Banana 2** (`gemini-3.1-flash-image-preview`): * Pro 级画质 + Flash 级速度 * 按量计费低至 \$0.025/张 * 支持 14 种宽高比(比 Pro 多 4 种) * 独有:思维模式、图片搜索 Grounding **追求极致画质**选 **Nano Banana Pro** (`gemini-3-pro-image-preview`): * 最高保真度 * 定价 \$0.09/次 详情参考 [Nano Banana 2 文档](/api-capabilities/nano-banana-2-image/overview)。 **新项目推荐:Nano Banana Pro** (`gemini-3-pro-image-preview`) ✅ **Pro 版优势**: * 支持 4K 超高清分辨率 * 业界最佳文本渲染质量 * 高级局部编辑功能 * 定价仅约官方 38-67% ⚡ **前代版本** (`gemini-2.5-flash-image`) 适合: * 预算敏感场景(约\$0.025/张 vs \$0.09/张) * 需要快速生成(10s vs 20s) * 现有项目迁移 只需将模型名称从 `gpt-4o-image` 或 `sora_image` 更改为 `gemini-3-pro-image-preview`(推荐 Pro)或 `gemini-2.5-flash-image`(前代),其他参数保持不变。 模型返回 base64 编码的图片数据,通常为 PNG 或 JPEG 格式。代码会自动检测格式并保存为对应的文件类型。 是的,Nano Banana Pro 支持图片生成和图片编辑。请查看 [图片编辑 API 参考](/api-capabilities/nano-banana-image/image-edit)。 ## 相关文档 * [Nano Banana 2 图片生成](/api-capabilities/nano-banana-2-image/overview) * [Nano Banana 定价说明](/api-capabilities/nano-banana-pricing) * [其他图像生成模型](/api-capabilities/gpt-image-1) * [API 使用手册](/api-manual) # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/nano-banana-image/text-to-image api-reference/nano-banana-pro-generate-openapi.yaml POST /v1beta/models/gemini-3-pro-image-preview:generateContent Nano Banana Pro 文生图 API 参考与在线调试 — 输入文本描述生成图片 右侧的交互式 Playground 支持下拉选择参数(宽高比、分辨率、响应类型等)。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),即可一键发送请求测试。 **场景说明**:本页用于「文本生成图片」。只需输入提示词即可,无需上传任何图片。如需根据现有图片做编辑,请使用 [图片编辑接口](/api-capabilities/nano-banana-image/image-edit)。 **🖥️ 浏览器 Playground 限制(重要)** 本接口的响应里包含 base64 编码的图片(`inlineData.data`,数 MB 量级)。受浏览器渲染限制,右侧 Playground 在收到响应后**可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法把这么长的 base64 显示出来。 **推荐做法**(小白零踩坑): * **直接复制下方"代码示例"中的 Python / Node.js / cURL 到本地运行**,代码会自动 `base64.b64decode` 并把图片**保存为本地文件**。 * 如要在浏览器里试 Playground,把 `imageSize` 设为最小档(如 `1K`),缩小响应体积。 ## 代码示例 ### Python ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" PROMPT = "一只可爱的小猫坐在花园里,油画风格,高清,细节丰富" response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{"parts": [{"text": PROMPT}]}], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("output.png", 'wb') as f: f.write(base64.b64decode(img_data)) print("图片已保存至 output.png") ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "contents": [{"parts": [{"text": "未来主义的城市夜景,霓虹灯,赛博朋克风格"}]}], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }' ``` ### Node.js ```javascript theme={null} import fs from "fs"; const API_KEY = "sk-your-api-key"; const response = await fetch( "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent", { method: "POST", headers: { "Authorization": `Bearer ${API_KEY}`, "Content-Type": "application/json" }, body: JSON.stringify({ contents: [{ parts: [{ text: "未来主义的城市夜景,霓虹灯,赛博朋克风格" }] }], generationConfig: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K" } } }) } ); const data = await response.json(); const imgBase64 = data.candidates[0].content.parts[0].inlineData.data; fs.writeFileSync("output.png", Buffer.from(imgBase64, "base64")); ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 说明 | | ------------------------------------------ | ------ | -- | -------------------------------- | | `contents[].parts[].text` | string | 是 | 文本提示词 | | `generationConfig.responseModalities` | array | 是 | `["IMAGE"]` 或 `["TEXT","IMAGE"]` | | `generationConfig.imageConfig.aspectRatio` | string | 否 | 10 种宽高比,默认 `1:1` | | `generationConfig.imageConfig.imageSize` | string | 否 | `1K` / `2K` / `4K`,默认 `1K` | 详细的参数文档、可选值和默认值请查看右侧 Playground 中的字段说明,所有 enum 类型字段(如 `aspectRatio`、`imageSize`)都支持下拉选择,无需手动输入。 **不支持的功能** 以下谷歌官方功能在 API易 中**不支持**,需要单独计费: * **Grounding with Google Search**(谷歌搜索增强):通过 `tools: [{"google_search": {}}]` 调用实时搜索信息 * **thinkingConfig**(思维模式):仅 Nano Banana 2 支持,Nano Banana Pro 不支持此参数 如需搜索增强功能,请联系客服了解单独计费方案。 # Nano Banana 系列价格总览 Source: https://docs.apiyi.com/api-capabilities/nano-banana-pricing Nano Banana 系列图片模型(Pro / 2 / 第一代)完整价格对比,包括按次计费、按量计费、充值优惠及令牌选择建议。最低可达官方 30.3% 的价格。 ## 概述 Nano Banana 系列包含三款图片生成模型,均支持通过 API易 以远低于官方的价格调用。本页汇总所有 Nano Banana 模型的定价信息,帮助你快速选择最适合的计费方案。 在 API 调用时,所使用的\*\*「令牌类型」\*\*决定计费方式。Nano Banana Pro 和 2 都有两种计费方式:**按次计费**、**按量计费**。且仅有两个分组:默认稳定分组、企业高可用分组。 ## 三款模型速览 | 特性 | **Nano Banana Pro** | **Nano Banana 2** | **Nano Banana(第一代)** | | ----- | ---------------------------- | -------------------------------- | ------------------------ | | 模型 ID | `gemini-3-pro-image-preview` | `gemini-3.1-flash-image-preview` | `gemini-2.5-flash-image` | | 最高分辨率 | 4K | 4K | 1K | | 按次计费 | \$0.09/次 | \$0.055/次 | \$0.02/次 | | 按量计费 | 内测中 | ✅ 已开放 | ❌ 不支持 | | 最低折扣 | 官方 31.25% | 官方 30.3% | 官方 50% | ## Nano Banana Pro 定价 模型名:`gemini-3-pro-image-preview` ### 按次计费 \$0.09 美金/次,1-4K 统一按次价格,计费简单、4K 图片更省。 | 计费项 | API易默认 | 充值加赠 +10% | 充值加赠 +20% | 谷歌官方 | | -------- | ------ | --------- | ---------- | ------ | | 单张价格(\$) | \$0.09 | \$0.0818 | \$0.075 | \$0.24 | | 单张价格(¥) | ¥0.63 | ¥0.573 | ¥0.525 | ¥1.68 | | 相对官方 | 37.5% | 34.0% | **31.25%** | / | 4K 图片最多省 **68.75%**!按次计费不区分分辨率,4K 和 1K 同价,分辨率越高越划算。 ### 按量计费(未开放,可内测) | 计费项 | API易 | 谷歌官方 | | ---- | --------------- | -------------- | | 输入价格 | \$0.88/M tokens | \$2/M tokens | | 输出价格 | \$52.8/M tokens | \$120/M tokens | | 相对官方 | **44%** | / | 按量计费预估单张价格: | 分辨率 | API易预估 | 谷歌官方预估 | | ---- | --------- | --------- | | 1-2K | \~\$0.075 | \~\$0.134 | | 4K | \~\$0.11 | \~\$0.24 | Tokens 计费因输入和输出图片的 Tokens 会动态变化,以上为预估值。按量计费适合 1-2K 图片需求,价格更低;4K 场景建议使用按次计费更划算。 ## Nano Banana 2 定价 模型名:`gemini-3.1-flash-image-preview` ### 按次计费 \$0.055 美金/次,1-4K 统一按次价格,计费简单、4K 图片更省。 | 计费项 | API易默认 | 充值加赠 +10% | 充值加赠 +20% | 谷歌官方 | | -------- | --------- | --------- | --------- | ------- | | 单张价格(\$) | \$0.055 | \$0.05 | \$0.0458 | \$0.151 | | 单张价格(¥) | ¥0.385 | ¥0.35 | ¥0.32 | ¥1.68 | | 相对官方 | **36.4%** | **33.1%** | **30.3%** | / | ### 按量计费 | 计费项 | API易 | 谷歌官方 | | ---- | --------------- | -------------- | | 输入价格 | \$0.18/M tokens | \$0.5/M tokens | | 输出价格 | \$21.6/M tokens | \$60/M tokens | | 相对官方 | **36%** | / | 按量计费预估单张价格: | 分辨率 | API易预估 | 谷歌官方 | | ----- | --------- | ------- | | 512px | \~\$0.024 | \$0.045 | | 1K | \~\$0.03 | \$0.067 | | 2K | \~\$0.036 | \$0.101 | | 4K | \~\$0.06 | \$0.151 | 以上为预估值,实际按输入和输出的 tokens 计算。可叠加充值活动最多送 20% 额度,进一步降低成本。 ## Nano Banana 第一代定价 模型名:`gemini-2.5-flash-image` 仅支持 1K 图片,固定按次计费。 | 计费项 | API易 | 谷歌官方 | 折扣 | | ---- | -------- | --------- | --------- | | 单张价格 | \$0.02/次 | \$0.039/次 | **约 5 折** | 同样参与充值活动可进一步降低成本。 ## 充值活动:更能降本 通过参与充值加赠活动,可在已有优惠基础上进一步降低成本。 查看当前充值加赠活动详情和各档位加赠比例。 前往管理后台创建和管理 API 令牌。 ## 令牌类型选择建议 选择令牌类型时,令牌的「Billing model」设置决定了计费方式。请根据你的主要使用场景选择: | 模型 | 使用场景 | 推荐令牌类型 | | --------------- | ------------ | ------ | | Nano Banana Pro | 1-4K 混合使用 | 按量优先 | | Nano Banana Pro | 只跑 4K | 按次计费 | | Nano Banana 2 | 0.5K-4K 混合使用 | 按量优先 | | Nano Banana 2 | 只用 4K | 按次计费 | **简单原则**:如果你主要生成 4K 图片,选**按次计费**更划算(不区分分辨率统一价格);如果分辨率混合使用,选**按量计费**可以在低分辨率时节省更多。 ## 相关文档 * [Nano Banana 2 生图/编辑](/api-capabilities/nano-banana-2-image/overview) - Nano Banana 2 完整使用指南 * [Nano Banana Pro 图片生成](/api-capabilities/nano-banana-image) - Nano Banana Pro 使用指南 * [Nano Banana Pro 图片编辑](/api-capabilities/nano-banana-image-edit) - 图片编辑功能 * [充值加赠活动](/faq/recharge-promotions) - 充值优惠详情 # OpenAI Responses 支持 Source: https://docs.apiyi.com/api-capabilities/openai-responses 新一代智能体API - 结合对话补全的简洁性与强大的工具调用能力 # /v1/responses 请求端点 介绍 API易 全面支持 OpenAI 最新的 Responses API,这是 2025年3月推出的新一代智能体构建接口。Responses API 结合了 Chat Completions 的简洁性与 Assistants API 的工具使用和状态管理能力,为开发者提供更灵活、更强大的AI应用构建体验。 **新一代API**:Responses API 是 Chat Completions 的超集,提供 Chat Completions 功能的同时,还支持内置工具、状态管理等高级特性。—— 但是它仅支持少数新的 OpenAI 模型,具体请看下文。 ## 🚀 核心特性 Web搜索、文件搜索、代码解释器、函数调用等丰富工具 通过 previous\_response\_id 维护对话上下文和状态 O3/O4-mini 推理模型的推理令牌在请求间保持连续 支持所有支持工具的 GPT-4.1、O3系列模型 ## 📋 支持的模型 ### 推理模型(推荐) * **O3 系列**:`o3`, `o3-pro`, `o4-mini` * **特色**:推理令牌跨请求保持,提供更智能的上下文理解 ### 对话模型 * **GPT-4.1 系列**:`gpt-4.1`, `gpt-4.1-mini` * **特色**:强大的工具调用和多模态能力 **模型要求**:只有较新的模型才支持 `/v1/responses` 端点。旧模型如 GPT-3.5 不支持此接口。 ## 🔧 基础用法 ### 简单对话 ```bash cURL theme={null} curl https://api.apiyi.com/v1/responses \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "model": "gpt-4.1", "input": "Hello! How can you help me today?", "instructions": "You are a helpful assistant." }' ``` ```python Python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.responses.create( model="gpt-4.1", input="Hello! How can you help me today?", instructions="You are a helpful assistant." ) print(response.output[0].content[0].text) ``` ```javascript Node.js theme={null} import OpenAI from 'openai'; const openai = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); const response = await openai.responses.create({ model: 'gpt-4.1', input: 'Hello! How can you help me today?', instructions: 'You are a helpful assistant.' }); console.log(response.output[0].content[0].text); ``` ### 实际响应示例 基于您的测试结果,以下是完整的响应格式: ```json theme={null} { "id": "resp_6884fcab4930819dbbc02f15cbe63f6c0a92c38ff214d10a", "object": "response", "created_at": 1753545899, "status": "completed", "background": false, "error": null, "incomplete_details": null, "instructions": "You are a helpful assistant.", "max_output_tokens": null, "max_tool_calls": null, "model": "gpt-4.1-2025-04-14", "output": [ { "id": "msg_6884fcab8f18819dbcdf349f01b424f80a92c38ff214d10a", "type": "message", "status": "completed", "content": [ { "type": "output_text", "annotations": [], "logprobs": [], "text": "Hello! How can I assist you today?" } ], "role": "assistant" } ], "parallel_tool_calls": true, "previous_response_id": null, "prompt_cache_key": null, "reasoning": { "effort": null, "summary": null }, "safety_identifier": null, "service_tier": "default", "store": true, "temperature": 1.0, "text": { "format": { "type": "text" } }, "tool_choice": "auto", "tools": [], "top_logprobs": 0, "top_p": 1.0, "truncation": "disabled", "usage": { "input_tokens": 19, "input_tokens_details": { "cached_tokens": 0 }, "output_tokens": 10, "output_tokens_details": { "reasoning_tokens": 0 }, "total_tokens": 29 }, "user": null, "metadata": {} } ``` ## 📊 请求参数详解 ### 必需参数 | 参数 | 类型 | 说明 | | ------- | ------ | ---------------------- | | `model` | string | 模型名称,如 `gpt-4.1`, `o3` | | `input` | string | 用户输入内容 | ### 可选参数 | 参数 | 类型 | 默认值 | 说明 | | ---------------------- | ------- | ------ | ----------------- | | `instructions` | string | null | 系统指令,定义助手行为 | | `previous_response_id` | string | null | 上一个响应的 ID,用于维护上下文 | | `temperature` | float | 1.0 | 控制输出随机性 (0-2) | | `max_output_tokens` | int | null | 最大输出令牌数 | | `tools` | array | \[] | 可用工具列表 | | `tool_choice` | string | "auto" | 工具选择策略 | | `parallel_tool_calls` | boolean | true | 是否允许并行工具调用 | | `store` | boolean | true | 是否存储对话用于训练 | | `metadata` | object | 自定义元数据 | | ## 🛠️ 内置工具支持 ### 1. 函数调用 ```python theme={null} response = client.responses.create( model="gpt-4.1", input="What's the weather like in Beijing?", instructions="You are a helpful weather assistant.", tools=[ { "type": "function", "function": { "name": "get_weather", "description": "Get current weather for a city", "parameters": { "type": "object", "properties": { "city": { "type": "string", "description": "City name" } }, "required": ["city"] } } } ] ) ``` ### 2. 代码解释器 ```python theme={null} response = client.responses.create( model="gpt-4.1", input="Create a chart showing sales data: Jan:100, Feb:150, Mar:120", instructions="You are a data analyst. Use code interpreter to create visualizations.", tools=[{"type": "code_interpreter"}] ) ``` ### 3. 文件搜索 ```python theme={null} response = client.responses.create( model="gpt-4.1", input="Search for information about quarterly reports", instructions="You are a document analyst.", tools=[{"type": "file_search"}] ) ``` ## 🔄 状态管理 ### 维护对话上下文 ```python theme={null} # 第一轮对话 response1 = client.responses.create( model="gpt-4.1", input="My name is Alice. Please remember this.", instructions="You are a helpful assistant with good memory." ) # 第二轮对话 - 使用 previous_response_id 维护上下文 response2 = client.responses.create( model="gpt-4.1", input="What's my name?", instructions="You are a helpful assistant with good memory.", previous_response_id=response1.id ) print(response2.output[0].content[0].text) # 应该回答 "Alice" ``` ### 多轮工具调用 ```python theme={null} def multi_turn_conversation(): response_id = None for user_input in ["What's 2+2?", "Now multiply that by 3", "And divide by 2"]: response = client.responses.create( model="o3", input=user_input, instructions="You are a math tutor. Show your reasoning.", previous_response_id=response_id, tools=[{"type": "code_interpreter"}] ) print(f"User: {user_input}") print(f"Assistant: {response.output[0].content[0].text}") response_id = response.id # 保持上下文 ``` ## 📈 推理模型特性 ### O3/O4-mini 推理保持 推理模型在 Responses API 中具有特殊优势: ```python theme={null} # 使用 O3 进行复杂推理 response = client.responses.create( model="o3", input="Solve this step by step: If a train travels 120km in 2 hours, then speeds up 20% for the next hour, how far did it travel in total?", instructions="Think through this problem step by step, showing all reasoning." ) # 查看推理过程 reasoning_tokens = response.usage.output_tokens_details.reasoning_tokens print(f"Reasoning tokens used: {reasoning_tokens}") # 继续对话,推理上下文会保持 follow_up = client.responses.create( model="o3", input="Now what if the train slowed down 10% in the fourth hour?", previous_response_id=response.id ) ``` ## 🆚 与 Chat Completions 对比 | 特性 | Chat Completions | Responses API | | --------- | ---------------- | ------------- | | **基础对话** | ✅ 支持 | ✅ 支持 | | **流式响应** | ✅ 支持 | ✅ 支持 | | **函数调用** | ✅ 支持 | ✅ 增强支持 | | **内置工具** | ❌ 不支持 | ✅ 丰富工具 | | **状态管理** | ❌ 无状态 | ✅ 有状态 | | **推理保持** | ❌ 不支持 | ✅ O3/O4支持 | | **文件搜索** | ❌ 不支持 | ✅ 支持 | | **代码解释器** | ❌ 不支持 | ✅ 支持 | ### 迁移示例 从 Chat Completions 迁移到 Responses API: ```python Chat Completions theme={null} # 旧方式 response = client.chat.completions.create( model="gpt-4.1", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ] ) content = response.choices[0].message.content ``` ```python Responses API theme={null} # 新方式 response = client.responses.create( model="gpt-4.1", input="Hello!", instructions="You are a helpful assistant." ) content = response.output[0].content[0].text ``` ## 🔧 高级功能 ### 并行工具调用 ```python theme={null} response = client.responses.create( model="gpt-4.1", input="Get weather for Beijing and Shanghai, then calculate travel time between them", instructions="You are a travel assistant.", parallel_tool_calls=True, tools=[ {"type": "function", "function": {"name": "get_weather", ...}}, {"type": "function", "function": {"name": "calculate_distance", ...}} ] ) ``` ### 输出格式控制 ```python theme={null} response = client.responses.create( model="gpt-4.1", input="Summarize this data in JSON format", instructions="Always respond in valid JSON.", text={ "format": { "type": "json_object" } } ) ``` ### 推理努力控制(O3系列) ```python theme={null} response = client.responses.create( model="o3", input="Solve this complex physics problem", instructions="Think carefully and show detailed reasoning.", reasoning={ "effort": "high" # low, medium, high } ) ``` ## 📊 响应字段详解 ### 核心字段 | 字段 | 类型 | 说明 | | ------------ | ------- | -------------------------------- | | `id` | string | 响应唯一标识符 | | `object` | string | 固定为 "response" | | `created_at` | integer | 创建时间戳 | | `status` | string | 状态:completed/failed/in\_progress | | `model` | string | 实际使用的模型版本 | | `output` | array | 输出消息数组 | | `usage` | object | Token 使用统计 | ### 输出消息格式 ```json theme={null} { "id": "msg_xxx", "type": "message", "status": "completed", "content": [ { "type": "output_text", "text": "响应内容", "annotations": [], "logprobs": [] } ], "role": "assistant" } ``` ### 使用统计 ```json theme={null} { "usage": { "input_tokens": 19, "input_tokens_details": { "cached_tokens": 0 }, "output_tokens": 10, "output_tokens_details": { "reasoning_tokens": 0 // 仅推理模型 }, "total_tokens": 29 } } ``` ## 🚨 错误处理 ### 标准错误格式 ```json theme={null} { "error": { "type": "invalid_request_error", "code": "model_not_supported", "message": "The model 'gpt-3.5-turbo' is not supported for the responses endpoint.", "param": "model" } } ``` ### 常见错误 | 错误码 | 说明 | 解决方案 | | ------------------------------ | ------------------- | -------------------------- | | `model_not_supported` | 模型不支持 Responses API | 使用支持的新模型 | | `invalid_previous_response_id` | 无效的上一个响应ID | 检查响应ID是否正确 | | `tool_not_available` | 工具不可用 | 检查工具配置 | | `max_tokens_exceeded` | 超出令牌限制 | 减少输入或设置max\_output\_tokens | ## 💡 最佳实践 ### 1. 状态管理策略 ```python theme={null} class ConversationManager: def __init__(self, model="gpt-4.1", instructions="You are a helpful assistant."): self.model = model self.instructions = instructions self.last_response_id = None def send_message(self, input_text, tools=None): response = client.responses.create( model=self.model, input=input_text, instructions=self.instructions, previous_response_id=self.last_response_id, tools=tools or [] ) self.last_response_id = response.id return response.output[0].content[0].text def reset_conversation(self): self.last_response_id = None # 使用示例 conv = ConversationManager() print(conv.send_message("Hello, I'm Alice")) print(conv.send_message("What's my name?")) # 会记住是 Alice ``` ### 2. 工具调用优化 ```python theme={null} def smart_tool_calling(user_input): # 根据输入智能选择工具 available_tools = [] if "weather" in user_input.lower(): available_tools.append(weather_tool) if "calculate" in user_input.lower(): available_tools.append(calculator_tool) if "search" in user_input.lower(): available_tools.append(search_tool) response = client.responses.create( model="gpt-4.1", input=user_input, instructions="Use the appropriate tools to help the user.", tools=available_tools, tool_choice="auto" ) return response ``` ### 3. 推理模型优化 ```python theme={null} def optimized_reasoning(complex_problem): response = client.responses.create( model="o3", input=complex_problem, instructions="Think step by step and show your reasoning process.", reasoning={ "effort": "high" # 对复杂问题使用高推理努力 }, temperature=0.1 # 降低随机性以获得一致结果 ) # 分析推理使用情况 reasoning_tokens = response.usage.output_tokens_details.reasoning_tokens total_cost = calculate_cost(response.usage) return { "answer": response.output[0].content[0].text, "reasoning_tokens": reasoning_tokens, "cost": total_cost } ``` ## 🔮 未来发展 ### 即将推出的功能 1. **完整的 Assistants API 功能集成**(2026年上半年) 2. **更多内置工具**:Web搜索、计算机使用等 3. **模型上下文协议 (MCP) 支持** 4. **增强的多模态能力** ### 迁移时间线 * **现在**:可以开始使用 Responses API * **2026年上半年**:功能对等 Assistants API * **2026年**:Assistants API 弃用公告 * **2027年**:完全迁移到 Responses API **开发建议**:新项目推荐直接使用 Responses API,现有项目可以逐步迁移。API易 将持续跟进 OpenAI 的更新,确保功能完整性。 *** 需要更多帮助?请访问 [API易官网](https://api.apiyi.com) 或查看 [OpenAI Responses API 官方文档](https://platform.openai.com/docs/api-reference/responses)。 # OpenAI 官方库使用 Source: https://docs.apiyi.com/api-capabilities/openai-sdk 使用官方 OpenAI SDK 无缝接入 API易 服务 # 在 OpenAI 官方库使用 API易 完全兼容 OpenAI API 格式,您可以直接使用官方 OpenAI SDK,只需简单修改配置即可无缝切换到 API易 服务。 ## 支持的官方 SDK API易 支持所有官方 OpenAI SDK: * Python (`openai`) * Node.js (`openai`) * .NET (`OpenAI`) * Go (`go-openai`) * Java (第三方) * PHP (第三方) * Ruby (第三方) ## Python SDK ### 安装 ```bash theme={null} pip install openai ``` ### 基础配置 ```python theme={null} from openai import OpenAI # 配置 API易 服务 client = OpenAI( api_key="YOUR_API_KEY", # 您的 API易 密钥 base_url="https://api.apiyi.com/v1" # API易 端点 ) # 使用方式与官方完全相同 response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[ {"role": "user", "content": "Hello!"} ] ) print(response.choices[0].message.content) ``` ### 环境变量配置 ```python theme={null} import os from openai import OpenAI # 设置环境变量 os.environ["OPENAI_API_KEY"] = "YOUR_API_KEY" os.environ["OPENAI_BASE_URL"] = "https://api.apiyi.com/v1" # 使用默认配置 client = OpenAI() response = client.chat.completions.create( model="gpt-4", messages=[{"role": "user", "content": "Explain quantum computing"}] ) ``` ### 异步使用 ```python theme={null} import asyncio from openai import AsyncOpenAI async def main(): client = AsyncOpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = await client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello!"}] ) print(response.choices[0].message.content) asyncio.run(main()) ``` ### 流式输出 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) stream = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Write a short story"}], stream=True ) for chunk in stream: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="") ``` ## Node.js SDK ### 安装 ```bash theme={null} npm install openai ``` ### 基础配置 ```javascript theme={null} import OpenAI from 'openai'; const openai = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); const response = await openai.chat.completions.create({ model: 'gpt-3.5-turbo', messages: [{ role: 'user', content: 'Hello!' }] }); console.log(response.choices[0].message.content); ``` ### 环境变量配置 ```javascript theme={null} // 设置环境变量 process.env.OPENAI_API_KEY = 'YOUR_API_KEY'; process.env.OPENAI_BASE_URL = 'https://api.apiyi.com/v1'; import OpenAI from 'openai'; // 使用默认配置 const openai = new OpenAI(); const response = await openai.chat.completions.create({ model: 'gpt-4', messages: [{ role: 'user', content: 'Explain AI to a 5-year-old' }] }); ``` ### 流式输出 ```javascript theme={null} const stream = await openai.chat.completions.create({ model: 'gpt-3.5-turbo', messages: [{ role: 'user', content: 'Tell me a joke' }], stream: true }); for await (const chunk of stream) { if (chunk.choices[0]?.delta?.content) { process.stdout.write(chunk.choices[0].delta.content); } } ``` ### TypeScript 支持 ```typescript theme={null} import OpenAI from 'openai'; import type { ChatCompletionCreateParamsNonStreaming } from 'openai/resources/chat/completions'; const openai = new OpenAI({ apiKey: process.env.OPENAI_API_KEY!, baseURL: 'https://api.apiyi.com/v1' }); const params: ChatCompletionCreateParamsNonStreaming = { model: 'gpt-3.5-turbo', messages: [{ role: 'user', content: 'Hello TypeScript!' }], temperature: 0.7 }; const response = await openai.chat.completions.create(params); ``` ## .NET SDK ### 安装 ```bash theme={null} dotnet add package OpenAI ``` ### 基础配置 ```csharp theme={null} using OpenAI; using OpenAI.Chat; var client = new OpenAIClient("YOUR_API_KEY", new OpenAIClientOptions { Endpoint = new Uri("https://api.apiyi.com/v1") }); var chatClient = client.GetChatClient("gpt-3.5-turbo"); var response = await chatClient.CompleteChatAsync("Hello!"); Console.WriteLine(response.Value.Content[0].Text); ``` ### 流式输出 ```csharp theme={null} await foreach (var update in chatClient.CompleteChatStreamingAsync("Tell me a story")) { if (update.ContentUpdate.Count > 0) { Console.Write(update.ContentUpdate[0].Text); } } ``` ## Go SDK ### 安装 ```bash theme={null} go get github.com/sashabaranov/go-openai ``` ### 基础配置 ```go theme={null} package main import ( "context" "fmt" "github.com/sashabaranov/go-openai" ) func main() { config := openai.DefaultConfig("YOUR_API_KEY") config.BaseURL = "https://api.apiyi.com/v1" client := openai.NewClientWithConfig(config) resp, err := client.CreateChatCompletion( context.Background(), openai.ChatCompletionRequest{ Model: openai.GPT3Dot5Turbo, Messages: []openai.ChatCompletionMessage{ { Role: openai.ChatMessageRoleUser, Content: "Hello!", }, }, }, ) if err != nil { fmt.Printf("Error: %v\n", err) return } fmt.Println(resp.Choices[0].Message.Content) } ``` ### 流式输出 ```go theme={null} stream, err := client.CreateChatCompletionStream( context.Background(), openai.ChatCompletionRequest{ Model: openai.GPT3Dot5Turbo, Messages: []openai.ChatCompletionMessage{ { Role: openai.ChatMessageRoleUser, Content: "Write a haiku", }, }, Stream: true, }, ) if err != nil { fmt.Printf("Error: %v\n", err) return } defer stream.Close() for { response, err := stream.Recv() if errors.Is(err, io.EOF) { break } if err != nil { fmt.Printf("Error: %v\n", err) return } fmt.Print(response.Choices[0].Delta.Content) } ``` ## Java SDK ### 依赖配置 ```xml theme={null} com.theokanning.openai-gpt3-java service 0.18.2 ``` ### 基础使用 ```java theme={null} import com.theokanning.openai.OpenAiService; import com.theokanning.openai.completion.chat.*; import java.time.Duration; import java.util.List; public class APIYiExample { public static void main(String[] args) { OpenAiService service = new OpenAiService( "YOUR_API_KEY", Duration.ofSeconds(60), "https://api.apiyi.com/v1/" ); ChatCompletionRequest request = ChatCompletionRequest.builder() .model("gpt-3.5-turbo") .messages(List.of( new ChatMessage(ChatMessageRole.USER, "Hello!") )) .build(); ChatCompletionResult result = service.createChatCompletion(request); System.out.println(result.getChoices().get(0).getMessage().getContent()); } } ``` ## 模型切换 ### 使用不同模型 ```python theme={null} # GPT 模型 response = client.chat.completions.create( model="gpt-4", messages=[{"role": "user", "content": "Hello"}] ) # Claude 模型 response = client.chat.completions.create( model="claude-3-opus-20240229", messages=[{"role": "user", "content": "Hello"}] ) # Gemini 模型 response = client.chat.completions.create( model="gemini-pro", messages=[{"role": "user", "content": "Hello"}] ) ``` ### 动态模型选择 ```python theme={null} def chat_with_model(message: str, model: str = "gpt-3.5-turbo"): """支持动态切换模型的聊天函数""" response = client.chat.completions.create( model=model, messages=[{"role": "user", "content": message}] ) return response.choices[0].message.content # 使用不同模型 print(chat_with_model("解释量子计算", "gpt-4")) print(chat_with_model("解释量子计算", "claude-3-opus-20240229")) print(chat_with_model("解释量子计算", "gemini-pro")) ``` ## 高级功能 ### Function Calling ```python theme={null} tools = [ { "type": "function", "function": { "name": "get_weather", "description": "获取指定城市的天气信息", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "城市名称" } }, "required": ["location"] } } } ] response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "北京天气怎么样?"}], tools=tools, tool_choice="auto" ) if response.choices[0].message.tool_calls: print("AI 想要调用函数:", response.choices[0].message.tool_calls[0].function.name) ``` ### 图像输入 ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=[ { "role": "user", "content": [ {"type": "text", "text": "这张图片里有什么?"}, { "type": "image_url", "image_url": { "url": "https://example.com/image.jpg" } } ] } ] ) ``` ### 嵌入向量 ```python theme={null} response = client.embeddings.create( model="text-embedding-3-small", input="要嵌入的文本内容" ) embedding = response.data[0].embedding print(f"向量维度:{len(embedding)}") ``` ## 错误处理 ### 基础错误处理 ```python theme={null} from openai import OpenAI, OpenAIError try: response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello"}] ) except OpenAIError as e: print(f"API 错误:{e}") ``` ### 详细错误处理 ```python theme={null} from openai import ( OpenAI, APIError, APIConnectionError, RateLimitError, InternalServerError ) try: response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello"}] ) except RateLimitError: print("请求频率超限,请稍后重试") except APIConnectionError: print("网络连接错误") except InternalServerError: print("服务器内部错误") except APIError as e: print(f"API 错误:{e}") ``` ## 最佳实践 ### 1. 配置管理 ```python theme={null} import os from openai import OpenAI class APIYiClient: def __init__(self): self.client = OpenAI( api_key=os.getenv("APIYI_API_KEY"), base_url=os.getenv("APIYI_BASE_URL", "https://api.apiyi.com/v1") ) def chat(self, message: str, model: str = "gpt-3.5-turbo"): return self.client.chat.completions.create( model=model, messages=[{"role": "user", "content": message}] ) ``` ### 2. 重试机制 ```python theme={null} import time import random from openai import OpenAI, RateLimitError def chat_with_retry(client, messages, max_retries=3): for attempt in range(max_retries): try: return client.chat.completions.create( model="gpt-3.5-turbo", messages=messages ) except RateLimitError: if attempt < max_retries - 1: wait_time = (2 ** attempt) + random.uniform(0, 1) time.sleep(wait_time) else: raise ``` ### 3. 成本控制 ```python theme={null} def controlled_chat(message: str, max_tokens: int = 150): """控制输出长度以管理成本""" response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": message}], max_tokens=max_tokens, temperature=0.7 ) return response ``` ## 迁移指南 ### 从 OpenAI 迁移 如果您已经在使用 OpenAI 官方服务,迁移到 API易 非常简单: 1. **更改 base\_url** ```python theme={null} # 原来的配置 client = OpenAI(api_key="sk-...") # 改为 API易 client = OpenAI( api_key="YOUR_APIYI_KEY", base_url="https://api.apiyi.com/v1" ) ``` 2. **更新环境变量** ```bash theme={null} # 原来 export OPENAI_API_KEY="sk-..." # 改为 export OPENAI_API_KEY="YOUR_APIYI_KEY" export OPENAI_BASE_URL="https://api.apiyi.com/v1" ``` 3. **代码无需修改** 所有其他代码保持不变,包括: * 方法调用 * 参数格式 * 响应处理 ### 多服务兼容 ```python theme={null} class MultiProviderClient: def __init__(self): self.apiyi_client = OpenAI( api_key="APIYI_KEY", base_url="https://api.apiyi.com/v1" ) self.openai_client = OpenAI(api_key="OPENAI_KEY") def chat(self, message: str, provider: str = "apiyi"): client = self.apiyi_client if provider == "apiyi" else self.openai_client return client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": message}] ) ``` 需要更多帮助?请访问 [API易官网](https://vip.apiyi.com) 或查看 [官方 SDK 文档](https://platform.openai.com/docs/libraries)。 # Qwen3.6 系列文本模型 Source: https://docs.apiyi.com/api-capabilities/qwen-3-6/overview 阿里通义千问 Qwen3.6 系列:Max-Preview 编程旗舰 + Flash 极速多模态 + Plus 均衡主力 + 27B / 35B-A3B 开源版(API易官转托管,免租卡)。全系阿里云官转通道,OpenAI Chat 兼容直接调用,挂牌价持平官网,叠加充值加赠约 8.5 折。 Qwen3.6 是阿里通义千问团队在 2026 年第二季度推出的新一代大模型家族,整体路线分为 **Max**(旗舰)、**Plus**(均衡)、**Flash**(极速)三个闭源生产档位,外加 **27B**、**35B-A3B** 两款开源权重版本。API易 通过 **阿里云官转 / 自建官转** 通道接入全部 5 款模型,OpenAI Chat Completions 兼容格式直接调用——闭源版鉴权与限流策略与阿里云官网一致;**开源版由 API易 官转托管,免去客户租 GPU、买算力的负担**。 **🚀 核心亮点**:Max-Preview 在 SWE-bench Pro / Terminal-Bench 2.0 等 **6 项编程基准登顶**,Flash 是 35B-A3B MoE、原生 256K 可扩 1M 多模态上下文,Plus 是 72B/18B 激活的均衡主力(1M 上下文)。开源 **`qwen3.6-27b`**(27B 稠密)与 **`qwen3.6-35b-a3b`**(35B MoE / 3B 激活)由 API易 官转托管,按量付费、不用自己租卡。**适合编程 Agent、长上下文 RAG、多模态批量分发,以及需要可控权重 / 合规审计** 的生产场景。 ### 闭源生产版(阿里云官转) **编程旗舰** 国产编程登顶:6 项 Coding 基准 #1,AIME 2025 93%,GPQA 86%,LiveCodeBench 79%。 **极速多模态** 35B-A3B MoE,文本 / 图像 / 视频原生输入,256K 基础可扩 1M 上下文。 **均衡主力** 72B 总参 / 18B 激活,1M 上下文,Terminal-Bench 61.6 超越 Claude Opus 4.5。 ### 开源权重版(API易官转托管 · 免租卡) **27B 稠密 · 编程小钢炮** Qwen 团队开源权重(Hugging Face `Qwen/Qwen3.6-27B`),27B 编程能力对标 397B 量级模型。API易 官转托管,无需本地 GPU。 **35B-A3B 开源 MoE** Qwen 团队开源权重(Hugging Face `Qwen/Qwen3.6-35B-A3B`),与闭源 Flash 同源不同档位,3B 激活极低算力成本。 ## 为什么选 API易 的 Qwen3.6 阿里云官转? 对标阿里云百炼官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化: 通过阿里云百炼官方通道接入,鉴权与限流策略与官网一致,国内机房与家宽网络延迟稳定,企业级 SLA。 无 RPM / TPM 上限封顶(受底层供给限制),企业客户可按需放量;支持工单与专属群协助高并发调度。 挂牌单价与阿里云官网一致,叠加 [充值加赠活动](/faq/recharge-promotions),长期使用成本约 **官网 8.5 折**。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,免去出海改造。 OpenAI Chat Completions 兼容格式,配合 GPT / Claude / DeepSeek / GLM 等 [全模型生态](/api-capabilities/model-info) 可无缝切换。 团队深耕大模型选型与 Agent 工作流,可为企业客户提供从 PoC、灰度到生产上线的完整技术支持。 ## 五款模型怎么选 **场景**:Coding Agent 主力、SWE-Verified 类真实软工任务、Cursor / Claude Code 工作流主驱动模型。 **基准**:SWE-bench Pro 58.4(反超 GLM-5.1 56.6)、AIME 2025 93%、GPQA 86%、LiveCodeBench 79%、Terminal-Bench 2.0 #1。 **注意**:标记为 Preview,权重仍在迭代,关键链路建议先小流量灰度。 **场景**:图像 / 视频理解、长文档总结、批量翻译、RAG 后整篇综合归纳。 **结构**:35B 总参 / 3B 激活的 MoE(35B-A3B),原生 256K 可扩展至 1M tokens。 **多模态**:原生支持文本 / 图像 / 视频输入,单价仅 Max 的约 1/8。 **场景**:日常对话、客服、内容生成、企业知识库问答、中等复杂度推理。 **结构**:72B 总参 / 18B 激活的 MoE,推理速度约 Claude Opus 4.6 的 3 倍。 **基准**:Terminal-Bench 2.0 达 61.6 超越 Claude Opus 4.5(59.3),SWE-bench Verified 78.8。 **场景**:成本敏感的编程辅助、私有化部署评估前的 API 验证、对开源协议 / 可审计权重有合规要求的客户。 **特点**:27B 稠密结构,开源权重,编程能力对标 397B 级别。API易 官转托管,按量计费,无需本地 GPU。 **场景**:高频低成本场景、希望未来切换为本地推理的过渡期、合规要求权重可下载的项目。 **特点**:与闭源 Flash 同源(35B 总参 / 3B 激活),开源版本由 API易 托管,省去租卡 / 部署 / 运维。 **推荐策略**:Flash 默认 + Plus 升级 + Max-Preview 兜顶;成本敏感场景再下沉到开源 27b / 35b-a3b。 常规对话与多模态批量交给 Flash;需要更强推理时升级到 Plus;编程 Agent / 复杂推理 / 多步规划升级到 Max-Preview;对成本极敏感或需可审计权重的场景下沉到开源版。 ## 模型定价 全系采用 **按量付费 - Chat** 计费模式:闭源生产版(Max-Preview / Flash / Plus)按 **单次请求输入 token 数** 决定整请求单价档位(阶梯计费);开源版(27b / 35b-a3b)为**单一档位平价计费**,不分档。挂牌价持平阿里云官网,叠加 API易 充值加赠后实际单价约 **官网 8.5 折**。 ### qwen3.6-max-preview | 单次输入 tokens | 提示价格(输入) | 补全价格(输出) | | --------------- | -------------------- | --------------------- | | **0 – 128K** | \$1.2800 / 1M tokens | \$7.6800 / 1M tokens | | **128K – 256K** | \$2.1200 / 1M tokens | \$12.7200 / 1M tokens | ### qwen3.6-flash | 单次输入 tokens | 提示价格(输入) | 补全价格(输出) | | ---------------- | -------------------- | -------------------- | | **0 – 256K** | \$0.1700 / 1M tokens | \$1.0200 / 1M tokens | | **256K – 1000K** | \$0.6800 / 1M tokens | \$4.0800 / 1M tokens | ### qwen3.6-plus | 单次输入 tokens | 提示价格(输入) | 补全价格(输出) | | ---------------- | -------------------- | -------------------- | | **0 – 256K** | \$0.3000 / 1M tokens | \$1.8000 / 1M tokens | | **256K – 1000K** | \$1.2000 / 1M tokens | \$7.2000 / 1M tokens | ### qwen3.6-27b(开源版 · API易官转托管) | 计费方式 | 提示价格(输入) | 补全价格(输出) | | ----------- | -------------------- | -------------------- | | **平价(不分档)** | \$0.4200 / 1M tokens | \$2.5200 / 1M tokens | ### qwen3.6-35b-a3b(开源版 · API易官转托管) | 计费方式 | 提示价格(输入) | 补全价格(输出) | | ----------- | -------------------- | -------------------- | | **平价(不分档)** | \$0.2600 / 1M tokens | \$1.5600 / 1M tokens | **计费说明**: * **闭源生产版(阶梯计费)**:单价档位由**单次请求的总输入 tokens** 决定,整次请求的所有 tokens(输入 + 输出)按对应档位的单价计费。**跨档不分摊**——例如 Flash 单次输入 300K tokens 落入 `256K – 1000K` 档,整请求按 \$0.68 / \$4.08 计价;不会出现"前 256K 按低价、后 44K 按高价"的拆分。 * **开源版(平价计费)**:`qwen3.6-27b` 与 `qwen3.6-35b-a3b` 由 API易 官转托管,单价不分档;客户无需自行租 GPU 或部署本地推理,按实际消耗 token 数直接结算。 * 挂牌价持平阿里云百炼官网,叠加 [充值加赠](/faq/recharge-promotions) 实际单价约 **8.5 折**。 * 缓存命中价当前未单独披露,按基础档计价。 ## 技术规格 ### 闭源生产版 | 维度 | qwen3.6-max-preview | qwen3.6-flash | qwen3.6-plus | | ------------------- | --------------------- | --------------- | ---------------- | | **模型 ID** | `qwen3.6-max-preview` | `qwen3.6-flash` | `qwen3.6-plus` | | **架构** | 稠密大模型 | MoE 35B-A3B | MoE 72B / 18B 激活 | | **上下文** | 262K tokens | 256K(可扩 1M) | 1M tokens | | **输入模态** | 文本 | 文本 / 图像 / 视频 | 文本 | | **输出格式** | 文本 | 文本 | 文本 | | **流式输出** | ✅ 支持 | ✅ 支持 | ✅ 支持 | | **函数调用 / Tool Use** | ✅ 支持 | ✅ 支持 | ✅ 支持 | | **思维链** | ✅ 推理任务自动启用 | — | ✅ 始终开启 | | **计费模式** | 按量付费 - Chat(阶梯) | 按量付费 - Chat(阶梯) | 按量付费 - Chat(阶梯) | | **通道** | 阿里云官转 | 阿里云官转 | 阿里云官转 | ### 开源权重版(API易官转托管) | 维度 | qwen3.6-27b | qwen3.6-35b-a3b | | ------------------- | ------------------------------------------ | ---------------------------------------------- | | **模型 ID** | `qwen3.6-27b` | `qwen3.6-35b-a3b` | | **架构** | 27B 稠密 | MoE 35B 总参 / 3B 激活 | | **开源协议** | Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-27B`) | Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-35B-A3B`) | | **上下文** | 与官方权重一致(详见模型卡片) | 与官方权重一致(详见模型卡片) | | **输入模态** | 文本 | 文本 | | **流式输出** | ✅ 支持 | ✅ 支持 | | **函数调用 / Tool Use** | ✅ 支持 | ✅ 支持 | | **计费模式** | 按量付费 - Chat(平价不分档) | 按量付费 - Chat(平价不分档) | | **通道** | API易 官转托管 | API易 官转托管 | **开源版的价值**:开源版本权重在 Hugging Face 公开可下载,但跑起来需要 GPU、显存与运维。**API易 把开源权重托管到官转通道**,客户用 API 直接调用即可——既保留"权重可审计、协议可控"的合规优势,又免去租卡、部署、运维的成本。 ## 端点一览 | 端点 | 方法 | Content-Type | 用途 | | ---------------------- | ------ | ------------------ | ------------------------------------------ | | `/v1/chat/completions` | `POST` | `application/json` | 对话 / 推理 / 工具调用(**5 款模型共用**,仅 `model` 字段区分) | **域名选择**:`api.apiyi.com` 为主域名,也可使用 `b.apiyi.com` / `vip.apiyi.com` 等平台提供的其他网关域名,响应行为一致。`base_url` 设为 `https://api.apiyi.com/v1` 即可使用 OpenAI / OpenAI 兼容 SDK 直接调用。 ## 调用示例 ### Python(OpenAI SDK 兼容) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) # Max-Preview:编程 Agent 主驱动 resp = client.chat.completions.create( model="qwen3.6-max-preview", messages=[ {"role": "system", "content": "你是一个资深 Python 工程师,按规范返回 unified diff。"}, {"role": "user", "content": "为下面这段代码补充类型注解并修复潜在 bug ..."} ] ) print(resp.choices[0].message.content) # Flash:图像 + 文本多模态输入 resp = client.chat.completions.create( model="qwen3.6-flash", messages=[ {"role": "user", "content": [ {"type": "text", "text": "请用中文描述这张图片的关键信息"}, {"type": "image_url", "image_url": {"url": "https://your-image-url.png"}} ]} ] ) print(resp.choices[0].message.content) # Plus:日常对话与中等复杂推理 resp = client.chat.completions.create( model="qwen3.6-plus", messages=[{"role": "user", "content": "用一句话介绍你自己"}] ) print(resp.choices[0].message.content) ``` ### Node.js ```javascript theme={null} import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'sk-your-api-key', baseURL: 'https://api.apiyi.com/v1', }); const resp = await client.chat.completions.create({ model: 'qwen3.6-plus', messages: [{ role: 'user', content: '用一句话介绍你自己' }], }); console.log(resp.choices[0].message.content); ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "qwen3.6-max-preview", "messages": [ {"role": "user", "content": "解释一下什么是 MoE 架构"} ] }' ``` ## 最佳实践 Flash 默认处理常规对话 / 分类 / 多模态批量;Plus 处理中等复杂推理与企业知识库问答;只在编程 Agent / 复杂规划 / 数学竞赛级推理时升级到 Max-Preview。能省一档成本就降一档。 上线前先估算 P95 输入 token 数:Max-Preview 跨过 128K、Flash / Plus 跨过 256K 后单价显著上升。建议把超长上下文先做摘要 / 分段,控制 P95 在低档区间内。 Flash 支持 1M 上下文与视频输入,但单次过长会触发高档单价。建议把超长视频先切片再喂入,按 256K 分批控制单次成本。 `qwen3.6-max-preview` 标记为 Preview,权重仍在迭代。关键链路建议先小流量灰度 + AB 比对,待版本稳定后再切主流量。 三款模型均支持 OpenAI 风格的 `tools` 字段与 `stream: true`,可直接复用现有 OpenAI Agent 框架(OpenClaw / LangChain / LlamaIndex 等)的工具调用逻辑。 挂牌价已与官网持平,叠加 [充值加赠活动](/faq/recharge-promotions) 后实际单价约 **8.5 折**。大额充值(\$1000+)档位赠送比例更高,长期使用建议一次性充值到位。 ## 错误码与重试 | 状态码 | 含义 | 处理建议 | | ----- | ------------ | ------------------------------------------- | | `400` | 参数错误 / 模型名错误 | 检查 `model` 字段拼写、`messages` 结构、超长输入是否超出最大上下文 | | `401` | 令牌无效 | 检查 Bearer Token 是否正确 | | `403` | 内容审核拦截 | 调整 prompt 或参考输入,避开违规内容 | | `429` | 限流 / 余额不足 | 指数退避重试,并检查账户余额 | | `5xx` | 网关 / 后端错误 | 重试 1–2 次,仍失败请提交工单 | | 超时 | 长尾响应 | 客户端超时建议 ≥ **120 秒**(思维链或长上下文请求耗时较长) | **建议客户端**: * 请求超时 **120 秒** 起步(Max-Preview 推理 / Plus 思维链长上下文请求耗时较长) * 对 5xx 与超时做 **指数退避重试**(建议 2 次) * 记录响应头 `x-request-id` 方便排查 ## 常见问题 是。5 款模型共用 `/v1/chat/completions` 端点,OpenAI Chat Completions 兼容格式,仅 `model` 字段不同(`qwen3.6-max-preview` / `qwen3.6-flash` / `qwen3.6-plus` / `qwen3.6-27b` / `qwen3.6-35b-a3b`),可在同一份代码里按需切换。 主要差别有三:**(1) 权重可下载**——开源版本可在 Hugging Face 拉取权重,便于内部审计、合规备案或后续切换为本地推理;**(2) 算力托管**——API易 把开源权重托管到官转通道,客户调 API 即可,省去租卡、部署与运维成本;**(3) 计费简单**——开源版按量平价计费,不分档,预算可控。能力上 35B-A3B 与闭源 Flash 同源不同档位,27B 是独立的稠密模型,编程能力对标更大参数量级模型。 本地跑开源大模型至少需要:合适的 GPU(27B 至少 A100 40G ×1,35B-A3B 显存更高)、推理框架(vLLM / TensorRT-LLM)、监控告警、容灾、版本升级流程。**API易 官转托管把这些全部托掉**,按 token 计费,按需扩缩,且与闭源版共用同一份 OpenAI 兼容 SDK——开发期用 API 跑通,生产期再决定要不要切自托管,路径平滑。 单价档位由**单次请求的总输入 token 数**决定,整次请求的所有 token(输入 + 输出)按对应档位的单价计费。例如 Flash 单次输入 300K tokens 落入 `256K – 1000K` 档,整请求按 \$0.68 / \$4.08 计价,不会拆分前 256K 与后 44K。 可以,但建议先做小流量灰度。Qwen 团队已明确表示后续版本仍会迭代权重,关键链路上线前建议跑 AB 比对,记录基准任务表现,待版本稳定后再切主流量。 使用 OpenAI Vision 兼容格式:`messages` 中 `content` 字段传入数组,每个元素为 `{type: "text", text: ...}` 或 `{type: "image_url", image_url: {url: ...}}`。视频输入按官方文档使用 `video_url` / 帧采样字段。 挂牌价完全持平阿里云百炼官网。区别在于 API易 上叠加 [充值加赠活动](/faq/recharge-promotions) 后,实际单价约官网 **8.5 折**;同时账户支持 OpenAI 全生态切换(GPT / Claude / Gemini / DeepSeek / GLM 等),无需重复开多个供应商账号。 支持。三款模型均兼容 OpenAI 标准的 `tools` / `tool_choice` 字段,可直接复用现有 Agent 框架的工具调用逻辑。Max-Preview 在多步工具调用与长程规划上表现最佳。 Max-Preview 在推理任务上自动启用思维链;Plus 始终开启思维链;Flash 主打速度,默认不输出思维链。具体字段名以阿里云官网响应格式为准(`reasoning_content` 等)。 Flash 与 Plus 的最大上下文为 1M tokens,Max-Preview 为 262K。超过上限会触发 `400` 错误。建议先做摘要 / 分段 / RAG 检索,避免一次性塞入超长内容。 可以。把 `base_url` 设为 `https://api.apiyi.com/v1`,`model` 字段填上述任一模型 ID 即可,零改动迁移。 `4xx` 类客户端错误(参数错误 / 鉴权失败 / 内容审核拦截)不计费;`5xx` 类服务端错误若请求未实际进入推理阶段亦不计费。已成功返回 token 的请求按实际 token 数计费,即使响应被客户端中断。 ## 相关文档 * [深度解读:Qwen3.6 双模上线 Max-Preview + Flash](/news/qwen-3-6-max-flash-launch) * [深度解读:Qwen3.6-Plus 上线 阿里千问最强编程 Agent 模型](/news/qwen-3-6-plus-launch) * [充值加赠活动](/faq/recharge-promotions) - 把单价压到约 8.5 折 * [模型信息总览](/api-capabilities/model-info) - 查看所有可用模型及分组 * [API 使用手册](/api-manual) - 通用调用规范 **小结**:Qwen3.6 系列覆盖了从重型 Coding Agent 到高频多模态分发的完整需求曲线——Max-Preview 把国产编程推到新高,Flash 用极低单价撑起多模态长上下文,Plus 是稳定的均衡主力;27B 与 35B-A3B 两款开源版由 API易 官转托管,把"开源权重可控 + 免租卡"这条路径补齐。5 款模型共用 OpenAI Chat 兼容端点,挂牌持平官网 + 充值加赠约 8.5 折,是当前阿里云官转通道里性价比最优的国产模型组合。 # Seedream 历史版本 Source: https://docs.apiyi.com/api-capabilities/seedream-image/historical-versions Seedream 5.0 / 4.5 / 4.0 三版本规格对比、价格差异、迁移建议——三版本都仍可调用,按业务需求选型即可 本页记录 API易**仍可调用**的所有 Seedream 版本。三个版本同时活跃,参数协议**完全兼容**,只需替换 `model` 字段即可切换。最新版本与综合介绍请见 [Seedream 总览](/api-capabilities/seedream-image/overview)。 ## 版本一览 | 版本 ID | 上线日期(UTC+8) | API易 价格 | 状态 | 推荐使用场景 | | --------------------- | ----------- | --------- | ------------ | ------------------------- | | `seedream-5-0-260128` | 2026-01-28 | \$0.035/张 | ✅ 当前推荐(最新) | 综合体验最优、文字渲染、png 输出 | | `seedream-4-5-251128` | 2025-11-28 | \$0.04/张 | ✅ 当前推荐 | 4K 高清 + 强文字渲染(海报、广告) | | `seedream-4-0-250828` | 2025-08-28 | \$0.03/张 | 🟡 维护中(仍可调用) | 4K + 最佳性价比、prompt fast 模式 | `seedream-5-0-260128` 也可通过别名 `seedream-5-0-lite-260128` 调用,行为完全一致——官方文档同时承认两个 model\_id 字符串。 ## 各版本详细规格 ### `seedream-5-0-260128`(5.0-lite) * **上线日期**:2026-01-28(UTC+8) * **API易 价格**:\$0.035/张(折扣前约 ¥0.245/张) * **支持分辨率档位**:`2K` / `3K`(**无 4K**) * **输出格式**:`png` / `jpeg`(唯一支持 png 输出的版本) * **Prompt 优化**:standard * **核心特性**: * 综合体验最优,多图融合 / 编辑 / 批量序列协议成熟 * 唯一支持 `png` 输出(可输出透明背景) * 流式输出(`stream: true`)成熟可用 * **已知限制**: * 分辨率上限 3K(≈3072×3072),需要 4K 物料请用 4.5 / 4.0 * **官方介绍**:`docs.byteplus.com/en/docs/ModelArk/1824121` ### `seedream-4-5-251128` * **上线日期**:2025-11-28(UTC+8) * **API易 价格**:\$0.04/张(折扣前约 ¥0.28/张) * **支持分辨率档位**:`2K` / `4K` * **输出格式**:`jpeg` * **Prompt 优化**:standard * **核心特性**: * 12 亿参数统一生成-编辑架构 * **文本渲染突破**:小文本清晰可读,海报、广告、UI 截图场景表现领先 * 多图融合官方明确"最多 10 张参考图" * 编辑时保留光照、色调、面部特征自然 * **已知限制**: * 仅 `jpeg` 输出(无 `png`,不支持透明背景) * **News 文章**:[Seedream 4.5 上线公告](/news/seedream-4-5-launch) ### `seedream-4-0-250828` * **上线日期**:2025-08-28(UTC+8) * **API易 价格**:\$0.03/张(折扣前约 ¥0.21/张) * **支持分辨率档位**:`1K` / `2K` / `4K`(分辨率覆盖最全) * **输出格式**:`jpeg` * **Prompt 优化**:standard / **fast**(唯一支持 fast 模式) * **核心特性**: * 经过验证的稳定版本 * 优秀的视觉一致性,4K 出图细节均衡 * **唯一支持 prompt fast 模式**,对预算敏感的场景出图更快 * **已知限制**: * 文本渲染弱于 4.5 * 仅 `jpeg` 输出 ## 迁移建议 本系列三个版本**参数协议完全兼容**——只需替换 `model` 字段即可切换。重点核对: * 你用的 `size` 档位是否在新版本支持列表里(5.0 没有 1K / 4K,4.5 没有 1K,4.0 全支持) * 你是否依赖 `output_format: "png"`(仅 5.0 支持) * 你是否用 `prompt_optimization: "fast"`(仅 4.0 支持) 拿同一批 prompt 在新旧版本各跑一轮,对比效果与成本。建议先小批量(10-20 张)验证质量再切量。 把流量按比例切(如 10% / 50% / 100% 三档),每档观察一段时间画质、失败率、成本,再放量。 生产环境建议同时保留新旧两个 `model` 配置,新版出现问题时可一键回退到旧版。三个版本统一计费,并行使用没有额外成本。 ## 旧版调用示例 ```python theme={null} {/* 切换版本只需改 model 字段,其它参数兼容 */} from openai import OpenAI client = OpenAI(api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1") resp = client.images.generate( model="seedream-4-0-250828", # 切到 4.5 / 5.0 只换这一行 prompt="A serene mountain landscape at golden hour, snow-capped peaks, ultra detailed, 4K", size="4K", # 注意:5.0 不支持 4K,需改 2K 或 3K response_format="url", extra_body={ "watermark": False, } ) print(resp.data[0].url) ``` ## 计费差异 按典型用量估算(**未叠加充值加赠折扣**,叠加后实际可低至 8 折): | 版本 | 单价 | 100 张 | 1000 张 | 10000 张 | | --------------------- | ------- | ----- | ------ | ------- | | `seedream-5-0-260128` | \$0.035 | \$3.5 | \$35 | \$350 | | `seedream-4-5-251128` | \$0.04 | \$4 | \$40 | \$400 | | `seedream-4-0-250828` | \$0.03 | \$3 | \$30 | \$300 | **如何选**: * 4K 物料 + 强文字 → **4.5** * 4K 物料 + 性价比 → **4.0** * 综合体验最优 / png 输出 / 透明背景 → **5.0** * 大批量稳定生产 → **4.0**(已验证 + 最便宜 + fast 模式) ## 兼容性对照表 | 维度 | 5.0 | 4.5 | 4.0 | 迁移注意 | | ----------------------------- | --- | ------------ | --- | -------------------------------------------- | | `1K` 分辨率档位 | ❌ | ❌ | ✅ | 从 4.0 升级时如用 1K,需改 2K | | `4K` 分辨率档位 | ❌ | ✅ | ✅ | 从 4.5 / 4.0 降到 5.0 时如用 4K,需改 2K / 3K | | `output_format: "png"` | ✅ | ❌ | ❌ | 从 5.0 切到 4.5 / 4.0 时如依赖 png 透明背景,**画面会丢失透明** | | `prompt_optimization: "fast"` | ❌ | ❌ | ✅ | 从 4.0 升级时如用 fast 模式,需删除该参数(默认走 standard) | | `image` 数组(多图融合) | ✅ | ✅(最多 10 张明确) | ✅ | 三版本协议一致 | | `sequential_image_generation` | ✅ | ✅ | ✅ | 三版本协议一致 | | `stream` 流式 | ✅ | ✅ | ✅ | 三版本协议一致 | | 响应字段(`url` / `b64_json`) | 一致 | 一致 | 一致 | — | | 计费方式 | 按张 | 按张 | 按张 | — | ## 相关文档 * [Seedream 总览](/api-capabilities/seedream-image/overview) * [文生图 Playground](/api-capabilities/seedream-image/text-to-image) * [图片编辑 Playground](/api-capabilities/seedream-image/image-edit) * [Seedream 4.5 上线公告](/news/seedream-4-5-launch) * BytePlus 官方 tutorial:`docs.byteplus.com/en/docs/ModelArk/1824121` # 图片编辑 API 参考 Source: https://docs.apiyi.com/api-capabilities/seedream-image/image-edit api-reference/seedream-image-edit-openapi.yaml POST /v1/images/generations Seedream 图片编辑 / 多图融合 / 批量序列生成 API 参考与在线调试 — 同 generations 端点,传入 image 数组与 sequential_image_generation 切换模式 **同端点,不同模式**:Seedream 没有独立的 `/v1/images/edits` 端点,编辑 / 多图融合 / 批量序列都走 `POST /v1/images/generations`。本页 Playground 与 [文生图页](/api-capabilities/seedream-image/text-to-image) 调的是同一个端点,区别只在请求体的 `image` 与 `sequential_image_generation` 参数。 **场景说明**: * **单图编辑** —— `image: ["url"]` + `sequential_image_generation: "disabled"` * **多图融合** —— `image: ["url1", "url2", ...]` + `sequential_image_generation: "disabled"` * **批量序列生成** —— `sequential_image_generation: "auto"` + `sequential_image_generation_options.max_images: N` * **图生序列** —— 上面两个组合:传 `image` 数组 + `auto` + `max_images` **🖥️ 浏览器 Playground 限制(仅 b64\_json 模式)** 默认 `response_format: "url"` 模式下 Playground 工作正常(响应只是一个 BytePlus TOS 临时链接)。如果你切换成 `response_format: "b64_json"`,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。 **推荐做法**: * 只想看图:**保持默认 `url` 模式**,Playground 会直接返回链接(注意 24 小时内下载到自己的存储)。 * 真的需要 b64\_json:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。 **⚠️ 关键差异(与 OpenAI gpt-image-2 的图编辑不同)** * **不接受 multipart/form-data 上传文件** —— 请把图片传到 OSS / 公网图床拿到 URL,再放进 `image` 数组 * **`image` 是 URL 数组**,**不是** `image[]` 字段重复(与 OpenAI `gpt-image-2` 的 `multipart/form-data` 格式完全不同) * **没有 `mask` 字段** —— Seedream 不支持 alpha 通道掩码局部重绘,整图 prompt 改写 * **总张数硬约束**:输入参考图 + 输出图 **≤ 15 张** **📎 多图融合顺序有意义** `image` 数组的顺序会作为 prompt 中「图1/图2/图3」的引用依据。建议在 prompt 中显式指代: > Replace the clothing in image 1 with the outfit from image 2, keeping the lighting from image 3. 推荐 prompt 用英文(官方训练以英文为主),中文也可用但表达不要含糊。 ## 代码示例 ### Python(OpenAI SDK · 单图编辑) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.generate( model="seedream-5-0-260128", prompt="Generate a close-up image of a dog lying on lush grass.", size="2K", response_format="url", extra_body={ "image": ["https://your-oss.example.com/source-photo.png"], "sequential_image_generation": "disabled", "watermark": False, } ) print(resp.data[0].url) ``` ### Python(OpenAI SDK · 多图融合) ```python theme={null} resp = client.images.generate( model="seedream-4-5-251128", prompt="Replace the clothing in image 1 with the outfit from image 2, keeping the lighting style of image 3.", size="4K", response_format="url", extra_body={ "image": [ "https://your-oss.example.com/person.png", "https://your-oss.example.com/outfit.png", "https://your-oss.example.com/lighting-ref.png", ], "sequential_image_generation": "disabled", "watermark": False, } ) print(resp.data[0].url) ``` ### Python(OpenAI SDK · 批量序列生成) ```python theme={null} resp = client.images.generate( model="seedream-5-0-260128", prompt=( "Generate four cinematic sci-fi storyboard scenes:" "Scene 1 — astronaut repairing a spacecraft;" "Scene 2 — meteor strike in deep space;" "Scene 3 — emergency dodge in zero gravity;" "Scene 4 — astronaut returning to ship." ), size="2K", response_format="url", extra_body={ "sequential_image_generation": "auto", "sequential_image_generation_options": {"max_images": 4}, "watermark": False, } ) for item in resp.data: print(item.url) ``` ### cURL(多图融合) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "seedream-5-0-260128", "prompt": "Replace the clothing in image 1 with the outfit from image 2.", "image": [ "https://your-oss.example.com/person.png", "https://your-oss.example.com/outfit.png" ], "sequential_image_generation": "disabled", "size": "2K", "response_format": "url", "watermark": false }' ``` ### Node.js(原生 fetch · 批量序列) ```javascript theme={null} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'seedream-5-0-260128', prompt: 'A four-panel comic about a cat astronaut: launch, space walk, alien encounter, return home.', size: '2K', sequential_image_generation: 'auto', sequential_image_generation_options: { max_images: 4 }, response_format: 'url', watermark: false }) }); const { data } = await resp.json(); data.forEach((item, i) => console.log(`#${i + 1}:`, item.url)); ``` ## 参数说明速查 | 字段 | 类型 | 必填 | 默认 | 说明 | | ------------------------------------------------ | --------------------- | --------- | ---------- | --------------------------------------------------------------------- | | `model` | string | 是 | — | `seedream-5-0-260128` / `seedream-4-5-251128` / `seedream-4-0-250828` | | `prompt` | string | 是 | — | 编辑 / 融合 / 序列指令 | | `image` | array of string (URL) | 否(编辑场景必填) | — | 参考图 URL 数组,**最多 10 张**(4.5 官方明确) | | `sequential_image_generation` | string | 否 | `disabled` | `disabled` 单图输出;`auto` 批量序列输出 | | `sequential_image_generation_options.max_images` | integer | 否 | — | 仅 `auto` 模式生效,输出张数(受 **输入+输出 ≤ 15** 总约束) | | `size` | string | 否 | `2K` | 预设档位或精确像素,**各版本支持档位见 overview** | | `response_format` | string | 否 | `url` | `url` / `b64_json` | | `output_format` | string | 否 | `jpeg` | 5.0 支持 `png` / `jpeg`;4.5 / 4.0 仅 `jpeg` | | `watermark` | boolean | 否 | 见版本默认 | 商用建议 `false` | | `stream` | boolean | 否 | `false` | 流式输出,长 prompt 时建议开 | ## 多图与批量场景的张数约束 | 场景 | 输入 `image` 张数 | `max_images` | 实际输出 | 总和约束 | | --------- | ------------- | ------------ | ---- | ------------ | | 单图编辑 | 1 | — | 1 | 2 ≤ 15 ✅ | | 多图融合 | 3 | — | 1 | 4 ≤ 15 ✅ | | 多图融合 + 序列 | 3 | 4 | 4 | 7 ≤ 15 ✅ | | 多图融合 + 序列 | 10 | 6 | 6 | 16 > 15 ❌ 报错 | **多轮迭代**:把上一次的输出 URL 作为下一次的 `image` 输入,配合新的编辑指令逐步精调。每一轮都按张计费,预算时留意累计成本。 ## 响应格式 ```json theme={null} { "model": "seedream-5-0-260128", "created": 1768518000, "data": [ { "url": "https://ark-content-generation-v2-ap-southeast-1.tos-ap-southeast-1.bytepluses.com/seedream-5-0/.../scene-1.png", "size": "2048x2048" }, { "url": "https://...scene-2.png", "size": "2048x2048" } ], "usage": { "generated_images": 2, "output_tokens": 12480, "total_tokens": 12480 } } ``` **⚠️ `data` 数组长度反映实际输出张数** * `sequential_image_generation: "disabled"` → `data` 单元素 * `sequential_image_generation: "auto"` + `max_images: N` → `data` 通常 N 个元素(个别 prompt 模型可能输出少于 N) * 计费按 `usage.generated_images` 实际张数算,**不是按 `max_images`** 编辑请求和文生图请求**计费完全一致**——按出图张数算。多图输入(参考图)不额外计费。 # Seedream 生图/编辑 Source: https://docs.apiyi.com/api-capabilities/seedream-image/overview 字节跳动 BytePlus 火山方舟 Seedream 系列图像生成模型完整指南,5.0 / 4.5 / 4.0 三版本统一接入,支持 4K 高清、多图融合、批量序列生成、参考图编辑。 ## 概述 **Seedream** 是字节跳动 BytePlus 火山方舟海外版的旗舰图像生成模型系列,**统一生成-编辑架构**:文生图、单图编辑、多图融合、批量序列生成都通过同一个 `/v1/images/generations` 端点完成,仅参数不同。API易 与 BytePlus 达成官方战略合作,第一时间接入全部活跃版本。 **🎨 核心亮点**:三个活跃版本(5.0 / 4.5 / 4.0)统一计费 + 4K 高清出图 + 最多 10 张参考图融合 + 批处理 (输入+输出 ≤ 15 张) + 强中文文字渲染。**适合电商主图、广告海报、产品摄影、内容创作** 等需要高画质 + 文字渲染的生产场景。 `POST /v1/images/generations`,纯文本提示词生成图片,支持 1K/2K/3K/4K 与精确像素尺寸。 同端点 + `image` 参数,支持单图改图、多图融合、批量序列生成(最多 15 张)。 5.0 / 4.5 / 4.0 三版本规格对比、价格差异、迁移指南。 ## 为什么选 API易 的 Seedream 对标 BytePlus 火山方舟海外版官方通道,针对企业生产场景在 **稳定性**、**成本**、**接入体验** 三方面做了深度优化: 与 BytePlus 火山方舟达成官方合作,走授权直连链路,请求和响应行为与官方一致,**无协议绕行风险**,企业可放心走生产。 批量出图、多图融合、序列生成等高并发场景下,可线性扩容,不受官方账号 Tier 限制。**500 RPM 默认配额**,更高量级可申请扩容。 默认单价与 BytePlus 官方一致,叠加 [充值加赠活动](/faq/recharge-promotions) **最低可享 8 折**,长期使用成本显著下降。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,省去为 BytePlus `ap-southeast-1` / `eu-west-1` 配置出海链路的麻烦。 端点路径 `/v1/images/generations` 与 OpenAI 一致,OpenAI 官方 SDK 把 `base_url` 指过来即可调用,扩展参数(`image` / `sequential_image_generation` 等)通过 `extra_body` 透传。 团队深耕图像生成场景,在多图融合、文字渲染、批量素材生产等场景具备丰富经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 核心特性 4.0 / 4.5 支持原生 4K(4096×4096),细节层次丰富,适合海报、印刷物料;5.0-lite 上限 3K,但综合体验更新。 文生图 / 单图编辑 / 多图融合 / 序列批量 都走 **同一端点同一参数集**,仅靠 `image` 与 `sequential_image_generation` 切换模式。 `image` 字段接受 URL 数组,prompt 中可用「图1/图2」明确指代顺序,配合 `sequential_image_generation: "disabled"` 做主体一致性控制。 4.5 版本对小文本渲染大幅改进,海报标题、广告文案、产品文字等场景清晰可读,业界领先。 `sequential_image_generation: "auto"` + `max_images` 一次生成成系列的连续图像,适合分镜、品牌视觉、产品系列图。 单图典型耗时 15 秒左右,4K + hd 档稍长。**500 RPM** 默认配额,企业批量需求可申请扩容。 支持分辨率档位(`1K`/`2K`/`3K`/`4K`)或精确像素,总像素范围 \[1280×720, 4096×4096],宽高比 \[1/16, 16]。 `base_url=https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 调用,扩展参数通过 `extra_body` 透传,零代码改动迁移。 ## 模型定价 按张计费,**与 BytePlus 官方同价**,叠加充值加赠后实际成本进一步下降。 | 模型 | API易价格 | 折扣前估算 | 状态 | | --------------------- | --------- | ---------- | ------------ | | `seedream-5-0-260128` | \$0.035/张 | 约 ¥0.245/张 | ✅ 当前推荐(最新) | | `seedream-4-5-251128` | \$0.04/张 | 约 ¥0.28/张 | ✅ 当前推荐 | | `seedream-4-0-250828` | \$0.03/张 | 约 ¥0.21/张 | 🟡 维护中(仍可调用) | **计费说明**: * 按出图张数计费,与 prompt 长度、是否走多图融合无关 * `sequential_image_generation: "auto"` 模式下按实际生成张数计费(如 `max_images: 4` 出 4 张则计 4 次) * 失败请求(4xx / 内容审核拦截)**不计费** * 官方提供 200 张免费图片测试额度(首次接入即享) * 充值加赠政策见 [充值加赠活动](/faq/recharge-promotions) ## 技术规格 | 维度 | seedream-5-0 | seedream-4-5 | seedream-4-0 | | ---------------- | -------------------------------- | --------------------- | --------------------- | | **Model ID** | `seedream-5-0-260128` | `seedream-4-5-251128` | `seedream-4-0-250828` | | **Model ID 别名** | `seedream-5-0-lite-260128` | — | — | | **上线日期** | 2026-01-28 (UTC+8) | 2025-11-28 (UTC+8) | 2025-08-28 (UTC+8) | | **支持分辨率档位** | 2K / 3K | 2K / 4K | 1K / 2K / 4K | | **输出格式** | `png` / `jpeg` | `jpeg` | `jpeg` | | **Prompt 优化模式** | standard | standard | standard / fast | | **文生图** | ✅ | ✅ | ✅ | | **单图编辑** | ✅ | ✅ | ✅ | | **多图参考融合** | ✅ | ✅(最多 10 张) | ✅ | | **批量序列生成** | ✅ | ✅ | ✅ | | **流式输出** | ✅ | ✅ | ✅ | | **每分钟最大出图(RPM)** | 500 | 500 | 500 | | **单次输入+输出图数量** | ≤ 15 | ≤ 15 | ≤ 15 | | **响应字段** | `data[].url` 或 `data[].b64_json` | 同 | 同 | ## 端点一览 | 端点 | 用途 | Content-Type | | ----------------------------- | -------------------------------------------------- | ------------------ | | `POST /v1/images/generations` | 文生图 / 单图编辑 / 多图融合 / 批量序列 — 全部能力**统一入口**,靠请求体参数切换模式 | `application/json` | **域名选择**:主域名 `api.apiyi.com`,也可使用 `vip.apiyi.com` 等其它网关域名,响应行为一致。**不需要使用 BytePlus 原生的 `ark.ap-southeast.bytepluses.com` / `ark.eu-west.bytepluses.com`**——API易 网关已统一映射到 OpenAI 兼容路径。 ## 关键参数详解 ### `size`(输出尺寸) 支持两类取值,**二选一**: **预设档位**(按分辨率自动决定宽高比): | 档位 | 含义 | 模型支持 | | ---- | --------------- | --------------- | | `1K` | 约 1024×1024 | 仅 4.0 | | `2K` | 约 2048×2048(默认) | 5.0 / 4.5 / 4.0 | | `3K` | 约 3072×3072 | 仅 5.0 | | `4K` | 约 4096×4096 | 4.5 / 4.0 | **精确像素**(自定义任意尺寸): * 总像素范围:\[1280×720, 4096×4096] * 宽高比范围:\[1/16, 16] * 默认值:`2048x2048` **合法示例**:`1920x1080`(FullHD)、`3840x2160`(横版 4K)、`1080x1920`(手机壁纸)、`2560x1440`(横版 2K) **非法示例**:`5000x5000`(超上限)、`100x1600`(比例超 1/16) 超过 `4096×4096` 总像素的尺寸会直接报 400。某些极端比例(接近 1/16 或 16)可能出现画面拉伸不稳定,建议优先用预设档位或常见 16:9 / 9:16 / 1:1 比例。 ### `image` 与 `sequential_image_generation`(编辑 / 多图 / 批量模式开关) `/v1/images/generations` 端点同时承担文生图与编辑/多图能力,靠 **两个参数组合** 切换模式: | 模式 | `image` 参数 | `sequential_image_generation` | 说明 | | ------ | ----------------------- | ----------------------------------------------------------- | --------------------------------------------------- | | 纯文生图 | 不传 | 不传或 `"disabled"` | 输出 1 张 | | 单图编辑 | `["url1"]` | `"disabled"` | 基于 1 张参考图改图 | | 多图融合 | `["url1", "url2", ...]` | `"disabled"` | 最多 10 张参考图,prompt 用「图1/图2」指代 | | 批量序列生成 | 可选(传或不传) | `"auto"` + `sequential_image_generation_options.max_images` | 输出 N 张连贯图像,**N ≤ max\_images** 且 **输入图 + 输出图 ≤ 15** | 详细代码示例见 [文生图 Playground](/api-capabilities/seedream-image/text-to-image) 和 [图片编辑 Playground](/api-capabilities/seedream-image/image-edit)。 ## 最佳实践 * **追求最强综合体验** → `seedream-5-0-260128`(功能最全,但分辨率上限 3K) * **要 4K 出图 + 强文字渲染** → `seedream-4-5-251128`(4K + 文字渲染突破) * **要 4K + 性价比** → `seedream-4-0-250828`(最便宜的 4K) `1K`/`2K`/`3K`/`4K` 档位经过官方优化,速度和质量更稳定。自定义像素留给真有比例需求的场景,注意各版本支持的档位不同。 传入 `image` 数组时,prompt 里用「把图1的人物放进图2的场景,沿用图3的色彩风格」明确顺序引用,避免模型自行猜测。 `sequential_image_generation: "auto"` + `max_images: 4` 一次出 4 张,按张计费总价乘 4。先用 `max_images: 1` 验证 prompt,再放大批量。 5.0 支持 `png` 与 `jpeg`,4.5 / 4.0 仅 `jpeg`。需要透明背景或无损细节时优先 5.0 + png,体积敏感的场景用 jpeg。 单图约 15 秒,但批量序列(4 张)或 4K + hd 可能 30–60 秒。**客户端超时建议 60 秒起步**,前端做进度反馈。 `watermark: false` 关闭水印(默认行为视版本而定,建议显式传)。商用素材建议显式关,避免输出带 BytePlus 标识。 ## 错误码与重试 | 状态码 | 含义 | 处理建议 | | ----- | --------------------------------------- | ------------------------------------- | | `400` | 参数非法(size 超限、`image` 数组超 10、未支持的分辨率档位等) | 校验参数,注意各版本支持的分辨率档位差异 | | `401` | 令牌无效 | 检查 Bearer Token | | `403` | 内容审核拦截 | 调整 prompt 或更换参考图 | | `429` | 限流(默认 500 RPM)/ 余额不足 | 指数退避重试;超出 500 RPM 联系商务申请扩容 | | `5xx` | 网关 / 后端错误 | 重试 1–2 次 | | 超时 | 长尾请求 | 客户端超时 ≥ **60 秒**(批量序列或 4K hd 可达 1 分钟) | **建议客户端**: * 请求超时 **60 秒** 起步(批量序列或 4K hd 可能 1 分钟) * 对 5xx 与超时做 **指数退避重试**(建议 2 次) * 记录响应头 `x-request-id` 方便排查 ## 常见问题 | 你的需求 | 推荐 | | -------------------- | -------------------------- | | 最新功能 + 综合体验 | `seedream-5-0-260128` | | 4K 高清 + 强文字渲染(海报、广告) | `seedream-4-5-251128` | | 4K 高清 + 最优性价比 | `seedream-4-0-250828` | | 长期稳定大批量 | `seedream-4-0-250828`(已验证) | 详见 [历史版本对比](/api-capabilities/seedream-image/historical-versions)。 Seedream 是统一生成-编辑架构,**没有独立的 `/v1/images/edits` 端点**。和 OpenAI 的 `gpt-image-2` 不同:OpenAI 的图编辑要 `multipart/form-data` 上传文件到 `/v1/images/edits`,Seedream 则统一用 `application/json` 把图片 **URL 数组** 传到 `image` 字段。 优点:协议统一、参数复用、容易切换模式。详见 [图片编辑 Playground](/api-capabilities/seedream-image/image-edit)。 官方文档示例**只展示了 URL 数组**。如果你的图片在本地,建议先上传到 OSS / 公网图床拿到 URL 再传入。如需对接私有图床,可联系商务讨论临时签名 URL 方案。 * **多图融合**(`image` 数组):4.5 官方明确"最多 10 张",5.0 / 4.0 同样支持但官方未单独说明上限 * **批量序列**(`max_images`):受全局约束 **输入参考图 + 输出图 ≤ 15**。所以多图 + 序列同时用时要算总和。 要看 `response_format`: * `response_format: "url"`(默认)→ 返回 `data[0].url`,直接 `` 渲染 * `response_format: "b64_json"` → 返回 `data[0].b64_json` **纯 base64 字符串**(不含 `data:image/...;base64,` 前缀),客户端需 `base64.b64decode` 写文件,或浏览器渲染时自行拼前缀 支持。三个版本都标注"Streaming output ✅",配合 `stream: true` 启用。流式特别适合长 prompt + 高分辨率场景,前端可提前渲染部分结果。 **默认 500 张/分钟**(Max Images per Minute),三个版本统一。如果业务需要更高配额,请联系商务告知预估 QPS,可申请扩容资源。 **不会**。BytePlus 自带内容安全审核,触发审核或参数非法时直接返回 `400`/`403` 错误并**不计费**。其它常见 0 计费错误:`401`(令牌无效)、`429`(限流)。**只有请求实际进入模型生成阶段(200 + 有效响应)才按张计费**。 可以,零代码改动。把 `base_url` 指向 `https://api.apiyi.com/v1`,扩展参数(`image` / `sequential_image_generation` / `watermark` 等)通过 `extra_body` 透传: ```python theme={null} from openai import OpenAI client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1") resp = client.images.generate( model="seedream-5-0-260128", prompt="...", size="2K", extra_body={ "image": ["https://.../ref.png"], "sequential_image_generation": "disabled", "watermark": False, } ) ``` 通过 API 生成的图片,用户拥有完整的使用权,可用于商业和非商业用途。具体条款详见 BytePlus 服务协议。 `seedream-5-0` 支持 `png` 输出格式,可在 prompt 中要求"transparent background, alpha channel"得到带透明的图。`seedream-4-5` / `4-0` 仅 `jpeg` 输出,**不支持透明背景**,需自行后处理抠图。 **不支持**。`/v1/images/generations` 是同步端点,请求一旦提交会跑到结束。客户端即使断开连接,服务端仍会完整执行并照常计费。建议客户端做好超时控制,不要依赖"断连不计费"。 ## 相关文档 * [文生图 Playground](/api-capabilities/seedream-image/text-to-image) - `POST /v1/images/generations` 在线调试,5 段语言代码示例 * [图片编辑 Playground](/api-capabilities/seedream-image/image-edit) - `image` + `sequential_image_generation` 用法详解 * [历史版本与迁移](/api-capabilities/seedream-image/historical-versions) - 5.0 / 4.5 / 4.0 规格对比、价格差异、迁移建议 * [Seedream 4.5 上线公告](/news/seedream-4-5-launch) - News 文章 * [API 使用手册](/api-manual) - 通用调用规范 * [图像生成测试工具](https://imagen.apiyi.com/) - 在线试玩 * BytePlus 官方文档:`docs.byteplus.com/en/docs/ModelArk/1824121` - Seedream 4.0-5.0 tutorial(英文) Seedream 系列是 API易 与 BytePlus 火山方舟达成战略合作后推出的高品质图像生成服务。三个版本统一接入、统一计费、统一鉴权,按需切换。如有问题或建议,欢迎在控制台工单中反馈。 # 文生图 API 参考 Source: https://docs.apiyi.com/api-capabilities/seedream-image/text-to-image api-reference/seedream-image-generate-openapi.yaml POST /v1/images/generations Seedream 文生图 API 参考与在线调试 — 纯文本提示词出图,支持 1K/2K/3K/4K 与精确像素,三版本统一端点 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择 model / size 后一键发送即可。 **场景说明**:本页用于「纯文本提示词生成图片」——不传 `image` 字段。如需基于参考图编辑、多图融合或批量序列生成,请使用 [图片编辑接口](/api-capabilities/seedream-image/image-edit)(同一端点,多传 `image` 参数)。 **🖥️ 浏览器 Playground 限制(仅 b64\_json 模式)** 默认 `response_format: "url"` 模式下 Playground 工作正常(响应只是一个 BytePlus TOS 临时链接)。如果你切换成 `response_format: "b64_json"`,响应会包含数 MB 的 base64 字符串,浏览器 Playground **可能弹出** `请求时发生错误: unable to complete request` ——**实际请求已经成功**,只是浏览器无法显示这么长的 base64。 **推荐做法**: * 只想看图:**保持默认 `url` 模式**,Playground 会直接返回链接(注意 24 小时内下载到自己的存储)。 * 真的需要 b64\_json:**复制下方"代码示例"到本地运行**,代码会自动解码并把图片保存为本地文件。 **⚠️ 各版本支持的分辨率档位不同** * `seedream-5-0-260128` —— 仅 `2K` / `3K`(无 4K) * `seedream-4-5-251128` —— `2K` / `4K` * `seedream-4-0-250828` —— `1K` / `2K` / `4K` **不支持的尺寸会直接返回 400**。精确像素总像素需 ∈ \[1280×720, 4096×4096],宽高比 ∈ \[1/16, 16]。 ## 代码示例 ### Python(OpenAI SDK 直连) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.generate( model="seedream-5-0-260128", prompt="A modern tech product launch poster with bold typography, sleek smartphone on gradient background, text: 'Innovation 2026', ultra detailed, professional", size="2K", response_format="url", extra_body={ "output_format": "png", "watermark": False, } ) print(resp.data[0].url) ``` ### Python(原生 requests) ```python theme={null} import requests API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={ "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" }, json={ "model": "seedream-5-0-260128", "prompt": "A serene Japanese garden with cherry blossoms, koi pond, traditional wooden bridge, golden hour, ultra detailed", "size": "2K", "response_format": "url", "watermark": False }, timeout=60 # 单图约 15 秒,4K + hd 可达 30-60 秒 ).json() print(response["data"][0]["url"]) ``` ### cURL ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "seedream-5-0-260128", "prompt": "A futuristic cityscape at night with neon lights and flying vehicles, cyberpunk style, high detail", "size": "2K", "response_format": "url", "watermark": false }' ``` ### Node.js(原生 fetch) ```javascript theme={null} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'seedream-5-0-260128', prompt: 'Minimalist line-art logo of a cat, monochrome, vector style', size: '2K', response_format: 'url', output_format: 'png', watermark: false }) }); const { data } = await resp.json(); console.log(data[0].url); ``` ### 浏览器 JavaScript ```javascript theme={null} {/* 仅作演示,生产请走后端代理避免 Key 泄露 */} const resp = await fetch('https://api.apiyi.com/v1/images/generations', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'seedream-5-0-260128', prompt: 'Watercolor northern lights over snowy mountains', size: '2K' }) }); const { data } = await resp.json(); document.getElementById('img').src = data[0].url; ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 默认 | 说明 | | ----------------- | ------- | -- | ------- | ------------------------------------------------------------------------ | | `model` | string | 是 | — | `seedream-5-0-260128` / `seedream-4-5-251128` / `seedream-4-0-250828` | | `prompt` | string | 是 | — | 提示词,支持中英文,建议详细描述场景、风格、光线 | | `size` | string | 否 | `2K` | 预设档位(各版本不同)或精确像素 `WxH` | | `response_format` | string | 否 | `url` | `url` 返回图片链接;`b64_json` 返回纯 base64 字符串 | | `output_format` | string | 否 | `jpeg` | 5.0 支持 `png` / `jpeg`;4.5 / 4.0 仅 `jpeg`(OpenAI SDK 中通过 `extra_body` 传入) | | `n` | integer | 否 | 1 | 一次输出张数(**建议 ≤ 4**,受单次 ≤ 15 总约束) | | `seed` | integer | 否 | 随机 | 随机种子,固定可复现 | | `watermark` | boolean | 否 | 见各版本默认 | 是否输出水印(建议显式 `false` 商用) | | `stream` | boolean | 否 | `false` | 流式输出,适合长 prompt + 高分辨率 | 详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。**编辑/多图相关参数(`image`、`sequential_image_generation` 等)见 [图片编辑接口](/api-capabilities/seedream-image/image-edit)**。 ## 响应格式 ```json theme={null} { "model": "seedream-5-0-260128", "created": 1768518000, "data": [ { "url": "https://ark-content-generation-v2-ap-southeast-1.tos-ap-southeast-1.bytepluses.com/seedream-5-0/.../image.png", "size": "2048x2048" } ], "usage": { "generated_images": 1, "output_tokens": 6240, "total_tokens": 6240 } } ``` **⚠️ 响应字段陷阱** * `response_format=url` 模式下,`data[].url` 是 **BytePlus TOS 临时签名 URL**,有时效性(通常 24 小时内有效),生产场景建议拿到后立即下载到自己的存储 * `response_format=b64_json` 模式下,`data[].b64_json` 是 **纯 base64 字符串**,**不含** `data:image/...;base64,` 前缀,客户端需 `base64.b64decode` 写文件,或浏览器渲染时自行拼前缀 * `data[].size` 字段反映**实际输出尺寸**,可能与请求的 `size` 略有差异(模型按比例约束) `usage` 字段反映本次实际计费的张数(`generated_images`)。Seedream 按张计费,`output_tokens` / `total_tokens` 仅用于性能观测,不参与账单核算。 # 图生视频 API 参考 Source: https://docs.apiyi.com/api-capabilities/sora-2/image-to-video api-reference/sora-2-image-to-video-openapi.yaml POST /v1/videos Sora 2 图生视频 API 参考与在线调试 — multipart 上传 input_reference 参考图,让静态画面动起来。 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),上传一张参考图、输入 prompt、选择 model / size / seconds 后一键发送即可。 **场景说明**:本页用于「基于参考图生成视频」——上传一张图片作为视频的起始帧/视觉锚点,让静态画面"动起来"。如果不需要参考图,请使用 [文生视频接口](/api-capabilities/sora-2/text-to-video)(同一端点,JSON 请求体)。 **⚠️ 参考图分辨率必须与 size 完全一致** * 上传图片的像素尺寸必须与请求的 `size` 字段完全一致(如 `size=1280x720` 则图片必须是 1280×720) * 不一致会返回 400:`Inpaint image must match the requested width and height` * **建议先用 ffmpeg / Pillow 在本地裁切到目标尺寸再上传** 其它注意事项: * Content-Type 必须是 `multipart/form-data`(不是 JSON) * 仅支持 1 个文件,字段名固定 `input_reference` * 接受格式:`image/jpeg` / `image/png` / `image/webp` ## 代码示例 ### Python(OpenAI SDK 直连) ```python theme={null} from openai import OpenAI import time client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) # 第 1 步:提交(OpenAI SDK 用 input_reference 参数自动走 multipart) with open("./reference.png", "rb") as f: video = client.videos.create( model="sora-2", prompt="Animate this scene: gentle waves lapping against the shore, leaves swaying in the breeze", seconds="8", size="1280x720", input_reference=f ) print(f"Video ID: {video.id}, status: {video.status}") # 第 2 步:轮询 while True: video = client.videos.retrieve(video.id) print(f"Status: {video.status}, progress: {getattr(video, 'progress', 0)}%") if video.status == "completed": break if video.status == "failed": raise RuntimeError(f"Generation failed: {video}") time.sleep(15) # 第 3 步:下载 client.videos.download_content(video.id).write_to_file("output.mp4") print("Saved: output.mp4") ``` ### Python(原生 requests + multipart) ```python theme={null} import requests import time API_KEY = "sk-your-api-key" BASE_URL = "https://api.apiyi.com/v1" HEADERS = {"Authorization": f"Bearer {API_KEY}"} # 第 1 步:multipart 上传(注意:image 分辨率必须等于 size) with open("./reference.png", "rb") as f: resp = requests.post( f"{BASE_URL}/videos", headers=HEADERS, # 不要手动加 Content-Type,requests 会自动处理 multipart 边界 data={ "model": "sora-2", "prompt": "Animate this scene with cinematic camera push-in, soft golden hour lighting", "seconds": "8", "size": "1280x720" }, files={ "input_reference": ("reference.png", f, "image/png") }, timeout=60 # multipart 上传大图可能慢,超时建议 60 秒 ).json() video_id = resp["id"] print(f"Video ID: {video_id}, status: {resp['status']}") # 第 2 步:轮询 deadline = time.time() + 900 while time.time() < deadline: status_resp = requests.get(f"{BASE_URL}/videos/{video_id}", headers=HEADERS).json() print(f"Status: {status_resp['status']}, progress: {status_resp.get('progress', 0)}%") if status_resp["status"] == "completed": break if status_resp["status"] == "failed": raise RuntimeError(f"Generation failed: {status_resp}") time.sleep(15) # 第 3 步:下载 with requests.get(f"{BASE_URL}/videos/{video_id}/content", headers=HEADERS, stream=True) as r: r.raise_for_status() with open("output.mp4", "wb") as f: for chunk in r.iter_content(chunk_size=8192): f.write(chunk) print("Saved: output.mp4") ``` ### cURL ```bash theme={null} {/* 第 1 步:multipart 上传 + 提交任务 */} curl -X POST "https://api.apiyi.com/v1/videos" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=sora-2" \ -F "prompt=Animate this scene: gentle waves lapping, leaves swaying, cinematic" \ -F "seconds=8" \ -F "size=1280x720" \ -F "input_reference=@./reference.png;type=image/png" {/* 第 2 步:轮询 */} curl -X GET "https://api.apiyi.com/v1/videos/video_abc123" \ -H "Authorization: Bearer sk-your-api-key" {/* 第 3 步:下载 */} curl -X GET "https://api.apiyi.com/v1/videos/video_abc123/content" \ -H "Authorization: Bearer sk-your-api-key" \ -o output.mp4 ``` ### Node.js(原生 fetch + FormData) ```javascript theme={null} import fs from 'node:fs'; import { fileFromPath } from 'formdata-node/file-from-path'; import { FormData } from 'formdata-node'; const API_KEY = 'sk-your-api-key'; const BASE_URL = 'https://api.apiyi.com/v1'; // 第 1 步:multipart 上传 const form = new FormData(); form.set('model', 'sora-2'); form.set('prompt', 'Animate this scene with cinematic camera push-in, soft lighting'); form.set('seconds', '8'); form.set('size', '1280x720'); form.set('input_reference', await fileFromPath('./reference.png')); const submitResp = await fetch(`${BASE_URL}/videos`, { method: 'POST', headers: { 'Authorization': `Bearer ${API_KEY}` }, // 不要手动加 Content-Type body: form }); const { id: videoId } = await submitResp.json(); console.log(`Video ID: ${videoId}`); // 第 2 步:轮询 let status = 'queued'; while (status !== 'completed' && status !== 'failed') { await new Promise(r => setTimeout(r, 15000)); const data = await (await fetch(`${BASE_URL}/videos/${videoId}`, { headers: { 'Authorization': `Bearer ${API_KEY}` } })).json(); status = data.status; console.log(`Status: ${status}, progress: ${data.progress ?? 0}%`); } if (status === 'failed') throw new Error('Generation failed'); // 第 3 步:下载 const contentResp = await fetch(`${BASE_URL}/videos/${videoId}/content`, { headers: { 'Authorization': `Bearer ${API_KEY}` } }); fs.writeFileSync('output.mp4', Buffer.from(await contentResp.arrayBuffer())); console.log('Saved: output.mp4'); ``` ### 浏览器 JavaScript ```javascript theme={null} {/* 仅作演示,生产请走后端代理避免 Key 泄露 */} const fileInput = document.getElementById('refImage'); // const file = fileInput.files[0]; const form = new FormData(); form.append('model', 'sora-2'); form.append('prompt', 'Animate this scene, gentle motion'); form.append('seconds', '4'); form.append('size', '1280x720'); form.append('input_reference', file); const submitResp = await fetch('https://api.apiyi.com/v1/videos', { method: 'POST', headers: { 'Authorization': 'Bearer sk-your-api-key' }, body: form }); const { id } = await submitResp.json(); console.log('Video ID:', id); {/* 轮询完成后,建议把视频 URL 交给后端代理处理,避免大文件直接在浏览器下载 */} ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 默认 | 说明 | | ----------------- | ------ | -- | ---------- | ----------------------------------------------------------------- | | `model` | string | 是 | — | `sora-2`(720p 标准)或 `sora-2-pro`(720p / 1024p / 1080p 多档) | | `prompt` | string | 是 | — | 视频描述提示词,建议描述"如何让画面动起来"(镜头运动、物体动作、光线变化) | | `seconds` | string | 否 | `"4"` | 视频时长,**字符串枚举**:`"4"` / `"8"` / `"12"` | | `size` | string | 否 | `720x1280` | 输出分辨率,**必须与 `input_reference` 图片像素完全一致** | | `input_reference` | file | 是 | — | 参考图文件,`image/jpeg` / `image/png` / `image/webp`,**像素必须等于 `size`** | 详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明。**`input_reference` 字段必须通过 multipart 文件上传**,不接受 URL 或 base64。 ## 参考图准备建议 根据用途先选 `size`:竖屏 `720x1280`、横屏 `1280x720`、Pro 1080p 横屏 `1920x1080` 等。 用 Pillow / ffmpeg 把图片裁切到目标尺寸: ```python theme={null} from PIL import Image img = Image.open("source.jpg") img = img.resize((1280, 720), Image.LANCZOS) # 或先 crop 再 resize 保留比例 img.save("reference.png") ``` 或 ffmpeg 一行: ```bash theme={null} ffmpeg -i source.jpg -vf "scale=1280:720" reference.png ``` 优先 PNG(无损,适合插画 / 截图),照片类用 JPEG 节省体积,需要透明通道用 WebP。 参考图已经定了画面,prompt 应该重点描述**如何让它动起来**:镜头推拉、物体运动、光线变化、人物表情等。例:`"Camera slowly pushes in, leaves gently swaying, sunlight flickering through branches"`。 ## 响应格式 响应结构与 [文生视频](/api-capabilities/sora-2/text-to-video#响应格式) **完全相同**:提交返回 `id` + `status: "queued"`,轮询返回进度,完成后通过 `/v1/videos/{id}/content` 下载 MP4。 ```json theme={null} { "id": "video_abc123def456", "object": "video", "model": "sora-2", "status": "queued", "progress": 0, "created_at": 1712697600, "size": "1280x720", "seconds": "8", "quality": "standard" } ``` **⚠️ 常见 400 错误** * `Inpaint image must match the requested width and height` —— 参考图像素与 `size` 不一致,**最常见**。客户端做好上传前的尺寸校验 * `Invalid file format` —— 上传的不是 jpeg / png / webp,或文件损坏 * `Missing required parameter: input_reference` —— multipart 字段名拼错(必须是 `input_reference`,不是 `image` 或 `reference`) * `seconds must be one of "4", "8", "12"` —— 传了数字 `4` 而非字符串 `"4"` 图生视频与文生视频**单价相同**(按 `seconds` 计费),并不会因为多上传了一张参考图额外收费。详见 [概览页定价表](/api-capabilities/sora-2/overview#模型定价)。 # Sora 2 视频生成 Source: https://docs.apiyi.com/api-capabilities/sora-2/overview OpenAI Sora 2 / Sora 2 Pro 官转视频生成模型完整指南,文生视频 + 图生视频统一异步端点,支持 4 / 8 / 12 秒、720p / 1024p / 1080p 多档分辨率。 ## 概述 **Sora 2** 是 OpenAI 推出的旗舰视频生成模型系列,**视频与音频联动生成**:根据文本提示词或参考图片输出 4–12 秒的高保真视频片段,自带同步音轨。API易 通过 **官方透明转发(官转)通道** 直连 OpenAI 官方 `/v1/videos` 端点,请求和响应字段与官方完全一致。 **🎬 核心亮点**:官方 API 透明转发 + 同步音视频生成 + 4 / 8 / 12 秒灵活时长 + 标准(720p)/ 高清(1024p)/ 全高清(1080p,仅 Pro)三档分辨率。**适合广告短片、电商视频素材、社交媒体短视频、产品演示** 等需要稳定画质 + 精准指令遵循的生产场景。 `POST /v1/videos`,纯文本提示词生成视频,JSON 请求体,最简单的入口。 `POST /v1/videos` + multipart 上传 `input_reference`,让静态图片动起来。 ## 为什么选 API易 的 Sora 2 官转 对标 OpenAI 官方通道,针对企业生产场景在 **稳定性**、**接入门槛**、**成本** 三方面做了深度优化: 透明转发到 OpenAI 官方 `/v1/videos`,无中间处理、无协议绕行风险。请求和响应行为与官方一致,**无需关心 OpenAI 账号 Tier、风控波动**,企业可放心走生产。 批量出片、活动短视频、广告素材生产等高并发场景下可线性扩容,不受官方账号 Tier 限制。**默认即可投递,按需扩容**。 默认按秒单价与 OpenAI 官方一致,叠加 [充值加赠活动](/faq/recharge-promotions) 实际成本进一步下降。失败请求不计费。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,省去为 OpenAI 配置出海链路的麻烦。 端点路径 `/v1/videos` 与 OpenAI 完全一致,OpenAI 官方 SDK 把 `base_url` 指过来即可调用,参数与字段名一一对齐。 团队深耕视频生成场景,在 prompt 工程、分辨率选型、批量生产、视频后处理等场景具备丰富经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 核心特性 Sora 2 系列原生输出**带同步音轨的视频**(环境音、对话、配乐),无需后期单独配音。 `sora-2` 支持 720p(720×1280 / 1280×720);`sora-2-pro` 额外支持 1024p、1080p 高清档位,最高 1920×1080。 按秒计费,按需选择短片长度。8 秒为最常用档位,平衡画质连贯性和成本。 官方 Sora 2 在镜头运动、物体物理、人物表情等细节上的指令遵循能力领先同档模型。 上传一张图片作为视频起始帧,让静态画面"动起来"。详见 [图生视频](/api-capabilities/sora-2/image-to-video)。 提交后返回 `video_id`,轮询状态、独立下载视频,便于批量管理和断点续传。 `base_url=https://api.apiyi.com/v1` 即可用 OpenAI 官方 SDK 调用,完全兼容。 异步模式下,生成失败、内容审核拦截、服务过载等错误均**不计费**。 ## 模型定价 按 **视频时长(秒)** 计费,与 OpenAI 官方同价。`sora-2-pro` 按分辨率分三档单价。 ### `sora-2`(标准版) | 分辨率 | 单价 | 4 秒 | 8 秒 | 12 秒 | | ----------------------- | -------- | ------ | ------ | ------ | | `720x1280` / `1280x720` | \$0.10/秒 | \$0.40 | \$0.80 | \$1.20 | ### `sora-2-pro`(专业版) | 分辨率 | 单价 | 4 秒 | 8 秒 | 12 秒 | | ------------------------- | -------- | ------ | ------ | ------ | | `720x1280` / `1280x720` | \$0.30/秒 | \$1.20 | \$2.40 | \$3.60 | | `1024x1792` / `1792x1024` | \$0.50/秒 | \$2.00 | \$4.00 | \$6.00 | | `1080x1920` / `1920x1080` | \$0.70/秒 | \$2.80 | \$5.60 | \$8.40 | **计费说明**: * 按 **实际生成视频秒数** 计费(`seconds` 参数 × 单价),与 prompt 长度、是否传 `input_reference` 无关 * 异步模式下生成失败 / 内容审核拦截 / 服务过载错误**均不计费** * 请求需走 **按量计费** 模式(在 API易 控制台 API Key 设置中切换),按次计费分组无法路由到官转通道 * 充值加赠政策见 [充值加赠活动](/faq/recharge-promotions) ## 分组介绍 Sora 2 官转走专属分组 `Sora2Official`(1x),**令牌必须满足两个条件**才能成功路由: 1. **计费模式**:选「按量优先」(即按量计费)—— 按次计费的令牌无法路由到官转通道 2. **分组**:必须包含 `Sora2Official` 令牌创建界面:计费模式选「按量优先」,分组下拉框中勾选 Sora2Official(1x),稳定 OpenAI 官转按秒计费 两种推荐配置方式,按业务隔离需要选: | 配置 | 适用场景 | 配法 | | ------------- | ----------------------------------- | ----------------------------------------------------------------------------------------------------------------- | | **A. 一把令牌通用** | 同一令牌还要调用其它常规模型(GPT / Claude / 图像 等) | 主分组保留 `Default`(或你常用的分组),**兜底分组**填 `Sora2Official`——非 Sora 请求走主分组,调 `sora-2` / `sora-2-pro` 时自动落到 `Sora2Official` | | **B. 专用令牌** | 视频业务独立、需要独立账单与额度管控 | 新建一把令牌,**只勾选 `Sora2Official` 分组**,专用于 Sora 2 调用 | 生产视频业务推荐 **B(专用令牌)**:账单清晰、便于控量与额度告警。A 适合单人开发或低频调用场景。 ## 技术规格 | 维度 | sora-2 | sora-2-pro | | -------------------------- | ---------------------------------------------------------------- | ------------------------------------------------------------------------------- | | **Model ID** | `sora-2` | `sora-2-pro` | | **当前 snapshot** | `sora-2-2025-12-08` | 与别名同步 | | **官方 deprecated snapshot** | `sora-2-2025-10-06` | — | | **支持分辨率** | `720x1280` / `1280x720` | `720x1280` / `1280x720` / `1024x1792` / `1792x1024` / `1080x1920` / `1920x1080` | | **支持时长(seconds)** | `4` / `8` / `12` | `4` / `8` / `12` | | **音轨** | ✅ 同步音视频 | ✅ 同步音视频 | | **图生视频(input\_reference)** | ✅ | ✅ | | **典型生成耗时** | 3–5 分钟 | 5–10 分钟 | | **视频存储时效** | 1 天 | 1 天 | | **响应字段** | `id` / `status` / `progress` / 视频通过 `/v1/videos/{id}/content` 下载 | 同 | ## 端点一览 | 端点 | 方法 | 用途 | Content-Type | | ------------------------------- | ---- | --------------------- | ------------------------------------------ | | `/v1/videos` | POST | 提交视频生成任务(支持文生视频与图生视频) | `application/json` 或 `multipart/form-data` | | `/v1/videos/{video_id}` | GET | 查询任务状态和进度 | — | | `/v1/videos/{video_id}/content` | GET | 下载已生成的视频文件 | — | **域名选择**:主域名 `api.apiyi.com`,也可使用 `vip.apiyi.com` / `b.apiyi.com` 等其它网关域名,响应行为一致。 ## 关键参数详解 ### `seconds`(视频时长) 仅支持三档枚举值,**字符串类型**(不是数字): | 值 | 含义 | 适用场景 | | ------ | ------- | --------------- | | `"4"` | 4 秒(默认) | 短演示、表情包、单镜头 | | `"8"` | 8 秒 | 标准短视频,社媒分享、广告片段 | | `"12"` | 12 秒 | 长镜头、连续动作、剧情片段 | `seconds` 必须传**字符串** `"4"` / `"8"` / `"12"`,传数字 `4` 或其它值(如 `"10"` / `"15"`)会返回 400 错误。 ### `size`(输出分辨率) `sora-2` 与 `sora-2-pro` 支持的档位不同: | 档位 | 像素 | sora-2 | sora-2-pro | | ------- | ----------- | ------ | ----------- | | 720p 竖 | `720x1280` | ✅ | ✅(\$0.30/秒) | | 720p 横 | `1280x720` | ✅ | ✅(\$0.30/秒) | | 1024p 竖 | `1024x1792` | ❌ | ✅(\$0.50/秒) | | 1024p 横 | `1792x1024` | ❌ | ✅(\$0.50/秒) | | 1080p 竖 | `1080x1920` | ❌ | ✅(\$0.70/秒) | | 1080p 横 | `1920x1080` | ❌ | ✅(\$0.70/秒) | * 给 `sora-2` 传 1024p / 1080p 的 size 会返回 400 * 实际渲染的 sora-2 720p 视频垂直方向像素为 **704**(而非 720),是 OpenAI 官方的实际表现,不影响显示 * **使用 `input_reference` 图生视频时,参考图片分辨率必须与 `size` 完全一致**,否则报错 `Inpaint image must match the requested width and height` ## 最佳实践 * **追求性价比** → `sora-2`(仅 720p,\$0.10/秒,单条 4 秒成本 \$0.40) * **要 1080p 全高清 / 强指令遵循** → `sora-2-pro`(最高 \$0.70/秒,支持 1920×1080) * **试水 / 内部演示** → `sora-2` 4 秒起步 每个 prompt 先用 `seconds: "4"` 快速验证镜头方向、风格是否符合预期(耗时 ≈ 3 分钟、单价 \$0.40),定型后再放大到 8 / 12 秒。 在 API易 控制台 API Key 设置中切换到 **按量计费**,并选择 **Sora2官转** 分组。按次计费分组无法路由到官转通道。 官转通道**仅支持异步模式**:先 POST 提交拿 `video_id`,再每 10–30 秒轮询 `/v1/videos/{id}` 直到 `status: "completed"`,最后从 `/v1/videos/{id}/content` 下载。 POST 提交本身只是入队,**不会**阻塞到生成完成。但走 multipart 上传 `input_reference` 时,大图上传会拉长建连时间,超时建议 30 秒起步。 视频在 OpenAI 上**仅保留 1 天**,过期后 `/content` 端点会 404。生产场景务必拿到 `completed` 后立即落地到自己的 OSS / CDN。 上传 `input_reference` 时,提前用本地 ffmpeg/PIL 把图片裁切到目标 `size`(如 `1280x720`),避免 400 报错浪费一次提交。 ## 错误码与重试 | 状态码 | 含义 | 处理建议 | | ----------- | ------------------------------------------------------------ | ----------------------------------- | | `400` | 参数非法(seconds 不在 4/8/12、size 不支持、input\_reference 与 size 不匹配) | 校验参数;图片提前裁切到目标分辨率 | | `401` | 令牌无效 | 检查 Bearer Token 与分组配置(必须 `Sora2官转`) | | `403` | 内容审核拦截 / 计费模式错误 | 调整 prompt;确认 API Key 走"按量计费" | | `429` | 限流 / 余额不足 | 指数退避重试;充值后立即可用 | | `5xx` | 网关 / 上游错误 | 异步任务重试 1–2 次(不计费) | | 任务 `failed` | 视频生成失败(多为内容审核或上游容量) | 调整 prompt 重试;**该任务不计费** | **建议客户端**: * POST 提交超时 **30 秒**(multipart 上传可能更慢) * GET 轮询间隔 **10–30 秒**,最长等待 **15 分钟**(Pro 1080p 12 秒可能 8–10 分钟) * 对 5xx 与任务 `failed` 做 **指数退避重试**(建议 2 次) * 记录响应头 `x-request-id` 方便排查 ## 常见问题 **官转(本页)**:直接转发到 OpenAI 官方 `/v1/videos`,请求/响应字段与官方一致,按秒计费、稳定性 99.99%、需要按量计费分组。 **官逆**:通过逆向工程实现的 Sora 2 接口,按次计费、价格更便宜但受 OpenAI 风控影响。**截至 2026 年 1 月 OpenAI 政策调整后,免费账号被关闭,目前 API易 仅保留官转通道。** 如有特殊需求请联系商务。 官转通道按 **OpenAI 实际秒数** 结算,与"按次"不是同一个计费维度。在 API易 控制台把 API Key 切到 **按量计费** + **Sora2官转 分组** 才能走通这条链路;按次计费分组的请求会直接 403。 OpenAI 官方 `/v1/videos` 本身就是**异步任务式**端点,没有 SSE 或 WebSocket 流式。生成 4 秒视频通常 3–5 分钟,12 秒可达 8–10 分钟,同步等待会让 HTTP 连接长时间挂起,反而不稳定。建议永远走 POST → 轮询 → 下载 三步。 OpenAI 官方目前只开放 `"4"` / `"8"` / `"12"` 三个枚举字符串值。10 / 15 是早期官逆通道的非官方时长,**官转通道不支持**。如果你的脚本写的是 `"10"`,改成 `"8"` 或 `"12"` 即可。 是。OpenAI 官方在最近的更新里把 `sora-2-pro` 的分辨率扩展到 `1080x1920` / `1920x1080` 全高清档位,对应单价 \$0.70/秒。原来的 720p (\$0.30) 和 1024p (\$0.50) 两档单价不变。本页定价表已同步官方最新口径。 视频在 OpenAI 服务器上**只保留 1 天**,过期后 `/v1/videos/{id}/content` 会返回 404 / 410。生产场景务必拿到 `status: "completed"` 后立即下载并落地到自己的 OSS / CDN。 **不会**。异步任务进入 `failed` 状态、内容审核拦截、服务过载、参数错误等情况均不计费。**只有任务真正进入 `completed` 状态、产出视频文件后才按秒计费**。 可以。OpenAI Python SDK 1.50+ 已支持 `videos` 命名空间。把 `base_url` 指向 `https://api.apiyi.com/v1` 即可: ```python theme={null} from openai import OpenAI client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1") video = client.videos.create( model="sora-2", prompt="A golden retriever running on the beach at sunset", seconds="8", size="1280x720" ) print(video.id, video.status) ``` 不接受。`input_reference` 是 **multipart/form-data 文件上传字段**(接受 `image/jpeg` / `image/png` / `image/webp`),需要走 multipart 请求。如果图片在 base64,先 decode 写到临时文件再上传。详见 [图生视频](/api-capabilities/sora-2/image-to-video)。 **目前不支持**。Sora 2 / Pro 默认输出带同步音轨的视频(环境音、对话、配乐),官方未开放禁用音轨的参数。如需纯视频,下载后用 ffmpeg `-an` 剥离即可。 **不支持**。OpenAI 官方 `/v1/videos` 没有提供 cancel 端点,任务一旦提交会跑完。建议先用 `seconds: "4"` 试水 prompt,确认风格再放大时长,避免长任务跑废。 遵循 OpenAI 官方账号 Tier 限制,但通过 API易 网关聚合后默认无明显瓶颈。**企业批量需求**(>10 并发、单日 >100 条)请联系商务申请独立资源池。 可以。每次 POST `/v1/videos` 返回独立的 `video_id`,多任务并发提交、独立轮询。建议客户端用任务队列管理 video\_id 列表,避免轮询风暴。 ## 相关文档 * [文生视频 Playground](/api-capabilities/sora-2/text-to-video) - `POST /v1/videos`(JSON)在线调试,5 段语言代码示例 * [图生视频 Playground](/api-capabilities/sora-2/image-to-video) - `POST /v1/videos`(multipart)+ `input_reference` 用法详解 * [充值加赠活动](/faq/recharge-promotions) - 加赠最高档位与适用渠道 * [API 使用手册](/api-manual) - 通用调用规范、超时与重试建议 * OpenAI 官方模型页:`platform.openai.com/docs/models/sora-2` * OpenAI 官方接口文档:`platform.openai.com/docs/api-reference/videos/create` Sora 2 系列是 API易 通过官方授权 Plus 级账号池实现的稳定官转服务。响应字段、错误码、计费维度与 OpenAI 官方完全一致,便于无缝对接已有代码。如有问题或建议,欢迎在控制台工单中反馈。 # 文生视频 API 参考 Source: https://docs.apiyi.com/api-capabilities/sora-2/text-to-video api-reference/sora-2-text-to-video-openapi.yaml POST /v1/videos Sora 2 文生视频 API 参考与在线调试 — JSON 请求体、异步任务三步流程、4/8/12 秒灵活时长。 右侧的交互式 Playground 支持直接在线调试。请在 **Authorization** 中填入你的 API Key(格式:`Bearer sk-xxx`),输入 prompt、选择 model / size / seconds 后一键发送即可。 **场景说明**:本页用于「纯文本提示词生成视频」——不传 `input_reference`、走 `application/json` 请求体。如需基于一张参考图生成视频(图生视频),请使用 [图生视频接口](/api-capabilities/sora-2/image-to-video)(同一端点 + `input_reference` 文件上传)。 **⚠️ 三步异步流程,本页只覆盖第一步(提交)** * **第 1 步(本页)**:`POST /v1/videos` → 返回 `video_id` + `status: "queued"` * **第 2 步**:`GET /v1/videos/{video_id}` 轮询,直到 `status: "completed"` * **第 3 步**:`GET /v1/videos/{video_id}/content` 下载 MP4 文件 POST 提交本身耗时秒级,**不会**等到视频生成完成。完整流程见下方 Python 代码示例。 ## 代码示例 ### Python(OpenAI SDK 直连) ```python theme={null} from openai import OpenAI import time client = OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) # 第 1 步:提交生成任务 video = client.videos.create( model="sora-2", prompt="A golden retriever running on the beach at sunset, cinematic, golden hour, slow motion", seconds="8", size="1280x720" ) print(f"Video ID: {video.id}, status: {video.status}") # 第 2 步:轮询状态 while True: video = client.videos.retrieve(video.id) print(f"Status: {video.status}, progress: {getattr(video, 'progress', 0)}%") if video.status == "completed": break if video.status == "failed": raise RuntimeError(f"Generation failed: {video}") time.sleep(15) # 第 3 步:下载视频 content = client.videos.download_content(video.id) content.write_to_file("output.mp4") print("Saved: output.mp4") ``` ### Python(原生 requests) ```python theme={null} import requests import time API_KEY = "sk-your-api-key" BASE_URL = "https://api.apiyi.com/v1" HEADERS = {"Authorization": f"Bearer {API_KEY}"} # 第 1 步:提交(JSON 请求体) resp = requests.post( f"{BASE_URL}/videos", headers={**HEADERS, "Content-Type": "application/json"}, json={ "model": "sora-2", "prompt": "A serene Japanese garden with cherry blossoms, koi pond, traditional bridge, golden hour, ultra detailed", "seconds": "8", "size": "1280x720" }, timeout=30 # POST 提交本身只是入队,30 秒足够 ).json() video_id = resp["id"] print(f"Video ID: {video_id}, status: {resp['status']}") # 第 2 步:轮询(最长等 15 分钟) deadline = time.time() + 900 while time.time() < deadline: status_resp = requests.get(f"{BASE_URL}/videos/{video_id}", headers=HEADERS).json() print(f"Status: {status_resp['status']}, progress: {status_resp.get('progress', 0)}%") if status_resp["status"] == "completed": break if status_resp["status"] == "failed": raise RuntimeError(f"Generation failed: {status_resp}") time.sleep(15) # 第 3 步:下载 with requests.get(f"{BASE_URL}/videos/{video_id}/content", headers=HEADERS, stream=True) as r: r.raise_for_status() with open("output.mp4", "wb") as f: for chunk in r.iter_content(chunk_size=8192): f.write(chunk) print("Saved: output.mp4") ``` ### cURL ```bash theme={null} {/* 第 1 步:提交任务 */} curl -X POST "https://api.apiyi.com/v1/videos" \ -H "Authorization: Bearer sk-your-api-key" \ -H "Content-Type: application/json" \ -d '{ "model": "sora-2", "prompt": "A futuristic cityscape at night with neon lights and flying vehicles, cyberpunk style, cinematic", "seconds": "8", "size": "1280x720" }' {/* 第 2 步:轮询状态(替换 video_id)*/} curl -X GET "https://api.apiyi.com/v1/videos/video_abc123" \ -H "Authorization: Bearer sk-your-api-key" {/* 第 3 步:下载视频文件 */} curl -X GET "https://api.apiyi.com/v1/videos/video_abc123/content" \ -H "Authorization: Bearer sk-your-api-key" \ -o output.mp4 ``` ### Node.js(原生 fetch) ```javascript theme={null} import fs from 'node:fs'; const API_KEY = 'sk-your-api-key'; const BASE_URL = 'https://api.apiyi.com/v1'; // 第 1 步:提交 const submitResp = await fetch(`${BASE_URL}/videos`, { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': `Bearer ${API_KEY}` }, body: JSON.stringify({ model: 'sora-2', prompt: 'Aerial drone shot over snowy mountain range at sunrise, cinematic, ultra wide', seconds: '8', size: '1280x720' }) }); const { id: videoId } = await submitResp.json(); console.log(`Video ID: ${videoId}`); // 第 2 步:轮询 let status = 'queued'; while (status !== 'completed' && status !== 'failed') { await new Promise(r => setTimeout(r, 15000)); const statusResp = await fetch(`${BASE_URL}/videos/${videoId}`, { headers: { 'Authorization': `Bearer ${API_KEY}` } }); const data = await statusResp.json(); status = data.status; console.log(`Status: ${status}, progress: ${data.progress ?? 0}%`); } if (status === 'failed') throw new Error('Generation failed'); // 第 3 步:下载 const contentResp = await fetch(`${BASE_URL}/videos/${videoId}/content`, { headers: { 'Authorization': `Bearer ${API_KEY}` } }); const buffer = Buffer.from(await contentResp.arrayBuffer()); fs.writeFileSync('output.mp4', buffer); console.log('Saved: output.mp4'); ``` ### 浏览器 JavaScript ```javascript theme={null} {/* 仅作演示,生产请走后端代理避免 Key 泄露;视频文件较大也不适合直接在浏览器下载 */} const submitResp = await fetch('https://api.apiyi.com/v1/videos', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-your-api-key' }, body: JSON.stringify({ model: 'sora-2', prompt: 'Watercolor northern lights over snowy mountains, gentle motion', seconds: '4', size: '720x1280' }) }); const { id } = await submitResp.json(); console.log('Video ID:', id); {/* 轮询状态后,把视频 URL 交给后端代理下载,再回流给前端展示 */} ``` ## 参数说明速查 | 参数 | 类型 | 必填 | 默认 | 说明 | | --------- | ------ | -- | ---------- | -------------------------------------------------------------------- | | `model` | string | 是 | — | `sora-2`(720p 标准)或 `sora-2-pro`(720p / 1024p / 1080p 多档) | | `prompt` | string | 是 | — | 视频描述提示词,建议详细描述场景、镜头运动、风格、光线 | | `seconds` | string | 否 | `"4"` | 视频时长,**字符串枚举**:`"4"` / `"8"` / `"12"`(**不是数字**) | | `size` | string | 否 | `720x1280` | 输出分辨率,需匹配模型支持档位(见 [概览页技术规格](/api-capabilities/sora-2/overview#技术规格)) | 详细的参数约束、可选值、示例请查看右侧 Playground 中的字段说明,所有 enum 字段均支持下拉选择。**图生视频相关参数(`input_reference` 文件上传)见 [图生视频接口](/api-capabilities/sora-2/image-to-video)**。 ## 响应格式 ### 第 1 步 - 提交后立即返回 ```json theme={null} { "id": "video_abc123def456", "object": "video", "model": "sora-2", "status": "queued", "progress": 0, "created_at": 1712697600, "size": "1280x720", "seconds": "8", "quality": "standard" } ``` ### 第 2 步 - 轮询返回(生成中) ```json theme={null} { "id": "video_abc123def456", "object": "video", "model": "sora-2", "status": "in_progress", "progress": 45, "created_at": 1712697600, "size": "1280x720", "seconds": "8" } ``` ### 第 2 步 - 轮询返回(完成) ```json theme={null} { "id": "video_abc123def456", "object": "video", "model": "sora-2", "status": "completed", "progress": 100, "created_at": 1712697600, "completed_at": 1712697900, "size": "1280x720", "seconds": "8" } ``` **⚠️ 响应字段陷阱** * **没有直接的 `video_url` 字段** —— 视频文件需要通过 `GET /v1/videos/{id}/content` 端点单独下载(返回 `video/mp4` 二进制流),**不要**期待响应里直接出现一个 CDN 链接 * `progress` 字段在不同生成阶段会跳变(如 0 → 45 → 80 → 100),不是严格线性的 * `status: "failed"` 时不一定带详细 `error` 字段,多见于内容审核或服务过载,**直接重试或调整 prompt** 即可 * 视频内容在 OpenAI 上**只保留 1 天**,过期后 `/content` 返回 404 本端点是异步任务式入口,**计费在生成完成时按 `seconds` 单价结算**(见 [概览页定价表](/api-capabilities/sora-2/overview#模型定价))。POST 提交、轮询查询、视频下载本身**不计费**,失败任务也**不计费**。 # 文本向量化(Embedding) Source: https://docs.apiyi.com/api-capabilities/text-embedding 使用 OpenAI Embedding 模型将文本转换为高维向量,支持知识库检索、语义搜索、文本相似度计算等应用场景 API易 提供业界领先的文本向量化(Embedding)能力,使用 OpenAI 的 Embedding 模型将文本转换为高维向量表示。这是构建智能知识库、语义搜索、RAG(检索增强生成)系统的核心技术,具有超高并发能力和极低的使用成本。 **🔍 文本向量化核心能力** 将文本转换为数值向量,捕捉语义信息,实现高效的语义检索、相似度计算和智能推荐。 ## 🌟 核心特性 * **🎯 OpenAI 顶级模型**:text-embedding-3-large、text-embedding-3-small、text-embedding-ada-002 * **⚡ 超高并发**:支持大规模并发请求,适合企业级应用 * **💰 极低成本**:按量付费,价格低至 \$0.02/百万 tokens * **🔧 简单易用**:兼容 OpenAI API 格式,无缝集成 * **📊 高质量向量**:捕捉深层语义,检索准确度高 ## 📋 支持的 Embedding 模型 | 模型名称 | 模型 ID | 向量维度 | 价格 | 推荐场景 | | ---------------------------- | ------------------------ | ------ | ---------------- | ---------- | | **text-embedding-3-large** | `text-embedding-3-large` | 3072 维 | \$0.13/1M tokens | 高精度语义检索 | | **text-embedding-3-small** ⭐ | `text-embedding-3-small` | 1536 维 | \$0.02/1M tokens | 通用场景,性价比最高 | | **text-embedding-ada-002** | `text-embedding-ada-002` | 1536 维 | \$0.10/1M tokens | 经典模型,兼容性好 | **模型选择建议**: * **高精度需求**:使用 text-embedding-3-large,适合专业知识库、法律文档等场景 * **通用场景**:推荐 text-embedding-3-small,性价比最高,适合大多数应用 * **兼容性优先**:使用 text-embedding-ada-002,与旧版本完全兼容 ## 🚀 快速开始 ### 1. 最简单示例 - 使用 curl 命令 ```bash theme={null} curl https://api.apiyi.com/v1/embeddings \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "input": "人工智能正在改变世界", "model": "text-embedding-3-small" }' ``` ```json theme={null} { "object": "list", "data": [ { "object": "embedding", "index": 0, "embedding": [ -0.006929283, -0.005336422, 0.024047505, -0.01407986, ... ] } ], "model": "text-embedding-3-small", "usage": { "prompt_tokens": 5, "total_tokens": 5 } } ``` ### 2. 基础示例 - 使用 OpenAI SDK ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) def get_embedding(text, model="text-embedding-3-small"): """获取文本的向量表示""" response = client.embeddings.create( input=text, model=model ) return response.data[0].embedding # 使用示例 text = "人工智能正在改变世界" embedding = get_embedding(text) print(f"向量维度: {len(embedding)}") print(f"向量前5个值: {embedding[:5]}") ``` ### 3. 批量文本向量化 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) def batch_get_embeddings(texts, model="text-embedding-3-small"): """批量获取文本向量""" response = client.embeddings.create( input=texts, model=model ) return [item.embedding for item in response.data] # 批量处理 texts = [ "机器学习是人工智能的核心技术", "深度学习推动了AI的发展", "自然语言处理让机器理解人类语言", "计算机视觉让机器看懂图像" ] embeddings = batch_get_embeddings(texts) print(f"成功向量化 {len(embeddings)} 条文本") ``` ### 4. 使用 requests 库 ```python theme={null} import requests def get_embedding_with_requests(text, model="text-embedding-3-small"): """使用 requests 库获取向量""" url = "https://api.apiyi.com/v1/embeddings" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } payload = { "model": model, "input": text } response = requests.post(url, headers=headers, json=payload) if response.status_code == 200: data = response.json() return data['data'][0]['embedding'] else: print(f"错误: {response.status_code} - {response.text}") return None # 使用示例 embedding = get_embedding_with_requests("人工智能技术") print(f"向量维度: {len(embedding)}") ``` ## 🎯 典型应用场景 ### 1. 语义搜索引擎 ```python theme={null} import numpy as np from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) def cosine_similarity(a, b): """计算余弦相似度""" return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b)) def semantic_search(query, documents, top_k=3): """语义搜索""" # 获取查询和文档的向量 all_texts = [query] + documents response = client.embeddings.create( input=all_texts, model="text-embedding-3-small" ) embeddings = [item.embedding for item in response.data] query_embedding = embeddings[0] doc_embeddings = embeddings[1:] # 计算相似度 similarities = [ cosine_similarity(query_embedding, doc_emb) for doc_emb in doc_embeddings ] # 排序并返回最相关的文档 ranked_indices = np.argsort(similarities)[::-1][:top_k] results = [ { "document": documents[i], "similarity": similarities[i] } for i in ranked_indices ] return results # 使用示例 documents = [ "Python是一种高级编程语言", "机器学习需要大量数据", "深度学习是AI的重要分支", "JavaScript用于网页开发" ] query = "人工智能和机器学习" results = semantic_search(query, documents) for i, result in enumerate(results, 1): print(f"{i}. {result['document']} (相似度: {result['similarity']:.4f})") ``` ### 2. 构建向量数据库 ```python theme={null} import numpy as np import json from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) class SimpleVectorDB: """简单的向量数据库实现""" def __init__(self, model="text-embedding-3-small"): self.model = model self.documents = [] self.embeddings = [] def add_documents(self, docs): """添加文档到向量库""" # 获取向量 response = client.embeddings.create( input=docs, model=self.model ) embeddings = [item.embedding for item in response.data] self.documents.extend(docs) self.embeddings.extend(embeddings) print(f"已添加 {len(docs)} 条文档到向量库") def search(self, query, top_k=5): """搜索最相关的文档""" # 获取查询向量 response = client.embeddings.create( input=query, model=self.model ) query_embedding = response.data[0].embedding # 计算相似度 similarities = [] for doc_embedding in self.embeddings: sim = np.dot(query_embedding, doc_embedding) / ( np.linalg.norm(query_embedding) * np.linalg.norm(doc_embedding) ) similarities.append(sim) # 排序 ranked_indices = np.argsort(similarities)[::-1][:top_k] return [ { "document": self.documents[i], "similarity": similarities[i] } for i in ranked_indices ] def save(self, filepath): """保存向量库到文件""" data = { "documents": self.documents, "embeddings": self.embeddings, "model": self.model } with open(filepath, 'w', encoding='utf-8') as f: json.dump(data, f, ensure_ascii=False) def load(self, filepath): """从文件加载向量库""" with open(filepath, 'r', encoding='utf-8') as f: data = json.load(f) self.documents = data['documents'] self.embeddings = data['embeddings'] self.model = data['model'] # 使用示例 db = SimpleVectorDB() # 添加知识库文档 knowledge_base = [ "机器学习是让计算机从数据中学习的技术", "深度学习使用多层神经网络处理复杂模式", "自然语言处理帮助计算机理解人类语言", "强化学习通过奖励机制训练智能体" ] db.add_documents(knowledge_base) # 搜索 results = db.search("什么是深度学习?", top_k=2) for result in results: print(f"相似度 {result['similarity']:.4f}: {result['document']}") ``` ### 3. 文本去重和聚类 ```python theme={null} import numpy as np from sklearn.cluster import KMeans from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) def deduplicate_texts(texts, threshold=0.95): """基于向量相似度去重""" # 获取所有文本的向量 response = client.embeddings.create( input=texts, model="text-embedding-3-small" ) embeddings = np.array([item.embedding for item in response.data]) # 计算相似度矩阵 unique_indices = [0] # 保留第一个 for i in range(1, len(texts)): is_duplicate = False for j in unique_indices: similarity = np.dot(embeddings[i], embeddings[j]) / ( np.linalg.norm(embeddings[i]) * np.linalg.norm(embeddings[j]) ) if similarity > threshold: is_duplicate = True break if not is_duplicate: unique_indices.append(i) return [texts[i] for i in unique_indices] def cluster_texts(texts, n_clusters=3): """文本聚类""" # 获取向量 response = client.embeddings.create( input=texts, model="text-embedding-3-small" ) embeddings = np.array([item.embedding for item in response.data]) # K-means 聚类 kmeans = KMeans(n_clusters=n_clusters, random_state=42) labels = kmeans.fit_predict(embeddings) # 组织结果 clusters = {i: [] for i in range(n_clusters)} for text, label in zip(texts, labels): clusters[label].append(text) return clusters # 使用示例 - 去重 texts_with_duplicates = [ "人工智能正在改变世界", "AI技术正在改变我们的世界", # 语义相似 "机器学习是AI的核心", "深度学习推动AI发展" ] unique_texts = deduplicate_texts(texts_with_duplicates, threshold=0.9) print(f"去重后剩余 {len(unique_texts)} 条文本") # 使用示例 - 聚类 texts_to_cluster = [ "Python编程语言", "机器学习算法", "Java开发框架", "深度学习模型", "JavaScript前端开发", "神经网络训练" ] clusters = cluster_texts(texts_to_cluster, n_clusters=2) for cluster_id, cluster_texts in clusters.items(): print(f"\n聚类 {cluster_id}:") for text in cluster_texts: print(f" - {text}") ``` ### 4. RAG(检索增强生成)系统 ```python theme={null} from openai import OpenAI import numpy as np client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) class RAGSystem: """简单的 RAG 系统实现""" def __init__(self): self.knowledge_base = [] self.embeddings = [] def add_knowledge(self, documents): """添加知识到知识库""" response = client.embeddings.create( input=documents, model="text-embedding-3-small" ) embeddings = [item.embedding for item in response.data] self.knowledge_base.extend(documents) self.embeddings.extend(embeddings) def retrieve(self, query, top_k=3): """检索相关文档""" # 获取查询向量 response = client.embeddings.create( input=query, model="text-embedding-3-small" ) query_embedding = response.data[0].embedding # 计算相似度 similarities = [ np.dot(query_embedding, doc_emb) / ( np.linalg.norm(query_embedding) * np.linalg.norm(doc_emb) ) for doc_emb in self.embeddings ] # 获取最相关的文档 top_indices = np.argsort(similarities)[::-1][:top_k] return [self.knowledge_base[i] for i in top_indices] def generate_answer(self, question): """生成答案""" # 检索相关知识 relevant_docs = self.retrieve(question, top_k=3) # 构建 prompt context = "\n".join(relevant_docs) prompt = f"""基于以下知识回答问题: 知识库内容: {context} 问题:{question} 请基于上述知识给出准确的回答:""" # 生成回答 response = client.chat.completions.create( model="gpt-4o-mini", messages=[ {"role": "user", "content": prompt} ], temperature=0.3 ) return response.choices[0].message.content # 使用示例 rag = RAGSystem() # 添加知识库 knowledge = [ "GPT-4 是 OpenAI 开发的大型语言模型,具有强大的理解和生成能力。", "Claude 是 Anthropic 开发的 AI 助手,注重安全性和有用性。", "Gemini 是 Google 开发的多模态 AI 模型,支持文本、图像和视频。", "LLaMA 是 Meta 开发的开源大语言模型系列。" ] rag.add_knowledge(knowledge) # 提问并生成答案 question = "GPT-4 是谁开发的?" answer = rag.generate_answer(question) print(f"问题: {question}") print(f"答案: {answer}") ``` ### 5. 推荐系统 ```python theme={null} import numpy as np from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) class ContentRecommender: """基于内容的推荐系统""" def __init__(self): self.items = [] self.embeddings = [] def add_items(self, items): """添加物品(标题、描述等)""" response = client.embeddings.create( input=items, model="text-embedding-3-small" ) embeddings = [item.embedding for item in response.data] self.items.extend(items) self.embeddings.extend(embeddings) def recommend(self, user_preference, top_k=5): """基于用户偏好推荐""" # 获取用户偏好向量 response = client.embeddings.create( input=user_preference, model="text-embedding-3-small" ) pref_embedding = response.data[0].embedding # 计算相似度 similarities = [ np.dot(pref_embedding, item_emb) / ( np.linalg.norm(pref_embedding) * np.linalg.norm(item_emb) ) for item_emb in self.embeddings ] # 排序推荐 top_indices = np.argsort(similarities)[::-1][:top_k] return [ { "item": self.items[i], "score": similarities[i] } for i in top_indices ] # 使用示例 recommender = ContentRecommender() # 添加商品 products = [ "MacBook Pro M3 专业笔记本电脑 高性能办公", "iPhone 15 Pro 智能手机 拍照摄影", "AirPods Pro 无线降噪耳机", "iPad Air 平板电脑 娱乐学习", "ThinkPad X1 商务笔记本 办公利器" ] recommender.add_items(products) # 推荐 user_pref = "我想买一台用于编程和办公的笔记本电脑" recommendations = recommender.recommend(user_pref, top_k=3) print(f"用户需求: {user_pref}\n") print("推荐商品:") for i, rec in enumerate(recommendations, 1): print(f"{i}. {rec['item']} (匹配度: {rec['score']:.4f})") ``` ## 💡 最佳实践 ### 1. 文本预处理 ```python theme={null} import re def preprocess_text(text): """文本预处理""" # 去除多余空白 text = re.sub(r'\s+', ' ', text) # 去除特殊字符(可选) # text = re.sub(r'[^\w\s]', '', text) # 转小写(可选,取决于场景) # text = text.lower() return text.strip() # 长文本分块 def chunk_text(text, max_tokens=500, overlap=50): """将长文本分割成小块""" words = text.split() chunks = [] for i in range(0, len(words), max_tokens - overlap): chunk = ' '.join(words[i:i + max_tokens]) chunks.append(chunk) return chunks # 使用示例 long_text = """这是一段很长的文本...""" chunks = chunk_text(long_text, max_tokens=200) # 为每个分块获取向量 embeddings = batch_get_embeddings(chunks) ``` ### 2. 缓存机制 ```python theme={null} import hashlib import pickle import os class EmbeddingCache: """向量缓存系统""" def __init__(self, cache_dir="./embedding_cache"): self.cache_dir = cache_dir os.makedirs(cache_dir, exist_ok=True) def _get_cache_key(self, text, model): """生成缓存键""" content = f"{text}_{model}" return hashlib.md5(content.encode()).hexdigest() def get(self, text, model): """获取缓存的向量""" cache_key = self._get_cache_key(text, model) cache_file = os.path.join(self.cache_dir, f"{cache_key}.pkl") if os.path.exists(cache_file): with open(cache_file, 'rb') as f: return pickle.load(f) return None def set(self, text, model, embedding): """保存向量到缓存""" cache_key = self._get_cache_key(text, model) cache_file = os.path.join(self.cache_dir, f"{cache_key}.pkl") with open(cache_file, 'wb') as f: pickle.dump(embedding, f) def clear(self): """清空缓存""" for file in os.listdir(self.cache_dir): os.remove(os.path.join(self.cache_dir, file)) # 使用缓存的向量获取函数 cache = EmbeddingCache() def get_embedding_cached(text, model="text-embedding-3-small"): """带缓存的向量获取""" # 尝试从缓存获取 cached = cache.get(text, model) if cached is not None: return cached # 调用 API response = client.embeddings.create(input=text, model=model) embedding = response.data[0].embedding # 保存到缓存 cache.set(text, model, embedding) return embedding ``` ### 3. 错误处理和重试 ```python theme={null} import time from openai import OpenAI def get_embedding_with_retry(text, model="text-embedding-3-small", max_retries=3): """带重试机制的向量获取""" client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) for attempt in range(max_retries): try: response = client.embeddings.create( input=text, model=model ) return response.data[0].embedding except Exception as e: print(f"尝试 {attempt + 1}/{max_retries} 失败: {e}") if attempt < max_retries - 1: time.sleep(2 ** attempt) # 指数退避 else: raise return None ``` ### 4. 批处理优化 ```python theme={null} def batch_process_large_dataset(texts, batch_size=100, model="text-embedding-3-small"): """大数据集批量处理""" all_embeddings = [] for i in range(0, len(texts), batch_size): batch = texts[i:i + batch_size] print(f"处理批次 {i//batch_size + 1}/{(len(texts)-1)//batch_size + 1}") try: response = client.embeddings.create( input=batch, model=model ) embeddings = [item.embedding for item in response.data] all_embeddings.extend(embeddings) # 避免速率限制 time.sleep(0.1) except Exception as e: print(f"批次处理失败: {e}") # 可以选择重试或跳过 return all_embeddings ``` ## 🔧 高级技巧 ### 1. 多语言支持 ```python theme={null} # OpenAI Embedding 模型天然支持多语言 multilingual_texts = [ "人工智能改变世界", # 中文 "AI is changing the world", # 英文 "L'IA change le monde", # 法文 "AIが世界を変える" # 日文 ] embeddings = batch_get_embeddings(multilingual_texts) # 可以跨语言计算相似度 sim = cosine_similarity(embeddings[0], embeddings[1]) print(f"中英文相似度: {sim:.4f}") ``` ### 2. 维度归一化 ```python theme={null} import numpy as np def normalize_embedding(embedding): """L2 归一化""" norm = np.linalg.norm(embedding) return embedding / norm if norm > 0 else embedding # 归一化后可以直接用点积计算余弦相似度 emb1_normalized = normalize_embedding(embedding1) emb2_normalized = normalize_embedding(embedding2) similarity = np.dot(emb1_normalized, emb2_normalized) ``` ### 3. 使用不同维度 ```python theme={null} # text-embedding-3-large 支持自定义维度 response = client.embeddings.create( input="示例文本", model="text-embedding-3-large", dimensions=1024 # 可以指定维度,最大 3072 ) # 更小的维度可以节省存储和计算成本 ``` ## 📊 性能对比 | 特性 | text-embedding-3-large | text-embedding-3-small | text-embedding-ada-002 | | ---- | ---------------------- | ---------------------- | ---------------------- | | 向量维度 | 3072 | 1536 | 1536 | | 准确度 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | | 速度 | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | | 价格 | \$0.13/1M tokens | \$0.02/1M tokens | \$0.10/1M tokens | | 推荐场景 | 高精度检索 | 通用场景 | 兼容旧版 | ## 💰 成本优化建议 1. **选择合适的模型** * 通用场景使用 text-embedding-3-small(最便宜) * 高精度需求才使用 text-embedding-3-large 2. **批量处理** * 尽量批量发送请求,减少网络开销 * 单次请求最多支持数千条文本 3. **缓存策略** * 对重复文本使用缓存,避免重复计算 * 存储向量结果,减少 API 调用 4. **文本预处理** * 去除无用信息,减少 token 消耗 * 合理分块,避免超长文本 ## 🚨 注意事项 1. **文本长度**:单个文本不要超过模型的 token 限制(通常 8191 tokens) 2. **批量限制**:单次请求建议不超过 2048 条文本 3. **速率限制**:注意 API 的速率限制,必要时添加延迟 4. **向量存储**:合理选择向量数据库(如 Pinecone、Milvus、Weaviate) 5. **相似度计算**:推荐使用余弦相似度,效果最好 ## 🔗 相关资源 * [完整代码示例](https://github.com/apiyi-api/ai-api-code-samples) * [API 定价说明](https://api.apiyi.com/account/pricing) * [向量数据库选型指南](/wiki/infrastructure/vector-database-selection) 💡 **小贴士**:Embedding 是构建智能应用的基础能力。推荐从 text-embedding-3-small 开始,它在性能和成本之间达到了最佳平衡。对于企业级应用,建议结合专业的向量数据库(如 Pinecone、Milvus)使用。 # 文本生成(对话补全) Source: https://docs.apiyi.com/api-capabilities/text-generation 使用大语言模型进行对话补全,支持单轮对话、多轮对话、角色扮演等多种文本生成场景 ## 功能概述 文本生成(Chat Completions)是 API易平台最核心的能力之一,支持调用 200+ 热门 AI 大模型进行智能对话和文本生成。通过统一的 OpenAI 兼容接口,你可以轻松实现: * **智能对话**:构建聊天机器人、虚拟助手 * **内容创作**:文章写作、创意生成、文案润色 * **代码辅助**:代码生成、调试、重构建议 * **知识问答**:回答问题、知识检索、信息提取 * **角色扮演**:定制化 AI 角色、场景模拟 支持 OpenAI GPT-4、Claude、Gemini、DeepSeek、Qwen 等 200+ 主流大模型,一个 API Key 调用所有模型。 ## 快速开始 ### 基础对话示例 使用 Chat Completions API 进行简单的单轮对话: ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="gpt-4o", messages=[ {"role": "user", "content": "介绍一下人工智能的发展历程"} ] ) print(response.choices[0].message.content) ``` ### 多轮对话示例 通过 `messages` 数组维护对话历史,实现上下文连贯的多轮对话: ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) messages = [ {"role": "system", "content": "你是一个专业的 Python 编程助手"}, {"role": "user", "content": "如何读取 CSV 文件?"}, {"role": "assistant", "content": "可以使用 pandas 库的 read_csv() 函数..."}, {"role": "user", "content": "那如何过滤特定列的数据?"} ] response = client.chat.completions.create( model="gpt-4o", messages=messages ) print(response.choices[0].message.content) ``` ## 核心参数详解 ### model(必填) 指定要使用的模型名称,详见 [模型信息](/api-capabilities/model-info) 页面。 ```python theme={null} model="gpt-4o" # GPT-4 Omni model="claude-sonnet-4.5" # Claude Sonnet 4.5 model="gemini-3-pro-preview" # Gemini 3 Pro model="deepseek-chat" # DeepSeek Chat ``` ### messages(必填) 对话消息数组,每条消息包含 `role` 和 `content` 字段: 系统提示,定义 AI 的行为和角色 用户消息,代表用户的输入 助手消息,代表 AI 的回复 ```python theme={null} messages = [ {"role": "system", "content": "你是一个友好的客服助手"}, {"role": "user", "content": "我想咨询退款问题"}, {"role": "assistant", "content": "好的,请问您遇到了什么问题?"}, {"role": "user", "content": "商品有质量问题"} ] ``` ### temperature(可选) 控制输出的随机性,范围 `0.0 ~ 2.0`,默认 `1.0`: * **0.0 \~ 0.3**:输出更确定、一致,适合事实性任务(翻译、总结、代码生成) * **0.7 \~ 1.0**:平衡创造性和准确性,适合日常对话 * **1.0 \~ 2.0**:输出更有创意、多样性,适合创意写作、头脑风暴 ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "写一首关于春天的诗"}], temperature=1.2 # 提高创造性 ) ``` ### max\_tokens(可选) 限制生成的最大 token 数量,用于控制成本和响应长度: ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "用一句话介绍 AI"}], max_tokens=50 # 限制输出长度 ) ``` 不同模型的 token 计费标准不同,详见 [定价说明](/pricing) 页面。 ### top\_p(可选) 核采样参数,范围 `0.0 ~ 1.0`,控制输出的多样性: * 较低的值(如 `0.5`):输出更聚焦、确定 * 较高的值(如 `0.9`):输出更多样、随机 ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "推荐一些科幻电影"}], top_p=0.8 ) ``` 通常建议只调整 `temperature` 或 `top_p` 其中之一,避免同时使用。 ### stream(可选) 启用流式输出,逐 token 返回结果,提升用户体验: ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "写一篇关于人工智能的文章"}], stream=True ) for chunk in response: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="") ``` 详见 [流式输出](/wiki/applications/streaming-output) 文档。 ## 高级用法 ### 系统提示(System Prompt) 通过 `system` 角色定义 AI 的行为、角色、知识范围和回复风格: ```python theme={null} messages = [ { "role": "system", "content": """你是一个专业的法律顾问助手。 规则: 1. 提供准确、专业的法律建议 2. 使用通俗易懂的语言解释法律术语 3. 必要时引用相关法律条文 4. 避免给出绝对性的结论,建议咨询专业律师 5. 保持中立、客观的立场""" }, {"role": "user", "content": "请问劳动合同可以随时解除吗?"} ] ``` ### 角色扮演 创建具有特定性格和专业领域的 AI 助手: ```python theme={null} messages = [ { "role": "system", "content": "你是一位资深的 Python 开发者,拥有 10 年经验。你擅长用简洁的代码解决问题,喜欢使用 Pythonic 的写法,并且会主动指出代码中的潜在问题。" }, {"role": "user", "content": "帮我写一个快速排序算法"} ] ``` ### 上下文管理 对于长对话,需要合理管理上下文长度,避免超过模型的 token 限制: ```python theme={null} def manage_context(messages, max_history=10): """保留最近的对话历史""" # 保留 system 消息 system_messages = [m for m in messages if m["role"] == "system"] # 保留最近的 N 条对话 recent_messages = messages[-max_history:] return system_messages + recent_messages # 使用示例 messages = manage_context(messages, max_history=10) response = client.chat.completions.create( model="gpt-4o", messages=messages ) ``` ### JSON 模式输出 某些模型支持强制输出 JSON 格式: ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=[ {"role": "system", "content": "你是一个数据提取助手,始终以 JSON 格式返回结果"}, {"role": "user", "content": "提取这段文本的关键信息:张三,男,30岁,软件工程师"} ], response_format={"type": "json_object"} ) import json result = json.loads(response.choices[0].message.content) print(result) ``` ## 最佳实践 ### 1. 选择合适的模型 根据任务需求选择性价比最优的模型: | 任务类型 | 推荐模型 | 说明 | | ----- | ----------------------------------------------- | -------- | | 日常对话 | gpt-4o-mini, deepseek-chat | 成本低,响应快 | | 复杂推理 | gpt-4o, claude-sonnet-4.5, gemini-3-pro-preview | 能力强,准确度高 | | 代码生成 | gpt-4o, deepseek-coder, claude-sonnet-4.5 | 专业性强 | | 创意写作 | claude-sonnet-4.5, gpt-4o | 文笔流畅 | | 多语言翻译 | gemini-3-pro-preview, gpt-4o | 支持语言多 | ### 2. 优化提示词(Prompt) 好的提示词能显著提升输出质量: 清楚说明需要 AI 做什么,提供必要的上下文 明确输出格式、长度、语气等要求 给出输入输出示例,帮助 AI 理解期望 复杂任务拆分成多个步骤,逐步完成 ```python theme={null} # ❌ 不好的提示词 "写一篇文章" # ✅ 好的提示词 """请写一篇关于人工智能在医疗领域应用的科普文章。 要求: - 长度:800-1000 字 - 受众:普通读者 - 结构:引言、应用场景、案例分析、未来展望 - 语气:专业但易懂 - 包含 2-3 个真实案例""" ``` ### 3. 控制成本 合理使用参数降低 API 调用成本: ```python theme={null} # 设置 max_tokens 限制输出长度 response = client.chat.completions.create( model="gpt-4o-mini", # 使用性价比更高的模型 messages=messages, max_tokens=500, # 限制最大输出 temperature=0.7 ) {/* 定期清理对话历史 */} if len(messages) > 20: messages = messages[-10:] # 只保留最近 10 条 ``` ### 4. 错误处理 添加异常处理,提升应用稳定性: ```python theme={null} from openai import OpenAI, OpenAIError import time client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) def chat_with_retry(messages, max_retries=3): """带重试机制的聊天函数""" for attempt in range(max_retries): try: response = client.chat.completions.create( model="gpt-4o", messages=messages ) return response.choices[0].message.content except OpenAIError as e: if attempt < max_retries - 1: time.sleep(2 ** attempt) # 指数退避 continue else: raise # 使用示例 try: result = chat_with_retry(messages) print(result) except OpenAIError as e: print(f"API 调用失败:{e}") ``` 详见 [错误处理](/wiki/applications/error-handling) 文档。 ### 5. 使用流式输出 对于长文本生成,建议使用流式输出提升用户体验: ```python theme={null} def stream_chat(messages): """流式输出示例""" response = client.chat.completions.create( model="gpt-4o", messages=messages, stream=True ) full_response = "" for chunk in response: if chunk.choices[0].delta.content: content = chunk.choices[0].delta.content print(content, end="", flush=True) full_response += content return full_response ``` ## 常见问题 ### 如何计算 token 数量? 不同模型的 tokenizer 不同,建议使用 `tiktoken` 库估算: ```python theme={null} import tiktoken def count_tokens(text, model="gpt-4o"): """估算文本的 token 数量""" encoding = tiktoken.encoding_for_model(model) return len(encoding.encode(text)) # 使用示例 text = "你好,世界!" tokens = count_tokens(text) print(f"Token 数量:{tokens}") ``` ### 为什么输出被截断了? 可能的原因: 1. 达到了 `max_tokens` 限制 2. 模型的上下文窗口不足 3. 触发了内容安全策略 解决方法: * 增加 `max_tokens` 参数 * 选择支持更长上下文的模型 * 检查 `finish_reason` 字段判断原因 ```python theme={null} response = client.chat.completions.create( model="gpt-4o", messages=messages, max_tokens=2000 # 增加输出长度限制 ) finish_reason = response.choices[0].finish_reason if finish_reason == "length": print("输出因长度限制被截断") elif finish_reason == "content_filter": print("输出因内容安全被过滤") ``` ### 如何实现对话记忆? 在应用层维护对话历史: ```python theme={null} class ChatSession: def __init__(self, system_prompt=""): self.messages = [] if system_prompt: self.messages.append({"role": "system", "content": system_prompt}) def chat(self, user_message): """发送消息并记录对话""" self.messages.append({"role": "user", "content": user_message}) response = client.chat.completions.create( model="gpt-4o", messages=self.messages ) assistant_message = response.choices[0].message.content self.messages.append({"role": "assistant", "content": assistant_message}) return assistant_message # 使用示例 session = ChatSession(system_prompt="你是一个友好的助手") print(session.chat("你好")) print(session.chat("我刚才说了什么?")) # AI 可以记住上下文 ``` ## 相关文档 查看支持的所有模型及定价 将文本转换为向量表示 实现打字机效果的流式响应 处理 API 调用异常 # 文本审核(Moderation) Source: https://docs.apiyi.com/api-capabilities/text-moderation 使用 AI 模型检测文本内容是否包含违规、有害、不适当内容,保障平台内容安全 ## 功能概述 文本审核(Moderation)API 基于先进的 AI 模型,能够自动检测和识别文本内容中的潜在风险,帮助你构建安全、合规的应用程序。 支持 OpenAI Moderation 模型及其他主流内容审核模型,准确率高,响应速度快。 ### 主要能力 识别暴力、色情、仇恨等违规内容 检测自残、骚扰、欺诈等有害信息 支持中文、英文等多语言内容审核 提供详细的违规类别和置信度评分 ## 快速开始 ### 基础调用示例 使用 Moderation API 检测文本内容是否违规: ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) response = client.moderations.create( model="omni-moderation-latest", input="这是一段需要检测的文本内容" ) result = response.results[0] if result.flagged: print("⚠️ 检测到违规内容") print(f"违规类别:{result.categories}") else: print("✅ 内容安全") ``` ### 批量检测示例 一次性检测多段文本: ```python theme={null} texts = [ "这是第一段文本", "这是第二段文本", "这是第三段文本" ] response = client.moderations.create( model="omni-moderation-latest", input=texts ) for i, result in enumerate(response.results): print(f"文本 {i+1}:{'违规' if result.flagged else '安全'}") ``` ## 审核类别 ### OpenAI Moderation 支持的类别 | 类别 | 说明 | 示例 | | ------------------------ | ------- | ----------------- | | `hate` | 仇恨言论 | 基于种族、性别、宗教等的歧视性内容 | | `hate/threatening` | 威胁性仇恨言论 | 包含暴力威胁的仇恨内容 | | `harassment` | 骚扰 | 侮辱、嘲讽、人身攻击 | | `harassment/threatening` | 威胁性骚扰 | 包含威胁的骚扰内容 | | `self-harm` | 自残 | 鼓励、美化自残行为 | | `self-harm/intent` | 自残意图 | 表达自残意图的内容 | | `self-harm/instructions` | 自残指导 | 提供自残方法的内容 | | `sexual` | 性相关内容 | 成人内容、色情描述 | | `sexual/minors` | 未成年性内容 | 涉及未成年人的性相关内容 | | `violence` | 暴力 | 暴力行为、血腥场面 | | `violence/graphic` | 血腥暴力 | 详细的暴力、血腥描述 | 不同模型支持的审核类别可能有所不同,请根据实际需求选择合适的模型。 ## 返回结果详解 ### 响应结构 ```json theme={null} { "id": "modr-xxxxx", "model": "omni-moderation-latest", "results": [ { "flagged": true, "categories": { "hate": false, "hate/threatening": false, "harassment": false, "harassment/threatening": false, "self-harm": false, "self-harm/intent": false, "self-harm/instructions": false, "sexual": false, "sexual/minors": false, "violence": true, "violence/graphic": false }, "category_scores": { "hate": 0.0001, "hate/threatening": 0.0001, "harassment": 0.0002, "harassment/threatening": 0.0001, "self-harm": 0.0001, "self-harm/intent": 0.0001, "self-harm/instructions": 0.0001, "sexual": 0.0001, "sexual/minors": 0.0001, "violence": 0.9876, "violence/graphic": 0.1234 } } ] } ``` ### 字段说明 布尔值,是否检测到违规内容 各类别的二元判断结果 各类别的置信度评分(0-1) ## 集成示例 ### 聊天内容审核 在聊天应用中集成内容审核: ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) def moderate_message(user_message): """审核用户消息""" # 1. 先审核内容 moderation = client.moderations.create( model="omni-moderation-latest", input=user_message ) result = moderation.results[0] # 2. 如果违规,拒绝处理 if result.flagged: violated_categories = [ category for category, flagged in result.categories.items() if flagged ] return { "success": False, "error": f"检测到违规内容:{', '.join(violated_categories)}", "message": "您的消息包含不适当内容,请修改后重试" } # 3. 内容安全,继续处理 response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": user_message}] ) return { "success": True, "reply": response.choices[0].message.content } # 使用示例 user_input = "帮我写一篇关于人工智能的文章" result = moderate_message(user_input) if result["success"]: print(result["reply"]) else: print(result["message"]) ``` ### UGC(用户生成内容)过滤 在论坛、评论区等场景过滤用户内容: ```python theme={null} def review_ugc(content): """审核用户生成内容""" moderation = client.moderations.create( model="omni-moderation-latest", input=content ) result = moderation.results[0] if not result.flagged: return {"status": "approved", "action": "发布"} # 分析违规严重程度 max_score = max(result.category_scores.values()) if max_score > 0.9: return {"status": "rejected", "action": "拒绝发布"} elif max_score > 0.7: return {"status": "pending", "action": "人工复审"} else: return {"status": "approved_with_warning", "action": "发布并标记"} # 使用示例 ugc_content = "这是一条用户评论..." review_result = review_ugc(ugc_content) print(f"审核结果:{review_result['action']}") ``` ### AI 生成内容审核 对 AI 生成的内容进行二次审核: ```python theme={null} def generate_safe_content(prompt): """生成内容并审核""" # 1. 先审核用户输入 input_moderation = client.moderations.create( model="omni-moderation-latest", input=prompt ) if input_moderation.results[0].flagged: return "您的请求包含不适当内容,无法处理" # 2. 生成内容 response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": prompt}] ) generated_content = response.choices[0].message.content # 3. 审核生成的内容 output_moderation = client.moderations.create( model="omni-moderation-latest", input=generated_content ) if output_moderation.results[0].flagged: return "生成的内容不符合安全规范,已被过滤" return generated_content # 使用示例 result = generate_safe_content("写一个儿童故事") print(result) ``` ## 高级用法 ### 自定义审核阈值 根据业务需求调整审核严格程度: ```python theme={null} def custom_moderation(text, threshold=0.5): """自定义审核阈值""" moderation = client.moderations.create( model="omni-moderation-latest", input=text ) result = moderation.results[0] # 使用自定义阈值判断 flagged_categories = [] for category, score in result.category_scores.items(): if score > threshold: flagged_categories.append({ "category": category, "score": score, "severity": "high" if score > 0.8 else "medium" }) return { "flagged": len(flagged_categories) > 0, "violations": flagged_categories } # 使用示例 result = custom_moderation("这是测试文本", threshold=0.3) if result["flagged"]: for violation in result["violations"]: print(f"{violation['category']}: {violation['score']:.2f} ({violation['severity']})") ``` ### 审核日志记录 记录审核历史,用于分析和改进: ```python theme={null} import json from datetime import datetime def moderate_with_logging(text, user_id=None): """带日志记录的审核""" moderation = client.moderations.create( model="omni-moderation-latest", input=text ) result = moderation.results[0] # 记录审核日志 log_entry = { "timestamp": datetime.now().isoformat(), "user_id": user_id, "text_length": len(text), "flagged": result.flagged, "categories": {k: v for k, v in result.categories.items() if v}, "max_score": max(result.category_scores.values()) } # 保存到日志文件 with open("moderation_logs.jsonl", "a") as f: f.write(json.dumps(log_entry, ensure_ascii=False) + "\n") return result.flagged # 使用示例 is_flagged = moderate_with_logging("测试文本", user_id="user_123") ``` ### 多模型联合审核 结合多个审核模型提高准确性: ```python theme={null} def multi_model_moderation(text): """使用多个模型进行审核""" models = ["omni-moderation-latest", "text-moderation-stable"] results = [] for model in models: try: moderation = client.moderations.create( model=model, input=text ) results.append(moderation.results[0]) except Exception as e: print(f"模型 {model} 调用失败:{e}") # 如果任一模型判定为违规,则认为违规 flagged = any(r.flagged for r in results) return { "flagged": flagged, "model_count": len(results), "results": results } ``` ## 最佳实践 ### 1. 双向审核 审核用户输入,防止恶意请求 审核 AI 生成内容,确保输出安全 ```python theme={null} def safe_chat(user_message): """双向审核的聊天""" # 输入审核 if moderate_text(user_message): return "您的消息包含不适当内容" # 生成回复 response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": user_message}] ) reply = response.choices[0].message.content # 输出审核 if moderate_text(reply): return "AI 生成的内容未通过安全审核" return reply ``` ### 2. 异步审核 对于非实时场景,使用异步审核提升性能: ```python theme={null} import asyncio from openai import AsyncOpenAI async_client = AsyncOpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) async def async_moderate(texts): """异步批量审核""" tasks = [ async_client.moderations.create( model="omni-moderation-latest", input=text ) for text in texts ] results = await asyncio.gather(*tasks) return [r.results[0].flagged for r in results] # 使用示例 texts = ["文本1", "文本2", "文本3"] flagged_list = asyncio.run(async_moderate(texts)) ``` ### 3. 缓存审核结果 对于相同内容,缓存审核结果减少 API 调用: ```python theme={null} import hashlib from functools import lru_cache @lru_cache(maxsize=1000) def cached_moderate(text_hash): """缓存审核结果""" # 实际的审核逻辑 pass def moderate_with_cache(text): """带缓存的审核""" text_hash = hashlib.md5(text.encode()).hexdigest() return cached_moderate(text_hash) ``` ### 4. 分级处理 根据违规程度采取不同措施: ```python theme={null} def handle_moderation_result(text, result): """分级处理审核结果""" if not result.flagged: return {"action": "allow", "message": "内容安全"} max_score = max(result.category_scores.values()) if max_score > 0.95: return {"action": "block", "message": "严重违规,直接拒绝"} elif max_score > 0.8: return {"action": "review", "message": "疑似违规,人工复审"} elif max_score > 0.5: return {"action": "warn", "message": "轻微违规,提示用户"} else: return {"action": "allow", "message": "可能误判,放行"} ``` ## 常见问题 ### 审核是否支持中文? 支持。OpenAI Moderation 和其他主流审核模型都支持中文内容审核,准确率与英文相当。 ### 审核延迟是多少? 通常在 100-500ms 之间,具体取决于: * 文本长度 * 模型选择 * 网络状况 ### 如何处理误判? 建议采取分级策略: 1. 高置信度违规:直接拒绝 2. 中等置信度:人工复审 3. 低置信度:放行或提示 ### 审核是否收费? OpenAI Moderation API 目前免费,其他模型可能收费,详见 [定价说明](/pricing)。 ### 可以审核图片和视频吗? 当前 Moderation API 主要针对文本内容。图片和视频审核需要使用专门的多模态审核模型。 ## 相关文档 Chat Completions API 文档 平台内容安全政策 API 错误处理最佳实践 审核 API 定价详情 # 异步调用 API Source: https://docs.apiyi.com/api-capabilities/veo/async-api VEO 3.1 异步调用接口详解,适合批量处理场景 **异步调用说明:** 适合批量处理场景,提交任务后通过轮询获取结果。如需实时交互,请使用[同步调用方式](/api-capabilities/veo/quick-start)。 ## 模型与定价 VEO 3.1 提供 8 种模型变体,命名规则如下: * **基础名称**:`veo-3.1` * **`-landscape`**:横屏模式 (1280x720),默认为竖屏 (720x1280) * **`-fast`**:快速生成版本,速度更快、价格更低 * **`-fl`**:Frame-to-Video 模式,支持首尾帧转视频 | 模型名 | 描述 | 分辨率 | 价格 | | --------------------------- | ------------ | ---------- | ------ | | `veo-3.1` | 默认竖屏视频 | 720 x 1280 | \$0.25 | | `veo-3.1-fl` | 竖屏+首尾帧转视频 | 720 x 1280 | \$0.25 | | `veo-3.1-fast` | 竖屏+快速 | 720 x 1280 | \$0.15 | | `veo-3.1-fast-fl` | 竖屏+快速+首尾帧转视频 | 720 x 1280 | \$0.15 | | `veo-3.1-landscape` | 横屏视频 | 1280 x 720 | \$0.25 | | `veo-3.1-landscape-fl` | 横屏+首尾帧转视频 | 1280 x 720 | \$0.25 | | `veo-3.1-landscape-fast` | 横屏+快速 | 1280 x 720 | \$0.15 | | `veo-3.1-landscape-fast-fl` | 横屏+快速+首尾帧转视频 | 1280 x 720 | \$0.15 | **按成功计费:** 仅对成功生成的视频收费,生成失败不产生费用。所有模型生成的视频时长为 **8 秒**,自动包含音轨。 ## API 端点 ### 1. 创建视频任务 创建异步视频生成任务 **请求头** ```text theme={null} Content-Type: application/json Authorization: sk-APIKEY ``` **请求参数** 视频生成的文本描述 模型名称,如 `veo-3.1`、`veo-3.1-fast` 等 **请求示例** ```bash cURL theme={null} curl --location --request POST 'https://api.apiyi.com/v1/videos' \ --header 'Authorization: sk-your-api-key' \ --header 'Content-Type: application/json' \ --data-raw '{ "prompt": "画小猫", "model": "veo-3.1" }' ``` ```python Python theme={null} import requests url = "https://api.apiyi.com/v1/videos" headers = { "Content-Type": "application/json", "Authorization": "sk-your-api-key" } data = { "prompt": "画小猫", "model": "veo-3.1" } response = requests.post(url, json=data, headers=headers) print(response.json()) ``` ```javascript JavaScript theme={null} const response = await fetch('https://api.apiyi.com/v1/videos', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'sk-your-api-key' }, body: JSON.stringify({ prompt: '画小猫', model: 'veo-3.1' }) }); const data = await response.json(); console.log(data); ``` **响应示例** ```json theme={null} { "id": "video_abc123", "object": "video", "created": 1762181811, "status": "queued", "model": "veo-3.1" } ``` ### 2. 查询任务状态 查询视频生成任务的当前状态 **路径参数** 视频任务 ID(从创建接口返回) **请求示例** ```bash cURL theme={null} curl --location --request GET 'https://api.apiyi.com/v1/videos/video_abc123' \ --header 'Authorization: sk-your-api-key' ``` ```python Python theme={null} import requests video_id = "video_abc123" url = f"https://api.apiyi.com/v1/videos/{video_id}" headers = { "Authorization": "sk-your-api-key" } response = requests.get(url, headers=headers) print(response.json()) ``` ```javascript JavaScript theme={null} const videoId = 'video_abc123'; const response = await fetch(`https://api.apiyi.com/v1/videos/${videoId}`, { headers: { 'Authorization': 'sk-your-api-key' } }); const data = await response.json(); console.log(data); ``` **状态说明** | 状态 | 说明 | 下一步操作 | | ------------ | ----- | -------- | | `queued` | 任务排队中 | 继续轮询状态 | | `processing` | 任务处理中 | 继续轮询状态 | | `completed` | 生成完成 | 调用获取内容接口 | | `failed` | 生成失败 | 检查错误信息 | ### 3. 获取视频内容 获取已生成视频的实际内容 **请求示例** ```bash cURL theme={null} curl --location --request GET 'https://api.apiyi.com/v1/videos/video_abc123/content' \ --header 'Authorization: sk-your-api-key' ``` ```python Python theme={null} import requests video_id = "video_abc123" url = f"https://api.apiyi.com/v1/videos/{video_id}/content" headers = { "Authorization": "sk-your-api-key" } response = requests.get(url, headers=headers) print(response.json()) ``` ```javascript JavaScript theme={null} const videoId = 'video_abc123'; const response = await fetch(`https://api.apiyi.com/v1/videos/${videoId}/content`, { headers: { 'Authorization': 'sk-your-api-key' } }); const data = await response.json(); console.log(data); ``` **响应示例** ```json theme={null} { "id": "video_abc123", "object": "video", "created": 1762181811, "status": "completed", "model": "veo-3.1", "prompt": "画小猫", "url": "https://veo-video.gptkey.asia/assets/flow/xxx.mp4", "duration": 8, "resolution": "720x1280" } ``` 视频 URL 有效期通常为 24 小时,建议及时下载保存。 ## 完整调用流程 调用 `POST /v1/videos` 接口创建视频生成任务,获取 `video_id` 使用 `GET /v1/videos/{video_id}` 接口轮询任务状态(建议每 5-10 秒轮询一次),直到状态为 `completed` 调用 `GET /v1/videos/{video_id}/content` 接口获取视频 URL 从返回的 URL 下载视频文件并保存 ## Python 完整示例 ```python theme={null} import requests import time class VEOClient: """VEO 3.1 异步调用客户端""" def __init__(self, api_key: str, base_url: str = "https://api.apiyi.com"): self.base_url = base_url self.headers = { "Content-Type": "application/json", "Authorization": api_key } def create_video(self, prompt: str, model: str = "veo-3.1") -> str: """创建视频任务,返回 video_id""" response = requests.post( f"{self.base_url}/v1/videos", headers=self.headers, json={"prompt": prompt, "model": model} ) response.raise_for_status() return response.json()["id"] def get_status(self, video_id: str) -> dict: """查询任务状态""" response = requests.get( f"{self.base_url}/v1/videos/{video_id}", headers=self.headers ) response.raise_for_status() return response.json() def get_content(self, video_id: str) -> dict: """获取视频内容""" response = requests.get( f"{self.base_url}/v1/videos/{video_id}/content", headers=self.headers ) response.raise_for_status() return response.json() def wait_for_completion(self, video_id: str, timeout: int = 600, interval: int = 5) -> dict: """等待任务完成""" start_time = time.time() while time.time() - start_time < timeout: status_data = self.get_status(video_id) status = status_data.get("status") if status == "completed": return self.get_content(video_id) elif status == "failed": raise Exception(f"视频生成失败: {status_data}") print(f"任务进行中... 状态: {status}") time.sleep(interval) raise TimeoutError("等待超时") # 使用示例 if __name__ == "__main__": client = VEOClient("sk-your-api-key") try: # 1. 创建任务 video_id = client.create_video( prompt="一只猫咪在阳光下的花园里漫步", model="veo-3.1-fast" ) print(f"任务已创建,ID: {video_id}") # 2. 等待完成并获取结果 result = client.wait_for_completion(video_id) print(f"视频生成成功!") print(f"视频URL: {result['url']}") print(f"分辨率: {result['resolution']}") except Exception as e: print(f"错误: {e}") ``` ## 帧转视频模式 使用 `-fl` 后缀的模型支持首尾帧转视频功能,可以将静态图片转换为动态视频。 | 模式 | 图片数量 | 说明 | | ----- | ---- | ------------------------ | | 首帧模式 | 1 张 | 以图片作为视频开头,AI 自动续编后续内容 | | 首尾帧模式 | 2 张 | 以第一张为开头、第二张为结尾,AI 生成中间过渡 | ### 请求参数 帧转视频请求需要使用 `multipart/form-data` 格式(不是 JSON),因为需要上传图片文件。 视频描述,建议描述画面如何运动(如「镜头缓慢推进」「人物向前走」) 必须使用 `-fl` 后缀的模型,如 `veo-3.1-fl`、`veo-3.1-landscape-fl` 等 图片文件。传 1 次为首帧模式,传 2 次为首尾帧模式 ### 首帧模式示例(单图) 以一张图片作为视频开头,AI 自动生成后续画面。 ```bash cURL theme={null} curl --location --request POST 'https://api.apiyi.com/v1/videos' \ --header 'Authorization: sk-your-api-key' \ --form 'prompt="让这个画面动起来,镜头缓慢推进"' \ --form 'model="veo-3.1-landscape-fl"' \ --form 'input_reference=@"/path/to/image.jpg"' ``` ```python Python theme={null} import requests url = "https://api.apiyi.com/v1/videos" headers = {"Authorization": "sk-your-api-key"} data = { "prompt": "让这个画面动起来,镜头缓慢推进", "model": "veo-3.1-landscape-fl" } # 单图模式 - 首帧 files = [ ("input_reference", ("image.jpg", open("/path/to/image.jpg", "rb"), "image/jpeg")) ] response = requests.post(url, headers=headers, data=data, files=files) print(response.json()) ``` ```javascript JavaScript (Node.js) theme={null} const FormData = require('form-data'); const fs = require('fs'); const form = new FormData(); form.append('prompt', '让这个画面动起来,镜头缓慢推进'); form.append('model', 'veo-3.1-landscape-fl'); form.append('input_reference', fs.createReadStream('/path/to/image.jpg')); const response = await fetch('https://api.apiyi.com/v1/videos', { method: 'POST', headers: { 'Authorization': 'sk-your-api-key', ...form.getHeaders() }, body: form }); const data = await response.json(); console.log(data); ``` ### 首尾帧模式示例(双图) 指定视频的开头和结尾画面,AI 生成中间的过渡动画。 ```bash cURL theme={null} curl --location --request POST 'https://api.apiyi.com/v1/videos' \ --header 'Authorization: sk-your-api-key' \ --form 'prompt="从白天过渡到夜晚,镜头保持不动"' \ --form 'model="veo-3.1-landscape-fl"' \ --form 'input_reference=@"/path/to/first-frame.jpg"' \ --form 'input_reference=@"/path/to/last-frame.jpg"' ``` ```python Python theme={null} import requests url = "https://api.apiyi.com/v1/videos" headers = {"Authorization": "sk-your-api-key"} data = { "prompt": "从白天过渡到夜晚,镜头保持不动", "model": "veo-3.1-landscape-fl" } # 双图模式 - 首尾帧 files = [ ("input_reference", ("first.jpg", open("/path/to/first-frame.jpg", "rb"), "image/jpeg")), ("input_reference", ("last.jpg", open("/path/to/last-frame.jpg", "rb"), "image/jpeg")) ] response = requests.post(url, headers=headers, data=data, files=files) print(response.json()) ``` ```javascript JavaScript (Node.js) theme={null} const FormData = require('form-data'); const fs = require('fs'); const form = new FormData(); form.append('prompt', '从白天过渡到夜晚,镜头保持不动'); form.append('model', 'veo-3.1-landscape-fl'); form.append('input_reference', fs.createReadStream('/path/to/first-frame.jpg')); form.append('input_reference', fs.createReadStream('/path/to/last-frame.jpg')); const response = await fetch('https://api.apiyi.com/v1/videos', { method: 'POST', headers: { 'Authorization': 'sk-your-api-key', ...form.getHeaders() }, body: form }); const data = await response.json(); console.log(data); ``` ### 响应与后续处理 帧转视频的响应格式与文生视频相同,返回 `video_id` 后需要轮询获取结果: ```json theme={null} { "id": "video_xyz789", "object": "video", "created": 1762181811, "status": "queued", "model": "veo-3.1-landscape-fl" } ``` 后续流程请参考上方的[完整调用流程](#完整调用流程)章节。 ### 使用建议 * 让静态图片「动起来」 * 产品展示动画 * 人物照片生成动态视频 * 场景转换(白天→夜晚、四季变化) * 表情变化动画 * 物体变形过渡 **提示词技巧**:使用帧转视频时,prompt 应描述「画面如何运动」而非「画面内容」。例如:「镜头缓慢推进」「人物转头微笑」「花朵逐渐绽放」。 ## 错误处理 | 错误码 | 说明 | 解决方案 | | ----------------- | -------- | ----------------- | | `invalid_api_key` | API 密钥无效 | 检查 API 密钥是否正确 | | `invalid_model` | 模型不存在 | 使用支持的模型名称 | | `invalid_prompt` | 提示词无效 | 检查提示词长度和内容 | | `video_not_found` | 视频任务不存在 | 检查 video\_id 是否正确 | | `video_not_ready` | 视频尚未生成完成 | 继续轮询任务状态 | | `quota_exceeded` | 配额超限 | 联系客服增加配额 | **错误响应格式** ```json theme={null} { "error": { "code": "invalid_api_key", "message": "Invalid API key provided", "type": "authentication_error" } } ``` ## 常见问题 * **性价比优先**:选择 `-fast` 系列(\$0.15/视频) * **质量优先**:选择标准系列(\$0.25/视频) * **需要图片转视频**:选择 `-fl` 系列 * **横屏内容**:选择 `-landscape` 系列 * **快速模型** (`-fast`):约 30-60 秒 * **标准模型**:约 1-2 分钟 建议轮询间隔设置为 5-10 秒。 视频 URL 有效期通常为 24 小时,建议生成成功后及时下载保存。 大批量使用可联系客服获取企业优惠,邮箱:`feedback@apiyi.com` ## 技术规格速查表 | 项目 | 规格 | | ------- | ----------------- | | 视频时长 | 8 秒 | | 竖屏分辨率 | 720 x 1280 (9:16) | | 横屏分辨率 | 1280 x 720 (16:9) | | 音轨 | 自动包含 | | URL 有效期 | 24 小时 | | 建议轮询间隔 | 5-10 秒 | | 最大等待时间 | 10 分钟 | # VEO 3.1 视频生成 Source: https://docs.apiyi.com/api-capabilities/veo/overview Google VEO 3.1 官逆通道完整指南:声画同步视频生成、固定 8 秒时长、支持首尾帧(Frame-to-Video)、HD 横/竖屏,4K 高清版本陆续上线。 ## 概述 **VEO 3.1** 是谷歌当下最强的 AI 视频生成模型系列,**原生声画同步生成**:根据文本提示词或参考图片输出固定 8 秒短片,自带同步音轨。API易 通过 **官逆通道**(Reverse-engineered)接入 Google Flow,按次计费、支持同步流式与异步任务两种调用方式。 **🎬 核心亮点**:声画同步原生输出 + 固定 8 秒短片 + 首尾帧(Frame-to-Video)创作 + HD 横竖屏 + **价格远低于官方**(\$0.15 起)+ 同步流式可见进度。**适合短视频、广告片段、产品演示、社交媒体素材** 等高节奏生产场景。 `POST /v1/chat/completions`,复用 OpenAI Chat Completions 协议,支持 `stream: true` 实时进度。 `POST /v1/videos` 三步异步流程,支持文生视频与首尾帧上传,便于批量管理。 ## 为什么选 API易 的 VEO 3.1 VEO 3.1 是 **官逆通道**(透传 Google Flow 服务),针对企业生产场景在 **价格**、**接入门槛**、**功能完整度** 三方面做了深度优化: \$0.15 起 / 8 秒视频,**对比谷歌官方立省 80%+**。无需开通 Google Cloud / Vertex AI 账号,按次计费成本透明。 平台维护账号池透明聚合,批量出片 / 短视频矩阵 / 广告生产场景下可线性扩容,**无谷歌账号 Tier 限制**。 叠加 [充值加赠活动](/faq/recharge-promotions) 实际成本进一步下降。**生成失败不计费**,按成功结果结算。 **无需海外服务器或代理**,国内机房、家宽网络、海外节点均可直连 `api.apiyi.com`,省去为 Google Flow 配置出海链路的麻烦。 同步走 `/v1/chat/completions`(与对话模型一致),异步走 `/v1/videos`(OpenAI Video API 风格)。两种协议都和你已有的 SDK / 工程代码无缝复用。 团队深耕视频生成场景,在 prompt 工程、首尾帧素材准备、批量生产、视频后处理等环节具备丰富经验,可为企业客户提供从 PoC 到生产上线的完整技术支持。 ## 核心特性 VEO 3.1 在视频生成的同时**原生输出同步音轨**(环境音、对话、配乐),无需后期单独配音。 `-fast` 系列 30–60 秒出片、标准系列 1–2 分钟,**生成速度比 Sora 2 快 50%**,适合高节奏内容生产。 `-fl` 后缀模型支持上传 1 张(首帧)或 2 张(首尾帧)参考图,让静态画面动起来,或在两个画面间自动生成过渡动画。 竖屏 720×1280(社媒短视频)、横屏 1280×720(广告 / 演示),通过模型名 `-landscape` 后缀切换。 同步模式(`/v1/chat/completions` + `stream: true`)实时返回 `> 🏃 进度:XX%` 文本片段,前端可直接展示生成进度条。 异步模式返回 `video_id`,独立轮询和下载,适合批量管理、断点续传、长任务后台跑。 生成失败 / 内容审核拦截 / 服务过载等错误均**不计费**,只为最终拿到的视频付费。 同步模式 `n` 参数最多一次出 4 条不同视频(同 prompt 多结果),便于内容多样性挑选。 ## 模型定价 按 **次** 计费(每条 8 秒视频固定单价),**仅对成功生成的视频收费**,失败任务不计费。 ### HD 系列(720p,已上线) | 模型名 | 描述 | 分辨率 | 单价 | | --------------------------- | ------------- | -------- | ------ | | `veo-3.1` | 默认竖屏 | 720×1280 | \$0.25 | | `veo-3.1-fl` | 竖屏 + 首尾帧 | 720×1280 | \$0.25 | | `veo-3.1-fast` | 竖屏 + 快速 | 720×1280 | \$0.15 | | `veo-3.1-fast-fl` | 竖屏 + 快速 + 首尾帧 | 720×1280 | \$0.15 | | `veo-3.1-landscape` | 横屏 | 1280×720 | \$0.25 | | `veo-3.1-landscape-fl` | 横屏 + 首尾帧 | 1280×720 | \$0.25 | | `veo-3.1-landscape-fast` | 横屏 + 快速 | 1280×720 | \$0.15 | | `veo-3.1-landscape-fast-fl` | 横屏 + 快速 + 首尾帧 | 1280×720 | \$0.15 | ### 4K 高清系列(即将上线) **4K 高清版本陆续上线中**,模型变体覆盖竖屏 / 横屏 / 快速 / 首尾帧组合,命名延续 HD 系列规则。**单价信息将在官方放量后补充至本表**,企业批量需求可联系商务提前对接试用。 **计费说明**: * **按次计费**:每条 8 秒视频固定单价,与 prompt 长度、是否传参考图、`n` 参数无关(n=2 即按 2 条结算) * **失败不扣费**:任务进入 `failed` / 内容审核拦截 / 网关错误时**不计费**,可放心重试 * **充值加赠**:详见 [充值加赠活动](/faq/recharge-promotions) ## 技术规格 | 维度 | 规格 | | ----------------------- | ----------------------------------------- | | **模型基名** | `veo-3.1`(HD)/ 4K 系列待补充 | | **变体维度** | 朝向(竖/横)× 速度档(标准/快)× 创作模式(文生 / 首尾帧 `-fl`) | | **视频时长** | 固定 **8 秒**(不可调) | | **HD 分辨率** | 竖屏 720×1280、横屏 1280×720 | | **4K 分辨率** | 即将上线,规格待补充 | | **音轨** | ✅ 声画同步,自带原生音轨 | | **首尾帧(Frame-to-Video)** | ✅ `-fl` 后缀模型;首帧 1 张或首尾帧 2 张 | | **同步生成耗时** | `-fast` 系列 30–60 秒,标准系列 1–2 分钟 | | **同步进度回显** | ✅ `/v1/chat/completions` + `stream: true` | | **异步轮询** | ✅ `/v1/videos` + 任务 ID + `/content` 下载 | | **`n` 参数** | 同步模式最多 4 条 / 次(异步模式建议 1) | | **视频 URL 有效期** | 24 小时 | ## 端点一览 | 端点 | 方法 | 用途 | Content-Type | | ------------------------------- | ---- | --------------------- | ------------------------------------------ | | `/v1/chat/completions` | POST | **同步流式**生成(推荐实时交互场景) | `application/json` | | `/v1/videos` | POST | **异步任务**:提交文生视频或首尾帧任务 | `application/json` 或 `multipart/form-data` | | `/v1/videos/{video_id}` | GET | 异步轮询任务状态 | — | | `/v1/videos/{video_id}/content` | GET | 异步下载视频 URL | — | **域名选择**:主域名 `api.apiyi.com`,也可使用 `vip.apiyi.com` / `b.apiyi.com` 等其它网关域名,响应行为一致。 ## 关键参数详解 ### 模型变体命名规则 VEO 3.1 通过模型名后缀组合切换功能,**不通过单独参数控制**: | 后缀 | 作用 | 默认 | | ------------ | --------------- | ----------------- | | `-landscape` | 横屏(1280×720) | 不带 = 竖屏(720×1280) | | `-fast` | 快速档(速度优先,价格更低) | 不带 = 标准档 | | `-fl` | 首尾帧创作(必须搭配上传图片) | 不带 = 纯文生视频 | **组合示例**: * `veo-3.1` —— 标准竖屏文生视频(默认) * `veo-3.1-landscape-fast` —— 快速横屏文生视频(性价比首选) * `veo-3.1-landscape-fl` —— 标准横屏首尾帧创作 * `veo-3.1-landscape-fast-fl` —— 快速横屏首尾帧创作(成本最低的图生视频) - **`-fl` 模型必须传 `input_reference` 图片**,否则报错;纯文生视频不要带 `-fl` 后缀 - 异步首尾帧请求必须走 `multipart/form-data`(不是 JSON),上传 1 张为首帧、2 张为首尾帧 - 4 种维度组合后共 8 个 HD 模型 ID,**字符顺序固定**:`landscape` → `fast` → `fl` ### `n`(一次出几条视频,同步模式) * 范围:`1` \~ `4`,默认 `1` * 仅同步模式(`/v1/chat/completions`)支持,异步模式 `n` 不生效 * **按视频条数计费**(n=2 即按 2 条结算) ## 最佳实践 每个新 prompt 先用 `veo-3.1-fast` 或 `veo-3.1-landscape-fast` 跑一条试水(成本 \$0.15,30–60 秒出片),定型后再切到标准档拿最佳画质。 * **社媒短视频 / 抖音 / 小红书** → 竖屏(默认无 `-landscape`) * **YouTube / 广告 / 产品演示** → 横屏(`-landscape`) * 需要**实时进度反馈**给用户 → 同步流式(`/v1/chat/completions` + `stream: true`) * **批量后台跑**或长任务 → 异步任务化(`/v1/videos` + 轮询) * 详见 [同步调用](/api-capabilities/veo/quick-start) / [异步调用](/api-capabilities/veo/async-api) `-fl` 模型已经定了画面(首帧或首尾帧),prompt 应聚焦**如何让画面动起来**:镜头推拉、物体运动、光线变化、人物表情,例:`"镜头缓慢推进,叶子轻摇,阳光透过树叶闪烁"`。 首尾帧最强场景是**两个画面间的自然过渡**(白天→夜晚、四季变化、表情变化、物体变形),prompt 描述过渡过程、动作变化即可,无需描述细节。 同步流式调用整个连接会保持到生成完成(`-fast` ≈ 60 秒,标准 ≈ 2 分钟),客户端超时建议 ≥ **120 秒**。异步模式 POST 提交是秒级,但建议 30 秒打底。 视频 URL 有效期**仅 24 小时**,生产场景务必拿到 `completed` 后立即下载并落地到自己的 OSS / CDN,避免链接过期。 * 同 prompt 出多个变体 → 用 `n: 4` 一次拿 4 条 * 不同 prompt 批量跑 → 多次异步 POST 各拿独立 `video_id`,再独立轮询 ## 错误码与重试 | 状态码 | 含义 | 处理建议 | | ------------------------- | -------------------------------- | -------------------------- | | `400` | 参数非法(model 不存在、`-fl` 缺图、`n` 越界等) | 校验参数;首尾帧请求务必走 multipart 上传 | | `401` / `invalid_api_key` | API Key 无效 | 检查 Bearer Token;确认控制台分组配置 | | `403` | 内容审核拦截 | 调整 prompt;参考图避免敏感内容 | | `429` / `quota_exceeded` | 限流 / 配额超限 / 余额不足 | 指数退避重试;超出默认配额联系商务申请扩容 | | `5xx` | 网关 / 上游错误 | 异步任务重试 1–2 次(不计费) | | 任务 `failed` | 视频生成失败(多为内容审核或上游容量) | 调整 prompt 重试;**该任务不计费** | | `video_not_found` | video\_id 不存在或已过期 | 确认 ID 正确;24 小时内查询 | **建议客户端**: * 同步请求超时 **120 秒**起步(标准档);`-fast` 可降到 **60 秒** * 异步 POST 提交超时 **30 秒**;GET 轮询间隔 **5–10 秒**,最长等待 **10 分钟** * 对 5xx 与任务 `failed` 做 **指数退避重试**(建议 2 次) * 记录响应头 `x-request-id` 方便排查 ## 常见问题 **官逆**。VEO 3.1 通过 API易 维护的 Google Flow 账号池透明转发,价格远低于谷歌官方 Veo Studio 价格,按次计费、支持失败不计费。**目前暂无官转通道**——谷歌官方 Vertex AI Veo API 上线后我们会评估接入,届时本页会同步更新。 | 维度 | VEO 3.1 | Sora 2(官转) | | -------- | ----------------------- | -------------------------- | | **价格** | \$0.15–\$0.25 / 8 秒(按次) | \$0.40–\$8.40 / 4–12 秒(按秒) | | **时长** | 固定 8 秒 | 4 / 8 / 12 秒 | | **生成速度** | 30 秒 – 2 分钟 | 3–10 分钟 | | **音轨** | ✅ 声画同步原生 | ✅ 声画同步原生 | | **首尾帧** | ✅ `-fl` 系列 | ✅ `input_reference` 单图 | | **稳定性** | 官逆,受风控影响 | 官转 99.99% | | **分辨率** | 720p(4K 即将上线) | 720p / 1024p / 1080p | **快、便宜、批量场景选 VEO;高画质、稳定性优先选 Sora 2 Pro。** 详见 [Sora 2 概览](/api-capabilities/sora-2/overview)。 Google Flow 上游本身只开放 8 秒固定时长,目前**没有调整时长的参数**。如需更长视频,建议**首尾帧拼接**:用 `-fl` 模型生成多个 8 秒片段,最后片段的尾帧作为下个片段的首帧,再用 ffmpeg 拼接为长视频。 * **要最高画质 / 关键素材** → 标准档(`veo-3.1` / `veo-3.1-landscape`),\$0.25 / 条 * **量产 / 试错 / 内部预览** → fast 档(`-fast` 后缀),\$0.15 / 条,速度更快 * **`-fast` 与标准档画质差距不大**,多数生产场景 fast 档已够用 `-fl` 系列必须搭配 `input_reference` 上传图片: * **传 1 张** → 首帧模式:以图片作为视频开头,AI 自动续编后续画面 * **传 2 张** → 首尾帧模式:第一张为开头、第二张为结尾,AI 生成中间过渡 必须走 multipart/form-data(不是 JSON)。详见 [异步调用 - 帧转视频](/api-capabilities/veo/async-api#帧转视频模式)。 **不会**。VEO 3.1 按**成功结果**计费:任务进入 `failed`、内容审核拦截、网关 5xx 错误、参数错误等情况都不计费。**只有视频真正生成完成(拿到 URL)才按次扣费**。 **24 小时**。视频生成完成后请立即下载到自己的 OSS / CDN 持久化,避免链接过期后无法访问。 `/v1/chat/completions` + `stream: true` 模式下,响应是 SSE 格式,每个 chunk 含进度文本: ```text theme={null} data: {"choices":[{"delta":{"content":"> 🏃 进度:45.0%\n\n"}}]} ... data: {"choices":[{"delta":{"content":"> ✅ 第1个视频生成成功,[点击这里](https://.../xxx.mp4) 查看视频~~~\n\n"}}]} data: [DONE] ``` 前端只需解析 `delta.content` 里的"进度"和视频 URL 即可。完整示例见 [同步调用](/api-capabilities/veo/quick-start#流式响应说明)。 `-fl` 模型的 `input_reference` 接受 `jpeg` / `png`,建议单张图 ≤ 5 MB。**没有强制分辨率要求**(不同于 Sora 2),但**图片比例最好与目标视频朝向一致**:竖屏视频用竖图、横屏用横图,否则 AI 会自动裁切。 可以。**同步模式**完全兼容 OpenAI Chat Completions: ```python theme={null} from openai import OpenAI client = OpenAI(api_key="sk-your-key", base_url="https://api.apiyi.com/v1") resp = client.chat.completions.create( model="veo-3.1-fast", messages=[{"role": "user", "content": "画只猫在天上飞"}], stream=True, n=1 ) for chunk in resp: print(chunk.choices[0].delta.content or "", end="") ``` **异步模式** 用 `client.videos.create()` 也可以,但首尾帧场景必须走原生 requests 多文件上传(OpenAI SDK 默认只支持单文件)。 可以。每次 POST `/v1/videos` 返回独立 `video_id`,多任务并发提交、独立轮询。**默认配额已能满足大多数业务**,企业批量需求(>10 并发、单日 >100 条)请联系商务申请独立资源池。 **不支持**。当前没有 cancel 端点,任务一旦提交会跑完。建议先用 `-fast` 跑试 prompt,确认风格再切到标准档,避免长任务跑废。 **目前不支持**。VEO 3.1 默认输出带同步音轨的视频,官方未开放禁用音轨的参数。如需纯视频,下载后用 ffmpeg `-an` 剥离即可:`ffmpeg -i input.mp4 -an output.mp4`。 4K 系列正在灰度放量中,模型变体延续 HD 命名规则(覆盖竖横、快慢、首尾帧组合)。**最终单价以本页定价表正式更新为准**,企业批量需求可联系商务提前对接试用资源。 ## 相关文档 * [同步调用 API](/api-capabilities/veo/quick-start) - `/v1/chat/completions` + `stream: true` 实时流式调用,文生视频 + 首尾帧示例 * [异步调用 API](/api-capabilities/veo/async-api) - `/v1/videos` 三步异步流程、首尾帧上传、Python 完整客户端示例 * [Sora 2 视频生成](/api-capabilities/sora-2/overview) - OpenAI 官转通道对照 * [充值加赠活动](/faq/recharge-promotions) - 加赠最高档位与适用渠道 * [API 使用手册](/api-manual) - 通用调用规范、超时与重试建议 * 谷歌官方 Veo 介绍:`deepmind.google/technologies/veo/` VEO 3.1 是 API易 通过 Google Flow 官逆通道实现的高性价比视频生成服务,**生成速度领先、价格远低于官方**。两种调用模式(同步流式、异步任务化)按场景选择,与你已有的 OpenAI SDK / 工程代码无缝对接。如有问题或建议,欢迎在控制台工单中反馈。 # 同步调用 API Source: https://docs.apiyi.com/api-capabilities/veo/quick-start VEO 3.1 同步调用接口,适合实时交互场景 开始前,请注册 API易,获取 API 密钥 [https://api.apiyi.com/token](https://api.apiyi.com/token) (复制令牌) ## 同步调用说明 VEO 3.1 支持同步调用方式,使用对话补全接口 `/v1/chat/completions`,适合需要实时交互的场景。 **调用方式对比:** * **同步调用**:适合实时交互,支持流式输出,可以看到生成进度 * **异步调用**:适合批量处理,提交任务后轮询获取结果,详见 [异步调用 API](/api-capabilities/veo/async-api) ## 快速开始 前往 [API易控制台](https://api.apiyi.com/account/profile) 获取 API 密钥 使用对话补全接口生成视频,支持流式和非流式两种方式 实时获取生成进度和视频链接 ## 认证方式 所有 API 请求都需要在请求头中包含 API 密钥: ```bash theme={null} Authorization: sk-your-api-key ``` **安全提醒:** 请勿在客户端代码中暴露 API 密钥。建议在服务端环境变量中存储。 ## 示例 1:文生视频 最简单的方式,使用文本描述生成视频: ```bash theme={null} curl --location --request POST 'https://api.apiyi.com/v1/chat/completions' \ --header 'Content-Type: application/json' \ --header 'Authorization: sk-your-api-key' \ --data-raw '{ "messages": [{"role": "user", "content": "画只猪在天上飞"}], "model": "veo-3.1", "stream": true, "n": 2 }' ``` ### 参数说明 | 参数 | 类型 | 必填 | 说明 | | ---------- | ------- | -- | ------------------- | | `messages` | array | 是 | 对话消息数组,包含用户的提示词 | | `model` | string | 是 | 使用的模型名称,如 `veo-3.1` | | `stream` | boolean | 否 | 是否开启流式输出,默认 false | | `n` | integer | 否 | 生成视频数量,默认 1,最大 4 | **模型选择:** 默认为竖屏,使用 `veo-3.1-landscape` 可生成横屏视频,使用 `-fast` 后缀可使用快速模型。 ## 示例 2:帧转视频(Frame-to-Video) 使用一张或两张图片作为关键帧生成视频: ```bash theme={null} curl --location --request POST 'https://api.apiyi.com/v1/chat/completions' \ --header 'Content-Type: application/json' \ --header 'Authorization: sk-your-api-key' \ --data-raw '{ "messages": [{ "role": "user", "content": [ { "type": "text", "text": "根据两张图片生成一个完整的过渡视频" }, { "type": "image_url", "image_url": { "url": "开始帧图片URL或base64" } }, { "type": "image_url", "image_url": { "url": "结束帧图片URL或base64(可选)" } } ] }], "model": "veo-3.1-landscape-fast-fl", "stream": true, "n": 1 }' ``` ### 图片参数说明 * **开始帧图片**:必传,仅限一张 * **结束帧图片**:可选,如果不传则自动生成过渡效果 * **图片格式**:支持 URL 或 base64 编码 ## 流式响应说明 开启流式输出后(`stream: true`),系统会实时返回生成进度和结果: ### 响应示例 ````text theme={null} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"role":"assistant"},"finish_reason":null}]} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"```json\n{\n \"prompt\": \"画只猪在天上飞\",\n \"mode\": \"竖屏模式\"\n}\n```\n\n"},"finish_reason":null}]} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> ⌛️ 视频正在生成中,请耐心等待...\n\n"},"finish_reason":null}]} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> 🏃 进度:9.0%\n\n"},"finish_reason":null}]} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> 🏃 进度:18.0%\n\n"},"finish_reason":null}]} ... data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> 🏃 进度:90.2%\n\n"},"finish_reason":null}]} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{"content":"> ✅ 第1个视频生成成功,[点击这里](https://veo-video.gptkey.asia/assets/flow/xxx.mp4) 查看视频~~~\n\n"},"finish_reason":null}]} data: {"id":"foaicmpl-xxx","object":"chat.completion.chunk","created":1762181811,"model":"veo-3.1-fast","choices":[{"index":0,"delta":{},"finish_reason":"stop"}],"usage":{"prompt_tokens":16,"completion_tokens":292,"total_tokens":308}} data: [DONE] ```` ### 响应说明 流式响应会实时返回生成进度,格式为:`> 🏃 进度:XX.X%` 生成完成后,会返回视频的下载链接,格式为:`> ✅ 第N个视频生成成功,[点击这里](视频URL) 查看视频~~~` 当所有视频生成完成后,会返回 `finish_reason: "stop"` 和 `data: [DONE]` ## 生成速度 **VEO 3.1 生成速度:** 比 Sora 2 快 50%! * **快速模型** (`-fast`):约 30-60 秒 * **标准模型**:约 1-2 分钟 ## 下一步 了解异步调用方式、模型定价和代码示例 返回 VEO 3.1 产品概览页面 # 视频理解 API Source: https://docs.apiyi.com/api-capabilities/video-understanding 使用 Gemini 系列等先进 AI 模型进行智能视频分析和理解,支持视频内容识别、场景描述、动作分析等功能 API易 提供强大的视频理解能力,支持使用 Gemini 2.5 Pro 等先进的 AI 模型对视频进行深度分析和理解。通过统一的 OpenAI API 格式,您可以轻松实现视频内容识别、场景描述、动作分析等功能。 **🎬 智能视频分析** 支持视频场景理解、动作识别、内容摘要等多种视频分析任务,让 AI 真正"看懂"视频内容。 ## 🌟 核心特性 * **🎯 顶级模型支持**:Gemini 2.5 Pro 等领先的多模态视频理解模型 * **📹 灵活输入**:支持 Base64 编码视频文件 * **🌏 中文优化**:完美支持中文场景理解和内容描述 * **⚡ 专业分析**:深度理解视频内容、动作、场景和上下文 * **💰 高性价比**:强大能力,合理定价 ## 📋 支持的视频理解模型 | 模型名称 | 模型 ID | 特点 | 推荐场景 | | -------------------- | ------------------ | ------------- | -------- | | **Gemini 2.5 Pro** ⭐ | `gemini-2.5-pro` | 超长上下文,视频理解能力强 | 复杂视频内容分析 | | **Gemini 2.5 Flash** | `gemini-2.5-flash` | 速度快,性价比高 | 快速视频分析 | ## 🚀 快速开始 ### 1. 基础示例 - 本地视频 Base64 编码 ```python theme={null} from openai import OpenAI import base64 def gemini_video_test(video_path, question, model="gemini-2.5-pro"): """视频理解函数""" client = OpenAI( api_key="YOUR_API_KEY", # 替换为您的 API Key base_url="https://api.apiyi.com/v1" ) {/* 读取本地视频文件并转换为 Base64 */} with open(video_path, "rb") as f: video_b64 = base64.b64encode(f.read()).decode() video_url = f"data:video/mp4;base64,{video_b64}" response = client.chat.completions.create( model=model, messages=[ {"role": "system", "content": "You are a helpful assistant."}, { "role": "user", "content": [ {"type": "text", "text": question}, { "type": "image_url", "image_url": { "url": video_url }, "mime_type": "video/mp4", } ] } ], temperature=0.2, max_tokens=4096 ) return response.choices[0].message.content {/* 使用示例 */} if __name__ == "__main__": video_path = "./demo.mp4" # 本地视频文件路径 question = "请详细描述这个视频的内容" result = gemini_video_test(video_path, question) print(result) ``` **文件大小限制**:建议单个视频文件不超过 20MB,以确保最佳的处理效果和响应速度。 ### 2. 完整示例 - 包含结果保存 ```python theme={null} from openai import OpenAI import base64 import json from datetime import datetime import os def gemini_test(question, model="gemini-2.5-pro"): client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) model = model user_msg = question VIDEO_PATH = "./demo.mp4" # 本地文件,≤20 MB 为佳 with open(VIDEO_PATH, "rb") as f: video_b64 = base64.b64encode(f.read()).decode() video_url = f"data:video/mp4;base64,{video_b64}" response = client.chat.completions.create( model=model, messages=[ {"role": "system", "content": "You are a helpful assistant."}, { "role": "user", "content": [ {"type": "text", "text": question}, { "type": "image_url", "image_url": { "url": video_url }, "mime_type": "video/mp4", } ] } ], temperature=0.2, max_tokens=4096 ) return response.choices[0].message.content if __name__ == "__main__": print("开始视频理解测试...") {/* 运行视频理解 */} question = "请描述这个视频的内容" result = gemini_test(question) {/* 生成时间戳 */} timestamp = datetime.now().strftime("%Y%m%d_%H%M%S") {/* 获取当前脚本所在目录 */} current_dir = os.path.dirname(os.path.abspath(__file__)) {/* 保存为txt文件 */} txt_filename = os.path.join(current_dir, f"video_analysis_{timestamp}.txt") with open(txt_filename, "w", encoding="utf-8") as f: f.write("=" * 60 + "\n") f.write("视频理解分析结果\n") f.write("=" * 60 + "\n") f.write(f"分析时间: {datetime.now().strftime('%Y-%m-%d %H:%M:%S')}\n") f.write(f"提问内容: {question}\n") f.write("=" * 60 + "\n\n") f.write(result) f.write("\n\n" + "=" * 60 + "\n") {/* 保存为json文件 */} json_filename = os.path.join(current_dir, f"video_analysis_{timestamp}.json") data = { "timestamp": datetime.now().strftime('%Y-%m-%d %H:%M:%S'), "question": question, "model": "gemini-2.5-pro", "video_file": "demo.mp4", "result": result } with open(json_filename, "w", encoding="utf-8") as f: json.dump(data, f, ensure_ascii=False, indent=2) {/* 控制台输出 */} print("\n视频理解结果:") print(result) print(f"\n结果已保存到:") print(f" - TXT文件: {txt_filename}") print(f" - JSON文件: {json_filename}") ``` ### 3. 使用 requests 库的示例 ```python theme={null} import requests import base64 def analyze_video_with_requests(video_path, question): """使用 requests 库进行视频分析""" {/* 读取并编码视频 */} with open(video_path, "rb") as f: video_b64 = base64.b64encode(f.read()).decode() video_url = f"data:video/mp4;base64,{video_b64}" url = "https://api.apiyi.com/v1/chat/completions" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } payload = { "model": "gemini-2.5-pro", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, { "role": "user", "content": [ {"type": "text", "text": question}, { "type": "image_url", "image_url": {"url": video_url}, "mime_type": "video/mp4" } ] } ], "temperature": 0.2, "max_tokens": 4096 } response = requests.post(url, headers=headers, json=payload) if response.status_code == 200: return response.json()['choices'][0]['message']['content'] else: print(f"错误: {response.status_code} - {response.text}") return None {/* 使用示例 */} result = analyze_video_with_requests("./demo.mp4", "请描述这个视频的内容") print(result) ``` ## 🎯 常见应用场景 ### 1. 视频内容摘要 ```python theme={null} prompt = """ 请分析这个视频并提供详细摘要,包括: 1. 视频的主要内容和主题 2. 关键场景和重要时刻 3. 出现的人物或物体 4. 视频的整体氛围和风格 5. 适合的应用场景或目标受众 """ ``` ### 2. 教学视频分析 ```python theme={null} prompt = """ 这是一个教学视频,请分析: 1. 教学的主题和知识点 2. 讲解的步骤和流程 3. 使用的教学方法和工具 4. 重点和难点内容 5. 建议的学习要点 """ ``` ### 3. 监控视频分析 ```python theme={null} prompt = """ 分析这段监控视频: 1. 时间段和地点信息(如果可见) 2. 出现的人员数量和活动 3. 是否存在异常行为或事件 4. 环境变化情况 5. 需要关注的重点内容 """ ``` ### 4. 营销视频评估 ```python theme={null} prompt = """ 评估这个营销视频的效果: 1. 视频的核心卖点和信息传达 2. 视觉呈现和制作质量 3. 目标受众定位 4. 情感共鸣点 5. 改进建议 """ ``` ### 5. 体育动作分析 ```python theme={null} prompt = """ 分析视频中的体育动作: 1. 运动项目和动作类型 2. 技术动作的规范性 3. 关键动作要领 4. 可能存在的问题 5. 改进建议 """ ``` ## 💡 最佳实践 ### 视频预处理建议 1. **格式支持**:MP4、AVI、MOV 等主流视频格式 2. **文件大小**:建议单个视频不超过 20MB 3. **时长建议**:较短的视频片段会获得更精准的分析 4. **分辨率**:适中的分辨率即可,过高可能增加处理时间 5. **编码优化**:使用 H.264 等高效编码格式 ### 提示词优化技巧 ```python theme={null} {/* ❌ 不推荐:模糊的提示 */} prompt = "看看这个视频" {/* ✅ 推荐:具体明确的提示 */} prompt = """ 请从以下几个方面详细分析这个视频: 1. 视频主题:整体内容和主要信息 2. 场景描述:环境、地点、时间等背景信息 3. 主体分析:出现的人物、物体及其行为 4. 动作识别:关键动作和事件序列 5. 情感基调:视频传达的情绪和氛围 6. 应用建议:适合的使用场景和目标受众 """ ``` ### 参数调优建议 ```python theme={null} {/* 更准确的分析 */} response = client.chat.completions.create( model="gemini-2.5-pro", messages=messages, temperature=0.2, # 降低随机性,提高准确性 max_tokens=4096, # 足够的输出长度 ) {/* 更有创意的描述 */} response = client.chat.completions.create( model="gemini-2.5-pro", messages=messages, temperature=0.7, # 提高创意性 max_tokens=2048, ) ``` ## 🔧 高级功能 ### 1. 错误处理和重试机制 ```python theme={null} import time from openai import OpenAI def analyze_video_with_retry(video_path, question, max_retries=3): """带重试机制的视频分析""" client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) with open(video_path, "rb") as f: video_b64 = base64.b64encode(f.read()).decode() video_url = f"data:video/mp4;base64,{video_b64}" for attempt in range(max_retries): try: response = client.chat.completions.create( model="gemini-2.5-pro", messages=[ { "role": "user", "content": [ {"type": "text", "text": question}, { "type": "image_url", "image_url": {"url": video_url}, "mime_type": "video/mp4" } ] } ], temperature=0.2, max_tokens=4096 ) return response.choices[0].message.content except Exception as e: print(f"尝试 {attempt + 1}/{max_retries} 失败: {e}") if attempt < max_retries - 1: time.sleep(2 ** attempt) # 指数退避 else: raise return None ``` ### 2. 批量视频分析 ```python theme={null} import os import glob def batch_analyze_videos(video_dir, question): """批量分析文件夹中的所有视频""" video_files = glob.glob(os.path.join(video_dir, "*.mp4")) results = {} for video_file in video_files: print(f"分析视频: {os.path.basename(video_file)}") try: result = gemini_video_test(video_file, question) results[video_file] = result except Exception as e: print(f"分析失败: {e}") results[video_file] = f"错误: {str(e)}" return results {/* 使用示例 */} results = batch_analyze_videos("./videos", "请描述这个视频的主要内容") for video, analysis in results.items(): print(f"\n{video}:\n{analysis}\n") ``` ### 3. 多轮对话深入分析 ```python theme={null} def interactive_video_analysis(video_path): """交互式视频分析""" client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) {/* 读取视频 */} with open(video_path, "rb") as f: video_b64 = base64.b64encode(f.read()).decode() video_url = f"data:video/mp4;base64,{video_b64}" messages = [] {/* 初始分析 */} messages.append({ "role": "user", "content": [ {"type": "text", "text": "请分析这个视频的内容"}, { "type": "image_url", "image_url": {"url": video_url}, "mime_type": "video/mp4" } ] }) response = client.chat.completions.create( model="gemini-2.5-pro", messages=messages, temperature=0.2, max_tokens=4096 ) assistant_message = response.choices[0].message.content print(f"AI: {assistant_message}\n") messages.append({"role": "assistant", "content": assistant_message}) {/* 继续提问 */} while True: user_question = input("您的问题 (输入 'quit' 退出): ") if user_question.lower() == 'quit': break messages.append({ "role": "user", "content": [{"type": "text", "text": user_question}] }) response = client.chat.completions.create( model="gemini-2.5-pro", messages=messages, temperature=0.2, max_tokens=4096 ) assistant_message = response.choices[0].message.content print(f"AI: {assistant_message}\n") messages.append({"role": "assistant", "content": assistant_message}) ``` ## 📊 模型对比 | 模型 | 视频理解能力 | 响应速度 | 上下文长度 | 价格 | | ---------------- | ------ | ----- | ----- | ---- | | Gemini 2.5 Pro | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 超长 | \$\$ | | Gemini 2.5 Flash | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 长 | \$ | ## 🚨 注意事项 1. **文件大小**:建议单个视频文件不超过 20MB,以确保最佳性能 2. **隐私保护**:不要上传包含敏感信息或隐私内容的视频 3. **合规使用**:遵守相关法律法规,不用于非法用途 4. **结果验证**:AI 分析结果仅供参考,重要决策需人工复核 5. **成本控制**:视频分析消耗的 token 较多,请合理使用 6. **视频格式**:确保视频格式被支持(MP4 格式兼容性最好) ## 💰 成本优化建议 1. **视频预处理**:上传前适当压缩视频,减小文件大小 2. **精准提问**:使用明确的问题,避免重复分析 3. **模型选择**:根据需求选择合适的模型(Flash vs Pro) 4. **分段分析**:对长视频可以考虑分段处理 5. **缓存结果**:对于重复分析的视频,缓存之前的结果 ## 🔗 相关资源 * [完整代码示例](https://github.com/apiyi-api/ai-api-code-samples) * [API 定价说明](https://api.apiyi.com/account/pricing) * [图像理解 API](/api-capabilities/vision-understanding) 💡 **小贴士**:视频理解功能特别适合自动化内容审核、视频摘要生成、教学视频分析等场景。建议先使用 Gemini 2.5 Flash 进行测试,确认效果后根据需求选择合适的模型。 # 图像理解(识图)API Source: https://docs.apiyi.com/api-capabilities/vision-understanding 使用 AI 模型进行智能图像分析和理解,支持对象识别、场景描述、文字提取等功能 # 图像理解(识图)API API易 提供强大的图像理解能力,支持使用多种先进的 AI 模型对图像进行深度分析和理解。通过统一的 OpenAI API 格式,您可以轻松实现图像识别、场景描述、OCR 文字识别等功能。 **🔍 智能视觉分析**\ 支持对象识别、场景理解、文字提取、情感分析等多种视觉任务,让 AI 真正"看懂"图片。 ## 🌟 核心特性 * **🎯 多模型支持**:GPT-4o、Gemini 2.5 Pro、Claude 等顶级视觉模型 * **📸 灵活输入**:支持 URL 链接和 Base64 编码图片 * **🌏 中文优化**:完美支持中文场景理解和文字识别 * **⚡ 快速响应**:高性能推理,秒级返回结果 * **💰 成本可控**:多种模型选择,满足不同预算需求 ## 📋 支持的视觉模型 | 模型名称 | 模型 ID | 特点 | 推荐场景 | | --------------------- | ------------------- | ---------- | ------ | | **GPT-4o** ⭐ | `gpt-4o` | 综合能力强,识别准确 | 通用图像理解 | | **GPT-4.1 Mini** | `gpt-4.1-mini` | 轻量快速,成本低 | 批量处理 | | **Gemini 2.5 Pro** ⭐ | `gemini-2.5-pro` | 超长上下文,细节丰富 | 复杂场景分析 | | **Gemini 2.5 Flash** | `gemini-2.5-flash` | 速度极快,性价比高 | 实时应用 | | **Claude 3.5 Sonnet** | `claude-3-5-sonnet` | 理解深入,描述准确 | 专业分析 | ## 🚀 快速开始 ### 1. 基础示例 - 图片 URL ```python theme={null} import requests url = "https://api.apiyi.com/v1/chat/completions" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } payload = { "model": "gpt-4o", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "请详细描述这张图片的内容" }, { "type": "image_url", "image_url": { "url": "https://example.com/image.jpg" } } ] } ] } response = requests.post(url, headers=headers, json=payload) result = response.json() print(result['choices'][0]['message']['content']) ``` ### 2. 本地图片示例 - Base64 编码 ```python theme={null} import base64 import requests def image_to_base64(image_path): """将本地图片转换为 base64 编码""" with open(image_path, "rb") as image_file: return base64.b64encode(image_file.read()).decode('utf-8') # 读取本地图片 base64_image = image_to_base64("path/to/your/image.jpg") url = "https://api.apiyi.com/v1/chat/completions" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } payload = { "model": "gemini-2.5-pro", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "分析这张图片中的所有文字内容" }, { "type": "image_url", "image_url": { "url": f"data:image/jpeg;base64,{base64_image}" } } ] } ] } response = requests.post(url, headers=headers, json=payload) print(response.json()['choices'][0]['message']['content']) ``` ### 3. 高级示例 - 多图对比分析 ```python theme={null} import requests url = "https://api.apiyi.com/v1/chat/completions" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } payload = { "model": "gpt-4o", "messages": [ { "role": "user", "content": [ {"type": "text", "text": "请对比这两张图片的差异:"}, { "type": "image_url", "image_url": {"url": "https://example.com/image1.jpg"} }, { "type": "image_url", "image_url": {"url": "https://example.com/image2.jpg"} } ] } ], "max_tokens": 1000 } response = requests.post(url, headers=headers, json=payload) print(response.json()['choices'][0]['message']['content']) ``` ## 🎯 常见应用场景 ### 1. 商品识别与分析 ```python theme={null} prompt = """ 请分析这张商品图片,包括: 1. 商品类型和品牌 2. 主要特征和卖点 3. 适合的目标用户 4. 建议的营销文案 """ ``` ### 2. 文档 OCR 识别 ```python theme={null} prompt = """ 请提取图片中的所有文字内容,并按照原始格式整理输出。 如果有表格,请用 Markdown 表格格式呈现。 """ ``` ### 3. 医学影像辅助分析 ```python theme={null} prompt = """ 这是一张医学影像图片,请: 1. 描述图像的基本信息(如成像类型、部位等) 2. 标注可见的解剖结构 3. 注意:仅供参考,不作为诊断依据 """ ``` ### 4. 安全监控场景分析 ```python theme={null} prompt = """ 分析监控画面,识别: 1. 场景中的人数和位置 2. 是否有异常行为 3. 环境安全隐患 4. 时间戳信息(如果可见) """ ``` ## 💡 最佳实践 ### 图片预处理建议 1. **格式支持**:JPEG、PNG、GIF、WebP 等主流格式 2. **大小限制**:建议单张图片不超过 20MB 3. **分辨率**:高分辨率图片会获得更好的识别效果 4. **压缩优化**:适度压缩以提高传输速度 ### 提示词优化 ```python theme={null} # ❌ 不推荐:模糊的提示 prompt = "看看这是什么" # ✅ 推荐:具体明确的提示 prompt = """ 请从以下几个方面分析这张图片: 1. 主要对象:识别图片中的主要物体或人物 2. 场景环境:描述拍摄地点和环境特征 3. 色彩构图:分析配色方案和构图特点 4. 情感氛围:图片传达的情绪或氛围 5. 可能用途:这张图片适合用于什么场景 """ ``` ### 错误处理 ```python theme={null} import requests from requests.exceptions import RequestException def analyze_image_with_retry(image_url, prompt, max_retries=3): """带重试机制的图像分析函数""" for attempt in range(max_retries): try: response = requests.post( "https://api.apiyi.com/v1/chat/completions", headers={ "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" }, json={ "model": "gpt-4o", "messages": [{ "role": "user", "content": [ {"type": "text", "text": prompt}, {"type": "image_url", "image_url": {"url": image_url}} ] }] }, timeout=30 ) if response.status_code == 200: return response.json() elif response.status_code == 429: print(f"速率限制,等待后重试... (尝试 {attempt + 1}/{max_retries})") time.sleep(2 ** attempt) # 指数退避 else: print(f"错误: {response.status_code} - {response.text}") except RequestException as e: print(f"请求异常: {e}") return None ``` ## 🔧 高级功能 ### 1. 流式输出 对于长篇分析,可以使用流式输出获得更好的用户体验: ```python theme={null} payload = { "model": "gpt-4o", "messages": [...], "stream": True } response = requests.post(url, headers=headers, json=payload, stream=True) for line in response.iter_lines(): if line: print(line.decode('utf-8')) ``` ### 2. 多轮对话 保持上下文进行深入分析: ```python theme={null} messages = [ { "role": "user", "content": [ {"type": "text", "text": "这是什么动物?"}, {"type": "image_url", "image_url": {"url": "animal.jpg"}} ] }, { "role": "assistant", "content": "这是一只金毛寻回犬。" }, { "role": "user", "content": [{"type": "text", "text": "它看起来多大了?健康状况如何?"}] } ] ``` ### 3. 结合函数调用 ```python theme={null} tools = [ { "type": "function", "function": { "name": "save_image_analysis", "description": "保存图像分析结果到数据库", "parameters": { "type": "object", "properties": { "objects": {"type": "array", "items": {"type": "string"}}, "scene": {"type": "string"}, "text_content": {"type": "string"} } } } } ] payload = { "model": "gpt-4o", "messages": messages, "tools": tools, "tool_choice": "auto" } ``` ## 📊 性能对比 | 模型 | 响应速度 | 识别准确度 | 中文支持 | 价格 | | ---------------- | ----- | ----- | ----- | ---- | | GPT-4o | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | \$\$ | | Gemini 2.5 Pro | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | \$\$ | | Gemini 2.5 Flash | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | \$ | | GPT-4.1 Mini | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | \$ | ## 🚨 注意事项 1. **隐私保护**:不要上传包含敏感信息的图片 2. **合规使用**:遵守相关法律法规,不用于非法用途 3. **结果验证**:AI 分析结果仅供参考,重要决策需人工复核 4. **成本控制**:合理选择模型,避免不必要的开销 ## 🔗 相关资源 * [完整代码示例](https://github.com/apiyi-api/ai-api-code-samples/tree/main/Vision-API-OpenAI) * [API 定价说明](https://api.apiyi.com/account/pricing) 💡 **小贴士**:建议先使用 GPT-4.1 Mini 或 Gemini 2.5 Flash 进行测试,确认效果后再使用高级模型进行生产部署。 # API 手册 Source: https://docs.apiyi.com/api-manual API易 接口使用手册和参考文档,本手册提供 API易 的完整接口文档,帮助您快速集成和使用我们的服务。 想要在线测试 API?前往 API Playground,填入 API Key 即可直接发送请求、查看响应。 ## 平台特色 ### OpenAI 兼容模式 API易采用 **OpenAI 兼容格式**,让您可以用统一的接口调用200+主流大模型: **支持的模型厂商:** * 🤖 **OpenAI**:gpt-4o、gpt-5-chat-latest、gpt-3.5-turbo等 * 🧠 **Anthropic**:claude-sonnet-4-20250514、claude-opus-4-1-20250805 等 * 💎 **Google**:gemini-2.5-pro、gemini-2.5-flash 等 * 🚀 **xAI**:grok-4-0709、grok-3 等 * 🔍 **DeepSeek**:deepSeek-r1、deepSeek-v3 等 * 🌟 **阿里**:Qwen系列模型 * 💬 **Moonshot**:Kimi模型等 ### 功能支持范围 **✅ 支持的功能:** * 💬 **对话补全**:Chat Completions接口 * 🖼️ **图像生成**:gpt-image-1、flux-kontext-pro、flux-kontext-max 等 * 🔊 **语音处理**:Whisper转录 * 📊 **嵌入向量**:文本向量化 * ⚡ **函数调用**:Function Calling * 📡 **流式输出**:实时响应 * 🔧 **OpenAI参数**:temperature、top\_p、max\_tokens等 * 🆕 **Responses端点**:OpenAI最新功能 **❌ 不支持的功能:** * 🔧 微调接口(Fine-tuning) * 📁 Files管理接口 * 🏢 组织管理接口 * 💳 计费管理接口 ### 简单切换模型 **核心优势:一套代码,多种模型** 用OpenAI格式跑通后,只需要**更换模型名称**即可切换到其他大模型: ```python theme={null} # 使用GPT-4o response = client.chat.completions.create( model="gpt-4o", # OpenAI模型 messages=[...] ) # 切换到Claude,其他代码完全不变! response = client.chat.completions.create( model="claude-3.5-sonnet", # 只改模型名 messages=[...] ) # 切换到Gemini response = client.chat.completions.create( model="gemini-1.5-pro", # 只改模型名 messages=[...] ) ``` 这种设计让您可以轻松对比不同模型的效果,或根据成本和性能需求灵活切换模型,无需重写代码! ## 快速开始 ### 获取API Key 1. 访问 [API易控制台](https://api.apiyi.com/token) 2. 登录您的账户 3. 在令牌管理页面点击"新增"创建API Key 4. 复制生成的API Key用于接口调用 ### 查看请求示例 在令牌管理页面,您可以快速获取各种编程语言的代码示例: **操作步骤:** 1. 进入 [令牌管理页面](https://api.apiyi.com/token) 2. 找到您要使用的API Key所在的行 3. 点击"操作"列中的🔧**小扳手图标**(工具图标) 4. 在弹出菜单中选择"**请求示例**" 5. 查看包含以下语言的完整代码示例: API易令牌管理界面 **支持的编程语言:** * **cURL** - 命令行测试 * **Python (SDK)** - 使用官方OpenAI库 * **Python (requests)** - 使用requests库 * **Node.js** - JavaScript/TypeScript * **Java** - Java应用开发 * **C#** - .NET应用开发 * **Go** - Go语言开发 * **PHP** - Web开发 * **Ruby** - Ruby应用开发 * 以及更多语言... **代码示例特点:** * ✅ **完整可运行**:复制粘贴即可使用 * ✅ **参数说明**:详细的参数配置 * ✅ **错误处理**:包含异常处理逻辑 * ✅ **最佳实践**:遵循各语言开发规范 建议开发者优先查看后台的请求示例,这些示例会根据最新的API版本实时更新,确保代码的准确性和可用性。 ## 基础信息 ### API 端点 * **主要端点**:`https://api.apiyi.com/v1` * **备用端点**:`https://vip.apiyi.com/v1` ### 认证方式 所有 API 请求需要在 Header 中包含认证信息: ```http theme={null} Authorization: Bearer YOUR_API_KEY ``` ### 请求格式 * **Content-Type**:`application/json` * **编码格式**:UTF-8 * **请求方法**:POST(大部分接口) ## 核心接口 ### 1. 对话补全(Chat Completions) 创建一个对话补全请求,支持多轮对话。 **请求端点** ``` POST /v1/chat/completions ``` **请求参数** | 参数 | 类型 | 必填 | 说明 | | ------------------ | ------------ | -- | ---------------------- | | model | string | 是 | 模型名称,如 `gpt-3.5-turbo` | | messages | array | 是 | 对话消息数组 | | temperature | number | 否 | 采样温度,0-2之间,默认1 | | max\_tokens | integer | 否 | 最大生成令牌数 | | stream | boolean | 否 | 是否流式返回,默认false | | top\_p | number | 否 | 核采样参数,0-1之间 | | n | integer | 否 | 生成数量,默认1 | | stop | string/array | 否 | 停止序列 | | presence\_penalty | number | 否 | 存在惩罚,-2到2之间 | | frequency\_penalty | number | 否 | 频率惩罚,-2到2之间 | **消息格式** ```json theme={null} { "role": "system|user|assistant", "content": "消息内容" } ``` **完整代码示例** ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/chat/completions" \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-3.5-turbo", "messages": [ {"role": "system", "content": "你是一个有用的AI助手。"}, {"role": "user", "content": "你好!请介绍一下自己。"} ], "temperature": 0.7, "max_tokens": 1000 }' ``` ```python theme={null} from openai import OpenAI # 初始化客户端 client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) # 发送聊天请求 response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "你是一个有用的AI助手。"}, {"role": "user", "content": "你好!请介绍一下自己。"} ], temperature=0.7, max_tokens=1000 ) print(response.choices[0].message.content) ``` ```python theme={null} import requests import json url = "https://api.apiyi.com/v1/chat/completions" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } data = { "model": "gpt-3.5-turbo", "messages": [ {"role": "system", "content": "你是一个有用的AI助手。"}, {"role": "user", "content": "你好!请介绍一下自己。"} ], "temperature": 0.7, "max_tokens": 1000 } response = requests.post(url, headers=headers, json=data) result = response.json() if response.status_code == 200: print(result["choices"][0]["message"]["content"]) else: print(f"错误: {result}") ``` ```javascript theme={null} const OpenAI = require('openai'); const client = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); async function chatCompletion() { try { const response = await client.chat.completions.create({ model: 'gpt-3.5-turbo', messages: [ {"role": "system", "content": "你是一个有用的AI助手。"}, {"role": "user", "content": "你好!请介绍一下自己。"} ], temperature: 0.7, max_tokens: 1000 }); console.log(response.choices[0].message.content); } catch (error) { console.error('API调用错误:', error); } } chatCompletion(); ``` ```java theme={null} import okhttp3.*; import com.google.gson.Gson; import java.io.IOException; import java.util.*; public class APIYiExample { private static final String API_KEY = "YOUR_API_KEY"; private static final String BASE_URL = "https://api.apiyi.com/v1"; public static void main(String[] args) throws IOException { OkHttpClient client = new OkHttpClient(); Gson gson = new Gson(); // 构建请求体 Map requestBody = new HashMap<>(); requestBody.put("model", "gpt-3.5-turbo"); requestBody.put("temperature", 0.7); requestBody.put("max_tokens", 1000); List> messages = Arrays.asList( Map.of("role", "system", "content", "你是一个有用的AI助手。"), Map.of("role", "user", "content", "你好!请介绍一下自己。") ); requestBody.put("messages", messages); RequestBody body = RequestBody.create( gson.toJson(requestBody), MediaType.parse("application/json") ); Request request = new Request.Builder() .url(BASE_URL + "/chat/completions") .addHeader("Authorization", "Bearer " + API_KEY) .addHeader("Content-Type", "application/json") .post(body) .build(); try (Response response = client.newCall(request).execute()) { System.out.println(response.body().string()); } } } ``` ```csharp theme={null} using System; using System.Net.Http; using System.Text; using System.Threading.Tasks; using Newtonsoft.Json; class Program { private static readonly string API_KEY = "YOUR_API_KEY"; private static readonly string BASE_URL = "https://api.apiyi.com/v1"; static async Task Main(string[] args) { using var client = new HttpClient(); client.DefaultRequestHeaders.Add("Authorization", $"Bearer {API_KEY}"); var requestBody = new { model = "gpt-3.5-turbo", messages = new[] { new { role = "system", content = "你是一个有用的AI助手。" }, new { role = "user", content = "你好!请介绍一下自己。" } }, temperature = 0.7, max_tokens = 1000 }; var json = JsonConvert.SerializeObject(requestBody); var content = new StringContent(json, Encoding.UTF8, "application/json"); try { var response = await client.PostAsync($"{BASE_URL}/chat/completions", content); var result = await response.Content.ReadAsStringAsync(); Console.WriteLine(result); } catch (Exception ex) { Console.WriteLine($"错误: {ex.Message}"); } } } ``` ```go theme={null} package main import ( "bytes" "encoding/json" "fmt" "io/ioutil" "net/http" ) type Message struct { Role string `json:"role"` Content string `json:"content"` } type ChatRequest struct { Model string `json:"model"` Messages []Message `json:"messages"` Temperature float64 `json:"temperature"` MaxTokens int `json:"max_tokens"` } func main() { apiKey := "YOUR_API_KEY" baseURL := "https://api.apiyi.com/v1" reqData := ChatRequest{ Model: "gpt-3.5-turbo", Messages: []Message{ {Role: "system", Content: "你是一个有用的AI助手。"}, {Role: "user", Content: "你好!请介绍一下自己。"}, }, Temperature: 0.7, MaxTokens: 1000, } jsonData, _ := json.Marshal(reqData) req, _ := http.NewRequest("POST", baseURL+"/chat/completions", bytes.NewBuffer(jsonData)) req.Header.Set("Authorization", "Bearer "+apiKey) req.Header.Set("Content-Type", "application/json") client := &http.Client{} resp, err := client.Do(req) if err != nil { fmt.Printf("请求错误: %v\n", err) return } defer resp.Body.Close() body, _ := ioutil.ReadAll(resp.Body) fmt.Println(string(body)) } ``` ```php theme={null} 'gpt-3.5-turbo', 'messages' => array( array('role' => 'system', 'content' => '你是一个有用的AI助手。'), array('role' => 'user', 'content' => '你好!请介绍一下自己。') ), 'temperature' => 0.7, 'max_tokens' => 1000 ); $ch = curl_init(); curl_setopt($ch, CURLOPT_URL, $base_url . '/chat/completions'); curl_setopt($ch, CURLOPT_POST, 1); curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode($data)); curl_setopt($ch, CURLOPT_HTTPHEADER, array( 'Authorization: Bearer ' . $api_key, 'Content-Type: application/json' )); curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); $response = curl_exec($ch); $http_code = curl_getinfo($ch, CURLINFO_HTTP_CODE); curl_close($ch); if ($http_code == 200) { $result = json_decode($response, true); echo $result['choices'][0]['message']['content']; } else { echo "错误: " . $response; } ?> ``` ```ruby theme={null} require 'net/http' require 'json' api_key = 'YOUR_API_KEY' base_url = 'https://api.apiyi.com/v1' uri = URI("#{base_url}/chat/completions") http = Net::HTTP.new(uri.host, uri.port) http.use_ssl = true request = Net::HTTP::Post.new(uri) request['Authorization'] = "Bearer #{api_key}" request['Content-Type'] = 'application/json' request.body = { model: 'gpt-3.5-turbo', messages: [ { role: 'system', content: '你是一个有用的AI助手。' }, { role: 'user', content: '你好!请介绍一下自己。' } ], temperature: 0.7, max_tokens: 1000 }.to_json response = http.request(request) if response.code == '200' result = JSON.parse(response.body) puts result['choices'][0]['message']['content'] else puts "错误: #{response.body}" end ``` **响应示例** ```json theme={null} { "id": "chatcmpl-123", "object": "chat.completion", "created": 1699000000, "model": "gpt-3.5-turbo", "choices": [{ "index": 0, "message": { "role": "assistant", "content": "Hello! How can I help you today?" }, "finish_reason": "stop" }], "usage": { "prompt_tokens": 20, "completion_tokens": 10, "total_tokens": 30 } } ``` ### 2. 文本补全(Completions) 为兼容旧版接口保留,建议使用 Chat Completions。 **请求端点** ``` POST /v1/completions ``` **请求参数** | 参数 | 类型 | 必填 | 说明 | | ----------- | ------------ | -- | ------ | | model | string | 是 | 模型名称 | | prompt | string/array | 是 | 提示文本 | | max\_tokens | integer | 否 | 最大生成长度 | | temperature | number | 否 | 采样温度 | | top\_p | number | 否 | 核采样参数 | | n | integer | 否 | 生成数量 | | stream | boolean | 否 | 流式输出 | | stop | string/array | 否 | 停止序列 | ### 3. 嵌入向量(Embeddings) 将文本转换为向量表示。 **请求端点** ``` POST /v1/embeddings ``` **请求参数** | 参数 | 类型 | 必填 | 说明 | | ---------------- | ------------ | -- | ------------------------------- | | model | string | 是 | 模型名称,如 `text-embedding-ada-002` | | input | string/array | 是 | 输入文本 | | encoding\_format | string | 否 | 编码格式,`float` 或 `base64` | **完整代码示例** ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/embeddings" \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "text-embedding-ada-002", "input": "这是一段需要向量化的文本示例" }' ``` ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.embeddings.create( model="text-embedding-ada-002", input="这是一段需要向量化的文本示例" ) # 获取向量 embedding = response.data[0].embedding print(f"向量维度: {len(embedding)}") print(f"前5个值: {embedding[:5]}") ``` ```python theme={null} import requests import json url = "https://api.apiyi.com/v1/embeddings" headers = { "Authorization": "Bearer YOUR_API_KEY", "Content-Type": "application/json" } data = { "model": "text-embedding-ada-002", "input": "这是一段需要向量化的文本示例" } response = requests.post(url, headers=headers, json=data) result = response.json() if response.status_code == 200: embedding = result["data"][0]["embedding"] print(f"向量维度: {len(embedding)}") print(f"向量值: {embedding[:5]}") # 显示前5个值 else: print(f"错误: {result}") ``` ```javascript theme={null} const OpenAI = require('openai'); const client = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); async function getEmbedding() { try { const response = await client.embeddings.create({ model: 'text-embedding-ada-002', input: '这是一段需要向量化的文本示例' }); const embedding = response.data[0].embedding; console.log(`向量维度: ${embedding.length}`); console.log(`前5个值: ${embedding.slice(0, 5)}`); } catch (error) { console.error('API调用错误:', error); } } getEmbedding(); ``` ### 4. 图像生成(Images) 生成、编辑或变换图像。 **生成图像** ``` POST /v1/images/generations ``` **请求参数** | 参数 | 类型 | 必填 | 说明 | | ------- | ------- | -- | ------------------------------------------ | | model | string | 是 | 模型名称,推荐 `gpt-image-1` | | prompt | string | 是 | 图像描述提示词 | | n | integer | 否 | 生成数量,默认1 | | size | string | 否 | 图像尺寸:`1024x1024`, `1792x1024`, `1024x1792` | | quality | string | 否 | 质量:`standard` 或 `hd` | | style | string | 否 | 风格:`vivid` 或 `natural` | 推荐使用 `gpt-image-1` 模型进行图像生成。更多图像生成功能和参数说明,请查看 [GPT图像生成详细文档](/api-capabilities/gpt-image-1)。 **完整代码示例** ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/generations" \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-1", "prompt": "一只可爱的橙色小猫坐在阳光明媚的花园里", "n": 1, "size": "1024x1024", "quality": "hd" }' ``` ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.images.generate( model="gpt-image-1", # 推荐使用gpt-image-1 prompt="一只可爱的橙色小猫坐在阳光明媚的花园里", n=1, size="1024x1024", quality="hd" ) # 获取图片URL image_url = response.data[0].url print(f"生成的图片: {image_url}") # 下载图片 import requests img_response = requests.get(image_url) with open("generated_image.png", "wb") as f: f.write(img_response.content) print("图片已保存为 generated_image.png") ``` ```javascript theme={null} const OpenAI = require('openai'); const fs = require('fs'); const client = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); async function generateImage() { try { const response = await client.images.generate({ model: 'gpt-image-1', // 推荐使用gpt-image-1 prompt: '一只可爱的橙色小猫坐在阳光明媚的花园里', n: 1, size: '1024x1024', quality: 'hd' }); const imageUrl = response.data[0].url; console.log('生成的图片:', imageUrl); // 下载图片 const fetch = require('node-fetch'); const imgResponse = await fetch(imageUrl); const buffer = await imgResponse.buffer(); fs.writeFileSync('generated_image.png', buffer); console.log('图片已保存'); } catch (error) { console.error('生成图片错误:', error); } } generateImage(); ``` ### 5. 音频转文字(Audio) 语音识别和转录。 **转录音频** ``` POST /v1/audio/transcriptions ``` **请求参数**(Form-Data) | 参数 | 类型 | 必填 | 说明 | | ---------------- | ------ | -- | ------------------ | | file | file | 是 | 音频文件 | | model | string | 是 | 模型名称,如 `whisper-1` | | language | string | 否 | 语言代码 | | prompt | string | 否 | 指导提示 | | response\_format | string | 否 | 响应格式 | | temperature | number | 否 | 采样温度 | ### 6. 模型列表 获取可用模型列表。 **请求端点** ``` GET /v1/models ``` **响应示例** ```json theme={null} { "object": "list", "data": [ { "id": "gpt-3.5-turbo", "object": "model", "created": 1677610602, "owned_by": "openai" }, { "id": "gpt-4o", "object": "model", "created": 1687882411, "owned_by": "openai" } ] } ``` ## 流式响应 ### 开启流式输出 在请求中设置 `stream: true`: ```json theme={null} { "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Hello"}], "stream": true } ``` ### 流式响应格式 响应将以 Server-Sent Events (SSE) 格式返回: ``` data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1699000000,"model":"gpt-3.5-turbo","choices":[{"delta":{"content":"Hello"},"index":0}]} data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1699000000,"model":"gpt-3.5-turbo","choices":[{"delta":{"content":" there"},"index":0}]} data: [DONE] ``` ### 处理流式响应 ```python theme={null} import requests import json response = requests.post( 'https://api.apiyi.com/v1/chat/completions', headers={ 'Authorization': f'Bearer {api_key}', 'Content-Type': 'application/json' }, json={ 'model': 'gpt-3.5-turbo', 'messages': [{'role': 'user', 'content': 'Hello'}], 'stream': True }, stream=True ) for line in response.iter_lines(): if line: line = line.decode('utf-8') if line.startswith('data: '): data = line[6:] if data != '[DONE]': chunk = json.loads(data) content = chunk['choices'][0]['delta'].get('content', '') print(content, end='') ``` ```javascript theme={null} const response = await fetch('https://api.apiyi.com/v1/chat/completions', { method: 'POST', headers: { 'Authorization': `Bearer ${apiKey}`, 'Content-Type': 'application/json' }, body: JSON.stringify({ model: 'gpt-3.5-turbo', messages: [{role: 'user', content: 'Hello'}], stream: true }) }); const reader = response.body.getReader(); const decoder = new TextDecoder(); while (true) { const {done, value} = await reader.read(); if (done) break; const chunk = decoder.decode(value); const lines = chunk.split('\n'); for (const line of lines) { if (line.startsWith('data: ')) { const data = line.slice(6); if (data !== '[DONE]') { const json = JSON.parse(data); const content = json.choices[0].delta.content || ''; process.stdout.write(content); } } } } ``` ## 错误处理 ### 错误响应格式 ```json theme={null} { "error": { "message": "Invalid API key provided", "type": "invalid_request_error", "param": null, "code": "invalid_api_key" } } ``` ### 常见错误码 | 错误码 | HTTP状态码 | 说明 | | ----------------------- | ------- | ------- | | invalid\_api\_key | 401 | API密钥无效 | | insufficient\_quota | 429 | 额度不足 | | model\_not\_found | 404 | 模型不存在 | | invalid\_request\_error | 400 | 请求参数错误 | | server\_error | 500 | 服务器内部错误 | | rate\_limit\_exceeded | 429 | 请求频率过高 | ### 错误处理示例 ```python theme={null} try: response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello"}] ) except Exception as e: if hasattr(e, 'status_code'): if e.status_code == 401: print("API密钥无效") elif e.status_code == 429: print("请求过于频繁或额度不足") elif e.status_code == 500: print("服务器错误,请稍后重试") else: print(f"未知错误:{str(e)}") ``` ## 最佳实践 ### 1. 请求优化 * **合理设置 max\_tokens**:避免不必要的长输出 * **使用 temperature**:控制输出的随机性 * **批量处理**:合并多个请求减少调用次数 ### 2. 错误重试 实现指数退避的重试机制: ```python theme={null} import time import random def retry_with_backoff(func, max_retries=3): for i in range(max_retries): try: return func() except Exception as e: if i == max_retries - 1: raise e wait_time = (2 ** i) + random.uniform(0, 1) time.sleep(wait_time) ``` ### 3. 安全建议 * **保护API密钥**:使用环境变量存储 * **限制权限**:为不同应用创建不同的密钥 * **监控使用**:定期检查API使用日志 ### 4. 性能优化 * **使用流式输出**:提升用户体验 * **缓存响应**:对相同请求缓存结果 * **并发控制**:合理控制并发请求数 ## 速率限制 API易 实施以下速率限制: | 限制类型 | 限制值 | 说明 | | ------------ | ------- | ------- | | RPM (每分钟请求数) | 3000 | 每个API密钥 | | TPM (每分钟令牌数) | 1000000 | 每个API密钥 | | 并发请求数 | 100 | 同时处理的请求 | 超出限制时会返回 429 错误,请合理控制请求频率。 ## 需要帮助? * 查看 [完整API文档](/api-reference/introduction) * 访问 [API易官网](https://api.apiyi.com) * 联系技术支持:[support@apiyi.com](mailto:support@apiyi.com) 本手册持续更新中,请关注最新版本以获取新功能和改进。 # API 可以开多少并发? Source: https://docs.apiyi.com/faq/api-concurrency 了解不同类型模型的并发限制规则,以及如何申请更高并发配额 ## 简短回答 **并发限制因模型类型而异**,文本模型并发最高,图片模型有适度控制。 **重要说明** 并发限制是针对**单一模型**,而不是整个账号。例如,Nano Banana Pro 模型有 30 个并发,不影响其他模型的并发使用。 ## 不同模型类型的并发限制 **默认:50 次/秒** * ✅ 高并发支持 * ✅ 适合批量处理 * 🔓 可申请更高额度 **默认:高并发** * ✅ 异步处理机制 * ✅ 支持大规模调用 * 📊 适合批量视频生成 **默认:30 次/秒** * ⚠️ 有并发控制 * 📦 Base64 大数据传输 * 🔓 可申请调整 ## 为什么图片模型有并发控制? **技术原因** 图片生成 API 使用 **Base64 编码**传输图像数据,单次请求数据体积较大(通常 500KB-5MB)。为保证服务稳定性和响应速度,需要适度控制并发。 **示例**:Nano Banana Pro 模型默认 30 个并发,已满足大多数使用场景。 ## 并发计算方式 ### 按单一模型计算 并发限制是针对**每个具体模型**,而非整个账号: | 场景 | 并发计算方式 | | ------ | ------------------------------- | | 调用同一模型 | 受该模型并发限制(如 Nano Banana Pro 30次) | | 调用不同模型 | 各模型独立计算,互不影响 | | 多个令牌 | 每个令牌独立计算并发 | **实际示例** 假设您同时使用: * Nano Banana Pro(图片):30 个并发 * GPT-4o mini(文本):50 个并发 * FLUX.1 Pro(图片):30 个并发 **总计可用并发**:110+ 次(各模型独立) ## 如何申请更高并发? ### 个人用户 确定您需要的并发量级和使用场景 通过[企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)说明需求 我们会根据您的使用场景和历史数据评估 审核通过后,为您的令牌调整并发限制 ### 企业客户 **专线保障服务** 企业客户可申请专线保障,享受: * 🚀 **更高并发配额**:根据业务需求定制 * 🔒 **独立资源池**:不受公共流量影响 * ⚡ **优先调度**:保证响应速度 * 📞 **专属技术支持**:一对一服务 联系我们了解企业服务方案。 ## 常见问题 文本模型的请求和响应数据量较小(通常几 KB),而图片模型传输 Base64 编码的图像数据(通常 500KB-5MB),为保证整体服务质量需要控制并发。 可以通过以下方式查看: * 后台控制台查看令牌配置 * API 响应头中的 Rate Limit 信息 * 联系客服查询具体配额 超出并发限制时,API 会返回 `429 Too Many Requests` 错误。建议: * 实现请求队列管理 * 添加重试机制(指数退避) * 申请更高并发配额 不共享。每个令牌有独立的并发配额,互不影响。如需更高总并发,可以创建多个令牌分散请求。 一般情况下,合理的并发调整**不收取额外费用**。但极高并发或专线服务可能涉及企业定制方案,具体请咨询客服。 ## 并发优化建议 实现本地队列管理,控制同时发送的请求数量,避免超限 遇到 429 错误时,使用指数退避策略重试 创建多个令牌,将请求分散到不同令牌,提升总并发 对于非实时场景,优先使用异步 API(如视频生成) ## 联系我们 如需申请更高并发配额或咨询企业专线服务: [feedback@apiyi.com](mailto:feedback@apiyi.com) 详细描述您的并发需求 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 快速响应,实时沟通 @apiyi001 即时消息,高效解答 **申请时请提供**: * 📊 **使用场景**:具体应用(如电商批量出图、内容审核等) * 📈 **预期并发**:需要的并发量级 * 🕐 **高峰时段**:主要使用时间段 * 📜 **历史数据**:当前调用量和频率 这些信息有助于我们为您提供最合适的并发配额方案。 # Base URL 怎么填?/v1、根域名、/v1beta 有什么区别? Source: https://docs.apiyi.com/faq/base-url-config 配置 API易 Base URL 的完整指南:OpenAI 用 /v1,Claude 用根域名,Gemini 用 /v1beta ## 快速答案 **一句话记住**:OpenAI 系列加 `/v1`,Claude 只填根域名,Gemini 加 `/v1beta`。填错 Base URL 是最常见的接入问题。 | 模型系列 | Base URL | 适用 SDK | | ------------------------------- | -------------------------- | --------------------------------------------- | | GPT / DeepSeek / Llama / Qwen 等 | `https://api.apiyi.com/v1` | OpenAI SDK | | Claude 系列 | `https://api.apiyi.com` | Anthropic SDK | | Gemini 系列 | `https://api.apiyi.com` | Google GenAI SDK(需设置 `api_version: "v1beta"`) | ## 为什么不同模型的 Base URL 不一样? 这是由各厂商 SDK 的内部实现决定的: * **OpenAI SDK**:在 `base_url` 后拼接资源路径,所以需要包含 `/v1` * **Anthropic SDK**:内部自动拼接 `/v1/messages`,如果你填了 `/v1` 会变成 `/v1/v1/messages`,导致 404 错误 * **Google GenAI SDK**:使用 `/v1beta` 路径,SDK 自动处理路径拼接 ## 代码示例 ### OpenAI 兼容模型(GPT / DeepSeek / Llama 等) ```python theme={null} import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" # 域名 + /v1 ) response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "你好!"}] ) print(response.choices[0].message.content) ``` ### Claude 模型(Anthropic SDK) ```python theme={null} import anthropic client = anthropic.Anthropic( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com" # 只填根域名,不要加 /v1 ) message = client.messages.create( model="claude-sonnet-4-20250514", max_tokens=1024, messages=[{"role": "user", "content": "你好!"}] ) print(message.content[0].text) ``` ### Gemini 模型(Google GenAI SDK) ```python theme={null} from google import genai client = genai.Client( api_key="YOUR_API_KEY", http_options={"api_version": "v1beta", "base_url": "https://api.apiyi.com"} ) response = client.models.generate_content( model="gemini-2.5-pro", contents="你好!" ) print(response.text) ``` **Claude 用户常见错误**:如果你用 Anthropic 官方 SDK 调用 Claude,Base URL 只填 `https://api.apiyi.com`,千万不要加 `/v1`。但如果你用 OpenAI SDK 的兼容模式调用 Claude,则需要加 `/v1`。 ## 域名节点选择 API易 提供 4 个域名节点,功能完全一致,区别在于网络线路和部署架构: **`vip.apiyi.com`** 直连大后端,延迟最低。**全球客户(非中国大陆)首选推荐**。 **`api.apiyi.com`** 国内优化线路,**中国大陆客户默认推荐**。 **`b.apiyi.com`** Backup 备用节点,同时也是 Business 企业专用线路。主力节点异常时可切换。 **`api-cf.apiyi.com`** Cloudflare 全球 CDN 加速,适合**纯文本类调用**。有 100 秒超时限制。 | 节点 | 域名 | 推荐客户 | 说明 | | -------------- | ------------------ | --------- | ----------------- | | 全球直连 | `vip.apiyi.com` | 非中国大陆客户 | 直连后端,延迟最低 | | 国内默认 | `api.apiyi.com` | 中国大陆客户 | 国内优化线路(默认) | | 国内备用/企业 | `b.apiyi.com` | 企业客户 / 备用 | Backup + Business | | Cloudflare CDN | `api-cf.apiyi.com` | 仅文本类调用 | 全球加速,100 秒超时限制 | **Cloudflare CDN 节点限制**:`api-cf.apiyi.com` 基于 Cloudflare Workers 部署,最大请求超时为 **100 秒**。因此: * ✅ **适合**:普通文本对话、短文本生成等快速响应的调用 * ❌ **不适合**:超过 100 秒的复杂长文本任务 * ❌ **不适合**:Nano Banana Pro 等图片生成任务 * ❌ **不适合**:视频生成 API 调用 如果你的任务可能超过 100 秒,请使用 `vip.apiyi.com`(海外)或 `api.apiyi.com`(国内)。 建议在代码中配置备用节点,实现自动切换,提高服务可用性。 ## 常见报错排查 | 报错 | 可能原因 | 解决方法 | | ------------------- | --------------------------------------------- | ------------------------------------------------------------ | | **404 Not Found** | OpenAI SDK 漏加 `/v1`,或 Anthropic SDK 多加了 `/v1` | 检查路径是否匹配 SDK 规范 | | **400 Bad Request** | Gemini SDK 路径版本不匹配 | 确认使用 `/v1beta` | | **连接超时** | 域名节点选择不当 | 国内用 `api.apiyi.com`,海外用 `vip.apiyi.com`;CF-CDN 节点有 100 秒超时限制 | | **SSL 错误** | 缺少 `https://` 前缀 | 所有节点必须使用 HTTPS | | **双斜杠错误** | base\_url 末尾多了 `/` | 去掉末尾斜杠 | ## 完整配置速查 ### OpenAI 兼容模型 | 节点 | Base URL | | ------------------- | ----------------------------- | | 全球直连(海外推荐) | `https://vip.apiyi.com/v1` | | 国内默认(大陆推荐) | `https://api.apiyi.com/v1` | | 国内备用/企业 | `https://b.apiyi.com/v1` | | Cloudflare CDN(仅文本) | `https://api-cf.apiyi.com/v1` | ### Claude 模型(Anthropic SDK) | 节点 | Base URL | | ------------------- | -------------------------- | | 全球直连(海外推荐) | `https://vip.apiyi.com` | | 国内默认(大陆推荐) | `https://api.apiyi.com` | | 国内备用/企业 | `https://b.apiyi.com` | | Cloudflare CDN(仅文本) | `https://api-cf.apiyi.com` | ### Gemini 模型 | 节点 | Base URL | | ------------------- | -------------------------- | | 全球直连(海外推荐) | `https://vip.apiyi.com` | | 国内默认(大陆推荐) | `https://api.apiyi.com` | | 国内备用/企业 | `https://b.apiyi.com` | | Cloudflare CDN(仅文本) | `https://api-cf.apiyi.com` | Gemini 使用 Google GenAI SDK 时,`base_url` 填根域名,同时设置 `api_version: "v1beta"`,SDK 会自动拼接完整路径。 # 如何查看我的调用记录? Source: https://docs.apiyi.com/faq/call-logs API易调用日志查看指南,了解如何查看API调用记录和计费详情 ## 访问调用日志 进入顶部导航的"日志"页面:[https://api.apiyi.com/log](https://api.apiyi.com/log) 在日志栏目中,您可以查看: * **每一次调用的成功记录** * **API 调用的报错日志** * **详细的计费说明** 调用日志管理 调用日志管理 ## 日志记录内容 ### 成功调用记录 每次成功的 API 请求都会记录以下信息: * **请求时间**:精确到秒的调用时间戳 * **使用模型**:本次调用使用的AI模型 * **Token 计数**:输入和输出的 Token 数量统计 * **计费金额**:本次调用的具体费用 * **调用状态**:请求的执行状态 ### 报错日志 失败的 API 调用会记录: * **错误类型**:具体的错误分类 * **错误信息**:详细的错误描述 * **发生时间**:错误发生的时间戳 * **相关参数**:导致错误的请求参数信息 ## 隐私和数据政策 **数据隐私保护** 出于隐私保护和数据存储成本考虑,我们的日志系统: * **不记录详细的输入和输出内容** * **只保留基础的 Token 计数信息** * **仅存储计费所需的必要日志数据** * **确保用户数据隐私安全** ## 日志查看技巧 ### 筛选功能 * **按时间范围筛选**:可以查看特定时间段的调用记录 * **按模型筛选**:可以查看特定AI模型的使用情况 * **按状态筛选**:区分成功和失败的调用记录 ### 计费分析 * **单次调用成本**:每次API调用的具体费用 * **Token 使用效率**:输入输出Token的比例分析 * **模型成本对比**:不同模型的使用成本统计 ## 常见问题 ### 为什么看不到具体的对话内容? 为了保护用户隐私和降低存储成本,我们只记录计费相关的基础信息,不保存具体的输入输出内容。 ### 日志保存多长时间? 调用日志会保存足够长的时间以便您进行账单核对和使用分析,具体保存期限请参考服务条款。 ### 如何导出调用记录? 目前支持在线查看,如需批量导出功能,请联系客服了解更多详情。 # max_tokens 是什么?不设置会怎样? Source: https://docs.apiyi.com/faq/max-tokens 了解 max_tokens 参数的作用、OpenAI 参数名称演变、不设置时的默认行为,以及各大模型的最大输出 tokens 参考值。 ## 简短回答 `max_tokens` 控制模型单次回复最多生成多少个 token。**API易 不对 max\_tokens 做额外限制**,该参数会直接透传给上游模型。你可以自行设置,不设置则使用模型的默认值。 **API易 的立场**:我们不强制限制 `max_tokens`,完全由你自行控制。不设置时,模型会使用各自的默认值输出。 ## max\_tokens 的作用 `max_tokens`(最大输出 token 数)是调用大模型 API 时最常见的参数之一,它告诉模型:**这次回复最多生成多少个 token**。 * 设置得**太小**:模型可能在回答到一半时被截断(返回 `finish_reason: "length"`) * 设置得**太大**:不会强制模型生成那么多内容,但可能消耗更多费用(部分模型按输出 token 计费) * **不设置**:使用模型的默认值(各厂商不同,见下方表格) **Token ≠ 字符**。中文大约 1 个汉字 ≈ 1-2 个 token,英文大约 1 个单词 ≈ 1-1.5 个 token。4,096 tokens 大约相当于 3,000 个中文汉字或 3,000 个英文单词。 ## OpenAI 参数名称演变 OpenAI 在不同时期和不同 API 中使用了不同的参数名称,容易造成混淆: | API 类型 | 参数名称 | 适用模型 | 引入时间 | | -------------------- | ----------------------- | ---------------------- | ----------------- | | Chat Completions API | `max_tokens` | GPT-3.5、GPT-4、GPT-4o 等 | 最初版本 | | Chat Completions API | `max_completion_tokens` | o1、o3、o4-mini 等推理模型 | 2024 年 9 月(o1 发布) | | Responses API | `max_output_tokens` | GPT-4o、GPT-5.4、o3 等全系列 | 2025 年 | ### 为什么要改名? 2024 年 9 月 OpenAI 发布 o1 推理模型时,引入了「隐藏推理 token」的概念——模型内部会生成大量推理 token(reasoning tokens),但这些 token **不会出现在你的回复中**。 原来的 `max_tokens` 既表示「生成的 token 数」又表示「你收到的 token 数」,但在推理模型中这两者不再相等。因此 OpenAI 改用 `max_completion_tokens` 来明确表示「**你收到的回复 token 上限**」。 后来 Responses API 统一使用了 `max_output_tokens` 这个更直观的名称。 **注意**:如果你使用 OpenAI 的 o 系列推理模型(如 o3、o4-mini),在 Chat Completions API 中**必须使用 `max_completion_tokens`** 而非 `max_tokens`,否则会报错。 ## 不设置 max\_tokens 会怎样? 不同厂商的处理方式不同: | 厂商 | 不设置时的默认行为 | 说明 | | ---------------------- | ----------------- | -------------------------------- | | **OpenAI** | 无上限(输出到上下文窗口用完) | 模型自行决定输出长度,不会被人为截断 | | **Anthropic Claude** | ❌ **必填参数,不设置会报错** | Claude API 要求必须显式指定 `max_tokens` | | **Google Gemini** | 默认 8,192 tokens | 即使模型支持更大输出,不设置也只返回 8,192 tokens | | **DeepSeek(chat)** | 默认 4,000 tokens | 可手动提高到 8,000 | | **DeepSeek(reasoner)** | 默认 32,000 tokens | 包含思维链输出,最大 64,000 | **特别注意**:Anthropic Claude API 的 `max_tokens` 是**必填参数**。如果不传这个参数,API 会直接返回错误。使用 Claude 模型时请务必设置。 ## 各模型最大输出 tokens 参考 以下为主流模型的最大输出 token 数参考值。**实际数值请以各厂商官方文档为准**,因为模型更新频繁。 | 模型 | 模型标识 | 最大输出 tokens | 上下文窗口 | | ----------------- | -------------------- | ----------- | --------- | | GPT-5.4 | `gpt-5.4-2026-03-05` | 128,000 | 1,047,576 | | GPT-4o | `gpt-4o` | 16,384 | 128,000 | | o3 | `o3` | 100,000 | 200,000 | | Claude Opus 4.6 | `claude-opus-4-6` | 128,000 | 1,000,000 | | Claude Sonnet 4.6 | `claude-sonnet-4-6` | 64,000 | 1,000,000 | | Gemini 3.1 Pro | `gemini-3.1-pro` | 65,536 | 2,000,000 | | DeepSeek V3 | `deepseek-chat` | 8,000 | 64,000 | | DeepSeek R1 | `deepseek-reasoner` | 64,000 | 64,000 | **官方文档参考**(获取最新数值): * OpenAI:`platform.openai.com/docs/models` * Anthropic Claude:`docs.anthropic.com/en/docs/about-claude/models` * Google Gemini:`ai.google.dev/gemini-api/docs/models` * DeepSeek:`api-docs.deepseek.com/api/create-chat-completion` ## 使用建议 **最佳实践**:建议在每次 API 调用中**显式设置 `max_tokens`**,原因如下: * 避免不同模型/厂商的默认值差异导致意外截断 * 控制输出长度,防止不必要的 token 消耗 * Claude API 强制要求,养成统一习惯可减少出错 * 典型设置:普通对话 `2048-4096`,长文生成 `8192-16384`,代码生成 `4096-8192` ## 常见问题 **没有**。API易 完全透传 `max_tokens` 参数给上游模型,不做任何额外限制。你设置多少,上游模型就按多少处理。唯一的限制来自模型本身的最大输出 token 上限。 不会报错,模型会自动按自身的最大输出上限生成。例如 GPT-4o 最大输出 16,384 tokens,即使你设置 `max_tokens: 100000`,它最多也只会输出 16,384 tokens。 功能相同,都是限制输出 token 数。区别在于: * `max_tokens`:OpenAI 早期参数名,适用于 GPT 系列非推理模型 * `max_completion_tokens`:2024 年 9 月起,OpenAI o 系列推理模型使用的参数名 * `max_output_tokens`:OpenAI Responses API 统一使用的参数名 通过 API易 调用时,按照你使用的模型和 API 格式选择对应参数名即可。 这说明模型生成的内容达到了 `max_tokens` 上限。解决方法: 1. 增大 `max_tokens` 值 2. 优化 prompt,让模型生成更简洁的回复 3. 检查是否使用了正确的参数名(o 系列模型需用 `max_completion_tokens`) ## 相关文档 根据应用场景选择最适合的模型 了解不同模型的并发限制 各类工具中配置 API易 Base URL 的方法 管理 API 密钥、查看用量和余额 # 为什么有些模型我用不了? Source: https://docs.apiyi.com/faq/model-availability API易模型权限说明,了解如何解锁全部模型和模型不可用的原因 ## 用户分组和模型权限 ### 充值用户自动升级 充值后,平台会定期把充值用户调整为 **VIP** 或 **SVIP** 分组,即可解锁全部模型。 **自动分组调整** * 充值用户会被自动分配到VIP/SVIP分组 * VIP/SVIP用户可以使用平台所有可用模型 * 分组调整通常在充值后自动完成 ### 手动调整分组 如果您已经充值但分组没有自动调整,可以联系客服进行手动调整: 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 请提供您的账号信息,客服会帮助您调整到正确的用户分组。 ## 模型不可用的具体原因 ### 1. 高价格模型限制 大部分情况下模型都可以正常使用,但少数高价格模型对 `default` 分组有限制: * **示例**:`claude-opus-4-20250514` 等新发布的高端模型 * **原因**:因为价格高昂,暂未对默认分组开放 * **解决方案**:充值升级到VIP/SVIP分组即可使用 **高价格模型** 某些最新或高端模型由于成本较高,仅对付费用户开放。充值后即可获得完整的模型访问权限。 ### 2. 平台方下线模型 部分模型因为官方平台下线而无法使用: * **示例**:`gpt-4.5-preview` * **原因**:OpenAI 平台方已下线该模型 * **结果**:我们也相应下线,无法继续提供服务 **模型下线说明** 当原始AI服务商(如OpenAI、Anthropic等)下线某个模型时,我们也会同步下线该模型。这是为了确保服务的稳定性和一致性。 ## 用户分组说明 ### Default 分组 * **权限**:基础模型访问 * **限制**:部分高价格模型不可用 * **适用**:免费用户和新注册用户 ### VIP/SVIP 分组 * **权限**:全部可用模型访问 * **优势**:包括最新和高端模型 * **获得方式**:充值后自动或手动调整 ## 检查模型可用性 ### 确认当前分组 1. 登录控制台查看账户信息 2. 确认当前用户分组级别 3. 查看可用模型列表 ### 测试模型调用 1. 使用API文档中的测试功能 2. 尝试调用特定模型 3. 查看返回的错误信息 ## 常见解决方案 1. **充值升级**:最直接的解决方案,解锁所有模型 2. **联系客服**:充值后分组未调整时的处理方式 3. **选择替代模型**:使用功能类似但可用的其他模型 4. **等待更新**:关注平台公告,了解新模型上线信息 # 模型名称后缀 -c 是什么意思? Source: https://docs.apiyi.com/faq/model-name-suffix-c 解释 gemini-3-pro-image-preview-c 等带 -c 后缀模型名称的含义和计费区别 ## 简短回答 **`-c` 代表 "call"(按次计费)。** 带 `-c` 后缀的模型名称(如 `gemini-3-pro-image-preview-c`)和不带后缀的版本(如 `gemini-3-pro-image-preview`)本质上是**同一个模型**,能力完全一致。区别仅在于计费方式:`-c` 版本专门用于**按次计费**。而目前 Nano Banana Pro 也仅支持按次计费。 ## 官方解释 模型名称 -c 后缀解释 核心要点: * `-c` 是按次计费(call)的单独模型名称 * 本质上和不带后缀的版本是**同一个模型** * 都是官方转发,只是用不同模型名来区分计费方式 * 未来可能只用令牌计费模式区分 ## 为什么会有 -c 后缀? API易 正在推出按量计费模式,部分模型同时支持按量和按次两种计费方式。为了区分不同计费通道,系统使用模型名称后缀来标识: | 模型名称 | 计费方式 | 说明 | | ------------------------------ | ---- | ------------- | | `gemini-3-pro-image-preview` | 按量计费 | 根据 Token 用量计费 | | `gemini-3-pro-image-preview-c` | 按次计费 | 每次调用固定价格 | 两个名称调用的是**完全相同的官方模型**,都是官方转发,模型能力和输出质量没有任何区别。 ## 如何选择? **适合场景**: * 输入输出 Token 数量较少的请求 * 需要精确控制成本 * 主要做文本理解/分析任务 使用不带 `-c` 的模型名称 **适合场景**: * 图片生成等固定输出场景 * 希望每次调用成本透明固定 * 不想计算 Token 消耗 使用带 `-c` 的模型名称 **推荐做法**:创建令牌时选择"**按量优先**"计费模式,系统会自动为您选择最合适的计费方式,无需手动区分模型名称后缀。详见 [令牌计费模式说明](/faq/token-billing-modes)。 ## 未来计划 API易 正在持续优化计费体系。未来可能**仅通过令牌的计费模式**来区分按量/按次计费,届时无需再关注模型名称后缀。具体调整请关注平台公告。 ## 常见问题 **是的,完全是同一个模型。** `-c` 只是计费通道的标识,不影响模型能力。两个名称最终都会转发到相同的官方 API,输出质量完全一致。 取决于您的令牌计费模式: * **按量优先令牌**:使用不带后缀的名称(如 `gemini-3-pro-image-preview`),系统自动处理 * **按次计费令牌**:使用带 `-c` 的名称(如 `gemini-3-pro-image-preview-c`) * **不确定**:推荐使用"按量优先"令牌 + 不带后缀的模型名称 不是。只有同时支持按量和按次两种计费方式的模型才会有 `-c` 后缀版本。纯文本模型(如 GPT-4o、Claude)通常只支持按量计费,不会有 `-c` 版本。 API易 正在调整计费体系,未来可能不再需要通过模型名称后缀区分计费方式,改为完全通过令牌计费模式来控制。建议使用"按量优先"令牌,这样无论后续如何调整都不受影响。 ## 相关文档 了解按量优先、按次计费等 5 种计费模式的区别 创建和管理 API 令牌的完整指南 # 如何选择合适的 AI 模型? Source: https://docs.apiyi.com/faq/model-selection-guide 了解如何根据应用场景选择最适合的 AI 模型,掌握模型选型的核心原则 ## 快速查看模型信息 **推荐查看**:[模型信息总览页面](/api-capabilities/model-info) 本页面会及时更新当下最新的模型列表、性能指标和价格信息,帮助您快速了解所有可用模型。 ## 核心选型原则 **优先选择新模型** * ✅ 性能更强,效果更好 * ✅ 价格反而更便宜 * ✅ 功能更丰富 * ✅ 支持更长上下文 **匹配实际需求** * 📊 数据分析:推理能力强的模型 * 💬 对话应用:平衡性能和成本 * 🎨 创意生成:支持多模态的模型 * ⚡ 批量处理:高性价比模型 ## 常见场景推荐 ### 文本生成与对话 **推荐模型**: * **Claude 3.5 Sonnet**:综合能力强,适合复杂任务 * **GPT-4o mini**:性价比极高,适合大量调用 * **Gemini 2.0 Flash**:速度快,成本低 **适用场景**:客服机器人、内容生成、文案撰写 **推荐模型**: * **Claude 3.7 Sonnet**:顶级推理能力 * **Gemini 3 Pro Preview**:数据分析专家 * **o1 系列**:深度思考模型 **适用场景**:数据分析、代码生成、逻辑推理 **推荐模型**: * **GPT-4o mini**:\$0.15/百万 tokens 起 * **Gemini 2.0 Flash**:速度快,稳定性高 * **GLM-4-Flash**:国产高性价比选择 **适用场景**:批量翻译、内容审核、数据处理 ### 图像生成 **推荐模型**: * **FLUX.1 Pro**:最高质量,适合专业场景 * **FLUX.1 Schnell**:速度优先,快速迭代 * **SeeDream 4.5**:4K 生成,性价比高(\$0.035/张) **适用场景**: * **电商产品图**:SeeDream 4.5(支持参考图像) * **营销创意**:FLUX.1 Pro(质量最优) * **快速原型**:FLUX.1 Schnell(3秒出图) ### 代码与技术应用 **推荐模型**: * **Claude 3.7 Sonnet**:代码质量最佳 * **GPT-4o**:多语言支持全面 * **Gemini 3 Pro Preview**:SWE-bench 76.2% 高分 **适用场景**:代码生成、代码审查、技术文档生成 ## 具体场景咨询 如果您有特定的应用场景,不确定该选择哪个模型,欢迎随时联系我们获取专业建议: [feedback@apiyi.com](mailto:feedback@apiyi.com) 详细描述您的使用场景 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 快速响应,实时沟通 @apiyi001 即时消息,高效解答 **咨询时请提供以下信息**: * 🎯 **应用场景**:具体用途(如批量图片标题生成、客服对话等) * 📊 **使用规模**:预计每日调用量 * ⚡ **性能要求**:响应速度、质量要求 * 💰 **预算范围**:成本控制目标 这些信息能帮助我们为您推荐最合适的模型组合。 ## 实际案例 **案例:批量图片标题生成** **客户需求**:需要为大量商品图片生成标题描述 **推荐方案**: * **GPT-4o mini**:成本低(\$0.15/百万 tokens),质量稳定,适合批量处理 * **Gemini 2.0 Flash**:速度快,成本更低,适合超大批量 **理由**:这类任务对创意要求不高,但对成本和速度敏感,mini 和 flash 系列性价比最优。 ## 模型更新说明 **保持关注** AI 模型迭代速度很快,新模型通常在性能和价格上都有显著提升。我们建议: * 📖 定期查看 [模型信息页面](/api-capabilities/model-info) 了解最新模型 * 🔔 关注 [更新日志](/changelog) 获取新模型发布通知 * 🧪 使用免费额度测试新模型效果 * 📈 根据实际效果逐步切换到新模型 **记住**:用新不用旧,新模型往往更强更便宜! # 为什么大模型不知道自己的版本号? Source: https://docs.apiyi.com/faq/model-version-identity 解释通过 API 调用时模型无法准确回答自身版本的原因,以及官网和 API 的区别 ## 简短回答 **这是完全正常的现象,不影响模型能力。** 模型的名字是训练完成后才命名的,模型本身从未"学习过"自己的身份信息。官方网页版(如 claude.ai、chatgpt.com)之所以能正确回答,是因为内置了 System Prompt 告知模型"你是谁"。通过 API 调用时默认没有这些信息,所以模型会"猜错"自己的版本。 ## 实际案例 **常见场景** 通过 API 调用 Claude Sonnet 4.5,问它"你是什么模型?",它可能回答"我是 Claude 3.5 Sonnet"。这**不代表**你调用的模型有误,而是模型本身不知道自己的名字。 同样的情况也出现在 GPT-4o、Gemini 等所有模型上——这是大模型的通用特性,而非 API易 的问题。 ## 通俗理解 想象一位演技精湛的演员: * **能力**来自多年训练(相当于模型的训练过程) * **角色名字**由导演在开拍前告诉他(相当于 System Prompt) * 如果没人告诉他演什么角色,他虽然演技一流,但**不知道自己叫什么名字** 大模型也是如此:能力来自训练数据,但"我是 Claude Sonnet 4.5"这个身份信息,需要额外告知。 ## 技术原理 **模型命名发生在训练之后** 大模型的开发流程是: 1. **收集数据** → 准备训练语料 2. **训练模型** → 学习语言理解和生成能力 3. **评测调优** → 优化模型表现 4. **命名发布** → 给模型起名字(如 "Claude Sonnet 4.5") 模型在第 2 步完成训练时,第 4 步的名字还不存在。模型的训练数据中可能包含旧版本模型的名字(如 Claude 3.5 Sonnet),所以被问到时会"猜"一个它见过的名字。 **类比**:就像一个人在出生前不可能知道自己的名字——名字是出生后才取的。 **内置 System Prompt 的作用** 当你在 claude.ai 或 chatgpt.com 上对话时,官方网页会自动在每次对话开头注入一段隐藏的 System Prompt,类似: ``` 你是 Claude,由 Anthropic 开发。你的模型版本是 Claude Sonnet 4.5... ``` 这段提示词对用户不可见,但模型会"读到"它,从而知道自己是谁。 **所以**:不是模型"天生"知道自己的名字,而是官方网页每次都在"提醒"它。 **API 调用默认不包含身份信息** 通过 API 调用模型时,你发送的只有: * `model` 参数(告诉服务器调用哪个模型) * `messages` 数组(你的对话内容) * 可选的 `system` 参数(你自定义的系统提示词) `model` 参数是给**服务器**看的路由信息,模型本身读不到这个字段。如果你没有在 `system` 中告诉模型它是谁,模型就只能根据训练数据"猜测"。 **这对所有 API 平台都一样**——无论是官方 API、API易,还是其他中转站,行为完全一致。 ## 如何验证你调用的模型是否正确? 在 API易 控制台的**调用日志**中,可以看到每次请求实际使用的模型名称,这是最准确的验证方式。 每个 API 响应的 JSON 中都包含 `model` 字段,明确标识了实际调用的模型版本。 ```json theme={null} { "model": "claude-sonnet-4-5-20250514", "choices": [...] } ``` ## API易 服务保障 **API易 是官方渠道转发,模型质量与源头完全一致。** * API易 直接转发请求到 OpenAI、Anthropic、Google 等官方 API * 模型回答"不知道自己是谁"是所有 API 平台的通用现象 * 您可以通过调用日志和 API 响应中的 `model` 字段确认实际调用的模型 * 如有疑问,随时联系我们的技术团队验证 ## 如何让模型正确回答自己的版本? 只需在 API 调用时添加 `system` 参数,告知模型它的身份即可: ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://vip.apiyi.com/v1" ) response = client.chat.completions.create( model="claude-sonnet-4-5-20250514", messages=[ { "role": "system", "content": "你是 Claude Sonnet 4.5,由 Anthropic 开发的 AI 助手。" }, { "role": "user", "content": "你是什么模型?" } ] ) print(response.choices[0].message.content) # 输出:我是 Claude Sonnet 4.5,由 Anthropic 开发。 ``` **提示**:这和官方网页版的原理完全一样——通过 System Prompt 告知模型身份。添加后,模型就能正确回答"我是谁"了。 ## 相关问题 了解不同模型的特点和适用场景 了解模型权限和用户组等级 验证实际调用的模型版本 常见 API 错误排查指南 ## 联系我们 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 模型验证咨询、技术支持 **客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com) **商务合作**:[business@apiyi.com](mailto:business@apiyi.com) # Nano Banana 系列出图失败,常见原因有哪些? Source: https://docs.apiyi.com/faq/nano-banana-image-failure Nano Banana Pro/2 出图失败的常见原因分析,包括内容安全、去水印、知名IP、未成年人等触发谷歌安全机制的场景 ## 简要说明 Nano Banana 系列(包括 Nano Banana Pro 和 Nano Banana 2)底层使用谷歌 Gemini 模型。出图失败的主要原因是**触发了谷歌的内容安全机制**,谷歌会在生成阶段直接拦截不合规的请求。API易作为透明代理,忠实转发谷歌的反馈结果。 ## 常见触发原因 包含色情、暴力、血腥、仇恨言论等不适当内容的提示词或参考图,会被谷歌安全机制直接拦截。 要求去除图片上的水印属于违反内容政策的操作,谷歌会拒绝处理此类请求。 涉及迪士尼、漫威、任天堂等知名版权角色的生成请求,会因版权保护被拒绝。 任何涉及未成年人的不当内容生成请求,谷歌执行零容忍政策,严格拦截。 ### Nano Banana 2 新增限制 自 2026 年 2 月 27 日 Nano Banana 2 上线后,谷歌进一步收紧了安全机制,以下场景也会触发拦截: 涉及公众人物(明星、政治人物等)的图像生成或编辑请求会被拒绝。 试图修改图片中的金融信息、订单截图、价格标签等内容会被拦截。 对人物进行换装、换脸等操作涉及隐私和伦理问题,会被安全机制拒绝。 即使没有直接的色情描述,暗示性的、擦边的不当内容也会被识别并拦截。 ## 政策更新时间线 | 时间 | 事件 | 影响 | | ---------- | ---------------- | -------------------------------- | | 2026年1月23日 | 谷歌调整风控政策 | 整体安全审核更加严格,部分原本可通过的提示词被拦截 | | 2026年2月27日 | Nano Banana 2 上线 | 新增知名人物、金融信息修改、换装换脸、隐性 NSFW 等拦截规则 | ## 出图失败的典型表现 当出图失败时,API 返回的 HTTP 状态码仍然是 **200**,但响应内容中不包含图片数据,而是返回文字说明。 **为什么状态码是 200?** API易作为透明代理,忠实转发谷歌 API 的原始响应。谷歌在安全拦截时返回的就是 200 状态码 + 文本拒绝说明,而非 HTTP 错误码。 ### 常见的报错文案示例 谷歌 API 返回的拒绝文本通常包含以下内容: * `"我不能完成 xxx 的修改"` * `"我不能为你创建带有色情、不雅或冒犯性内容的图像"` * `"I can't generate images that are sexually explicit."` * `"I'm just a language model and can't help with that."` 注意:谷歌的安全过滤存在一定的随机性。**同一个提示词有时能生成、有时不能**,这与参考图内容、提示词组合方式等因素有关。 ## C 端产品开发者建议 如果你正在基于 Nano Banana 系列 API 开发面向用户的产品,建议做好错误处理逻辑,为用户提供友好的失败提示。 我们提供了详细的错误处理开发指南,包含完整的判断流程、代码示例和用户友好文案模板: 📖 错误处理开发指南(飞书文档):`xinqikeji.feishu.cn/wiki/Rslqw724YiBwlokHmRLcMVKHnRf` **核心判断指标**: 1. **candidatesTokenCount = 0**:谷歌在内容审核阶段直接拒绝 2. **finishReason 不是 STOP**:生成过程中被安全策略拦截 3. **有文本但无图片**:API 返回了拒绝说明而非图片数据 ## 联系支持 如果你的使用场景是正常合规的,但仍然遇到出图失败问题,欢迎联系我们排查: * 企业微信客服:[点击联系](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) * 邮箱:[hi@apiyi.com](mailto:hi@apiyi.com) # 令牌的按量优先/按次计费有什么区别? Source: https://docs.apiyi.com/faq/token-billing-modes 详细说明API易令牌的5种计费模式、使用场景和最佳实践 ## 快速答案 **推荐设置**:创建令牌时,\*\*计费模式选择"按量优先"\*\*即可,适用于绝大多数场景。 虽然系统提供了 5 种计费类型,但\*\*默认使用"按量优先"\*\*就能覆盖所有模型的调用需求。 令牌计费模式选择 令牌计费模式选择 ## 5 种计费模式详解 ### 1. 按量计费 **定义**:根据输入和输出的 **Token 数量**计费,使用多少 Tokens 扣多少费用。 **适用模型**: * **文本生成模型**:GPT-4、Claude、Gemini、DeepSeek 等 * **多模态理解模型**:支持图片/音频输入的模型 * **特殊图片模型**:`gpt-image-1`(按 Tokens 计费) **计费方式**: ``` 总费用 = (输入 Tokens × 输入价格) + (输出 Tokens × 输出价格) ``` **示例**: * `gpt-4o`:输入 \$5/百万 tokens,输出 \$15/百万 tokens * `claude-3-5-sonnet-20241022`:输入 \$3/百万 tokens,输出 \$15/百万 tokens **gpt-image-1 特殊说明**:虽然是图片生成模型,但按 Tokens 计费。影响 Tokens 的因素包括: * 图片分辨率(1024x1024、1792x1024 等) * 图片质量(standard、hd) OpenAI 官方提供了详细的计费表,不同分辨率和质量对应不同的 Token 消耗。 *** ### 2. 按次计费 **定义**:每次调用**固定扣费**,不受输入和输出 Tokens 影响。 **适用模型**: * **图片生成模型**:DALL-E、Flux、Sora Image 等(除了 gpt-image-1) * **视频生成模型**:Sora Video、VEO 等 **计费方式**: ``` 总费用 = 调用次数 × 单次价格 ``` **示例**: * `gemini-3-pro-image-preview`(别名 `nano-banana-pro`):\$0.09/次 * `sora_video2`:\$0.15/次(10秒视频) * `flux-1.1-pro`:\$0.04/次 **按次计费的优势**: * 价格透明,每次生成固定费用 * 无需计算 Token 消耗 * 适合图片/视频等固定输出场景 *** ### 3. 混合计费 **定义**:同时支持按量和按次两种计费方式,根据模型自动选择。 **状态**:⚠️ **不适用** 目前 API易 平台**不推荐使用"混合计费"模式**,该模式可能导致计费混乱。建议使用"按量优先"替代。 *** ### 4. 按量优先(推荐) **定义**:**智能计费模式**,当模型同时支持按量和按次计费时,**优先使用按量计费**;如果模型只支持按次,则自动切换为按次计费。 **为什么推荐?** * ✅ **包含按次计费**:可以调用图片/视频等按次计费模型 * ✅ **包含按量计费**:可以调用文本/多模态等按量计费模型 * ✅ **自动适配**:系统自动选择最合适的计费方式 * ✅ **覆盖全场景**:200+ 模型全部支持 **计费逻辑**: ``` 如果模型支持按量计费 → 使用按量计费 如果模型只支持按次计费 → 使用按次计费 ``` **示例场景**: | 模型 | 计费方式 | 说明 | | ---------------------------- | ---- | ---------------- | | `gpt-4o` | 按量计费 | 文本模型,优先按量 | | `gpt-image-1` | 按量计费 | 图片模型但按 Tokens 计费 | | `gemini-3-pro-image-preview` | 按次计费 | 图片模型,自动切换为按次 | | `sora_video2` | 按次计费 | 视频模型,自动切换为按次 | **推荐理由**:使用"按量优先"令牌,可以调用所有模型,无需为不同模型创建不同计费模式的令牌。 *** ### 5. 按次优先 **定义**:当模型同时支持按量和按次计费时,**优先使用按次计费**;如果模型只支持按量,则自动切换为按量计费。 **适用场景**: * 需要固定成本的场景 * 主要使用图片/视频生成模型 **计费逻辑**: ``` 如果模型支持按次计费 → 使用按次计费 如果模型只支持按量计费 → 使用按量计费 ``` **使用建议**:除非有明确的成本控制需求,否则建议使用"按量优先",因为文本模型按量计费通常更划算。 *** ## 如何选择计费模式? ### 推荐方案(适合 95% 用户) **适用场景**: * 同时使用文本、图片、视频模型 * 不想为不同模型创建不同令牌 * 需要最大灵活性 **优势**: * 覆盖所有 200+ 模型 * 系统自动选择最优计费方式 * 无需额外配置 ### 特殊场景 **场景**:只使用 GPT、Claude、Gemini 等文本模型 **推荐计费模式**:按量优先 或 按量计费 **原因**:文本模型都是按量计费,两种模式效果相同 **场景**:只使用 DALL-E、Flux、Sora 等生成模型 **推荐计费模式**:按量优先 或 按次优先 **原因**:图片/视频模型大多按次计费,但"按量优先"也能自动适配 **注意**:如果使用 `gpt-image-1`,必须使用"按量优先"或"按量计费" **场景**:严格控制预算,希望每次调用成本固定 **推荐计费模式**:按次计费 或 按次优先 **原因**:按次计费价格固定,便于成本预测 **限制**:无法调用文本模型(如 GPT-4、Claude) *** ## 常见问题 `gpt-image-1` 是 OpenAI 的官方图片生成模型,虽然是图片生成,但计费方式与文本模型类似,**按 Tokens 计费**。 **计费因素**: * 图片分辨率(1024x1024 消耗约 5000 tokens,1792x1024 消耗约 8500 tokens) * 图片质量(HD 质量会增加 Token 消耗) **解决方案**: * 使用"按量优先"或"按量计费"令牌 * 如果使用"按次计费"令牌,将无法调用 `gpt-image-1` **可以修改**。步骤如下: 1. 登录 [API易令牌管理页面](https://api.apiyi.com/token) 2. 找到对应的令牌,点击右侧的"编辑"按钮 3. 在"计费模式"下拉菜单中选择"按量优先" 4. 保存配置 **注意**:修改后立即生效,不影响已有余额。 **优先级不同**: | 计费模式 | 当模型同时支持按量和按次时 | 适用场景 | | ---- | ------------- | ----------------- | | 按量优先 | 优先使用按量计费 | 主要使用文本模型,偶尔用图片/视频 | | 按次优先 | 优先使用按次计费 | 主要使用图片/视频,偶尔用文本模型 | **推荐**:大多数情况下使用"按量优先"即可。 **不会立即失败,但可能无法调用某些模型**。 **示例场景**: * 如果令牌是"按次计费",调用 `gpt-4o` 会失败(因为 gpt-4o 只支持按量计费) * 如果令牌是"按量计费",调用 `gemini-3-pro-image-preview` 可能失败(因为该模型只支持按次计费) **解决方案**:使用"按量优先"避免这个问题。 **混合计费**在理论上可以同时支持按量和按次,但在实际使用中可能导致: * 计费逻辑不明确 * 成本难以预测 * 系统兼容性问题 **替代方案**:使用"按量优先"可以达到相同效果,且更稳定可靠。 *** ## 总结建议 | 计费模式 | 推荐指数 | 适用场景 | 覆盖模型 | | -------- | ----- | ---------- | ---------------------- | | **按量优先** | ⭐⭐⭐⭐⭐ | 所有场景(默认推荐) | 所有 200+ 模型 | | 按量计费 | ⭐⭐⭐ | 纯文本/多模态应用 | 文本模型 + gpt-image-1 | | 按次计费 | ⭐⭐⭐ | 纯图片/视频应用 | 图片/视频模型(除 gpt-image-1) | | 按次优先 | ⭐⭐ | 主要使用图片/视频 | 所有 200+ 模型 | | 混合计费 | ❌ | 不推荐使用 | 可能导致计费混乱 | **最佳实践**:创建令牌时,计费模式选择"**按量优先**",可以覆盖所有使用场景,无需为不同模型创建不同令牌。 ## 相关文档 * [如何创建 KEY?](/faq/token-management) * [令牌需要设置可用模型吗?](/faq/token-model-whitelist) * [定价说明](/pricing) * [模型列表](/api-capabilities/model-info) # 如何创建 KEY? Source: https://docs.apiyi.com/faq/token-management API易令牌管理指南,包括获取默认令牌和创建新KEY的完整说明 # 如何创建KEY? ## 获取现有的默认令牌 1. 进入顶部导航的"令牌"页面:[https://api.apiyi.com/token](https://api.apiyi.com/token) 2. 在页面中找到默认令牌,点击最右侧的管理菜单 3. 在管理菜单中找到复制图标,点击复制 4. 复制出完整的 KEY,KEY 的格式是以 `sk-` 开头 复制API Key 复制API Key ## 新增KEY 除了使用默认令牌,您也可以创建新的 KEY 来精准控制使用权限: 新增API Key 新增API Key ### 新增KEY的优势 * **余额控制**:可以为每个 KEY 设置专门的余额限制 * **有效期管理**:可以设置 KEY 的过期时间 * **灵活分配**:适合团队使用或项目隔离 **重要提示**:创建新 KEY 时,**不需要设定可用模型**。 这里采用白名单机制: * **如果设置了可用模型**:该 KEY 只能使用指定的模型 * **如果不设置可用模型**:该 KEY 可以使用整个网站里的 200+ 模型 推荐不设置可用模型,这样可以享受所有模型的访问权限。 ## KEY格式说明 * 所有 API KEY 都以 `sk-` 开头 * KEY 长度通常为 48-64 位字符 * 请妥善保管您的 KEY,不要在公开场所分享 ## 使用建议 1. **开发测试**:使用默认令牌进行快速开发和测试 2. **生产环境**:为生产项目创建专门的 KEY,便于管理和监控 3. **团队协作**:为不同团队成员创建独立的 KEY,方便权限管理 # 令牌需要设置可用模型吗? Source: https://docs.apiyi.com/faq/token-model-whitelist 详细说明API易令牌的可用模型设置机制、使用建议和常见场景 ## 一般情况:不需要设置 **推荐做法**:创建令牌时,**不需要设置可用模型**,这样可以使用整个站点的所有模型。 可用模型采用**白名单机制**: * **不设置**:该令牌可以调用站点上所有 200+ 模型 * **设置后**:该令牌只能调用指定的模型,无法使用其他模型 如果您的业务场景多样化,设置可用模型会限制令牌的使用范围,反而影响灵活性。 ## 为什么不建议设置? ### 1. 限制调用范围 假设您设置了可用模型为 `gpt-4o`、`claude-3-5-sonnet-20241022`,那么: * ✅ 可以调用:`gpt-4o`、`claude-3-5-sonnet-20241022` * ❌ 无法调用:`gemini-2.5-pro`、`deepseek-v3`、其他 200+ 模型 这会严重限制您的业务灵活性。 ### 2. 模型别名问题 **模型别名陷阱**:部分模型有别名,设置可用模型时容易出错。 **案例**: * **别名**:`nano-banana-pro`(友好的简称) * **正式名称**:`gemini-3-pro-image-preview`(官方 API 名称) 如果您设置可用模型为 `nano-banana-pro`,但代码中调用 `gemini-3-pro-image-preview`,会返回错误: ``` { "error": { "message": "Model not allowed for this API key", "type": "invalid_request_error" } } ``` ### 3. 业务场景变化 随着业务发展,您可能需要测试或切换不同模型: * 从 GPT-4 切换到 Claude 3.5 * 测试国产模型 DeepSeek、Qwen * 尝试新发布的 Gemini 2.5 如果提前设置了可用模型,每次需要修改白名单,非常麻烦。 ## 什么情况下需要设置? 虽然不推荐,但以下场景可以考虑设置可用模型: ### 场景 1:共享令牌给他人 如果您将令牌 KEY 共享给同事或朋友,并希望他们**只能使用特定模型**(如 `gpt-3.5-turbo`),避免高价模型消耗您的余额,这种情况可以设置可用模型。 **示例**: * 您的余额有限,只想让同事使用 `gpt-3.5-turbo`、`gpt-4o-mini` * 设置可用模型后,即使同事尝试调用 `o3`,也会被拒绝 ### 场景 2:预算控制 如果您为某个项目设置了严格的预算,只允许使用低成本模型,可以通过可用模型白名单限制: **示例**: * 项目预算有限,只允许使用 `deepseek-v3`(\$0.07/百万 tokens) * 禁止使用 `o3`(\$20/百万 tokens)避免超支 ### 场景 3:安全合规 部分企业有严格的 AI 模型使用规范,只允许使用经过审批的模型。 **示例**: * 公司只允许使用 OpenAI 官方模型 * 设置可用模型为 `gpt-4o`、`gpt-4.1`,禁止使用其他厂商模型 ## 如何设置可用模型? 如果您确实需要设置可用模型,步骤如下: 1. 登录 [API易令牌管理页面](https://api.apiyi.com/token) 2. 点击"新增 KEY"或编辑现有令牌 3. 在"可用模型"字段中选择允许的模型 4. 保存配置 **使用正式名称**:设置可用模型时,建议使用模型的**官方正式名称**(如 `gemini-3-pro-image-preview`),而非别名(如 `nano-banana-pro`),避免调用失败。 您可以在 [模型列表页面](/api-capabilities/model-info) 查看所有模型的正式名称。 ## 总结 | 设置方式 | 优点 | 缺点 | 适用场景 | | ----------- | --------------------------------------------- | ---------------------------------------- | ------------------ | | **不设置可用模型** | ✅ 可使用所有 200+ 模型
✅ 无需担心别名问题
✅ 业务灵活性高 | ❌ 无法限制他人使用高价模型 | 个人使用、开发测试、生产环境(推荐) | | **设置可用模型** | ✅ 严格控制模型使用范围
✅ 防止高价模型消耗余额 | ❌ 限制灵活性
❌ 可能遇到别名问题
❌ 需要手动维护白名单 | 共享令牌、预算控制、安全合规 | **推荐做法**:除非有明确的控制需求,否则**不设置可用模型**,享受所有模型的访问权限。 ## 相关文档 * [如何创建 KEY?](/faq/token-management) * [模型列表](/api-capabilities/model-info) * [定价说明](/pricing) # 快速开始 Source: https://docs.apiyi.com/getting-started 只需简单三步,即可开始使用 API易 访问各种 AI 模型。 ## 第一步:账户准备 ### 1.1 注册账号 访问 [API易官网](https://api.apiyi.com) 注册账号: * 使用邮箱注册(推荐高校、企业邮箱注册) * 验证邮箱地址 * 登录控制台 ### 1.2 账户充值 在控制台进行充值: 1. 点击"充值"菜单 2. 选择充值金额(最低 5 美金起,充值越多加赠越多,[查看优惠政策](/faq/recharge-promotions)) 3. 完成支付(支持支付宝、微信) 新用户首次充值可获得额外赠送,充值后余额立即到账,首充加赠额度需要[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)后为你人工加赠。 ## 第二步:创建 API 密钥 ### 2.1 生成密钥 1. 在后台导航点击"令牌"栏目,[https://api.apiyi.com/token](https://api.apiyi.com/token) 2. 可以复制【默认令牌】直接使用(右侧有个 复制 图标) 3. 或者新创建令牌:点击右上侧"新增"按钮,为密钥命名(如:test-key),点击确认创建,即拥有新的令牌。 ## 第三步:开始调用 ### 3.1 获取接入信息 * **API 地址(所谓的 Base\_Url)**:`https://api.apiyi.com` * **API 密钥**:您刚创建的密钥 * **请求格式**:完全兼容 OpenAI API,兼容 OpenAI 格式调用。 ### 3.2 测试调用 使用 curl 快速测试: ```bash theme={null} curl https://api.apiyi.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "model": "gpt-4.1-mini", "messages": [{"role": "user", "content": "Hello!"}] }' ``` ### 3.3 代码示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="gpt-4.1-mini", messages=[ {"role": "user", "content": "Hello!"} ] ) print(response.choices[0].message.content) ``` ```javascript theme={null} import OpenAI from 'openai'; const openai = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'https://api.apiyi.com/v1' }); const response = await openai.chat.completions.create({ model: 'gpt-4.1-mini', messages: [{ role: 'user', content: 'Hello!' }] }); console.log(response.choices[0].message.content); ``` ```java theme={null} // 使用官方 OpenAI Java 库 OpenAiService service = new OpenAiService( "YOUR_API_KEY", Duration.ofSeconds(60), "https://api.apiyi.com/v1" ); ChatCompletionRequest request = ChatCompletionRequest.builder() .model("gpt-4.1-mini") .messages(List.of( new ChatMessage(ChatMessageRole.USER, "Hello!") )) .build(); ChatCompletionResult result = service.createChatCompletion(request); System.out.println(result.getChoices().get(0).getMessage().getContent()); ``` ## 下一步 恭喜!您已经成功完成了 API易 的接入。接下来您可以: 了解完整的 API 接口说明 查看所有支持的 AI 模型 将 API易 集成到各种工具 在控制台监控使用情况 ## 常见问题 ### 如何切换模型? 只需修改请求中的 `model` 参数: ```json theme={null} { "model": "gpt-4.1", // 使用 GPT-4.1 "model": "claude-sonnet-4-20250514", // 使用 Claude 4 Sonnet "model": "gemini-2.5-pro" // 使用 Gemini 2.5 Pro } ``` ### 支持哪些编程语言? API易 兼容 OpenAI API 标准,支持所有 OpenAI SDK 支持的语言: * Python * JavaScript/TypeScript * Java * C#/.NET * Go * Ruby * PHP * 更多... ### 如何查看余额? 登录 [控制台](https://api.apiyi.com/account/profile) 即可查看: * 账户余额 * 使用记录 * 消费统计 ### 遇到问题怎么办? 1. 查看 [API 文档](/api-reference/introduction) 2. 检查 [常见错误](/api-reference/errors) 3. 联系客服:[support@apiyi.com](mailto:support@apiyi.com) 提示:保存好您的 API 密钥,并定期在控制台查看使用日志,每笔请求都有消息历史,合理优化成本。 祝使用愉快\~ # API易 - 企业级 AI 大模型 API 中转站 Source: https://docs.apiyi.com/index 专业稳定的 AI API 聚合服务商,已上线两年,月访客 30 万+,长期可靠服务 **International users?** [Switch to English version](/en) # 欢迎使用『API易』 **API易** 是企业级专业稳定的 AI 大模型 API 中转站,基于统一的OpenAI API标准,支持 400+ 热门AI模型。一个令牌,即可轻松调用OpenAI、Claude、Gemini、DeepSeek、Qwen、Kimi、GLM、Minimax 等所有主流大模型。 ## 🏢 公司背景 * 主体运营公司:APIYI, LLC(美国) * 官方资源合作:Google Aistudio、微软Azure、亚马逊AWS(额度来源正规,放心使用) * 服务保障: * 稳定:提供 OpenAI、Claude、Google Gemini 等主流模型的高并发和稳定服务 * 可信: * 已有众多知名应用在生产环境中稳定接入(见 使用场景 栏目)。 * 已合作知名高校、医院等单位,已服务知名企业。 * 国内主体可以对公支付,开具发票,协助提供采购清单等报销无忧。 ## 🌟 优势模型推荐 **🎨 图像生成** 当下最强,4K仅需 **\$0.09** /张 🎯 约官网 38% **🎬 视频生成** 顶级视频生成,可靠稳定 **\$0.1/s** 起 ⚡ 官网价格 85 折 **🔥 多模态推理** 更强推理与编码能力 **\$2.00** / 百万 tokens 🏆 性能领先 ## 📖 产品基础 三步完成接入,立即开始使用 AI 模型 完整的接口文档和开发者指南 🔥 最新模型上线、价格调整等重要更新 查看所有模型的详细定价和优惠信息 ## 🔧 核心接口 Chat Completions - 创建多轮对话和文本生成 Models API - 获取所有可用模型信息 Images API - flux-kontext-pro、GPT-4o 图像生成 Embeddings API - 文本向量化和语义搜索 ## ⚡ API 能力 ### 🎬 视频生成 API 🔥 音视频同步,无水印输出,\$0.12/次起 异步调用模式,支持批量处理和后台任务 谷歌最新视频生成模型,专业级视频创作 智能视频分析,场景识别、内容理解 ### 🎨 图像生成 API 🔥 4K 高清,业界最佳文本渲染,\$0.09/张 高级局部编辑,角度/焦点/色彩/光照调整 专业级图像生成,多种宽高比,官网88折 火山方舟官方合作,4K 高清,官网65折 逆向技术生图,\$0.01/张超低价 OpenAI 官方直转,稳定可靠 ### 🔧 基础 API 查看支持的 300+ AI 模型详细信息 使用官方 SDK 无缝接入 API易 智能图像分析,OCR、对象识别、场景描述 Anthropic 原生 API 格式,完整功能支持 谷歌原生 API 格式,完整功能支持 文本向量化和语义搜索 ## 🎯 使用场景 ### 💬 对话型 AI 功能强大的 AI 对话客户端,支持多模型切换 跨平台桌面 AI 对话应用 自托管的 Web 对话界面 一键部署的网页版 ChatGPT ### 💻 编程开发 🔥 Anthropic 官方 AI 编程助手 AI 驱动的代码编辑器 VS Code 中的 AI 编程助手 高效的 AI 代码生成工具 命令行 AI 编程助手 谷歌 Gemini 命令行工具 ### 🔧 技术工程 构建 AI 应用的开发框架 可视化 AI 应用开发平台 ### 🌐 翻译场景 macOS 上的专业翻译工具 浏览器双语对照阅读扩展 ## 🚀 为什么选择 API易? ### 一个接口,多种模型 无需为每个 AI 服务单独申请账号和管理 API 密钥。通过 API易,您只需要: * **一个账号**:管理所有 AI 服务 * **一个 API 密钥**:访问所有模型 * **一套接口标准**:兼容 OpenAI API 格式 ### 💡 支持的模型 我们支持业界领先的 300+ AI 模型: #### OpenAI 系列 * GPT-5.1 全系列(最新迭代,智能与速度平衡) * GPT-5 / GPT-5 Mini / GPT-5 Nano * o3 / o3 Pro / o4-mini(推理模型) * GPT-4.1 / GPT-4o 系列 * Codex 系列(编程专用) * DALL·E 3 / GPT-Image-1 #### Anthropic 系列 * **Claude Opus 4.5**(🔥 最新旗舰,SWE-bench 80.9%) * Claude Sonnet 4.5(世界级编码模型) * Claude Haiku 4.5(高性价比) * Claude 4 Sonnet / Claude 4 Opus #### Google 系列 * **Gemini 3 Pro Preview**(🔥 LMArena 全球第一) * **Nano Banana Pro**(🔥 4K 高清图像生成) * Gemini 2.5 Pro(2M 上下文) * Gemini 2.5 Flash(快速响应) #### xAI Grok 系列 * Grok 4 / Grok 4 Fast(20万上下文) * Grok Code Fast 1(代码专用) * Grok 3 / Grok 3 All(联网能力) #### 国产模型 * DeepSeek V3.2 / V3.1 / R1(混合推理) * GLM-4.6 / GLM-4.5(智谱 AI) * Kimi K2(火山引擎官方) * 通义千问(Qwen 系列) * 文心一言 4.0(ERNIE) * 讯飞星火 3.5 #### 视频生成模型 * **Sora 2**(音视频同步,无水印) * VEO 2(谷歌视频生成) #### 图像生成模型 * Nano Banana Pro(4K 高清) * Flux / SeeDream(专业级) * Sora Image(逆向生图) ### 🔧 简单易用 切换模型就像修改一个参数一样简单: ```python theme={null} # 使用 GPT-4 response = openai.ChatCompletion.create( model="gpt-4", messages=[{"role": "user", "content": "Hello!"}] ) # 切换到 Claude 3 response = openai.ChatCompletion.create( model="claude-3-opus-20240229", # 只需修改模型名称 messages=[{"role": "user", "content": "Hello!"}] ) ``` ### 🛡️ 稳定可靠 * **高可用性**:多节点部署,智能路由 * **自动降级**:模型不可用时自动切换 * **负载均衡**:智能分配请求,避免限流 * **实时监控**:24/7 服务状态监控 ### 💰 成本优化 * **统一计费**:所有模型使用统一余额 * **透明定价**:清晰的价格体系 * **用量统计**:详细的使用报告 * **灵活充值**:支持多种支付方式 ## 🎯 核心特色 ### 🔥 最新模型第一时间上线 * **Claude Opus 4.5**:SWE-bench 80.9%,编程能力登顶,价格降至前代 1/3 * **Gemini 3 Pro Preview**:LMArena 1501 Elo 全球第一,100万上下文 * **Nano Banana Pro**:4K 高清图像生成,业界最佳文本渲染 * **Sora 2 视频生成**:音视频同步,无水印输出,\$0.15/次起 ### 🚀 稳定可靠、并发无上限 官方合作伙伴资源(AWS、Azure、Google Cloud、BytePlus火山方舟),高性能基础架构支撑,不限并发,保障多行业生产环境稳定运行。 ### 💰 极致性价比 * 充值加赠活动:最高可达 8 折优惠 * 汇率优势:美元计价更实惠 * 缓存优化:GPT-5.1 提示缓存节省 90% 成本 * 按需付费:按 Token 或按次灵活计费 ## 🚀 开始使用 准备好开始了吗?只需三步即可开始: 创建您的 API易 账号 生成您的 API 密钥 查看 API 文档开始集成 ## 🔗 快速链接 注册账号,免费获得300万Token测试额度 管理API Key(令牌),查看使用统计和账单 *** 注册即可获得300万Token免费测试额度,约可调用4o-mini模型进行充分测试。首次充值还可获得1美元额外赠送。 # 价格说明 Source: https://docs.apiyi.com/pricing 了解 API易 和 AI大模型的定价逻辑和优势,享受比官方更优惠的价格。用户提供透明、优惠的定价方案,让您以更低的成本享受顶级 AI 模型服务。 ## API易 定价原则 ### 1. 模型价格对齐 * **海外大模型**:价格等同于各自官网标准(包括 OpenAI、Claude、Gemini、Grok等)。 * **国内大模型**:价格均低于官网价格(包括 DeepSeek、Qwen、Doubao、Kimi等) * **稀有模型**:个别新出的海外大模型(比如以前的 gpt-5.2-pro),或申请门槛特别高的模型会有一些上调。但充值赠送的折扣下来和官网相近。 绝大部分模型价格与官方保持一致,消耗视角完全透明,只为用的放心\~ 每当各家厂商发布新模型,API易 总是及时上新。快就是优势! ## 充值优势 ### 2. 固定汇率 **1:7** 固定汇率 不随实时汇率波动,方便计费;可与充值活动叠加享受额外优惠 **5 美元**起充 仅需 35 元人民币即可开始使用 ### 3. 充值赠送 **充值越多,优惠越大** 首充加赠 + 阶梯加赠(10%-20%),综合折扣可达官方**八折** 了解详细的首充加赠、阶梯加赠比例、企业客户服务等信息 ## API易 比官网的更多优势 更关键,相比官方单一账号,API易 提供更全面的服务: * 不限速率 * 不封号风险 * 按量计费 * 200+ 热门模型 * 一键切换 * 持续更新 * 统一 API 接口 * 兼容 OpenAI 格式 * 零迁移成本 * 专业技术支持 * 稳定可靠 * 数据安全保障 ## 科普:计费基础知识 ### 什么是『按量计费』? 按量计费(Pay-as-you-go)意味着您只需为实际使用的服务付费,无需预付月费或年费。 * 用多少付多少 * 无最低消费要求 * 随时开始或停止 * 实时查看消耗 * 设置额度预警 * 精确到每次调用 ### 计费模式优先级 APIYI 支持两种计费模式,当同一模型同时支持两种模式时: **按次计费优先于按量计费** 如果一个模型同时支持按次和按量计费,系统默认使用按次计费。 #### 令牌(API Key)设置影响 您的计费方式也受令牌配置影响: 如果令牌设置为"仅按量计费",即使模型支持按次计费,也会使用按量计费 令牌默认支持所有计费模式,系统自动选择(按次优先) ### 『按次计费』场景 以下类型的模型通常采用按次计费: **适用模型**: * sora\_image 系列(逆向模型) * flux-kontext-pro(官方模型) * DALL-E 系列 * Midjourney 相关模型 **计费单位**:每张图片 **适用模型**: * 视频生成类 API * 动画制作模型 **计费单位**:每个视频/每秒 **识别方式**: * 模型名称包含 `-all` 后缀的逆向模型 * 特定功能型模型 **计费单位**:每次调用 查看完整的模型价格表:[APIYI 价格列表](https://api.apiyi.com/account/pricing) ### 什么是 Tokens? Token 是 AI 模型处理文本的基本单位。理解 Token 有助于您估算和控制成本。 **Token 计算参考** * 中文:1 个汉字 ≈ 1-2 个 tokens * 英文:1 个单词 ≈ 1-2 个 tokens * 1000 tokens ≈ 750 个英文单词 ≈ 500 个汉字 #### Token 计算示例 ``` 输入文本:"你好,请帮我写一个Python函数" Token 数:约 12-15 个 tokens 输出文本:"def hello_world():\n print('Hello, World!')" Token 数:约 15-20 个 tokens 总消耗:输入 + 输出 ≈ 30-35 个 tokens ``` ### 提示词与补全 在每次 API 调用中,费用由两部分组成: 您发送给模型的所有内容,包括: * 系统提示 * 用户问题 * 上下文信息 * 历史对话(如有) 模型生成的回复内容,包括: * 文本回答 * 代码生成 * 结构化数据 不同模型的输入和输出价格可能不同。通常输出 tokens 的价格高于输入 tokens。 ## 如何选择合适的模型? ### 模型选择策略 **适合场景**:大批量处理、简单任务、测试开发 **推荐模型**: * gemini-2.5-flash (又快又好) * gpt-4.1(可是官方替代 gpt-4.5 的模型) * deepseek-v3(国产之光、性价比高) **预估成本**:\$0.1-1/百万 tokens **适合场景**:复杂推理、专业内容、高质量输出 **推荐模型**: * gemini-2.5-pro(综合多模态很强) * claude-sonnet-4-20250514-thinking(长文本处理) * o3(OpenAI 主力的推理模型,多模态能力) * deepseek-r1-0528 (R1优化版本) **预估成本**:\$3-15/百万 tokens **适合场景**:日常使用、中等复杂度任务 **推荐模型**: * gpt-4.1(性价比均衡) * claude-3-5-haiku-20241022(快速响应) * qwen-max(中文优化) **预估成本**:\$0.5-3/百万 tokens 更多请关注左侧「当下热门模型」页面。 ### 成本预估方法 使用少量样本(5-10个)进行测试调用 在 APIYI 控制台查看每次调用的详细 token 消耗 统计平均每次调用的 token 数量 平均 tokens × 预计调用次数 × 模型单价 1. 先用便宜的模型测试,验证可行性 2. 通过 APIYI 后台日志分析实际消耗 3. 根据任务复杂度选择合适模型 4. 优化提示词减少不必要的 token 消耗 ## 实时价格查询 查看所有模型的实时价格 * 按量计费价格 * 按次计费价格 * 优惠幅度对比 快速估算使用成本 * 输入预估用量 * 选择使用模型 * 自动计算费用 ## 常见问题 登录 [APIYI 控制台](https://api.apiyi.com),在模型列表页面可以查看所有模型的实时价格。 充值实时到账,支付成功后立即可以使用。 支持开具正规发票,请在控制台提交开票申请。 企业大额充值可享受更多优惠,请联系客服咨询。 ## 开发票说明 ### 开票流程 客户在线充值或对公转账成功后,以实付金额开票(所有价格均含税),需要客户提供详细的开票信息:企业或高校抬头、税号等。 网站后台顶部导航-开票,自助提交开票表单 [提交开票申请 →](https://xinqikeji.feishu.cn/share/base/form/shrcns8TS3alZTN2Av1JfkOvmqh) * 可开增值税普通发票(专票需求另外沟通税点) * 开票类目:**信息技术服务费**或**数据采集费** * 可配合开具:采购清单并加盖公章 1个工作日左右,通过微信或邮箱发送电子发票 我们有不少的高校与企业客户,会配合贵方的各种合理的报销要求。 *** 注册账号,充值即享优惠,体验 200+ AI 模型 # 使用场景总览 Source: https://docs.apiyi.com/scenarios 探索API易在对话AI、编程开发、技术工程、翻译等各个领域的实际应用场景,了解如何在不同业务中集成和使用AI大模型。 # 总览 API易 支持 200+ 热门 AI 模型,为各行各业提供强大的 AI 能力。无论您是开发者、企业用户还是个人用户,都能在这里找到适合的应用场景。 **🧩 社区生态持续壮大** 除了官方整理的四大场景,我们还收录了一批**社区好伙伴贡献的开源工具**:ComfyUI 节点合集、AI Skill、MCP 服务器、论文工作流、自动化插件……让你以极低门槛接入 API易 能力。 👉 直接跳转:[查看社区贡献](#社区贡献) · [ComfyUI 节点合集](/scenarios/ecosystem/lucknanobananapro-comfyui) · [Nano Banana Skill](/scenarios/ecosystem/nano-banana-skill) 💡 **欢迎投稿**:你也做了基于 API易 的开源项目?联系客服即可收录到本页面,免费曝光给全球开发者。 ## 🎯 四大核心应用领域 智能对话、客服机器人、知识问答等交互式AI应用 代码生成、调试优化、开发辅助等编程场景 AI应用开发、工作流自动化、系统集成等技术场景 多语言翻译、文档本地化、跨语言交流等应用 *** ## 💬 对话型 AI 利用 AI 大模型构建智能对话系统,提供自然流畅的人机交互体验。 ### 典型应用场景 * **智能客服**:7x24小时自动回复,处理常见问题 * **知识问答**:基于企业知识库的智能问答系统 * **个人助手**:日程管理、信息查询、任务提醒 * **教育辅导**:个性化学习指导和答疑解惑 ### 推荐工具和平台 功能强大的桌面AI对话客户端,支持多模型切换 开源的Web界面,可自部署的ChatGPT替代方案 一键部署的网页版对话界面,支持多种模型 *** ## 💻 编程开发 AI 赋能软件开发,提升编程效率和代码质量。 ### 典型应用场景 * **代码生成**:根据需求自动生成代码片段 * **Bug修复**:智能检测和修复代码问题 * **代码重构**:优化代码结构和性能 * **技术文档**:自动生成API文档和注释 ### 推荐工具和平台 AI驱动的代码编辑器,智能代码补全和生成 VS Code中的AI编程助手,支持多种AI模型 统一管理 Claude Code 等 5 款 AI CLI 工具,一键切换配置 ### 支持的编程语言 * **前端开发**:JavaScript, TypeScript, React, Vue, Angular * **后端开发**:Python, Java, Go, Node.js, PHP * **移动开发**:Swift, Kotlin, Flutter, React Native * **数据科学**:Python, R, SQL, Jupyter Notebook *** ## 🔧 技术工程 构建复杂的 AI 应用和自动化工作流程。 ### 典型应用场景 * **AI应用开发**:快速构建和部署AI应用 * **工作流自动化**:智能化业务流程处理 * **数据处理**:大规模数据分析和处理 * **系统集成**:将AI能力集成到现有系统 ### 推荐工具和平台 构建LLM应用的强大开发框架 可视化AI应用开发和部署平台 ### 技术栈支持 * **开发框架**:LangChain, LlamaIndex, Semantic Kernel * **部署平台**:Docker, Kubernetes, Serverless * **数据库**:Vector DB, PostgreSQL, MongoDB * **监控运维**:Prometheus, Grafana, ELK Stack *** ## 🌍 翻译场景 打破语言障碍,实现高质量的多语言交流。 ### 典型应用场景 * **文档翻译**:技术文档、合同、报告等专业翻译 * **网页翻译**:实时翻译网页内容,无障碍浏览 * **多语言客服**:支持多种语言的客户服务 * **内容本地化**:软件界面、营销材料的本地化 ### 推荐工具和平台 macOS上的专业翻译工具,支持截图翻译 浏览器扩展,双语对照阅读体验 ### 支持语言 * **主流语言**:中文、英语、日语、韩语、法语、德语、西班牙语 * **小语种**:泰语、越南语、阿拉伯语、俄语、意大利语 * **专业领域**:医学、法律、技术、商务等专业术语翻译 *** ## 🧩 社区贡献 社区用户贡献的开源工具、ComfyUI 节点和 MCP 服务器,扩展 API易 的应用边界。 ### 推荐工具 论文一键转架构图、路线图、PPT、Rebuttal,支持通过 API易 调用 GPT、Claude 等 200+ 模型 在 ComfyUI 中直接调用 Nano Banana Pro / Nano Banana 2 图像生成模型,支持文生图、图生图和多轮对话编辑 社区贡献的轻量 ComfyUI 示例节点:文生图 + 多图编辑,代码简洁、易于上手与二次拓展 高阶 ComfyUI 节点:支持 14 张参考图、1K/2K/4K、15 种宽高比、超时重试与实时进度,适合批量生产 双节点合集:一键在 ComfyUI 调用 `gpt-image-2`(官转)与 `gpt-image-2-all`(官逆),支持 mask 重绘与自定义分辨率 在图上直接画点/框/多边形标出要改的区域,搭配 Nano Banana 节点,一句简单 prompt 就能精准改图 在 Codex CLI、Cursor、Gemini CLI 等 AI 编程工具中,一句话生成和编辑图片 双 Skill 合集:在 AI 编程工具中一句话调用 `gpt-image-2`(官转,支持 4K)与 `gpt-image-2-all`(官逆,按次计费) 在 Make.com 自动化工作流中通过 HTTP 请求节点调用 Gemini 图像理解 API 飞书字段捷径 + 阿里云函数 + Coze 工作流,让运营在多维表格里填提示词就能批量调用 Nano Banana Pro 出图 Coze 平台 Python 插件,封装 Nano Banana Pro 调用、错误识别与 OSS 上链路,工作流即取即用 *** ## 🚀 开始使用 ### 第一步:选择适合的场景 根据您的具体需求,从上述四个领域中选择最匹配的应用场景。 ### 第二步:选择合适的工具 每个场景都有推荐的工具和平台,点击相应的卡片查看详细的集成指南。 ### 第三步:获取 API 密钥 访问 [API易控制台](https://api.apiyi.com) 注册账号并获取 API 密钥。 ### 第四步:按照文档集成 每个工具都有详细的集成文档,包含完整的配置步骤和代码示例。 ## 💡 最佳实践建议 ### 性能优化 * **模型选择**:根据任务复杂度选择合适的模型(GPT-4 vs GPT-3.5) * **批量处理**:对于大量数据,使用批量API提升效率 * **缓存策略**:合理使用缓存减少重复请求 ### 成本控制 * **Token优化**:精简输入内容,使用更高效的提示词 * **模型混用**:简单任务使用低成本模型,复杂任务使用高级模型 * **用量监控**:定期查看使用统计,优化调用策略 ### 安全考虑 * **数据隐私**:敏感数据处理前进行脱敏 * **访问控制**:设置合理的API访问权限 * **内容过滤**:启用内容安全检查功能 *** ## 📞 需要帮助? 如果您在使用过程中遇到任何问题,欢迎: * 📧 **邮件咨询**:[support@apiyi.com](mailto:support@apiyi.com) * 🌐 **访问官网**:[api.apiyi.com](https://api.apiyi.com) * 💰 **查看价格**:[价格页面](https://api.apiyi.com/account/pricing) API易 提供免费试用额度,新用户注册即可获得 300万 Token 测试额度,足够进行充分的功能评估。 # 进阶功能与故障排除 Source: https://docs.apiyi.com/scenarios/agent/openclaw/advanced OpenClaw 故障排除、自定义技能、记忆功能、多设备同步与安全提示 ## 故障排除 国内访问 Telegram 需要代理。设置终端代理后重启 Gateway: ```bash theme={null} export https_proxy=http://127.0.0.1:代理端口 export http_proxy=http://127.0.0.1:代理端口 openclaw gateway restart ``` 或直接使用 Web UI(不需要代理)。 运行诊断命令自动修复: ```bash theme={null} openclaw doctor --fix ``` 1. 检查 API 密钥是否正确 2. 确认 `baseUrl` 设置为 `https://api.apiyi.com/v1` 3. 测试连通性: ```bash theme={null} curl -H "Authorization: Bearer 你的密钥" \ https://api.apiyi.com/v1/models ``` ```bash theme={null} openclaw logs --follow ``` ```bash theme={null} openclaw update ``` ```bash theme={null} openclaw channels add --channel telegram ``` ## 自定义技能 OpenClaw 支持自定义技能,可以在 `~/.openclaw/workspace/skills/` 目录下创建。 ## 记忆功能 OpenClaw 会记住你的对话和偏好,可以用 `/memory` 查看和管理记忆。 ## 多设备同步 可以在多台设备上运行 OpenClaw,通过 Tailscale 等工具实现远程访问。 ## 安全提示 * **API 密钥安全**:不要把配置文件分享给他人 * **权限控制**:OpenClaw 可以执行终端命令,注意不要让它执行危险操作 * **网络安全**:默认只监听本地地址,如需远程访问请配置好安全措施 ## 相关资源 管理 API 密钥和查看使用量 查看场景化模型推荐 # Anthropic 原生配置 Source: https://docs.apiyi.com/scenarios/agent/openclaw/config-anthropic 使用 anthropic-messages API 类型配置 OpenClaw,支持工具调用和 Claude 专属特性 ## 为什么选择 Anthropic 原生模式 OpenClaw 支持两种方式调用 Claude 模型。如果你需要使用\*\*工具调用(tool\_use)\*\*等高级功能,强烈建议使用 `anthropic-messages` 原生模式: | 场景 | OpenAI 兼容模式 | Anthropic 原生模式 | | --------------- | ----------- | -------------- | | 纯聊天 | ✅ 正常 | ✅ 正常 | | 工具调用(tool loop) | ❌ 可能 400 报错 | ✅ 稳定 | | Prompt Caching | ❌ 不支持 | ✅ 支持 | | 多模型切换 | ✅ 200+ 模型 | ⚠️ 仅 Claude 系列 | 走 `openai-completions` 时,纯聊天能通,但一旦进入工具多轮调用(tool\_calls → tool\_result → tool loop),可能被后端拒绝返回 400。改走 `anthropic-messages` 后,`tool_use` + `tool_result` 格式可正常工作。 ## 推荐配置 编辑 `~/.openclaw/openclaw.json`,添加以下 provider 配置: ```json theme={null} { "models": { "providers": { "apiyi": { "baseUrl": "https://api.apiyi.com", "apiKey": "sk-你的API易密钥", "api": "anthropic-messages", "headers": { "anthropic-version": "2023-06-01", "anthropic-beta": "" }, "models": [ { "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4", "reasoning": false, "contextWindow": 200000, "maxTokens": 16384 }, { "id": "claude-opus-4-6", "name": "Claude Opus 4", "reasoning": false, "contextWindow": 200000, "maxTokens": 16384 } ] } } } } ``` ### 关键配置说明 以下三点**必须**正确设置,否则会遇到 400 报错: 1. **`baseUrl` 不带 `/v1`**:必须是 `https://api.apiyi.com`,否则会拼成 `.../v1/v1/messages` 导致请求失败 2. **`headers` 中必须包含 `anthropic-version`**:设为 `2023-06-01` 3. **`anthropic-beta` 设为空字符串**:禁用 beta 功能头,避免触发不支持的特性 ### 关于 `reasoning: false` Claude 模型在 API易 上,**请求中如果出现 thinking 相关字段(`thinking` / `output_config`)会直接返回 400 错误**。 将模型条目设置 `"reasoning": false`,可以让 OpenClaw 不发送 thinking 字段,避免此问题。 ## 模型白名单配置 将模型加入 `agents.defaults.models`,否则 OpenClaw 可能提示模型"未登记",然后静默回退到其他模型: ```json theme={null} { "agents": { "defaults": { "model": { "primary": "apiyi/claude-sonnet-4-6" }, "models": { "apiyi/claude-sonnet-4-6": { "streaming": false }, "apiyi/claude-opus-4-6": { "streaming": false } } } } } ``` ## 与 OpenAI 兼容模式的对比 | 特性 | OpenAI 兼容模式 | Anthropic 原生模式 | | -------------- | -------------------------- | ----------------------- | | API 类型 | `openai-completions` | `anthropic-messages` | | baseUrl | `https://api.apiyi.com/v1` | `https://api.apiyi.com` | | 支持模型 | 所有 200+ 模型 | 仅 Claude 系列 | | 工具调用 | 不稳定(多轮可能 400) | 稳定 | | Prompt Caching | 不支持 | 支持 | | 超长上下文 | 取决于模型 | 最高 200K tokens | | 适用场景 | 多模型切换、纯聊天 | Claude 深度使用、Agent 工具调用 | ## Claude 模型 ID 列表 | 模型 ID | 名称 | 说明 | | --------------------------- | ---------------- | ----------- | | `claude-sonnet-4-6` | Claude Sonnet 4 | 均衡性能,推荐日常使用 | | `claude-opus-4-6` | Claude Opus 4 | 最强推理能力 | | `claude-haiku-4-5-20251001` | Claude Haiku 4.5 | 快速响应,性价比高 | ## 混合配置(推荐) 同时配置 OpenAI 兼容和 Anthropic 原生两个提供商,按需切换: ```json theme={null} { "agents": { "defaults": { "model": { "primary": "apiyi-claude/claude-sonnet-4-6" }, "models": { "apiyi-claude/claude-sonnet-4-6": { "streaming": false }, "apiyi-claude/claude-opus-4-6": { "streaming": false } } } }, "models": { "providers": { "apiyi": { "baseUrl": "https://api.apiyi.com/v1", "apiKey": "sk-你的API易密钥", "api": "openai-completions", "models": [ { "id": "gpt-5.4", "name": "GPT-5.4" }, { "id": "deepseek-v3.2", "name": "DeepSeek V3.2" } ] }, "apiyi-claude": { "baseUrl": "https://api.apiyi.com", "apiKey": "sk-你的API易密钥", "api": "anthropic-messages", "headers": { "anthropic-version": "2023-06-01", "anthropic-beta": "" }, "models": [ { "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4", "reasoning": false, "contextWindow": 200000, "maxTokens": 16384 }, { "id": "claude-opus-4-6", "name": "Claude Opus 4", "reasoning": false, "contextWindow": 200000, "maxTokens": 16384 } ] } } } } ``` 在聊天中使用 `/model apiyi/gpt-5.4` 或 `/model apiyi-claude/claude-sonnet-4-6` 切换模型。 ## 验证配置 配置完成后,验证是否生效: ```bash theme={null} {/* 查看模型状态 */} openclaw models status {/* 发送测试消息,检查返回的 provider/model 是否正确 */} openclaw agent --message "只回 pong" --json ``` 在返回的 JSON 中,检查 `meta.agentMeta.provider` 和 `meta.agentMeta.model` 是否与配置一致。 ## 常见问题 这通常是请求中出现了 thinking 相关字段导致的。确保: * 模型条目设置了 `"reasoning": false` * headers 中 `"anthropic-beta": ""` 已正确配置 已有的聊天 session 可能缓存了旧的模型配置。两种解决方式: 修改 session 的模型: ```bash theme={null} openclaw gateway call sessions.patch \ --params '{"key":"你的session-key","model":"apiyi-claude/claude-sonnet-4-6"}' ``` 或重置 session: ```bash theme={null} openclaw gateway call sessions.reset \ --params '{"key":"你的session-key","reason":"reset"}' ``` 检查是否已将模型加入 `agents.defaults.models` 白名单。未登记的模型会被 OpenClaw 自动回退。 Anthropic 原生模式的 `baseUrl` **不要**带 `/v1`。如果写成 `https://api.apiyi.com/v1`,实际请求会变成 `.../v1/v1/messages`,导致 404 错误。 # CLI 交互式配置 Source: https://docs.apiyi.com/scenarios/agent/openclaw/config-cli 使用 openclaw onboard 向导和 CLI 命令快速配置 OpenClaw ## 安装向导(推荐新用户) 首次使用 OpenClaw,运行安装向导完成所有配置: ```bash theme={null} openclaw onboard ``` ### 步骤一:选择模型提供商 在 **Model/auth provider** 列表中,滚动到底部,选择: ```text theme={null} Custom Provider (Any OpenAI or Anthropic compatible endpoint) ``` ### 步骤二:填写 API 地址 在 **API Base URL** 字段中输入 API易 的接口地址: ```text theme={null} https://api.apiyi.com ``` ### 步骤三:选择密钥输入方式 系统会询问 API 密钥的提供方式,选择: ```text theme={null} Paste API key now ``` ### 步骤四:粘贴 API 密钥 在密钥输入框中,粘贴你的 API易 令牌(即密钥,`sk-` 开头)。 获取方式: 1. 打开 API易 令牌管理页面:`https://api.apiyi.com/token` 2. 找到类型为**按量优先**的默认令牌 3. 在该令牌所在行最右侧的「操作」栏,点击**第一个复制按钮** 4. 即可复制出 `sk-` 开头的令牌(密钥),粘贴到此处即可 粘贴 API 密钥 无需新建令牌,直接使用系统默认生成的「按量优先」令牌即可。 ### 步骤五:选择端点兼容模式 在 **Endpoint compatibility** 选项中,选择: ```text theme={null} OpenAI-compatible (Uses /chat/completions) ``` 如果你主要使用 Claude 模型并需要 Prompt Caching 等原生特性,可以选择 `Anthropic-compatible`。详见 [Anthropic 原生配置](/scenarios/agent/openclaw/config-anthropic)。 ### 步骤六:设置模型 ID 在 **Model ID** 字段中输入你要使用的模型名称,例如: ```text theme={null} gpt-4o ``` 建议初始配置时先使用 `gpt-4o` 等常见模型完成验证,跑通后再在 OpenClaw 中切换为你实际需要的模型(如 `gpt-5.4`)。部分老版本 OpenClaw 在初始化阶段可能无法识别较新的模型名称,导致 503 错误。每次修改完模型配置后,记得重启 OpenClaw 使配置生效,也可以在对话中让 OpenClaw 自行重启。 其他可选模型:`claude-sonnet-4-6`、`deepseek-v3.2`、`gemini-3.1-pro-preview` 等。 ### 步骤七:验证并完成 OpenClaw 会自动验证配置。验证成功后,系统会生成一个 **Endpoint ID**(如 `custom-api-apiyi-com`),表示配置完成。 验证过程偶尔可能返回错误,重试通常即可成功。如果持续失败,请检查 API 密钥是否正确、网络是否通畅。 ### 配置完成后的参数 | 参数 | 值 | | ------------- | ---------------------------- | | Provider | Custom Provider | | API Base URL | `https://api.apiyi.com` | | Compatibility | OpenAI-compatible | | Endpoint ID | `custom-api-apiyi-com`(自动生成) | ## 修改配置 已完成初始配置后,使用 `configure` 命令重新进入交互式配置: ```bash theme={null} openclaw configure ``` 这会打开交互式配置菜单,可以修改: * 模型提供商和默认模型 * 聊天渠道设置 * 技能启用/禁用 * Gateway 参数 ## 单项配置命令 快速查看或修改单个配置项: ```bash theme={null} {/* 查看当前配置值 */} openclaw config get agents.defaults.model.primary {/* 设置配置值 */} openclaw config set agents.defaults.model.primary "apiyi/gpt-5.4" {/* 设置 API 密钥 */} openclaw config set models.providers.apiyi.apiKey "sk-你的密钥" ``` ## Web UI 配置面板 启动 Dashboard 后,也可以在浏览器中管理配置: ```bash theme={null} openclaw dashboard ``` 打开 `http://127.0.0.1:18789/`,在设置页面可以: * 可视化编辑模型配置 * 管理聊天渠道连接 * 查看和切换已配置的技能 * 实时查看日志和运行状态 ## 启动服务 配置完成后启动 Gateway: ```bash theme={null} openclaw gateway start ``` 配置更改后需要重启服务: ```bash theme={null} openclaw gateway restart ``` # 配置文件方式 Source: https://docs.apiyi.com/scenarios/agent/openclaw/config-json 通过编辑 openclaw.json 配置文件,手动配置 API易 服务和多模型支持 ## 配置文件位置 OpenClaw 使用 JSON 配置文件,位于 `~/.openclaw/openclaw.json`。 ## 基础配置 创建或编辑配置文件 `~/.openclaw/openclaw.json`: ```json theme={null} { "agents": { "defaults": { "model": { "primary": "apiyi/gpt-5.4" } } }, "models": { "providers": { "apiyi": { "baseUrl": "https://api.apiyi.com/v1", "apiKey": "sk-你的API易密钥", "api": "openai-completions", "models": [ { "id": "gpt-5.4", "name": "GPT-5.4" }, { "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4" }, { "id": "deepseek-v3.2", "name": "DeepSeek V3.2" }, { "id": "gemini-3.1-pro-preview", "name": "Gemini 3.1 Pro" } ] } } } } ``` ## 配置字段说明 | 字段 | 说明 | | ------------------------------- | ------------------------------------------------------------------------- | | `agents.defaults.model.primary` | 默认模型,格式为 `provider名/模型名` | | `models.providers` | 自定义模型提供商配置 | | `baseUrl` | API 地址,使用 `https://api.apiyi.com/v1` | | `apiKey` | 你的 API易 密钥 | | `api` | API 类型:OpenAI 兼容用 `openai-completions`,Anthropic 兼容用 `anthropic-messages` | ## 多模型配置 可以配置多个模型,在聊天中用 `/model ` 切换: ```json theme={null} { "models": { "providers": { "apiyi": { "baseUrl": "https://api.apiyi.com/v1", "apiKey": "sk-你的密钥", "api": "openai-completions", "models": [ { "id": "gpt-5.4", "name": "GPT-5.4" }, { "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4" }, { "id": "deepseek-v3.2", "name": "DeepSeek V3.2" } ] } } } } ``` ## 完整配置示例 包含模型配置和 Telegram 渠道的完整示例: ```json theme={null} { "agents": { "defaults": { "model": { "primary": "apiyi/gpt-5.4" } } }, "models": { "providers": { "apiyi": { "baseUrl": "https://api.apiyi.com/v1", "apiKey": "sk-你的API易密钥", "api": "openai-completions", "models": [ { "id": "gpt-5.4", "name": "GPT-5.4" }, { "id": "claude-sonnet-4-6", "name": "Claude Sonnet 4" }, { "id": "deepseek-v3.2", "name": "DeepSeek V3.2" } ] } } }, "channels": { "telegram": { "enabled": true, "accounts": { "default": { "token": "你的Telegram Bot Token" } } } } } ``` 配置文件修改后,需要重启 Gateway 服务才能生效: ```bash theme={null} openclaw gateway restart ``` # 安装指南 Source: https://docs.apiyi.com/scenarios/agent/openclaw/installation 安装 OpenClaw 本地 AI 助手,支持 macOS、Linux、Windows 多种安装方式 ## 系统要求 * Node.js 22 或更高版本 * macOS / Linux / Windows ## 安装 Node.js ```bash theme={null} brew install node@22 ``` ```bash theme={null} curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash nvm install 22 nvm use 22 ``` 从 Node.js 官网下载安装 22.x 或更高版本。 或使用 PowerShell 安装 fnm: ```powershell theme={null} winget install Schniz.fnm fnm install 22 fnm use 22 ``` ## 安装 OpenClaw ```bash theme={null} npm install -g openclaw ``` ```bash theme={null} curl -fsSL https://openclaw.ai/install.sh | bash ``` ```powershell theme={null} irm https://openclaw.ai/install.ps1 | iex ``` ## 验证安装 ```bash theme={null} openclaw --version ``` 运行诊断命令,检查环境是否就绪: ```bash theme={null} openclaw doctor ``` 查看当前运行状态: ```bash theme={null} openclaw status ``` 如果 `openclaw doctor` 报告问题,可以尝试自动修复: ```bash theme={null} openclaw doctor --fix ``` ## 下一步 安装完成后,选择一种方式配置 API易: 手动编辑 JSON 配置 向导引导完成配置 直连 Claude 模型 # OpenClaw Source: https://docs.apiyi.com/scenarios/agent/openclaw/overview 开源本地 AI 助手,支持 Telegram/WhatsApp/Discord 等多平台,通过 API易 配置实现自主任务执行 ## 概述 OpenClaw 是一款开源的本地 AI 助手,由开发者 Peter Steinberger 于 2025 年 11 月创建。它运行在你自己的电脑上,可通过 Telegram、WhatsApp、Discord 等多种聊天平台交互,实现文件操作、终端命令执行、浏览器控制等自动化任务。 通过配置 API易 服务,您可以获得: 数据完全在本地处理,隐私安全有保障 支持 Telegram、WhatsApp、Discord、Slack、iMessage 等 不只是聊天,能真正操作电脑、执行命令 支持自定义技能和插件扩展 **项目信息**:OpenClaw 是 MIT 许可证开源项目,官网 `openclaw.ai`,项目地址 `github.com/openclaw/openclaw`。 ## 快速导航 安装 Node.js 和 OpenClaw,支持 macOS / Linux / Windows 手动编辑 openclaw\.json 配置文件 使用 openclaw onboard 向导快速配置 使用 anthropic-messages API 类型直连 Claude Web UI / Telegram / 常用命令与使用示例 故障排除、自定义技能、记忆功能等 # 使用指南 Source: https://docs.apiyi.com/scenarios/agent/openclaw/usage OpenClaw 使用方式、核心技能、常用命令与实际使用示例 ## 使用方式 ### 方式一:Web UI(推荐) 最简单的使用方式,无需任何外部服务: ```bash theme={null} openclaw dashboard ``` 浏览器会打开 `http://127.0.0.1:18789/`,直接在网页聊天窗口发消息即可。 Web UI 是国内用户的推荐方式,不需要代理,直接可用。 ### 方式二:Telegram Bot 1. 在 Telegram 搜索 `@BotFather` 2. 发送 `/newbot` 创建机器人 3. 获取 Bot Token 4. 在 `openclaw onboard` 时输入 Token 国内使用 Telegram 需要代理支持: ```bash theme={null} export https_proxy=http://127.0.0.1:代理端口 export http_proxy=http://127.0.0.1:代理端口 openclaw gateway restart ``` ### 方式三:其他平台 OpenClaw 还支持: * WhatsApp(扫码连接) * Discord(需要创建 Bot) * Slack、Signal、iMessage、微软 Teams 等 ## 核心技能 OpenClaw 内置丰富的技能,可以执行各种任务: ### 文件操作 | 技能 | 功能 | | ---------- | ----------- | | `fs.read` | 读取文件(文本/图片) | | `fs.write` | 写入/创建文件 | | `fs.edit` | 编辑文件内容 | ### 系统操作 | 技能 | 功能 | | --------------- | -------------------- | | `shell.exec` | 执行终端命令 | | `shell.process` | 管理运行中的命令 | | `browser.*` | 自动控制浏览器(打开网页、截图、点击等) | ### 智能功能 | 技能 | 功能 | | --------------- | ------------- | | `web_search` | 网页搜索 | | `web_fetch` | 抓取网页内容 | | `memory_search` | 搜索记忆 | | `memory_get` | 读取记忆 | | `cron.*` | 定时任务(提醒、自动执行) | | `tts` | 文字转语音 | ## 常用命令 ### 终端命令 | 命令 | 功能 | | -------------------------- | ------------- | | `openclaw onboard` | 运行安装向导 | | `openclaw gateway start` | 启动 Gateway 服务 | | `openclaw gateway restart` | 重启 Gateway 服务 | | `openclaw gateway stop` | 停止 Gateway 服务 | | `openclaw status` | 查看运行状态 | | `openclaw doctor` | 诊断配置问题 | | `openclaw doctor --fix` | 自动修复配置问题 | | `openclaw dashboard` | 打开 Web 控制面板 | | `openclaw logs --follow` | 查看实时日志 | | `openclaw configure` | 修改配置 | | `openclaw update` | 更新到最新版本 | ### 聊天命令 在聊天窗口中可以使用的命令: | 命令 | 功能 | | ----------------- | ------ | | `/help` | 显示帮助 | | `/new` | 开始新对话 | | `/reset` | 重置对话 | | `/stop` | 停止当前任务 | | `/think ` | 设置思考深度 | | `/model ` | 切换模型 | | `/verbose on/off` | 开关详细模式 | | `/status` | 查看状态 | | `/skills` | 查看可用技能 | ## 使用示例 直接用中文与 OpenClaw 对话,它会自动理解并执行任务: ### 文件操作 ```text theme={null} > 帮我在桌面创建一个 test.txt 文件,内容写 hello world > 读取 ~/Documents/notes.txt 的内容 > 把桌面上所有 .png 文件移动到 Pictures 文件夹 ``` ### 终端命令 ```text theme={null} > 列出我桌面上的所有文件 > 查看当前系统内存使用情况 > 帮我安装 python 的 requests 库 ``` ### 浏览器控制 ```text theme={null} > 打开浏览器访问 baidu.com > 搜索一下最新的 MacBook Pro 价格 > 截图当前网页 ``` ### 定时任务 ```text theme={null} > 每天早上 9 点提醒我喝水 > 每隔 1 小时提醒我休息一下 > 明天下午 3 点提醒我开会 ``` ### 编程辅助 ```text theme={null} > 帮我写一个 Python 脚本,批量重命名文件 > 这段代码有什么问题:[粘贴代码] > 帮我写一个简单的 HTML 页面 ``` ## 推荐模型 OpenClaw 通过 API易 支持 200+ 主流 AI 模型,可根据不同任务选择合适的模型。 查看最新的场景化模型推荐,包括文本创作、编程开发、快速响应、长文本处理等全场景的最佳模型选择。 ### 场景化模型推荐 | 任务类型 | 推荐模型 | 原因 | | ------ | --------------- | ---------- | | 复杂任务执行 | Claude Sonnet 4 | 理解能力强,执行准确 | | 日常对话 | GPT-5.4 | 响应自然,通用性好 | | 代码编写 | DeepSeek V3.2 | 编程能力强,性价比高 | | 长文档处理 | Gemini 3.1 Pro | 支持超长上下文 | # Chatbox AI Source: https://docs.apiyi.com/scenarios/chat/chatbox 跨平台 AI 客户端应用集成指南 Chatbox AI 是一个功能强大的跨平台 AI 客户端应用,支持多种大语言模型和 API。通过 API易,您可以在 Chatbox 中访问各种主流 AI 模型,享受本地存储的隐私保护。 ## 快速开始 ### 下载安装 Chatbox AI 支持多平台安装: * **桌面版**:Windows、macOS、Linux * **移动版**:iOS、Android * **网页版**:直接通过浏览器访问 访问 [Chatbox AI 官网](https://chatboxai.app/en) 下载适合您平台的版本。 ### 配置 API易 #### 步骤 1:打开设置 1. 启动 Chatbox AI 应用 2. 点击左下角的设置图标(⚙️) 3. 进入"模型配置"界面 #### 步骤 2:添加自定义提供商 Chatbox AI 设置界面 - API易配置示例 按照上图所示的配置界面,完成以下设置步骤: 1. 在"模型提供商"部分点击 **+ 添加** 按钮 2. 填写提供商信息: * **名称**:API易(可自定义名称) * **API 模式**:选择 **OpenAI API 兼容** * **API 密钥**:输入您的 API易 密钥 * **API 主机**:`https://api.apiyi.com/v1` * **API 路径**:`/chat/completions`(默认值) 3. **高级配置**(可选): * 启用"改善网络兼容性"选项(如图所示) * 可配置图像生成专用端点 **配置要点** * API 主机字段对应 Base URL,必须包含 `/v1` 后缀 * API 路径字段用于指定具体的端点路径 * API 密钥可在 [API易控制台](https://api.apiyi.com) 获取 * 配置完成后点击右下角的 **+ 新建** 按钮添加模型 #### 步骤 3:选择模型 配置完成后,在聊天界面可以选择模型。 ## 支持的模型 Chatbox AI 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek、国产模型等。 查看最新的模型推荐、性能对比和场景化使用建议。涵盖文本创作、编程开发、快速响应、图像生成、视频生成等全场景。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ## 核心功能 ### 多平台同步 Chatbox AI 的核心优势: * **本地存储**:数据完全存储在本地,保护隐私 * **跨平台访问**:在不同设备间切换使用 * **离线功能**:部分功能支持离线使用 ### 对话管理 **智能对话功能**: * 多轮对话上下文保持 * 对话历史搜索和管理 * 对话导出(Markdown、PDF) * 提示词库和消息引用 ### 文档处理 **文档理解能力**: * PDF、TXT、DOCX 文档上传 * 图片理解和分析 * LaTeX 和 Markdown 渲染 * 代码高亮和预览 ### 图像生成 **AI 图像创作**: * 支持 DALL-E 系列模型图像生成 * 可配置专用图像生成端点 * 支持多种图像尺寸和风格 * 批量图像生成功能 **配置图像生成**: 1. 在设置中添加图像生成专用提供商 2. 使用标准 `/images/generations` 端点 3. 在聊天中直接描述图像需求 4. 系统自动调用图像生成API ### 高级设置 **参数调节**: ```yaml theme={null} 对话参数设置: - Temperature: 0.7 # 创造性控制(推理模型 GPT-5 只能用 1) - Max Tokens: 4096 # 最大输出长度 - Top P: 0.9 # 采样参数(推理模型 gpt-5 只能用 1) - Context Length: 8192 # 上下文长度 ``` ## 使用技巧 ### 提示词优化 Chatbox AI 内置提示词库,您也可以创建自定义提示词: ```markdown theme={null} # 编程助手 你是一位经验丰富的软件工程师,请帮我: - 编写高质量代码 - 解释复杂概念 - 提供最佳实践建议 # 输出格式 请使用代码块格式化代码,并提供详细注释。 ``` ### 隐私保护 Chatbox AI 采用"隐私设计"理念: * 数据本地存储,不上传云端 * 支持自建 API 端点 * 可完全离线使用(配合本地模型) ## 高级配置 ### 自定义 API 端点 除了基本的聊天功能,您还可以配置专用的图像生成端点: #### 聊天完成端点配置 ```yaml theme={null} 基础聊天配置: 提供商名称: API易 API模式: OpenAI API Compatible API密钥: sk-your-apiyi-key API主机: https://api.apiyi.com/v1 API路径: /chat/completions ``` #### 图像生成端点配置 **方式一:使用专属 Image API** ```yaml theme={null} 图像生成配置: 提供商名称: API易-图像 API模式: OpenAI API Compatible API密钥: sk-your-apiyi-key API主机: https://api.apiyi.com/v1 API路径: /images/generations # 标准图像生成端点 模型适用:gpt-image-1、flux-kontext-pro ``` **方式二:使用 Responses 端点** ```yaml theme={null} Responses配置: 提供商名称: API易-Responses API模式: OpenAI API Compatible API密钥: sk-your-apiyi-key API主机: https://api.apiyi.com API路径: /v1/responses # 通用响应端点 ``` **端点选择建议** * 常规对话:使用 `/chat/completions` 端点 * 逆向生成图片的模型,比如 sora\_image:使用 `/chat/completions` 端点 * 图像生成:优先使用 `/images/generations` 标准端点 * 特殊需求:可使用 `gpt-image-1` 或 `/v1/responses` 端点 * 在 Chatbox 中,"API路径"字段对应具体的端点路径 ### 网络代理设置 如需使用代理访问: 1. 进入设置 > 网络配置 2. 配置 HTTP/HTTPS 代理 3. 设置代理认证(如需要) ### 快捷键设置 常用快捷键: * `Ctrl/Cmd + N`:新建对话 * `Ctrl/Cmd + T`:切换模型 * `Ctrl/Cmd + /`:显示命令面板 * `Ctrl/Cmd + K`:快速搜索 ## 移动端配置 ### iOS/Android 配置 移动端配置与桌面版相同: 1. 下载 Chatbox AI 移动应用 2. 进入设置 > 模型配置 3. 添加 API易 自定义提供商 4. 配置相同的 API Base URL 和密钥 ### 移动端特色功能 * **语音输入**:支持语音转文字 * **相机集成**:直接拍照进行图像分析 * **离线缓存**:对话历史离线可用 * **推送通知**:重要消息提醒 ## 故障排除 ### 常见问题 **连接失败** * 检查 API Base URL:`https://api.apiyi.com/v1` * 验证 API 密钥有效性 * 确认网络连接正常 **模型不显示** * 等待模型列表自动刷新 * 手动点击"刷新模型"按钮 * 检查 API 密钥权限 **响应速度慢** * 尝试切换到更快的模型 * 检查网络延迟 * 减少上下文长度 ### 日志调试 启用调试模式: 1. 设置 > 高级选项 2. 开启"调试模式" 3. 查看详细日志信息 ### 数据备份 定期备份对话数据: 1. 设置 > 数据管理 2. 导出对话历史 3. 备份配置文件 ## 最佳实践 ### 性能优化 1. **合理选择模型** * 根据任务复杂度选择合适的模型 * 查看 [模型推荐页面](/api-capabilities/model-info) 获取最新的模型选择建议 2. **上下文管理** * 定期清理无用对话 * 合理设置上下文长度 * 使用对话分组功能 3. **资源管理** * 监控 API 使用量 * 设置使用限额提醒 * 定期更新应用版本 ### 安全建议 * 不要分享 API 密钥 * 定期更换密钥 * 使用强密码保护应用 * 谨慎处理敏感信息 ### 团队协作 虽然 Chatbox AI 主要面向个人用户,但可以通过以下方式支持团队: * 共享提示词模板 * 导出对话记录分享 * 统一 API 配置标准 ## 对比优势 ### vs 其他客户端 | 特性 | Chatbox AI | ChatGPT Web | 其他客户端 | | ----------- | ---------- | ----------- | ----- | | **本地存储** | ✅ | ❌ | 部分支持 | | **多平台** | ✅ | ❌ | 部分支持 | | **自定义 API** | ✅ | ❌ | ✅ | | **离线功能** | ✅ | ❌ | ❌ | | **隐私保护** | ✅ | ❌ | 不确定 | ### 选择 Chatbox AI 的理由 1. **隐私优先**:数据完全本地存储 2. **灵活配置**:支持多种 API 端点 3. **跨平台**:统一的使用体验 4. **功能丰富**:提示词库、文档处理等 5. **持续更新**:活跃的开发维护 需要更多帮助?请查看 [Chatbox AI 帮助中心](https://chatboxai.app/en/help-center) 或访问 [API易官网](https://api.apiyi.com)。 # ChatGPT Next Web Source: https://docs.apiyi.com/scenarios/chat/chatgpt-next-web 一键部署的网页版 ChatGPT 集成指南 # ChatGPT Next Web ChatGPT Next Web 是一款精心设计的 ChatGPT 网页客户端,支持一键部署和多种 AI 模型。 ## 快速部署 ### Vercel 一键部署 1. 点击 [一键部署](https://vercel.com/new/clone?repository-url=https://github.com/Yidadaa/ChatGPT-Next-Web) 2. 设置环境变量: * `OPENAI_API_KEY`:您的 API易 密钥 * `BASE_URL`:`https://api.apiyi.com` 3. 完成部署 ### Docker 部署 ```bash theme={null} docker run -d \ --name chatgpt-next-web \ -p 3000:3000 \ -e OPENAI_API_KEY="您的API易密钥" \ -e BASE_URL="https://api.apiyi.com" \ yidadaa/chatgpt-next-web ``` ## 配置说明 ### 基础配置 在设置页面配置: * **API Key**:输入 API易 密钥 * **接口地址**:`https://api.apiyi.com` ### 非 OpenAI 模型 对于 Claude、Gemini 等模型: 1. 在"自定义模型"中添加 2. 格式:`+模型名称@OpenAI` 3. 示例:`+claude-3-opus-20240229@OpenAI` ## 核心功能 ### 预设提示词 内置丰富的提示词模板 ### 面具功能 创建预设的 AI 角色 ### 对话导出 支持 Markdown、图片、PDF 格式 ### 访问控制 设置密码保护您的应用 ## 环境变量 ```bash theme={null} # API 配置 OPENAI_API_KEY=您的API易密钥 BASE_URL=https://api.apiyi.com # 访问控制 CODE=您的访问密码 # 模型配置 DEFAULT_MODEL=gpt-3.5-turbo CUSTOM_MODELS=+claude-3-opus-20240229@OpenAI ``` ## 使用技巧 ### 模型选择策略 获取最新的模型推荐、性能对比和场景化使用建议。涵盖文本创作、编程开发、图像生成、视频生成等全场景。 ### 提示词优化 ```markdown theme={null} # 角色设定 你是一位经验丰富的[具体角色] # 任务说明 请帮我[具体任务] # 输出要求 - 要求1 - 要求2 ``` ## 常见问题 ### 模型不显示 确保使用 v2.13.0+ 版本 ### 连接失败 检查 API 地址:`https://api.apiyi.com` ### 回复中断 检查账户余额和网络连接 ## 更新维护 ### Vercel 更新 在 GitHub 中 Sync fork,Vercel 自动重新部署 ### Docker 更新 ```bash theme={null} docker pull yidadaa/chatgpt-next-web docker stop chatgpt-next-web docker rm chatgpt-next-web # 重新运行容器 ``` 需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/chatgpt-next-web)。 # Cherry Studio Source: https://docs.apiyi.com/scenarios/chat/cherry-studio 功能强大的 AI 对话客户端集成指南,支持 OpenAI、Anthropic、Gemini 三种渠道类型 Cherry Studio 是一款功能强大的 AI 对话客户端,支持多种大语言模型。通过 API易,您可以在 Cherry Studio 中使用各种主流 AI 模型,并根据需要选择不同的渠道类型以获得最佳体验和成本优化。 ## 快速集成(OpenAI 兼容格式) 这是最通用的接入方式,支持 API易 全部 200+ 模型。 ### 1. 获取 API 密钥 请参考 [API密钥获取与管理教程](/faq/token-management) 获取您的 API 密钥。 ### 2. 配置步骤 Cherry Studio OpenAI兼容配置界面 按照上图所示,完成以下配置步骤: 1. 打开 Cherry Studio 应用 2. 点击左侧的设置图标进入设置页面 3. 选择"模型服务"选项 4. 在模型提供商列表中创建自定义渠道【API易】 5. 填写配置信息: * **API 地址**:`https://api.apiyi.com` * **API 密钥**:输入您的 API易 密钥([获取方式](/faq/token-management)) 6. 点击底部的"➕ 添加"按钮保存配置 **配置要点** * API 地址务必使用:`https://api.apiyi.com` * API 密钥获取方式请参考 [API密钥获取与管理教程](/faq/token-management) * 建议先测试连接确保配置正确 ## 三种渠道类型对比 Cherry Studio 支持多种渠道类型,API易 均可接入。根据您的使用场景选择最合适的方式: | 特性 | OpenAI 兼容格式 | Anthropic 格式 | Gemini 格式 | | ---------- | -------------------------- | ----------------- | ----------- | | **API 地址** | 均为 `https://api.apiyi.com` | | | | **支持模型** | 全部 200+ 模型 | 仅 Claude 模型 | 仅 Gemini 模型 | | **核心优势** | 通用兼容 | 缓存省钱 | 原生功能 + 文生图 | | **缓存计费** | 无 | 缓存 token 约 10% 价格 | 无 | | **特色功能** | 最广模型支持 | 连续对话成本优化 | 文生图、代码执行 | | **推荐场景** | 通用、多模型切换 | 高频 Claude 使用 | Gemini 专属功能 | **如何选择?** * 如果您使用多种模型,选择 **OpenAI 兼容格式**(默认推荐) * 如果您主要用 Claude 且对话频繁(5 分钟内连续对话),选择 **Anthropic 格式** 可省钱 * 如果您需要 Gemini 文生图等原生功能,选择 **Gemini 格式** ## Anthropic 渠道类型 Anthropic 原生格式支持 **Prompt Caching(提示缓存)** 功能,在 5 分钟内的连续对话中,缓存命中的输入 tokens 仅需正常价格的约 10%,大幅降低使用成本。 ### 配置步骤 1. 打开 Cherry Studio 设置 → 模型服务 2. 创建新的渠道,**渠道类型选择 Anthropic** 3. 填写配置信息: * **API 地址**:`https://api.apiyi.com` * **API 密钥**:输入您的 API易 密钥 4. 添加所需的 Claude 模型(如 `claude-sonnet-4-5-20250929`、`claude-opus-4-5-20251101`) **注意**:Anthropic 渠道仅支持 Claude 系列模型。如需使用其他模型,请通过 OpenAI 兼容格式渠道。 ### 适用场景 * **连续对话**:5 分钟内的高频对话,缓存命中率高,省钱效果明显 * **长上下文对话**:上下文越长,缓存节省的费用越多 * **偶尔聊天**:如果您只是时不时发一句,使用 OpenAI 兼容格式即可,两者差别不大 查看 Anthropic 原生格式的完整 API 文档,包括流式响应、扩展思考等高级功能。 ## Gemini 渠道类型 Gemini 原生格式支持所有 Gemini 专属功能,包括使用 `gemini-3-pro-image-preview` 进行**文生图(text-to-image)** 创作、代码执行、原生推理控制等。 ### 配置步骤 1. 打开 Cherry Studio 设置 → 模型服务 2. 创建新的渠道,**渠道类型选择 Google Gemini** 3. 填写配置信息: * **API 地址**:`https://api.apiyi.com` * **API 密钥**:输入您的 API易 密钥 4. 添加所需的 Gemini 模型(如 `gemini-2.5-flash`、`gemini-3-pro-preview`、`gemini-3-pro-image-preview`) **注意**:Gemini 渠道仅支持 Gemini 系列模型。如需使用其他模型,请通过 OpenAI 兼容格式渠道。 ### 特色功能 * **文生图**:使用 `gemini-3-pro-image-preview` 模型,直接在对话中生成图片 * **代码执行**:模型可自动执行 Python 代码进行数据分析 * **推理控制**:通过 `thinking_budget` 精细控制推理深度 * **多模态支持**:完整支持图片、音频、视频等多种媒体输入 查看 Gemini 原生格式的完整 API 文档,包括多模态处理、推理控制、代码执行等功能。 ## 添加模型 完成渠道配置后,在对应渠道中添加所需模型: 1. 在模型搜索框中查找所需模型 2. 点击模型名称旁的图标来选择或配置模型 3. 根据需要启用或禁用不同的模型变体 查看最新的模型推荐、性能对比和使用建议。模型列表持续更新,确保您使用最新最强的 AI 模型。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ## 高级功能 ### 图片支持 如果使用支持图片的模型(如 GPT-4V): 1. 在设置中开启"图片"选项 2. 选择支持视觉的模型 3. 在对话中上传图片 ### 流式输出 Cherry Studio 默认支持流式输出,提供更好的体验。 ## 故障排除 ### 连接失败 * 检查 API 密钥是否正确 * 确认 API 地址:`https://api.apiyi.com` * 验证网络连接状态 ### 模型不可用 * 确认账户余额充足 * 检查模型是否在对应的渠道类型中(例如 Claude 模型需在 OpenAI 或 Anthropic 渠道中) * 尝试其他模型 ## 使用技巧 1. **合理选择渠道**:根据主要使用的模型选择对应渠道类型,可同时配置多个渠道 2. **合理选择模型**:根据任务需求选择合适的模型 3. **定期更新**:关注新模型的发布 4. **监控使用**:通过 API易 查看使用情况 需要更多帮助?请访问 [API易官网](https://api.apiyi.com)。 # Open WebUI Source: https://docs.apiyi.com/scenarios/chat/open-webui 功能丰富的自托管 AI 界面集成指南 Open WebUI 是一个功能丰富的自托管 AI 平台,支持完全离线运行。通过 API易,您可以在 Open WebUI 中集成各种主流大语言模型。 ## 快速部署 ### Docker 快速启动 ```bash theme={null} docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main ``` ### Docker Compose 部署 ```yaml theme={null} version: '3.6' services: open-webui: image: ghcr.io/open-webui/open-webui:main container_name: open-webui ports: - "3000:8080" volumes: - open-webui:/app/backend/data environment: - OPENAI_API_BASE_URL=https://api.apiyi.com - OPENAI_API_KEY=您的API易密钥 restart: unless-stopped volumes: open-webui: ``` ## 配置 API易 ### 方法一:环境变量配置 在部署时设置环境变量: ```bash theme={null} docker run -d -p 3000:8080 \ -e OPENAI_API_BASE_URL=https://api.apiyi.com \ -e OPENAI_API_KEY=您的API易密钥 \ -v open-webui:/app/backend/data \ --name open-webui \ ghcr.io/open-webui/open-webui:main ``` ### 方法二:界面配置 1. 访问 Open WebUI 管理界面 2. 进入 **Settings** > **Connections** 3. 在 **OpenAI API** 部分配置: * **API Base URL**: `https://api.apiyi.com/v1` * **API Key**: 输入您的 API易 密钥 4. 点击保存配置 **配置要点** * API Base URL 需要包含 `/v1` 后缀 * API Key 可在 [API易控制台](https://api.apiyi.com) 获取 * 建议使用环境变量方式,便于管理和更新 ## 支持的模型 Open WebUI 通过 API易 支持 200+ 主流 AI 模型。 查看最新的模型推荐、性能对比和场景化使用建议。涵盖文本创作、编程开发、快速响应、图像生成、视频生成等全场景。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ## 核心功能 ### RAG (检索增强生成) Open WebUI 支持文档上传和知识库功能: 1. **文档上传** * 支持 PDF、TXT、DOCX 等格式 * 自动向量化存储 * 支持多语言文档 2. **知识库管理** * 创建专项知识库 * 文档分类和标签 * 智能检索匹配 ### OpenAI 兼容 API Open WebUI 提供完整的 OpenAI 兼容 API: ```bash theme={null} # 聊天完成 curl -X POST "http://localhost:3000/api/chat/completions" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer 您的API易密钥" \ -d '{ "model": "gpt-4-turbo", "messages": [ {"role": "user", "content": "Hello, world!"} ] }' ``` ### 工具集成 支持外部工具和插件: * 网络搜索 * 代码执行 * 图像生成 * 文档处理 ## 高级配置 ### 多模型配置 在 `docker-compose.yml` 中配置多个模型源: ```yaml theme={null} environment: - OPENAI_API_BASE_URL=https://api.apiyi.com - OPENAI_API_KEY=您的API易密钥 - ENABLE_OPENAI_API=true - ENABLE_OLLAMA_API=false ``` ### 用户权限管理 ```yaml theme={null} environment: - ENABLE_SIGNUP=false - DEFAULT_USER_ROLE=user - WEBHOOK_URL=您的webhook地址 ``` ### 数据持久化 ```yaml theme={null} volumes: - open-webui:/app/backend/data - ./uploads:/app/backend/data/uploads - ./vector_db:/app/backend/data/vector_db ``` ## API 集成示例 ### Python 集成 ```python theme={null} import requests # Open WebUI API 端点 api_url = "http://localhost:3000/api/chat/completions" # 请求配置 headers = { "Content-Type": "application/json", "Authorization": "Bearer 您的API易密钥" } data = { "model": "gpt-4-turbo", "messages": [ {"role": "user", "content": "解释量子计算的基本原理"} ], "stream": False } # 发送请求 response = requests.post(api_url, headers=headers, json=data) result = response.json() print(result["choices"][0]["message"]["content"]) ``` ### JavaScript 集成 ```javascript theme={null} const apiUrl = 'http://localhost:3000/api/chat/completions'; const requestData = { model: 'gpt-4-turbo', messages: [ { role: 'user', content: '写一个简单的 Python 函数' } ] }; fetch(apiUrl, { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer 您的API易密钥' }, body: JSON.stringify(requestData) }) .then(response => response.json()) .then(data => { console.log(data.choices[0].message.content); }); ``` ## 故障排除 ### 常见问题 **连接失败** * 检查 API Base URL 是否正确:`https://api.apiyi.com/v1` * 验证 API Key 有效性 * 确认防火墙设置 **模型不可用** * 检查账户余额 * 确认模型在服务范围内 * 查看 API易 服务状态 **上传失败** * 检查文件格式支持 * 确认存储空间充足 * 验证文件大小限制 ### 日志调试 启用调试模式: ```bash theme={null} docker logs -f open-webui ``` 查看详细日志: ```yaml theme={null} environment: - LOG_LEVEL=DEBUG - WEBUI_DEBUG=true ``` ## 最佳实践 ### 性能优化 1. **模型选择** * 根据任务复杂度选择合适的模型 * 查看 [模型推荐页面](/api-capabilities/model-info) 获取最新的模型选择建议 2. **缓存策略** * 启用对话缓存 * 设置合理的缓存过期时间 * 定期清理无用缓存 3. **资源管理** * 监控内存使用 * 设置合理的并发限制 * 定期备份用户数据 ### 安全配置 ```yaml theme={null} environment: - ENABLE_ADMIN_EXPORT=false - ENABLE_ADMIN_CHAT_ACCESS=false - JWT_EXPIRES_IN=7d ``` ### 监控告警 集成监控系统: ```yaml theme={null} environment: - ENABLE_WEBHOOKS=true - WEBHOOK_URL=https://your-monitoring-url ``` 需要更多帮助?请查看 [Open WebUI 官方文档](https://docs.openwebui.com) 或访问 [API易官网](https://api.apiyi.com)。 # APIYI GPT-Image 2 生图 Skills Source: https://docs.apiyi.com/scenarios/ecosystem/apiyi-gpt-image-skills 社区开源的双 Skill 合集:在 Codex CLI、Cursor、Gemini CLI 等 AI 编程工具中一句话调用 gpt-image-2(官转)与 gpt-image-2-all(官逆)生图与改图。 ## 概述 `apiyi-gpt-image-2-gen` 与 `apiyi-gpt-image-2-all-gen` 是社区用户 wuchubuzai2018 贡献的两个开源 AI Agent Skill,让你在 **Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp** 等支持 Skills 的 AI 编程工具中,通过一句自然语言调用 API易 的两款 OpenAI GPT 图像模型 —— **官转 `gpt-image-2`**(精细可控、按 token 计费、支持 4K)与 **官逆 `gpt-image-2-all`**(对话式、按次计费、ChatGPT 一致体验)。 **项目信息** * 🔗 开源地址:`github.com/wuchubuzai2018/expert-skills-hub` * 📦 Skill 标识:`apiyi-gpt-image-2-gen`(官转)、`apiyi-gpt-image-2-all-gen`(官逆) * 👤 作者:wuchubuzai2018(无处不在的技术) * ⭐ 该项目由社区用户贡献,与同作者的 [Nano Banana Pro 生图 Skill](/scenarios/ecosystem/nano-banana-skill) 属于同一 Skills 合集仓库 **两个 Skill 如何选?** * **`apiyi-gpt-image-2-gen`(官转,推荐)**:可控 `size / quality / output-format / compression`,支持 4K(3840×2160)、自定义尺寸、mask 语义编辑,按 token 计费——适合有明确画质/尺寸要求的场景 * **`apiyi-gpt-image-2-all-gen`(官逆)**:仅需 `prompt` + 可选 `response-format`,通过 Prompt 描述尺寸/比例,按次计费(\$0.03 / 次),与 ChatGPT 网页版体验一致——适合自然语言直出、文字还原、多轮改图 * 完整差异见 [官转 vs 官逆对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) ## 核心功能 在 AI 编程助手中直接用中文/英文自然语言描述,即刻生成或编辑图片 官转 `gpt-image-2` 与官逆 `gpt-image-2-all` 同时可用,按场景切换 官转 Skill 支持 1024² / 1536×1024 / 2048² / **3840×2160** 等预设及自定义尺寸 `quality`(low / medium / high / auto)+ 输出格式(png / jpeg / webp)+ 压缩率 0-100 两个 Skill 均支持最多 5 张参考图叠加输入,实现多图融合与风格迁移 Codex CLI / OpenCode / Gemini CLI / GitHub Copilot / Cursor / Amp 均可用 脚本同时提供 `generate_image.js` 与 `generate_image.py` 环境变量 `APIYI_API_KEY` 一次设置,全局可用;也支持 `-k` 命令行临时覆盖 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 对应 Skill | 计费 | API 文档 | | ------------------- | ----------------- | --------------------------- | ---------- | -------------------------------------------------- | | GPT-Image 2(官转,推荐) | `gpt-image-2` | `apiyi-gpt-image-2-gen` | 按 token 实计 | [查看文档](/api-capabilities/gpt-image-2/overview) | | GPT-Image 2 All(官逆) | `gpt-image-2-all` | `apiyi-gpt-image-2-all-gen` | \$0.03 / 次 | [查看文档](/api-capabilities/gpt-image-2-all/overview) | ## 快速上手:3 步开始生图 1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录 2. 进入【令牌】栏目,生成新的 API 密钥(以 `sk-` 开头) 3. 建议单独建一个带用量上限的专用密钥 新用户注册即可获得免费测试额度,足够体验两款 GPT 图像模型。 **官转 `gpt-image-2`(推荐)**: ```bash theme={null} npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill apiyi-gpt-image-2-gen ``` **官逆 `gpt-image-2-all`**: ```bash theme={null} npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill apiyi-gpt-image-2-all-gen ``` 需要 Node.js 环境;Python 脚本可作为备选运行时。未装 Node.js 可访问 `nodejs.org` 下载。 设置环境变量(推荐写入 `~/.zshrc` / `~/.bashrc`): ```bash theme={null} export APIYI_API_KEY="sk-你的API易密钥" ``` Windows PowerShell: ```powershell theme={null} $env:APIYI_API_KEY="sk-你的API易密钥" ``` 配置完成!在支持 Skills 的 AI 编程工具中即可通过自然语言触发两个 Skill。 ## 命令参数详解 ### `apiyi-gpt-image-2-gen`(官转) | 参数 | 缩写 | 必填 | 说明 | 示例 | | ---------------------- | ---- | -- | ------------------------------------------------------------------------------------------------------- | ---------------- | | `--prompt` | `-p` | 是 | 文生图描述或编辑指令 | `"橘猫在草地上玩耍"` | | `--filename` | `-f` | 否 | 输出路径(省略自动生成带时间戳的名字) | `"cat.png"` | | `--size` | `-s` | 否 | 预设(`1024x1024` / `1536x1024` / `1024x1536` / `2048x2048` / `2048x1152` / `3840x2160` / `2160x3840`)或自定义 | `"2048x1152"` | | `--quality` | `-q` | 否 | `low` / `medium` / `high` / `auto` | `"high"` | | `--output-format` | `-o` | 否 | `png`(默认)/ `jpeg` / `webp` | `"webp"` | | `--output-compression` | `-c` | 否 | 0-100,仅对 jpeg / webp 生效 | `80` | | `--input-image` | `-i` | 否 | 参考图路径(最多 5 张) | `"portrait.png"` | | `--api-key` | `-k` | 否 | 临时覆盖环境变量密钥 | `"sk-xxx"` | **支持的宽高比**:`1:1`、`3:2`、`2:3`、`16:9`、`9:16`,以及 ≤ 3:1 的自定义比例。 **自定义尺寸约束**:单边 ≤ 3840px,长宽均为 16 的倍数,总像素 65.5 万 – 829.4 万。 **典型耗时**:120–150 秒 / 请求(4K 复杂场景会更久)。 ### `apiyi-gpt-image-2-all-gen`(官逆) | 参数 | 缩写 | 必填 | 说明 | 示例 | | ------------------- | ---- | -- | ------------------------------------- | ------------------ | | `--prompt` | `-p` | 是 | 对话式生图或编辑指令(尺寸/比例通过 prompt 描述) | `"横版 16:9 赛博朋克城市"` | | `--filename` | `-f` | 否 | 输出路径(省略自动生成带时间戳的 PNG) | `"city.png"` | | `--response-format` | `-r` | 否 | `url`(默认,R2 CDN 约 24h 有效)或 `b64_json` | `"b64_json"` | | `--input-image` | `-i` | 否 | 参考图路径(最多 5 张) | `"ref.png"` | | `--api-key` | `-k` | 否 | 临时覆盖环境变量密钥 | `"sk-xxx"` | 官逆 Skill **不支持** `size` / `quality` / `aspect_ratio` 命令行参数 —— 这些都通过 prompt 文字描述(如 `"竖版 9:16 手机海报"`、`"1024x1024 方图"`)。耗时 60–300 秒。 ## 使用示例 ### 示例 1:官转文生图 + 精细控制 ```bash theme={null} node scripts/generate_image.js \ -p "Cinematic product shot of a minimalist ceramic teacup, soft morning light, 35mm lens" \ -f "teacup.png" \ -s "3840x2160" \ -q "high" \ -o "png" ``` ### 示例 2:官转图生图(参考图编辑) ```bash theme={null} node scripts/generate_image.js \ -p "把背景换成夕阳海滩,人物保持不变" \ -i "portrait.png" \ -f "portrait-beach.jpg" \ -s "2048x1152" \ -q "high" \ -o "jpeg" \ -c 85 ``` ### 示例 3:官转多图融合 ```bash theme={null} node scripts/generate_image.js \ -p "把图 1 的人物放进图 2 的场景,光线参考图 3" \ -i person.png scene.png light.png \ -f merged.png \ -q high ``` ### 示例 4:官逆对话式生图(尺寸通过 prompt) ```bash theme={null} node scripts/generate_image.js \ -p "横版 16:9 电影画幅:一位穿汉服的少女站在樱花树下,水彩画风格,柔和光线" \ -f "sakura.png" \ -r url ``` ### 示例 5:在 AI 编程工具中调用 安装后,直接对 AI 助手说(以 Cursor / Codex CLI 为例): * "用 apiyi-gpt-image-2-gen 生成一张 3840x2160、high 质量的赛博朋克城市壁纸" * "调用 apiyi-gpt-image-2-all-gen,把 photo.jpg 改成吉卜力动画风格" * "用官转 Skill 生成一张 logo,1:1,high 质量,webp 格式" AI 助手会自动识别 Skill 并拼好命令行参数。 ## 常见问题 * 需要**精确尺寸**(如 3840×2160)、**可控画质**(low/medium/high)、**特定输出格式**(webp / 压缩)→ 选 **官转 `apiyi-gpt-image-2-gen`** * 需要**与 ChatGPT 一致的对话式体验**、**按次固定计费**(\$0.03 / 次)、**强文字还原**、**自然语言描述尺寸**即可 → 选 **官逆 `apiyi-gpt-image-2-all-gen`** * 完整差异参考 [官转 vs 官逆对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) 1. 确认已安装 Node.js(`node -v`) 2. 网络通畅,能访问 GitHub 3. 若 `npx skills` 不可用,可手动克隆仓库: ```bash theme={null} git clone https://github.com/wuchubuzai2018/expert-skills-hub.git ``` 然后将 `skills/apiyi-gpt-image-2-gen` 或 `skills/apiyi-gpt-image-2-all-gen` 目录复制到你的 Skills 目录。 1. 环境变量 `APIYI_API_KEY` 是否正确(以 `sk-` 开头) 2. 余额是否充足,可参考 [为什么还有余额跑不通](/faq/balance-insufficient) 3. 临时测试可用 `-k "sk-xxx"` 直接传入 自定义 `size` 需满足: * 单边不超过 3840px * 长宽均为 16 的整数倍 * 总像素在 65.5 万 – 829.4 万之间 例如 `2048x3072` 合法,`3000x2000` 因 3000 非 16 倍数会被拒。 官逆默认返回的 R2 CDN URL 约 **24 小时** 有效。生产场景建议传 `-r b64_json` 取 Base64 自行落盘,或立即下载到本地。 目前已适配:Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp。任何支持 Skills 协议的工具都可以调用。 ## 相关资源 原生 2K/4K 生图,按 token 计费 ChatGPT 一致体验,\$0.03 / 次按次计费 17 个维度一表看清差异 同一 Skills 合集下的 Gemini 生图 Skill 同模型的 ComfyUI 节点方案 管理密钥、用量与分组 # APIYI Nano Banana ComfyUI 节点(轻量示例版) Source: https://docs.apiyi.com/scenarios/ecosystem/apiyi-nano-banana-node 社区伙伴贡献的轻量级 ComfyUI 节点示例,开箱即用地在工作流中调用 Nano Banana Pro / 2,适合快速上手与二次拓展。 ## 概述 `api_yi_nano_banana_node` 是社区好伙伴 JerrIsTheBesta 贡献的**轻量级 ComfyUI 节点示例**,聚焦于"开箱即用 + 易于拓展"。只需在 `custom_nodes` 目录放入节点并重启 ComfyUI,即可在工作流中直接调用 API易 的 Nano Banana Pro / Nano Banana 2 图像生成能力,非常适合作为学习与二次开发的起点。 **项目信息** * 🔗 开源地址:`github.com/JerrIsTheBesta/api_yi_nano_banana_node` * 📜 许可证:MIT * 👤 作者:JerrIsTheBesta * ⭐ 该项目由社区好伙伴贡献,定位为**示例 + 可自行拓展** **适合谁使用** 该节点专注最核心的文生图与多图编辑能力,代码简洁、易读。如需更复杂的能力(对话式编辑、14 图融合等),推荐参考 [Nano Banana ComfyUI 节点(完整版)](/scenarios/ecosystem/nano-banana-comfyui),或基于本示例自行拓展。 ## 核心功能 `APIYI Text to Image` 文生图 + `APIYI Multi Image Edit` 多图编辑,覆盖最常用两种场景 内置选择 `gemini-3-pro-image-preview`(Nano Banana Pro)与 `gemini-3.1-flash-image-preview` 支持 **2K / 4K** 输出,并根据分辨率自动调整超时时间 内置 1:1、16:9、9:16、4:3、3:4、3:2、2:3、21:9、5:4、4:5 等 10 种比例 `Multi Image Edit` 支持最多 **5 张参考图** 融合/编辑,适合合成、风格迁移 Python 纯实现、依赖极少(requests / Pillow / numpy),代码结构清晰,便于二次开发 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 用途 | API 文档 | | -------------------- | -------------------------------- | ---------- | ----------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 高质量图像生成与编辑 | [查看文档](/api-capabilities/nano-banana-pro) | | Nano Banana 2(Flash) | `gemini-3.1-flash-image-preview` | 快速生成,成本更低 | [查看文档](/api-capabilities/gemini) | ## 节点说明 ### APIYI Text to Image(文生图) 纯文本提示词生成图片,**不需要输入图像**。输出:生成的图片 + 文件名标识。 ### APIYI Multi Image Edit(多图编辑) 支持**最多 5 张输入图**进行融合、编辑或合成。输出:结果图、文件名、实际使用的图片数量。 ### 节点参数 | 参数名 | 类型 | 必填 | 默认值 | 说明 | | -------------- | ------ | -- | ---------------------------- | -------------------------- | | `api_key` | string | 是 | - | API易 令牌,建议单独创建带用量上限的专用 Key | | `prompt` | string | 是 | - | 文本提示词 | | `model` | enum | 是 | `gemini-3-pro-image-preview` | 模型选择(Pro / Flash) | | `resolution` | enum | 否 | `2K` | 输出分辨率(2K / 4K,4K 自动延长超时) | | `aspect_ratio` | enum | 否 | `1:1` | 宽高比(10 种可选) | | `images` | IMAGE | 否 | - | 多图编辑节点的参考图输入(最多 5 张) | ## 安装配置 进入 ComfyUI 安装目录,克隆或下载本仓库到 `custom_nodes`: ```bash theme={null} cd ComfyUI/custom_nodes git clone https://github.com/JerrIsTheBesta/api_yi_nano_banana_node.git ``` 节点依赖极少,通常 ComfyUI 已自带 torch。其他依赖如有缺失可手动安装: ```bash theme={null} pip install requests pillow numpy ``` 重启后在节点搜索栏输入 `APIYI` 即可看到两个新节点: * `APIYI Text to Image` * `APIYI Multi Image Edit` * 访问 [API易控制台](https://www.apiyi.com) 的【令牌】栏目,**新建一个专用密钥并设置用量上限**(安全最佳实践) * 将密钥复制粘贴到节点的 `api_key` 参数 * API 端点无需手动配置,节点已内置 `https://api.apiyi.com` 路径 * **文生图**:`APIYI Text to Image` → `Preview Image` * **多图编辑**:多个 `Load Image` → `APIYI Multi Image Edit` → `Preview Image` ## 使用示例 ### 示例 1:文生图 ``` 节点:APIYI Text to Image prompt: "A cute corgi astronaut floating in a neon-lit space station, cinematic lighting" model: gemini-3-pro-image-preview resolution: 2K aspect_ratio: 16:9 ``` ### 示例 2:多图融合 ``` 节点:APIYI Multi Image Edit images: [人物照片, 服装参考图, 背景参考图] prompt: "Replace the outfit with the reference clothing, and set the scene in the reference background" resolution: 4K aspect_ratio: 1:1 ``` ## 拓展建议 该项目定位为**示例与起点**,欢迎 Fork 后按需拓展: 在节点中维护 session 上下文,支持多轮迭代优化图片 参考 Nano Banana Pro 能力,将参考图上限扩展到 14 张 添加 seed 参数以支持可复现的生成 支持一次生成多张并输出为 batch,配合 ComfyUI 的后续节点链 ## 常见问题 1. 确认仓库放在 `ComfyUI/custom_nodes/` 目录下 2. 完全重启 ComfyUI(不是仅刷新前端) 3. 查看 ComfyUI 控制台输出,确认没有 Python 依赖报错 请检查: 1. `api_key` 是否填写正确,且未被错误分组限制 2. 所选模型是否在当前令牌的模型白名单内 3. 账户余额是否充足,参考 [为什么还有余额跑不通](/faq/balance-insufficient) 节点已对 4K 自动延长超时,但若仍超时: 1. 检查服务器到 API 的网络质量(参考 [下载 CDN 图片/视频很慢怎么办](/faq/cdn-download-slow)) 2. 在高峰期可暂时回退到 2K 或使用 Flash 模型 作者明确建议:**不要使用主 Key**,而是在 API易 控制台单独创建一个带用量上限的专用 Key 给该节点使用,避免泄漏带来额外损失。 * 本节点:**轻量示例**,仅 2 个节点,代码简洁、依赖极少,适合上手和二次开发 * [完整版节点](/scenarios/ecosystem/nano-banana-comfyui):功能更全(对话式编辑、14 图融合等),适合生产工作流 ## 相关资源 查看 Nano Banana Pro 的完整 API 能力 功能更完整的 Nano Banana ComfyUI 节点集合 查看更多 API易 使用场景 管理 API 密钥和查看用量 # Nano Banana Pro Coze 插件 Source: https://docs.apiyi.com/scenarios/ecosystem/coze-nanobanana-plugin 社区贡献的 Coze 平台 Python 插件,封装 Nano Banana Pro(Gemini 3 Pro Image)调用、错误识别与 OSS 上链路,让 Coze 工作流即可完成文生图、图生图与结果直传。 ## 概述 这是一个面向 [Coze 平台](https://www.coze.cn) 的自定义 Python 插件,把 API易 的 Nano Banana Pro 模型(`gemini-3-pro-image-preview`)封装成 Coze 工作流可直接调用的节点。插件内置完整的请求构造、错误码识别、违规内容判定与阿里云 OSS 上传链路,**返回的是可直接展示的公网 URL**,省去你在 Coze 工作流里再做一次结果转发的工作。 **项目信息** * 📦 形态:代码包形式分享(**未公开在 GitHub**) * 👤 作者:Shuaila1996 * 🎯 适用平台:Coze 国内版 / 海外版自定义插件 * 🔌 调用模型:`gemini-3-pro-image-preview`(API易) * 📝 完整代码已在下方"插件完整源码"章节提供,可直接复制使用 ## 核心功能 根据 `fileurls` 是否为空,自动切换文生图与改图模式,无需在 Coze 工作流里写两套节点 传入图片 URL 列表后自动下载并以 `inline_data` 方式注入请求,保留原图细节 区分 `ZERO_CANDIDATES_TOKEN`、`FINISH_REASON`、`INLINE_DATA_EMPTY`、`TEXT_RESPONSE` 等多种失败原因,便于工作流分支处理 遇到水印移除、换脸、色情、超出知识库年限等任务时,返回明确的拒绝类型而非让用户自行猜测 生成的 base64 图片直接上传阿里云 OSS,工作流拿到的是可直接外发或入库的 URL 1K / 2K / 4K 各自配置独立超时(360s / 600s / 1200s),4K 高清场景也不会被中断 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 用途 | API 文档 | | --------------- | ---------------------------- | ------- | ------------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 文生图、图生图 | [查看文档](/api-capabilities/nano-banana-image) | 插件调用的是 API易 的 `https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent` 端点(Gemini 原生协议),与官方 Google AI Studio 完全一致,便于复用现成 prompt。 ## 插件架构 Coze 插件配置示意 插件核心调用链: ```text theme={null} Coze 工作流入参 (cleantext / fileurls / aspect_ratio / resolution / apikey) ↓ handler() 入口 ↓ generate_image() — 构造 parts + 调用 API易 端点 ↓ 解析候选项 / 兜底错误码 ↓ upload_base64_to_oss() — 上传阿里云 OSS ↓ 返回 { analysis, url, error } ``` ## 输入输出参数 ### 入参(`Input`) | 参数 | 类型 | 必填 | 说明 | | -------------- | --------- | -- | ------------------------------- | | `cleantext` | string | 是 | 用户文字提示词或编辑指令 | | `fileurls` | string\[] | 否 | 参考图 URL 列表,留空走文生图 | | `aspect_ratio` | string | 是 | 宽高比,如 `1:1`、`16:9`、`9:16` | | `resolution` | string | 是 | 分辨率,必须大写:`1K` / `2K` / `4K` | | `apikey` | string | 是 | API易 密钥(建议在 Coze 工作流上游分发,按用户分配) | ### 出参(`Output`) | 字段 | 类型 | 说明 | | ---------- | -------------- | ------------------------ | | `analysis` | string | 状态文案:`图片生成成功` / `图片生成失败` | | `url` | string \| null | 成功时返回 OSS 公网链接 | | `error` | string \| null | 失败时返回友好错误描述 | ## 部署步骤 * 在 [API易控制台](https://api.apiyi.com/token) 申请密钥(以 `sk-` 开头) * 在阿里云开通 OSS Bucket,并创建一个 RAM 子账号,授予该 Bucket 的 `oss:PutObject` 权限 * 记录 `AccessKey ID`、`AccessKey Secret`、`Bucket 名称`、`Endpoint`(如 `oss-cn-beijing.aliyuncs.com`) 1. 进入 Coze 工作台 → 资源库 → 创建自定义插件 2. 运行模式选择「云侧插件 - 在 Coze IDE 中创建」 3. 工具运行环境选择 **Python** 4. 添加依赖包:`requests`、`oss2` 将下方"插件完整源码"章节的 Python 代码完整粘贴到 Coze IDE 中,并把代码顶部的阿里云 OSS 配置改成你自己的: ```python theme={null} # 阿里云 OSS 配置 ACCESS_KEY_ID = "你的 AK" ACCESS_KEY_SECRET = "你的 SK" BUCKET_NAME = "你的 Bucket 名称" ENDPOINT = "oss-cn-beijing.aliyuncs.com" ``` 按下图配置 Input / Output 字段类型与必填项,与代码中的 `args.input` 字段保持一致: Coze 插件元数据配置 * 在 Coze IDE 内填入测试参数(建议先用 1K + 简单 prompt 验证 OSS 链路) * 测试通过后点击「发布」即可在工作流中拖拽使用 ## 错误码识别策略 插件不只判断 `success=True/False`,还会按以下顺序识别失败原因,便于在 Coze 工作流里做差异化处理: | 优先级 | 错误类型 | 触发条件 | 推荐处理 | | --- | ----------------------- | ----------------------------------------- | ------------------------------------- | | 1 | `ZERO_CANDIDATES_TOKEN` | `usageMetadata.candidatesTokenCount == 0` | 提示词或图片触发审核,建议改写 | | 2 | `NO_CANDIDATES` | `candidates` 为空 | 系统出错,重试 | | 3 | `FINISH_REASON` | `finishReason` 非 `STOP` | 按 `PROHIBITED_CONTENT` / `SAFETY` 等映射 | | 4 | `NO_PARTS` | `content.parts` 为空 | 重试 | | 5 | `INLINE_DATA_EMPTY` | 检测到 `inlineData` 但 `data` 为空 | 重试或换 prompt | | 6 | `TEXT_RESPONSE` | 只返回了文本说明 | 自动归类为水印/换脸/色情/年限超出 | ## 插件完整源码 下面是 `coze-nanobanana-pro.py` 的完整代码,可以直接复制到 Coze IDE。**只需修改顶部 4 行 OSS 配置**即可投入使用。 ```python coze-nanobanana-pro.py theme={null} from runtime import Args from typings.nanobanana_apiyi.nanobanana_apiyi import Input, Output import requests import base64 import io import oss2 import uuid import re from datetime import datetime # 阿里云 OSS 配置 ACCESS_KEY_ID = "" #填入自己的阿里云 Access Key ID ACCESS_KEY_SECRET = "" #填入自己的阿里云 Access Key Secret BUCKET_NAME = "" #填入自己的阿里云 OSS Bucket 名称 ENDPOINT = "oss-cn-beijing.aliyuncs.com" #填入自己的阿里云 OSS Endpoint,例如 "oss-cn-beijing.aliyuncs.com" # 分辨率超时时间 TIMEOUT = { "1K": 360, # 快速预览 "2K": 600, # 推荐使用 "4K": 1200, # 超高清 } def upload_base64_to_oss(image_base64: str) -> str: """ 将 base64 图片上传到阿里云 OSS 并返回链接 支持带 data:image/...;base64, 前缀 和 纯 base64 两种情况 """ # 去掉 data:image/...;base64, 前缀 base64_str = re.sub(r"^data:image/[^;]+;base64,", "", image_base64) image_data = base64.b64decode(base64_str) image_io = io.BytesIO(image_data) auth = oss2.Auth(ACCESS_KEY_ID, ACCESS_KEY_SECRET) bucket = oss2.Bucket(auth, ENDPOINT, BUCKET_NAME) object_name = f"coze/generated_{uuid.uuid4().hex}.png" bucket.put_object(object_name, image_io) return f"https://{BUCKET_NAME}.{ENDPOINT}/{object_name}" # ============================== # 工具函数:根据 URL 猜测 MIME 类型 # ============================== def guess_mime_from_url(url: str) -> str: url_lower = url.lower() if url_lower.endswith(".png"): return "image/png" if url_lower.endswith(".jpg") or url_lower.endswith(".jpeg"): return "image/jpeg" if url_lower.endswith(".webp"): return "image/webp" if url_lower.endswith(".gif"): return "image/gif" # 默认 return "image/png" # ============================== # 核心:生成 / 编辑图片 # ============================== def generate_image(prompt: str, aspect_ratio: str, resolution: str, apikey:str,apiurl:str,image_urls=None): """ 生成 / 编辑图片的核心函数 - 如果 image_urls 为空:纯文生图 - 如果 image_urls 不为空:把 URL 指向的图片下载下来,按 inline_data 方式传给 API,实现改图 """ # 组装 parts parts = [] # 1. 如果有图片 URL,则按 apiyi 改图 demo 的方式构造 inline_data if image_urls: for url in image_urls: try: resp = requests.get(url, timeout=180) if resp.status_code != 200: return { "success": False, "error": f"图片上传阶段,获取图片失败({url})HTTP {resp.status_code}" } image_bytes = resp.content image_base64 = base64.b64encode(image_bytes).decode("utf-8") mime_type = guess_mime_from_url(url) parts.append({ "inline_data": { "mime_type": mime_type, "data": image_base64 } }) except Exception as e: return { "success": False, "error": f"图片上传阶段,获取图片失败({url}): {e}" } # 2. 文字部分(编辑指令或文生图提示词) # 注意:这里不再把图片 URL 塞进 prompt 里,仅用纯文字描述 if prompt: parts.append({"text": prompt}) else: # 没有文字时给一个默认提示(可按需要修改) parts.append({"text": "根据图片进行合理的编辑生成。"}) # 3. 构造请求 payload(和官方改图 demo 一致的结构) payload = { "contents": [ { "parts": parts } ], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": { "aspectRatio": aspect_ratio, "image_size": resolution } } } headers = { "Authorization": f"Bearer {apikey}", "Content-Type": "application/json" } try: response = requests.post(apiurl, headers=headers, json=payload, timeout=TIMEOUT[resolution]) # HTTP 非200 if response.status_code != 200: return {"success": False, "error": f"HTTP {response.status_code}: {response.text}"} # JSON 解析 try: data = response.json() except ValueError: return {"success": False, "error": "响应不是有效JSON", "response": (response.text or "")[:500]} # 1️⃣ 最高优先级:candidatesTokenCount usage = data.get("usageMetadata") or {} if usage.get("candidatesTokenCount") == 0: return { "success": False, "errorType": "ZERO_CANDIDATES_TOKEN", "error": "❌ 内容审核失败\n您的请求在内容审核阶段被拒绝,请修改提示词或图片", "response": data } # 2️⃣ candidates 检查 candidates = data.get("candidates") if not isinstance(candidates, list) or len(candidates) == 0: return { "success": False, "errorType": "NO_CANDIDATES", "error": "系统出错,请稍后重试", "response": data } candidate = candidates[0] if isinstance(candidates[0], dict) else None if candidate is None: return { "success": False, "errorType": "NO_CANDIDATES", "error": "系统出错,请稍后重试(candidates[0]结构异常)", "response": data } # 3️⃣ finishReason finish_reason = candidate.get("finishReason") if isinstance(finish_reason, str) and finish_reason != "STOP": reason_map = { "PROHIBITED_CONTENT": "内容违反安全策略,已被拒绝处理", "SAFETY": "内容触发了安全过滤器", "RECITATION": "内容可能涉及版权问题", "MAX_TOKENS": "内容长度超出限制", } return { "success": False, "errorType": "FINISH_REASON", "finishReason": finish_reason, "error": reason_map.get(finish_reason, f"请求被拒绝:{finish_reason}"), "response": data } # 4️⃣ content.parts content = candidate.get("content") or {} parts = content.get("parts") if not isinstance(parts, list) or len(parts) == 0: return { "success": False, "errorType": "NO_PARTS", "error": "生成失败,请重试(content.parts为空)", "response": data } # 5️⃣ 提取图片和文本(更精准:识别 inlineData 存在但 data 为空) images = [] texts = [] saw_inline_but_empty = False for i, part in enumerate(parts): if not isinstance(part, dict): continue # 收集 text(即使有 thoughtSignature,也照收) t = part.get("text") if isinstance(t, str) and t.strip() and not t.startswith("data:image/"): texts.append(t.strip()) # 兼容 inlineData / inline_data inline = None if isinstance(part.get("inlineData"), dict): inline = part["inlineData"] elif isinstance(part.get("inline_data"), dict): inline = part["inline_data"] if inline is not None: b64 = inline.get("data") if not isinstance(b64, str) or not b64.strip(): saw_inline_but_empty = True continue images.append(b64.strip()) # ✅ 更精准:inlineData 存在但全都没 data if not images and saw_inline_but_empty: return { "success": False, "errorType": "INLINE_DATA_EMPTY", "error": "生成失败:检测到 inlineData 但图片数据为空(inlineData.data为空)", "response": data } # 6️⃣ 有图片:成功(保持你原来的返回结构) if images: return {"success": True, "image_data": images[0]} # 7️⃣ 无图片:有文本 -> TEXT_RESPONSE if texts: text_content = "\n".join(texts) # —— 可选:不做函数,直接就地识别类型(想更简单可删掉这段 detectedType)—— low = text_content.lower() detected = "general" if any(k in low for k in ["watermark", "remove watermark", "去水印", "移除水印", "删除水印"]): detected = "拒绝处理水印任务" elif any(k in low for k in ["faceswap", "face swap", "换脸", "deepfake"]): detected = "拒绝处理换脸任务" elif any(k in low for k in ["sexually", "explicit", "porn", "nude", "nsfw", "色情", "不雅", "裸"]): detected = "拒绝色情任务" elif any(str(y) in low for y in range(2026, 2101)): detected = "拒绝超过知识库范围任务" return { "success": False, "errorType": "TEXT_RESPONSE", "error": detected, # 你文档要求:直接展示 API text "response": data } # ✅ 更精准:parts 有结构但既无图也无文本 return { "success": False, "error": "生成失败:parts存在但未找到图片数据或文本说明", "response": data } except requests.exceptions.Timeout: return {"success": False, "error": f"图片生成请求超时(超过 {TIMEOUT[resolution]} 秒)"} except Exception as e: return {"success": False, "error": f"图片生成请求失败: {str(e)}"} # ============================== # Coze Node 入口 # ============================== def handler(args: Args[Input]) -> Output: """ Coze / NanobananaPro 节点入口 - args.input.cleantext: 用户文字提示词 - args.input.fileurls: 用户上传图片的 URL 列表(用于改图) - args.input.aspect_ratio: 宽高比,如 "1:1" / "9:16" - args.input.resolution: 分辨率,如 "1K" / "2K" / "4K" """ API_URL = "https://api.apiyi.com/v1beta/models/gemini-3-pro-image-preview:generateContent" API_KEY = args.input.apikey cleanttext = args.input.cleantext or "" fileurls = args.input.fileurls or [] aspectratio = args.input.aspect_ratio resolution = args.input.resolution # - 图片通过 image_urls 传入 generate_image,走 inline_data 改图逻辑 prompt = cleanttext.strip() # 调用 Gemini 3 Pro 生成 / 编辑图片 # 如果 fileurls 不为空,会按"改图"模式调用 result = generate_image(prompt, aspectratio, resolution, API_KEY,API_URL,image_urls=fileurls if fileurls else None) if result["success"]: image_base64 = result["image_data"] oss_url = upload_base64_to_oss(image_base64) return {"analysis": "图片生成成功", "url": oss_url, "error": None} else: return {"analysis": "图片生成失败", "url": None, "error": result["error"]} ``` ## 在 Coze 工作流中使用 插件发布后,在 Coze 工作流编辑器里拖入插件节点,按以下方式连线: ```text theme={null} 开始节点 (用户输入提示词 + 图片) ↓ 图片提示词分离 (代码节点) ↓ 人员 apikey 分离 (字典查询,按用户分发 API易 密钥) ↓ nanobanana_apiyi 插件节点 (本插件) ↓ 成功 / 失败分支 ↓ 结束节点 (输出 url 或 error) ``` 推荐配合 [飞书多维表格 AI 生图方案](/scenarios/ecosystem/feishu-bitable-image-shortcut) 使用,整套方案让运营/设计同学**在飞书表格里填提示词就能批量出图**,无需打开任何代码。 ## 常见问题 Coze 工作流后续节点(特别是飞书字段捷径)大多需要 **可访问的 URL** 才能转换为图片附件。直接返回 base64 会让数据在工作流里反复传输,不仅性能差,飞书侧还无法直接渲染。OSS 链接还方便长期归档与对外分享。 Coze 自定义插件目前不支持系统环境变量。推荐做法:把 OSS 凭证写在代码顶部常量,并通过 Coze 的「插件加密配置」功能保护。如果你的工作流面向多租户,建议把 OSS 路径前缀也按租户分目录写入。 便于按用户分发不同密钥。在 Coze 工作流中可以前置一个「人员 apikey 分离」字典节点,按调用人姓名匹配对应的 API易 密钥,方便用量核算与权限控制。 Nano Banana Pro 的 4K 出图本身需要较长时间(通常 5-15 分钟)。插件已为 4K 配置了 1200 秒超时,如果还是超时,建议: 1. 降级到 2K 调试 prompt 2. 检查 API易 控制台是否有限流 3. 减少同时调用并发数 这通常意味着模型拒绝了任务(违规、超出知识库等),插件会自动判别类型:水印移除、换脸、色情、年份超出 2025 等。按 `error` 字段文案展示给用户即可,**不要重试**——重试结果一致。 可以。本文档"插件完整源码"章节提供了 `coze-nanobanana-pro.py` 的完整代码(作者 Shuaila1996 贡献),**只需修改顶部 4 行 OSS 配置**就能直接粘贴到 Coze IDE 投入使用,无需额外索取。 如果你还需要: * 飞书字段捷径代码 → 见 [飞书多维表格 AI 生图方案](/scenarios/ecosystem/feishu-bitable-image-shortcut) 中的"飞书字段捷径完整源码"章节 * 阿里云函数计算代码 → 同上文档中的"阿里云函数计算完整源码"章节 ## 相关资源 本插件的最佳搭档:把整条 Coze 工作流接入飞书多维表格,运营同学填表即可批量出图 查看 Nano Banana Pro 完整 API 文档、定价与生图样例 Nano Banana 生图常见问题排查指南,匹配本插件的错误码体系 管理 API 密钥、查看用量与余额 # 飞书多维表格 AI 生图方案 Source: https://docs.apiyi.com/scenarios/ecosystem/feishu-bitable-image-shortcut 社区贡献的飞书多维表格自动化生图整链路:飞书字段捷径 + 阿里云函数计算 + Coze 工作流,让运营同学在表格里填提示词就能批量调用 Nano Banana Pro 出图入库。 ## 概述 这是一套**让飞书多维表格变成生图生产线**的完整方案:运营/设计同学在表格里填写提示词、上传素材图,附件自动转 OSS 链接,再触发 Coze 工作流调用 Nano Banana Pro 出图,最后把生成结果回写到表格中作为图片附件展示——**全程零代码操作**。 方案由作者 Shuaila1996 在企业实际业务中沉淀,包含 3 个互相独立但配合使用的代码片段:飞书字段捷径、阿里云函数计算、Coze 插件。 飞书多维表格 AI 生图架构图 **项目信息** * 📦 形态:代码包形式分享(**未公开在 GitHub**) * 👤 作者:Shuaila1996 * 🎯 适用场景:飞书企业版多维表格 + 阿里云 + Coze 国内版 * 🔌 调用模型:`gemini-3-pro-image-preview`(Nano Banana Pro,通过 API易 接入) * 📝 飞书字段捷径、阿里云函数完整源码已嵌入本文档;Coze 插件完整源码见 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) ## 核心功能 运营同学只需在飞书多维表格里填提示词、上传素材图,无需接触任何代码或工作流后台 飞书附件通过自研字段捷径下载并转发到阿里云函数计算,自动压缩后上传 OSS 拿到公网 URL Coze 工作流内置「人员 apikey 分离」字典,按调用人自动分配 API易 密钥,便于用量核算 多维表格天然支持批量行操作,配合字段捷径可一键对几十上百行进行批量生图 Coze 返回的 OSS 链接通过飞书官方「URL 转附件」字段捷径写回表格,作为图片附件直接展示 审核失败、违规拒绝、超时等情况会以友好文案返回到表格,便于运营快速定位问题 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 用途 | API 文档 | | --------------- | ---------------------------- | ------- | ------------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 文生图、图生图 | [查看文档](/api-capabilities/nano-banana-image) | ## 整体架构 ```text theme={null} ┌──────────────────┐ │ 飞书多维表格 │ 运营填写:提示词 + 目标图 + 素材图 + 调用人 │ (生产入口) │ └────────┬─────────┘ │ ① 字段捷径触发 ↓ ┌──────────────────┐ │ 飞书字段捷径 │ 下载附件二进制,转发到阿里云 FC │ (TypeScript) │ └────────┬─────────┘ │ ② HTTP POST ↓ ┌──────────────────┐ │ 阿里云函数计算 │ 接收附件 → 上传原图 → 压缩处理 → 返回 OSS URL │ (Node.js) │ └────────┬─────────┘ │ ③ 回写 OSS 链接 ↓ ┌──────────────────┐ │ 飞书多维表格 │ 公式字段合并提示词 + OSS 链接 │ (字段合并) │ └────────┬─────────┘ │ ④ Coze 工作流字段捷径 ↓ ┌──────────────────┐ │ Coze 工作流 │ 拆参数 → 选 API Key → 调用 Nano Banana Pro 插件 │ │ └────────┬─────────┘ │ ⑤ 返回图片 URL ↓ ┌──────────────────┐ │ 飞书多维表格 │ URL 转附件,作为图片字段展示 │ (结果展示) │ └──────────────────┘ ``` ## 部署步骤 1. 开通 OSS Bucket,创建 RAM 子账号并授权 `oss:PutObject`、`oss:ProcessObject` 2. 开通函数计算 FC,创建一个 HTTP 触发器函数,运行环境选 Node.js 18+ 3. 安装依赖:`ali-oss` 4. 配置环境变量(**避免硬编码密钥**): ```text theme={null} OSS_REGION=oss-cn-beijing OSS_BUCKET=your-bucket-name OSS_AK=your-access-key-id OSS_SK=your-access-key-secret ``` 阿里云函数计算配置 把作者提供的 `aliyun-fc-oss-upload.js` 完整代码部署到 FC 函数。函数核心逻辑: * 接收飞书字段捷径传来的图片二进制 * `client.put` 上传原图 * `client.processObjectSave` 压缩到长边 4500 / 质量 95 * 把压缩图的公网 URL 包装成飞书可识别的 `feishuWrapper` 结构返回 部署完成后获取**函数公网触发地址**,备用。 使用 [飞书字段捷径开发框架](https://feishu.feishu.cn/docx/SZFpd9v6EoHMI7xEhWhckLLfnBh) 部署作者提供的 `feishu-attachment-to-oss.ts`。两处需要替换: ```typescript theme={null} basekit.addDomainList([ 'your-fc.aliyun.com', // 你的函数公网域名(去掉 https://) 'internal-api-drive-stream.feishu.cn', ]); // ... const uploadResp = await context.fetch( 'https://your-fc.aliyun.com', // 完整公网触发地址 // ... ); ``` 飞书字段捷径运行在飞书官方云沙箱,**部分 Node.js 库不可用**,因此附件上传必须拆成「字段捷径下载二进制 → FC 上传 OSS」两步,无法在字段捷径里直接调用 OSS SDK。 打包后交由飞书官方人员上传到企业字段捷径库。 在飞书多维表格里准备以下字段: | 字段名 | 类型 | 说明 | | --------- | ---------------- | ----------- | | 需求提示词填写 | 文本 | 用户输入的图像生成指令 | | 目标图 | 附件 | 期望参考的目标图 | | 素材图 | 附件 | 改图所用的素材图 | | 目标图链接 | 字段捷径(附件转 OSS) | 自动产出 OSS 链接 | | 素材图链接 | 字段捷径(附件转 OSS) | 自动产出 OSS 链接 | | 合并提示词 | 公式 | 见下方公式 | | 调用人 | 人员 / 文本 | 用于分发 API 密钥 | | apichoice | 文本 | 固定填 `apiyi` | | 生成结果链接 | 字段捷径(Coze 工作流调用) | 触发 Coze | | 生成图片 | 字段捷径(URL 转附件) | 展示最终图片 | 合并公式示例: ```text theme={null} [需求提示词填写]&CHAR(10)&"目标图:"&[目标图链接]&CHAR(10)&"素材图:"&[素材图链接] ``` 1. 按 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) 文档部署 Python 插件 2. 导入作者提供的 Coze 工作流包,包含: * 图片链接和提示词分离代码节点 * 「人员 apikey 分离」字典节点(按调用人匹配 API 密钥) * Nano Banana Pro 插件节点 * 成功 / 失败 / 错误聚合逻辑 3. 在工作流中维护「人员 apikey 分离」字典,按团队成员姓名映射到对应的 API易 密钥 在飞书多维表格里添加官方 / 自研的「Coze 工作流调用」字段捷径,按下图配置: 飞书 Coze 工作流调用配置 关键点: * 填入 Coze 申请的工作流令牌和工作流 ID * 请求模板字段名必须**严格匹配** Coze 工作流入口参数名 * 必填项以 Coze 工作流入口勾选的字段为准 * `apichoice` 列填 `apiyi`,**不要写成** `apiyi(0.35元/张)` 这种展示文案,否则字典匹配失败 最后一步是把 Coze 返回的图片 URL 转成飞书图片附件。两种方式: 1. **直接购买**:使用 Coze 官方提供的「URL 转附件」字段捷径 2. **自研**:参考飞书字段捷径开发文档自行实现 ## 多维表格合并公式 多维表格里的「合并提示词」公式: ```text theme={null} [需求提示词填写]&CHAR(10)&"目标图:"&[目标图链接]&CHAR(10)&"素材图:"&[素材图链接] ``` `CHAR(10)` 是换行符,可以让 Coze 的代码节点用 `\n` 分割提示词与图片链接。 ## 飞书字段捷径完整源码 下面是 `feishu-attachment-to-oss.ts` 的完整代码,可以直接复制到飞书字段捷径开发框架。**部署前只需把两处 `feishu-service` 改成你阿里云 FC 的公网域名/链接**。 ```typescript feishu-attachment-to-oss.ts theme={null} import { basekit, FieldComponent, FieldType, FieldCode, } from '@lark-opdev/block-basekit-server-api'; basekit.addDomainList([ 'feishu-service',/*这里需要你们替换成阿里函数FC域名名称,名称是公网链接去掉"https:"剩余部分*/ 'internal-api-drive-stream.feishu.cn', ]); basekit.addField({ formItems: [ { key: 'attachments', label: '上传图片', component: FieldComponent.FieldSelect, props: { supportType: [FieldType.Attachment], }, validator: { required: true, }, }, { key: 'bizType', label: '业务类型', component: FieldComponent.Input, props: { placeholder: '如 avatar / report / invoice', }, }, ], resultType: { type: FieldType.Text, }, execute: async (formItemParams: any, context: any) => { const { attachments = [], bizType = 'default' } = formItemParams; const urls: string[] = []; for (const attachment of attachments) { if (!attachment?.tmp_url) continue; /* 1️⃣ 下载飞书附件(二进制) */ const fileResp = await context.fetch(attachment.tmp_url); const arrayBuffer = await fileResp.arrayBuffer(); /* 2️⃣ 调用 FC 事件函数 */ const uploadResp = await context.fetch( 'https://feishu-service',/*这里需要你们替换成自己的事件函数公网链接*/ { method: 'POST', headers: { 'Content-Type': 'application/octet-stream', 'X-File-Name': encodeURIComponent(attachment.name || 'file'), 'X-Biz-Type': encodeURIComponent(bizType), }, body: arrayBuffer, } ); /* 3️⃣ 解析事件函数返回 */ const result = await uploadResp.json(); /** * result 结构: * { * statusCode: number, * headers: object, * body: string // ⚠️ JSON 字符串 * } */ if (result.statusCode !== 200) { throw new Error(`upload failed: ${result.body}`); } // ⚠️ 事件函数的 body 需要再 parse 一次 const bodyObj = JSON.parse(result.body); urls.push(bodyObj.url); } return { code: FieldCode.Success, data: urls.join('\n'), }; }, }); export default basekit; ``` ## 阿里云函数计算完整源码 下面是 `aliyun-fc-oss-upload.js` 的完整代码,可以直接放进阿里云函数计算的代码编辑器(运行时 Node.js 18+)。**所有密钥都从环境变量读取,不要硬编码**。 函数返回的是 `feishuWrapper(...)` 双层结构:HTTP 层固定 200,避免飞书 fetch 因非 2xx 抛异常;真正的状态码与数据放在 `body` 字段(**JSON 字符串**),飞书侧用 `JSON.parse(result.body)` 取数。 ```javascript aliyun-fc-oss-upload.js theme={null} 'use strict'; const OSS = require('ali-oss'); const path = require('path'); const client = new OSS({ region: process.env.OSS_REGION, bucket: process.env.OSS_BUCKET, accessKeyId: process.env.OSS_AK, accessKeySecret: process.env.OSS_SK, authorizationV4: true, secure: true, internal:true, }); function normalizeHeaders(headers) { const out = {}; if (!headers || typeof headers !== 'object') return out; for (const [k, v] of Object.entries(headers)) out[String(k).toLowerCase()] = v; return out; } function getHeader(headersLower, name, defVal) { const v = headersLower[String(name).toLowerCase()]; return v == null ? defVal : v; } function isTrue(v) { return v === true || v === 'true' || v === 1 || v === '1'; } function safeDecode(v) { if (v == null) return v; try { return decodeURIComponent(String(v)); } catch { return String(v); } } function parseEvent(event) { // 你的环境:HTTP 触发器事件通常是 Buffer 包着 JSON if (Buffer.isBuffer(event)) { const first = event.slice(0, 1).toString(); if (first === '{' || first === '[') { return JSON.parse(event.toString('utf8')); } // 非 JSON:当成原始 body(这种情况下一般拿不到 headers) return { __rawBody: event }; } if (typeof event === 'string') { try { const obj = JSON.parse(event); if (obj && typeof obj === 'object') return obj; } catch {} return { __rawBody: Buffer.from(event) }; } if (event && typeof event === 'object') return event; return {}; } function bodyToBuffer(eventObj) { // 原始 body 模式(极少数) if (eventObj.__rawBody) return eventObj.__rawBody; const raw = eventObj.body; if (raw == null) { const err = new Error('Missing request body'); err.statusCode = 400; throw err; } const base64 = isTrue(eventObj.isBase64Encoded); if (base64) { if (typeof raw !== 'string') { const err = new Error('isBase64Encoded=true but body is not string'); err.statusCode = 400; throw err; } return Buffer.from(raw, 'base64'); } if (Buffer.isBuffer(raw)) return raw; if (typeof raw === 'string') return Buffer.from(raw); if (typeof raw === 'object' && raw.type === 'Buffer' && Array.isArray(raw.data)) { return Buffer.from(raw.data); } if (ArrayBuffer.isView(raw)) return Buffer.from(raw.buffer, raw.byteOffset, raw.byteLength); if (raw instanceof ArrayBuffer) return Buffer.from(new Uint8Array(raw)); const err = new Error('Unsupported body type'); err.statusCode = 415; throw err; } /** * ✅ 返回给飞书的"wrapper 结构" * 让飞书侧能用 result.statusCode 和 JSON.parse(result.body) */ function feishuWrapper(statusCode, payloadObj, extraHeaders = {}) { return { statusCode: 200, // HTTP 层保持 200,让飞书 fetch 不因非 2xx 抛异常 headers: { 'Content-Type': 'application/json', ...extraHeaders, }, body: JSON.stringify({ statusCode, headers: { 'Content-Type': 'application/json' }, body: JSON.stringify(payloadObj), // ⚠️ body 必须是字符串 }), }; } exports.handler = async (event, context) => { const requestId = context?.requestId || context?.fcRequestId || ''; try { const eventObj = parseEvent(event); const headersLower = normalizeHeaders(eventObj.headers); // 处理 OPTIONS 预检(避免偶发调用) const method = eventObj?.httpMethod || eventObj?.method || eventObj?.requestContext?.http?.method || ''; if (method && method.toUpperCase() === 'OPTIONS') { return { statusCode: 204, headers: { 'Access-Control-Allow-Origin': '*', 'Access-Control-Allow-Headers': '*', 'Access-Control-Allow-Methods': 'POST,OPTIONS', }, body: '', }; } const bodyBuf = bodyToBuffer(eventObj); if (!bodyBuf || bodyBuf.length === 0) { return feishuWrapper(400, { error: 'Empty body', requestId }); } // 可选:只验收不上传(飞书侧也能解析) const dryRun = isTrue(getHeader(headersLower, 'x-dry-run', 'false')); if (dryRun) { return feishuWrapper(200, { ok: true, dryRun: true, requestId, size: bodyBuf.length, contentType: getHeader(headersLower, 'content-type', ''), }); } const fileName = safeDecode(getHeader(headersLower, 'x-file-name', 'file')) || 'file'; const bizTypeRaw = safeDecode(getHeader(headersLower, 'x-biz-type', 'default')) || 'default'; const bizType = bizTypeRaw.replace(/[^a-zA-Z0-9-_]/g, '') || 'default'; const ext = path.extname(fileName) || '.bin'; const objectKey = `${bizType}/${Date.now()}${Math.random().toString(16).slice(2, 6)}${ext}`; // 关键日志(生产保留最小必要) console.log('[info]', JSON.stringify({ requestId, size: bodyBuf.length, objectKey, contentType: getHeader(headersLower, 'content-type', ''), isBase64Encoded: isTrue(eventObj.isBase64Encoded), })); const result = await client.put(objectKey, bodyBuf); const processStr = 'image/resize,m_lfit,w_4500,h_4500/quality,Q_95'; const compressedKey = `${bizType}/compressed/${path.basename(objectKey)}`; console.log('[img-save]', { objectKey, compressedKey, processStr, bucket: process.env.OSS_BUCKET }); await client.processObjectSave( objectKey, // ✅ sourceObject:刚 put 的原图 key compressedKey, // ✅ targetObject:要写回 OSS 的新 key processStr, // ✅ 处理串 process.env.OSS_BUCKET // ✅ targetBucket ); const publicHost = `${process.env.OSS_BUCKET}.${process.env.OSS_REGION}.aliyuncs.com`; const publicUrl = `https://${publicHost}/${compressedKey}`; console.log('[info]', JSON.stringify({ requestId, objectKey, ossStatus: result?.res?.status, })); // ✅ 按飞书期待格式返回 return feishuWrapper(200, { url: publicUrl, objectKey: compressedKey, size: bodyBuf.length, }); } catch (e) { console.error('[error]', requestId, e); // ✅ 错误也按 wrapper 返回,飞书能走到 upload failed: result.body return feishuWrapper(500, { error: e.message, requestId }); } }; ``` ## Coze 插件源码 Coze 侧的 Python 插件 `coze-nanobanana-pro.py` 完整源码已嵌入到 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) 文档的"插件完整源码"章节,复制即用。 ## 安全注意事项 本方案涉及 **API 密钥、阿里云 AccessKey、飞书令牌、Coze 调用令牌** 多重凭证,请务必: 1. **不要硬编码密钥**:阿里云 FC 用环境变量,Coze 插件用平台加密配置,飞书字段捷径使用前清空真实地址 2. **OSS 子账号最小权限**:只授予对应 Bucket 的 `oss:PutObject` 和 `oss:ProcessObject`,不要给全局权限 3. **API易 密钥分人发放**:通过「人员 apikey 分离」字典分发,便于追溯用量与吊销 4. **公网触发器加签名**:函数计算建议开启签名鉴权,避免被外部恶意调用 ## 常见问题 检查两件事: 1. `basekit.addDomainList` 中是否加入了函数公网域名(**去掉 https\://**) 2. `context.fetch` 中是否用的是完整 `https://` 地址 飞书沙箱默认禁止访问未声明的域名。 优先检查: * 多维表格里的 `apichoice` 列是否填 `apiyi`(不要写展示文案如 `apiyi(0.35元/张)`) * 「人员 apikey 分离」节点字典里是否已添加对应调用人姓名 * 调用人姓名是否与多维表格人员字段输出完全一致(含空格、繁简体) Coze 工作流默认返回的是文本 URL,飞书需要再过一道「URL 转附件」字段捷径才能渲染成图片。可以: 1. 直接购买 Coze 官方的「URL 转附件」字段捷径(最省事) 2. 自己开发 URL 转附件字段捷径 通常是 `processObjectSave` 处理参数串与 Bucket 区域不匹配。检查: * Bucket 是否开启「图片处理」功能 * `process.env.OSS_REGION` 与 Bucket 实际区域一致 * RAM 子账号是否有 `oss:ProcessObject` 权限 Nano Banana Pro 4K 出图较慢,建议: * 在 Coze 工作流入口加并发限制 * 多维表格里分批次触发字段捷径,每批 5-10 行 * 不同调用人配置不同 API易 密钥,分摊速率限制 本方案的所有源码都已嵌入文档,作者 Shuaila1996 贡献,复制即用: * `feishu-attachment-to-oss.ts`(飞书字段捷径)→ 见本页"飞书字段捷径完整源码"章节 * `aliyun-fc-oss-upload.js`(阿里云函数计算)→ 见本页"阿里云函数计算完整源码"章节 * `coze-nanobanana-pro.py`(Coze 插件)→ 见 [Nano Banana Pro Coze 插件](/scenarios/ecosystem/coze-nanobanana-plugin) 文档的"插件完整源码"章节 ## 相关资源 本方案配套的 Coze 插件代码与详细说明,单独使用也能让任意 Coze 工作流接入 Nano Banana Pro 查看 Nano Banana Pro 完整 API 文档、定价与生图样例 Nano Banana 生图常见问题排查指南 管理 API 密钥、查看用量与余额 # Image Annotator - ComfyUI 节点 Source: https://docs.apiyi.com/scenarios/ecosystem/image-annotator-comfyui 社区贡献的图像标注节点:在图上直接画点、框、多边形标出要改的区域,配合 Nano Banana 节点大幅降低改图的提示词门槛。 ## 概述 `comfyui-image-annotator` 是社区用户 luckdvr 贡献的**交互式图像标注 ComfyUI 节点**。它的核心价值是——**降低提示词门槛**。你不用再费劲描述"把图片左上角那个红色按钮换成蓝色",只要在图上**圈出来、点一下、画个框**,让模型清楚看到"我要改这里"即可。最适合搭配在 Nano Banana Pro 节点**前面**,组成"图片 → 标注 → API"的三段式工作流。 **项目信息** * 🔗 开源地址:`github.com/luckdvr/comfyui-image-annotator` * 📜 许可证:MIT * 👤 作者:luckdvr * ⭐ 社区贡献,与 [Luck Nano Banana Pro](/scenarios/ecosystem/lucknanobananapro-comfyui) 同作者 **推荐工作流:图片 → 标注节点 → API 节点** ``` LoadImage ─► ImageAnnotator ─► Luck Nano Banana Pro ─► SaveImage (在图上圈出要改的区域) (看着标注按指令改图) ``` 适合人群:**不擅长写英文提示词、不知道怎么精确描述"改哪里"的用户**。把"描述区域"的工作交给鼠标,把"怎么改"的工作交给一句简单的 prompt。 ## 核心功能 **点(⦿)**:单击放置 · **矩形(▢)**:拖拽画框 · **多边形(⬡)**:多点连线自动闭合 标注实时渲染到画布,所见即所得,不用反复跑图看效果 内置画布操作,处理大图也能精准定位局部 最多 50 步撤销历史,尽情尝试不怕误操作 同时输出**标注后的图片**(供模型参考)+ **JSON 标注数据**(便于后续节点解析) 描边颜色、宽度、填充透明度、点大小均可配置 ## 支持的 API易 模型 该节点本身**不调用 API**,只负责对图像做标注。标注后的图片可喂给任何支持图像输入的 API易 模型,最佳搭档: | 模型名称 | 模型标识 | 用途 | API 文档 | | ------------------- | ---------------------------- | -------------- | ----------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 根据标注区域局部改图/融合 | [查看文档](/api-capabilities/nano-banana-pro) | | Gemini / Qwen-VL 系列 | 多种 | 图像理解、基于标注的视觉问答 | [查看文档](/api-capabilities/gemini) | ## 节点说明 ### 输入 | 参数名 | 类型 | 必填 | 说明 | | ------- | ----- | -- | ------ | | `image` | IMAGE | 是 | 要标注的原图 | ### 输出 | 输出端 | 类型 | 说明 | | ------------------ | ------ | ---------------------------------- | | `annotated_image` | IMAGE | 已渲染标注标记的图片(可直接喂给下游 API 节点) | | `annotations_json` | STRING | 描述标注位置/类型的 JSON 字符串(供需要结构化输入的节点使用) | ## 安装配置 ```bash theme={null} cd ComfyUI/custom_nodes git clone https://github.com/luckdvr/comfyui-image-annotator.git ``` 无额外依赖(使用 ComfyUI 自带环境即可),重启后在节点搜索栏输入 `ImageAnnotator` 即可找到。 把节点依次连起来: ``` LoadImage → ImageAnnotator → Luck Nano Banana Pro → SaveImage ``` 在 `ImageAnnotator` 的画布上圈出要改动的位置,然后在下游 API 节点写一句简单的 prompt(如 "replace the marked area with a red sports car"),运行即可。 ## 使用示例 ### 示例 1:局部换物(小白友好) `LoadImage` 载入一张客厅照片 `ImageAnnotator`:用矩形框住沙发旁的空位 `Luck Nano Banana Pro`:prompt = "Put a green indoor plant in the marked area" 模型会在你框出的位置放一盆绿植,不动其他区域 ### 示例 2:多区域精准标注 用**多边形**标注人物衣服 + **点**标注帽子位置 + **矩形**标注背景区域,然后用 prompt: ``` Change the clothing in polygon 1 to a black suit, add a hat at point 1, replace the background in rectangle 1 with a sunset beach ``` 模型会分别对三个区域做不同的修改。 ### 示例 3:视觉问答 / 理解 配合 Gemini / Qwen-VL:让模型解释"被框出来的物体是什么、在图里起什么作用",标注提供精确的视觉锚点。 ## 常见问题 传统改图需要你用文字精确描述"改哪里、怎么改"。对非英语用户、不熟 AI prompt 的小白非常不友好。 有了这个节点,**位置信息由鼠标标注直接给出**,prompt 只需描述"改成什么"即可。原本需要 3-5 句话的精确描述,现在一句简单英文就能搞定。 会,而且是**往好的方向影响**。大部分多模态模型(Nano Banana、Gemini、Qwen-VL)都能理解图上的标注符号,把它们识别为"用户指示的目标区域",从而更精准地按指令编辑。 若担心标注样式干扰最终输出,可在节点内调低描边宽度、使用半透明填充。 1. 确认目录是 `ComfyUI/custom_nodes/comfyui-image-annotator` 2. 完全重启 ComfyUI(刷新前端不够) 3. 检查 ComfyUI 控制台有无报错 可以。把下游节点只接 `annotations_json` 端口即可。适合需要把坐标传给自定义脚本做后处理的场景。 推荐流水线:`LoadImage → ImageAnnotator → Luck Nano Banana Pro` * `Luck Nano Banana Pro` 的 `image_01` 接 `ImageAnnotator` 的 `annotated_image` 输出 * prompt 中用自然语言描述"对标注区域做什么" * 首次效果不理想时,用 `Luck Nano Banana Pro` 的 `retry_times` 或 seed 模式多跑几次 ## 相关资源 同作者的 API 调用节点,与本节点完美搭配 了解 Nano Banana Pro 的完整能力 查看所有 Nano Banana ComfyUI 节点 管理密钥、用量与分组 # Luck GPT-Image 2 - ComfyUI 节点 Source: https://docs.apiyi.com/scenarios/ecosystem/luckgpt2-comfyui 社区贡献的双节点合集:一键在 ComfyUI 调用 gpt-image-2(官转)与 gpt-image-2-all(官逆),覆盖文生图、参考图编辑、mask 重绘、自定义分辨率。 ## 概述 `Comfyui-Luck-gpt2.0` 是社区用户 luckdvr 贡献的 ComfyUI 自定义节点合集,在 ComfyUI 中一键调用 API易 的两款 GPT 图像模型 —— **官转 `gpt-image-2`** 与 **官逆 `gpt-image-2-all`**。两个节点分工明确:前者主打精细参数(分辨率、画质、mask、多参考图),后者主打 ChatGPT 一致的对话式出图体验,配合超时重试,适合放进生产级工作流。 **项目信息** * 🔗 开源地址:`github.com/luckdvr/Comfyui-Luck-gpt2.0` * 📜 许可证:Apache-2.0 * 👤 作者:luckdvr * ⭐ 该项目由社区用户贡献,专为 API易 适配 **同一作者的两套节点如何区分?** luckdvr 为 API易 贡献了两套 ComfyUI 节点: * **[Luck Nano Banana Pro](/scenarios/ecosystem/lucknanobananapro-comfyui)**:调用 Gemini 系列(`gemini-3-pro-image-preview` / `gemini-3.1-flash-image-preview`),强调 14 张参考图与工程化超时重试 * **Luck GPT-Image 2(本页)**:调用 OpenAI 系列(`gpt-image-2` / `gpt-image-2-all`),强调双端点切换(chat\_completions / images\_api)与 mask 重绘 ## 核心功能 `Comfyui-Luck gpt-image-2`(官转)与 `Comfyui-Luck gpt-2.0 all`(官逆)各管一路,按场景自由选择 官转节点支持最多 5 张参考图叠加输入,满足复杂融合与风格迁移 支持可选 mask 输入,精准圈定重绘区域,做精细化局部编辑 1K / 2K / 4K 预设 + 自定义尺寸(单边最大 3840px,像素数 65.5 万–829.4 万) AUTO、1:1、2:3、3:2、3:4、4:3、4:5、5:4、9:16、16:9、21:9、1:4、4:1、1:8、8:1 `quality`(auto / low / medium / high)+ 输出格式(png / jpeg / webp)+ 压缩率 0-100 `gpt-image-2-all` 节点支持 `chat_completions` / `images_api` 端点切换,兼容不同调用习惯 内置超时与重试参数,应对高峰期网络抖动 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 对应节点 | 用途 | API 文档 | | ------------------- | ----------------- | -------------------------- | -------------------------- | -------------------------------------------------- | | GPT-Image 2(官转) | `gpt-image-2` | `Comfyui-Luck gpt-image-2` | 原生 2K/4K 文生图、参考图编辑、mask 重绘 | [查看文档](/api-capabilities/gpt-image-2/overview) | | GPT-Image 2 All(官逆) | `gpt-image-2-all` | `Comfyui-Luck gpt-2.0 all` | ChatGPT 一致的对话式出图,按次计费 | [查看文档](/api-capabilities/gpt-image-2-all/overview) | 两款模型的完整差异详解见 [gpt-image-2(官转)vs gpt-image-2-all(官逆)对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)。 ## 节点参数 ### `Comfyui-Luck gpt-image-2`(官转) | 参数名 | 类型 | 必填 | 默认值 | 说明 | | --------------------- | ------ | -- | ------ | ----------------------------------- | | `api_key` | string | 是 | - | API易 令牌,建议单独创建带用量上限的专用 Key | | `prompt` | string | 是 | - | 生成或编辑的文本指令 | | `image_1` … `image_5` | IMAGE | 否 | - | 参考图输入,最多 5 张 | | `mask` | MASK | 否 | - | 可选 mask,用于局部重绘(白色区域为编辑区) | | `size` | enum | 否 | `2K` | 输出分辨率(1K / 2K / 4K / custom) | | `custom_size` | string | 否 | - | `size` 选 `custom` 时生效,如 `2048x3072` | | `aspect_ratio` | enum | 否 | `AUTO` | 15 种宽高比之一 | | `quality` | enum | 否 | `auto` | auto / low / medium / high | | `output_format` | enum | 否 | `png` | png / jpeg / webp | | `output_compression` | int | 否 | 80 | 0-100(仅对 jpeg / webp 生效) | ### `Comfyui-Luck gpt-2.0 all`(官逆) | 参数名 | 类型 | 必填 | 默认值 | 说明 | | ----------------- | ------ | -- | ------------------ | --------------------------------- | | `api_key` | string | 是 | - | API易 令牌 | | `prompt` | string | 是 | - | 对话式生图指令 | | `endpoint` | enum | 否 | `chat_completions` | `chat_completions` / `images_api` | | `response_format` | enum | 否 | - | `b64_json` / `url` 等 | | `timeout_seconds` | int | 否 | - | 单次请求超时 | | `retry_times` | int | 否 | - | 失败重试次数 | ## 安装配置 进入 ComfyUI 安装目录: ```bash theme={null} cd ComfyUI/custom_nodes git clone https://github.com/luckdvr/Comfyui-Luck-gpt2.0.git ``` ```bash theme={null} cd Comfyui-Luck-gpt2.0 python3 -m pip install -r requirements.txt ``` 在节点搜索栏输入 `Luck gpt-image-2` 或 `Luck gpt-2.0 all` 即可找到两个节点。 * 访问 [API易控制台](https://www.apiyi.com) →【令牌】新建密钥(建议配用量上限) * 粘贴到节点的 `api_key` 参数 * 节点默认指向 `api.apiyi.com`;不稳定时可切换备用域名 `vip.apiyi.com` / `b.apiyi.com` 仓库内提供 `example_workflow.json`,可直接在 ComfyUI 中导入作为工作流起点。 ## 使用示例 ### 示例 1:官转 4K 高质量文生图 ``` 节点: Comfyui-Luck gpt-image-2 prompt: "Cinematic portrait of a samurai in a misty bamboo forest, volumetric light, 85mm lens, photorealistic" size: 4K aspect_ratio: 2:3 quality: high output_format: png ``` ### 示例 2:mask 局部重绘(官转) ``` 节点: Comfyui-Luck gpt-image-2 image_1: 原始照片 mask: 要替换的区域(白色为编辑区) prompt: "replace the sky with dramatic sunset clouds, keep everything else intact" size: 2K quality: high ``` ### 示例 3:官逆对话式出图 ``` 节点: Comfyui-Luck gpt-2.0 all endpoint: chat_completions prompt: "一位穿汉服的少女站在樱花树下,水彩画风格,柔和光线" response_format: b64_json timeout_seconds: 180 retry_times: 3 ``` ## 常见问题 * **`gpt-image-2`(官转)**:参数可控、原生支持 mask、按 token 计费、分辨率 / 画质精细可调 —— 适合有明确尺寸要求或需要局部重绘的工作流 * **`gpt-image-2-all`(官逆)**:按次计费(\$0.03 / 次),对话式自然语言出图、与 ChatGPT 网页版能力一致 —— 适合多轮改图、文字还原要求高的场景 * 完整差异看 [官转 vs 官逆 对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) 1. 确认目录 `ComfyUI/custom_nodes/Comfyui-Luck-gpt2.0` 存在 2. `pip install -r requirements.txt` 无报错 3. 完全重启 ComfyUI(只刷新前端不够) * 调大官逆节点的 `timeout_seconds` 参数 * 服务器网络慢可参考 [下载 CDN 图片/视频很慢怎么办](/faq/cdn-download-slow) * 默认域名不稳时可切换到备用 `vip.apiyi.com` / `b.apiyi.com` 官逆 `gpt-image-2-all` 的 `b64_json` 字段会带 `data:image/png;base64,` 前缀,而官转 `gpt-image-2` 不带。详细说明见 [官转 vs 官逆 对比文档](/api-capabilities/gpt-image-2/vs-gpt-image-2-all)。 1. 检查 `api_key` 是否正确,是否被分组限制误拦 2. 所选模型是否在令牌的白名单内 3. 余额问题参考 [为什么还有余额跑不通](/faq/balance-insufficient) ## 相关资源 原生 2K/4K 高清生图,按 token 计费 ChatGPT 一致体验,\$0.03 / 次按次计费 17 个维度一表看清两款模型的差异 查看更多 API易 适配的 ComfyUI 节点 luckdvr 的 Gemini 系列 ComfyUI 节点 两款 GPT 图像模型的 AI Agent Skill 封装版本 管理密钥、用量与分组 # Luck Nano Banana Pro - ComfyUI 节点 Source: https://docs.apiyi.com/scenarios/ecosystem/lucknanobananapro-comfyui 社区贡献的高阶 ComfyUI 节点:支持最多 14 张参考图、1K/2K/4K 输出、15 种宽高比、超时重试与实时进度,适合重度图像创作工作流。 ## 概述 `Comfyui-LuckNanoBananaPro` 是社区用户 luckdvr 贡献的 ComfyUI 自定义节点,通过 API易 调用 Gemini 3 Pro Image Preview / Flash 进行**文生图与多图编辑**。相比基础版节点,它的最大亮点是**工程化**:内置超时重试、实时进度指示、ComfyUI 原生 seed 管理,以及最多 14 张图片堆叠输入,适合对稳定性和批量控制有要求的生产工作流。 **项目信息** * 🔗 开源地址:`github.com/luckdvr/Comfyui-LuckNanoBananaPro` * 📜 许可证:MIT / Apache-2.0 双许可 * 👤 作者:luckdvr * ⭐ 该项目由社区用户贡献,专为 API易 适配 **如何在三款 ComfyUI 节点中选择?** API易 社区目前有 3 款 Nano Banana ComfyUI 节点,可按需选择: * **[Nano Banana ComfyUI 节点](/scenarios/ecosystem/nano-banana-comfyui)**:功能全面(对话式编辑、多轮记忆),适合交互创作 * **[APIYI Nano Banana Node(轻量版)](/scenarios/ecosystem/apiyi-nano-banana-node)**:代码极简,适合学习和二次开发 * **Luck Nano Banana Pro(本页)**:工程化参数齐全(超时、重试、14 图输入),适合稳定生产 ## 核心功能 `image_01` \~ `image_14` 参数位可堆叠最多 14 张参考图,覆盖 Nano Banana Pro 的理论输入上限 支持 **1K / 2K / 4K** 三档输出,搭配自适应超时,兼顾速度与画质 预置丰富的宽高比选项,覆盖竖屏、横屏、方图、电影宽幅等常见需求 `gemini-3-pro-image-preview`(Pro)与 `gemini-3.1-flash-image-preview`(Flash)自由切换 `timeout_seconds`(10-600s)+ `retry_times`(1-20 次)可配置,高峰期也稳 节点内置状态、百分比、计时显示,长任务不再黑盒 支持 ComfyUI 标准的 fixed / random / increment / decrement 四种 seed 模式 宽松许可,商用与二次开发都无忧 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 用途 | API 文档 | | -------------------- | -------------------------------- | ------------ | ----------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 高质量图像生成与多图编辑 | [查看文档](/api-capabilities/nano-banana-pro) | | Nano Banana 2(Flash) | `gemini-3.1-flash-image-preview` | 快速生成,成本更低 | [查看文档](/api-capabilities/gemini) | ## 节点参数 | 参数名 | 类型 | 必填 | 默认值 | 说明 | | ----------------------- | ------ | -- | ---------------------------- | --------------------------- | | `api_key` | string | 是 | - | API易 令牌,建议单独创建带用量上限的专用 Key | | `prompt` | string | 是 | - | 生成或编辑的文本指令 | | `model` | enum | 是 | `gemini-3-pro-image-preview` | 模型选择(Pro / Flash) | | `image_size` | enum | 否 | `2K` | 输出分辨率(1K / 2K / 4K) | | `aspect_ratio` | enum | 否 | `1:1` | 15 种宽高比之一 | | `timeout_seconds` | int | 否 | 120 | 单次请求超时(10-600 秒) | | `retry_times` | int | 否 | 3 | 失败重试次数(1-20 次) | | `seed` | int | 否 | 0 | 随机种子(配合 ComfyUI 标准 seed 模式) | | `image_01` … `image_14` | IMAGE | 否 | - | 可选参考图输入,最多 14 张 | ## 安装配置 进入 ComfyUI 安装目录: ```bash theme={null} cd ComfyUI/custom_nodes git clone https://github.com/luckdvr/Comfyui-LuckNanoBananaPro.git ``` ```bash theme={null} cd Comfyui-LuckNanoBananaPro python3 -m pip install -r requirements.txt ``` 重启后在节点搜索栏输入 `Luck Nano Banana Pro` 即可找到节点。 * 访问 [API易控制台](https://www.apiyi.com) →【令牌】,**新建一个带用量上限的专用密钥**(安全最佳实践) * 粘贴到节点 `api_key` 参数即可 * 节点内部已指向 `api.apiyi.com`,无需额外配置 * **文生图**:直接填 `prompt`,不连接任何参考图 * **多图编辑**:将多个 `Load Image` 连到 `image_01`, `image_02`…,搭配 `prompt` 描述编辑指令 ## 使用示例 ### 示例 1:高稳定性文生图 ``` prompt: "Cinematic product shot of a minimalist ceramic teacup on a wooden tray, soft morning light, 35mm lens, shallow depth of field" model: gemini-3-pro-image-preview image_size: 4K aspect_ratio: 3:2 timeout_seconds: 300 retry_times: 5 ``` ### 示例 2:多图融合 ``` image_01: 人物照片 image_02: 服装参考 image_03: 场景参考 image_04: 光线参考 prompt: "Photorealistic portrait: subject from image_01 wearing outfit from image_02, in the setting of image_03, with lighting style of image_04" image_size: 2K aspect_ratio: 4:5 ``` ### 示例 3:Seed 批量探索 通过 ComfyUI 原生 seed 管理,在 `increment` 模式下批量跑多个种子,快速对比同一 prompt 的变化。 ## 常见问题 1. 确认仓库在 `ComfyUI/custom_nodes/Comfyui-LuckNanoBananaPro` 2. 依赖安装无报错(尤其是 requests / Pillow / numpy) 3. 完全重启 ComfyUI(刷新前端不够) 该节点已支持可调 `timeout_seconds`: * 4K 场景建议 `timeout_seconds=300` 起步 * 搭配 `retry_times=5` 自动重试,应对网络抖动 * 若仍频繁超时,参考 [下载 CDN 图片/视频很慢怎么办](/faq/cdn-download-slow) 优化服务器网络 节点允许连接最多 14 张,但**实际是否参与生成**取决于 prompt 的描述。建议在 prompt 中明确引用 `image_01` / `image_02`…,或用自然语言描述每张图的作用,模型会按你的指令选择性使用。 1. `api_key` 是否正确、未被分组限制误拦 2. 所选模型是否在令牌的白名单内 3. 余额是否充足,参考 [为什么还有余额跑不通](/faq/balance-insufficient) * [nano-banana-comfyui(功能完整版)](/scenarios/ecosystem/nano-banana-comfyui):强调**对话式编辑**与多轮记忆 * [apiyi-nano-banana-node(轻量示例)](/scenarios/ecosystem/apiyi-nano-banana-node):代码最简,适合学习/拓展 * **Luck Nano Banana Pro(本页)**:参数工程化(超时 / 重试 / 14 图),适合批量与稳定生产 ## 相关资源 模型完整能力与 API 参数说明 luckdvr 的 OpenAI 系列 ComfyUI 节点:`gpt-image-2` + `gpt-image-2-all` 查看更多 Nano Banana ComfyUI 节点 4K 图片下载慢?看这里 管理密钥、用量与分组 # Make.com 接入 Gemini 图像理解 Source: https://docs.apiyi.com/scenarios/ecosystem/make-com-gemini-vision 在 Make.com 自动化工作流中通过 HTTP 请求节点调用 API易 的 Gemini 图像理解 API,实现图片内容分析、OCR 识别等自动化任务。 ## 概述 Make.com(原 Integromat)是一款强大的无代码自动化平台。通过其内置的 **HTTP 请求节点(Make a request)**,你可以直接调用 API易 的 Gemini 原生格式 API,实现图像理解、图片内容分析等多模态自动化工作流,无需编写任何代码。 **集成信息** * 🔧 工具:Make.com(`make.com`) * 🔌 接入方式:HTTP 请求节点(Make a request) * 🤖 模型:Gemini 系列(通过 API易 Gemini 原生格式调用) * 📡 API 端点:`https://api.apiyi.com/v1beta/models/{model}:generateContent` ## 为什么选择 Make.com + API易 通过可视化拖拽配置 HTTP 请求节点,无需编写代码即可调用 AI 模型 结合 Make.com 的触发器和条件逻辑,构建完整的图像处理自动化流程 API易 支持 200+ 模型,一个密钥即可在 Make.com 中切换不同的 AI 能力 可与 Google Sheets、Slack、Email 等 1000+ 应用无缝衔接 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 用途 | API文档 | | ---------------------- | ------------------------ | --------- | ---------------------------------------------- | | Gemini 3.1 Pro Preview | `gemini-3.1-pro-preview` | 图像理解、文本生成 | [查看文档](/api-capabilities/gemini-native-format) | | Gemini 3 Pro Preview | `gemini-3-pro-preview` | 图像理解、图像生成 | [查看文档](/api-capabilities/gemini-native-format) | | Gemini 3 Flash Preview | `gemini-3-flash-preview` | 图像理解(高速) | [查看文档](/api-capabilities/gemini-native-format) | 推荐使用 `gemini-3.1-pro-preview`,拥有最强的图像理解能力。如果对速度要求更高,可以选择 Flash 系列。 ## 配置步骤 1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录 2. 进入【令牌】栏目,生成新的 API 密钥 3. 复制密钥(以 `sk-` 开头),后续配置需要用到 1. 登录 Make.com,点击 **Create a new scenario** 2. 点击 **+** 添加模块 3. 搜索并选择 **HTTP** 模块 4. 在 Actions 中选择 **Make a request** 在 HTTP 请求节点中填写以下配置: **URL**: ``` https://api.apiyi.com/v1beta/models/gemini-3.1-pro-preview:generateContent ``` **Method**:`POST` **Headers**: | Header 名称 | 值 | | --------------- | -------------------- | | `Content-Type` | `application/json` | | `Authorization` | `Bearer sk-你的API易密钥` | **Body type**:`Raw` **Content type**:`JSON (application/json)` **Request content(Body)**: ```json theme={null} { "contents": [ { "parts": [ { "text": "这张图片里有什么?" }, { "fileData": { "mimeType": "image/png", "fileUri": "https://你的图片URL地址" } } ] } ] } ``` 点击 **Run once** 测试请求,确认返回正确的图像理解结果。 ## 完整请求示例 以下是一个完整的图像理解请求示例,分析一张水獭图片的内容: ```json theme={null} { "contents": [ { "parts": [ { "text": "这张图片里有什么?" }, { "fileData": { "mimeType": "image/png", "fileUri": "https://raw.githubusercontent.com/apiyi-api/ai-api-code-samples/refs/heads/main/Vision-API-OpenAI/otter.png" } } ] } ] } ``` ### 请求参数说明 | 字段 | 类型 | 必填 | 说明 | | --------------------------- | ------ | -- | -------------------------------------------- | | `contents` | array | 是 | 对话内容数组 | | `contents[].parts` | array | 是 | 消息组成部分(文本 + 图片) | | `parts[].text` | string | 是 | 用户的文字提示 | | `parts[].fileData.mimeType` | string | 是 | 图片格式:`image/png`、`image/jpeg`、`image/webp` 等 | | `parts[].fileData.fileUri` | string | 是 | 图片的公开访问 URL | `fileUri` 必须是**公开可访问**的图片 URL。如果图片需要登录才能访问,请先将图片上传到公开的存储服务(如对象存储)。 ## 实用场景 ### 场景一:自动分析邮件附件中的图片 1. **触发器**:Gmail - Watch emails(监听新邮件) 2. **处理**:HTTP 节点调用 Gemini 图像理解 3. **输出**:将分析结果写入 Google Sheets 或发送到 Slack ### 场景二:电商产品图自动标签 1. **触发器**:Google Drive - Watch files(监听新上传的图片) 2. **处理**:HTTP 节点分析产品图片内容 3. **输出**:自动为产品图添加分类标签 ### 场景三:社交媒体内容审核 1. **触发器**:定时获取用户提交的图片 2. **处理**:HTTP 节点分析图片内容是否合规 3. **输出**:不合规内容自动标记告警 ## 进阶技巧 ### 动态替换图片 URL 在 Make.com 中,你可以使用上游模块的输出变量动态替换 `fileUri`,实现批量图片分析: ```json theme={null} { "contents": [ { "parts": [ { "text": "请描述这张图片的内容,并提取其中的文字" }, { "fileData": { "mimeType": "image/png", "fileUri": "{{上游模块的图片URL变量}}" } } ] } ] } ``` ### 切换不同模型 只需修改 URL 中的模型名称即可切换模型: | 需求 | URL | | ------ | ---------------------------------------------------------------------------- | | 最强理解能力 | `https://api.apiyi.com/v1beta/models/gemini-3.1-pro-preview:generateContent` | | 高速分析 | `https://api.apiyi.com/v1beta/models/gemini-3-flash-preview:generateContent` | ## 常见问题 请检查: 1. Authorization Header 格式是否正确:`Bearer sk-你的密钥`(注意 Bearer 后有空格) 2. API 密钥是否有效(在 API易控制台确认) 3. 账户余额是否充足 请确认: 1. `fileUri` 是公开可访问的 URL(在浏览器中可以直接打开) 2. `mimeType` 与实际图片格式一致 3. 图片大小不超过模型限制 Gemini API 返回 JSON 格式的响应,你可以: 1. 使用 Make.com 的 **JSON** 模块解析返回数据 2. 提取 `candidates[0].content.parts[0].text` 字段获取分析结果 3. 将结果传递给下游模块(如写入数据库、发送通知等) 访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。 支持。将 `fileData` 替换为 `inlineData`: ```json theme={null} { "inlineData": { "mimeType": "image/png", "data": "Base64编码的图片数据" } } ``` ## 相关资源 查看 Gemini 原生 API 格式的完整说明 查看 API易 图像理解能力总览 查看 FAQ 获取更多帮助 管理 API 密钥、查看用量和余额 # Nano Banana ComfyUI 节点 Source: https://docs.apiyi.com/scenarios/ecosystem/nano-banana-comfyui 社区开源的 ComfyUI 自定义节点,支持通过 API易 调用 Nano Banana Pro 和 Nano Banana 2 图像生成模型,提供文生图、图生图、多轮对话等丰富功能。 ## 概述 ComfyUI-Nano-Banana-apiyi 是社区用户贡献的 ComfyUI 自定义节点集合,专为 API易 用户打造。它让你在 ComfyUI 工作流中直接调用谷歌最强图像生成模型 Nano Banana Pro 和 Nano Banana 2,**无需配置谷歌云账号**,只需 API易 密钥即可开始创作。 **项目信息** * 🔗 开源地址:`github.com/pdmaker/ComfyUI-Nano-Banana-apiyi` * 📜 许可证:MIT * 👤 作者:社区贡献(原作者仓库已删除,现使用备份仓库) * ⭐ 该项目由社区用户贡献,专为 API易 适配 ## 为什么选择这个节点 无需谷歌云账号,使用 API易 密钥即可调用 Nano Banana Pro 和 Nano Banana 2 模型 支持文生图、图生图、多图融合(最多 14 张参考图),满足各类创作需求 独创对话式图像生成,支持上下文记忆,逐步迭代优化图片效果 支持 512px、1K、2K、4K 输出,14 种宽高比,覆盖海报、壁纸、社交媒体等各种场景 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 特点 | API文档 | | --------------- | -------------------------------- | ------------------- | --------------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 旗舰画质,功能全面 | [查看文档](/api-capabilities/nano-banana-image) | | Nano Banana 2 | `gemini-3.1-flash-image-preview` | Pro 级画质 + Flash 级速度 | [查看文档](/api-capabilities/nano-banana-2-image) | **模型怎么选?** 追求极致画质选 Nano Banana Pro;追求性价比和速度选 Nano Banana 2(低至 \$0.025/张)。两个模型都可以在同一个 ComfyUI 工作流中使用。 ## 四大核心节点 本插件提供 4 个功能节点,覆盖不同的使用场景: | 节点名称 | 对应模型 | 核心能力 | 适合场景 | | --------------------------------- | ----- | ------------------------- | ------ | | **Nano Banana AIO** | Pro | 文生图 + 图生图(1-6张参考图)+ 搜索增强 | 高质量创作 | | **Nano Banana Multi-Turn Chat** | Pro | 多轮对话式图像编辑 | 迭代优化 | | **Nano Banana 2 AIO** | Flash | 文生图 + 图生图(最多14张参考图)+ 图像搜索 | 快速批量生图 | | **Nano Banana 2 Multi-Turn Chat** | Flash | 多轮对话式编辑 + 极端宽高比 | 快速迭代 | ## 从零开始:安装与配置 请确保你的电脑已安装以下软件: * **ComfyUI**(最新版本)— 如未安装,参考:`github.com/comfyanonymous/ComfyUI` * **Python 3.12+** * **Git** Python 版本必须 3.12 或更高,低版本可能导致依赖安装失败。 打开终端,进入 ComfyUI 的自定义节点目录,克隆仓库: ```bash theme={null} cd ComfyUI/custom_nodes git clone https://github.com/pdmaker/ComfyUI-Nano-Banana-apiyi.git ``` 进入插件目录,安装所需依赖: ```bash theme={null} cd ComfyUI-Nano-Banana-apiyi pip3 install -r requirements.txt ``` 如果要使用 Nano Banana 2 节点,还需额外安装: ```bash theme={null} pip3 install google-genai --upgrade ``` 1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录 2. 进入【令牌】栏目 3. 点击生成新的 API 密钥 4. 复制密钥(以 `sk-` 开头)备用 新用户注册即可获得免费测试额度,足够体验 Nano Banana 图像生成功能。 在插件目录中,复制模板文件并填入密钥: ```bash theme={null} cp .env.api.template .env ``` 编辑 `.env` 文件,填入你的 API易 密钥和 Base URL: ```bash theme={null} GOOGLE_API_KEY=sk-你的API易密钥 CUSTOM_BASE_URL=https://api.apiyi.com ``` **关键配置**:`CUSTOM_BASE_URL` 必须设为 `https://api.apiyi.com`,这样所有请求会通过 API易 转发,无需谷歌云账号。代码会自动拼接正确的 API 版本路径。 重启 ComfyUI 后,在节点列表中搜索 `Nano Banana`,你应该能看到 4 个新节点: * Nano Banana AIO * Nano Banana Multi-Turn Chat * Nano Banana 2 AIO * Nano Banana 2 Multi-Turn Chat 如果能看到这些节点,说明安装成功! ## 实战教程:从文字到图片 ### 场景一:文字生成图片(最基础) 这是最简单的用法——输入一段文字描述,生成一张图片。 在 ComfyUI 画布上右键,搜索并添加 **Nano Banana AIO** 节点(或 Nano Banana 2 AIO)。 在 `prompt` 输入框中填写你想要的图片描述,例如: ``` 一只橘猫坐在窗台上,窗外是东京夜景,赛博朋克风格,霓虹灯光,高细节,电影质感 ``` * **image\_count**:生成图片数量(1-10张) * **aspect\_ratio**:选择宽高比,如 `16:9`(横屏壁纸)或 `9:16`(手机壁纸) * **image\_size**:选择分辨率,推荐 `2K` 或 `4K` * **temperature**:创意程度,0.0 最保守,2.0 最天马行空 点击 ComfyUI 的 **Queue Prompt** 按钮,等待几秒即可看到生成的图片。 ### 场景二:图片编辑与融合 使用参考图片来引导生成,适合风格迁移、元素融合等高级用法。 1. 将 **Nano Banana AIO** 节点的 `image_1` 到 `image_6` 输入端连接你的参考图片 2. 在 `prompt` 中描述你想要的效果,例如:"将这张照片转换为水彩画风格" 3. 模型会结合参考图片和文字描述生成新图片 **Nano Banana 2 AIO 独家能力**:支持最多 14 张参考图(10 张物体 + 4 张角色一致性参考),适合需要保持角色外观一致的连续创作场景。 ### 场景三:多轮对话式编辑 这是 Nano Banana 节点最独特的功能——像聊天一样逐步优化图片。 1. 添加 **Nano Banana Multi-Turn Chat** 节点 2. 第一轮:输入初始描述,生成基础图片 3. 第二轮:输入修改指令,如"把背景换成海边" 4. 第三轮:继续优化,如"增加夕阳光效" 5. 每一轮都会基于之前的对话记忆进行修改 需要重新开始时,打开 `reset_chat` 选项清除对话历史。 ## 节点参数详解 ### Nano Banana AIO / Nano Banana 2 AIO | 参数名 | 类型 | 必填 | 说明 | | ------------------------- | ------- | -- | ------------------------ | | `prompt` | string | 是 | 图片描述文本 | | `image_count` | integer | 否 | 生成图片数量(1-10),默认 1 | | `aspect_ratio` | enum | 否 | 宽高比(11种 / NB2 支持14种) | | `image_size` | enum | 否 | 分辨率:512px(仅NB2)、1K、2K、4K | | `temperature` | float | 否 | 创意温度 0.0-2.0 | | `use_search` | boolean | 否 | 启用 Google 搜索增强 | | `image_1` \~ `image_6/14` | image | 否 | 参考图片输入 | ### 支持的宽高比 | 标准宽高比(两个节点共享) | Nano Banana 2 独有 | | ------------------- | ---------------- | | 1:1、2:3、3:2、3:4、4:3 | 1:4(超长竖图) | | 4:5、5:4、9:16、16:9 | 4:1(超宽横图) | | 21:9、Auto(AI自动选择) | 1:8、8:1(极端比例) | ## 常见问题 请逐项检查: 1. 插件文件夹是否在 `ComfyUI/custom_nodes/` 目录下 2. 是否执行了 `pip3 install -r requirements.txt` 3. 使用 Nano Banana 2 节点需额外执行 `pip install google-genai --upgrade` 4. 是否**重启**了 ComfyUI(不是刷新网页,是重启后端服务) 请确认: 1. `.env` 文件中的 `GOOGLE_API_KEY` 填写的是 API易 密钥(以 `sk-` 开头) 2. `CUSTOM_BASE_URL` 设置为 `https://api.apiyi.com` 3. API易 账户余额充足(登录控制台查看) * 4K 分辨率生成时间较长,建议先用 1K 调试效果 * 多图生成(image\_count 大于 1)会增加耗时 * 如果频繁超时,可尝试降低分辨率或减少生成数量 * **Nano Banana Pro**(`gemini-3-pro-image-preview`):画质更精细,适合高品质创作 * **Nano Banana 2**(`gemini-3.1-flash-image-preview`):速度更快、成本更低(\$0.025/张起),支持更多参考图和极端宽高比 * 日常创作推荐 Nano Banana 2,追求极致质量选 Pro 访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。 Nano Banana 模型内置内容安全检查,部分描述可能触发限制。建议: 1. 调整提示词,避免敏感内容 2. 查看 [Nano Banana 生图失败排查](/faq/nano-banana-image-failure) 获取更多帮助 ## 相关资源 查看 Nano Banana Pro 完整 API 文档和定价 查看 Nano Banana 2 完整 API 文档和定价 Nano Banana 生图常见问题排查指南 管理 API 密钥、查看用量和余额 # Nano Banana Pro 生图 Skill Source: https://docs.apiyi.com/scenarios/ecosystem/nano-banana-skill 社区开源的 AI Agent Skill,支持在 Codex CLI、OpenCode、Gemini CLI、Cursor 等主流 AI 编程工具中通过自然语言生成和编辑图片,基于 API易 调用 Nano Banana Pro 模型。 ## 概述 nano-banana-pro-image-gen 是一个社区贡献的开源 AI Agent Skill,让你在 **Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp** 等主流 AI 编程工具中,通过一句自然语言就能生成和编辑图片。底层调用 API易 的 Nano Banana Pro 模型,无需复杂配置,安装即用。 **项目信息** * 🔗 开源地址:`github.com/wuchubuzai2018/expert-skills-hub` * 🌐 Skill 主页:`skills.sh/wuchubuzai2018/expert-skills-hub/nano-banana-pro-image-gen` * 👤 作者:wuchubuzai2018(无处不在的技术) * ⭐ 该项目由社区用户贡献 ## 为什么用这个 Skill 在 AI 编程助手中直接用自然语言描述,即刻生成高质量图片,无需离开编辑器 支持传入已有图片进行编辑,最多 14 张参考图,实现风格迁移和内容修改 已适配 Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp 等工具 10 种宽高比 + 3 档分辨率(1K/2K/4K),覆盖从快速预览到高清海报的各种场景 ## 支持的 API易 模型 | 模型名称 | 模型标识 | 用途 | API文档 | | --------------- | ---------------------------- | ------- | ------------------------------------------- | | Nano Banana Pro | `gemini-3-pro-image-preview` | 文生图、图生图 | [查看文档](/api-capabilities/nano-banana-image) | 该 Skill 使用 Nano Banana Pro 模型。如果你还需要 Nano Banana 2 的更快速度和更低成本,可以查看 [Nano Banana ComfyUI 节点](/scenarios/ecosystem/nano-banana-comfyui),它同时支持两个模型。 ## 快速上手:3 步开始生图 1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录 2. 进入【令牌】栏目,生成新的 API 密钥 3. 复制密钥(以 `sk-` 开头) 新用户注册即可获得免费测试额度,足够体验 Nano Banana 图像生成功能。 在终端中运行以下命令安装: ```bash theme={null} npx skills add https://github.com/wuchubuzai2018/expert-skills-hub --skill nano-banana-pro-image-gen ``` 需要 Node.js 环境。如未安装 Node.js,请先访问 `nodejs.org` 下载安装。Python 可作为备选运行环境。 设置环境变量: ```bash theme={null} export APIYI_API_KEY="sk-你的API易密钥" ``` Windows PowerShell 用户: ```powershell theme={null} $env:APIYI_API_KEY="sk-你的API易密钥" ``` 建议将环境变量写入 `~/.zshrc` 或 `~/.bashrc`,避免每次重新设置。 配置完成!现在你可以在支持 Skills 的 AI 编程工具中直接使用图片生成功能。 ## 实战教程 ### 用法一:命令行文字生图 最直接的用法——在终端中输入描述,生成图片。 ```bash Node.js(推荐) theme={null} node scripts/generate_image.js \ -p "一只宇航员猫咪漂浮在太空中,背景是地球,数字艺术风格" \ -f "astronaut-cat.png" \ -a 16:9 \ -r 2K ``` ```bash Python theme={null} python scripts/generate_image.py \ -p "一只宇航员猫咪漂浮在太空中,背景是地球,数字艺术风格" \ -f "astronaut-cat.png" \ -a 16:9 \ -r 2K ``` ### 用法二:编辑已有图片 传入一张或多张参考图片,用自然语言描述修改效果。 ```bash theme={null} node scripts/generate_image.js \ -p "把这张照片转换为吉卜力动画风格,保持人物构图不变" \ -i "photo.jpg" \ -f "ghibli-style.png" \ -r 2K ``` 支持多张参考图(最多 14 张),图片会自动转为 Base64 编码传送: ```bash theme={null} node scripts/generate_image.js \ -p "将这些元素融合成一张海报" \ -i "bg.jpg" -i "logo.png" -i "text.png" \ -f "poster.png" \ -a 3:4 \ -r 4K ``` ### 用法三:在 AI 编程助手中使用 安装 Skill 后,在支持的 AI 编程工具中可以直接用自然语言指令: * **Codex CLI / OpenCode**:"帮我生成一张 16:9 的赛博朋克城市壁纸,4K 分辨率" * **Cursor**:"生成一张产品 logo,简约风格,1:1 比例" * **Gemini CLI**:"编辑 input.jpg,将背景改为夕阳海滩" AI 助手会自动调用 Skill 完成图片生成。 ## 命令参数详解 | 参数 | 缩写 | 必填 | 说明 | 示例 | | ---------------- | ---- | -- | ----------------------- | -------------- | | `--prompt` | `-p` | 是 | 图片描述或编辑指令 | `"一只猫咪"` | | `--filename` | `-f` | 否 | 输出文件路径(省略则自动生成) | `"output.png"` | | `--aspect-ratio` | `-a` | 否 | 宽高比 | `16:9` | | `--resolution` | `-r` | 否 | 分辨率(必须大写) | `1K`、`2K`、`4K` | | `--input-image` | `-i` | 否 | 输入图片路径(可多次指定,最多14张) | `"photo.jpg"` | | `--key` | `-k` | 否 | 内联 API Key(不推荐,建议用环境变量) | `"sk-xxx"` | ### 支持的宽高比 `1:1`、`16:9`、`9:16`、`4:3`、`3:4`、`3:2`、`2:3`、`5:4`、`4:5`、`21:9` ### 分辨率与耗时参考 | 分辨率 | 大致耗时 | 适合场景 | | ------ | ------ | --------- | | 1K | 约 30 秒 | 快速预览、测试效果 | | 2K(默认) | 1-4 分钟 | 日常使用、社交媒体 | | 4K | 较慢 | 高清海报、印刷品 | ## 常见问题 请检查: 1. 是否已安装 Node.js(运行 `node -v` 确认) 2. 网络连接是否正常 3. 如果 npx 命令不可用,可以手动克隆仓库: ```bash theme={null} git clone https://github.com/wuchubuzai2018/expert-skills-hub.git ``` 然后将 `skills/nano-banana-pro-image-gen` 目录复制到你的 Skills 目录中。 请确认: 1. 环境变量 `APIYI_API_KEY` 已正确设置(以 `sk-` 开头) 2. API易 账户余额充足 3. 也可以使用 `-k` 参数直接传入密钥测试 分辨率参数必须使用**大写**:`1K`、`2K`、`4K`。小写 `1k`、`2k` 会导致参数无法识别。 * 4K 分辨率本身需要较长处理时间(可能超过 5 分钟) * 建议先用 1K 分辨率调试提示词和构图 * 确认满意后再用 2K 或 4K 生成最终版本 访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。 目前已适配:Codex CLI、OpenCode、Gemini CLI、GitHub Copilot、Cursor、Amp。任何支持 Skills 协议的工具都可以使用。 ## 相关资源 查看 Nano Banana Pro 完整 API 文档和定价 wuchubuzai2018 同一 Skills 合集下的 `gpt-image-2` / `gpt-image-2-all` 双 Skill 在 ComfyUI 中使用 Nano Banana 生图 Nano Banana 生图常见问题排查指南 管理 API 密钥、查看用量和余额 # Paper2Any 论文多模态工作流 Source: https://docs.apiyi.com/scenarios/ecosystem/paper2any 社区开源的论文转换工具,支持将学术论文一键转换为模型架构图、技术路线图、PPT演示文稿、Rebuttal等多种格式,通过 API易 调用 GPT、Claude 等大模型。 ## 概述 Paper2Any 是一个开源的论文多模态工作流平台,专注于学术论文的格式转换与可视化。支持从论文 PDF/截图/文本出发,一键生成模型架构图、技术路线图、实验图表、PPT 演示文稿等多种输出格式。 **项目信息** * 🔗 开源地址:`github.com/OpenDCAI/Paper2Any` * 📜 许可证:开源 * 👤 组织:OpenDCAI * ⭐ 该项目由社区贡献,支持通过 API易 调用多种大模型 ## 为什么选择 Paper2Any 支持论文转架构图、路线图、PPT、Rebuttal 等,一个工具覆盖科研全流程 支持动态切换 GPT-4o、Claude Sonnet、Qwen-VL 等模型,无需硬编码,通过 API 参数即可指定 提供命令行脚本和 Web 界面两种使用方式,适合不同场景需求 原生支持 OpenAI 兼容 API 格式,只需配置 API易 的 Base URL 即可接入 200+ 模型 ## 核心功能模块 | 功能模块 | 说明 | 输出格式 | | ------------------ | -------------------------- | ---------------------------- | | **Paper2Figure** | 论文生成科研可视化图 | 模型架构图、技术路线图(PPTX + SVG)、实验图表 | | **Paper2Diagram** | 论文/文本/图片生成流程图 | draw\.io / PNG / SVG | | **Paper2PPT** | 论文转 PPT 演示文稿 | PPTX(支持 40+ 页长文档) | | **Paper2Rebuttal** | 生成结构化审稿回复 | 带证据引用的 Rebuttal 文档 | | **PDF2PPT** | PDF 保留排版转可编辑 PPT | PPTX | | **Image2PPT** | 图片/截图转结构化幻灯片 | PPTX | | **PPTPolish** | AI 驱动的 PPT 排版优化 | PPTX | | **知识库** | 文件导入、语义搜索,驱动 PPT/播客/思维导图生成 | 多种格式 | ## 通过 API易 接入大模型 Paper2Any 支持 OpenAI 兼容 API 格式,配置 API易 作为 LLM 服务端点后,即可使用 GPT、Claude、Gemini、DeepSeek 等 200+ 模型。 ### Docker 部署配置 1. 访问 [API易控制台](https://api.apiyi.com) 注册/登录 2. 进入【令牌】栏目 3. 点击生成新的 API 密钥 4. 复制密钥(以 `sk-` 开头)备用 克隆仓库后,编辑 `fastapi_app/.env` 文件,配置 API易 作为 LLM 端点: ```bash theme={null} # fastapi_app/.env DEFAULT_LLM_API_URL=https://api.apiyi.com/v1 BACKEND_API_KEY=sk-你的API易密钥 ``` 可选:为不同工作流指定默认模型: ```bash theme={null} PAPER2PPT_DEFAULT_MODEL=gpt-4o PDF2PPT_DEFAULT_MODEL=gpt-4o ``` 编辑 `frontend-workflow/.env` 文件,让 Web 界面默认使用 API易: ```bash theme={null} # frontend-workflow/.env VITE_DEFAULT_LLM_API_URL=https://api.apiyi.com/v1 VITE_LLM_API_URLS=https://api.apiyi.com/v1 ``` 使用 Docker Compose 一键启动: ```bash theme={null} docker compose up -d --build ``` 启动完成后,访问前端页面即可开始使用。 ### CLI 命令行使用 Paper2Any 提供独立的命令行脚本,支持通过 `--api-url` 和 `--api-key` 参数直接指定 API易: ```bash theme={null} # 论文转 PPT python script/run_paper2ppt_cli.py \ --input paper.pdf \ --api-url https://api.apiyi.com/v1 \ --api-key sk-你的API易密钥 \ --model gpt-4o # 论文转科研图 python script/run_paper2figure_cli.py \ --input paper.pdf \ --api-url https://api.apiyi.com/v1 \ --api-key sk-你的API易密钥 \ --graph-type model_arch ``` **模型推荐**:论文转 PPT 推荐使用 GPT-4o 或 Claude Sonnet 4.5,它们在长文档理解和结构化输出方面表现出色。图表生成任务也可尝试 Qwen-VL 等视觉模型。 ## 部署方式 | 部署方式 | 说明 | 适合场景 | | -------------- | ----------------------------------------- | --------- | | **Docker(推荐)** | 一键启动前后端服务 | 快速体验、生产部署 | | **Linux 原生** | 需 Python 3.11+、LaTeX、Inkscape、LibreOffice | 开发调试、定制需求 | | **Windows** | 需 Python 3.12、Inkscape | 本地使用 | PDF2PPT 和 Image2PPT 等功能依赖 GPU,需要额外部署 SAM3 模型服务器。详见项目 README 的 GPU 部署说明。 ## 常见问题 在环境变量中将 `DEFAULT_LLM_API_URL` 设置为 `https://api.apiyi.com/v1`,并将 `BACKEND_API_KEY` 设置为你的 API易 密钥即可。CLI 模式下使用 `--api-url` 和 `--api-key` 参数。 通过 API易 接入后,支持 200+ 模型,包括 GPT-4o、Claude Sonnet 4.5、Gemini、DeepSeek、Qwen 等。可在 Web 界面动态切换模型,无需修改代码。 请检查: 1. Docker 和 Docker Compose 是否已正确安装 2. `.env` 文件是否已正确配置 3. 端口是否被占用 4. 查看 `docker compose logs` 获取详细错误信息 * 确保 API易 账户余额充足 * 长论文建议使用上下文窗口更大的模型(如 GPT-4o 128K) * 检查论文 PDF 是否为可搜索文本格式(扫描版 PDF 效果可能较差) 访问 [API易控制台](https://api.apiyi.com/token),注册账号后在【令牌】栏目生成新的密钥。新用户有免费测试额度。 ## 相关资源 查看 API易 支持的 200+ 模型完整列表 了解如何在各类工具中配置 API易 Base URL 管理 API 密钥、查看用量和余额 查看各模型定价和充值优惠 # Dify Source: https://docs.apiyi.com/scenarios/engineering/dify 可视化 AI 应用开发平台集成指南 # Dify Dify 是一个开源的 LLM 应用开发平台,让您能够快速搭建 AI 应用。通过 API易,您可以在 Dify 中使用各种主流 AI 模型。 ## 快速集成 ### 1. 获取 API 密钥 访问 [API易控制台](https://vip.apiyi.com) 获取您的 API 密钥。 ### 2. 配置模型供应商 1. 登录 Dify 平台 2. 点击用户名 > 设置 3. 选择"模型供应商" - 选择 OpenAI-API-compatible 4. 根据模型类型选择配置方式 Dify-OpenAI-API-compatible #### 所有模型,包括 GPT、Claude、Gemini 模型配置 * 模型类型:选择 LLM 类型(第一个栏目,图略) * 模型名称:需要输入**模型规范名称**,不能乱输入 * 举例:输入 gemini-2.5-flash 而不能输入 Gemini 2.5 Flash。 * 模型显示名称:可以随意,方便辨识即可,比如可以写 Gemini 2.5 Flash * **API Key**:输入 [API易 密钥](https://api.apiyi.com/token) * **API endpoint URL**:`https://api.apiyi.com/v1` * API endpoint中的模型名称,写规范名称:gemini-2.5-flash Dify 模型添加第二步 模型配置里有很多参数按**实际情况**更新: 注:Dify 的模型配置界面并没有**与时俱进**,比如大模型的上下文长度的默认值写的 4096 是比较小的数值。 每个大模型的具体上下文长度,可以参考各大官方文档(本文档中心-资源导航栏目) Dify 模型添加第三步 还有更多参数 Dify 模型添加第四步 ## 核心功能 ### 对话助手 创建智能对话助手: 1. 选择"对话助手"模板 2. 配置系统提示词: ```text theme={null} 你是一个专业的客服助手,负责: - 回答用户问题 - 提供产品信息 - 处理售后服务 请保持友好和专业的态度。 ``` 3. 选择合适的模型(如 GPT-4) 4. 调整参数: * 温度:0.7(平衡创造性和准确性) * 最大输出:2000 tokens ### 工作流应用 构建复杂的 AI 工作流: ```mermaid theme={null} graph LR A[用户输入] --> B[意图识别] B --> C{判断类型} C -->|问答| D[知识库检索] C -->|创作| E[创意生成] C -->|分析| F[数据分析] D --> G[生成回答] E --> G F --> G G --> H[输出结果] ``` ### 知识库问答 集成文档知识库: 1. 创建知识库 2. 上传文档(PDF、Word、Markdown) 3. 选择嵌入模型:`text-embedding-ada-002` 4. 在应用中引用知识库 5. 配置检索参数: * 检索数量:3-5 个片段 * 相似度阈值:0.7 * 重排序:开启 ## 应用类型 ### 1. 聊天助手 ```yaml theme={null} 应用类型: 对话助手 模型: gpt-4 系统提示: | 你是一个专业的AI助手,具备以下能力: - 回答各种问题 - 协助解决问题 - 提供建议和指导 请始终保持友好、准确、有帮助的态度。 温度: 0.7 最大长度: 2000 ``` ### 2. 文档分析 ```yaml theme={null} 应用类型: 工作流 输入: 上传文档 处理流程: 1. 文档解析 2. 内容提取 3. 结构化分析 4. 生成摘要 输出: 分析报告 ``` ### 3. 代码助手 ```yaml theme={null} 应用类型: 对话助手 模型: gpt-4 系统提示: | 你是一个专业的编程助手,专长: - 代码编写和优化 - 错误调试 - 架构设计 - 最佳实践建议 请提供清晰、实用的代码解决方案。 ``` ## 高级功能 ### API 集成 Dify 应用可以通过 API 调用: ```python theme={null} import requests url = "https://your-dify-instance/v1/chat-messages" headers = { "Authorization": "Bearer YOUR_APP_API_KEY", "Content-Type": "application/json" } data = { "inputs": {}, "query": "你好,请介绍一下你自己", "response_mode": "streaming", "user": "user_123" } response = requests.post(url, headers=headers, json=data) ``` ### 批量处理 处理大量数据: 1. 准备 CSV 文件 2. 创建批处理任务 3. 配置处理模板 4. 执行批量任务 5. 导出结果 ### 多模态应用 支持文本和图像的混合处理: ```python theme={null} # 多模态输入示例 { "inputs": { "image": "data:image/jpeg;base64,...", "text": "分析这张图片中的内容" }, "query": "请详细描述图片内容并提供分析" } ``` ## 模型选择策略 ### 按场景选择 查看最新的场景化模型推荐,包括文本创作、编程开发、快速响应、长文本处理等全场景的最佳模型选择。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ### 成本优化 ```yaml theme={null} 开发环境: 模型: gpt-3.5-turbo 最大长度: 1000 温度: 0.7 生产环境: 模型: gpt-4 最大长度: 2000 温度: 0.5 ``` ## 最佳实践 ### 1. 提示词优化 ```text theme={null} # 结构化提示词 ## 角色定义 你是一个专业的[具体角色] ## 任务说明 请帮助用户[具体任务] ## 输出格式 请按以下格式输出: 1. 概述 2. 详细分析 3. 建议 ## 约束条件 - 回答要准确 - 语言要通俗 - 长度控制在500字内 ``` ### 2. 工作流设计 ```mermaid theme={null} graph TD A[用户输入] --> B[输入验证] B --> C[意图分类] C --> D{选择处理路径} D -->|简单问题| E[快速回答] D -->|复杂问题| F[深度分析] D -->|需要搜索| G[知识库检索] E --> H[输出结果] F --> H G --> I[结合搜索结果] --> H ``` ### 3. 监控和优化 定期检查: * 用户满意度反馈 * 响应时间统计 * 成本使用情况 * 错误率分析 ### 4. 版本管理 * 定期备份应用配置 * 测试新版本后再发布 * 保留多个版本以便回滚 ## 故障排除 ### 常见问题 #### 模型调用失败 * 检查 API 密钥正确性 * 确认账户余额充足 * 验证网络连接 #### 响应质量差 * 优化提示词设计 * 调整模型参数 * 增加上下文信息 #### 性能问题 * 选择更快的模型 * 减少输出长度限制 * 启用缓存功能 ### 性能优化 ```yaml theme={null} 缓存设置: 启用: true 过期时间: 3600秒 缓存条件: 相同输入 并发控制: 最大并发: 10 队列大小: 100 超时时间: 30秒 资源限制: 内存限制: 2GB CPU限制: 80% ``` ## 部署建议 ### 生产环境 ```yaml theme={null} # docker-compose.yml version: '3.8' services: dify-api: image: langgenius/dify-api:latest environment: - SECRET_KEY=your-secret-key - DB_HOST=postgres - REDIS_HOST=redis - OPENAI_API_KEY=your-apiyi-key - OPENAI_API_BASE=https://api.apiyi.com/v1 depends_on: - postgres - redis dify-web: image: langgenius/dify-web:latest ports: - "3000:3000" depends_on: - dify-api postgres: image: postgres:14 environment: - POSTGRES_DB=dify - POSTGRES_USER=dify - POSTGRES_PASSWORD=password redis: image: redis:alpine ``` ### 安全配置 * 使用环境变量存储敏感信息 * 启用 HTTPS 访问 * 设置访问权限控制 * 定期更新依赖包 ### 监控设置 ```python theme={null} # 监控脚本示例 import requests import time def monitor_dify_health(): try: response = requests.get("http://your-dify-instance/health") if response.status_code == 200: print("Dify 运行正常") else: print(f"Dify 异常,状态码: {response.status_code}") except Exception as e: print(f"监控失败: {e}") # 每分钟检查一次 while True: monitor_dify_health() time.sleep(60) ``` 需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/dify)。 # LangChain Source: https://docs.apiyi.com/scenarios/engineering/langchain 构建 AI 应用的开发框架集成指南 # LangChain LangChain 是一个强大的框架,用于开发基于语言模型的应用程序。通过 API易,您可以在 LangChain 中使用各种主流 AI 模型。 ## 快速开始 ### 安装 ```bash theme={null} pip install langchain langchain-openai ``` ### 基础配置 ```python theme={null} import os from langchain_openai import ChatOpenAI # 设置环境变量 os.environ["OPENAI_API_KEY"] = "您的API易密钥" os.environ["OPENAI_BASE_URL"] = "https://api.apiyi.com/v1" # 初始化模型 llm = ChatOpenAI( model="gpt-3.5-turbo", temperature=0.7 ) ``` ## 核心功能 ### 基础对话 ```python theme={null} from langchain.schema import HumanMessage, SystemMessage messages = [ SystemMessage(content="你是一个有帮助的助手"), HumanMessage(content="介绍一下 Python 的主要特点") ] response = llm.invoke(messages) print(response.content) ``` ### 对话链 ```python theme={null} from langchain.memory import ConversationBufferMemory from langchain.chains import ConversationChain # 创建带记忆的对话链 memory = ConversationBufferMemory() conversation = ConversationChain( llm=llm, memory=memory, verbose=True ) # 多轮对话 conversation.predict(input="我想学习机器学习") conversation.predict(input="推荐一些入门资源") ``` ### 文档问答系统 ```python theme={null} from langchain.document_loaders import TextLoader from langchain.text_splitter import CharacterTextSplitter from langchain.embeddings import OpenAIEmbeddings from langchain.vectorstores import FAISS from langchain.chains import RetrievalQA # 配置嵌入模型 embeddings = OpenAIEmbeddings( api_key="您的API易密钥", base_url="https://api.apiyi.com/v1" ) # 加载文档 loader = TextLoader("document.txt") documents = loader.load() # 分割文本 text_splitter = CharacterTextSplitter( chunk_size=1000, chunk_overlap=0 ) texts = text_splitter.split_documents(documents) # 创建向量存储 vectorstore = FAISS.from_documents(texts, embeddings) # 创建问答链 qa = RetrievalQA.from_chain_type( llm=llm, chain_type="stuff", retriever=vectorstore.as_retriever() ) # 提问 result = qa.run("文档中的关键概念是什么?") ``` ## 模型切换 ### 使用不同模型 ```python theme={null} # GPT-4 gpt4 = ChatOpenAI( model="gpt-4", api_key="您的API易密钥", base_url="https://api.apiyi.com/v1" ) # Claude 3 claude = ChatOpenAI( model="claude-3-opus-20240229", api_key="您的API易密钥", base_url="https://api.apiyi.com/v1" ) # 比较不同模型的回答 question = "解释量子计算的基本原理" gpt4_answer = gpt4.invoke([HumanMessage(content=question)]) claude_answer = claude.invoke([HumanMessage(content=question)]) ``` ## 高级应用 ### Agent 系统 ```python theme={null} from langchain.agents import create_openai_functions_agent, AgentExecutor from langchain.tools import Tool from langchain import hub # 定义工具 def get_weather(location: str) -> str: """获取天气信息""" return f"{location}的天气是晴天,温度25°C" weather_tool = Tool( name="Weather", func=get_weather, description="获取指定地点的天气信息" ) # 创建 Agent prompt = hub.pull("hwchase17/openai-functions-agent") agent = create_openai_functions_agent(llm, [weather_tool], prompt) agent_executor = AgentExecutor(agent=agent, tools=[weather_tool]) # 使用 Agent result = agent_executor.invoke({"input": "北京今天天气怎么样?"}) ``` ### 批量处理 ```python theme={null} # 批量生成响应 prompts = [ "解释人工智能", "什么是机器学习", "深度学习的应用" ] responses = llm.batch([ HumanMessage(content=p) for p in prompts ]) for response in responses: print(response.content) print("-" * 50) ``` ### 流式输出 ```python theme={null} from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler # 配置流式输出 streaming_llm = ChatOpenAI( model="gpt-3.5-turbo", streaming=True, callbacks=[StreamingStdOutCallbackHandler()] ) # 流式生成 streaming_llm.invoke("写一首关于春天的诗") ``` ## 错误处理 ```python theme={null} from langchain.callbacks import get_openai_callback try: with get_openai_callback() as cb: response = llm.invoke("你好") print(f"使用的 Token 数: {cb.total_tokens}") print(f"API 调用成本: ${cb.total_cost}") except Exception as e: print(f"发生错误: {e}") ``` ## 最佳实践 ### 1. 模型选择策略 查看最新的场景化模型推荐,包括简单对话、复杂推理、长文本处理、创意写作等全场景的最佳模型选择。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ### 2. 成本优化 ```python theme={null} class CostOptimizedLLM: def __init__(self): self.cheap_model = ChatOpenAI(model="gpt-3.5-turbo") self.premium_model = ChatOpenAI(model="gpt-4") def smart_invoke(self, message, complexity="low"): model = self.premium_model if complexity == "high" else self.cheap_model return model.invoke(message) ``` ### 3. 缓存策略 ```python theme={null} from langchain.cache import InMemoryCache from langchain.globals import set_llm_cache # 启用缓存 set_llm_cache(InMemoryCache()) # 相同请求会使用缓存 response1 = llm.invoke("什么是人工智能?") response2 = llm.invoke("什么是人工智能?") # 使用缓存 ``` ### 4. 异步处理 ```python theme={null} import asyncio from langchain_openai import AsyncChatOpenAI async def async_chat(): async_llm = AsyncChatOpenAI( model="gpt-3.5-turbo", api_key="您的API易密钥", base_url="https://api.apiyi.com/v1" ) response = await async_llm.ainvoke("异步生成的内容") return response.content # 运行异步函数 result = asyncio.run(async_chat()) ``` ## 复杂应用示例 ### 多模态 RAG 系统 ```python theme={null} class MultiModalRAG: def __init__(self): self.llm = ChatOpenAI(model="gpt-4o") # 支持图像 self.embeddings = OpenAIEmbeddings() self.vectorstore = None def add_documents(self, documents): """添加文档到知识库""" texts = self.text_splitter.split_documents(documents) self.vectorstore = FAISS.from_documents(texts, self.embeddings) def query_with_image(self, question, image_url): """支持图像的查询""" context = self.vectorstore.similarity_search(question, k=3) messages = [ {"role": "system", "content": "基于提供的文档回答问题"}, {"role": "user", "content": [ {"type": "text", "text": f"问题: {question}\n\n上下文: {context}"}, {"type": "image_url", "image_url": {"url": image_url}} ]} ] return self.llm.invoke(messages) ``` ### 智能工作流 ```python theme={null} from langchain.schema.runnable import RunnableLambda, RunnableSequence def classify_intent(query): """意图分类""" classifier = ChatOpenAI(model="gpt-3.5-turbo") result = classifier.invoke(f"将以下查询分类为:问答、创作、分析、其他\n\n{query}") return result.content.strip() def route_to_specialist(intent_and_query): """路由到专门的处理器""" intent, query = intent_and_query if "问答" in intent: model = ChatOpenAI(model="gpt-3.5-turbo") elif "创作" in intent: model = ChatOpenAI(model="claude-3-sonnet") elif "分析" in intent: model = ChatOpenAI(model="gpt-4") else: model = ChatOpenAI(model="gpt-3.5-turbo") return model.invoke(query) # 创建工作流 workflow = RunnableSequence( RunnableLambda(lambda x: (classify_intent(x), x)), RunnableLambda(route_to_specialist) ) # 使用工作流 result = workflow.invoke("帮我分析这个季度的销售数据") ``` ## 性能监控 ```python theme={null} import time from functools import wraps def monitor_llm_calls(func): @wraps(func) def wrapper(*args, **kwargs): start_time = time.time() try: result = func(*args, **kwargs) success = True except Exception as e: result = None success = False print(f"LLM调用失败: {e}") end_time = time.time() duration = end_time - start_time print(f"LLM调用 - 成功: {success}, 耗时: {duration:.2f}s") return result return wrapper @monitor_llm_calls def safe_llm_call(llm, message): return llm.invoke(message) ``` ## 部署建议 ### 1. 生产环境配置 ```python theme={null} import os from langchain_openai import ChatOpenAI class ProductionLLM: def __init__(self): self.llm = ChatOpenAI( model=os.getenv("LLM_MODEL", "gpt-3.5-turbo"), temperature=float(os.getenv("LLM_TEMPERATURE", "0.7")), max_tokens=int(os.getenv("LLM_MAX_TOKENS", "1000")), request_timeout=int(os.getenv("LLM_REQUEST_TIMEOUT", "60")) ) def chat(self, message): try: return self.llm.invoke(message) except Exception as e: # 记录错误日志 print(f"LLM错误: {e}") return "抱歉,服务暂时不可用" ``` ### 2. 容错机制 ```python theme={null} def retry_llm_call(max_retries=3, delay=1): def decorator(func): @wraps(func) def wrapper(*args, **kwargs): for attempt in range(max_retries): try: return func(*args, **kwargs) except Exception as e: if attempt == max_retries - 1: raise e time.sleep(delay * (2 ** attempt)) # 指数退避 return wrapper return decorator @retry_llm_call(max_retries=3) def robust_llm_call(llm, message): return llm.invoke(message) ``` 需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/langchain)。 # CC Switch Source: https://docs.apiyi.com/scenarios/programming/cc-switch 统一管理 Claude Code 等 5 款 AI CLI 工具的桌面应用,一键切换 API 提供商、模型和配置 ## 概述 CC Switch 是一款基于 Tauri 2 构建的桌面应用,可以统一管理 Claude Code、Codex CLI、Gemini CLI、OpenCode、OpenClaw 五款 AI CLI 工具。告别手动编辑配置文件,通过图形界面一键切换 API 提供商、模型和密钥。 通过配置 API易 服务,您可以获得: 图形界面管理所有 CLI 工具配置,告别手动编辑 选择 ClaudeCode 分组创建令牌,享受 88% 折扣 内置 Usage Dashboard,实时查看花费、请求数和 Token 用量 本地代理支持热切换、自动故障转移和熔断保护 **项目信息** * 🔗 开源地址:`github.com/farion1231/cc-switch` * 📜 许可证:MIT * 👤 作者:Jason Young(farion1231) * 🏷️ 最新版本:v3.12.0 ## 核心功能 ### Provider 管理 * 内置 50+ 预设提供商(含 AWS Bedrock、NVIDIA NIM 等) * 一键切换、拖拽排序、导入导出配置 * 系统托盘快速访问 ### MCP 服务器管理 * 统一管理所有 CLI 工具的 MCP 服务器配置 * 双向同步,修改一处自动同步到所有应用 ### 更多特性 * **Prompts 管理**:Markdown 编辑器 + 跨应用同步 * **Skills 安装**:从 GitHub 仓库或 ZIP 文件安装技能 * **Session 浏览器**:查看和恢复对话历史 * **云同步**:支持 Dropbox、OneDrive、iCloud、WebDAV * **Deep Link**:`ccswitch://` 协议一键导入配置 ## 快速开始 ### 第一步:安装 CC Switch 使用 Homebrew 安装: ```bash theme={null} brew install --cask cc-switch ``` 或从 GitHub Releases 下载 DMG 安装包。 从 GitHub Releases 下载 MSI 安装程序或 Portable ZIP 包。 根据发行版选择安装方式: ```bash theme={null} # Debian/Ubuntu sudo dpkg -i cc-switch_*.deb # Fedora/RHEL sudo rpm -i cc-switch_*.rpm # Arch Linux paru -S cc-switch-bin ``` 也可使用 AppImage 或 Flatpak。 **系统要求**:Windows 10+、macOS 10.15 (Catalina)+、Ubuntu 22.04+ / Debian 11+ / Fedora 34+ ### 第二步:获取 API易 密钥 1. 访问 [API易控制台 - 令牌页面](https://api.apiyi.com/token) 2. 点击创建新令牌 3. **重要**:选择 **【ClaudeCode】分组**,享受 **88% 折扣** 4. 复制生成的密钥(以 `sk-` 开头) **省钱提示**:创建令牌时务必选择【ClaudeCode】分组,可享受 88 折优惠价格,大幅降低使用成本。 ### 第三步:在 CC Switch 中配置 API易 1. 打开 CC Switch 应用 2. 进入 **Provider** 管理页面,点击添加,选择「自定义网关」: CC Switch Provider 配置界面 - 添加 API易 统一供应商 3. 按照上图填写以下信息: * **名称**:`APIYI` * **API 地址**:`https://api.apiyi.com` * **API Key**:粘贴上一步获取的密钥 * **启用的应用**:开启 Claude Code(按需开启其他工具) 4. 点击「添加」保存配置 ### 第四步:添加模型 在 Provider 配置中添加以下模型: **标准模型**: | 模型名称 | 模型标识 | 说明 | | ----------------- | --------------------------- | ----------- | | Claude Opus 4.6 | `claude-opus-4-6` | 最强旗舰,复杂任务首选 | | Claude Sonnet 4.6 | `claude-sonnet-4-6` | 编程能力强,性价比之选 | | Claude Haiku 4.5 | `claude-haiku-4-5-20251001` | 轻量快速,简单任务适用 | **推理模型**(强制启用思维链): | 模型名称 | 模型标识 | 说明 | | -------------------------- | ------------------------------------ | ----------- | | Claude Opus 4.6 Thinking | `claude-opus-4-6-thinking` | 深度推理,复杂逻辑分析 | | Claude Sonnet 4.6 Thinking | `claude-sonnet-4-6-thinking` | 推理增强编程,平衡效率 | | Claude Haiku 4.5 Thinking | `claude-haiku-4-5-20251001-thinking` | 轻量推理,快速思考 | **模型选择建议**:日常编程推荐 `claude-sonnet-4-6`,复杂架构设计用 `claude-opus-4-6`,快速问答用 `claude-haiku-4-5-20251001`。需要深度推理时使用对应的 thinking 版本。 ### 第五步:一键切换 配置完成后,在 CC Switch 中选择 API易 作为当前 Provider,所有关联的 CLI 工具(Claude Code、Codex CLI 等)会自动切换到 API易 配置。 ## 使用指南 ### 管理多个 CLI 工具 CC Switch 支持同时管理以下 5 款 AI CLI 工具: * **Claude Code** — Anthropic 官方命令行编程助手 * **Codex CLI** — OpenAI 的命令行编程工具 * **Gemini CLI** — Google 的命令行 AI 助手 * **OpenCode** — 开源命令行编程工具 * **OpenClaw** — 开源本地 AI Agent 所有工具共享 Provider 配置,切换一次即可全部生效。 ### 本地代理功能 CC Switch 内置本地代理服务器,提供: * **热切换**:无需重启即可切换 Provider * **自动故障转移**:当前 Provider 不可用时自动切换备选 * **熔断保护**:检测到持续故障时自动停止请求,防止资源浪费 ### 配置备份 * 自动备份系统保留最近 10 个版本 * 支持导入/导出完整配置 * 云同步支持 Dropbox、OneDrive、iCloud、WebDAV ## 模型推荐 除了 Claude 系列,API易 还支持 200+ 主流 AI 模型。查看完整的编程模型推荐、性能对比和场景化使用建议。 ## 常见问题 支持 Windows 10+、macOS 10.15 (Catalina)+、以及主流 Linux 发行版(Ubuntu 22.04+、Debian 11+、Fedora 34+、Arch Linux)。 在 [API易控制台](https://api.apiyi.com/token) 创建令牌时,选择【ClaudeCode】分组即可自动享受 88% 折扣。 请检查: 1. API Key 是否正确(以 `sk-` 开头) 2. Base URL 是否设置为 `https://api.apiyi.com` 3. API易 账户余额是否充足 4. CC Switch 是否已将配置同步到 Claude Code Thinking(推理)模型会强制启用思维链模式,在回答前进行深度推理分析。适合复杂逻辑推理、架构设计等需要深度思考的场景。标准模型响应更快,适合日常编程和简单任务。 CC Switch 支持导入功能,可以自动读取已有的环境变量和配置文件。安装后打开应用,它会自动检测已安装的 CLI 工具及其现有配置。 CC Switch 本身完全免费开源(MIT 许可证)。只有 API 调用会产生费用,通过 API易 使用 ClaudeCode 分组可享受 88 折优惠。 ## 最佳实践 **高效使用建议**: 1. **分组创建令牌**:务必选择【ClaudeCode】分组,享受 88 折 2. **善用热切换**:在不同任务间快速切换 Provider 和模型 3. **启用自动故障转移**:配置多个 Provider 作为备选,确保服务连续性 4. **定期备份**:利用云同步功能定期备份配置 ## 相关资源 查看 Claude Code 的详细配置教程 了解最新的 AI 模型推荐 管理 API 密钥和查看用量 探索 Cursor 等其他编程工具 # Claude Code Source: https://docs.apiyi.com/scenarios/programming/claude-code Claude 官方命令行编程助手,使用 API易 配置实现稳定高效的 AI 编程体验 ## 概述 Claude Code 是 Anthropic 官方推出的命令行编程助手,可以在终端中直接使用 Claude 的强大编程能力。通过配置 API易 服务,您可以获得: 免代理直连,告别网络不稳定 无需 Claude Max 200美元订阅 依托 API易 实现不限速访问 几分钟完成全部设置 ## 快速开始 **简化配置提示**:如果您不想注册 Claude 官网账号,建议直接查看下方的[高级配置](#高级配置)部分,使用 `~/.claude.json` 文件配置,可以完全绕过官网验证。 ### 1. 安装 Claude Code 在终端运行以下命令全局安装: ```bash theme={null} npm install -g @anthropic-ai/claude-code ``` 需要 Node.js 18 或更高版本。如未安装,请先访问 [nodejs.org](https://nodejs.org) 下载安装。 ### 2. 配置 API 密钥 #### 获取 API 密钥 请参考 [API密钥获取与管理教程](/faq/token-management) 获取您的 API易 密钥。 #### 设置环境变量 在系统环境变量中添加 API易 配置。 编辑 `~/.zshrc` 或 `~/.bashrc` 文件: ```bash theme={null} # API易 配置 export ANTHROPIC_AUTH_TOKEN="sk-***" export ANTHROPIC_BASE_URL="https://api.apiyi.com" ``` **Mac 用户提示**:在用户目录按 `⌘ + ⇧ + .` 显示隐藏文件,使用文本编辑器打开 `.zshrc` 文件。 使用 PowerShell 编辑配置: ```powershell theme={null} # 编辑配置文件 notepad $PROFILE # 添加以下内容 $env:ANTHROPIC_AUTH_TOKEN = "sk-***" $env:ANTHROPIC_BASE_URL = "https://api.apiyi.com" ``` ### 3. 使配置生效 ```bash theme={null} source ~/.zshrc # 或 source ~/.bashrc ``` 重启 PowerShell 或运行: ```powershell theme={null} . $PROFILE ``` ### 4. 启动 Claude Code 进入你的项目目录并启动: ```bash theme={null} # 进入项目目录 cd ~/Desktop/my-project # 启动 Claude Code claude ``` ## 高级配置 ### 配置文件(推荐) 需要配置两个文件,配合使用即可绕过 Claude 官网验证: **第一步**:在用户主目录创建 `~/.claude.json`,绕过官网验证: ```json theme={null} { "hasCompletedOnboarding": true } ``` **第二步**:在 `~/.claude/settings.json` 中配置 API易 服务: ```json theme={null} { "env": { "ANTHROPIC_AUTH_TOKEN": "sk-你的API易密钥", "ANTHROPIC_BASE_URL": "https://api.apiyi.com" } } ``` **重要提示**:`hasCompletedOnboarding: true` 可以完全绕过 Claude 官网账号验证,直接使用 API易 服务。这样您无需: * 注册 Claude 官网账号(注册困难,需要海外手机号) * 担心 Claude 官网账号被封 * 进行任何额外的授权步骤 **安全提醒**:配置文件包含 API 密钥等敏感信息,请勿分享给他人。 ### 全局授权(不推荐) 如果没有配置 `hasCompletedOnboarding: true`,首次使用时会弹出授权页面: 1. 需要跳转到 Claude 官网进行确认 2. 需要有 Claude 官网账号(注册困难且容易被封) 3. 授权成功后返回终端继续 **建议**:强烈推荐使用上述配置文件方法,避免 Claude 官网账号的各种限制。 ## 使用指南 ### 基本命令 启动后,Claude Code 会显示当前配置信息: ```bash theme={null} claude # 显示 API Key 和 API Base URL # 确认配置无误后选择 Yes 继续 ``` ### 工作流程 1. **启动助手**:在项目目录运行 `claude` 2. **描述需求**:输入你的编程需求或问题 3. **交互对话**:Claude 会理解上下文并提供代码建议 4. **应用更改**:确认后 Claude 可以直接修改文件 ### 支持的功能 * ✅ 代码生成和优化 * ✅ Bug 修复和调试 * ✅ 代码重构建议 * ✅ 文档编写 * ✅ 测试用例生成 * ✅ 技术问题解答 ## 模型选择 Claude Code 默认使用最新的 Claude 模型。通过 API易,你可以访问: | 模型 | 特点 | 推荐场景 | | ---------------------------- | ------ | ------ | | **Claude 4 Sonnet** | 编程能力最强 | 复杂代码任务 | | **Claude Opus 4.1** | 性能升级版 | 高要求编程 | | **Claude 4 Sonnet Thinking** | 思维链模式 | 复杂推理 | 除了 Claude 系列,API易 还支持 200+ 主流 AI 模型。查看完整的编程模型推荐、性能对比和场景化使用建议。 ## 故障排除 ### 常见问题 这通常是网络配置问题。请检查: 1. 环境变量是否正确设置 2. API 密钥是否有效 3. 网络连接是否正常 运行以下命令验证配置: ```bash theme={null} echo $ANTHROPIC_AUTH_TOKEN echo $ANTHROPIC_BASE_URL ``` 这是因为没有配置 `hasCompletedOnboarding`。在 `~/.claude.json` 中添加 `{"hasCompletedOnboarding": true}`,并在 `~/.claude/settings.json` 中配置 API易 环境变量,即可绕过官网验证。详见上方[高级配置](#高级配置)。 确保使用的是 API易 的密钥,而不是 Claude 官网的密钥。参考 [API密钥获取与管理教程](/faq/token-management) 获取密钥。 运行以下命令更新到最新版本: ```bash theme={null} npm update -g @anthropic-ai/claude-code ``` Claude Code 支持所有主流编程语言,包括但不限于: * Python, JavaScript/TypeScript, Java, C++, C# * Go, Rust, Swift, Kotlin * HTML/CSS, SQL, Shell Scripts * 以及更多... ## 最佳实践 ### 有效的提示词 ```markdown theme={null} 好的提示: "帮我重构这个 Python 函数,使其更高效并添加类型注解" "这段代码有内存泄漏,请帮我找出并修复" "为这个 React 组件编写单元测试" 避免过于宽泛: "改进我的代码" # 太模糊 ``` ### 项目结构建议 * 保持代码库整洁有序 * 使用清晰的文件命名 * 添加适当的注释 * 提供项目 README ## 性能优化 ### 提升响应速度 1. **使用 `~/.claude.json` 配置**:配置后可避免每次验证,特别是设置 `hasCompletedOnboarding: true` 后启动更快 2. **保持对话连贯**:在同一会话中处理相关任务 3. **明确需求**:清晰描述可减少往返交互 ### 成本控制 * Claude Code 按 Token 使用量计费 * 通过 API易 可享受优惠价格 * 查看 [定价页面](/pricing) 了解详情 ## 相关资源 API密钥获取与管理 官方文档地址:`code.claude.com/docs` 了解 Claude 系列模型 探索 Cursor 等工具 ## 总结 Claude Code 结合 API易 服务,为开发者提供了一个强大、稳定、经济的 AI 编程助手解决方案。无需昂贵的订阅费用,即可享受顶级的 AI 编程体验。 **提示**:如需了解更多编程场景的 AI 工具,可以查看 [OpenAI Codex CLI](/scenarios/programming/codex-cli) 等其他选项。 # Cline (VS Code) Source: https://docs.apiyi.com/scenarios/programming/cline VS Code 中的 AI 编程助手集成指南 # Cline (VS Code) Cline(原 Claude Dev)是一款强大的 VS Code AI 编程助手插件,支持多种 AI 模型。通过 API易,您可以灵活切换使用各种主流 AI 模型辅助编程。 ## 快速安装 ### 1. 安装插件 在 VS Code 扩展商店搜索 "Cline" 并安装 ### 2. 配置 API易 1. 点击左侧的 Cline 图标 2. 点击设置按钮(齿轮图标) 3. 选择 **OpenAI Compatible** 4. 配置参数: * **Base URL**:`https://api.apiyi.com/v1` * **API Key**:您的 API易 密钥 * **Model Name**:输入模型名称 ### 推荐模型 Cline 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek、国产模型等。 查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ## 核心功能 ### 智能代码补全 ```python theme={null} # 输入注释,AI 自动生成代码 # 计算斐波那契数列的第 n 项 def fibonacci(n): # Cline 会自动补全实现 ``` ### 代码解释 选中代码片段,使用: * `Cline: Explain Code`:解释代码 * `Cline: Explain Error`:解释错误 ### 代码重构 * **优化性能**:提供性能优化建议 * **改进可读性**:重构复杂代码 * **修复问题**:自动修复常见问题 ### 生成测试 ```javascript theme={null} // 原始函数 function add(a, b) { return a + b; } // Cline 生成的测试 describe('add function', () => { test('should add two numbers correctly', () => { expect(add(2, 3)).toBe(5); expect(add(-1, 1)).toBe(0); }); }); ``` ## 常用命令 | 命令 | 快捷键 | 功能 | | --------------- | -------------- | ----- | | Cline: Ask | `Ctrl+Shift+L` | 询问 AI | | Cline: Explain | `Ctrl+Shift+E` | 解释代码 | | Cline: Refactor | `Ctrl+Shift+R` | 重构代码 | | Cline: Generate | `Ctrl+Shift+G` | 生成代码 | ## 高级功能 ### 多文件操作 Cline 可以理解和操作多个相关文件: ```bash theme={null} "将 utils.js 中的函数移动到 helpers.js,并更新所有引用" ``` ### 架构设计 生成项目架构: ```text theme={null} 请为电商后台管理系统设计架构,包含: - 用户管理 - 商品管理 - 订单处理 - 数据分析 使用 React + Node.js + PostgreSQL ``` ### 代码审查 ```text theme={null} Review PR: - 检查代码规范 - 发现潜在 bug - 性能优化建议 - 安全漏洞扫描 ``` ## 使用技巧 ### 1. 上下文管理 提供更好的上下文: ```typescript theme={null} // @context: React 组件用于用户认证 // @requirements: 支持 OAuth2 登录流程 // @constraints: 兼容 NextJS 13+ // AI 基于上下文生成更准确的代码 ``` ### 2. 自定义提示词 在设置中配置: ```json theme={null} { "cline.customPrompts": { "codeReview": "审查代码,关注性能、安全、规范", "optimize": "优化代码性能和可读性", "document": "生成详细的中文文档" } } ``` ### 3. 项目级配置 创建 `.cline/config.json`: ```json theme={null} { "model": "claude-3-5-sonnet-20241022", "temperature": 0.7, "language": "zh-CN", "codeStyle": { "naming": "camelCase", "indent": 4, "quotes": "single" } } ``` ## 故障排除 ### 连接失败 检查配置: * Base URL:`https://api.apiyi.com/v1` * API 密钥是否有效 * 网络连接是否正常 ### 响应超时 解决方案: 1. 使用更快的模型 2. 减少请求复杂度 3. 分解大任务 ### 生成质量差 改进方法: 1. 提供更多上下文 2. 使用更强大的模型 3. 明确指定需求 ## 最佳实践 ### 1. 模型选择策略 根据不同的编程任务类型,选择合适的模型可以提高效率并降低成本。 查看针对不同编程场景的模型推荐,包括代码生成、复杂推理、代码审查、快速响应等场景的最佳模型选择。 ### 2. 提示词优化 ```text theme={null} ❌ 不好的提示:修复这个函数 ✅ 好的提示:修复 calculateTotal 函数中的浮点数精度问题, 确保金额计算准确到小数点后两位 ``` ### 3. 渐进式开发 1. 先生成基础框架 2. 逐步添加功能 3. 最后优化性能 4. 添加错误处理 ### 4. 安全意识 * 不在代码中包含敏感信息 * 审查 AI 生成的代码 * 验证第三方依赖 * 注意安全漏洞 ## 集成工作流 ### Git 集成 ```bash theme={null} # 自动生成 commit message git add . # Cline: 根据改动生成 commit message ``` ### 测试驱动开发 1. 先写测试用例 2. Cline 生成实现代码 3. 运行测试验证 4. 迭代优化 ### CI/CD 集成 生成配置文件: ```yaml theme={null} # Cline 可以生成 GitHub Actions 配置 name: CI on: [push, pull_request] jobs: test: runs-on: ubuntu-latest steps: - uses: actions/checkout@v2 - name: Run tests run: npm test ``` ## Token 优化与成本控制 ### 1. 监控 Token 使用 * **实时监控**:在 Cline 侧边栏查看估算成本 * **会话限制**:保持会话简短,避免上下文累积 * **定期重置**:长任务分多个会话完成 ### 2. 智能模型切换 ```text theme={null} 规划阶段 → DeepSeek-R1 或 o3(推理能力强,成本低) 实现阶段 → Claude-4-Sonnet 或 o4-mini(编程能力最强) 简单任务 → GPT-3.5-Turbo 或 Gemini-2.5-Flash(速度快) 长文本 → Gemini-2.5-Pro(2M 上下文) ``` ### 3. 使用 .clinerules 配置 创建项目根目录下的 `.clinerules` 文件: ```text theme={null} # 限制 Cline 操作范围 - 不允许修改 node_modules - 不允许删除重要文件 - 限制单次修改文件数量 - 要求确认破坏性操作 ``` ### 4. 替代方案降低成本 #### GitHub Copilot Pro 集成 * 月费仅 \$10,无限使用 * 通过 VSCode LM API 使用 * 适合高频使用场景 #### 本地模型 (Ollama) ```bash theme={null} # 安装 Ollama 并运行本地模型 ollama run deepseek-coder:6.7b ollama run qwen2.5-coder:7b ollama run codellama:13b ``` #### 使用国产模型降低成本 * `qwen-turbo`(阿里通义千问) * `glm-4`(智谱清华系) * `ernie-4.0`(百度文心一言) ### 5. 缓存优化 * 使用 Requesty Router 等服务 * 可节省超过 50% 的 API 成本 * 自动缓存重复请求 ## 最佳实践进阶 ### 1. Plan/Act 模式使用 * **Plan 模式**:用于设计和审查,只读不改 * **Act 模式**:直接实现,适合简单任务 * **模型记忆**:Cline 会记住每种模式的模型偏好 ### 2. 上下文管理技巧 ```typescript theme={null} // 明确的上下文注释 // @context: React 18 + TypeScript 5 // @requirements: 支持 SSR,兼容 Next.js 14 // @constraints: 不使用外部状态管理库 // @performance: 首屏加载 < 3s ``` ### 3. 任务管理系统 * **收藏重要对话**:使用星标功能 * **导出有价值内容**:保存为 Markdown * **任务排序**:按成本、Token 使用量排序 * **批量清理**:定期清理低价值会话 ### 4. 避免 Token 爆炸 ```text theme={null} ❌ 错误做法: - 在同一会话中处理多个无关任务 - 让 Cline 读取整个大型代码库 - 不断修改需求导致上下文混乱 ✅ 正确做法: - 每个功能开新会话 - 只包含相关文件 - 明确需求后再开始 - 完成后立即提交代码 ``` ### 5. 成本效益分析 | 场景 | 传统开发时间 | Cline 成本 | 时间节省 | ROI | | ------- | ------ | -------- | ------ | --- | | CRUD 模块 | 4 小时 | \$5-10 | 3.5 小时 | 极高 | | 复杂重构 | 2 天 | \$20-50 | 1.5 天 | 高 | | 架构设计 | 1 周 | \$50-100 | 5 天 | 高 | ### 6. 工作流优化 ```bash theme={null} # 1. 规划阶段(使用推理模型) "使用 o3 或 DeepSeek-R1 分析需求并制定架构方案" # 2. 实现阶段(使用编程专精模型) "切换到 Claude-4-Sonnet 或 o4-mini 实现核心功能" # 3. 测试优化(使用快速模型) "使用 Gemini-2.5-Flash 或 GPT-3.5-Turbo 进行单元测试和优化" # 4. 文档阶段(使用综合模型) "使用 GPT-4.1 或 Qwen-Max 生成项目文档" # 5. 代码审查(使用长上下文模型) "使用 Gemini-2.5-Pro 进行全面的代码审查" ``` ## 性能优化 ### 1. 模型切换 根据任务选择模型: * 开发阶段:轻量模型 * 复杂任务:高级模型 * 生产环境:平衡性能和成本 ### 2. 缓存策略 * 启用响应缓存 * 缓存常用代码片段 * 定期清理缓存 ### 3. 请求优化 * 批量处理相关请求 * 使用流式响应 * 设置合理超时 需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/cline)。 # OpenAI Codex CLI Source: https://docs.apiyi.com/scenarios/programming/codex-cli OpenAI 官方命令行编程助手,通过 API易兼容代理一键接入:替换 OPENAI_BASE_URL + OPENAI_API_KEY 两个环境变量即可使用 gpt-5.5 / gpt-5.4 / gpt-5.3-codex 等最新模型。 ## 概述 **Codex CLI** 是 OpenAI 官方推出的命令行编程助手,专为终端工作流设计。通过 API易接入只需要做一件事: > **把 OpenAI 的入口换成 API易** API易是 **OpenAI 兼容接口(透明代理)**——本质就是替换 Base URL + Key,**不需要修改 `model_provider`、不需要自定义 env\_key**,OpenAI SDK 怎么用,Codex CLI 就怎么用。 两个环境变量即用,无需复杂配置文件 支持 `gpt-5.5` / `gpt-5.4` / `gpt-5.3-codex` 与 OpenAI 官方计费方式一致,价格更优 Mac / Linux / Windows(PowerShell)通用 ## 一、准备工作 ### 安装 Codex CLI 先全局安装官方 CLI 工具(需要 Node.js 18+): ```bash theme={null} npm install -g @openai/codex ``` 验证: ```bash theme={null} codex --version ``` Mac 用户如果遇到权限问题,可加 `sudo`;推荐用 nvm / fnm 管理 Node 版本以避免全局权限。 ## 二、核心配置:替换两个环境变量 API易是 OpenAI 兼容接口,所以**配置就两行**: ```bash theme={null} OPENAI_BASE_URL=https://api.apiyi.com/v1 OPENAI_API_KEY=sk-你的APIYI密钥 ``` **变量名固定**:必须叫 `OPENAI_API_KEY` 和 `OPENAI_BASE_URL`,这是 Codex CLI 内置约定,不要改名。 **Base URL 必须带 `/v1`**:写成 `https://api.apiyi.com/v1`,缺 `/v1` 会 404。 ### Mac / Linux 配置 编辑 shell 配置文件: ```bash theme={null} vim ~/.zshrc # 或 ~/.bashrc ``` 加入: ```bash theme={null} export OPENAI_BASE_URL="https://api.apiyi.com/v1" export OPENAI_API_KEY="sk-你的APIYI密钥" ``` 让配置生效: ```bash theme={null} source ~/.zshrc # 或 source ~/.bashrc ``` ### Windows 配置 使用 `setx` 写入用户级环境变量: ```powershell theme={null} setx OPENAI_BASE_URL "https://api.apiyi.com/v1" setx OPENAI_API_KEY "sk-你的APIYI密钥" ``` **关闭并重新打开终端**生效。 只在当前 PowerShell 窗口生效,关闭即失效: ```powershell theme={null} $env:OPENAI_BASE_URL="https://api.apiyi.com/v1" $env:OPENAI_API_KEY="sk-你的APIYI密钥" ``` 适合临时测试。 1. 打开「系统环境变量」 2. 新建用户变量: * 变量名 `OPENAI_BASE_URL`,值 `https://api.apiyi.com/v1` * 变量名 `OPENAI_API_KEY`,值 `sk-你的APIYI密钥` 3. 重启终端 ## 三、启动与基础使用 进入项目目录直接启动: ```bash theme={null} cd /your/project codex ``` 或一句话直接执行任务: ```bash theme={null} codex "帮我写一个 Python HTTP Server" ``` 非交互(静默)模式: ```bash theme={null} codex -q "修复当前项目的构建错误" ``` ## 四、模型说明(API易推荐) API易当前可用于 Codex CLI 的常用模型: | 模型 | 特点 | 适用场景 | | ------------------- | ----------- | --------------------- | | **`gpt-5.5`** | 最新主力模型 | 复杂代码任务、工程分析、Agent 工作流 | | **`gpt-5.4`** | 稳定常用 | 大多数代码开发、调试、重构场景 | | **`gpt-5.4-mini`** | 便宜的 5.4 变体 | 中小规模任务、批量处理 | | **`gpt-5.4-nano`** | 极致便宜 | 简单代码补全、轻量任务 | | **`gpt-5.3-codex`** | 专攻 Codex 场景 | 复杂软件工程任务 | | **`gpt-4.1`** | 经典便宜模型 | 预算敏感的日常使用 | **怎么选**:日常 → `gpt-5.4`;重活/Agent → `gpt-5.5`;纯代码工程 → `gpt-5.3-codex`;省钱 → `gpt-5.4-mini` / `gpt-4.1`。 ### 1. 启动时临时指定模型 用 `-m` 或 `--model`: ```bash theme={null} codex -m gpt-5.5 codex --model gpt-5.4 codex -m gpt-5.3-codex ``` 也可以直接带任务: ```bash theme={null} codex -m gpt-5.5 "帮我检查这个项目的代码结构,并指出可以优化的地方" ``` ### 2. 非交互模式指定模型 ```bash theme={null} codex -q -m gpt-5.4 "修复当前项目里的构建错误" ``` ### 3. 会话内切换模型 进入 Codex CLI 后,在会话里输入: ```text theme={null} /model ``` 按提示选择或输入要切换的模型。 ### 4. 配置默认模型 如果希望默认就用某个模型,编辑 `~/.codex/config.toml`: ```toml theme={null} model = "gpt-5.5" ``` Codex 当前官方配置文件是 `config.toml`(不是早期教程里的 `config.json`)。用户级配置在 `~/.codex/config.toml`,也支持项目级 `.codex/config.toml`。 ## 五、进阶配置 ### 自定义系统提示词 编辑: ```bash theme={null} ~/.codex/instructions.md ``` 可以定义编码风格、输出语言、项目规范等,例如: ```markdown theme={null} - 代码注释使用中文 - 遵循项目的 ESLint 配置 - 提供详细的解释说明 ``` ### 项目级 AGENTS.md 首次进入项目时运行 `codex /init` 会生成 `AGENTS.md`,记录项目结构与规范。如需 Codex 默认用中文交流,加一行: ```markdown theme={null} 本项目请始终用中文跟用户交流。 ``` ### 常用参数 ```bash theme={null} codex -h # 查看完整帮助 codex -m <模型> # 指定模型 codex -q # 非交互/静默模式 codex --full-auto # 自动执行(谨慎使用) ``` ## 六、注意事项 ### 1. Key 与变量名 * API易 Key 在控制台 `api.apiyi.com/token` 获取 * **变量名必须是 `OPENAI_API_KEY`**(CLI 写死的,不可改名) ### 2. Base URL * **必须带 `/v1`**:`https://api.apiyi.com/v1` * 也可使用其他网关域名(如 `b.apiyi.com/v1`、`vip.apiyi.com/v1`),响应行为一致 ### 3. 网络问题 如果遇到 timeout / 连接失败,优先排查: * 本地 HTTP/HTTPS 代理配置 * DNS 解析 * 是否误用了 Cloudflare 中转域名(不建议) ### 4. 模型差异 * Codex CLI 偏向**代码任务**,多模态能力(图像/语音)走专门接口更合适 * 不同 `gpt-5.x` 模型在工具调用、长上下文、推理深度上有差异,建议按任务复杂度选择 ## 七、常见问题 因为 API易**完全兼容 OpenAI API 协议**——CLI 看到的 `https://api.apiyi.com/v1` 和 `https://api.openai.com/v1` 在请求/响应格式上是一致的,仅替换 Base URL 即可。 确认已正确安装: ```bash theme={null} npm install -g @openai/codex codex --version ``` 如果仍报错,检查 `npm bin -g` 路径是否在 `PATH` 中。 1. 确认用的是 **API易 Key**(以 `sk-` 开头),不是 OpenAI 官方 Key 2. 检查环境变量是否生效: ```bash theme={null} echo $OPENAI_API_KEY # Mac/Linux echo %OPENAI_API_KEY% # Windows CMD echo $env:OPENAI_API_KEY # Windows PowerShell ``` 3. 改完环境变量后**重启终端**或 `source ~/.zshrc` 最常见原因:**Base URL 没带 `/v1`**。 正确写法:`https://api.apiyi.com/v1` 其次排查本地代理与 DNS。 三种方式: * 临时:`codex -m gpt-5.5` * 会话中:`/model` * 默认:编辑 `~/.codex/config.toml`,设置 `model = "gpt-5.5"` * **OpenAI 系列**:✅ 完整支持(推荐 `gpt-5.5` / `gpt-5.4` / `gpt-5.3-codex`) * **其他厂商聚合模型**:API易支持,但 Codex CLI 本身偏向 OpenAI 协议——非 OpenAI 模型可能在 tool use / function call 协议上有差异 * 想用 Claude / Gemini 系列做编程,建议用对应原生 CLI(如 Claude Code) * **CLI**:适合开发期效率工具 * **生产**:建议直接调用 API(更可控、可监控、可灰度) **卸载 CLI**: ```bash theme={null} npm uninstall -g @openai/codex ``` **停用 API易 配置**:删除环境变量与配置文件即可。 ```bash theme={null} # Mac/Linux:编辑 ~/.zshrc 或 ~/.bashrc 删掉 OPENAI_* 两行 rm ~/.codex/config.toml # Windows:从「系统环境变量」中删除 OPENAI_BASE_URL / OPENAI_API_KEY ``` ## 八、总结 这类接入本质就一句话: > **把 OpenAI 的入口换成 API易** 核心两行: ```bash theme={null} export OPENAI_BASE_URL="https://api.apiyi.com/v1" export OPENAI_API_KEY="sk-你的APIYI密钥" ``` 剩下都是锦上添花——选模型、写提示词、自定义 `instructions.md` / `AGENTS.md`。 ## 相关资源 管理 API 密钥与查看用量 用 Claude 系列做命令行编程 所有可用模型与定价 通用调用规范 # Cursor Source: https://docs.apiyi.com/scenarios/programming/cursor AI 驱动的代码编辑器集成指南 # Cursor Cursor 是一款 AI 驱动的代码编辑器,通过集成 API易,您可以在编写代码时获得强大的 AI 辅助功能。 ## 快速配置 ### 1. 打开设置 点击右上角的齿轮图标 ⚙️,选择 **Models** 选项 ### 2. 配置 API * **OpenAI API Key**:输入您的 API易 密钥(直接用默认令牌即可) * **Override OpenAI Base URL**:勾选并输入 `https://api.apiyi.com/v1` * 点击 **Verify** 验证配置 Cursor 配置界面 ### 3. 模型配置 **重要说明**:Cursor 目前**不支持 Agent 模式**,只能使用 Chat 聊天对话模式。您可以在对话过程中让 AI 生成代码,然后手动应用到实际代码中。 如果您是新手并且非常依赖 Agent 模式进行 Vibe Coding,建议: * 购买 Cursor 官方会员使用其原生服务 * 或使用替代方案:VS Code 的 **RooCode** 或 **Cline** 插件(支持 Agent 模式) #### 推荐模型配置 Cursor 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek 等。 查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ## 使用模式说明 ### Chat 模式工作流程 由于 Cursor 不支持 Agent 模式,推荐以下工作流程: 1. **对话生成代码** * 使用 `Ctrl/Cmd + L` 打开聊天 * 描述您的需求,让 AI 生成代码 * 查看生成的代码片段 2. **手动应用代码** * 从聊天窗口复制代码 * 粘贴到目标文件 * 或使用 "Apply" 按钮(如果可用) 3. **迭代优化** * 继续对话要求修改 * 重复应用过程 ### 替代方案对比 | 工具 | Agent 模式 | 优势 | 劣势 | | ---------------------- | -------- | ------------------- | ---------- | | **Cursor** | ❌ | 界面优雅,补全体验好 | 无 Agent 模式 | | **Cline (VS Code)** | ✅ | 完整 Agent 功能,可自动修改文件 | 需要 VS Code | | **RooCode (VS Code)** | ✅ | Agent 模式,支持多文件编辑 | 较新,功能还在完善 | | **Continue (VS Code)** | ✅ | 开源,可定制性强 | 配置较复杂 | ## 核心功能 ### 智能代码补全 * **Tab 补全**:按 Tab 接受 AI 建议 * **多行补全**:支持函数级别的代码生成 * **上下文感知**:基于项目结构提供建议 ### AI 对话 * **Ctrl/Cmd + K**:打开命令面板 * **Ctrl/Cmd + L**:侧边栏对话 * **代码解释**:选中代码后询问 AI ### 代码编辑 * **生成代码**:描述需求,AI 自动生成 * **重构建议**:获取优化建议 * **错误修复**:AI 协助定位和修复错误 ## 快捷键 | 快捷键 | 功能 | | -------------- | ------- | | `Ctrl/Cmd + K` | AI 命令面板 | | `Ctrl/Cmd + L` | AI 对话 | | `Tab` | 接受代码建议 | | `Esc` | 取消建议 | ## 使用技巧 ### 1. 提供清晰的上下文 ```javascript theme={null} // @context: React组件,用于用户认证 // @requirements: 需要支持OAuth2登录 // @constraints: 兼容NextJS 13+ // AI会基于这些信息生成更准确的代码 ``` ### 2. 优化提示词 ``` // 不好的提示 "修复这个函数" // 好的提示 "修复calculateTotal函数中的浮点数精度问题,确保金额计算准确到小数点后两位" ``` ### 3. 充分利用 Chat 模式 虽然没有 Agent 模式,但可以: * 让 AI 生成完整的文件内容 * 要求 AI 提供详细的修改说明 * 使用 AI 进行代码审查和重构建议 ## 故障排除 ### 连接超时 1. 检查网络连接 2. 确认 API 地址:`https://api.apiyi.com/v1` 3. 验证 API 密钥有效性 ### 模型不响应 1. 检查账户余额 2. 尝试切换模型 3. 重启 Cursor ### 代码建议质量差 1. 提供更多项目上下文 2. 使用更具体的提示词 3. 尝试不同模型 ## 最佳实践 ### 项目级配置 在项目根目录创建 `.cursor-settings.json`: ```json theme={null} { "model": "gpt-4.1", "temperature": 0.7, "contextFiles": ["README.md", "package.json"], "rules": [ "使用TypeScript严格模式", "遵循ESLint规范", "添加适当的注释" ] } ``` ### 代码规范 在提示中明确代码规范: * 使用 TypeScript * 遵循 Airbnb 规范 * 添加 JSDoc 注释 * 使用函数式风格 ### 安全意识 * 不在代码中包含敏感信息 * 审查 AI 生成的代码 * 验证第三方依赖安全性 ## 集成工作流 ### Git 集成 ```bash theme={null} # AI 生成 commit message git add . # 使用 Cursor AI 生成描述性的提交信息 ``` ### 测试驱动开发 1. 先写测试用例 2. 让 AI 生成实现代码 3. 运行测试验证 4. 迭代优化 ### 代码审查 使用 AI 进行代码审查: ``` 请审查这段代码,关注: 1. 性能问题 2. 安全漏洞 3. 代码规范 4. 最佳实践 ``` ## 需要 Agent 模式? 如果您需要 AI 能够自动修改多个文件、执行复杂的重构任务,推荐查看: VS Code 中功能完整的 AI Agent,支持自动修改文件 新兴的 VS Code AI Agent 插件,支持多文件编辑 **提示**:如果您是 Vibe Coding 爱好者,需要 AI 自主完成复杂编程任务,建议使用支持 Agent 模式的工具,或考虑购买 Cursor 官方会员以获得完整体验。 需要更多帮助?请访问 [API易官网](https://api.apiyi.com) 获取支持。 # Gemini CLI Source: https://docs.apiyi.com/scenarios/programming/gemini-cli 通过 API易 使用 Gemini CLI 进行 AI 辅助编程,支持代码生成、代码审查、智能问答等功能 ## 概述 Gemini CLI 是 Google 官方推出的命令行工具,允许您在终端中直接与 Gemini AI 模型交互。通过 API易 中转,您可以: * 🚀 在终端中快速调用 Gemini 模型 * 💻 进行 AI 辅助编程和代码生成 * 🔍 代码审查和优化建议 * 📝 技术问答和文档生成 * 🌐 跨平台使用(Linux、macOS、Windows) **为什么选择 API易?** 通过 API易 使用 Gemini CLI,您可以享受更稳定的网络连接、更优惠的价格,以及 7×24 小时技术支持。 ## 快速开始 ### 前置要求 * Node.js >= 18.0.0 * npm 或 yarn 包管理器 * API易 账号和 API Key ### 第一步:安装 Gemini CLI ```bash npm theme={null} # 检查 Node.js 版本 node --version # 需要 >= 18 # 全局安装 Gemini CLI npm install -g @google/gemini-cli # 验证安装 gemini --version ``` ```bash yarn theme={null} # 检查 Node.js 版本 node --version # 需要 >= 18 # 使用 yarn 安装 yarn global add @google/gemini-cli # 验证安装 gemini --version ``` ### 第二步:获取 API易 密钥 访问 `api.apiyi.com` 注册或登录您的账号 进入后台「令牌管理」页面(`api.apiyi.com/token`),点击「创建新令牌」 复制生成的 API Key(格式:`sk-***`),妥善保存 ### 第三步:配置环境变量 **重要配置**:`GOOGLE_GEMINI_BASE_URL` 必须设置为 `https://api.apiyi.com`,不能有多余的路径(如 `/v1` 或 `/gemini`),否则会导致连接失败。 ```bash theme={null} # 编辑 .zshrc 文件 nano ~/.zshrc # 添加以下环境变量 export GOOGLE_GEMINI_BASE_URL="https://api.apiyi.com" export GEMINI_API_KEY="sk-your-api-key" # 替换为你的 API易 密钥 # 保存后重新加载配置 source ~/.zshrc ``` ```bash theme={null} # 编辑 .bashrc 文件 nano ~/.bashrc # 添加以下环境变量 export GOOGLE_GEMINI_BASE_URL="https://api.apiyi.com" export GEMINI_API_KEY="sk-your-api-key" # 替换为你的 API易 密钥 # 保存后重新加载配置 source ~/.bashrc ``` ```powershell theme={null} # 设置环境变量 $env:GOOGLE_GEMINI_BASE_URL="https://api.apiyi.com" $env:GEMINI_API_KEY="sk-your-api-key" # 永久保存(可选) [System.Environment]::SetEnvironmentVariable('GOOGLE_GEMINI_BASE_URL', 'https://api.apiyi.com', 'User') [System.Environment]::SetEnvironmentVariable('GEMINI_API_KEY', 'sk-your-api-key', 'User') ``` ```cmd theme={null} # 临时设置环境变量 set GOOGLE_GEMINI_BASE_URL=https://api.apiyi.com set GEMINI_API_KEY=sk-your-api-key # 永久保存(需要管理员权限) setx GOOGLE_GEMINI_BASE_URL "https://api.apiyi.com" setx GEMINI_API_KEY "sk-your-api-key" ``` ### 第四步:初始化和测试 ```bash theme={null} gemini ``` 在交互界面中输入: ```bash theme={null} /auth ``` 选择:**Gemini API Key (AI Studio)** ```bash theme={null} # 简单测试 gemini "Hello, 测试连接是否正常" # 编程相关测试 gemini "解释一下 React Hooks 的使用方法" gemini "编写一个 Python 函数来计算斐波那契数列" ``` ## 核心功能 ### 代码生成 ```bash theme={null} gemini "用 Python 写一个快速排序算法,包含详细注释" ``` **输出示例**: ```python theme={null} def quick_sort(arr): """ 快速排序算法 时间复杂度:平均 O(n log n),最坏 O(n²) 空间复杂度:O(log n) """ if len(arr) <= 1: return arr pivot = arr[len(arr) // 2] left = [x for x in arr if x < pivot] middle = [x for x in arr if x == pivot] right = [x for x in arr if x > pivot] return quick_sort(left) + middle + quick_sort(right) ``` ```bash theme={null} gemini "创建一个 Express.js REST API 项目结构,包含用户认证和数据库配置" ``` ```bash theme={null} gemini "为这个函数编写 Jest 单元测试: function fibonacci(n) { if (n <= 1) return n; return fibonacci(n - 1) + fibonacci(n - 2); }" ``` ### 代码审查 ```bash theme={null} # 审查代码质量 gemini "审查以下代码的性能问题和潜在 bug: [粘贴你的代码] " # 安全审计 gemini "检查这段代码的安全漏洞,特别关注 SQL 注入和 XSS 攻击" # 最佳实践建议 gemini "这段 React 组件有什么可以优化的地方?遵循最佳实践吗?" ``` ### 技术问答 ```bash theme={null} # 概念解释 gemini "解释一下 JavaScript 的闭包概念,并给出实际应用场景" # 错误排查 gemini "为什么我的 Promise 没有被正确 resolve?" # 性能优化 gemini "如何优化 React 组件的渲染性能?" # 架构设计 gemini "微服务架构和单体架构的优缺点对比" ``` ### 文档生成 ```bash theme={null} # 生成 README gemini "为我的 Node.js 库生成一个专业的 README.md,包括安装、使用示例、API 文档" # API 文档 gemini "为这个 REST API 端点生成 OpenAPI 3.0 规范文档" # 代码注释 gemini "为以下代码添加详细的 JSDoc 注释" ``` ## 交互式命令 在 Gemini CLI 交互模式下,可以使用以下命令: | 命令 | 说明 | 示例 | | -------- | ------- | ------------------------ | | `/auth` | 重新认证 | `/auth` | | `/model` | 切换模型 | `/model gemini-pro` | | `/clear` | 清除对话历史 | `/clear` | | `/help` | 显示帮助信息 | `/help` | | `/exit` | 退出 CLI | `/exit` 或 `Ctrl+C` | | `/save` | 保存对话到文件 | `/save conversation.txt` | **模型切换**:使用 `/model` 命令可以在不同的 Gemini 模型之间切换,如 `gemini-3-pro-preview`、`gemini-2.5-flash`、`gemini-2.5-pro` 等。 ## 支持的模型 通过 API易,您可以使用以下最新 Gemini 模型: ### Gemini 3 系列(推荐) | 模型 | 适用场景 | 特点 | | --------------------------------- | ------------ | ----------------------- | | **gemini-3-pro-preview** | 高质量代码生成、复杂推理 | 🏆 性能最强,LMArena 排行榜全球第一 | | **gemini-3-pro-preview-thinking** | 超复杂推理、算法设计 | 🧠 思维链输出,深度推理能力 | ### Gemini 2.5 系列 | 模型 | 适用场景 | 特点 | | ------------------------- | ---------- | -------------- | | **gemini-2.5-pro** | 专业级代码生成 | ⚡ 高性能,100 万上下文 | | **gemini-2.5-flash** | 快速响应、日常开发 | 🚀 速度快,成本低 | | **gemini-2.5-flash-lite** | 轻量级任务、批量调用 | 💰 超低成本,高频调用 | **推荐配置**: * 复杂编程任务、架构设计:`gemini-3-pro-preview` * 日常代码生成、问答:`gemini-2.5-flash` * 批量处理、快速迭代:`gemini-2.5-flash-lite` 查看 API易 支持的所有 Gemini 模型、详细价格和性能对比 ## 高级用法 ### VS Code 集成 在 VS Code 中使用 Gemini CLI 扩展: ```json theme={null} { "gemini.apiKey": "sk-your-api-key", "gemini.baseUrl": "https://api.apiyi.com", "gemini.model": "gemini-3-pro-preview", "gemini.temperature": 0.7, "gemini.maxTokens": 4000 } ``` ### GitHub Actions 集成 自动化代码审查: ```yaml theme={null} name: Gemini Code Review on: pull_request: branches: [ main ] jobs: review: runs-on: ubuntu-latest steps: - uses: actions/checkout@v3 - uses: actions/setup-node@v3 with: node-version: '18' - name: Install Gemini CLI run: npm install -g @google/gemini-cli - name: Run Code Review env: GEMINI_API_KEY: \${{ secrets.GEMINI_API_KEY }} GOOGLE_GEMINI_BASE_URL: https://api.apiyi.com run: | gemini "审查这个 Pull Request 的代码质量、安全性和性能: $(git diff origin/main...HEAD)" ``` ### 批处理脚本 创建自动化脚本: ```bash theme={null} #!/bin/bash # 批量代码审查 for file in src/**/*.js; do echo "Reviewing $file..." gemini "审查文件 $file 的代码质量" < "$file" done # 生成项目文档 gemini "为整个项目生成技术文档大纲" < README.md ``` ## 常见问题 **检查清单**: 1. **环境变量是否正确**: ```bash theme={null} echo $GOOGLE_GEMINI_BASE_URL echo $GEMINI_API_KEY ``` 确保输出为: * `GOOGLE_GEMINI_BASE_URL`: `https://api.apiyi.com`(不要有 /v1 或其他路径) * `GEMINI_API_KEY`: `sk-` 开头的完整密钥 2. **重新加载环境变量**: ```bash theme={null} source ~/.zshrc # 或 source ~/.bashrc ``` 3. **重启终端**:完全关闭并重新打开终端窗口 4. **验证 API Key**:登录 API易 后台确认 Key 是否有效且余额充足 在交互模式下使用 `/model` 命令: ```bash theme={null} /model gemini-3-pro-preview /model gemini-3-pro-preview-thinking /model gemini-2.5-flash ``` 或在命令行直接指定: ```bash theme={null} gemini --model gemini-3-pro-preview "你的问题" gemini --model gemini-2.5-flash "快速测试" ``` **方法一**:使用 `/save` 命令 ```bash theme={null} /save conversation-2025-01-01.txt ``` **方法二**:重定向输出 ```bash theme={null} gemini "你的问题" > output.txt gemini "你的问题" | tee output.txt # 同时显示和保存 ``` **方法三**:使用会话管理 ```bash theme={null} gemini --session my-project "继续之前的讨论" ``` **推荐使用 nvm 管理 Node.js 版本**: ```bash theme={null} # 安装 nvm curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash # 安装 Node.js 18+ nvm install 18 nvm use 18 nvm alias default 18 # 验证版本 node --version ``` **可能原因和解决方案**: 1. **网络问题**:API易 提供国内优化节点,通常响应很快 2. **模型选择**:使用 `gemini-2.5-flash` 或 `gemini-2.5-flash-lite` 获得最快响应 3. **Token 限制**:减少单次请求的复杂度 4. **并发请求**:避免同时发送大量请求 **测试连接速度**: ```bash theme={null} time gemini --model gemini-2.5-flash "Hello" ``` **推荐使用 PowerShell**: 1. 安装 Node.js(从官网下载安装包) 2. 以管理员身份运行 PowerShell 3. 设置环境变量: ```powershell theme={null} [System.Environment]::SetEnvironmentVariable('GOOGLE_GEMINI_BASE_URL', 'https://api.apiyi.com', 'User') [System.Environment]::SetEnvironmentVariable('GEMINI_API_KEY', 'sk-your-key', 'User') ``` 4. 重启 PowerShell 5. 安装和使用 Gemini CLI **或使用 WSL**(Windows Subsystem for Linux)获得更好的体验。 ## 最佳实践 ### 提示词优化 ❌ "优化这段代码" ✅ "优化这段代码的性能,重点关注循环效率和内存使用" ❌ "这个函数有什么问题?" ✅ "这是一个用于处理用户登录的函数,目前遇到异步错误,帮我找出问题" ❌ "帮我完成整个项目" ✅ "第一步:设计数据库模型;第二步:创建 API 路由;第三步:..." ❌ "解释闭包" ✅ "解释 JavaScript 闭包,并给出 3 个实际应用场景和代码示例" ### 工作流建议 清晰描述要解决的问题或实现的功能 使用 Gemini CLI 生成初步解决方案或代码 要求 AI 审查自己生成的代码,找出潜在问题 根据反馈逐步优化,直到满足需求 生成必要的注释和文档 ## 价格说明 使用 API易 调用 Gemini 模型的费用取决于您选择的模型和使用量。 查看所有 Gemini 模型的详细定价和性价比对比 API易 提供充值优惠:充值越多,加赠比例越高(10%-22%)。首次充值还可获得额外加赠。查看 [充值活动详情](/faq/recharge-promotions)。 ## 相关资源 * [Gemini CLI 官方文档](https://ai.google.dev/gemini-api/docs/cli) * [API易 快速开始指南](/quickstart) * [模型推荐和价格对比](/api-capabilities/model-info) * [充值优惠活动](/faq/recharge-promotions) * [API 使用手册](/api-manual) ## 获取帮助 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 技术咨询、使用指导 **客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com) **商务合作**:[business@apiyi.com](mailto:business@apiyi.com) **快速上手**:按照本文的「快速开始」章节,5 分钟即可完成配置并开始使用 Gemini CLI! # OpenCode Source: https://docs.apiyi.com/scenarios/programming/opencode 开源 AI 编码代理,支持终端/IDE/桌面多平台,通过 API易 配置获得稳定高效的编程体验 ## 概述 OpenCode 是一款完全开源的 AI 编码代理,基于 TypeScript 和 AI SDK 构建,提供终端 TUI、IDE 集成和桌面应用多种使用方式。项目在 GitHub 拥有 94.9k+ Star,社区活跃。 通过配置 API易 服务,您可以获得: 终端 TUI、VS Code 扩展、桌面应用一应俱全 通过 Models.dev 支持 75+ LLM 提供商 语言服务器协议支持,智能代码理解 支持多会话并行处理和会话共享 **项目信息**:OpenCode 是活跃维护的开源项目,官网 `opencode.ai`,项目地址 `github.com/anomalyco/opencode`。 ## 环境准备 ### 安装 OpenCode ```bash theme={null} curl -fsSL https://opencode.ai/install | bash ``` ```bash theme={null} npm i -g opencode-ai@latest ``` ```bash theme={null} brew install anomalyco/tap/opencode ``` Scoop: ```bash theme={null} scoop install opencode ``` Chocolatey: ```bash theme={null} choco install opencode ``` ```bash theme={null} paru -S opencode-bin ``` 从官网 `opencode.ai` 下载对应系统的桌面应用: * macOS (Apple Silicon / Intel) * Windows * Linux (AppImage / deb) 验证安装: ```bash theme={null} opencode --version ``` ## 快速配置 OpenCode 使用 JSON 配置文件,支持多种配置位置(按优先级从低到高): 1. 远程配置(`.well-known/opencode`) 2. 全局配置:`~/.config/opencode/opencode.json` 3. 自定义配置:`OPENCODE_CONFIG` 环境变量指定的路径 4. 项目配置:项目根目录 `opencode.json` 5. `.opencode` 目录配置 6. 内联配置:`OPENCODE_CONFIG_CONTENT` 环境变量 ### 方法一:自定义 Provider(推荐) 创建或编辑配置文件 `~/.config/opencode/opencode.json`: ```json theme={null} { "$schema": "https://opencode.ai/config.json", "provider": { "apiyi": { "npm": "@ai-sdk/openai-compatible", "name": "API易", "options": { "baseURL": "https://api.apiyi.com/v1", "apiKey": "{env:APIYI_API_KEY}" }, "models": { "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", "limit": { "context": 200000, "output": 8192 } }, "gpt-4.1": { "name": "GPT-4.1", "limit": { "context": 1047576, "output": 32768 } }, "deepseek-chat": { "name": "DeepSeek V3", "limit": { "context": 65536, "output": 8192 } }, "gemini-2.5-pro-preview-05-06": { "name": "Gemini 2.5 Pro", "limit": { "context": 1048576, "output": 65536 } } } } }, "model": "apiyi/claude-sonnet-4-20250514" } ``` 然后设置环境变量: ```bash theme={null} # zsh echo 'export APIYI_API_KEY="sk-你的API易密钥"' >> ~/.zshrc source ~/.zshrc # bash echo 'export APIYI_API_KEY="sk-你的API易密钥"' >> ~/.bashrc source ~/.bashrc ``` PowerShell: ```powershell theme={null} [System.Environment]::SetEnvironmentVariable('APIYI_API_KEY', 'sk-你的API易密钥', 'User') ``` 或在系统环境变量中添加 `APIYI_API_KEY`。 ### 方法二:/connect 命令认证 OpenCode 提供 `/connect` 命令快速连接新的 Provider: 1. 启动 OpenCode 后输入 `/connect` 2. 选择 "Other" 3. 输入 provider ID(如 `apiyi`) 4. 输入 API 密钥 然后在配置文件中补充 provider 和 models 定义即可使用。 ### 方法三:覆盖现有 Provider 如果只想快速使用,可以覆盖内置 OpenAI provider 的 baseURL: ```json theme={null} { "provider": { "openai": { "options": { "baseURL": "https://api.apiyi.com/v1", "apiKey": "{env:APIYI_API_KEY}" } } } } ``` ### 方法四:项目级配置 在项目根目录创建 `opencode.json` 文件,配置仅对当前项目生效: ```json theme={null} { "$schema": "https://opencode.ai/config.json", "provider": { "apiyi": { "npm": "@ai-sdk/openai-compatible", "name": "API易", "options": { "baseURL": "https://api.apiyi.com/v1", "apiKey": "{env:APIYI_API_KEY}" }, "models": { "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", "limit": { "context": 200000, "output": 8192 } } } } }, "model": "apiyi/claude-sonnet-4-20250514" } ``` ## Agent 系统 OpenCode 内置三种 Agent,各司其职: | Agent | 说明 | 使用方式 | | ----------- | ----------------------- | ------------- | | **build** | 默认代理,拥有完全访问权限,负责代码生成和修改 | 直接对话 | | **plan** | 只读代理,用于代码分析和规划,不会修改文件 | `/plan` 命令 | | **general** | 复杂搜索子代理,用于多步骤信息检索 | `@general` 调用 | ### Agent 模型配置 可以为不同 Agent 配置不同模型: ```json theme={null} { "provider": { "apiyi": { "npm": "@ai-sdk/openai-compatible", "name": "API易", "options": { "baseURL": "https://api.apiyi.com/v1", "apiKey": "{env:APIYI_API_KEY}" }, "models": { "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", "limit": { "context": 200000, "output": 8192 } }, "deepseek-chat": { "name": "DeepSeek V3", "limit": { "context": 65536, "output": 8192 } }, "gpt-4.1-mini": { "name": "GPT-4.1 Mini", "limit": { "context": 1047576, "output": 32768 } } } } }, "agents": { "build": { "model": "apiyi/claude-sonnet-4-20250514" }, "plan": { "model": "apiyi/deepseek-chat" }, "general": { "model": "apiyi/gpt-4.1-mini" } } } ``` ## 推荐模型 OpenCode 通过 API易 支持 200+ 主流 AI 模型,可根据不同任务选择合适的模型。 查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。 ### 场景化模型推荐 | Agent | 用途 | 推荐模型 | | ------- | ------- | -------------------------- | | build | 代码生成和修改 | Claude Sonnet 4、GPT-4.1 | | plan | 任务规划和分析 | DeepSeek V3、Gemini 2.5 Pro | | general | 快速搜索和问答 | GPT-4.1 Mini(低成本) | ## 核心功能 ### 终端交互界面 启动 OpenCode 进入交互式 TUI 界面: ```bash theme={null} # 在当前目录启动 opencode # 指定项目目录 opencode /path/to/project ``` ### 文件操作 OpenCode 可以读取、搜索和修改项目文件: ```text theme={null} > 查看 src/index.ts 的内容 > 在项目中搜索所有包含 "TODO" 的文件 > 将 utils.ts 中的 calculateSum 函数重构为更高效的实现 ``` ### 命令执行 支持在终端中执行命令并查看结果: ```text theme={null} > 运行 npm test 并分析失败的测试 > 执行 npm install 并检查是否有依赖冲突 ``` ### 会话管理 * **多会话并行**:可以同时运行多个会话 * **会话共享**:支持会话导出和分享 * **自动保存**:所有会话自动持久化 * **上下文保持**:会话期间保持完整的对话上下文 ## 使用技巧 ### 1. 快捷键操作 | 快捷键 | 功能 | | -------- | ----------- | | `Ctrl+C` | 中断当前操作 | | `Ctrl+D` | 退出 OpenCode | | `Tab` | 自动补全 | | `↑/↓` | 浏览历史命令 | ### 2. 常用命令 | 命令 | 功能 | | ---------- | ------------------ | | `/connect` | 连接新的 Provider | | `/model` | 切换当前模型 | | `/plan` | 使用 plan agent 进行分析 | | `/clear` | 清除当前会话 | | `/help` | 查看帮助信息 | ### 3. 调用子代理 使用 `@general` 调用搜索子代理处理复杂查询: ```text theme={null} > @general 在代码库中找到所有处理用户认证的文件,并总结它们的功能 ``` ### 4. 增量式开发 ```text theme={null} {/* 第一步:生成基础框架 */} > 创建一个 REST API 的基础结构 {/* 第二步:添加具体功能 */} > 添加用户认证中间件 {/* 第三步:完善细节 */} > 添加请求参数验证和错误处理 ``` ## 故障排除 1. 检查环境变量是否正确设置: ```bash theme={null} echo $APIYI_API_KEY # macOS/Linux echo %APIYI_API_KEY% # Windows ``` 2. 确认配置文件中的 baseURL: ```json theme={null} "baseURL": "https://api.apiyi.com/v1" ``` 3. 测试 API 连通性: ```bash theme={null} curl -H "Authorization: Bearer $APIYI_API_KEY" \ https://api.apiyi.com/v1/models ``` 确认模型 ID 正确,可在 API易 控制台查看支持的模型列表。 常见模型 ID: * `claude-sonnet-4-20250514` * `gpt-4.1` * `deepseek-chat` * `gemini-2.5-pro-preview-05-06` 配置文件加载优先级(从低到高): 1. 远程配置(`.well-known/opencode`) 2. 全局配置:`~/.config/opencode/opencode.json` 3. `OPENCODE_CONFIG` 环境变量 4. 项目配置:`opencode.json` 5. `.opencode` 目录配置 6. `OPENCODE_CONFIG_CONTENT` 环境变量 确保配置文件位于正确位置,且 JSON 格式正确。 1. 尝试使用更轻量的模型(如 GPT-4.1 Mini) 2. 减少上下文长度,开启新会话 3. 检查网络连接稳定性 ## 最佳实践 ### 1. 模型选择策略 | 任务类型 | 推荐模型 | 原因 | | ------ | --------------- | ------------ | | 复杂代码生成 | Claude Sonnet 4 | 编程能力强,上下文理解好 | | 代码审查 | GPT-4.1 | 分析能力强,细节把控好 | | 快速问答 | DeepSeek V3 | 响应快,性价比高 | | 长文档分析 | Gemini 2.5 Pro | 支持超长上下文 | ### 2. 高效提示词 ```text theme={null} ❌ 不好的提示:帮我写代码 ✅ 好的提示:使用 TypeScript 编写一个 HTTP 中间件, 实现请求日志记录,包含请求方法、路径、 响应时间和状态码,使用 pino 输出 ``` ### 3. 安全注意事项 * 不要在代码中硬编码 API 密钥 * 使用环境变量管理敏感信息 * 审查 AI 生成的代码,特别是涉及安全的部分 * 注意不要让 AI 执行危险的系统命令 ### 4. 成本控制 * 为不同 Agent 配置不同模型(build 用强模型,general 用轻量模型) * 简单任务使用轻量模型 * 定期查看 API易 控制台监控用量 ## 替代方案 如果 OpenCode 不能满足需求,可以考虑以下工具: Anthropic 官方终端编程助手 OpenAI 官方命令行工具 Google 官方终端编程助手 VS Code AI 编程插件 ## 相关资源 管理 API 密钥和查看使用量 查看编程场景模型推荐 # Roo Code (VS Code) Source: https://docs.apiyi.com/scenarios/programming/roo-code VS Code 中的 AI 开发团队 - 支持多模式配置的智能编程助手 ## 概述 Roo Code 是一款强大的 VS Code AI 编程助手插件,为您提供一个完整的 AI 开发团队。它最大的特色是**多模式配置**,允许针对不同的开发任务使用不同的 AI 模型,实现最佳的开发效率。 **核心优势** * 🎯 **多模式配置**:为架构、编码、调试等不同任务分配专门的模型 * 🤖 **Agent 智能体**:自动规划和执行复杂的开发任务 * 🔄 **多文件操作**:理解项目结构,智能修改多个文件 * 💰 **完全免费**:开源免费,只需支付 AI 模型使用费用 * 🌐 **广泛兼容**:支持 200+ 主流 AI 模型 * 🔌 **MCP 支持**:通过 Model Context Protocol 连接外部工具 **Roo Code vs Cline** Roo Code 是 Cline 的一个分支项目,保留了 Cline 的核心功能,同时添加了独特的多模式配置系统。如果您需要为不同开发阶段使用不同模型,Roo Code 是更好的选择。 ## 快速安装 ### 方式一:VS Code 扩展商店(推荐) 在 VS Code 中按 `Ctrl+Shift+X` (Windows/Linux) 或 `Cmd+Shift+X` (macOS) 搜索 "Roo Code" 并点击安装 **扩展 ID**:`RooVeterinaryInc.roo-cline` 安装完成后,点击左侧活动栏的 Roo Code 图标 ### 方式二:Open VSX Registry 访问 [Open VSX Registry](https://open-vsx.org/) 搜索 Roo Code 进行安装。 ## 配置 API易 ### 基础配置 点击 Roo Code 侧边栏的**齿轮图标**(设置按钮) 在 API Provider 下拉菜单中选择 **OpenAI Compatible** **Base URL**: `https://api.apiyi.com/v1` **API Key**: 您的 API易 密钥(格式:`sk-***`) **Model Name**: 输入您要使用的模型名称 点击保存,Roo Code 会自动验证连接 **Base URL 配置要求**: * 必须使用 `https://api.apiyi.com/v1`(包含 `/v1` 路径) * 不要使用 `https://api.apiyi.com`(缺少 `/v1` 会导致连接失败) ### 获取 API易 密钥 登录 `api.apiyi.com` 进入「令牌管理」页面(`api.apiyi.com/token`),点击「创建新令牌」 复制生成的 API Key(格式:`sk-***`),并粘贴到 Roo Code 配置中 ## 多模式配置(核心特性) Roo Code 的独特之处在于可以为不同的开发模式分配不同的 AI 模型,实现专业化分工。 ### 五大开发模式 **架构模式** - 用于系统设计和架构规划 **适合模型**: * Claude Sonnet(推理能力强,擅长架构设计) * GPT-4o(全面的技术知识) * DeepSeek V3(深度思考,性价比高) **典型任务**: ```text theme={null} 设计一个微服务架构的电商系统: - 用户服务 - 商品服务 - 订单服务 - 支付服务 使用 Docker + Kubernetes 部署 ``` **编码模式** - 用于实际代码生成和编写 **适合模型**: * Claude Sonnet(代码质量高) * DeepSeek Coder(专业编程模型) * Qwen Coder(中文注释友好) **典型任务**: ```text theme={null} 实现用户认证模块: - JWT token 生成和验证 - 密码加密(bcrypt) - 登录/注册接口 - 权限中间件 ``` **问答模式** - 用于技术咨询和实现规划 **适合模型**: * GPT-4o-mini(快速响应,成本低) * Gemini Flash(速度快) * DeepSeek Chat(性价比高) **典型任务**: ```text theme={null} 问:如何优化 React 组件的渲染性能? 问:Redux 和 Zustand 的区别是什么? 问:如何处理 Node.js 中的内存泄漏? ``` **调试模式** - 用于错误排查和问题修复 **适合模型**: * GPT-4o(理解复杂错误) * Claude Sonnet(代码分析能力强) * DeepSeek V3(深度分析) **典型任务**: ```text theme={null} 调试这个错误: TypeError: Cannot read property 'map' of undefined 帮我找出以下代码中的内存泄漏问题 分析为什么这个异步函数没有正确执行 ``` **编排模式** - 用于复杂任务的分解和协调 **适合模型**: * Claude Opus(处理复杂任务) * GPT-4o(全局规划能力强) * DeepSeek V3(逻辑推理) **典型任务**: ```text theme={null} 将整个项目从 JavaScript 迁移到 TypeScript: 1. 分析现有代码结构 2. 创建类型定义文件 3. 逐步转换各模块 4. 更新配置文件 5. 运行测试验证 ``` ### 配置多模式 在 Roo Code 设置中找到 **Mode Configuration** 区域 可以为每个模式单独配置: * API Provider * Model Name * Temperature(创造性参数) * Max Tokens 在 Roo Code 界面中,通过模式选择器切换当前使用的模式 **推荐配置策略**: * **Architect/Orchestrator** → 使用高质量模型(Claude Sonnet, GPT-4o) * **Code** → 使用专业编程模型(DeepSeek Coder, Claude Sonnet) * **Ask** → 使用快速经济模型(GPT-4o-mini, Gemini Flash) * **Debug** → 使用分析能力强的模型(Claude Sonnet, GPT-4o) ## 推荐模型 Roo Code 通过 API易 支持 200+ 主流 AI 模型,包括 OpenAI、Google Gemini、Claude、DeepSeek、国产模型等。 查看最新的编程模型推荐、性能对比和使用建议。包括顶级性能模型、高性价比模型、推理增强模型等详细分类。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ## 核心功能 ### Agent 智能体模式 Roo Code 最强大的功能是 **Agent 模式**,AI 可以自主规划和执行复杂任务: ```text theme={null} 任务:创建一个完整的用户认证系统 Roo Code 会自动: 1. 分析需求,制定实现计划 2. 创建必要的文件和目录结构 3. 编写后端 API 代码 4. 创建前端登录/注册页面 5. 添加错误处理和验证 6. 生成单元测试 7. 更新相关文档 ``` ### 多文件智能编辑 理解项目结构,自动修改多个相关文件: ```text theme={null} "将所有 API 调用从 axios 改为 fetch,并更新错误处理逻辑" Roo Code 会: - 找到所有使用 axios 的文件 - 转换为 fetch API - 统一错误处理模式 - 更新类型定义(如果使用 TypeScript) ``` ### 代码生成 ```python Python theme={null} # 输入描述 """ 创建一个 FastAPI 端点,实现用户注册功能: - 接收 email 和 password - 验证邮箱格式 - 密码加密存储 - 返回 JWT token """ # Roo Code 自动生成完整实现 from fastapi import APIRouter, HTTPException from passlib.hash import bcrypt import jwt # ... 完整的代码实现 ``` ```javascript JavaScript theme={null} // 输入需求 // 创建一个 React Hook 用于管理表单状态 // 支持验证、错误提示、提交处理 // Roo Code 生成 import { useState, useCallback } from 'react'; export function useForm(initialValues, validationRules) { // ... 完整的 Hook 实现 } ``` ```go Go theme={null} // 需求:实现一个并发安全的缓存 // 支持 Set、Get、Delete、清理过期数据 // Roo Code 生成完整的 Go 代码 package cache import ( "sync" "time" ) type Cache struct { // ... 完整实现 } ``` ### 代码审查和优化 ```text theme={null} 审查这个 PR,关注: - 代码规范 - 性能问题 - 安全漏洞 - 潜在 bug - 可读性改进 ``` Roo Code 会提供详细的审查报告和改进建议。 ### 智能重构 ```text theme={null} 重构这个函数,要求: - 提高可读性 - 优化性能 - 添加错误处理 - 改进类型安全 ``` ### 测试生成 ```text theme={null} 为 UserService 类生成完整的单元测试,包括: - 正常流程测试 - 边界条件测试 - 错误处理测试 - Mock 外部依赖 ``` ## 常用命令 Roo Code 提供了丰富的命令面板命令: | 命令 | 快捷键 | 功能 | | ----------------------- | ---------------- | --------- | | Roo Code: New Task | `Ctrl+Shift+L` | 开始新任务 | | Roo Code: Continue | `Enter` | 继续当前任务 | | Roo Code: Approve | `Ctrl+Enter` | 批准 AI 的更改 | | Roo Code: Reject | `Ctrl+Backspace` | 拒绝更改 | | Roo Code: Clear History | - | 清除对话历史 | | Roo Code: Switch Mode | - | 切换开发模式 | **快捷键提示**:可以在 VS Code 的键盘快捷方式设置中自定义 Roo Code 的快捷键。 ## 高级功能 ### API Configuration Profiles 为不同项目或团队创建不同的 API 配置文件: ```json theme={null} { "roocode.apiProfiles": { "production": { "provider": "OpenAI Compatible", "baseUrl": "https://api.apiyi.com/v1", "apiKey": "sk-prod-key", "defaultModel": "claude-sonnet-4" }, "development": { "provider": "OpenAI Compatible", "baseUrl": "https://api.apiyi.com/v1", "apiKey": "sk-dev-key", "defaultModel": "deepseek-chat" } } } ``` ### Codebase Indexing Roo Code 会自动索引您的代码库,理解项目结构: * 自动发现文件关系 * 理解代码依赖 * 智能上下文感知 * 跨文件引用追踪 ### MCP 集成 通过 Model Context Protocol 连接外部工具: * 数据库查询 * API 调用 * 文件系统操作 * Git 操作 * 自定义工具集成 ### 自定义提示词模板 在设置中配置常用的提示词模板: ```json theme={null} { "roocode.customTemplates": { "codeReview": "详细审查代码,关注性能、安全、可维护性", "optimize": "优化代码性能和可读性,添加必要的注释", "test": "生成全面的单元测试,覆盖边界情况", "refactor": "重构代码,遵循 SOLID 原则和设计模式" } } ``` ## 使用技巧 ### 1. 提供清晰的上下文 "优化这个函数" "优化这个函数的性能,重点关注循环效率和内存使用,添加适当的注释说明优化思路" ### 2. 分步骤执行复杂任务 对于复杂任务,建议分解为多个步骤: 使用 **Architect Mode** 设计整体架构 切换到 **Code Mode** 实现各个模块 使用 **Debug Mode** 排查问题 使用 **Orchestrator Mode** 协调整合 ### 3. 利用模式切换 针对不同任务类型切换最合适的模式: * 需要设计架构?→ Architect Mode * 写代码实现?→ Code Mode * 快速咨询?→ Ask Mode * 遇到 Bug?→ Debug Mode * 复杂重构?→ Orchestrator Mode ### 4. 审查和批准更改 **重要习惯**: * 始终审查 AI 生成的代码再批准 * 理解每个更改的目的 * 测试修改后的功能 * 保持代码库的一致性 ## 常见问题 **主要区别**: 1. **多模式配置**:Roo Code 的核心特性,Cline 不支持 2. **代码库**:Roo Code 是 Cline 的 Fork,但在独立开发 3. **更新频率**:Roo Code 更新更频繁,功能迭代快 4. **社区**:两者都有活跃的社区,但侧重点不同 **如何选择**: * 需要多模式?→ Roo Code * 需要稳定性?→ Cline * 都可以免费试用,选择最适合自己的 **常见原因和解决方案**: 1. **Base URL 错误**: * ✅ 正确:`https://api.apiyi.com/v1` * ❌ 错误:`https://api.apiyi.com` 2. **API Key 无效**: * 检查 Key 是否正确复制(注意首尾空格) * 确认账户余额充足 * 验证 Key 状态为「启用」 3. **模型名称错误**: * 确保使用正确的模型名称 * 参考[模型列表](/api-capabilities/model-info) 4. **网络问题**: * 检查网络连接 * 尝试重启 VS Code **配置步骤**: 1. 打开 Roo Code 设置(齿轮图标) 2. 找到 **Mode Configuration** 区域 3. 为每个模式单独设置: * Architect Mode → `claude-sonnet-4` * Code Mode → `deepseek-coder` * Ask Mode → `gpt-4o-mini` * Debug Mode → `claude-sonnet-4` * Orchestrator Mode → `gpt-4o` 4. 保存配置 在使用时,通过模式选择器切换即可。 **不会自动修改**,需要您的批准: 1. Roo Code 会先展示建议的更改 2. 您可以: * 查看 Diff(差异对比) * 批准(Apply)更改 * 拒绝(Reject)更改 * 修改后再批准 3. 所有更改都在您的控制之下 建议启用版本控制(Git),这样可以随时回退不满意的更改。 **省钱策略**: 1. **智能选择模型**: * 简单任务用便宜的模型(GPT-4o-mini, DeepSeek) * 复杂任务才用高级模型(Claude Opus, GPT-4o) 2. **利用多模式配置**: * Ask Mode → 用最便宜的模型 * Code/Debug Mode → 用中等价位的专业模型 * Architect Mode → 仅在需要时用高级模型 3. **充值优惠**: * API易 提供充值加赠(10%-22%) * 查看[充值活动](/faq/recharge-promotions) 4. **控制上下文长度**: * 清除不必要的对话历史 * 专注当前任务,减少无关上下文 **几乎所有主流编程语言**,包括但不限于: * **Web**: JavaScript, TypeScript, HTML, CSS, React, Vue, Angular * **后端**: Python, Java, Go, Rust, C++, C#, PHP, Ruby * **移动**: Swift, Kotlin, Dart (Flutter), React Native * **数据**: SQL, R, Julia * **其他**: Shell, YAML, JSON, Markdown 效果取决于: * 选择的 AI 模型 * 模型的训练数据 * 语言的流行程度 ## 对比其他工具 | 特性 | Roo Code | Cline | Cursor | GitHub Copilot | | ------------ | -------- | ----- | ------ | -------------- | | **多模式配置** | ✅ | ❌ | ❌ | ❌ | | **Agent 模式** | ✅ | ✅ | ❌ | ❌ | | **多文件编辑** | ✅ | ✅ | 部分 | ❌ | | **自定义 API** | ✅ | ✅ | ✅ | ❌ | | **免费开源** | ✅ | ✅ | ❌ | ❌ | | **模型选择** | 200+ | 200+ | 有限 | GitHub 独家 | | **学习曲线** | 中等 | 中等 | 低 | 低 | **选择建议**: * **需要多模式配置** → Roo Code * **需要稳定成熟** → Cline * **需要简单易用** → Cursor * **GitHub 深度集成** → GitHub Copilot ## 价格说明 Roo Code 插件本身**完全免费**,您只需支付 AI 模型的使用费用。 通过 API易 使用 AI 模型的费用取决于您选择的模型和使用量。 查看所有模型的详细定价和性价比对比 API易 提供充值优惠:充值越多,加赠比例越高(10%-22%)。首次充值还可获得额外加赠。查看 [充值活动详情](/faq/recharge-promotions)。 ## 相关资源 * [Roo Code 官方网站](https://roo-code.net/) * [Roo Code 官方文档](https://docs.roocode.com/) * [GitHub 仓库](https://github.com/RooCodeInc/Roo-Code) * [VS Code 扩展商店](https://marketplace.visualstudio.com/items?itemName=RooVeterinaryInc.roo-cline) * [API易 快速开始](/quickstart) * [模型推荐和价格](/api-capabilities/model-info) ## 获取帮助 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 配置问题、使用指导 **客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com) **商务合作**:[business@apiyi.com](mailto:business@apiyi.com) **快速上手**:按照本文的「快速安装」和「配置 API易」章节,5 分钟即可开始使用 Roo Code 进行 AI 辅助编程! # Bob 翻译 Source: https://docs.apiyi.com/scenarios/translation/bob macOS 上的专业翻译工具集成指南 # Bob 翻译 Bob 是 macOS 上一款优秀的翻译软件,支持划词翻译、截图翻译等功能。通过集成 API易,您可以使用 AI 模型提供更准确、更自然的翻译结果。 ## 快速配置 ### 1. 安装 Bob 从 [Bob 官网](https://bobtranslate.com) 下载并安装最新版本。 ### 2. 配置 API易 1. 打开 Bob 设置(菜单栏图标 > 偏好设置) 2. 切换到"服务"标签页 3. 添加 OpenAI 翻译服务 4. 配置参数: * **API Key**:您的 API易 密钥 * **API URL**:`https://api.apiyi.com` * **模型**:`gpt-3.5-turbo` ### 3. 测试配置 点击"测试"按钮验证配置,显示成功后保存。 ## 使用方法 ### 划词翻译 1. 选中需要翻译的文本 2. 按下快捷键(默认 `⌥ + D`) 3. Bob 弹出翻译结果 ### 截图翻译 1. 按下截图快捷键(默认 `⌥ + S`) 2. 框选需要翻译的区域 3. Bob 识别并翻译图片中的文字 ### 输入翻译 1. 调出 Bob 窗口(默认 `⌥ + Space`) 2. 输入或粘贴要翻译的文本 3. 选择目标语言 4. 查看翻译结果 ## 模型选择 ### 不同场景的推荐 查看最新的模型推荐,了解适合不同翻译场景的最佳模型选择,包括日常翻译、专业文档、长文本处理等。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ### 多模型配置 可以配置多个翻译服务,使用不同模型: 1. 添加多个 OpenAI 翻译服务 2. 为每个服务配置不同模型 3. 在翻译时选择使用 ## 高级设置 ### 自定义提示词 优化翻译质量的提示词模板: ```text theme={null} 你是一位专业的翻译专家,精通多国语言。请将以下{source_lang}文本翻译成{target_lang}。 要求: 1. 保持原文的语气和风格 2. 使用地道的表达方式 3. 对于专业术语,在翻译后用括号标注原文 4. 注意文化差异,适当调整表达 原文:{text} ``` ### 快捷键自定义 在设置 > 通用中自定义: * **划词翻译**:`⌥ + D` * **截图翻译**:`⌥ + S` * **输入翻译**:`⌥ + Space` * **显示/隐藏**:`⌥ + B` ### 翻译行为设置 推荐配置: * **自动识别语言**:开启 * **翻译后自动复制**:根据需求 * **保留原文格式**:开启 * **历史记录**:开启 ## 使用技巧 ### 1. 专业领域翻译 针对特定领域,可以在提示词中说明: ```text theme={null} 请作为计算机专业译者,翻译以下技术文档。 保留所有技术术语的英文,用括号标注中文含义。 ``` ### 2. 批量翻译 需要翻译大量文本时: 1. 使用输入翻译模式 2. 将文本分段粘贴 3. 利用历史记录查看所有翻译 ### 3. 对照阅读 阅读外文资料时: 1. 开启"显示原文"选项 2. 使用划词翻译实时查看 3. 对比原文和译文学习 ### 4. 术语库管理 建立个人术语库: 1. 收藏常用术语翻译 2. 自定义特定词汇翻译 3. 导出术语库备份 ## 常见问题 ### 翻译速度慢 **原因分析:** * 网络连接问题 * 选择的模型较大 * API 服务繁忙 **解决方案:** 1. 检查网络连接 2. 使用 gpt-3.5-turbo 等快速模型 3. 避开高峰时段 ### 翻译不准确 **改进方法:** 1. 使用更高级的模型(如 GPT-4) 2. 优化提示词,提供更多上下文 3. 对专业内容说明领域 ### API 配额用尽 **处理方式:** 1. 检查 API易 账户余额 2. 合理使用不同模型控制成本 3. 设置每日使用限制 ## 最佳实践 ### 1. 成本控制 * 日常翻译使用 gpt-3.5-turbo * 重要文档才使用 gpt-4 * 定期查看使用统计 ### 2. 翻译质量 * 提供充足的上下文 * 使用专业术语时说明领域 * 对重要内容进行二次校对 ### 3. 工作流优化 * 设置常用语言对 * 自定义专业领域提示词 * 善用历史记录和收藏功能 ### 4. 数据安全 * 不翻译包含敏感信息的文本 * 定期清理翻译历史 * 妥善保管 API 密钥 ## 进阶功能 ### URL Scheme 集成 Bob 支持通过 URL Scheme 集成到其他应用: ```bash theme={null} # 直接翻译文本 bob://translate?text=Hello&from=en&to=zh # 打开 Bob 窗口 bob://open ``` ### AppleScript 自动化 ```applescript theme={null} tell application "Bob" translate "Hello World" from "en" to "zh" end tell ``` ### 导出功能 定期导出翻译记录: 1. 进入历史记录 2. 选择时间范围 3. 导出为 CSV 或 JSON 格式 ## 与其他工具集成 ### Raycast 集成 通过 Raycast 扩展快速调用 Bob: ```javascript theme={null} // Raycast 脚本示例 import { showToast, Toast } from "@raycast/api"; import { exec } from "child_process"; export default async function Command() { exec("open bob://translate", (error) => { if (error) { showToast(Toast.Style.Failure, "启动 Bob 失败"); } }); } ``` ### Alfred 工作流 创建 Alfred 工作流实现快速翻译: 1. 创建新工作流 2. 添加 Keyword 触发器 3. 连接 Run Script 动作 4. 调用 Bob 的 URL Scheme ### PopClip 扩展 安装 PopClip 的 Bob 扩展,选中文本后直接翻译。 ## 故障排除 ### 服务不可用 检查项目: 1. API 密钥是否正确 2. 网络连接是否正常 3. API易 服务状态 ### 快捷键冲突 解决方法: 1. 在系统偏好设置中检查快捷键冲突 2. 为 Bob 设置独特的快捷键组合 3. 禁用冲突应用的快捷键 ### 权限问题 确保 Bob 具有必要权限: * 辅助功能权限 * 屏幕录制权限(截图翻译) * 键盘输入权限 ## 性能优化 ### 减少延迟 1. 使用更快的模型 2. 启用本地缓存 3. 优化网络设置 ### 节省资源 1. 合理设置翻译历史保留时间 2. 定期清理缓存 3. 避免同时运行多个翻译服务 ### 提升体验 1. 调整弹窗显示时间 2. 自定义界面主题 3. 优化字体大小和样式 需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/bob-translator)。 # 沉浸式翻译 Source: https://docs.apiyi.com/scenarios/translation/immersive 浏览器双语对照阅读扩展集成指南 # 沉浸式翻译 沉浸式翻译是一款优秀的浏览器翻译扩展,支持网页双语对照阅读。通过集成 API易,您可以使用强大的 AI 模型获得更准确、更自然的翻译效果。 ## 快速安装 ### 支持的浏览器 * Chrome / Edge / Brave * Firefox * Safari ### 安装步骤 1. 访问对应浏览器的扩展商店 2. 搜索"沉浸式翻译"或"Immersive Translate" 3. 点击安装并添加到浏览器 或访问 [官网](https://immersive-translate.owenyoung.com/) 获取安装链接。 ## 配置 API易 ### 1. 打开设置 点击浏览器工具栏的扩展图标,选择"设置"。 ### 2. 配置翻译服务 1. 在左侧菜单选择"翻译服务" 2. 找到"OpenAI"服务 3. 点击"管理"或"设置" 4. 选择"自定义 API Key" ### 3. 填写配置 * **APIKEY**:输入您的 API易 密钥 * **自定义 API 接口地址**:`https://api.apiyi.com/v1/chat/completions` * **自定义模型**:`gpt-3.5-turbo`(可选) ## 核心功能 ### 网页翻译 #### 自动翻译 1. 访问外文网页 2. 扩展自动检测语言 3. 点击翻译按钮开始 #### 手动翻译 1. 点击工具栏扩展图标 2. 选择"翻译本页" 3. 等待翻译完成 ### 翻译模式 #### 双语对照(推荐) * 保留原文格式 * 译文显示在原文下方 * 便于对照学习 #### 仅译文 * 完全替换原文 * 适合快速阅读 * 可随时切换回双语 ### 划词翻译 1. 选中需要翻译的文本 2. 点击出现的翻译按钮 3. 在弹窗中查看翻译结果 ## 高级设置 ### 自定义提示词 针对不同内容类型的提示词: #### 技术文档 ```text theme={null} 作为技术文档翻译专家,请: 1. 保留所有技术术语的原文 2. 在括号中提供中文解释 3. 保持代码和命令的原始格式 ``` #### 学术论文 ```text theme={null} 作为学术翻译专家,请: 1. 使用学术规范的表达方式 2. 保留引用格式 3. 准确翻译专业术语 ``` #### 文学作品 ```text theme={null} 作为文学翻译专家,请: 1. 保持原文的文学美感 2. 注意文化背景的转换 3. 保留修辞手法的效果 ``` ### 翻译规则 设置特定网站的翻译行为: 1. 进入"翻译规则"设置 2. 添加网站域名 3. 选择行为: * 总是翻译 * 从不翻译 * 智能判断 ### 样式定制 自定义译文显示样式: ```css theme={null} /* 译文字体 */ .immersive-translate-target { font-family: "Microsoft YaHei", sans-serif; font-size: 14px; color: #333; } /* 译文背景 */ .immersive-translate-target-wrapper { background-color: #f5f5f5; padding: 5px; margin: 5px 0; border-radius: 3px; } ``` ## 特色功能 ### PDF 翻译 支持在线 PDF 文档翻译: * 保持 PDF 格式 * 支持双语对照 * 可复制译文 ### 视频字幕翻译 支持主流视频网站: * YouTube * Netflix * Bilibili 配置方法: 1. 开启"视频字幕翻译" 2. 选择字幕显示方式 3. 调整字幕样式 ### 电子书翻译 支持 EPUB 电子书: 1. 上传 EPUB 文件 2. 选择翻译设置 3. 下载双语版本 ### 输入框翻译 在网页输入框中实时翻译: 1. 在输入框输入文本 2. 按快捷键触发翻译 3. 查看翻译建议 ## 快捷键 常用快捷键(可自定义): | 功能 | 默认快捷键 | | ------- | --------- | | 翻译/显示原文 | `Alt + T` | | 切换翻译模式 | `Alt + M` | | 翻译选中文本 | `Alt + S` | | 打开设置 | `Alt + O` | ## 模型选择建议 ### 按内容类型选择 查看最新的模型推荐,了解适合不同翻译场景和内容类型的最佳模型选择,包括技术文档、学术论文、文学作品等。 **为什么不在此列出具体模型?** AI 模型更新迭代速度非常快,为了确保您获取最准确的模型推荐信息,我们统一在 [模型推荐页面](/api-capabilities/model-info) 维护最新的模型列表、性能数据和使用建议。 ### 性能与质量平衡 根据文本长度和内容类型,可以在沉浸式翻译的设置中灵活选择合适的模型,以达到翻译质量和成本的最佳平衡。 ## 性能优化 ### 缓存设置 * 开启翻译缓存 * 设置缓存时长:24小时 * 定期清理缓存 ### 批量翻译 * 调整批量大小:5-10 段落 * 设置合理并发数:2-3 * 优化长文本处理 ### 触发条件 * 最小翻译长度:10 个字符 * 忽略特定元素:导航菜单、广告 * 延迟翻译:200ms ## 常见问题 ### 翻译失败 **可能原因:** * API 密钥无效 * 网络连接问题 * 页面结构特殊 **解决方案:** 1. 验证 API 密钥 2. 检查网络连接 3. 尝试刷新页面 4. 查看浏览器控制台错误 ### 翻译速度慢 **优化方法:** 1. 使用更快的模型 2. 减少单次翻译文本量 3. 开启缓存功能 4. 检查网络延迟 ### 格式错乱 **处理方式:** 1. 尝试不同翻译模式 2. 调整译文显示设置 3. 针对特定网站自定义规则 4. 反馈问题给开发者 ## 最佳实践 ### 1. 阅读体验优化 * 选择合适的字体和大小 * 调整译文颜色对比度 * 设置舒适的行间距 * 使用护眼模式 ### 2. 学习辅助 * 开启双语对照模式 * 使用划词翻译查询生词 * 导出翻译内容复习 * 添加笔记和标注 ### 3. 工作效率 * 设置常访问网站规则 * 自定义专业领域提示词 * 使用快捷键提高速度 * 批量处理文档 ### 4. 成本控制 * 合理选择翻译模型 * 设置翻译长度限制 * 利用缓存减少重复翻译 * 监控 API 使用量 ## 高级技巧 ### 自定义翻译脚本 使用 JavaScript 增强功能: ```javascript theme={null} // 自动检测并翻译特定内容 if (document.querySelector('.article-content')) { window.immersiveTranslate.translate({ selector: '.article-content', fromLang: 'auto', toLang: 'zh-CN' }); } ``` ### 集成其他工具 与其他工具配合使用: * **Readwise**:保存翻译的精彩内容 * **Notion**:导出翻译笔记 * **Anki**:制作单词卡片 ### 开发者模式 参与翻译改进: 1. 开启调试模式 2. 提供翻译反馈 3. 贡献翻译语料 4. 参与开源开发 ## 故障排除指南 ### 扩展无法加载 1. 检查浏览器版本兼容性 2. 禁用其他冲突扩展 3. 清除浏览器缓存 4. 重新安装扩展 ### 翻译结果不显示 1. 检查网页是否支持翻译 2. 确认翻译服务配置正确 3. 查看是否被广告拦截器阻止 4. 尝试其他翻译服务 ### 内存占用过高 1. 定期清理翻译缓存 2. 减少同时翻译的页面数 3. 调整批量翻译设置 4. 关闭不必要的标签页 需要更多帮助?请查看 [详细集成文档](/api-reference/integrations/immersive-translate)。 # Chat Completions Source: https://docs.apiyi.com/api-reference/chat/chat-completions /api-reference/apiyi-openapi-en.yaml post /v1/chat/completions Core chat interface, compatible with the OpenAI Chat Completions API format. Supports 200+ AI models — just change the `model` parameter to switch between providers, with no other code changes needed. **Supported providers**: OpenAI, Anthropic, Google, xAI, DeepSeek, Alibaba, Moonshot, and more. **Note**: Streaming output (stream: true) cannot be previewed in the Playground. Use an SDK to test. # Create Embeddings Source: https://docs.apiyi.com/api-reference/embeddings/create-embeddings /api-reference/apiyi-openapi-en.yaml post /v1/embeddings Convert text into vector representations (embeddings) for use in semantic search, text clustering, recommendation systems, and more. Supports single text or batch text input. # List Models Source: https://docs.apiyi.com/api-reference/models/list-models /api-reference/apiyi-openapi-en.yaml get /v1/models Retrieve the list of all currently available models. The returned list includes model ID, creation time, owner, and other information. Can be used to check if a specific model is available. # 网站公告 Source: https://docs.apiyi.com/changelog API易最新动态、模型更新、价格调整等重要公告 欢迎来到 API易 的更新日志页面。在这里,您可以了解到我们的最新模型上线、价格调整、功能更新等重要信息。我们致力于为您提供最优质、最具性价比的 AI 服务。 **收藏更新**:Ctrl+D 收藏本网页,查看我们的公告,第一时间获取模型上新和优惠信息,不错过任何重要更新! ## 🔥 最新动态 最近更新的重要内容: * **5/3 Grok 4.3 上线** xAI 全新旗舰模型!Intelligence Index 53、GDPval-AA ELO 1500(+321)、τ²-Bench 98%、IFBench 81%,1M 上下文 + 多模态 + 159 t/s。挂牌 \$1.25/\$2.50 每 1M tokens(输入降 37.5%、输出降 58.3% vs Grok 4.20),阶梯计费 0-200K 标准价、200K-∞ 2x。**Default、SVIP 等常用分组全开放**,充值赠 10% 约官网 85 折! * **5/3 GPT-5.5 Pro 上线** OpenAI 当前最强推理模型!Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9%,1.05M 上下文 + 128K 输出。阶梯计费 0-272K \$30/\$180、272K-∞ \$60/\$270 每 1M tokens。**仅 SVIP 分组开放**,单次调用可能数美金,未对 Default 默认分组开放,防止误用! * **4/28 Qwen3.6 开源双模上线** API易官转托管 · 免租卡!`qwen3.6-27b`(27B 稠密,编程对标 397B)+ `qwen3.6-35b-a3b`(与闭源 Flash 同源 MoE)开源权重接入 API易:按量付费 Chat 平价不分档,27b \$0.42/\$2.52、35b-a3b \$0.26/\$1.56 每 1M tokens,免去客户租 GPU、运维推理框架! * **4/27 Qwen3.6-Max-Preview / Flash 上线** 阿里云官转双模上架!Max-Preview 在 SWE-bench Pro / Terminal-Bench 2.0 等 6 项编程基准登顶(AIME 2025 93%、GPQA 86%),Flash 35B-A3B MoE 支持 1M 多模态上下文。挂牌 Max \$1.28/\$7.68、Flash \$0.17/\$1.02 每 1M tokens,定价持平官网,叠加充值活动约 8.5 折! * **4/25 GPT-5.5 官转上线** OpenAI 最新前沿模型!SWE-bench Verified 88.7%、幻觉率较 GPT-5.4 降低 60%,reasoning.effort 新增 `xhigh` 档(共 none/low/medium/high/xhigh 五档),1.05M 上下文 + 128K 输出。定价持平官网:\$5 输入 / \$30 输出 / \$0.50 缓存输入,每百万 tokens! * **4/25 Kimi K2.6 上线** 月之暗面开源旗舰!1T MoE / 32B 激活,256K 上下文,SWE-Bench Pro 58.6 反超 GPT-5.4 与 Claude Opus 4.6。华为云官转 \$0.60 输入 / \$2.40 输出(每 1M tokens),约官网 6 折,支持 Function Call 与前缀续写! * **4/24 DeepSeek V4 双模型上线** Pro(1.6T/49B 激活)与 Flash(284B/13B 激活)!1M 上下文 + Hybrid Attention 架构,Agentic Coding 开源 SOTA、SWE-Verified 80.6 接近 Claude/Gemini,Flash 仅 \$0.14/M 输入,官方同价叠加约 85 折! * **4/23 gpt-image-2 上线** OpenAI 旗舰图像生成模型!原生 2K/4K(最大 3840×2160)任意分辨率,参考图自动高保真,同档降价 20-30%,OpenAI SDK 零改动直连! * **4/22 gpt-image-2-all 上线** GPT 图像生成官逆模型!统一 \$0.03/张按次计费,约 30 秒出图,支持文生图 / 多图融合 / 自然语言改图,文字还原度高、中文提示词原生友好! * **4/20 Nano Banana 2 按量计费微调** 输入 \$0.14→\$0.18/M tokens,输出 \$16.80→\$21.6/M tokens,官方折扣提升至 36%,可叠加充值活动送 20% 额度! * **4/17 Claude Opus 4.7 上线** Anthropic 最新旗舰模型!93 任务编程基准较 Opus 4.6 +13%,Rakuten-SWE-Bench 生产任务 3 倍,工具错误降至 1/3,新增 xhigh 推理档位,价格持平! * **4/14 Nano Banana Pro 价格调整 + 企业高可用分组** 因谷歌资源政策调整,Nano Banana Pro 价格上调至 \$0.09/次,新增 `NanoBananaEnterprise` 高可用兜底分组(1.4x 倍率)! * **4/9 GLM-5.1 上线** 智谱开源最强编程 Agent 模型!SWE-Bench Pro 58.4 击败 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,744B MoE,200K 上下文,支持 8 小时长程任务,MIT 协议开源! * **4/6 Qwen3.6-Plus 上线** 阿里千问最强编程 Agent 模型!MoE 72B 参数仅 18B 有效计算,Terminal-Bench 61.6 超越 Claude Opus 4.5,100 万上下文,始终开启思维链! * **3/31 Gemini Embedding 2 Preview 上线** 谷歌首个原生多模态嵌入模型!MTEB 英文榜首 68.32,支持文本/图片/视频/音频/PDF 五模态统一向量,文本仅 \$0.20/百万 tokens! * **3/30 Seed 2.0 Pro 旗舰版上线** 字节跳动最强推理模型!AIME 2025 达 98.3,Codeforces 3020,Agent 能力出色,价格仅 GPT-5.2 的 1/4~1/6! * **3/24 MiniMax-M2.7 系列上线** 最小 Tier-1 模型!10B 参数 SWE-bench Pro 56.22%,自进化能力,标准版 \$0.3 / highspeed 版 \$0.6 每百万输入 tokens! * **3/22 MiMo-V2 系列上线** 小米万亿参数模型!Pro 版性能逼近 Opus 4.6 价格仅 1/6,Omni 版支持文本/图片/视频/音频四模态! * **3/20 Grok 4.20 Beta 系列上线** xAI 最新 4 款模型!含推理、多智能体、基础及非推理版本,统一定价 \$2/\$6 每百万 tokens! * **3/18 GPT-5.4 Mini / Nano 上线** OpenAI 最强轻量级模型!Mini 速度翻倍接近旗舰水准,Nano 仅 \$0.20/百万输入 tokens,适合 OpenClaw 等场景! * **3/8 Seed 2.0 Lite 上线** 字节跳动高性价比企业级模型!性能超越 Seed 1.8,支持图片/视频/文本多模态输入,适合大规模生产场景! * **3/6 GPT-5.4 / GPT-5.4 Pro 上线** OpenAI 最强旗舰模型!原生计算机使用+深度研究,定价与官网一致,充值加赠 10% 起! * **3/5 Gemini 3.1 Flash Lite Preview 上线** 谷歌最新轻量级模型!专为代理任务优化,100万上下文,多模态输入,官方直连! * **3/4 GPT-5.3 Chat 上线** OpenAI 最新聊天模型!幻觉率降低 26.8%,对话更自然,官方直连通道接入! * **3/1 模型名称后缀 -c 说明** 带 -c 后缀的模型是按次计费版本,与无后缀版本能力完全相同\~ * **3/1 Nano Banana 2 价格调整** 按次计费 \$0.055/次,新增按量计费(低至官网28%),512px 低至 \$0.025/张! * **2/27 Nano Banana 2** 谷歌最新图像生成模型!Pro级画质+Flash级速度,14种宽高比,图像搜索Grounding! * **1/25 Sora 2 官转分组** OpenAI 官方 API 透明转发上线!99.99% 稳定性,按秒计费(\$0.1/秒起),支持图生视频! * **12/18 Gemini 3 Flash Preview** 谷歌最新高性能快速模型!SWE-bench 78% 超越 3 Pro,速度快 3 倍,MMMU-Pro 81.2% 击败所有竞品! * **12/17 GPT Image 1.5** OpenAI 最新图片生成模型!4倍速度提升,精准编辑保持细节一致,文本渲染大幅增强! * **12/11 GPT-5.2 系列** OpenAI 推出三大版本反击 Gemini 3!ARC-AGI-1 达 90%,首个突破该阈值,成本降低 390 倍! * **12/04 SeeDream 4.5** BytePlus火山方舟最强 4K 图像生成模型!12亿参数,文本渲染大幅提升,支持10张参考图像,\$0.035/张! * **11/25 Claude Opus 4.5** Anthropic 最新旗舰模型!SWE-bench 80.9% 超越所有竞品,价格降至前代 1/3,支持 Claude Code! * **11/20 Nano Banana Pro (Gemini 3 Pro Image Preview)** 谷歌最新图像生成模型!支持 4K 高清出图,强大文本渲染,局部编辑能力! * **11/20 Gemini 3 Pro Preview** 谷歌最新多模态智能模型!LMArena 1501 Elo 第一,100万上下文,支持思维链输出! * **11/14 GPT-5.1 全系列** OpenAI 最新迭代版本!智能与速度平衡,SWE-bench 76.3%,缓存 24 小时! ## 📅 2026年5月 ### 🌟 Grok 4.3 上线:xAI 全新旗舰,输入降 37.5% / 输出降 58.3% **2026年5月3日** xAI 全新旗舰 `grok-4.3` 通过官方直转上线!Intelligence Index 53、GDPval-AA ELO 1500(+321)、τ²-Bench 98%、IFBench 81%,1M 上下文 + 多模态 + 159 t/s 极速输出。挂牌 \$1.25/\$2.50 每 1M tokens,阶梯计费 200K 后翻倍。**Default、SVIP 等常用分组全开放**,充值赠 10% 约官网 85 折。 📖 [查看详情](/news/grok-4-3-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 GPT-5.5 Pro 上线:OpenAI 当前最强推理模型 **2026年5月3日** OpenAI 旗舰推理版本 `gpt-5.5-pro` 通过官方直转通道上线!Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9%,1.05M 上下文 + 128K 输出。阶梯计费:0-272K 区间 \$30/\$180、272K-∞ 区间 \$60/\$270 每 1M tokens。**仅 SVIP 分组开放**,未对 Default 默认分组开放——单次调用可能数美金,防止误用。 📖 [查看详情](/news/gpt-5-5-pro-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ## 📅 2026年4月 ### 🌟 Qwen3.6 开源双模上线:API易官转托管 · 免租卡 **2026年4月28日** Qwen3.6 系列扩展为 5 模型!新增 `qwen3.6-27b`(27B 稠密,编程能力对标 397B 量级模型)与 `qwen3.6-35b-a3b`(与闭源 Flash 同源 MoE / 3B 激活)两款开源权重模型,由 API易 官转托管。按量付费 Chat 平价不分档:27b \$0.42/\$2.52、35b-a3b \$0.26/\$1.56 每 1M tokens,免去客户租 GPU、买算力、运维推理框架的负担。 📖 [查看详情](/news/qwen-3-6-opensource-launch) | 🔗 [系列概览](/api-capabilities/qwen-3-6/overview) ### 🌟 Qwen3.6-Max-Preview / Flash 上线:阿里云官转双模 **2026年4月27日** 通义千问 `qwen3.6-max-preview` 与 `qwen3.6-flash` 通过阿里云官转上线!Max-Preview 在 SWE-bench Pro 等 6 项编程基准登顶(AIME 2025 93%、GPQA 86%),Flash 35B-A3B MoE 支持 1M 多模态上下文。挂牌 Max \$1.28/\$7.68、Flash \$0.17/\$1.02 每 1M tokens,持平官网,充值活动叠加约 8.5 折。 📖 [查看详情](/news/qwen-3-6-max-flash-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 GPT-5.5 官转上线:xhigh 推理新档位 **2026年4月25日** OpenAI 最新前沿模型 `gpt-5.5` 通过官方直转通道上线!SWE-bench Verified 88.7%、幻觉率较 GPT-5.4 降低 60%,reasoning.effort 新增 `xhigh` 档(共 none/low/medium/high/xhigh 五档),1.05M 上下文 + 128K 输出。定价持平官网:\$5 输入 / \$30 输出 / \$0.50 缓存输入,每百万 tokens。 📖 [查看详情](/news/gpt-5-5-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 Kimi K2.6 上线:开源旗舰 Agent 编程登顶 **2026年4月25日** 月之暗面 Kimi K2.6 通过华为云官转上线!1T MoE / 32B 激活、256K 上下文,SWE-Bench Pro 58.6 反超 GPT-5.4 与 Claude Opus 4.6,支持 Function Call 与前缀续写。挂牌 \$0.60 输入 / \$2.40 输出,相比官网 6.5 / 27 元约 6 折。 📖 [查看详情](/news/kimi-k2-6-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 DeepSeek V4-Pro / V4-Flash 上线:百万上下文 + 开源 SOTA **2026年4月24日** DeepSeek 时隔一年发布 V4 预览版!Pro(1.6T/49B 激活)与 Flash(284B/13B 激活)双模型均 1M 上下文 + Hybrid Attention 架构,Agentic Coding 达开源 SOTA、SWE-Verified 80.6 接近 Claude/Gemini。官方同价,Flash 仅 \$0.14 输入 / \$0.28 输出 每 1M tokens,叠加充值活动约 85 折。 📖 [查看详情](/news/deepseek-v4-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 gpt-image-2 上线:原生 4K + 同档降价 30% **2026年4月23日** OpenAI 旗舰图像生成模型 `gpt-image-2` 正式上线!原生支持任意合法分辨率(含 2K / 3840×2160 4K),参考图编辑自动启用高保真,同尺寸同画质成本较 `gpt-image-1.5` 降低 20-30%。OpenAI SDK 把 `base_url` 指向 `api.apiyi.com/v1` 即可零改动直连,适合大图物料生产与角色一致性二创。 📖 [查看详情](/news/gpt-image-2-launch) | 🔗 [接入文档](/knowledge-base/gpt-image-2-API-for-user) ### 🌟 gpt-image-2-all 上线:\$0.03/张 GPT 官逆图像模型 **2026年4月22日** GPT 图像生成官逆模型正式上线!统一 **\$0.03/张** 按次计费、约 30 秒出图,支持文生图、多图融合编辑、自然语言改图。中文提示词原生友好、文字还原度高,尺寸通过 prompt 描述(不接受 size/n/quality 参数),适合中文营销物料与信息图大规模生产。 📖 [查看详情](/news/gpt-image-2-all-launch) | 🔗 [模型介绍](/api-capabilities/gpt-image-2-all/overview) ### 💰 Nano Banana 2 按量计费微调 **2026年4月20日** 因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后小幅调整 Nano Banana 2 按量计费价格:输入 \$0.14→\$0.18/M tokens,输出 \$16.80→\$21.6/M tokens,官方折扣同步提升至 36%。基数小上涨幅度可控,可叠加充值活动最多送 20% 额度,适合日常消费。 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 Claude Opus 4.7 上线:不加价的编程与 Agent 升级 **2026年4月17日** Anthropic 最新旗舰 Claude Opus 4.7 正式上线!93 任务编程基准较 Opus 4.6 +13%,Rakuten-SWE-Bench 生产任务 3 倍,多步工作流 +14% 且工具错误降至 1/3,新增 xhigh 推理档位,价格维持 \$5/\$25 每百万 tokens。同步支持 `claude-opus-4-7-thinking` 深度推理版。 📖 [查看详情](/news/claude-opus-4-7-launch) | 🔗 [充值优惠](/faq/recharge-promotions) ### 💰 Nano Banana Pro 价格调整 & 新增企业高可用分组 **2026年4月14日** 因谷歌官方资源政策调整,Nano Banana Pro(`gemini-3-pro-image-preview`)价格从 \$0.05 调整为 \$0.09/次。同步新增 `NanoBananaEnterprise` 企业高可用分组(倍率 1.4x),作为兜底保障稳定不断供。充值 \$100 起赠送 10%,叠加活动可进一步降低成本。 📖 最佳实践:默认分组 Default + 兜底分组 NanoBananaEnterprise | 🔗 [充值优惠](/faq/recharge-promotions) ### 🌟 GLM-5.1 上线:智谱开源最强编程 Agent 模型 **2026年4月9日** 智谱 Z.AI 旗舰开源模型上线!SWE-Bench Pro 58.4 击败 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,开源模型登顶。744B MoE 架构 / 256 专家 / 激活 8 个,200K 上下文,支持长达 8 小时长程编程任务,MIT 协议开源。 📖 [查看详情](/news/glm-5-1-launch) ### 🌟 Qwen3.6-Plus 上线:阿里千问最强编程 Agent 模型 **2026年4月6日** 阿里通义千问3.6系列首款模型上线!MoE 架构 72B 参数(仅 18B 有效计算),Terminal-Bench 61.6 超越 Claude Opus 4.5,SWE-bench 78.8,100 万 Token 上下文 + 始终开启思维链推理,编程 Agent 能力国产第一。 📖 [查看详情](/news/qwen-3-6-plus-launch) ## 📅 2026年3月 ### 🌟 Gemini Embedding 2 Preview 上线 **2026年3月31日** 谷歌首个原生多模态嵌入模型上线!支持文本/图片/视频/音频/PDF 五种模态统一向量空间,MTEB 英文榜首 68.32 分,3072 维 MRL 灵活降维,文本仅 \$0.20/百万 tokens。 📖 [查看详情](/news/gemini-embedding-2-preview-launch) ### 🌟 Seed 2.0 Pro 旗舰版上线 **2026年3月30日** 字节跳动 Seed 2.0 Pro 旗舰推理模型正式上线!AIME 2025 达 98.3,Codeforces 3020(无工具),SWE-Bench 76.5%,强大 Agent 工作流能力。输入约 \$0.47/百万 tokens,相比 GPT-5.2 便宜约 4-6 倍。 📖 [查看详情](/news/seed-2-0-pro-launch) ### 🌟 MiniMax-M2.7 / M2.7-highspeed 上线 **2026年3月24日** MiniMax 自进化智能体模型 M2.7 系列正式上线!仅 10B 活跃参数即达 Tier-1 性能,SWE-bench Pro 56.22%,Artificial Analysis 智能指数 50。标准版输入 \$0.30 / 输出 \$1.20,highspeed 版输入 \$0.60 / 输出 \$2.40 每百万 tokens,两版输出质量完全一致。 📖 [查看详情](/news/minimax-m2-7-launch) ### 🌟 MiMo-V2-Pro / MiMo-V2-Omni 上线 **2026年3月22日** 小米 MiMo-V2 系列正式上线!MiMo-V2-Pro 万亿参数推理模型,AA 智能指数 49(全球第 8),ClawEval 61.5 逼近 Opus 4.6,输入仅 \$1/百万 tokens(约为竞品 1/6)。MiMo-V2-Omni 全模态理解模型,支持文本/图片/视频/音频输入,输入仅 \$0.40/百万 tokens。 📖 [查看详情](/news/mimo-v2-launch) ### 🌟 Grok 4.20 Beta 系列 4 款新模型上线 **2026年3月20日** xAI 最新 Grok 4.20 Beta 系列 4 款模型全部上线!包括 `grok-4.20-beta-0309-reasoning`(推理)、`grok-4.20-multi-agent-beta-0309`(多智能体)、`grok-4.20-beta`(基础)、`grok-4.20-beta-0309-non-reasoning`(非推理),统一定价输入 \$2 / 输出 \$6 每百万 tokens。 Grok 4.20 Beta 系列模型价格 📖 [查看详情](/news/grok-4-20-beta-launch) ### 🌟 GPT-5.4 Mini / GPT-5.4 Nano 轻量双模型上线 **2026年3月18日** OpenAI 轻量级高性价比模型 GPT-5.4 Mini 和 GPT-5.4 Nano 正式上线!Mini 速度比 GPT-5 Mini 快 2 倍以上,SWE-Bench Pro 54.4% 接近旗舰水准;Nano 输入仅 \$0.20/百万 tokens,极致性价比。定价与官网一致,官转 API 充值约 9 折起,也适合在 OpenClaw 等场景下使用。 📖 [查看详情](/news/gpt-5-4-mini-nano-launch) | 🔗 [API文档](/api-capabilities/openai-sdk) ### 🌟 ByteDance Seed 2.0 Lite 新模型上线 **2026年3月8日** 字节跳动高性价比企业级模型上线!整体性能超越上一代 Seed 1.8,支持图片/视频/文本多模态输入、长上下文处理和高保真结构化输出。适合大规模生产场景,兼顾能力与成本,OpenAI 兼容模式即可调用。 📖 [查看详情](/news/seed-2-0-lite-launch) ### 🌟 GPT-5.4 / GPT-5.4 Pro 重磅上线 **2026年3月6日** OpenAI 最强旗舰模型 GPT-5.4 和 GPT-5.4 Pro 正式上线!原生支持计算机使用、深度研究、高级工具调用等专业能力。定价与官网一致(GPT-5.4:\$2.50/\$15,Pro:\$30/\$180 每百万 tokens),充值 100 美金起享 10% 加赠优惠。 📖 [查看详情](/news/gpt-5-4-launch) | 🔗 [API文档](/api-capabilities/openai) ### 🌟 Gemini 3.1 Flash Lite Preview 上线 **2026年3月5日** 谷歌最新轻量级模型 Gemini 3.1 Flash Lite Preview 正式上线!专为高吞吐量代理任务和低延迟场景优化,支持 100 万上下文、多模态输入(文本/图像/视频/音频/PDF),输入仅 \$0.25/百万 tokens。官方直连通道接入,定价与官网一致。 📖 [查看详情](/news/gemini-3-1-flash-lite-preview-launch) | 🔗 [API文档](/api-capabilities/gemini) ### 🌟 GPT-5.3 Chat 正式上线 **2026年3月4日** OpenAI 最新 GPT-5.3 Instant 聊天模型上线!幻觉率降低 26.8%(联网场景),对话风格更自然,减少不必要的拒绝和说教式回复。价格与 GPT-5.2 一致,性能更优,官方直连通道稳定可靠。 📖 [查看详情](/news/gpt-5-3-chat-launch) | 🔗 [API文档](/api-capabilities/gpt-5-3-chat) ### 🏷️ 模型名称后缀 -c 说明 **2026年3月1日** 带 `-c` 后缀的模型(如 `gemini-3-pro-image-preview-c`)是按次计费版本,与不带后缀的模型能力完全相同,仅计费方式不同。推荐使用"按量优先"令牌自动适配。 📖 [查看详情](/faq/model-name-suffix-c) | 🔗 [令牌计费模式](/faq/token-billing-modes) ## 📅 2026年2月 ### 💰 Nano Banana 2 价格调整 **2026年3月1日** Nano Banana 2 按次计费从 \$0.03 调整为 \$0.055/次,新增按量计费模式(低至官网 28%),512px 低至 \$0.025/张。不同分辨率按需付费,更灵活更实惠。 🔗 [API文档](/api-capabilities/nano-banana-2-image) ### 🌟 Nano Banana 2 震撼上线 **2026年2月27日** 谷歌最新图像生成模型 Nano Banana 2(`gemini-3.1-flash-image-preview`)正式上线!Pro 级画质 + Flash 级速度,支持 4K 输出、14 种宽高比、图像搜索 Grounding 等独家特性。 📖 [查看详情](/news/nano-banana-2-launch) | 🔗 [API文档](/api-capabilities/nano-banana-2-image) ## 📅 2025年1月 ### 🌟 Sora 2 官方直转分组上线 **2025年1月25日** Sora 2 官转分组正式上线!OpenAI 官方 API 透明转发,99.99% 稳定性,按秒计费(\$0.1/秒起),支持 4/8/12 秒时长和图生视频。弥补官逆渠道不稳定的情况,追求画质和稳定性的用户首选。 🔗 [API 文档](/api-capabilities/sora-2-video-official) ## 📅 2025年12月 ### ⚡ Gemini 3 Flash Preview 震撼上线 **2025年12月18日** 谷歌最新高性能快速模型!SWE-bench Verified 78% 超越 Gemini 3 Pro,速度比 2.5 Pro 快 3 倍,MMMU-Pro 81.2% 击败所有竞品。API易同步上线 3 个模型变体(自动推理/强制推理/默认不推理),价格与官网一致(\$0.5/\$3.0 每百万 tokens)。 📖 [查看详情](/news/gemini-3-flash-preview-launch) | 🔗 [API文档](/api-capabilities/gemini) ### 🎨 OpenAI GPT Image 1.5 正式上线 **2025年12月17日** OpenAI 最新图片生成模型 GPT Image 1.5 正式上线!生成速度提升 4 倍,支持精准编辑保持细节一致,文本渲染能力大幅增强。价格与官网一致(低 \$0.01/张、中 \$0.04/张、高 \$0.17/张),充值活动可享额外折扣。 📖 [查看详情](/news/gpt-image-1-5-launch) | 🔗 [API文档](/api-capabilities/openai) ### 🚀 GPT-5.2 系列重磅发布 **2025年12月11日** OpenAI 推出 Instant、Thinking、Pro 三大版本应对竞争!GPT-5.2 Pro 在 ARC-AGI-1 推理测试达 90%,首个突破该阈值的模型,成本相比去年降低 390 倍。GDPval 评测中 70.9% 任务超越行业专业人士,40 万上下文窗口,12.8 万 tokens 单次输出。 📖 [查看详情](/news/gpt-5-2-launch) | 🔗 [API文档](/api-capabilities/openai-chat) ### 🎨 SeeDream 4.5 震撼上线 **2025年12月4日** BytePlus 火山方舟最新图像生成模型 SeeDream 4.5 正式发布!12亿参数架构,更强的 4K 图像生成能力,文本渲染大幅提升,支持最多10张参考图像。价格仅 \$0.035/张,官方提供 200 张免费测试额度。 📖 [查看详情](/news/seedream-4-5-launch) | 🔗 [API文档](/api-capabilities/seedream-image) ## 📅 2025年11月 ### 🚀 Claude Opus 4.5 震撼发布 **2025年11月25日** Anthropic 最新旗舰模型正式上线,编程能力登顶!SWE-bench Verified 达 80.9%,超越 GPT-5.1-Codex-Max 和 Gemini 3 Pro,价格仅为前代 Opus 的 1/3(\$5/\$25 每百万 token)。支持 OpenAI兼容模式/Anthropic 原生格式调用,可在 Claude Code 桌面应用中直接使用。 📖 [查看详情](/news/claude-opus-4-5-launch) | 🔗 [API文档](/api-capabilities/claude) ### 🌟 Gemini 3 Pro Preview 震撼上线 **2025年11月20日** 谷歌最新多模态智能模型上线!LMArena 排行榜 1501 Elo 全球第一,SWE-bench Verified 76.2%,支持 100 万上下文和思维链输出。充值加赠可达 8 折优惠。 📖 [查看详情](/news/gemini-3-pro-preview-launch) ### 🍌 Nano Banana Pro 震撼上线 **2025年11月20日** 谷歌最新图像生成模型 Nano Banana Pro(Gemini 3 Pro Image Preview)正式发布!支持 4K 高清出图,业界最佳文本渲染能力,强大的局部编辑功能。从旧版本迁移只需更改模型名即可。 满血 4K 高清版本定价只需要 \$0.05/张,官方 4K 价格为 \$0.24/张,约为官网 1/5的价格\~! 📖 [查看详情](/news/nano-banana-pro-launch) | 🔗 [API文档](/api-capabilities/nano-banana-image-edit) ### 🚀 GPT-5.1 全系列震撼上线 **2025年11月14日** **GPT-5.1 - OpenAI 智能与速度平衡的迭代升级版** * 🚀 **新增模型**: * `gpt-5.1` - 标准模型 * `gpt-5.1-2025-11-13` - 时间日期版本 * `gpt-5.1-chat-latest` - 对话优化版 * `gpt-5.1-codex` - 长时编程任务专用 * `gpt-5.1-codex-mini` - 轻量编程任务 * 💰 **价格优势**: * 基础定价:与 OpenAI 官网价格完全一致 * 输入 Token: \$1.25 / 百万 tokens * 输出 Token: \$10 / 百万 tokens * 缓存输入 Token: \$0.125 / 百万 tokens (90% 折扣) * 充值加赠活动,实际可达 **8 折优惠** * 🧠 **核心特性**: * **动态自适应推理**:根据任务复杂度自动调整思考时间 * **更快响应速度**:简单任务速度提升 2-5 倍 * **更低 Token 成本**:简单任务 Token 消耗降低 70-88% * **扩展提示缓存**:缓存保留时间延长至 **24 小时** * **更自然对话风格**:更温暖、更具对话性的交互体验 * 🏆 **性能亮点**: * **SWE-bench Verified 76.3%**:比 GPT-5 提升 3.5% * **GPQA Diamond 88.1%**:无工具推理能力显著提升 * **AIME 2025 94.0%**:数学能力保持顶尖水平 * **更强的编程能力**:专为 AI 智能体和编程任务优化 * 🌟 **推理力度控制**: * `none` - 无推理,最快速度(新增) * `low` - 低推理,中等复杂度任务 * `medium` - 中等推理,平衡性能 * `high` - 高推理,最高智能和可靠性 * 🛠️ **新增 API 工具**: * **Apply\_Patch 工具**:自由格式代码补丁,支持创建、更新、删除文件 * **Shell 工具**:允许模型与本地计算机交互,执行命令 * **优先处理**:为 API 客户提供更快的响应速度 * ⚡ **模型变体说明**: * **gpt-5.1**:标准模型,适合大多数场景 * **gpt-5.1-chat-latest**:对话优化,更温暖友好的语调 * **gpt-5.1-codex**:编程专用,SWE-bench 76.3%,审慎决策 * **gpt-5.1-codex-mini**:轻量编程,约 1/4 价格,性能接近 SOTA * 🎯 **推荐场景**: * AI 编程助手(IDE 集成、代码审查) * 智能客服系统(低延迟响应) * 金融和资产管理(数据分析、报告生成) * 教育和研究(复杂问题解答) * 企业自动化(RPA、数据管道) * 📊 **缓存优化**: * 缓存保留时间:24 小时(原几分钟) * 缓存折扣:90% 价格降低 * 无额外费用:缓存写入和存储免费 * 多轮对话成本显著降低 GPT-5.1 是 OpenAI 于 2025 年 11 月 12-13 日发布的 GPT-5 系列迭代升级版本,主打智能与速度的平衡。API易于 11 月 14 日(官网发布次日)第一时间上线全系列模型,与 OpenAI 官方同步,定价与官网一致,充值加赠活动实现 8 折优惠。 ## 📅 2025年10月 ### 🎥 Sora 2 异步 API 正式上线 **2025年10月22日** **Sora 2 异步调用模式 - 灵活的视频生成工作流** * 🚀 **新增功能**: * 异步 API 端点:`/v1/videos` * 三步流程:提交请求 → 轮询状态 → 下载视频 * 支持批量处理和后台任务 * 💰 **价格保持**: * 与同步 API 价格完全一致 * 标准版:\$0.15/次(10秒) * 15秒版本:\$0.25/次 * 视频时长:10秒或15秒可选 * 🌟 **核心特性**: * **独立任务管理**:获得 video\_id 后可随时查询状态 * **灵活轮询策略**:自定义轮询间隔,避免不必要的请求 * **可靠视频下载**:生成完成后独立下载,支持断点续传 * **批量处理支持**:同时提交最多 50 个并发任务 * 🛠️ **完整流程**: 1. **提交请求**:POST `/v1/videos`,返回 video\_id 2. **轮询状态**:GET `/v1/videos/{video_id}`,查看进度 3. **下载视频**:GET `/v1/videos/{video_id}/content`,保存 MP4 * 📊 **典型时间线**: * 请求提交:即时响应(\< 1 秒) * 视频生成:通常 3-5 分钟 * 视频下载:10-30 秒(根据网络速度) * 🎯 **推荐场景**: * 批量视频生成任务 * 后台定时任务 * 需要精细控制流程的场景 * 长时间等待的应用 * 📖 **完整文档**: * 中文文档:[Sora 2 异步 API](/api-capabilities/sora-2-video-async) * 飞书文档:[Sora 2 异步调用完整指南](https://xinqikeji.feishu.cn/wiki/MWfTw8dwmig1IskBlOcc1jR6n7g) * 包含 Python、JavaScript、Bash 等多语言示例代码 Sora 2 异步 API 与同步流式 API 互补,同步 API 适合实时进度反馈,异步 API 适合批量处理。两种模式价格相同,用户可根据具体场景灵活选择。详细对比请参考文档。 ### ⚡ Claude Haiku 4.5 震撼上线 **2025年10月20日** **Claude Haiku 4.5 - Anthropic 高性价比编码模型** * 🚀 **新增模型**:`claude-haiku-4-5-20251001` * 💰 **价格优势**: * 输入价格:\$1 / 1M tokens * 输出价格:\$5 / 1M tokens * 与 Anthropic 官网价格完全一致 * 充值加赠活动,低至 **8 折优惠** * 相比 Claude Sonnet 4.5,成本降低至 **1/3** * 🏆 **世界级编码性能**: * **SWE-bench Verified 73.3%**:世界顶尖编码模型之一 * 媲美 Claude Sonnet 4 的代码生成质量 * 速度提升超过 **2倍** * 成本效率 SOTA(业界领先) * 🧠 **核心特性**: * **200K 超长上下文窗口**:支持处理大型代码库 * **64K 输出 tokens**:生成长篇代码无压力 * **首个支持扩展思维的 Haiku**:深度推理能力 * **电脑使用能力(Computer Use)**:支持自主操作 * **上下文感知**:更精准的代码理解 * 🌟 **多模态支持**: * 同时处理文本和图像 * 支持代码截图理解 * UI 设计转代码 * 图表和架构图分析 * ⚡ **性能亮点**: * 实时低延迟响应,适合聊天助手和客服 * 结对编程体验极佳 * 大幅降低成本的同时保持高智能水平 * 完美兼容 Anthropic API 格式 * 🛠️ **推荐场景**: * AI 聊天助手和客服机器人 * 实时代码生成与补全 * 结对编程助手 * 批量代码处理任务 * 需要高性价比的智能体应用 Claude Haiku 4.5 是 Anthropic 于 10 月 15 日发布的高性价比编码模型,提供与 Sonnet 4 相近的编码性能,但速度提升 2 倍以上,成本降低至 1/3。支持提示缓存(节省 90% 成本)和批处理 API(节省 50% 成本)。详细信息请参考:[Anthropic 官方公告](https://www.anthropic.com/news/claude-haiku-4-5) ### ✨ Gemini 2.5 Flash 最新日期版本上线 **2025年10月12日** **Gemini 2.5 Flash Preview 09-2025 - 谷歌最新版本** * 🚀 **新增模型**:`gemini-2.5-flash-preview-09-2025` * 📅 **版本说明**: * 这是 Gemini 2.5 Flash 的最新日期版本(2025年9月版) * 谷歌官方发布的 Gemini 2.5 Flash 系列最新迭代 * 包含最新的性能优化和功能改进 * 🌟 **核心特性**: * 延续 Gemini 2.5 Flash 系列的强大能力 * 支持超长上下文处理 * 多模态理解能力(文本、图像、视频) * 谷歌最新技术优化和性能提升 * 💰 **价格优势**: * API易提供极具竞争力的定价 * 结合充值加赠活动更优惠 * 官方最新版本,性能更强 * 🛠️ **调用方式**: * 使用标准对话补全端点:`/v1/chat/completions` * 完全兼容 OpenAI API 格式 * 替换模型名称即可使用 gemini-2.5-flash-preview-09-2025 是谷歌官方最新发布的 Gemini 2.5 Flash 日期版本,建议使用最新版本以获得最佳性能和体验。更多信息请参考:[谷歌官方文档](https://cloud.google.com/vertex-ai/generative-ai/docs/models/gemini/2-5-flash?hl=zh-cn) ### 🍌 Gemini 2.5 Flash Image 正式版发布 **2025年10月3日** **Gemini 2.5 Flash Image - 谷歌图像生成正式版** * 🚀 **模型更新**: * 新模型名:`gemini-2.5-flash-image` * 旧模型名:`gemini-2.5-flash-image-preview`(仍可继续使用) * 💰 **价格保持**: * API易定价:\$0.025/张(官网 \$0.039) * 相比官网节省约 **36%** * 继续保持性价比优势 * 🌟 **核心升级**: * **10 种宽高比支持**:从电影级横屏到社交媒体竖屏 * **分辨率自定义**:支持指定输出分辨率 * **正式生产可用**:从预览版升级为正式版 * **仅图像输出**:支持纯图像输出模式 * 🎨 **强大能力**: * 无缝融合多张图片 * 保持角色一致性,丰富故事叙述 * 自然语言精准编辑 * 结合 Gemini 丰富的世界知识 * 🛠️ **调用方式**: * 推荐使用新模型名:`gemini-2.5-flash-image` * 旧模型名 `gemini-2.5-flash-image-preview` 仍可使用 * 其他调用方法保持不变 * 完全兼容现有代码 新版本支持 10 种宽高比和分辨率自定义功能,推荐使用 `gemini-2.5-flash-image` 以获得最佳体验。旧模型名仍可继续使用。 ### 🎬 Sora 2 视频生成 API 上线 **2025年10月1日晚** **Sora 2 - OpenAI 革命性视频生成模型** * 🚀 **新增模型**: * `sora_video2` - 竖屏视频(704×1280) * `sora_video2-landscape` - 横屏视频(1280×704) * `sora-2-pro` - Pro 高清版本(1024×1792) * 💰 **超值定价**: * 标准版本:\$0.15/次(10秒视频) * Pro 版本:\$1.0/次(目前暂停供给,OpenAI 官网限制太严格。) * 结合充值加赠,约 ¥0.8/次起 * 🎥 **核心特性**: * **音视频同步**:业界首个音视频同步生成 * **物理真实性提升**:大幅提升视频真实感 * **无水印输出**:生成视频无水印(官网有水印) * **长视频支持**:最长支持 16 秒连贯叙事 * 🛠️ **生成方式**: * **文生视频**:纯文字描述生成视频 * **图生视频**:支持 1 张图片垫图生成 * 支持 URL 和 Base64 图片上传 * 完整的流式输出进度反馈 * 🌟 **技术亮点**: * 调用端点:`/v1/chat/completions` * 标准 OpenAI API 格式 * 支持流式输出查看进度 * 无需邀请码,即刻使用 Sora 2 是 OpenAI 于 10 月 1 日发布的革命性视频生成模型,定位为视频生成的"GPT-3.5 时刻"。API易第一时间接入官方 API,价格仅 \$0.15/次起,无需邀请码。详细文档:[Sora 2 使用指南](/api-capabilities/sora-2-video) ### 💻 GLM-4.6 强势发布 **2025年10月1日** **GLM-4.6 - 智谱 AI 代码与推理增强版** * 🚀 **新增模型**:`glm-4.6` * 💰 **价格优势**: * 提示价格:\$0.50 / 1M tokens * 补全价格:\$1.75 / 1M tokens * 性价比极高,仅为 Claude 的 1/7 价格 * 🧠 **核心升级**: * **200K 超长上下文**:从 128K 扩展到 20万 Tokens * **代码能力提升**:在 Claude Code、Cline、Roo Code 等 IDE 中表现优异 * **高级推理**:推理性能显著提升,支持推理过程中的工具使用 * **智能体增强**:在工具调用和搜索型智能体中表现更强 * 🌟 **性能亮点**: * **编程**:95.0% 准确率,排名第 95 百分位 * **数学**:96.0% 准确率,排名第 98 百分位 * 与 Claude Sonnet 4 接近(48.6% 胜率) * 明显优于开源基准模型 * ⚡ **写作优化**: * 更符合人类偏好的风格和可读性 * 角色扮演场景表现更自然 * 前端页面生成视觉效果更佳 GLM-4.6 是智谱 AI(现更名为 Z.AI)于 9 月 30 日发布的最新版本,相比 GLM-4.5 在代码生成、推理能力和智能体框架集成方面都有显著提升。 ## 📅 2025年9月 ### 🚀 Claude Sonnet 4.5 震撼上线 **2025年9月30日** **Claude Sonnet 4.5 - Anthropic 最强编码模型** * 🚀 **新增模型**: * `claude-sonnet-4-5-20250929` - 标准版本 * `claude-sonnet-4-5-20250929-thinking` - 推理模式 * 💰 **价格优势**: * 与 Anthropic 官网价格完全一致 * 充值 \$100 以上享受加赠活动 * 结合加赠优惠,约合官网 **8折起** * 定价:\$3 / \$15 per 1M tokens(输入/输出) * 🏆 **世界级编码能力**: * **SWE-bench Verified 77.2%**:全球最强编码模型 * **OSWorld 61.4%**:真实计算机任务测试领先 * 支持 Claude Code,开发体验极佳 * 构建复杂智能体的首选模型 * 🧠 **核心升级**: * **自主运行 30 小时**:相比 Opus 4 的 7 小时大幅提升 * **推理和数学能力显著增强** * 支持复杂多步骤任务持续专注 * 安全性训练全面升级 * 🌟 **实际应用**: * Devin 规划性能提升 18% * 端到端评估分数提升 12% * 适合构建自主软件开发系统 * 企业级复杂业务流程自动化 * 🛠️ **调用方式**: * 标准版:常规对话和编码任务 * Thinking 模式:需要深度推理的复杂问题 * 完全兼容 Anthropic API 格式 Claude Sonnet 4.5 是 Anthropic 于 9 月 29 日发布的最强 AI 模型,被誉为"世界最佳编码模型",能够自主运行长达 30 小时处理复杂任务。API易官网同价,充值享 8 折起优惠。 ### 🧠 DeepSeek-V3.2-exp 抢鲜上线 **2025年9月29日** **DeepSeek-V3.2-exp - DeepSeek 最新实验版本** * 🚀 **新增模型**:`deepseek-v3.2-exp` * 💰 **价格优势**: * 提示价格:\$0.26 / 1M tokens(官网 \$0.28) * 补全价格:\$0.39 / 1M tokens(官网 \$0.42) * 相比官网节省约 **7%** * 人民币计价更优惠(官网 ¥2/¥3) * 🌟 **核心特性**: * 官网直连版本,稳定可靠 * 第一时间上线,满足客户需求 * DeepSeek 最新实验性能力 * 持续迭代优化中 * 🛠️ **调用方式**: * 使用标准 Chat 端点:`/v1/chat/completions` * 兼容 OpenAI API 格式 * 按量计费,简单透明 DeepSeek-V3.2-exp 是 DeepSeek 今日发布的最新实验版本,API易第一时间接入官网直连版本,以略低于官网的价格提供服务。 ### 🤖 GLM-4.5 系列模型上线 **2025年9月26日** **GLM-4.5 - 智谱 AI 高性能语言模型** * 🚀 **新增模型**: * `glm-4.5` - 标准版本 * `glm-4.5-air` - 轻量版本 * `glm-4.5v` - 多模态版本 * 💰 **价格优势**: * 全系定价低于智谱官网 * 在保障稳定性的前提下,提供更优性价比 * 按量计费模式 * 🌟 **核心特性**: * 全面覆盖不同性能需求场景 * 优秀的中文理解和生成能力 * 稳定可靠的 API 服务 * 兼容标准 OpenAI API 格式 GLM-4.5 系列是智谱 AI 的高性能语言模型,API易提供低于官网的优惠价格,在模型覆盖全面性和性价比方面持续为用户提供更好的选择。 ### 🌐 Grok 联网模型正式上线 **2025年9月25日** **Grok-4-all / Grok-3-all - 自带联网能力的智能模型** * 🚀 **新增模型**: * `grok-4-all` - Grok-4 联网增强版 * `grok-3-all` - Grok-3 联网增强版 * 💰 **统一定价**: * 提示价格:\$1.50 / 1M tokens * 补全价格:\$7.50 / 1M tokens * 按量计费,简单透明 * 🌟 **核心特性**: * **原生联网能力**:无需工具调用,模型自带联网功能 * **实时信息获取**:直接访问最新网络数据 * **稳定可靠**:逆向方案但运行稳定 * **即插即用**:无需额外配置 Web Search 工具 * 🛠️ **调用方式**: * 使用标准 Chat 端点:`/v1/chat/completions` * 兼容 OpenAI API 格式 * 模型自动处理联网请求,无需手动调用工具 * ⚡ **适用场景**: * 需要实时信息的问答场景 * 新闻资讯类应用 * 市场动态分析 * 事实核查和验证 * 任何需要最新网络数据的任务 Grok-4-all 和 Grok-3-all 是具备原生联网能力的模型,相比传统的工具调用方式更加便捷,适合需要频繁访问网络信息的应用场景。 ### ⚡ Grok-4-fast 系列震撼上线 **2025年9月24日** **Grok-4-fast - xAI 超长上下文推理模型** * 🚀 **新增模型**: * `grok-4-fast-reasoning` - 推理模式,显示完整思考过程 * `grok-4-fast-non-reasoning` - 非推理模式,快速响应 * `grok-4-fast-reasoning-latest` - 推理模式最新版本 * `grok-4-fast-latest` - 最新标准版本 * 💰 **超低价格**: * 提示价格:\$0.20 / 1M tokens * 补全价格:\$0.50 / 1M tokens * 相比 Grok-4 系列降价 **93%+** * 史上最具性价比的超长上下文模型 * 🧠 **核心特性**: * **200K 超长上下文**:支持高达 20万 Tokens 上下文窗口 * **双模式架构**:统一模型权重,通过系统提示词切换推理模式 * **高效推理**:相比 Grok-4,平均节省 40% 思考 Tokens * **SOTA 成本效率**:业界领先的性价比表现 * 🌟 **技术亮点**: * 端到端工具使用强化学习训练 * 支持 Web 搜索和 X(Twitter)搜索能力 * 内置代码执行能力 * 推理和非推理模式无缝切换 * 🛠️ **调用方式**: * 使用标准 Chat 端点:`/v1/chat/completions` * 兼容 OpenAI API 格式 * 按量计费,简单透明 Grok-4-fast 是 xAI 推出的高性价比长上下文模型,在保持与 Grok-4 相当性能的同时,大幅降低使用成本,非常适合需要处理大量上下文的应用场景。 ### 💻 Grok Code Fast 1 代码专用模型上线 **2025年9月24日** **Grok Code Fast 1 - xAI 代码生成与智能体编程模型** * 🚀 **新增模型**:`grok-code-fast-1` * 💰 **极致性价比**: * 提示价格:\$0.20 / 1M tokens * 补全价格:\$1.50 / 1M tokens * 缓存价格:\$0.02 / 1M tokens * 专为代码场景优化的定价策略 * 🧠 **核心特性**: * **256K 超长上下文**:足够处理大型代码库 * **SWE-Bench 70.8%**:在 SWE-Bench Verified 全集上表现卓越 * **高速生成**:约 92 tokens/秒 的吞吐量 * **MoE 架构**:约 3140亿参数混合专家模型 * 🌟 **技术亮点**: * 全新架构设计,专为代码任务优化 * 支持多种编程语言:TypeScript、Python、Java、Rust、C++、Go * 优化的工具集成:grep、终端操作、文件编辑等 * 智能缓存技术:合作伙伴工作流中缓存命中率超 90% * 🛠️ **推荐场景**: * 从零开始构建项目 * 代码库问题解答 * Bug 修复和代码重构 * 智能体自主编程(Agentic Coding) * IDE 集成开发 * ⚡ **可见推理过程**: * 响应中包含推理轨迹(Reasoning Traces) * 开发者可以引导 Grok Code 实现高质量工作流 * 提升代码生成的可控性和透明度 Grok Code Fast 1 是 xAI 专为编程场景打造的高性能模型,已集成到 GitHub Copilot、Cursor、Cline、Windsurf 等主流 IDE 和编程工具中。 ### 💻 OpenAI Codex 系列模型上线 **2025年9月16日** **GPT-5 Codex - 专为编程场景优化的代码生成模型** * 🚀 **新增模型**: * `gpt-5-codex-high` - 高性能版本,对标 GPT-5 * `gpt-5-codex-medium` - 中等性能版本 * `gpt-5-codex-low` - 轻量级版本 * 💰 **双重计费模式**: **按量计费(适合小 Tokens 对话)**: * High: \$1.25/1M 输入 + \$10.00/1M 输出 * Medium: \$0.60/1M 输入 + \$4.80/1M 输出 * Low: \$0.30/1M 输入 + \$2.40/1M 输出 **按次计费(适合大上下文场景)**: * High: \$0.025/次 * Medium: \$0.020/次 * Low: \$0.015/次 * 🛠️ **调用方式**: * 使用 Chat 端点调用 * 支持按量付费和按次付费两种模式 * 根据上下文长度灵活选择计费方式 * 🌟 **核心特性**: * 专门针对编程任务优化 * 代码生成质量媲美 GPT-5 * 支持多种编程语言和框架 * 价格更加实惠,性价比极高 **选择建议**:如果您的上下文 Tokens 较大,选择按次计费更划算;如果是短对话场景,按量计费更经济。 ### 🎨 SeeDream 4.0 API 正式上线 **2025年9月11日** **SeeDream 4.0 - BytePlus 火山方舟高品质图像生成** * 🚀 **新增模型**:`seedream-4-0-250828` * 🤝 **战略合作**:源自 BytePlus火山方舟海外版,API易达成官方战略合作 * 💰 **价格优势**: * API易定价:\$0.025美金/张(官网 \$0.03美金/张) * 相比官网节省 **35%** * 结合充值加赠15%:约 **¥0.14/张** * 价格持平 Nano Banana (gemini-2.5-flash-image-preview) * 🛠️ **调用方式**: * 使用标准 OpenAI 图像生成端点:`/v1/images/generations` * 完全兼容 OpenAI Image API 格式 * 按次计费,简单透明 * 🌟 **核心特性**: * 高品质图像生成能力:高清 4K 出图 * 官方合作资源可靠稳定 * 视觉一致性优秀,生成图片快 15s 左右一张图 详细使用文档请参考:[SeeDream 4.0 使用指南](https://xinqikeji.feishu.cn/wiki/JU9xwNaMNiZvwKkdEHjcTuUUn7f) ## 📅 2025年8月 ### 🎨 Gemini 2.5 Flash 图像生成模型上线 **2025年8月27日** **Gemini 2.5 Flash Image Preview - 谷歌最强图像生成模型** * 🚀 **新增模型**:`gemini-2.5-flash-image-preview` * 🏷️ **模型代号**:Nano Banana 模型 * 💰 **价格优势**: * API易定价:\$0.025/张(官网 \$0.04/张) * 结合充值加赠+汇率优势:约 **¥0.14/张** * 相比官网节省约 **50%**(官网5折优惠) * 💸 **竞争对比**: * 比 gpt-image-1 更有优势 * 价格持平 flux-kontext-pro * 高于逆向出图 sora\_image * ⚡ **性能优势**: * 生成速度快,平均仅需 10 秒 * 比 OpenAI 系列更快的响应时间 * 谷歌最新、最强的图像生成/编辑技术 * 🛠️ **调用方式**: * 使用对话补全端点,与 gpt-4o-image 兼容 * 直接替换模型名称即可使用 * 完美兼容 sora\_image 调用方式 详细使用文档请参考:[Gemini 图像生成使用指南](https://xinqikeji.feishu.cn/wiki/A52zw4Bg5iTs5HkTLKJcOuXgnNg?from=from_copylink) ### 🧠 DeepSeek V3.1 混合推理模式上线 **2025年8月26日** **DeepSeek V3.1-250821 - 革命性混合推理模式** * 🚀 **新增模型**:`deepseek-v3-1-250821` * 💰 **价格优势**: * 提示价格:\$0.50 / 1M tokens(官网 \$0.56) * 补全价格:\$1.50 / 1M tokens(官网 \$1.68) * 相比官网价格节省约 **11%** * 支持双模式调用,灵活计费 * 🧠 **核心特性**: * **Think 模式**:深度推理,显示完整思维过程 * **Non-Think 模式**:快速响应,适合日常任务 * 128K 超长上下文窗口 * 支持 Anthropic API 格式兼容 * 🌟 **技术亮点**: * 8400亿 token 持续预训练优化 * 全新 tokenizer,编码效率提升 * Beta Function Calling 工具调用支持 * 增强的智能体和工具使用能力 * ⚡ **模式切换**: * `deepseek-chat` - Non-Think 快速模式 * `deepseek-reasoner` - Think 推理模式 * 官网支持 "DeepThink" 一键切换 DeepSeek V3.1 是首个支持混合推理模式的大模型,让用户可以根据任务复杂度灵活选择推理深度,兼顾效率与质量。 ### 🤖 Kimi K2 正式版接入 **2025年8月25日** **Kimi K2-250711 - 火山引擎官方合作版本** * 🚀 **新增模型**:`kimi-k2-250711` * 🔄 **替换模型**:取代 `kimi-k2-0711-preview` 预览版 * 🤝 **官方合作**: * 火山引擎官方授权合作版本 * 直连官方接口,稳定性大幅提升 * 告别 preview 版本的不稳定性 * 💰 **价格优势**: * 继续保持比官网低 15% 的优势 * 结合充值加赠,相当于官网 **7折优惠** * 正式版性能,预览版价格 * 🌟 **核心特性**: * 优秀的中文理解和生成能力 * 长文本处理能力强 * API 响应更加稳定可靠 * 完全兼容原有调用方式 Kimi K2-250711 是火山引擎官方合作的正式版本,相比预览版在稳定性和性能方面都有显著提升,推荐用户及时切换。 ### 🚀 GPT-5 全系列震撼上线 **2025年8月8日** **GPT-5 全系列正式发布 - OpenAI 最强模型** * 🎯 **全系列型号**: * `gpt-5` - 旗舰版本 * `gpt-5-2025-08-07` - 特定版本 * `gpt-5-chat-latest` - 最新对话版本 * `gpt-5-mini` / `gpt-5-mini-2025-08-07` - 轻量级版本 * `gpt-5-nano` / `gpt-5-nano-2025-08-07` - 超轻量版本 * 💰 **价格优势**: * 与 OpenAI 官网价格完全一致 * 充值加赠 + 汇率优势,约合官网 **8折** * 提示价格:\$1.25 - \$0.05 / 1M tokens * 补全价格:\$10.00 - \$0.40 / 1M tokens * 🛠️ **技术特性**: * 支持官网文档 `/v1/responses` 端点调用 * 温度参数 `temperature` 需设置为 1 或不传(官方限制) * 使用 `max_completion_tokens` 替代 `max_tokens` * `gpt-5-chat-latest` 通过 `/v1/chat/completions` 调用 * ⚡ **性能亮点**: * 全面超越 GPT-4 系列的推理能力 * 更强的上下文理解和长文本处理 * 显著提升的代码生成质量 * 多语言能力达到新高度 **重要提示**:GPT-5 系列模型对参数有特定要求,请按照上述技术特性配置,确保正常调用。 ### 🎨 Claude Opus 4.1 性能升级版上线 **2025年8月7日** **Claude Opus 4.1 - 代码能力再突破** * 🚀 **新增模型**:`claude-opus-4-1-20250805` * 💰 **加量不加价**: * 价格与 Anthropic 官网完全一致 * 结合充值加赠,性价比更高 * 相同价格,享受更强性能 * 🌟 **核心升级**: * SWE-bench Verified 达到 74.5%,代码能力显著提升 * 相比 Opus 4,推理能力和代码生成质量大幅增强 * 保持 200K 超长上下文窗口 * 多语言理解和生成能力进一步优化 * ⚡ **性能亮点**: * 代码调试和修复能力领先业界 * 复杂推理任务准确率提升 15%+ * API 响应速度保持业界顶级水平 * 完美兼容 Claude 系列所有功能 Claude Opus 4.1 是基于 Opus 4 的迭代优化版本,在保持原有强大能力的基础上,针对代码生成和推理任务进行了专项优化。 ### 🎯 OpenAI 开源模型正式上线 **2025年8月6日** **OpenAI 首次开源大模型震撼发布** * 🚀 **新增模型**: * `gpt-oss-120b` - 1170亿参数,媲美 o4-mini 性能 * `gpt-oss-20b` - 210亿参数,可在边缘设备运行 * 💰 **价格优势**: * 定价显著低于 DeepSeek R1 和 V3 * 结合充值加赠,性价比极高 * 企业级使用成本大幅降低 * 🌟 **核心特性**: * 128K 超长上下文窗口 * 支持低/中/高三级推理模式 * MoE 架构,推理效率极高 * Apache 2.0 开源协议 * ⚡ **性能亮点**: * gpt-oss-120b 仅需单张 80GB 显卡即可运行 * gpt-oss-20b 支持 16GB 内存设备部署 * 在编程、数学、工具调用等任务上表现卓越 这是 OpenAI 自 GPT-2 以来首次发布开源模型,标志着 AI 开放生态的重要里程碑。 ## 📅 2025年7月 ### ⚠️ GPT-4.5-Preview 模型下线 **2025年7月14日** **GPT-4.5-Preview 正式停止服务** * 📌 下线模型:`gpt-4.5-preview` * 🔄 推荐替代:`gpt-4.1` * 📅 生效时间:2025年7月14日 * 📖 官方公告:[OpenAI Deprecations](https://platform.openai.com/docs/deprecations) 请开发者尽快更新代码,将 `gpt-4.5-preview` 替换为 `gpt-4.1`,避免服务中断。 ### 🚀 Kimi K2 模型上新 **2025年7月15日** **Kimi K2 预览版正式上线** * 📌 模型名称:`kimi-k2-0711-preview` * 💰 价格优势:比官网低 15% * 🎁 结合充值加赠,相当于官网 **7折优惠** * 🌟 特色:更优秀的中文理解和生成能力 ### 🤖 Grok-4 模型上线 **2025年7月12日** **xAI Grok-4 正式接入** * 📌 调用名称:`grok-4` * 🧠 特色功能:自带推理模式 * 📖 建议查看官方文档了解详细使用方法 ### 💸 Claude 全系降价 20% **2025年7月8日** **Claude 模型大幅优惠** * 🎉 全系列模型降价 **20%** * ✅ 不限速、不封号 * 💱 汇率优势 + 充值加赠 * 🚀 为用户提供更经济的 AI 服务 ## 📅 2025年6月 ### 🌟 Gemini 2.5 正式版发布 **2025年6月18日** **Gemini 2.5 系列全新升级** * 📌 推荐模型:`gemini-2.5-pro` / `gemini-2.5-flash` * ⚡ 性能更稳定,建议替换 preview 或 exp 版本 * 🎯 2M 超长上下文支持 ### 🎊 O3 模型大幅降价 80% **2025年6月13日** **O3 模型史上最大降幅** * 💥 降价幅度:**80%** * 💰 新价格: * 输入:\$3/M Tokens * 输出:\$12/M Tokens * 🆕 新增 `o3-pro` 模型 * 📍 仅限端点 `/v1/responses` 调用 ### 🖼️ GPT-Image-1 价格下调 **2025年6月7日** **图像生成更实惠** * 📌 模型:`gpt-image-1` * 💸 价格大幅下调,提供更具竞争力的图像生成服务 * 🎨 保持高质量输出的同时降低成本 ## 🔔 订阅更新 Telegram社区:`t.me/apiyi_community` 查看所有模型的最新定价信息 ## 📊 更新统计 ### 本月亮点(2025年11月) * 🌟 全球第一:Gemini 3 Pro Preview 震撼上线,LMArena 1501 Elo 全球排名第一 * 🧠 多模态之王:谷歌最新智能模型,100 万上下文,支持文本/图像/视频/音频全能力 * 💡 思维链输出:新增 gemini-3-pro-preview-thinking 模型,显示完整推理过程 * 🚀 重磅升级:GPT-5.1 全系列震撼上线,OpenAI 最新迭代版本,智能与速度完美平衡 * ⚡ 速度飞跃:简单任务响应速度提升 2-5 倍,Token 消耗降低 70-88% * 🧠 性能突破:SWE-bench Verified 76.3%,比 GPT-5 提升 3.5%,编程能力再创新高 * 💾 缓存革新:扩展提示缓存保留时间延长至 24 小时,成本降低 90% * 🛠️ 工具增强:新增 Apply\_Patch 和 Shell 工具,API 开发更强大 * 💰 同步上线:API易于第一时间上线所有新模型,官网同价享 8 折优惠 ### 上月亮点(2025年10月) * ⚡ 高性价比:Claude Haiku 4.5 震撼上线,SWE-bench 73.3%,速度翻倍,成本降至 1/3 * ✨ 版本更新:Gemini 2.5 Flash 最新日期版本 preview-09-2025 上线,谷歌最新优化 * 🍌 图像升级:Gemini 2.5 Flash Image 正式版,10种宽高比,支持分辨率自定义 * 🎬 视频革命:Sora 2 视频生成上线,音视频同步,无水印输出,\$0.15/次起 * 💻 智能升级:GLM-4.6 强势发布,200K 上下文,代码与推理能力全面提升 ### 上月亮点(2025年9月) * 🚀 世界最强:Claude Sonnet 4.5 震撼上线,SWE-bench 77.2%,全球最佳编码模型 * 🧠 快速响应:DeepSeek-V3.2-exp 抢鲜上线,第一时间接入最新实验版本 * 🤖 国产力量:GLM-4.5 系列全面上线,低于官网定价 * 🌐 联网能力:Grok-4-all / Grok-3-all 上线,原生联网,无需工具调用 * ⚡ 超长上下文:Grok-4-fast 系列上线,20万 Tokens 上下文,价格降低 93%+ * 💻 代码专用:Grok Code Fast 1 发布,SWE-Bench 70.8%,集成主流 IDE * 💻 编程优化:OpenAI Codex 系列上线,专为编程场景优化,支持双重计费模式 * 🎨 图像生成:SeeDream 4.0 正式上线,BytePlus 火山方舟战略合作,官网65折优惠 ### 历史里程碑(2025年8月) * 🎨 图像生成:Gemini 2.5 Flash Image Preview 上线,谷歌最强图像模型,官网7折优惠 * 🧠 创新突破:DeepSeek V3.1 混合推理模式,首个支持 Think/Non-Think 双模式的大模型 * 🤖 官方合作:Kimi K2-250711 正式版上线,火山引擎官方授权,稳定性大幅提升 * 🚀 新增模型:GPT-5 全系列正式上线,官网同价享8折优惠 * 🎨 性能升级:Claude Opus 4.1 性能升级版,加量不加价 * 🎯 重磅发布:OpenAI 首次开源大模型(gpt-oss-120b、gpt-oss-20b) * 💸 价格优势:新模型定价低于 DeepSeek R1/V3 * 🚀 性能突破:开源模型达到商用级别性能 * 🌐 生态扩展:支持本地部署和边缘计算 ### 历史里程碑 * 2025年11月:Gemini 3 Pro Preview 震撼上线,谷歌最新多模态智能模型,LMArena 1501 Elo 全球第一;GPT-5.1 全系列震撼上线,OpenAI 智能与速度平衡的迭代升级版;自适应推理、24 小时缓存、新增 API 工具 * 2025年10月:Claude Haiku 4.5 震撼上线,高性价比编码模型;Gemini 2.5 Flash 最新日期版本 preview-09-2025 上线;Gemini 2.5 Flash Image 正式版发布;Sora 2 视频生成上线,OpenAI 革命性视频模型;GLM-4.6 强势发布,智谱 AI 代码与推理增强版 * 2025年9月:Claude Sonnet 4.5 震撼上线,世界最强编码模型;DeepSeek-V3.2-exp 抢鲜上线;GLM-4.5 系列全面上线;Grok 联网模型上线,原生联网能力;xAI Grok-4-fast 系列上线,20万超长上下文史低价;Grok Code Fast 1 代码专用模型发布;OpenAI Codex 系列发布,专为编程优化;SeeDream 4.0 正式上线,BytePlus 火山方舟战略合作达成 * 2025年8月:Gemini 2.5 Flash Image Preview 谷歌最强图像模型上线;DeepSeek V3.1 混合推理模式上线;Kimi K2 正式版接入;GPT-5 全系列震撼上线;首次接入 OpenAI 开源模型;Claude Opus 4.1 性能升级版发布 * 2025年7月:突破 200+ 模型支持 * 2025年6月:O3 模型史上最大降价 * 2025年5月:支持 Gemini 2.5 系列 *** **更新频率**:本页面会定期更新,建议收藏并经常查看。所有价格调整和模型更新都会第一时间在此公告。 **小贴士**:新模型上线初期通常会有特别优惠,建议及时试用体验。同时,我们会根据市场反馈不断优化价格策略。 # 如何设置余额告警提醒? Source: https://docs.apiyi.com/faq/balance-alerts API易支持邮件、企业微信/钉钉/飞书群机器人、余额提醒 API 等多种告警方式,避免余额不足影响业务。 ## 简短回答 API易支持**三种余额告警方式**:邮件通知(默认开启)、企业微信/钉钉/飞书等群机器人推送、以及自定义的余额提醒 API 接入。进入后台 **通知设置** 页面即可配置告警阈值和通知方式。 后台路径:**账户 → 通知设置** 在此页面可配置告警阈值、启用/关闭各类通知渠道。 ## 告警方式详解 **默认开启** 余额低于阈值时,系统自动发送告警邮件到账户注册邮箱,无需额外配置。 支持 **企业微信 / 钉钉 / 飞书** 等常用办公群的 Webhook 机器人,实时推送到团队群。 支持接入自定义的**余额提醒 API**,便于对接自有监控系统或业务告警平台。 ## 配置步骤 访问 [api.apiyi.com](https://api.apiyi.com) 并登录你的账户。 在左侧菜单进入 **账户 → 通知设置**,或直接打开 [通知设置页面](https://api.apiyi.com/account/notificationSettings)。 配置余额低于多少时触发告警(例如余额少于 10 元时提醒),建议根据日均消耗合理设置,至少保留 3-7 天的使用量。 按需启用邮件、群机器人 Webhook 或余额提醒 API,并填写对应的通知地址 / Webhook URL。 配置完成后,可通过测试按钮或临时调低阈值的方式验证告警是否正常触达。 ## 告警渠道推荐 **团队用户建议同时启用多渠道告警** * **个人开发者**:邮件通知即可 * **小团队**:邮件 + 企业微信/钉钉/飞书群机器人 * **企业用户**:邮件 + 群机器人 + 余额提醒 API(接入自有监控系统) ## 常见问题 请检查: 1. 账户注册邮箱是否正确、能否正常收信 2. 告警邮件是否被误判为垃圾邮件(查看垃圾箱) 3. 在通知设置中确认**邮件通知**是否已开启 4. 余额是否真的低于设置的告警阈值 * **企业微信**:群聊 → 群机器人 → 添加机器人 → 获取 Webhook URL * **钉钉**:群设置 → 智能群助手 → 添加机器人 → 自定义机器人 → 复制 Webhook * **飞书**:群设置 → 群机器人 → 添加机器人 → 自定义机器人 → 复制 Webhook 地址 将获取到的 Webhook URL 填入通知设置对应的输入框即可。 余额提醒 API 允许你配置一个自定义的 HTTP 回调地址,当余额低于阈值时,系统会向该地址发送 POST 请求,便于你接入自有监控平台(如 Grafana、Prometheus、内部告警系统等)。 具体接入方式请参考文档中心的 API 说明,或联系客服获取接入指引。 系统默认有防打扰机制,避免短时间内重复推送相同告警。建议设置告警阈值后,及时完成充值,避免余额进一步降低导致业务中断。 目前通知设置中可配置余额预警阈值,当余额低于该值时触发告警。如需更复杂的多级告警策略,可结合余额提醒 API 在自有系统中实现。 ## 相关文档 了解请求预扣机制,避免余额充足却调用失败 查看 API易 支持的充值渠道与操作指南 了解最新的充值加赠活动,节省成本 查看消费明细,分析余额消耗情况 **温馨提醒** 余额告警只是辅助手段,建议同时定期关注账户余额与消费情况,尤其在业务高峰期或新接入模型时及时充值,避免因余额不足影响线上服务。 # 为什么还有余额跑不通? Source: https://docs.apiyi.com/faq/balance-insufficient API易余额不足问题排查指南,了解请求预扣机制和Token超长的解决方案 ## 请求预扣机制 API易采用**请求预扣**机制,在发送请求时会预先扣除预估费用。如果当前余额不足以支持这个请求,即使账户中还有一些余额,也会导致请求失败。 **预扣机制说明** 系统会根据输入内容的复杂度预估本次请求的最大可能费用,如果预估费用超过当前余额,请求将无法执行。 ## 常见原因分析 ### 1. 输入内容Token超长 **图片内容** * 上传了复杂的图片(高分辨率、多图片) * 页面多的PDF文件或复杂文档 * 图表、截图等视觉内容较多 **文本内容** * 在第三方软件中开启了联网搜索插件 * 传入了整个代码库(多目录多文件) * 长篇文档或大量代码 ### 2. 超过模型上下文限制 这些超长内容可能导致: * **超过当前模型的整个上下文**(输入+输出总和) * **超过您当前API易的余额** * **请求预扣金额过高** **上下文计算** 模型的上下文限制 = 输入Token + 输出Token的总和 例如:如果模型支持128K上下文,而您的输入已经用了100K Token,那么输出最多只能有28K Token。 ## 解决方案 ### 1. 检查输入内容 **优化输入** * 压缩或减小图片尺寸 * 分批处理大文件 * 关闭不必要的联网搜索功能 * 只传入相关的代码文件,而非整个项目 **内容分片** * 将长文档拆分为多个部分 * 分批上传多张图片 * 逐个处理代码文件 ### 2. 检查账户余额 **余额查看** * 登录控制台查看当前余额 * 确认余额是否足够支付预估费用 * 考虑充值以获得更充足的余额 ### 3. 选择合适的模型 **推荐测试模型** * `gpt-4o-mini` - 价格便宜,适合测试 * `gpt-3.5-turbo` - 成本较低的选择 * `claude-3-haiku` - 快速且经济的模型 **成本优化建议** 先用便宜的模型测试您的输入内容是否合理,确认没有问题后再切换到更高端的模型。 ### 4. 分析Token使用 **Token计算工具** * 使用在线Token计算器预估内容长度 * 查看API返回的Token使用统计 * 对比不同内容的Token消耗 ## 技术支持 如果按照上述方法仍然无法解决问题,可以联系技术客服获得帮助: 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 请提供以下信息以便快速诊断: * 账户余额截图 * 输入内容的大致描述 * 使用的模型名称 * 错误信息截图 ## 预防措施 ### 1. 内容预处理 * 在发送前评估内容复杂度 * 使用压缩工具优化文件大小 * 提取关键信息而非全量内容 ### 2. 余额管理 * 保持充足的账户余额 * 设置余额预警提醒 * 定期查看消费记录 ### 3. 模型选择 * 根据任务复杂度选择合适模型 * 简单任务使用经济型模型 * 复杂任务再考虑高端模型 ## 常见错误信息 * `Insufficient balance for this request` - 余额不足 * `Input too long` - 输入内容过长 * `Context length exceeded` - 超过上下文限制 * `Request timeout` - 请求超时(通常因内容过长) # 下载 CDN 图片/视频很慢怎么办? Source: https://docs.apiyi.com/faq/cdn-download-slow API易 的图片与视频资源由 Cloudflare R2 全球 CDN 托管,本文帮你排查海外 CDN 在特定服务器上下载慢的常见原因与解决方案。 ## 简短回答 API易 生成的图片与视频(如 Veo 3.1、Sora、Nano Banana 等模型的产物)统一托管在 **Cloudflare R2 全球 CDN**,理论上全球访问速度都很快。如果你的服务器下载很慢,**绝大多数情况是你所在服务器到 Cloudflare 边缘节点的网络链路问题**,而不是 CDN 本身的问题 —— 尤其是中国大陆服务器访问海外 CDN 时,容易受到跨境带宽、运营商路由、本地 DNS 解析等因素影响。 **重点提示** Cloudflare R2 的资源 URL 通常形如 `*.r2.cloudflarestorage.com` 或通过 Cloudflare 代理的自定义域名。是否能快速下载,取决于你的服务器能否高效访问到最近的 Cloudflare 边缘节点。 ## 常见原因分析 中国大陆服务器访问海外 CDN 时,国际出口带宽在高峰期容易拥塞,导致下载缓慢甚至间歇性超时。 部分云厂商或机房的国际路由会绕行美西、欧洲,实际链路延迟远高于直连节点。 本地 DNS 可能把 Cloudflare 域名解析到较远的边缘节点(如美西),而非就近的亚太节点。 部分服务器对境外 IP 段、443 端口或特定 CDN 域名存在出站限制,会降低连接质量。 下载端未启用 HTTP/2 或未复用 TCP 连接,每个文件单独建连会显著放大延迟。 大文件或多文件使用单线程串行下载,无法利用 CDN 的多路复用优势。 ## 排查步骤 在本地电脑 / 其他服务器上尝试下载同一个 CDN URL。 * 如果本地电脑很快、服务器慢 → **服务器网络链路问题** * 如果所有环境都慢 → 请联系客服,提供具体 URL 使用 `ping`、`mtr`、`traceroute` 等工具测试到 CDN 域名的延迟与丢包: ```bash theme={null} # 测试延迟与路由 ping mtr -rwc 30 traceroute ``` 如果出现大量丢包、延迟超过 200ms 或路由绕行境外,说明底层链路存在问题。 使用 `curl` 查看下载耗时与吞吐: ```bash theme={null} curl -o /dev/null -w "dns:%{time_namelookup} connect:%{time_connect} \ ttfb:%{time_starttransfer} total:%{time_total} speed:%{speed_download}\n" \ "" ``` 重点关注: * `time_namelookup`:DNS 解析耗时 * `time_connect`:TCP 建连耗时 * `time_starttransfer`:首字节耗时(TTFB) * `speed_download`:平均下载速率(字节/秒) ```bash theme={null} dig nslookup ``` 查看解析出的 IP 是否就近(亚太用户应解析到亚太节点)。若解析到远端,可尝试更换公共 DNS。 确认云厂商的安全组、防火墙规则是否放行了 443 端口和境外 IP 段,以及是否存在带宽限速。 ## 解决方案 ### 方案一:更换公共 DNS(最简单) 国内服务器默认 DNS 经常把 Cloudflare 解析到较远节点,建议改为以下公共 DNS: ```bash theme={null} {/* /etc/resolv.conf */} nameserver 1.1.1.1 # Cloudflare nameserver 8.8.8.8 # Google nameserver 223.5.5.5 # 阿里 DNS nameserver 119.29.29.29 # 腾讯 DNS ``` 优先使用 `1.1.1.1` —— 它是 Cloudflare 自家的 DNS,能解析到最近的 Cloudflare 边缘节点,对 R2 / Cloudflare CDN 友好度最高。 ### 方案二:优化下载方式 多文件场景使用并发下载(如 `aria2c -x 8`、Python `asyncio + httpx`),充分利用带宽。 大视频文件启用 HTTP Range 分块下载 + 失败重试,避免单次失败重头下载。 使用支持 HTTP/2 或 keep-alive 的客户端(如 `httpx`、`requests.Session()`),避免频繁建连。 下载时流式写入磁盘,避免把整个视频读入内存导致 OOM 或卡顿。 **Python 示例(推荐)**: ```python theme={null} import httpx import asyncio async def download(url: str, path: str): async with httpx.AsyncClient(http2=True, timeout=120) as client: async with client.stream("GET", url) as resp: resp.raise_for_status() with open(path, "wb") as f: async for chunk in resp.aiter_bytes(chunk_size=1024 * 256): f.write(chunk) asyncio.run(download("", "output.mp4")) ``` **aria2c 示例(命令行)**: ```bash theme={null} aria2c -x 8 -s 8 -k 1M --file-allocation=none "" ``` ### 方案三:更换服务器所在区域 如果你的应用场景允许,优先选择**网络质量更好的机房**来访问海外 CDN: AWS / GCP / Azure / Cloudflare Workers 等海外机房访问 Cloudflare R2 延迟极低,通常仅 10-50ms。 如果必须在中国大陆部署,选择带三网 BGP + 国际优化链路(CN2 GIA、CMI、AS9929 等)的机房,延迟与稳定性更好。 作为折中方案,港新机房对大陆延迟低(30-80ms),对 Cloudflare 亚太节点也很友好。 部分低价机房国际出口拥塞严重,高峰期下载速度可能降到几十 KB/s,不建议用于对 CDN 下载有要求的业务。 ### 方案四:中转落盘(终极方案) 如果你的服务器访问 Cloudflare CDN 确实非常慢,且无法更换机房,可以考虑: 1. **使用海外服务器做中转**:在海外机房先把 CDN 资源下载到本地,再通过内部专线/国际优化链路回传到你的服务器 2. **对象存储中转**:把资源先同步到你自己的 OSS / COS / S3(如阿里云 OSS 境内 Bucket),后续业务从境内对象存储读取 3. **CDN 预热回源**:在业务侧先下载一次并缓存,后续请求走本地缓存 **及时性提醒** API易 的图片/视频 CDN URL 通常有一定的有效期(具体以返回的 URL 为准)。建议业务收到回调后**尽快下载并持久化**到自己的存储,避免过期后资源失效。 ## 常见问题 本地电脑走的是家庭宽带(通常有运营商国际加速),而云服务器走的是机房国际出口,两者的国际链路质量差异很大。请优先检查服务器所在机房的国际带宽质量,并参考上面的排查步骤。 DNS 只影响解析到哪个 CDN 节点,如果底层国际带宽本身就拥塞,换 DNS 也无法根本解决问题。此时建议考虑换机房、走中转方案,或使用海外服务器做下载代理。 Cloudflare 的服务在中国大陆没有被封锁,但国际出口带宽在高峰期容易拥塞,且部分运营商路由不理想,导致访问速度不稳定。这是跨境网络的普遍情况,并非 R2 本身的问题。 建议使用支持**断点续传**的下载工具(如 `aria2c`、`wget -c`),并设置合理的超时和重试次数。示例: ```bash theme={null} aria2c -x 8 -s 8 -c --max-tries=10 --retry-wait=3 "" ``` 视频文件体积大(几十 MB 到几百 MB),Base64 会额外膨胀约 33%,并且无法断点续传,反而更慢、更占带宽。**不建议** 将大文件转 Base64。对于图片等小文件,部分接口支持返回 Base64,具体请查看对应 API 文档。 在海外服务器(如 AWS 东京、新加坡)上测试同一个 CDN URL 的下载速度。如果海外很快、你的服务器很慢,基本可以确定是你所在服务器到 Cloudflare 的链路问题,而非 CDN 本身。 ## 相关文档 如果国际网络不稳定,参考代理配置方案 了解 API易 API 服务器位置与网络延迟情况 查看视频生成接口的输出格式与有效期说明 如果以上方案都无效,欢迎联系客服协助排查 **提交诊断信息** 联系客服时,请附上以下信息以便快速定位问题: * 具体的 CDN URL(可脱敏关键参数) * 服务器所在地区与机房/云厂商 * `mtr` 或 `traceroute` 的完整输出 * `curl` 测速命令的时间统计输出 * 出现问题的时间段(方便核对跨境链路监控) # 内容安全如何合规性? Source: https://docs.apiyi.com/faq/content-safety API易内容安全和合规性政策说明,包括内容审核机制和违规处理措施 ## 内容安全保障体系 API易致力于提供安全、合规的AI服务,采取多层次的安全措施来确保内容的合规性。 ## 内容审核机制 ### 专业审核系统 我们已接入**专业官方的内容审核API**,为所有请求提供实时保护: **审核工作原理** * **实时检测**:每个API请求都会经过内容审核 * **智能识别**:自动识别潜在违规内容 * **主动拦截**:违规内容不会返回给用户 * **零容忍政策**:对违规内容采取严格措施 ### 审核覆盖范围 * **输入内容审核**:检查用户提交的所有文本和图片 * **输出内容审核**:确保AI生成的内容符合规范 * **多语言支持**:支持中文、英文等主流语言审核 * **多模态检测**:覆盖文本、图片等多种内容形式 ## 合规要求 ### 用户责任 **法律法规遵守** 用户在使用API易服务时,**必须遵守所在地区的法律法规**,包括但不限于: * 国家和地方的相关法律条款 * 行业监管要求 * 国际法律规范 * 平台使用条款 ### 禁止内容类型 以下类型的内容严格禁止: * **违法违规内容**:涉及违法犯罪的信息 * **有害信息**:可能造成危害的内容 * **不当内容**:违反社会道德规范的信息 * **侵权内容**:侵犯他人权益的材料 ## 违规处理措施 ### 违规后果 API易平台保留对违规行为采取行动的权利: **轻微违规** * 内容拦截和提醒 * 使用指导和警告 **重复违规** * 账户使用限制 * 功能权限降级 **严重违规** * 账户暂停或终止 * 已支付费用不予退还 * 配合相关部门调查 ### 申诉机制 如果您认为审核结果有误,可以通过以下方式申诉: * **技术客服**:[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) * **官方邮箱**:[hi@apiyi.com](mailto:hi@apiyi.com) * **详细说明**:提供具体的申诉理由和相关证据 ## 政策文档 ### 服务条款 建议用户仔细阅读我们的服务条款: * **使用政策**:详细规定了平台使用规范 * **隐私政策**:说明数据处理和隐私保护措施 * **免责声明**:明确平台和用户的责任边界 ### 最佳实践建议 **安全使用建议** 1. **内容自查**:发送前自行检查内容是否合规 2. **了解规则**:熟悉平台的使用政策和限制 3. **合理使用**:确保使用目的正当且合法 4. **及时更新**:关注政策更新和调整 ## 技术保障 ### 审核技术 * **AI智能审核**:结合机器学习和深度学习技术 * **人工复核**:重要内容进行人工二次审核 * **实时更新**:审核规则持续优化和更新 * **多重验证**:采用多种检测算法交叉验证 ### 数据安全 * **加密传输**:所有数据传输采用加密保护 * **安全存储**:审核日志安全存储和管理 * **访问控制**:严格的权限管理和访问控制 * **合规监管**:接受相关部门的监管和审计 ## 联系支持 如果您对内容安全和合规性有任何疑问,请随时联系我们的支持团队: **技术支持** * 企业微信客服:[点击联系](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) * 邮箱:[hi@apiyi.com](mailto:hi@apiyi.com) **咨询内容** * 内容合规性咨询 * 违规申诉处理 * 政策解读说明 * 技术问题反馈 我们致力于为用户提供安全、可靠的AI服务,同时确保所有活动都符合相关法律法规要求。 # API易如何保障数据安全? Source: https://docs.apiyi.com/faq/data-security API易数据安全保护措施详解,包括加密传输、最小化存储和访问控制机制 ## 数据安全承诺 API易高度重视用户数据安全,采取了多重措施保护您的信息。我们致力于为用户提供安全、可靠的AI中转服务。 ## 核心安全措施 ### 端到端加密 **TLS 1.3 加密传输** 所有数据传输均采用 **TLS 1.3 协议加密**,确保数据在传输过程中的安全: * 最新的加密标准,提供最强的安全保护 * 防止数据在传输过程中被窃取或篡改 * 端到端的加密保护,从用户到服务器全程加密 ### 最小化数据存储 **中转平台定位** API易作为中转平台的核心优势: * **不存储请求内容**:不会保存您的API请求内容(输入和输出) * **不查看用户数据**:技术团队无法查看具体的对话内容 * **即转即删**:请求处理完成后,内容数据立即清除 * **隐私优先**:最大限度保护用户隐私 **为什么选择最小化存储?** 作为中转平台,我们的职责是安全、高效地转发请求,而不是存储用户数据。这种设计从根本上保护了您的隐私安全。 ### 有限日志记录 **基础日志范围** 我们只记录计费和故障排查必需的基础信息: * **使用的模型名称**:用于计费和服务统计 * **Token长度统计**:输入和输出的Token计数 * **请求时间戳**:用于日志分析和故障排查 * **响应状态**:成功或错误状态记录 **明确不记录的内容** * ❌ 具体的对话内容 * ❌ 用户输入的文本 * ❌ AI输出的具体回复 * ❌ 图片或文件内容 * ❌ 个人身份信息 ### 短期日志保留 **7天保留政策** **保留期限:仅7天** 出于以下考虑: * **数据安全**:减少数据泄露风险 * **资源优化**:磁盘空间也要钱\~\~ 😊 * **隐私保护**:最小化数据留存时间 * **合规要求**:符合数据保护法规 7天后,所有日志数据自动删除,无法恢复。 ## 访问控制机制 ### 严格的权限管理 **授权访问制度** * **最小权限原则**:只有经过授权的技术人员才能访问日志 * **匿名化处理**:访问的日志数据已进行匿名化处理 * **必要性审核**:仅在故障排查等必要情况下才会访问 * **操作记录**:所有访问操作都有完整的审计日志 ### 技术团队管理 * **背景审查**:技术人员经过严格的背景调查 * **保密协议**:签署严格的数据保密协议 * **定期培训**:接受数据安全和隐私保护培训 * **权限轮换**:定期轮换和审核访问权限 ## 安全保障体系 ### 定期安全审计 **持续安全改进** **安全评估内容** API易团队定期进行全面的安全评估: * **系统漏洞扫描**:定期检查系统安全漏洞 * **代码安全审查**:审核代码中的潜在安全风险 * **基础设施检查**:评估服务器和网络安全 * **流程优化**:持续改进安全管理流程 ### 合规性保障 **法规遵守承诺** * **数据保护法规**:严格遵守GDPR、《个人信息保护法》等 * **行业标准**:符合AI服务行业的安全标准 * **监管要求**:配合相关部门的监管和审计 * **国际标准**:参考ISO 27001等国际安全标准 ## 安全最佳实践 ### 用户侧建议 **增强安全性的建议** 1. **API Key 管理** * 定期轮换API Key * 不要在代码中硬编码Key * 使用环境变量存储敏感信息 2. **敏感信息处理** * 避免在请求中包含敏感个人信息 * 使用脱敏数据进行测试 * 谨慎处理商业机密内容 3. **网络安全** * 使用HTTPS协议访问API * 在安全的网络环境中使用服务 * 及时更新客户端软件 ### 平台侧保障 * **多层防护**:部署多层安全防护措施 * **实时监控**:24/7安全监控和威胁检测 * **应急响应**:建立完善的安全事件响应机制 * **备份恢复**:定期备份和灾难恢复演练 ## 透明度承诺 ### 安全事件通知 如发生可能影响用户数据安全的事件,我们承诺: * **及时通知**:在发现安全事件后24小时内通知用户 * **详细说明**:提供事件详情和影响范围 * **解决方案**:说明采取的补救措施 * **预防措施**:分享后续的预防改进措施 ## 技术支持 如果您对数据安全有任何疑问,欢迎联系我们的技术支持团队: **技术客服** * [联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) * 邮箱:[hi@apiyi.com](mailto:hi@apiyi.com) **咨询范围** * 数据安全政策解释 * 隐私保护措施说明 * 安全最佳实践指导 * 安全事件报告和处理 我们将持续改进安全措施,为您提供更加安全可靠的AI服务。 # 忘记密码了怎么办? Source: https://docs.apiyi.com/faq/forgot-password 忘记 API易 账号密码的找回方法,包括邮箱重置、客服协助找回等多种方案 ## 简短回答 如果您是邮箱注册的用户,可以在登录页面通过「重置密码」功能找回;如果没有绑定邮箱,可以联系客服通过用户名、充值记录或 API Key 协助找回。 ## 方案一:邮箱重置密码 如果您是通过**邮箱注册**的用户,可以自助找回密码: 进入 API易 登录页面,输入您的邮箱地址。 输入邮箱后,随意输入一个密码并点击登录。登录失败后,页面会出现**红色的「重置密码」链接**。 点击红色的「重置密码」文字,系统会跳转到密码找回页面,通过您绑定的邮箱发送重置链接。 前往邮箱查收重置邮件,点击链接设置新密码即可。 如果没有收到重置邮件,请检查垃圾邮件文件夹,或稍等几分钟后重试。 ## 方案二:联系客服找回 如果您**没有绑定邮箱**,或者忘记了注册邮箱,可以联系客服协助找回。请提供以下任意一项信息用于验证身份: 提供您记得的 API易 用户名 提供支付宝或微信的充值账单截图 提供您使用过的 API Key 请至少提供以上一项信息,客服核实后会协助您找回账号。 ## 方案三:找回后绑定邮箱 成功登录后,**强烈建议**您在用户中心绑定邮箱: 登录后,进入「用户中心」页面。 找到邮箱绑定选项,填写您的常用邮箱并完成验证。 绑定邮箱后,设置一个安全的密码。后续即可使用邮箱 + 密码登录。 绑定邮箱后,您可以随时通过邮箱自助找回密码、修改密码,无需再联系客服。 ## 常见问题 在登录页面输入邮箱和一个错误的密码,点击登录后,页面会显示登录失败提示,同时出现红色的「重置密码」可点击文字。 第三方登录的用户请直接使用对应平台登录。如果第三方登录也遇到问题,请参考 [GitHub 登录问题](/faq/github-bindng-bindng-error) 或联系客服。 绑定邮箱后,您可以: * 通过邮箱自助重置密码 * 使用邮箱 + 密码作为备用登录方式 * 接收重要的账户通知 ## 联系我们 如需客服协助找回账号,请准备好用户名、充值记录或 API Key 等验证信息,联系客服处理。 # GitHub 登录提示「该账户已绑定」怎么办? Source: https://docs.apiyi.com/faq/github-bindng-bindng-error 解决使用 GitHub 一键登录 API易 时提示「该 GitHub 账户已绑定」的问题 ## 简短回答 您需要在**同一个浏览器**中先登录 `github.com`,然后再到 API易 网站使用 GitHub 一键登录。**务必使用 Chrome 浏览器**操作。 ## 问题现象 使用 GitHub 账号登录 API易 时,页面提示: > 该 GitHub 账户已绑定 导致无法正常登录。 ## 解决步骤 请务必使用 **Chrome 浏览器**进行操作,避免使用其他浏览器(如 Safari、Firefox 等),以确保登录流程正常。 在 Chrome 浏览器中打开 `github.com`,确认您已登录到正确的 GitHub 账号。 如果之前登录了其他 GitHub 账号,请先退出,再登录您绑定 API易 的那个账号。 在**同一个 Chrome 浏览器**中,打开 API易 网站,点击「GitHub 一键登录」按钮完成登录。 必须在同一个浏览器中完成以上两步操作,不能在不同浏览器中分别登录。 ## 常见问题 Chrome 浏览器对 GitHub OAuth 登录流程的兼容性最好,其他浏览器可能会出现 Cookie 或会话同步问题,导致登录异常。 请尝试以下操作: * 清除 Chrome 浏览器的缓存和 Cookie * 确认 Chrome 没有使用无痕模式 * 检查是否有浏览器插件阻止了第三方 Cookie * 退出 GitHub 后重新登录,再尝试一键登录 API易 如需更换绑定的 GitHub 账号,请联系客服协助处理。 ## 联系我们 如果按照上述步骤操作后仍无法解决,请联系客服获取帮助。 # 为什么提示 API Key 无效? Source: https://docs.apiyi.com/faq/invalid-api-key 解决 API Key 无效错误,了解 Base URL 和 API Key 的正确配置方法 ## 常见错误现象 当您看到类似以下错误信息时: ```json theme={null} { "error": { "message": "Incorrect API key provided: sk-QqHvK***...", "type": "invalid_request_error", "code": "invalid_api_key" } } ``` 这通常**不是**您的 API Key 本身有问题,而是**请求地址(Base URL)配置错误**导致的。 **最常见的错误**:使用了 API易 的 Key,但请求地址仍然指向 OpenAI 官网 `https://api.openai.com` ## 什么是 Base URL? **Base URL**(基础 URL / 请求地址)是 API 请求的目标服务器地址。不同的 API 服务提供商使用不同的 Base URL。 ### Base URL 和 API Key 必须一一对应 | 服务提供商 | Base URL | API Key 格式 | 是否匹配 | | ------------- | ------------------------ | --------------- | -------- | | **API易** | `https://api.apiyi.com` | `sk-xxxx......` | ✅ 正确 | | **OpenAI 官方** | `https://api.openai.com` | `sk-xxxx......` | ✅ 正确 | | ❌ API易 Key | `https://api.openai.com` | `sk-xxxx......` | ❌ **错误** | | ❌ OpenAI Key | `https://api.apiyi.com` | `sk-xxxx......` | ❌ **错误** | **关键原则**:使用哪家的 API Key,就必须将请求发送到对应服务商的 Base URL。 ## 正确的配置方法 ### 方法一:修改 Base URL(推荐) 只需将请求地址从 OpenAI 官网替换为 API易,其他代码完全不变: ```python Python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-apiyi-key", # API易后台获取的Key base_url="https://api.apiyi.com/v1" # 改为API易地址 ) response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "你好"}] ) ``` ```javascript JavaScript/Node.js theme={null} import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'sk-your-apiyi-key', // API易后台获取的Key baseURL: 'https://api.apiyi.com/v1' // 改为API易地址 }); const response = await client.chat.completions.create({ model: 'gpt-4o', messages: [{ role: 'user', content: '你好' }] }); ``` ```bash cURL theme={null} curl https://api.apiyi.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer sk-your-apiyi-key" \ -d '{ "model": "gpt-4o", "messages": [{"role": "user", "content": "你好"}] }' ``` ### 方法二:使用环境变量 设置环境变量后,代码中无需显式指定 Base URL: ```bash Linux/macOS theme={null} export OPENAI_API_KEY="sk-your-apiyi-key" export OPENAI_BASE_URL="https://api.apiyi.com/v1" ``` ```powershell Windows PowerShell theme={null} $env:OPENAI_API_KEY="sk-your-apiyi-key" $env:OPENAI_BASE_URL="https://api.apiyi.com/v1" ``` ```cmd Windows CMD theme={null} set OPENAI_API_KEY=sk-your-apiyi-key set OPENAI_BASE_URL=https://api.apiyi.com/v1 ``` ## API易支持的请求地址格式 根据您的代码情况,API易支持以下三种 Base URL 格式: ``` https://api.apiyi.com/v1 ``` **适用场景**:大多数代码库默认会在 Base URL 后自动添加具体路径 **完整请求示例**: ``` https://api.apiyi.com/v1/chat/completions https://api.apiyi.com/v1/models ``` ``` https://api.apiyi.com/v1/ ``` **适用场景**:某些框架要求 Base URL 以斜杠结尾 **完整请求示例**: ``` https://api.apiyi.com/v1/chat/completions https://api.apiyi.com/v1/models ``` ``` https://api.apiyi.com/v1/chat/completions ``` **适用场景**:直接使用完整的 API 端点地址(如 cURL 请求) 这种方式通常用于 cURL 或 HTTP 库的原始请求,不需要设置 Base URL ## 常见问题排查 **可能原因**: 1. **代码中有多处配置**:检查是否在配置文件、环境变量、代码初始化等多处都设置了 Base URL 2. **使用了代理或中间件**:某些代理工具可能会重定向请求 3. **缓存问题**:重启程序或清除缓存后重试 4. **拼写错误**:确认 `apiyi` 拼写正确(不是 `apiyii` 或 `apiyl`) 在 API易 后台查看: 1. 登录 API易 后台 `console.apiyi.com` 2. 进入「令牌」页面 3. 检查 Key 状态是否为「启用」 4. 确认账户余额充足 大多数第三方工具都有「自定义 API」或「自建服务器」选项: * **API 地址 / Base URL**:`https://api.apiyi.com/v1` * **API Key**:从 API易 后台复制您的 Key * **模型名称**:参考 API易 文档中的模型列表 具体配置位置可能在「设置」→「API」或「服务器」等选项中 API易 提供了多种语言的完整代码示例: 1. **快速开始文档**:文档首页 → 代码示例 2. **在线测试工具**:后台 → ApiFox 在线测试 3. **GitHub 仓库**:`github.com/apiyi/docs` → knowledge-base 目录 ## 错误示例 vs 正确示例 ```python theme={null} client = OpenAI( api_key="sk-apiyi-key", base_url="https://api.openai.com/v1" # ❌ 使用了OpenAI官网地址 ) ``` **结果**:OpenAI 服务器会拒绝 API易 的 Key ```python theme={null} client = OpenAI( api_key="sk-apiyi-key", base_url="https://api.apiyi.com/v1" # ✅ 使用API易地址 ) ``` **结果**:请求成功发送到 API易 服务器 ## 快速测试方法 使用 cURL 命令快速验证配置是否正确: ```bash theme={null} curl https://api.apiyi.com/v1/models \ -H "Authorization: Bearer sk-your-apiyi-key" ``` **预期结果**:返回可用模型列表 ```json theme={null} { "data": [ { "id": "gpt-4o", "object": "model", ... } ] } ``` 如果返回错误,请检查: 1. API Key 是否正确复制(注意首尾空格) 2. 网络连接是否正常 3. 账户余额是否充足 ## 相关文档 * [快速开始指南](/quickstart) * [API 使用手册](/api-manual) * [为什么还有余额跑不通?](/faq/balance-insufficient) * [支持的模型列表](/models) **记住核心原则**:哪家的 Key 配哪家的 URL,API易 的 Key 就用 `https://api.apiyi.com/v1` # 系统里模型的【倍率】是什么? Source: https://docs.apiyi.com/faq/model-multiplier 了解 API易 模型倍率的含义、计算规则和与官方定价的对应关系 ## 快速答案 **倍率是行业通用的价格计算方式。** 如果您不关心倍率,只需查看模型列表中的【价格】列即可。本站美金充值、美金计费。查看全部模型价格:[模型定价](https://api.apiyi.com/modelPricing) ## 定价策略 | 模型类型 | 定价规则 | 折扣方式 | | ------------- | -------- | ------------------------------------------------ | | **文本/多模态大模型** | 与官方定价一致 | [充值加赠](/faq/recharge-promotions) + 分组折扣 | | **图片/视频模型** | 按次收费,有特价 | 具体价格见 [模型定价](https://api.apiyi.com/modelPricing) | 文本模型的折扣体现在两方面:**充值加赠活动**(充值时额外赠送额度)和**分组折扣**(如国产模型单独分组享 0.88x 折扣)。 ## 文本模型计费方式 一次调用的费用 = **输入 Tokens × 输入单价 + 输出 Tokens × 输出单价** 详细计费说明请参考 [计费说明](/pricing)。 ## 基本概念 首先明确两个术语对应关系: | 系统术语 | 含义 | | ------------------ | --------- | | **提示(Prompt)** | 输入 Tokens | | **补全(Completion)** | 输出 Tokens | ## 倍率计算规则 倍率是一个相对值,用于推算具体价格: * **提示倍率 × 2** = 输入价格(美金 / 百万 Tokens) * **补全倍率** = 输出价格 ÷ 输入价格(即输出是输入的几倍) ## 计算示例 以 `claude-opus-4-6` 为例: | 项目 | 倍率 | 计算过程 | 最终价格 | | -- | ------------ | --------------- | -------------------- | | 输入 | 提示倍率 **2.5** | 2.5 × 2 = 5 | **\$5 / 百万 Tokens** | | 输出 | 补全倍率 **5** | 5 × 5(输入价格)= 25 | **\$25 / 百万 Tokens** | 按照此公式计算,API易 的价格与官网定价完全一致。 ## 图片/视频模型计费 图片和视频模型采用**按次收费**,部分模型有特价优惠,具体价格请在后台 [模型定价](https://api.apiyi.com/modelPricing) 栏目中查询。 ## 总结 * 倍率是**内部及行业通用**的价格计算方式 * 不需要理解倍率也能正常使用,直接看\*\*【价格】列\*\*即可 * **文本模型**与官方定价一致,折扣通过充值加赠和分组折扣体现 * **图片/视频模型**按次收费,有特价,详见 [模型定价](https://api.apiyi.com/modelPricing) # 使用 API 接口需要代理网络吗? Source: https://docs.apiyi.com/faq/network-proxy 了解 API易 的网络访问方式,是否需要使用代理或 VPN ## 简短回答 **不需要代理,可以直连。** API易 支持国内直接访问,无需任何代理或 VPN。 ## 网络访问说明 ### 国内用户 **免代理直连** * ✅ 无需配置代理或 VPN * ✅ 直接访问 `api.apiyi.com` * ✅ 采用企业专线回国线路,网络质量优良 * ✅ 低延迟、高稳定性 ### 海外用户 如果您在海外使用 API易: * 🚀 访问速度更快 * 🌐 直连国际线路 * ⚡ 无需额外配置 ## 网络问题解决方案 极少数情况下,部分用户可能遇到以下问题: SSL/TLS 证书验证失败 可能原因:本地时间不准确、证书链不完整 连接超时或无法建立连接 可能原因:本地网络限制、DNS 解析问题 ### 备选方案:HTTP 地址 如遇到上述问题无法解决,我们提供 HTTP 访问地址作为备选方案: **获取 HTTP 地址** HTTP 协议不加密传输,仅作为临时解决方案使用。如需获取 HTTP 访问地址,请联系技术客服: 企业微信客服:[点击联系](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) ## 常见问题 ### 为什么国内可以直连? 我们使用了合规的企业专线回国线路,确保国内用户可以稳定、快速地访问服务。 ### HTTPS 和 HTTP 有什么区别? * **HTTPS**(推荐):加密传输,数据安全性高 * **HTTP**(备选):明文传输,仅在遇到 HTTPS 问题时临时使用 ### 如何判断网络连接是否正常? 可以使用以下命令测试: ```bash theme={null} # 测试 API 连接 curl -I https://api.apiyi.com # 测试 DNS 解析 ping api.apiyi.com ``` 如果返回正常响应,说明网络连接无问题。 ## 网络优化建议 **提升访问速度的建议** * 🕐 确保本地系统时间准确(避免证书验证失败) * 🌐 使用稳定的 DNS 服务(如 114.114.114.114 或 8.8.8.8) * 📡 优先使用有线网络而非 Wi-Fi * 🔄 定期更新系统根证书 ## 技术支持 如遇到网络访问问题,请联系技术客服: 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 技术支持,快速响应 # 支持对公或 USDT 付款吗? Source: https://docs.apiyi.com/faq/payment-methods API易支付方式说明,包括对公打款和USDT加密货币支付方式 ## 支付方式概览 API易支持多种灵活的支付方式,不止是站内的微信支付、支付宝充值,还包括传统的对公打款和现代的加密货币支付。 ## 对公打款 ### 支持对公转账 我们**完全支持对公打款**,适合企业用户的财务需求。 **对公打款优势** * 符合企业财务制度 * 便于开具正规发票 * 支持大额充值 * 安全可靠的传统支付方式 ### 获取打款信息 出于安全考虑,我们不在网站上直接披露打款信息。请通过以下方式获取: 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) **邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)** 客服会为您提供完整的对公账户信息,包括: * 收款公司名称 * 银行账号 * 开户行信息 * 转账备注要求 ## USDT 加密货币支付 ### 支持的区块链网络 我们支持多种主流区块链网络的 USDT 支付: **TRC20 网络** * 基于 TRON 区块链 * 转账手续费低廉 * 到账速度快 **Solana 网络** * 高性能区块链 * 极低的交易费用 * 近乎即时到账 **其他主流公链** * 根据需求支持其他网络 * 具体支持情况请咨询客服 **USDT 支付优势** * 全球通用,无地域限制 * 24/7 随时充值 * 到账快速 * 手续费相对较低 * 适合国际用户 ### 获取 USDT 收款地址 所有 USDT 收款地址需要通过客服获取: **安全提醒** 为了资金安全,请务必通过官方客服渠道获取收款地址,切勿相信其他来源提供的地址信息。 ## 联系方式 ### 企业微信客服 [点击联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) * 提供对公打款信息 * 获取 USDT 收款地址 * 支付相关问题咨询 * 到账确认和处理 ### 官方邮箱 **邮箱:[hi@apiyi.com](mailto:hi@apiyi.com)** * 正式的业务沟通 * 发票开具需求 * 大额充值协商 * 企业合作洽谈 ## 支付流程 ### 对公打款流程 1. **联系客服** - 获取对公账户信息 2. **发起转账** - 按要求填写转账信息 3. **提供凭证** - 向客服发送转账凭证 4. **确认到账** - 客服确认后充值到账 ### USDT 支付流程 1. **获取地址** - 联系客服获取收款地址 2. **确认网络** - 选择合适的区块链网络 3. **发起转账** - 向指定地址转账 USDT 4. **提供哈希** - 向客服提供交易哈希 5. **确认到账** - 区块链确认后充值到账 ## 注意事项 ### 对公打款注意事项 * 转账时请备注指定信息 * 保留转账凭证以便查询 * 大额转账建议提前沟通 * 发票需求请提前告知 ### USDT 支付注意事项 * 确认收款地址和网络类型 * 转账前核对地址准确性 * 保存交易哈希用于查询 * 小额测试后再进行大额转账 **充值到账时间** * **对公打款**:工作日通常当天到账 * **USDT 支付**:区块链确认后几分钟到账 具体到账时间可能因银行处理时间或区块链网络状况而有所差异。 ## 常见问题 ### 可以开具发票吗? 支持开具正规发票,对公打款用户请在转账时告知发票需求。 ### 有最低充值金额限制吗? 不同支付方式可能有不同的最低限额,具体请咨询客服。 ### 支持其他加密货币吗? 目前主要支持 USDT,其他加密货币需求请咨询客服。 # 网站有什么充值活动吗? Source: https://docs.apiyi.com/faq/recharge-promotions 了解 API易 的充值优惠政策,包括首充加赠、阶梯加赠、企业客户服务和发票服务 ## 充值优惠概览 API易 提供多种充值优惠活动,帮助您以更实惠的价格使用 AI 服务。 * 🎁 **首充加赠**:首次充值即可获赠 1-2 美金 * 📊 **阶梯加赠**:充值越多,加赠比例越高(10%-20%) * ⏰ **永久有效**:充值额度永不过期 * 🌐 **全站通用**:适用于本站所有模型 * 🏢 **发票支持**:在线充值和对公转账均可开票 ## 首充加赠活动 ### 普通用户首充 **首次充值加赠**:\$1 适用于所有新用户的首次充值 **首次充值加赠**:\$2 使用高校邮箱认证的教育客户 ### 如何领取首充加赠? 选择任意金额完成您的首次充值 [添加企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 备注"首充加赠"以便快速处理 客服确认后会人工添加加赠额度到您的账户 **联系方式**:[企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec),添加时请备注"首充加赠" **教育用户认证**:使用 `.edu.cn` 或其他高校邮箱注册并完成邮箱验证即可享受教育优惠 ## 充值阶梯加赠 充值金额越大,加赠比例越高。大额充值的加赠会由平台方自动添加,无需特别申请。 **政策更新时间**:2025 年 12 月 18 日起执行新的充值加赠政策 ### 加赠比例表 | 充值金额(单次充值) | 加赠比例 | 实际到账倍数 | 充值示例 | | ---------------------- | ------- | -------- | ----------------------- | | \$100 ≤ X \< \$500 | **10%** | 1.1 倍余额 | 充值 \$100 → 到账 \$110 | | \$500 ≤ X \< \$1,000 | **12%** | 1.12 倍余额 | 充值 \$500 → 到账 \$560 | | \$1,000 ≤ X \< \$3,000 | **15%** | 1.15 倍余额 | 充值 \$1,000 → 到账 \$1,150 | | X ≥ \$3,000 | **20%** | 1.2 倍余额 | 充值 \$3,000 → 到账 \$3,600 | **重要说明**:加赠比例按**单次充值金额**计算,而非累计充值金额 ### 加赠发放说明 **自动发放**:充值 \$100 及以上的阶梯加赠,平台方会自动识别并添加,无需您主动申请。通常在充值成功后 2 小时内到账。 ### 计算示例 **充值金额**:\$200 **所属区间**:\$100 ≤ X \< \$500 **加赠比例**:10% **加赠金额**:\$200 × 10% = \$20 **实际到账**:\$200 + \$20 = **\$220**(1.1 倍) **充值金额**:\$700 **所属区间**:\$500 ≤ X \< \$1,000 **加赠比例**:12% **加赠金额**:\$700 × 12% = \$84 **实际到账**:\$700 + \$84 = **\$784**(约 1.12 倍) **充值金额**:\$1,500 **所属区间**:\$1,000 ≤ X \< \$3,000 **加赠比例**:15% **加赠金额**:\$1,500 × 15% = \$225 **实际到账**:\$1,500 + \$225 = **\$1,725**(1.15 倍) **充值金额**:\$5,000 **所属区间**:X ≥ \$3,000 **加赠比例**:20% **加赠金额**:\$5,000 × 20% = \$1,000 **实际到账**:\$5,000 + \$1,000 = **\$6,000**(1.2 倍) ## 额度使用说明 ### 额度特点 充值额度无使用期限,随时可用 适用于 API易 所有模型和服务 按需使用,无最低消费要求 ### 适用模型 充值额度适用于 **API易 本站全部模型**,包括文本生成、图像生成、视频生成、语音服务、音频生成等所有类型。 点击查看 API易 支持的所有模型及详细价格 **无需担心过期**:充值的额度永久有效,可以放心一次性充值更多金额享受更高加赠比例。 ## 企业客户服务 API易 坚持对所有客户一视同仁,阶梯加赠价格公开透明、统一标准。针对企业客户,我们额外提供以下支持: * **💬 专属对接群聊**:建立企业专属沟通群,快速响应您的需求 * **🎯 API 接入最佳实践**:根据您的业务场景,分享 API 接入和使用的最佳解决方案与经验 ### 如何获取企业服务 发送邮件至:[business@apiyi.com](mailto:business@apiyi.com) 或在线联系客服说明您的企业需求 告知我们: * 主要使用的模型类型(文本/图片/视频等) * 业务场景简介 我们会为您建立专属对接群聊,持续提供技术支持与经验分享 **价格透明原则**:API易 坚持价格透明,阶梯加赠政策对所有客户公开一致,不设差异化定价。 ## 发票服务 API易 支持为企业用户开具正规发票(增值税普通发票和增值税专用发票),满足您的财务报销需求。 ### 如何申请发票 通过在线充值或对公转账完成充值 登录 **API易 网站后台** → **顶部导航** → **提交开票** 填写开票资料(最少需要:开票主体和税号) **在线开票表单**:`https://xinqikeji.feishu.cn/share/base/form/shrcns8TS3alZTN2Av1JfkOvmqh` 我们会在 3-5 个工作日内开具发票并发送至您提供的邮箱 **支持的发票类型**: * 增值税普通发票(适用于小规模纳税人) * 增值税专用发票(适用于一般纳税人,可抵扣税款) **开票周期**:发票通常在收到申请后 3-5 个工作日内开具。月底、季度末等财务高峰期可能略有延迟。 ## 常见问题 **可以叠加!** 例如:首次充值 \$700 * 首充加赠:\$1(或教育用户 \$2) * 阶梯加赠:\$700 × 12% = \$84 * 总到账:\$700 + \$1 + \$84 = **\$785**(普通用户) 记得[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)申请首充加赠哦! **到账时间**: * **在线支付**:即时到账(充值本金立即到账) * **阶梯加赠**:24 小时内自动添加 * **首充加赠**:[联系企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec)后人工添加,通常 1 个工作日内 **对公转账**:到账后 1 个工作日内处理 **没有最低限制**,但建议: * 最低充值 \$10 以上,避免频繁充值 * 充值 \$100 以上可享受阶梯加赠优惠 * 一次性充值更多金额可享受更高加赠比例 根据平台政策: * **未使用的充值额度**:特殊情况可申请退款 * **加赠额度**:不支持退款 * **已使用额度**:不支持退款 如需退款请联系客服说明情况。 **加赠比例是按充值总额区间计算的,不是分段累加。** **正确计算**: * 充值 \$600 属于 \$500 ≤ X \< \$1,000 区间 * 加赠比例 12% * 加赠金额:\$600 × 12% = \$72 * 实际到账:\$672 **不是分段计算**(错误方式): ❌ 前 \$500 × 12% + 后 \$100 × 10% **在线提交开票资料**: 1. 登录 API易 网站后台 2. 点击顶部导航「提交开票」 3. 填写开票资料(最少需要:开票主体和税号) 4. 提交后等待 3-5 个工作日 **在线开票表单**:`https://xinqikeji.feishu.cn/share/base/form/shrcns8TS3alZTN2Av1JfkOvmqh` ## 充值建议 **推荐充值**:\$10 - \$50 适合初次使用、测试功能的用户 **推荐充值**:\$100 - \$500 享受 10%-12% 加赠,性价比高 **推荐充值**:\$500 - \$2,000 享受 12%-15% 加赠,余额充足无忧 **推荐充值**:\$3,000+ 享受 20% 加赠,或联系商务定制方案 ## 联系方式 如有充值、优惠、开票等相关问题,欢迎联系我们: 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 首充加赠、技术支持 **客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com) **商务合作**:[business@apiyi.com](mailto:business@apiyi.com) ## 相关文档 * [快速开始](/quickstart) * [如何充值余额](/faq/payment-methods) * [为什么还有余额跑不通?](/faq/balance-insufficient) * [余额管理](/faq/token-management) **省钱小贴士**:充值前计算好您的预计使用量,选择合适的充值档位,可以最大化享受加赠优惠! # API易 的退款政策是怎样的? Source: https://docs.apiyi.com/faq/refund-policy 了解 API易 的退款条件、退款流程、手续费说明及发票相关注意事项 ## 简短回答 API易 支持**充值后 30 天内无理由退款**,未使用的余额原路退回。退款时会扣减充值活动赠送的金额。微信和支付宝退款免手续费,其他支付方式收取 1% 手续费。 **退款承诺**:我们希望每位客户都能放心充值。30 天内如果不满意,随时可以申请退款,未使用的部分全额退还。 ## 退款条件 充值后 30 天内均可申请退款,无需说明理由 若充值时参加了[充值优惠活动](/faq/recharge-promotions)获得赠送金额,退款时将扣减赠送部分 中国大陆客户:**未开发票**可退款,**已开发票**则无法退款 退款将退回到原来的支付方式,无需额外操作 ## 退款手续费 | 支付方式 | 退款手续费 | 说明 | | ------------------ | ------ | ------------- | | **微信支付** | ✅ 免手续费 | 退回微信零钱或银行卡 | | **支付宝** | ✅ 免手续费 | 退回支付宝账户 | | **对公银行转账** | 1% 手续费 | 退回对公账户 | | **USDT** | 1% 手续费 | 退回原钱包地址 | | **Wise** | 1% 手续费 | 退回 Wise 账户 | | **水星银行 (Mercury)** | 1% 手续费 | 退回 Mercury 账户 | | **PayPal** | 1% 手续费 | 退回 PayPal 账户 | **省钱建议**:使用微信或支付宝充值,退款时可免除手续费。 ## 退款金额计算 退款金额 = 充值金额 - 已使用金额 - 赠送金额 - 手续费(如有) **举例说明**: 假设你充值了 \$100,活动赠送了 \$10,已使用 \$30: * 充值金额:\$100 * 赠送金额(需扣减):\$10 * 已使用金额:\$30 * 可退款金额:\$100 - \$30 - \$10 = **\$60** * 若使用微信/支付宝支付:实际退回 **\$60**(免手续费) * 若使用 PayPal 支付:实际退回 \$60 - \$60 × 1% = **\$59.40** ## 退款流程 [添加企业微信客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec),说明需要退款。 或发送邮件至 [support@apiyi.com](mailto:support@apiyi.com),邮件标题注明「退款申请」。 客服会核实你的账户余额、充值记录、赠送金额和发票情况,计算可退款金额并与你确认。 确认后,退款将退回到原支付方式。到账时间因支付渠道不同而异: * **微信/支付宝**:通常 1-3 个工作日 * **银行转账/其他方式**:通常 3-7 个工作日 ## 常见问题 超过 30 天原则上不再支持退款。建议在充值后 30 天内评估服务是否满足需求。如有特殊情况,可联系客服协商。 充值活动赠送的金额是额外赠送的福利,并非你实际支付的费用。退款时只退还你实际支付且未使用的部分,因此需要扣减赠送金额。详见 [充值优惠活动](/faq/recharge-promotions) 了解赠送规则。 中国大陆地区开具增值税发票后涉及税务处理流程,已开票的充值金额无法退款。建议在确定需要退款前暂不申请开票。 可以。退款只是退还未使用的余额,你的账户和 API Key 不会受影响。后续如需使用,重新充值即可。 可以。你可以选择退还部分余额,不必全额退款。联系客服时说明希望退款的金额即可。 微信和支付宝通常 1-3 个工作日到账,银行转账、USDT、Wise、PayPal 等通常 3-7 个工作日。如超时未到账,请联系客服查询。 ## 相关文档 了解当前的充值加赠活动和优惠政策 查看所有支持的充值方式 余额不足时的解决方案 前往充值页面 # API易的服务器在哪里?应该选择什么服务器? Source: https://docs.apiyi.com/faq/server-location 了解 API易 的服务器地理位置、数据中心分布、网络延迟测试方法以及服务器选购建议 ## 服务器位置 API易 的服务器位于**美国洛杉矶(美西)**,采用知名 VPS 服务商**搬瓦工(BandwagonHost)的回国优化专线**。 **专线优化**:我们的服务器配备回国优化专线,专门针对中国大陆用户进行了网络优化,即使是大图片传输(Base64 编码)也能保持正常速度。 ## 不同地区的网络表现 **网络表现**:优秀 ✅ * 回国专线优化,延迟低 * 大图片传输(Base64)速度正常 * 适合高频 API 调用场景 * 无需额外配置代理 **网络表现**:取决于地理位置 🌍 * 美西地区延迟最低 * 欧洲、亚太地区稍有延迟 * 建议选择美西机房服务器 * 可使用 CDN 加速 ## 服务器选购建议 ### 海外服务器推荐 如果您使用海外服务器调用 API易 的服务,建议选择: **推荐选择**:美西(洛杉矶、圣何塞、西雅图等)机房的服务器 * **地理位置接近**:与我们的服务器在同一地区,延迟最低 * **网络路由优化**:同区域之间的网络路由通常最优 * **性价比高**:美西机房价格相对合理 如果您正在寻找稳定的 VPS 服务商,可以考虑与我们使用相同的服务商: **BandwagonHost(搬瓦工)** - 知名 VPS 服务商 * ✅ 回国优化专线(CN2 GIA、CN2 等) * ✅ 美西多个机房可选(洛杉矶、圣何塞等) * ✅ 稳定可靠,性价比高 * ✅ 适合国内外用户访问 点击查看搬瓦工 VPS 套餐 ### 中国大陆服务器 **中国大陆服务器也没问题**! 由于我们配备了回国优化专线,即使您的服务器位于中国大陆境内,访问 API易 的延迟和速度也是正常的,无需担心网络问题。 **适用场景**: * 应用部署在国内云服务商(阿里云、腾讯云、华为云等) * 用户主要在中国大陆地区 * 需要符合国内合规要求 ## 如何测试网络延迟? 在选择服务器之前,建议先测试您的服务器到 API易 的网络延迟。 ### 方法 1:Ping 测试 ```bash theme={null} # 测试延迟(ICMP) ping api.apiyi.com ``` **参考延迟**: * **中国大陆**:通常 50-150ms(回国专线优化) * **美西地区**:通常 5-30ms(同区域) * **欧洲/亚太**:通常 150-300ms(跨区域) ### 方法 2:cURL 延迟测试 ```bash theme={null} # 单次 HTTP 延迟测试 curl -o /dev/null -s -w "连接时间: %{time_connect}s\n总时间: %{time_total}s\n" https://api.apiyi.com # 多次测试取平均值(更准确) for i in {1..10}; do curl -o /dev/null -s -w "第 $i 次 - 总时间: %{time_total}s\n" https://api.apiyi.com done ``` ### 方法 3:实际 API 调用测试 ```bash theme={null} # 测试实际 API 调用延迟 time curl -X POST https://api.apiyi.com/v1/chat/completions \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-4o-mini", "messages": [{"role": "user", "content": "Hello"}], "max_tokens": 10 }' ``` **优化建议**:如果测试延迟较高(大于 500ms),可以考虑: * 更换到美西机房的服务器 * 使用 CDN 或代理加速 * 联系客服咨询网络优化方案 ## 网络优化建议 ### 针对高延迟场景 如果您的服务器延迟较高,可以尝试以下优化方案: 复用 HTTP 连接,避免频繁建立新连接的开销 利用多路复用特性,提升并发请求效率 将多个小请求合并为批量请求,减少网络往返次数 使用异步方式调用 API,避免阻塞等待 对于重复的请求结果,使用本地缓存减少 API 调用次数 ### 针对大图片传输 如果您需要频繁传输大图片(如图像生成、图像识别),建议: 优先使用图片 URL 而不是 Base64 编码 减少请求体大小,提升传输效率 在上传前适当压缩图片质量 在保证效果的前提下减小文件体积 ## 常见问题 **主要原因**: 1. **回国专线优化**:美西是回国专线的主要出口点,能为中国大陆用户提供最佳网络路由 2. **国际枢纽**:洛杉矶是重要的国际网络枢纽,连接亚太、欧洲、北美等地区 3. **成本优势**:美西机房的带宽成本相对较低,性价比高 4. **服务稳定**:搬瓦工等服务商在美西运营经验丰富,稳定性好 **不会!** 我们使用的是搬瓦工的**回国优化专线**(CN2 GIA 等),专门针对中国大陆用户进行了网络优化。 **实际表现**: * 中国大陆用户访问延迟通常在 50-150ms * 即使是大图片的 Base64 传输也速度正常 * 无需配置代理或 VPN 您可以通过上述的测试方法实际测试一下您的网络延迟。 **优化建议**: 1. **服务器选择**:选择美西机房的服务器(与我们在同一地区) 2. **连接复用**:使用 HTTP 连接池,避免频繁建立新连接 3. **批量请求**:将多个小请求合并为批量请求 4. **异步调用**:使用异步方式调用 API,不阻塞主线程 5. **本地缓存**:缓存重复的请求结果 6. **CDN 加速**:对于静态资源使用 CDN 详见上方的"网络优化建议"章节。 我们目前专注于提供**高质量、稳定**的美西服务器服务,并通过回国专线优化为全球用户(尤其是中国大陆用户)提供良好的网络体验。 未来我们会根据用户需求和业务发展情况,评估在其他地区(如欧洲、亚太)部署服务器的可能性。 如果您有特殊的地理位置需求,欢迎联系我们的商务团队讨论定制方案。 如果您的服务器延迟较高(大于 500ms),可以考虑: **短期方案**: * 使用代理或 CDN 加速 * 优化应用代码(连接池、异步调用等) * 批量请求减少网络往返次数 **长期方案**: * 迁移服务器到美西机房 * 使用多地域部署,美西服务器专门用于调用 API易 * 联系我们讨论定制化网络优化方案 **非常适合!** 搬瓦工提供多种价格档位的 VPS 套餐: * **入门级**:适合个人开发者测试和小流量应用 * **中端**:适合中小型生产环境 * **高端**:适合大流量、高并发场景 优势: * 价格相对合理,性价比高 * 回国专线优化(中国大陆访问速度快) * 支持月付、年付等灵活付款方式 * 提供快照备份、一键重装等便捷功能 ## 相关文档 了解如何解决网络连接问题、配置代理等 了解 API 的并发限制和性能优化建议 ## 联系我们 如有服务器选择、网络优化等相关问题,欢迎联系我们: 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 网络优化、技术支持 **客服邮箱**:[support@apiyi.com](mailto:support@apiyi.com) **商务合作**:[business@apiyi.com](mailto:business@apiyi.com) # 为方便排查问题,可以在后台看到详细日志吗? Source: https://docs.apiyi.com/faq/user-logs-control 了解管理员如何协助排查问题时开启详细日志记录功能 ## 默认隐私保护策略 出于隐私安全考虑,API易默认**不存储**客户的输入和输出内容,只做透明代理的转发。 这意味着: * ✅ 您的数据隐私得到最大程度保护 * ✅ 减少数据存储成本 * ✅ 符合数据安全最佳实践 * ❌ 管理员后台无法查看具体的对话内容 ## 批量调用场景的问题 很多客户在跑批处理时会遇到这样的困扰: **典型问题场景** "后台能把用户的输入放进去吗?不然跑批的时候根本区分不出来哪次调用对应哪个任务啊!" 批量处理时,如果没有详细的输入输出记录,确实很难追踪具体是哪个任务出了问题。 ## 管理员协助排查功能 如果您遇到问题需要技术支持协助排查,我们可以**临时开启**详细日志记录功能,由管理员协助定位问题。 **重要说明** * 这个功能仅在**管理员后台**开启,客户无法自主控制 * 详细日志内容**仅管理员可见**,不会透出给客户 * 这是一个配合协助问题排查的功能,非常规使用 ### 如何请求开启 通过客服渠道(Telegram、邮件等)详细描述遇到的问题,说明需要协助排查 技术支持人员评估是否需要开启详细日志来定位问题 管理员在后台为您的账号临时开启日志详情记录功能 管理员通过查看详细日志协助定位和解决问题 问题解决后,管理员会及时关闭详细日志记录功能 ### 管理员后台界面 这是管理员后台的日志详情控制界面(客户无法访问): 管理员后台日志详情控制 管理员后台日志详情控制 ## 详细日志包含的内容 管理员开启详细日志记录后,系统会额外记录: * 用户的完整提示词 * 系统消息 * 上下文对话历史 * 函数调用参数 * AI 模型的完整回复 * 函数调用结果 * 流式输出的完整内容 * 返回的元数据 **隐私提醒** 这些详细日志**仅管理员可见**,用于协助您排查技术问题。我们承诺: * 仅在必要时开启此功能 * 仅用于技术支持目的 * 问题解决后及时关闭 * 严格保护您的数据隐私 ## 适用场景 ### 推荐请求开启的场景 以下情况可以联系客服请求管理员协助排查: * 🔍 **接口报错**:频繁出现错误但无法定位原因 * 📊 **批量任务异常**:跑批时部分任务失败,需要追踪具体哪些请求有问题 * 🧪 **输出质量问题**:模型输出异常,需要分析具体的输入输出内容 * 📈 **性能问题**:调用延迟异常,需要详细日志分析瓶颈 * 🐛 **疑似 Bug**:怀疑系统存在问题,需要提供详细信息给技术团队 ### 何时无需开启 以下场景通常不需要开启详细日志: * ✅ **正常使用**:API 调用正常,无异常情况 * ✅ **常规问题**:通过基础日志(Token 统计、错误类型)已能定位 * ✅ **隐私敏感**:处理极其敏感的数据,不希望任何人查看 ## 数据安全说明 **重要提示** 即使临时开启详细日志记录,我们也会: * ✅ 采用加密存储保护您的数据 * ✅ 严格限制日志访问权限(仅授权管理员) * ✅ 问题解决后立即关闭功能 * ✅ 定期自动清理过期日志数据 * ✅ 遵守相关数据保护法规 * ✅ 详细日志不会透出给任何第三方 ## 常见问题 ### 我可以自己在后台开启这个功能吗? 不可以。这个功能仅在管理员后台开启,客户无法自主操作。如需协助排查问题,请联系客服。 ### 开启后我能看到详细日志吗? 不能。详细日志内容仅管理员可见,用于技术支持目的。客户只能看到基础的调用记录(Token 统计、错误类型等)。 ### 开启详细日志会影响性能吗? 影响极小,主要是增加少量日志写入时间(通常 \< 10ms),不会影响正常使用。 ### 日志保存多久? 详细日志默认保存 7-30 天,问题解决后管理员会及时关闭记录功能。 ### 管理员会看到我所有的请求内容吗? 仅在开启详细日志期间的请求会被记录。管理员仅在协助您排查问题时查看相关日志,严格遵守保密协议。 ### 可以只记录特定时间段的调用吗? 可以。您可以与客服约定具体的开启时间段,例如只在复现问题的时候临时开启。 ## 联系我们 如遇到技术问题需要管理员协助排查,请通过以下方式联系我们: [feedback@apiyi.com](mailto:feedback@apiyi.com) 详细描述问题和复现步骤 企业微信客服二维码 扫码添加 或 [点击联系客服](https://work.weixin.qq.com/kfid/kfc9adfd5810ece25ec) 快速响应,实时沟通 @apiyi001 即时消息,高效解决 **提高排查效率的建议** 联系客服时,请尽量提供以下信息: * 问题发生的时间段 * 受影响的 API 调用次数 * 错误信息或异常现象描述 * 是否可复现及复现步骤 这些信息能帮助管理员更快定位和解决问题。 # 实时动态归档 Source: https://docs.apiyi.com/live/archive 按月份、分类、厂商三种维度浏览历史动态,每条均有独立详情页可分享。 这里是实时动态的完整历史归档。每条动态都有独立子页(含 SEO frontmatter),可以单独分享给客户。三种入口可任选其一:按时间倒序找最新、按分类聚焦话题、按厂商跟踪某家动态。 ## 按月浏览 8 条 74 条 62 条 ## 按分类浏览 并发、负载、稳定性、故障恢复播报 · 81 条 新模型上线、新分组、新功能 · 27 条 降价、涨价、优惠活动 · 6 条 平台维护、停机、迁移 · 16 条 AI 领域重要事件、文档更新 · 7 条 文档新增、改版、修订 · 7 条 ## 按厂商浏览 5 条 5 条 2 条 1 条 71 条 1 条 1 条 35 条 2 条 2 条 *** ## 2026 年 5 月 * **2026-05-07 15:20** [AI图片大师:拖拽/替换图片 + 上传扩容到 12 张](/live/2026-05/imagen-drag-replace-12) — 服务通知 * **2026-05-07 01:44** [AI图片大师批量生成页:一键下载全部 + 全屏预览升级](/live/2026-05/imagen-batch-download) — 服务通知 * **2026-05-06 15:35** [文档中心每页支持一键复制 + 问 AI(ChatGPT / Claude / Perplexity / Google AI Studio)](/live/2026-05/docs-copy-ask-ai) — 文档更新 * **2026-05-06 15:33** [gpt-image-2 官转 vs 官逆对比文档已更新,建议双通道接入互为兜底](/live/2026-05/gpt-image-2-vs-doc-updated) — 文档更新 · OpenAI * **2026-05-06 11:45** [VEO 3.1 高负载报错已解决,视频生成恢复正常](/live/2026-05/veo-3-1-recovered) — 模型状态 · Google * **2026-05-03 23:10** [Grok 4.3 上线(全分组开放)](/live/2026-05/grok-4-3-launch) — 新模型 · xAI * **2026-05-03 23:00** [gpt-5.5-pro 上线(仅 SVIP 分组)](/live/2026-05/gpt-5-5-pro-launch) — 新模型 · OpenAI * **2026-05-03 22:40** [Claude Code 超高缓存命中率,单次调用低至 \\\$0.08](/live/2026-05/claude-code-cache-hit) — 行业快讯 · Anthropic ## 2026 年 4 月 * **2026-04-30 23:12** [FLUX.2 系列图片编辑文档更新:Playground 现可在线测试](/live/2026-04/flux-2-image-edit-playground) — 文档更新 * **2026-04-30 14:26** [图片大师工具上线 gpt-image-2 全系列三模型](/live/2026-04/image-master-gpt-image-2-trio) — 新模型 · OpenAI * **2026-04-30 13:52** [飞书多维表格 + Coze 零代码生图方案上线](/live/2026-04/feishu-coze-nano-banana-pro) — 文档更新 · Google * **2026-04-29 14:58** [官转 gpt-image-2 建议把 timeout 调到 360–600 秒兜底](/live/2026-04/gpt-image-2-latency-spike) — 模型状态 · OpenAI * **2026-04-29 11:06** [gpt-image-2 通道状态:企业分组稳定,官逆 -all / -vip 双模型都稳](/live/2026-04/image2-vip-channels-stable) — 模型状态 · OpenAI * **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic * **2026-04-28 17:14** [经验分享:gpt-5.5 / gpt-image-2 官转 API 不能直接输出 PSD](/live/2026-04/api-psd-output-explained) — 行业快讯 · OpenAI * **2026-04-28 16:15** [线上故障复盘:14:50–15:15 流量分发节点 SSL 证书到期](/live/2026-04/ssl-cert-incident-postmortem) — 服务通知 * **2026-04-28 15:59** [默认 \$30 余额告警邮件已停用,可在后台自行开启](/live/2026-04/default-balance-alert-off) — 服务通知 * **2026-04-28 15:36** [gpt-image-2 双通道状态:官转走企业分组、官逆很稳](/live/2026-04/gpt-image-2-channels-stable) — 模型状态 · OpenAI * **2026-04-28 00:29** [Qwen3.6 开源双模上线(API易官转托管 · 免租卡)](/live/2026-04/qwen3-6-opensource) — 新模型 · Alibaba * **2026-04-27 23:59** [Qwen3.6-Max-Preview 与 Flash 上线(阿里云官转)](/live/2026-04/qwen3-6-max-flash) — 新模型 · Alibaba * **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu * **2026-04-27 15:59** [image2Enterprise 分组稳定运行中(官转 gpt-image-2 推荐路径)](/live/2026-04/image2-enterprise-stable) — 模型状态 · OpenAI * **2026-04-27 15:28** [官逆 gpt-image-2-all 报错 500 通常是内容违规(不计费)](/live/2026-04/gpt-image-2-all-500-content-policy) — 模型状态 · OpenAI * **2026-04-27 12:06** [gpt-image-2-all(官逆)已恢复正常;gpt-image-2 官转建议走 image2Enterprise 更稳](/live/2026-04/gpt-image-2-all-recovered) — 模型状态 · OpenAI * **2026-04-27 11:24** [gpt-image-2 报错 429 / 408 提醒(Default 分组资源紧张)](/live/2026-04/gpt-image-2-429-408) — 模型状态 · OpenAI * **2026-04-26 15:10** [Codex 接入 API易 文档已更新,接入更简单](/live/2026-04/codex-cli-docs-updated) — 文档更新 · OpenAI * **2026-04-26 14:25** [默认分组 gpt-image-2 资源已补充,并发调用恢复正常](/live/2026-04/gpt-image-2-default-recovered) — 模型状态 · OpenAI * **2026-04-25 18:39** [GPT-5.5 官转上线(OpenAI 官方直转)](/live/2026-04/gpt-5-5) — 新模型 · OpenAI * **2026-04-25 11:54** [新增 image2Enterprise 企业分组(1.2x 倍率)](/live/2026-04/image2-enterprise) — 新模型 · OpenAI * **2026-04-25 11:18** [Gemini 图像双模周末平稳](/live/2026-04/gemini) — 模型状态 · Google * **2026-04-25 11:15** [gpt-image-2 官转通道资源拥挤(算力紧张)](/live/2026-04/gpt-image-2) — 模型状态 · OpenAI * **2026-04-25 01:30** [Kimi K2.6 上线(华为云官转)](/live/2026-04/kimi-k2-6) — 新模型 · Moonshot * **2026-04-24 22:26** [gpt-image-2 官方通道临时限额(负载中)](/live/2026-04/gpt-image-2-0424-2226) — 模型状态 · OpenAI * **2026-04-24 20:20** [DeepSeek V4-Pro / V4-Flash 预览版上线(阿里云官转)](/live/2026-04/deepseek-v4-pro-v4-flash) — 新模型 · DeepSeek * **2026-04-24 15:35** [新增社区贡献:APIYI GPT-Image 2 Skills](/live/2026-04/apiyi-gpt-image-2-skills) — 文档更新 · OpenAI * **2026-04-24 15:33** [新增社区贡献:Luck GPT-Image 2 ComfyUI 节点](/live/2026-04/luck-gpt-image-2-comfyui) — 文档更新 · OpenAI * **2026-04-24 12:49** [喜报:在线充值已完全修复](/live/2026-04/service-notice-0424-1249) — 服务通知 * **2026-04-24 10:26** [充值页面仍异常,已开通企业微信人工充值通道](/live/2026-04/service-notice-0424-1026) — 服务通知 * **2026-04-24 09:36** [充值页面跳转已恢复](/live/2026-04/service-notice-0424-0936) — 服务通知 * **2026-04-23 18:52** [gpt-image-2 官转已恢复](/live/2026-04/gpt-image-2-0423-1852) — 模型状态 · OpenAI * **2026-04-23 18:17** [gpt-image-2 官转状态更新](/live/2026-04/gpt-image-2-0423-1817) — 模型状态 · OpenAI * **2026-04-23 16:37** [gpt-image-2 官转模型并发告急](/live/2026-04/gpt-image-2-0423-1637) — 模型状态 · OpenAI * **2026-04-23 13:40** [新增 GPT-image-2 官转 vs 官逆 选型对照文档](/live/2026-04/gpt-image-2-vs) — 新模型 · OpenAI * **2026-04-23 09:19** [OpenAI gpt-image-2 旗舰图像模型上线](/live/2026-04/openai-gpt-image-2) — 新模型 · OpenAI * **2026-04-22 13:36** [gpt-image-2-all 新增对话式 Playground 文档](/live/2026-04/gpt-image-2-all-playground) — 新模型 · OpenAI * **2026-04-22 09:53** [旧版图像模型已官方下线 — 请尽快切换至 gpt-image-2-all](/live/2026-04/gpt-image-2-all) — 服务通知 · OpenAI * **2026-04-22 01:36** [ChatGPT 最新生图能力 gpt-image-2-all 已上线](/live/2026-04/chatgpt-gpt-image-2-all) — 新模型 · OpenAI * **2026-04-21 17:32** [gemini-3-pro-image-preview(Nano Banana Pro)谷歌官方算力紧…](/live/2026-04/model-status-0421-1732) — 模型状态 · Google * **2026-04-21 15:37** [Nano Banana Pro (gemini-3-pro-image-preview) 出现 50…](/live/2026-04/model-status-0421-1537) — 模型状态 · Google * **2026-04-21 10:27** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-1027) — 模型状态 · Google * **2026-04-21 09:33** [⏳ gemini-3-pro-image-preview(Nano Banana Pro)自今早 0…](/live/2026-04/model-status-0421-0933) — 模型状态 · Google * **2026-04-21 00:45** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-0045) — 模型状态 · Google * **2026-04-20 23:18** [gemini-3-pro-image-preview 受谷歌官方资源限制,默认分组 + 企业分组暂时…](/live/2026-04/model-status-0420-2318) — 模型状态 · Google * **2026-04-20 23:11** [Claude 系列运行稳定:claude-opus-4-7、claude-sonnet-4-6 今日…](/live/2026-04/model-status-0420-2311) — 模型状态 · Anthropic * **2026-04-20 18:46** [⏳ gemini-3-pro-image-preview 仍未恢复,并发不足,失败会直接报 429(…](/live/2026-04/model-status-0420-1846) — 模型状态 · Google * **2026-04-20 16:12** [gemini-3-pro-image-preview 资源配额不足(含企业分组),目前正在维护补配额…](/live/2026-04/model-status-0420-1612) — 模型状态 · Google * **2026-04-20 12:41** [gemini-3.](/live/2026-04/model-status-0420-1241) — 模型状态 · Google * **2026-04-17 00:25** [Claude Opus 4.](/live/2026-04/new-model-0417-0025) — 新模型 · Anthropic * **2026-04-16 20:11** [针对近期 Nano Banana 系列的价格调整,我们专门制作了价格对比页面:含默认定价、常规充值(…](/live/2026-04/price-0416-2011) — 价格变动 · Google * **2026-04-16 11:08** [因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后 Nano Banana 2 按…](/live/2026-04/price-0416-1108) — 价格变动 · Google * **2026-04-14 23:15** [Nano Banana Pro 与 Nano Banana 2 今日稳定运行一整天,默认分组已全面恢…](/live/2026-04/model-status-0414-2315) — 模型状态 · Google * **2026-04-14 00:25** [默认分组已恢复 gemini-3-pro-image-preview(Nano Banana Pro…](/live/2026-04/model-status-0414-0025) — 模型状态 · Google * **2026-04-13 10:00** [好消息](/live/2026-04/price-0413-1000) — 价格变动 · Google * **2026-04-11 12:34** [Nano Banana 2 已增加更多资源,默认分组正常使用](/live/2026-04/model-status-0411-1234) — 模型状态 · Google * **2026-04-10 17:29** [模型状态播报:gemini-3.](/live/2026-04/model-status-0410-1729) — 模型状态 · Google * **2026-04-10 17:25** [常规分组仍在努力排查中,暂未恢复](/live/2026-04/model-status-0410-1725) — 模型状态 · Google * **2026-04-10 14:05** [Nano Banana 2:Default 分组暂时恢复可用,但仍较拥堵](/live/2026-04/model-status-0410-1405) — 模型状态 · Google * **2026-04-10 10:56** [Nano Banana 令牌设置最佳实践:计费模式选「按量优先」(兼容 Nano Banana 2 …](/live/2026-04/model-status-0410-1056) — 模型状态 · Google * **2026-04-10 10:09** [默认分组 Nano Banana 系列故障(IP 代理问题 + KEY 配额不足),正在处理中](/live/2026-04/model-status-0410-1009) — 模型状态 · Google * **2026-04-09 12:51** [glm-5.](/live/2026-04/new-model-0409-1251) — 新模型 · Zhipu * **2026-04-09 11:13** [Veo 3.](/live/2026-04/model-status-0409-1113) — 模型状态 · Google * **2026-04-09 10:37** [经半小时观察,10:00 (UTC+8) 之后 Nano Banana Pro / 2 超低价默认分…](/live/2026-04/model-status-0409-1037) — 模型状态 · Google * **2026-04-09 09:47** [谷歌 Nano Banana 系列直连官网,今早 KEY 异常掉线较快,部分失败任务请重试](/live/2026-04/model-status-0409-0947) — 模型状态 · Google * **2026-04-07 23:57** [新上线 NanoBananaEnterprise 分组:The Most Stable API fo…](/live/2026-04/new-model-0407-2357) — 新模型 · Google * **2026-04-06 01:30** [qwen3.](/live/2026-04/new-model-0406-0130) — 新模型 · Alibaba * **2026-04-04 21:20** [新增模型名 gemini-3.](/live/2026-04/new-model-0404-2120) — 新模型 · Google * **2026-04-03 16:19** [Claude 系列模型缓存写入价格从 1.](/live/2026-04/price-0403-1619) — 价格变动 · Anthropic * **2026-04-03 10:50** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-04/model-status-0403-1050) — 模型状态 · Google * **2026-04-02 17:10** [Fallback 建议:gemini-3-pro-preview 文本模型资源紧张,建议合理设置超时…](/live/2026-04/model-status-0402-1710) — 模型状态 · Google * **2026-04-02 13:52** [稳定性播报:gemini-3.](/live/2026-04/model-status-0402-1352) — 模型状态 · Google * **2026-04-01 23:38** [Nano Banana Pro 和 Nano Banana 2 今天稳定运行一整天,4 月好兆头](/live/2026-04/model-status-0401-2338) — 模型状态 · Google * **2026-04-01 00:03** [gemini-embedding-2-preview 谷歌首个原生多模态嵌入模型上线](/live/2026-04/new-model-0401-0003) — 新模型 · Google ## 2026 年 3 月 * **2026-03-31 16:11** [Nano Banana Pro 同样受谷歌官方 503 高负载影响,并发受限,静待官方恢复](/live/2026-03/model-status-0331-1611) — 模型状态 · Google * **2026-03-31 11:04** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0331-1104) — 模型状态 · Google * **2026-03-30 22:46** [seed-2-0-pro-260328 字节跳动 Seed 2.](/live/2026-03/new-model-0330-2246) — 新模型 · ByteDance * **2026-03-30 11:09** [近期 Gemini 官方偶尔存在波动,如遇到 gemini-3-pro-image-preview …](/live/2026-03/model-status-0330-1109) — 模型状态 · Google * **2026-03-28 06:04** [Nano Banana Pro 和 Nano Banana 2 均已恢复正常速度](/live/2026-03/model-status-0328-0604) — 模型状态 · Google * **2026-03-28 00:19** [Nano Banana Pro:谷歌尚未修复,静待恢复中](/live/2026-03/model-status-0328-0019) — 模型状态 · Google * **2026-03-27 20:52** [初代小香蕉 gemini-2.](/live/2026-03/model-status-0327-2052) — 模型状态 · Google * **2026-03-27 20:07** [gemini-3.](/live/2026-03/model-status-0327-2007) — 模型状态 · Google * **2026-03-27 16:48** [gemini-3-pro-image-preview(Nano Banana Pro)目测已恢复正常…](/live/2026-03/model-status-0327-1648) — 模型状态 · Google * **2026-03-27 15:47** [Nano Banana 2 当下比 Nano Banana Pro 稳定](/live/2026-03/model-status-0327-1547) — 模型状态 · Google * **2026-03-27 15:06** [gemini-3.](/live/2026-03/model-status-0327-1506) — 模型状态 · Google * **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google * **2026-03-27 11:28** [API易有哪些可选的 Base URL](/live/2026-03/industry-news-0327-1128) — 行业快讯 * **2026-03-27 11:28** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0327-1128) — 模型状态 · Google * **2026-03-24 23:49** [新增常见问题:Base URL 配置指南,详解 OpenAI /v1、Claude 根域名、Gemi…](/live/2026-03/industry-news-0324-2349) — 行业快讯 * **2026-03-24 23:15** [新增常见问题:模型倍率与价格说明,帮助大家理解倍率计算方式和不同模型的计费逻辑](/live/2026-03/industry-news-0324-2315) — 行业快讯 * **2026-03-24 00:22** [MiniMax-M2.](/live/2026-03/new-model-0324-0022) — 新模型 · MiniMax * **2026-03-23 19:20** [网站后台频现 429 的问题已解决,后台刷新、查看日志、充值等功能恢复正常](/live/2026-03/service-notice-0323-1920) — 服务通知 * **2026-03-23 12:56** [Sora-2 低价版本今天挺稳的,可以试试~使用默认分组或 sora-2 分组,\$0.](/live/2026-03/model-status-0323-1256) — 模型状态 · OpenAI * **2026-03-23 10:25** [网站后台出现 429 限流,属于整体流量过大的自我保护机制,几分钟后会自动解除,不影响 API 接口…](/live/2026-03/service-notice-0323-1025) — 服务通知 * **2026-03-21 11:48** [今天 Nano Banana Pro(gemini-3-pro-image-preview)和 Na…](/live/2026-03/model-status-0321-1148) — 模型状态 · Google * **2026-03-21 00:54** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0321-0054) — 模型状态 · Google * **2026-03-20 10:50** [新增 4 款 Grok 4.](/live/2026-03/new-model-0320-1050) — 新模型 · xAI * **2026-03-19 21:12** [Veo 3.](/live/2026-03/model-status-0319-2112) — 模型状态 · Google * **2026-03-19 20:41** [谷歌算力已恢复,Nano Banana Pro(gemini-3-pro-image-preview…](/live/2026-03/model-status-0319-2041) — 模型状态 · Google * **2026-03-19 17:28** [Nano Banana Pro(gemini-3-pro-image-preview)又遇谷歌算力偏…](/live/2026-03/model-status-0319-1728) — 模型状态 · Google * **2026-03-19 16:21** [Nano Banana Pro(gemini-3-pro-image-preview)下午超高并发,…](/live/2026-03/model-status-0319-1621) — 模型状态 · Google * **2026-03-19 16:00** [技巧分享:受谷歌算力波动影响,建议将 Nano Banana Pro 和 2 的 API 超时时间 …](/live/2026-03/model-status-0319-1600) — 模型状态 · Google * **2026-03-19 15:59** [Nano Banana Pro(gemini-3-pro-image-preview)又受谷歌高负载…](/live/2026-03/model-status-0319-1559) — 模型状态 · Google * **2026-03-19 13:12** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-03/model-status-0319-1312) — 模型状态 · Google * **2026-03-19 12:50** [Veo 3.](/live/2026-03/model-status-0319-1250) — 模型状态 · Google * **2026-03-19 10:58** [Nano Banana Pro(gemini-3-pro-image-preview)已恢复正常水平…](/live/2026-03/model-status-0319-1058) — 模型状态 · Google * **2026-03-19 10:25** [Nano Banana Pro(gemini-3-pro-image-preview)目前并发不足,…](/live/2026-03/model-status-0319-1025) — 模型状态 · Google * **2026-03-18 14:54** [新上线 gpt-5.](/live/2026-03/new-model-0318-1454) — 新模型 · OpenAI * **2026-03-18 12:27** [Sora-2 官逆低价版目前成功率不高,但仍能产出,还需进一步优化号池](/live/2026-03/model-status-0318-1227) — 模型状态 · OpenAI * **2026-03-18 01:27** [Sora-2 官逆低价版本已恢复,观察中,希望这次不是一日游](/live/2026-03/model-status-0318-0127) — 模型状态 · OpenAI * **2026-03-17 16:30** [今天下午 Nano Banana Pro(gemini-3-pro-image-preview)和 …](/live/2026-03/model-status-0317-1630) — 模型状态 · Google * **2026-03-17 11:37** [推荐:gemini-3.](/live/2026-03/new-model-0317-1137) — 新模型 · Google * **2026-03-16 18:13** [Nano Banana Pro 目前已基本恢复正常,约 3% 的请求偶尔会卡顿,谷歌算力恢复中](/live/2026-03/model-status-0316-1813) — 模型状态 · Google * **2026-03-16 17:49** [Nano Banana Pro(gemini-3-pro-image-preview)陆续恢复中,但…](/live/2026-03/model-status-0316-1749) — 模型状态 · Google * **2026-03-16 16:27** [谷歌图片模型状态更新:gemini-3.](/live/2026-03/model-status-0316-1627) — 模型状态 · Google * **2026-03-16 15:49** [Nano Banana 2 出现 503 错误(谷歌官方负载过高),原始报错:This model …](/live/2026-03/model-status-0316-1549) — 模型状态 · Google * **2026-03-14 00:29** [周末福利](/live/2026-03/price-0314-0029) — 价格变动 * **2026-03-13 16:11** [OVH 故障已解决,API易网站已恢复正常访问和接口调用](/live/2026-03/service-notice-0313-1611) — 服务通知 * **2026-03-13 15:35** [紧急通知:服务器厂商 OVH 系统故障,目前正在修复中,预计 15 分钟内恢复](/live/2026-03/service-notice-0313-1535) — 服务通知 * **2026-03-13 11:22** [网站后台出现 429 限流问题,不影响 API 接口调用,但影响后台页面使用](/live/2026-03/service-notice-0313-1122) — 服务通知 * **2026-03-10 23:30** [文档中心 OpenClaw 栏目进行了更细化调整,帮助大家更快用上 OpenClaw,一起来"养虾"…](/live/2026-03/industry-news-0310-2330) — 行业快讯 * **2026-03-10 23:19** [谷歌公告:gemini-3-pro-preview 已于 3 月 9 日关停弃用](/live/2026-03/service-notice-0310-2319) — 服务通知 · Google * **2026-03-09 19:25** [整理了 Nano Banana 图片 API 系列常见的出图失败原因,遇到问题可先自查](/live/2026-03/industry-news-0309-1925) — 行业快讯 * **2026-03-09 11:58** [网站频现 429 的问题已解决](/live/2026-03/service-notice-0309-1158) — 服务通知 * **2026-03-09 10:39** [网站后台频现 429 繁忙问题,不影响 API 接口调用,但会影响网站后台正常使用和充值(人工充值可…](/live/2026-03/service-notice-0309-1039) — 服务通知 * **2026-03-08 10:04** [seed-2-0-lite-260228 新模型上线](/live/2026-03/new-model-0308-1004) — 新模型 · ByteDance * **2026-03-07 19:41** [Gemini 全系列已恢复正常水平](/live/2026-03/model-status-0307-1941) — 模型状态 · Google * **2026-03-06 15:08** [Veo 3.](/live/2026-03/model-status-0306-1508) — 模型状态 · Google * **2026-03-06 11:05** [GPT-5.](/live/2026-03/new-model-0306-1105) — 新模型 · OpenAI * **2026-03-06 11:03** [gemini-3-pro-image-preview 正常运行,gemini-3.](/live/2026-03/model-status-0306-1103) — 模型状态 · Google * **2026-03-06 10:04** [Sora 2 低价版本一日游,目前再次被风控,已无法使用](/live/2026-03/model-status-0306-1004) — 模型状态 · OpenAI * **2026-03-05 20:12** [Sora 2 官逆已恢复,\$0.](/live/2026-03/model-status-0305-2012) — 模型状态 · OpenAI * **2026-03-05 20:11** [gemini-3-pro-image-preview 和 gemini-3.](/live/2026-03/model-status-0305-2011) — 模型状态 · Google * **2026-03-05 11:50** [Veo 3.](/live/2026-03/model-status-0305-1150) — 模型状态 · Google * **2026-03-05 11:04** [gemini-3-pro-image-preview 今早 10 点左右并发不足,10:20 后已补…](/live/2026-03/model-status-0305-1104) — 模型状态 · Google * **2026-03-04 23:30** [gemini-3-pro-image-preview 正常,gemini-3.](/live/2026-03/model-status-0304-2330) — 模型状态 · Google *** ## 分类:模型状态 * **2026-05-06 11:45** [VEO 3.1 高负载报错已解决,视频生成恢复正常](/live/2026-05/veo-3-1-recovered) — 模型状态 · Google * **2026-04-29 14:58** [官转 gpt-image-2 建议把 timeout 调到 360–600 秒兜底](/live/2026-04/gpt-image-2-latency-spike) — 模型状态 · OpenAI * **2026-04-29 11:06** [gpt-image-2 通道状态:企业分组稳定,官逆 -all / -vip 双模型都稳](/live/2026-04/image2-vip-channels-stable) — 模型状态 · OpenAI * **2026-04-28 15:36** [gpt-image-2 双通道状态:官转走企业分组、官逆很稳](/live/2026-04/gpt-image-2-channels-stable) — 模型状态 · OpenAI * **2026-04-27 15:59** [image2Enterprise 分组稳定运行中(官转 gpt-image-2 推荐路径)](/live/2026-04/image2-enterprise-stable) — 模型状态 · OpenAI * **2026-04-27 15:28** [官逆 gpt-image-2-all 报错 500 通常是内容违规(不计费)](/live/2026-04/gpt-image-2-all-500-content-policy) — 模型状态 · OpenAI * **2026-04-27 12:06** [gpt-image-2-all(官逆)已恢复正常;gpt-image-2 官转建议走 image2Enterprise 更稳](/live/2026-04/gpt-image-2-all-recovered) — 模型状态 · OpenAI * **2026-04-27 11:24** [gpt-image-2 报错 429 / 408 提醒(Default 分组资源紧张)](/live/2026-04/gpt-image-2-429-408) — 模型状态 · OpenAI * **2026-04-26 14:25** [默认分组 gpt-image-2 资源已补充,并发调用恢复正常](/live/2026-04/gpt-image-2-default-recovered) — 模型状态 · OpenAI * **2026-04-25 11:18** [Gemini 图像双模周末平稳](/live/2026-04/gemini) — 模型状态 · Google * **2026-04-25 11:15** [gpt-image-2 官转通道资源拥挤(算力紧张)](/live/2026-04/gpt-image-2) — 模型状态 · OpenAI * **2026-04-24 22:26** [gpt-image-2 官方通道临时限额(负载中)](/live/2026-04/gpt-image-2-0424-2226) — 模型状态 · OpenAI * **2026-04-23 18:52** [gpt-image-2 官转已恢复](/live/2026-04/gpt-image-2-0423-1852) — 模型状态 · OpenAI * **2026-04-23 18:17** [gpt-image-2 官转状态更新](/live/2026-04/gpt-image-2-0423-1817) — 模型状态 · OpenAI * **2026-04-23 16:37** [gpt-image-2 官转模型并发告急](/live/2026-04/gpt-image-2-0423-1637) — 模型状态 · OpenAI * **2026-04-21 17:32** [gemini-3-pro-image-preview(Nano Banana Pro)谷歌官方算力紧…](/live/2026-04/model-status-0421-1732) — 模型状态 · Google * **2026-04-21 15:37** [Nano Banana Pro (gemini-3-pro-image-preview) 出现 50…](/live/2026-04/model-status-0421-1537) — 模型状态 · Google * **2026-04-21 10:27** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-1027) — 模型状态 · Google * **2026-04-21 09:33** [⏳ gemini-3-pro-image-preview(Nano Banana Pro)自今早 0…](/live/2026-04/model-status-0421-0933) — 模型状态 · Google * **2026-04-21 00:45** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-0045) — 模型状态 · Google * **2026-04-20 23:18** [gemini-3-pro-image-preview 受谷歌官方资源限制,默认分组 + 企业分组暂时…](/live/2026-04/model-status-0420-2318) — 模型状态 · Google * **2026-04-20 23:11** [Claude 系列运行稳定:claude-opus-4-7、claude-sonnet-4-6 今日…](/live/2026-04/model-status-0420-2311) — 模型状态 · Anthropic * **2026-04-20 18:46** [⏳ gemini-3-pro-image-preview 仍未恢复,并发不足,失败会直接报 429(…](/live/2026-04/model-status-0420-1846) — 模型状态 · Google * **2026-04-20 16:12** [gemini-3-pro-image-preview 资源配额不足(含企业分组),目前正在维护补配额…](/live/2026-04/model-status-0420-1612) — 模型状态 · Google * **2026-04-20 12:41** [gemini-3.](/live/2026-04/model-status-0420-1241) — 模型状态 · Google * **2026-04-14 23:15** [Nano Banana Pro 与 Nano Banana 2 今日稳定运行一整天,默认分组已全面恢…](/live/2026-04/model-status-0414-2315) — 模型状态 · Google * **2026-04-14 00:25** [默认分组已恢复 gemini-3-pro-image-preview(Nano Banana Pro…](/live/2026-04/model-status-0414-0025) — 模型状态 · Google * **2026-04-11 12:34** [Nano Banana 2 已增加更多资源,默认分组正常使用](/live/2026-04/model-status-0411-1234) — 模型状态 · Google * **2026-04-10 17:29** [模型状态播报:gemini-3.](/live/2026-04/model-status-0410-1729) — 模型状态 · Google * **2026-04-10 17:25** [常规分组仍在努力排查中,暂未恢复](/live/2026-04/model-status-0410-1725) — 模型状态 · Google * **2026-04-10 14:05** [Nano Banana 2:Default 分组暂时恢复可用,但仍较拥堵](/live/2026-04/model-status-0410-1405) — 模型状态 · Google * **2026-04-10 10:56** [Nano Banana 令牌设置最佳实践:计费模式选「按量优先」(兼容 Nano Banana 2 …](/live/2026-04/model-status-0410-1056) — 模型状态 · Google * **2026-04-10 10:09** [默认分组 Nano Banana 系列故障(IP 代理问题 + KEY 配额不足),正在处理中](/live/2026-04/model-status-0410-1009) — 模型状态 · Google * **2026-04-09 11:13** [Veo 3.](/live/2026-04/model-status-0409-1113) — 模型状态 · Google * **2026-04-09 10:37** [经半小时观察,10:00 (UTC+8) 之后 Nano Banana Pro / 2 超低价默认分…](/live/2026-04/model-status-0409-1037) — 模型状态 · Google * **2026-04-09 09:47** [谷歌 Nano Banana 系列直连官网,今早 KEY 异常掉线较快,部分失败任务请重试](/live/2026-04/model-status-0409-0947) — 模型状态 · Google * **2026-04-03 10:50** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-04/model-status-0403-1050) — 模型状态 · Google * **2026-04-02 17:10** [Fallback 建议:gemini-3-pro-preview 文本模型资源紧张,建议合理设置超时…](/live/2026-04/model-status-0402-1710) — 模型状态 · Google * **2026-04-02 13:52** [稳定性播报:gemini-3.](/live/2026-04/model-status-0402-1352) — 模型状态 · Google * **2026-04-01 23:38** [Nano Banana Pro 和 Nano Banana 2 今天稳定运行一整天,4 月好兆头](/live/2026-04/model-status-0401-2338) — 模型状态 · Google * **2026-03-31 16:11** [Nano Banana Pro 同样受谷歌官方 503 高负载影响,并发受限,静待官方恢复](/live/2026-03/model-status-0331-1611) — 模型状态 · Google * **2026-03-31 11:04** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0331-1104) — 模型状态 · Google * **2026-03-30 11:09** [近期 Gemini 官方偶尔存在波动,如遇到 gemini-3-pro-image-preview …](/live/2026-03/model-status-0330-1109) — 模型状态 · Google * **2026-03-28 06:04** [Nano Banana Pro 和 Nano Banana 2 均已恢复正常速度](/live/2026-03/model-status-0328-0604) — 模型状态 · Google * **2026-03-28 00:19** [Nano Banana Pro:谷歌尚未修复,静待恢复中](/live/2026-03/model-status-0328-0019) — 模型状态 · Google * **2026-03-27 20:52** [初代小香蕉 gemini-2.](/live/2026-03/model-status-0327-2052) — 模型状态 · Google * **2026-03-27 20:07** [gemini-3.](/live/2026-03/model-status-0327-2007) — 模型状态 · Google * **2026-03-27 16:48** [gemini-3-pro-image-preview(Nano Banana Pro)目测已恢复正常…](/live/2026-03/model-status-0327-1648) — 模型状态 · Google * **2026-03-27 15:47** [Nano Banana 2 当下比 Nano Banana Pro 稳定](/live/2026-03/model-status-0327-1547) — 模型状态 · Google * **2026-03-27 15:06** [gemini-3.](/live/2026-03/model-status-0327-1506) — 模型状态 · Google * **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google * **2026-03-27 11:28** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0327-1128) — 模型状态 · Google * **2026-03-23 12:56** [Sora-2 低价版本今天挺稳的,可以试试~使用默认分组或 sora-2 分组,\$0.](/live/2026-03/model-status-0323-1256) — 模型状态 · OpenAI * **2026-03-21 11:48** [今天 Nano Banana Pro(gemini-3-pro-image-preview)和 Na…](/live/2026-03/model-status-0321-1148) — 模型状态 · Google * **2026-03-21 00:54** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0321-0054) — 模型状态 · Google * **2026-03-19 21:12** [Veo 3.](/live/2026-03/model-status-0319-2112) — 模型状态 · Google * **2026-03-19 20:41** [谷歌算力已恢复,Nano Banana Pro(gemini-3-pro-image-preview…](/live/2026-03/model-status-0319-2041) — 模型状态 · Google * **2026-03-19 17:28** [Nano Banana Pro(gemini-3-pro-image-preview)又遇谷歌算力偏…](/live/2026-03/model-status-0319-1728) — 模型状态 · Google * **2026-03-19 16:21** [Nano Banana Pro(gemini-3-pro-image-preview)下午超高并发,…](/live/2026-03/model-status-0319-1621) — 模型状态 · Google * **2026-03-19 16:00** [技巧分享:受谷歌算力波动影响,建议将 Nano Banana Pro 和 2 的 API 超时时间 …](/live/2026-03/model-status-0319-1600) — 模型状态 · Google * **2026-03-19 15:59** [Nano Banana Pro(gemini-3-pro-image-preview)又受谷歌高负载…](/live/2026-03/model-status-0319-1559) — 模型状态 · Google * **2026-03-19 13:12** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-03/model-status-0319-1312) — 模型状态 · Google * **2026-03-19 12:50** [Veo 3.](/live/2026-03/model-status-0319-1250) — 模型状态 · Google * **2026-03-19 10:58** [Nano Banana Pro(gemini-3-pro-image-preview)已恢复正常水平…](/live/2026-03/model-status-0319-1058) — 模型状态 · Google * **2026-03-19 10:25** [Nano Banana Pro(gemini-3-pro-image-preview)目前并发不足,…](/live/2026-03/model-status-0319-1025) — 模型状态 · Google * **2026-03-18 12:27** [Sora-2 官逆低价版目前成功率不高,但仍能产出,还需进一步优化号池](/live/2026-03/model-status-0318-1227) — 模型状态 · OpenAI * **2026-03-18 01:27** [Sora-2 官逆低价版本已恢复,观察中,希望这次不是一日游](/live/2026-03/model-status-0318-0127) — 模型状态 · OpenAI * **2026-03-17 16:30** [今天下午 Nano Banana Pro(gemini-3-pro-image-preview)和 …](/live/2026-03/model-status-0317-1630) — 模型状态 · Google * **2026-03-16 18:13** [Nano Banana Pro 目前已基本恢复正常,约 3% 的请求偶尔会卡顿,谷歌算力恢复中](/live/2026-03/model-status-0316-1813) — 模型状态 · Google * **2026-03-16 17:49** [Nano Banana Pro(gemini-3-pro-image-preview)陆续恢复中,但…](/live/2026-03/model-status-0316-1749) — 模型状态 · Google * **2026-03-16 16:27** [谷歌图片模型状态更新:gemini-3.](/live/2026-03/model-status-0316-1627) — 模型状态 · Google * **2026-03-16 15:49** [Nano Banana 2 出现 503 错误(谷歌官方负载过高),原始报错:This model …](/live/2026-03/model-status-0316-1549) — 模型状态 · Google * **2026-03-07 19:41** [Gemini 全系列已恢复正常水平](/live/2026-03/model-status-0307-1941) — 模型状态 · Google * **2026-03-06 15:08** [Veo 3.](/live/2026-03/model-status-0306-1508) — 模型状态 · Google * **2026-03-06 11:03** [gemini-3-pro-image-preview 正常运行,gemini-3.](/live/2026-03/model-status-0306-1103) — 模型状态 · Google * **2026-03-06 10:04** [Sora 2 低价版本一日游,目前再次被风控,已无法使用](/live/2026-03/model-status-0306-1004) — 模型状态 · OpenAI * **2026-03-05 20:12** [Sora 2 官逆已恢复,\$0.](/live/2026-03/model-status-0305-2012) — 模型状态 · OpenAI * **2026-03-05 20:11** [gemini-3-pro-image-preview 和 gemini-3.](/live/2026-03/model-status-0305-2011) — 模型状态 · Google * **2026-03-05 11:50** [Veo 3.](/live/2026-03/model-status-0305-1150) — 模型状态 · Google * **2026-03-05 11:04** [gemini-3-pro-image-preview 今早 10 点左右并发不足,10:20 后已补…](/live/2026-03/model-status-0305-1104) — 模型状态 · Google * **2026-03-04 23:30** [gemini-3-pro-image-preview 正常,gemini-3.](/live/2026-03/model-status-0304-2330) — 模型状态 · Google ## 分类:新模型 * **2026-05-03 23:10** [Grok 4.3 上线(全分组开放)](/live/2026-05/grok-4-3-launch) — 新模型 · xAI * **2026-05-03 23:00** [gpt-5.5-pro 上线(仅 SVIP 分组)](/live/2026-05/gpt-5-5-pro-launch) — 新模型 · OpenAI * **2026-04-30 14:26** [图片大师工具上线 gpt-image-2 全系列三模型](/live/2026-04/image-master-gpt-image-2-trio) — 新模型 · OpenAI * **2026-04-28 00:29** [Qwen3.6 开源双模上线(API易官转托管 · 免租卡)](/live/2026-04/qwen3-6-opensource) — 新模型 · Alibaba * **2026-04-27 23:59** [Qwen3.6-Max-Preview 与 Flash 上线(阿里云官转)](/live/2026-04/qwen3-6-max-flash) — 新模型 · Alibaba * **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu * **2026-04-25 18:39** [GPT-5.5 官转上线(OpenAI 官方直转)](/live/2026-04/gpt-5-5) — 新模型 · OpenAI * **2026-04-25 11:54** [新增 image2Enterprise 企业分组(1.2x 倍率)](/live/2026-04/image2-enterprise) — 新模型 · OpenAI * **2026-04-25 01:30** [Kimi K2.6 上线(华为云官转)](/live/2026-04/kimi-k2-6) — 新模型 · Moonshot * **2026-04-24 20:20** [DeepSeek V4-Pro / V4-Flash 预览版上线(阿里云官转)](/live/2026-04/deepseek-v4-pro-v4-flash) — 新模型 · DeepSeek * **2026-04-23 13:40** [新增 GPT-image-2 官转 vs 官逆 选型对照文档](/live/2026-04/gpt-image-2-vs) — 新模型 · OpenAI * **2026-04-23 09:19** [OpenAI gpt-image-2 旗舰图像模型上线](/live/2026-04/openai-gpt-image-2) — 新模型 · OpenAI * **2026-04-22 13:36** [gpt-image-2-all 新增对话式 Playground 文档](/live/2026-04/gpt-image-2-all-playground) — 新模型 · OpenAI * **2026-04-22 01:36** [ChatGPT 最新生图能力 gpt-image-2-all 已上线](/live/2026-04/chatgpt-gpt-image-2-all) — 新模型 · OpenAI * **2026-04-17 00:25** [Claude Opus 4.](/live/2026-04/new-model-0417-0025) — 新模型 · Anthropic * **2026-04-09 12:51** [glm-5.](/live/2026-04/new-model-0409-1251) — 新模型 · Zhipu * **2026-04-07 23:57** [新上线 NanoBananaEnterprise 分组:The Most Stable API fo…](/live/2026-04/new-model-0407-2357) — 新模型 · Google * **2026-04-06 01:30** [qwen3.](/live/2026-04/new-model-0406-0130) — 新模型 · Alibaba * **2026-04-04 21:20** [新增模型名 gemini-3.](/live/2026-04/new-model-0404-2120) — 新模型 · Google * **2026-04-01 00:03** [gemini-embedding-2-preview 谷歌首个原生多模态嵌入模型上线](/live/2026-04/new-model-0401-0003) — 新模型 · Google * **2026-03-30 22:46** [seed-2-0-pro-260328 字节跳动 Seed 2.](/live/2026-03/new-model-0330-2246) — 新模型 · ByteDance * **2026-03-24 00:22** [MiniMax-M2.](/live/2026-03/new-model-0324-0022) — 新模型 · MiniMax * **2026-03-20 10:50** [新增 4 款 Grok 4.](/live/2026-03/new-model-0320-1050) — 新模型 · xAI * **2026-03-18 14:54** [新上线 gpt-5.](/live/2026-03/new-model-0318-1454) — 新模型 · OpenAI * **2026-03-17 11:37** [推荐:gemini-3.](/live/2026-03/new-model-0317-1137) — 新模型 · Google * **2026-03-08 10:04** [seed-2-0-lite-260228 新模型上线](/live/2026-03/new-model-0308-1004) — 新模型 · ByteDance * **2026-03-06 11:05** [GPT-5.](/live/2026-03/new-model-0306-1105) — 新模型 · OpenAI ## 分类:价格变动 * **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic * **2026-04-16 20:11** [针对近期 Nano Banana 系列的价格调整,我们专门制作了价格对比页面:含默认定价、常规充值(…](/live/2026-04/price-0416-2011) — 价格变动 · Google * **2026-04-16 11:08** [因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后 Nano Banana 2 按…](/live/2026-04/price-0416-1108) — 价格变动 · Google * **2026-04-13 10:00** [好消息](/live/2026-04/price-0413-1000) — 价格变动 · Google * **2026-04-03 16:19** [Claude 系列模型缓存写入价格从 1.](/live/2026-04/price-0403-1619) — 价格变动 · Anthropic * **2026-03-14 00:29** [周末福利](/live/2026-03/price-0314-0029) — 价格变动 ## 分类:服务通知 * **2026-05-07 15:20** [AI图片大师:拖拽/替换图片 + 上传扩容到 12 张](/live/2026-05/imagen-drag-replace-12) — 服务通知 * **2026-05-07 01:44** [AI图片大师批量生成页:一键下载全部 + 全屏预览升级](/live/2026-05/imagen-batch-download) — 服务通知 * **2026-04-28 16:15** [线上故障复盘:14:50–15:15 流量分发节点 SSL 证书到期](/live/2026-04/ssl-cert-incident-postmortem) — 服务通知 * **2026-04-28 15:59** [默认 \$30 余额告警邮件已停用,可在后台自行开启](/live/2026-04/default-balance-alert-off) — 服务通知 * **2026-04-24 12:49** [喜报:在线充值已完全修复](/live/2026-04/service-notice-0424-1249) — 服务通知 * **2026-04-24 10:26** [充值页面仍异常,已开通企业微信人工充值通道](/live/2026-04/service-notice-0424-1026) — 服务通知 * **2026-04-24 09:36** [充值页面跳转已恢复](/live/2026-04/service-notice-0424-0936) — 服务通知 * **2026-04-22 09:53** [旧版图像模型已官方下线 — 请尽快切换至 gpt-image-2-all](/live/2026-04/gpt-image-2-all) — 服务通知 · OpenAI * **2026-03-23 19:20** [网站后台频现 429 的问题已解决,后台刷新、查看日志、充值等功能恢复正常](/live/2026-03/service-notice-0323-1920) — 服务通知 * **2026-03-23 10:25** [网站后台出现 429 限流,属于整体流量过大的自我保护机制,几分钟后会自动解除,不影响 API 接口…](/live/2026-03/service-notice-0323-1025) — 服务通知 * **2026-03-13 16:11** [OVH 故障已解决,API易网站已恢复正常访问和接口调用](/live/2026-03/service-notice-0313-1611) — 服务通知 * **2026-03-13 15:35** [紧急通知:服务器厂商 OVH 系统故障,目前正在修复中,预计 15 分钟内恢复](/live/2026-03/service-notice-0313-1535) — 服务通知 * **2026-03-13 11:22** [网站后台出现 429 限流问题,不影响 API 接口调用,但影响后台页面使用](/live/2026-03/service-notice-0313-1122) — 服务通知 * **2026-03-10 23:19** [谷歌公告:gemini-3-pro-preview 已于 3 月 9 日关停弃用](/live/2026-03/service-notice-0310-2319) — 服务通知 · Google * **2026-03-09 11:58** [网站频现 429 的问题已解决](/live/2026-03/service-notice-0309-1158) — 服务通知 * **2026-03-09 10:39** [网站后台频现 429 繁忙问题,不影响 API 接口调用,但会影响网站后台正常使用和充值(人工充值可…](/live/2026-03/service-notice-0309-1039) — 服务通知 ## 分类:行业快讯 * **2026-05-03 22:40** [Claude Code 超高缓存命中率,单次调用低至 \\\$0.08](/live/2026-05/claude-code-cache-hit) — 行业快讯 · Anthropic * **2026-04-28 17:14** [经验分享:gpt-5.5 / gpt-image-2 官转 API 不能直接输出 PSD](/live/2026-04/api-psd-output-explained) — 行业快讯 · OpenAI * **2026-03-27 11:28** [API易有哪些可选的 Base URL](/live/2026-03/industry-news-0327-1128) — 行业快讯 * **2026-03-24 23:49** [新增常见问题:Base URL 配置指南,详解 OpenAI /v1、Claude 根域名、Gemi…](/live/2026-03/industry-news-0324-2349) — 行业快讯 * **2026-03-24 23:15** [新增常见问题:模型倍率与价格说明,帮助大家理解倍率计算方式和不同模型的计费逻辑](/live/2026-03/industry-news-0324-2315) — 行业快讯 * **2026-03-10 23:30** [文档中心 OpenClaw 栏目进行了更细化调整,帮助大家更快用上 OpenClaw,一起来"养虾"…](/live/2026-03/industry-news-0310-2330) — 行业快讯 * **2026-03-09 19:25** [整理了 Nano Banana 图片 API 系列常见的出图失败原因,遇到问题可先自查](/live/2026-03/industry-news-0309-1925) — 行业快讯 ## 分类:文档更新 * **2026-05-06 15:35** [文档中心每页支持一键复制 + 问 AI(ChatGPT / Claude / Perplexity / Google AI Studio)](/live/2026-05/docs-copy-ask-ai) — 文档更新 * **2026-05-06 15:33** [gpt-image-2 官转 vs 官逆对比文档已更新,建议双通道接入互为兜底](/live/2026-05/gpt-image-2-vs-doc-updated) — 文档更新 · OpenAI * **2026-04-30 23:12** [FLUX.2 系列图片编辑文档更新:Playground 现可在线测试](/live/2026-04/flux-2-image-edit-playground) — 文档更新 * **2026-04-30 13:52** [飞书多维表格 + Coze 零代码生图方案上线](/live/2026-04/feishu-coze-nano-banana-pro) — 文档更新 · Google * **2026-04-26 15:10** [Codex 接入 API易 文档已更新,接入更简单](/live/2026-04/codex-cli-docs-updated) — 文档更新 · OpenAI * **2026-04-24 15:35** [新增社区贡献:APIYI GPT-Image 2 Skills](/live/2026-04/apiyi-gpt-image-2-skills) — 文档更新 · OpenAI * **2026-04-24 15:33** [新增社区贡献:Luck GPT-Image 2 ComfyUI 节点](/live/2026-04/luck-gpt-image-2-comfyui) — 文档更新 · OpenAI *** ## 厂商:Alibaba * **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic * **2026-04-28 00:29** [Qwen3.6 开源双模上线(API易官转托管 · 免租卡)](/live/2026-04/qwen3-6-opensource) — 新模型 · Alibaba * **2026-04-27 23:59** [Qwen3.6-Max-Preview 与 Flash 上线(阿里云官转)](/live/2026-04/qwen3-6-max-flash) — 新模型 · Alibaba * **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu * **2026-04-06 01:30** [qwen3.](/live/2026-04/new-model-0406-0130) — 新模型 · Alibaba ## 厂商:Anthropic * **2026-05-03 22:40** [Claude Code 超高缓存命中率,单次调用低至 \\\$0.08](/live/2026-05/claude-code-cache-hit) — 行业快讯 · Anthropic * **2026-04-29 00:49** [AlibabaCloud / ChinaOpenSource / ClaudeCode 分组 5/1 起折扣调整为 0.95x](/live/2026-04/groups-rate-adjust-0501) — 价格变动 · Alibaba, Anthropic * **2026-04-20 23:11** [Claude 系列运行稳定:claude-opus-4-7、claude-sonnet-4-6 今日…](/live/2026-04/model-status-0420-2311) — 模型状态 · Anthropic * **2026-04-17 00:25** [Claude Opus 4.](/live/2026-04/new-model-0417-0025) — 新模型 · Anthropic * **2026-04-03 16:19** [Claude 系列模型缓存写入价格从 1.](/live/2026-04/price-0403-1619) — 价格变动 · Anthropic ## 厂商:ByteDance * **2026-03-30 22:46** [seed-2-0-pro-260328 字节跳动 Seed 2.](/live/2026-03/new-model-0330-2246) — 新模型 · ByteDance * **2026-03-08 10:04** [seed-2-0-lite-260228 新模型上线](/live/2026-03/new-model-0308-1004) — 新模型 · ByteDance ## 厂商:DeepSeek * **2026-04-24 20:20** [DeepSeek V4-Pro / V4-Flash 预览版上线(阿里云官转)](/live/2026-04/deepseek-v4-pro-v4-flash) — 新模型 · DeepSeek ## 厂商:Google * **2026-05-06 11:45** [VEO 3.1 高负载报错已解决,视频生成恢复正常](/live/2026-05/veo-3-1-recovered) — 模型状态 · Google * **2026-04-30 13:52** [飞书多维表格 + Coze 零代码生图方案上线](/live/2026-04/feishu-coze-nano-banana-pro) — 文档更新 · Google * **2026-04-25 11:18** [Gemini 图像双模周末平稳](/live/2026-04/gemini) — 模型状态 · Google * **2026-04-21 17:32** [gemini-3-pro-image-preview(Nano Banana Pro)谷歌官方算力紧…](/live/2026-04/model-status-0421-1732) — 模型状态 · Google * **2026-04-21 15:37** [Nano Banana Pro (gemini-3-pro-image-preview) 出现 50…](/live/2026-04/model-status-0421-1537) — 模型状态 · Google * **2026-04-21 10:27** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-1027) — 模型状态 · Google * **2026-04-21 09:33** [⏳ gemini-3-pro-image-preview(Nano Banana Pro)自今早 0…](/live/2026-04/model-status-0421-0933) — 模型状态 · Google * **2026-04-21 00:45** [gemini-3-pro-image-preview 与 gemini-3.](/live/2026-04/model-status-0421-0045) — 模型状态 · Google * **2026-04-20 23:18** [gemini-3-pro-image-preview 受谷歌官方资源限制,默认分组 + 企业分组暂时…](/live/2026-04/model-status-0420-2318) — 模型状态 · Google * **2026-04-20 18:46** [⏳ gemini-3-pro-image-preview 仍未恢复,并发不足,失败会直接报 429(…](/live/2026-04/model-status-0420-1846) — 模型状态 · Google * **2026-04-20 16:12** [gemini-3-pro-image-preview 资源配额不足(含企业分组),目前正在维护补配额…](/live/2026-04/model-status-0420-1612) — 模型状态 · Google * **2026-04-20 12:41** [gemini-3.](/live/2026-04/model-status-0420-1241) — 模型状态 · Google * **2026-04-16 20:11** [针对近期 Nano Banana 系列的价格调整,我们专门制作了价格对比页面:含默认定价、常规充值(…](/live/2026-04/price-0416-2011) — 价格变动 · Google * **2026-04-16 11:08** [因官方 KEY 资源成本及图片下载传输的高速流量成本上升,审慎考虑后 Nano Banana 2 按…](/live/2026-04/price-0416-1108) — 价格变动 · Google * **2026-04-14 23:15** [Nano Banana Pro 与 Nano Banana 2 今日稳定运行一整天,默认分组已全面恢…](/live/2026-04/model-status-0414-2315) — 模型状态 · Google * **2026-04-14 00:25** [默认分组已恢复 gemini-3-pro-image-preview(Nano Banana Pro…](/live/2026-04/model-status-0414-0025) — 模型状态 · Google * **2026-04-13 10:00** [好消息](/live/2026-04/price-0413-1000) — 价格变动 · Google * **2026-04-11 12:34** [Nano Banana 2 已增加更多资源,默认分组正常使用](/live/2026-04/model-status-0411-1234) — 模型状态 · Google * **2026-04-10 17:29** [模型状态播报:gemini-3.](/live/2026-04/model-status-0410-1729) — 模型状态 · Google * **2026-04-10 17:25** [常规分组仍在努力排查中,暂未恢复](/live/2026-04/model-status-0410-1725) — 模型状态 · Google * **2026-04-10 14:05** [Nano Banana 2:Default 分组暂时恢复可用,但仍较拥堵](/live/2026-04/model-status-0410-1405) — 模型状态 · Google * **2026-04-10 10:56** [Nano Banana 令牌设置最佳实践:计费模式选「按量优先」(兼容 Nano Banana 2 …](/live/2026-04/model-status-0410-1056) — 模型状态 · Google * **2026-04-10 10:09** [默认分组 Nano Banana 系列故障(IP 代理问题 + KEY 配额不足),正在处理中](/live/2026-04/model-status-0410-1009) — 模型状态 · Google * **2026-04-09 11:13** [Veo 3.](/live/2026-04/model-status-0409-1113) — 模型状态 · Google * **2026-04-09 10:37** [经半小时观察,10:00 (UTC+8) 之后 Nano Banana Pro / 2 超低价默认分…](/live/2026-04/model-status-0409-1037) — 模型状态 · Google * **2026-04-09 09:47** [谷歌 Nano Banana 系列直连官网,今早 KEY 异常掉线较快,部分失败任务请重试](/live/2026-04/model-status-0409-0947) — 模型状态 · Google * **2026-04-07 23:57** [新上线 NanoBananaEnterprise 分组:The Most Stable API fo…](/live/2026-04/new-model-0407-2357) — 新模型 · Google * **2026-04-04 21:20** [新增模型名 gemini-3.](/live/2026-04/new-model-0404-2120) — 新模型 · Google * **2026-04-03 10:50** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-04/model-status-0403-1050) — 模型状态 · Google * **2026-04-02 17:10** [Fallback 建议:gemini-3-pro-preview 文本模型资源紧张,建议合理设置超时…](/live/2026-04/model-status-0402-1710) — 模型状态 · Google * **2026-04-02 13:52** [稳定性播报:gemini-3.](/live/2026-04/model-status-0402-1352) — 模型状态 · Google * **2026-04-01 23:38** [Nano Banana Pro 和 Nano Banana 2 今天稳定运行一整天,4 月好兆头](/live/2026-04/model-status-0401-2338) — 模型状态 · Google * **2026-04-01 00:03** [gemini-embedding-2-preview 谷歌首个原生多模态嵌入模型上线](/live/2026-04/new-model-0401-0003) — 新模型 · Google * **2026-03-31 16:11** [Nano Banana Pro 同样受谷歌官方 503 高负载影响,并发受限,静待官方恢复](/live/2026-03/model-status-0331-1611) — 模型状态 · Google * **2026-03-31 11:04** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0331-1104) — 模型状态 · Google * **2026-03-30 11:09** [近期 Gemini 官方偶尔存在波动,如遇到 gemini-3-pro-image-preview …](/live/2026-03/model-status-0330-1109) — 模型状态 · Google * **2026-03-28 06:04** [Nano Banana Pro 和 Nano Banana 2 均已恢复正常速度](/live/2026-03/model-status-0328-0604) — 模型状态 · Google * **2026-03-28 00:19** [Nano Banana Pro:谷歌尚未修复,静待恢复中](/live/2026-03/model-status-0328-0019) — 模型状态 · Google * **2026-03-27 20:52** [初代小香蕉 gemini-2.](/live/2026-03/model-status-0327-2052) — 模型状态 · Google * **2026-03-27 20:07** [gemini-3.](/live/2026-03/model-status-0327-2007) — 模型状态 · Google * **2026-03-27 16:48** [gemini-3-pro-image-preview(Nano Banana Pro)目测已恢复正常…](/live/2026-03/model-status-0327-1648) — 模型状态 · Google * **2026-03-27 15:47** [Nano Banana 2 当下比 Nano Banana Pro 稳定](/live/2026-03/model-status-0327-1547) — 模型状态 · Google * **2026-03-27 15:06** [gemini-3.](/live/2026-03/model-status-0327-1506) — 模型状态 · Google * **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google * **2026-03-27 11:28** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0327-1128) — 模型状态 · Google * **2026-03-21 11:48** [今天 Nano Banana Pro(gemini-3-pro-image-preview)和 Na…](/live/2026-03/model-status-0321-1148) — 模型状态 · Google * **2026-03-21 00:54** [Nano Banana 2(gemini-3.](/live/2026-03/model-status-0321-0054) — 模型状态 · Google * **2026-03-19 21:12** [Veo 3.](/live/2026-03/model-status-0319-2112) — 模型状态 · Google * **2026-03-19 20:41** [谷歌算力已恢复,Nano Banana Pro(gemini-3-pro-image-preview…](/live/2026-03/model-status-0319-2041) — 模型状态 · Google * **2026-03-19 17:28** [Nano Banana Pro(gemini-3-pro-image-preview)又遇谷歌算力偏…](/live/2026-03/model-status-0319-1728) — 模型状态 · Google * **2026-03-19 16:21** [Nano Banana Pro(gemini-3-pro-image-preview)下午超高并发,…](/live/2026-03/model-status-0319-1621) — 模型状态 · Google * **2026-03-19 16:00** [技巧分享:受谷歌算力波动影响,建议将 Nano Banana Pro 和 2 的 API 超时时间 …](/live/2026-03/model-status-0319-1600) — 模型状态 · Google * **2026-03-19 15:59** [Nano Banana Pro(gemini-3-pro-image-preview)又受谷歌高负载…](/live/2026-03/model-status-0319-1559) — 模型状态 · Google * **2026-03-19 13:12** [Nano Banana Pro(gemini-3-pro-image-preview)和 Nano …](/live/2026-03/model-status-0319-1312) — 模型状态 · Google * **2026-03-19 12:50** [Veo 3.](/live/2026-03/model-status-0319-1250) — 模型状态 · Google * **2026-03-19 10:58** [Nano Banana Pro(gemini-3-pro-image-preview)已恢复正常水平…](/live/2026-03/model-status-0319-1058) — 模型状态 · Google * **2026-03-19 10:25** [Nano Banana Pro(gemini-3-pro-image-preview)目前并发不足,…](/live/2026-03/model-status-0319-1025) — 模型状态 · Google * **2026-03-17 16:30** [今天下午 Nano Banana Pro(gemini-3-pro-image-preview)和 …](/live/2026-03/model-status-0317-1630) — 模型状态 · Google * **2026-03-17 11:37** [推荐:gemini-3.](/live/2026-03/new-model-0317-1137) — 新模型 · Google * **2026-03-16 18:13** [Nano Banana Pro 目前已基本恢复正常,约 3% 的请求偶尔会卡顿,谷歌算力恢复中](/live/2026-03/model-status-0316-1813) — 模型状态 · Google * **2026-03-16 17:49** [Nano Banana Pro(gemini-3-pro-image-preview)陆续恢复中,但…](/live/2026-03/model-status-0316-1749) — 模型状态 · Google * **2026-03-16 16:27** [谷歌图片模型状态更新:gemini-3.](/live/2026-03/model-status-0316-1627) — 模型状态 · Google * **2026-03-16 15:49** [Nano Banana 2 出现 503 错误(谷歌官方负载过高),原始报错:This model …](/live/2026-03/model-status-0316-1549) — 模型状态 · Google * **2026-03-10 23:19** [谷歌公告:gemini-3-pro-preview 已于 3 月 9 日关停弃用](/live/2026-03/service-notice-0310-2319) — 服务通知 · Google * **2026-03-07 19:41** [Gemini 全系列已恢复正常水平](/live/2026-03/model-status-0307-1941) — 模型状态 · Google * **2026-03-06 15:08** [Veo 3.](/live/2026-03/model-status-0306-1508) — 模型状态 · Google * **2026-03-06 11:03** [gemini-3-pro-image-preview 正常运行,gemini-3.](/live/2026-03/model-status-0306-1103) — 模型状态 · Google * **2026-03-05 20:11** [gemini-3-pro-image-preview 和 gemini-3.](/live/2026-03/model-status-0305-2011) — 模型状态 · Google * **2026-03-05 11:50** [Veo 3.](/live/2026-03/model-status-0305-1150) — 模型状态 · Google * **2026-03-05 11:04** [gemini-3-pro-image-preview 今早 10 点左右并发不足,10:20 后已补…](/live/2026-03/model-status-0305-1104) — 模型状态 · Google * **2026-03-04 23:30** [gemini-3-pro-image-preview 正常,gemini-3.](/live/2026-03/model-status-0304-2330) — 模型状态 · Google ## 厂商:MiniMax * **2026-03-24 00:22** [MiniMax-M2.](/live/2026-03/new-model-0324-0022) — 新模型 · MiniMax ## 厂商:Moonshot * **2026-04-25 01:30** [Kimi K2.6 上线(华为云官转)](/live/2026-04/kimi-k2-6) — 新模型 · Moonshot ## 厂商:OpenAI * **2026-05-06 15:33** [gpt-image-2 官转 vs 官逆对比文档已更新,建议双通道接入互为兜底](/live/2026-05/gpt-image-2-vs-doc-updated) — 文档更新 · OpenAI * **2026-05-03 23:00** [gpt-5.5-pro 上线(仅 SVIP 分组)](/live/2026-05/gpt-5-5-pro-launch) — 新模型 · OpenAI * **2026-04-30 14:26** [图片大师工具上线 gpt-image-2 全系列三模型](/live/2026-04/image-master-gpt-image-2-trio) — 新模型 · OpenAI * **2026-04-29 14:58** [官转 gpt-image-2 建议把 timeout 调到 360–600 秒兜底](/live/2026-04/gpt-image-2-latency-spike) — 模型状态 · OpenAI * **2026-04-29 11:06** [gpt-image-2 通道状态:企业分组稳定,官逆 -all / -vip 双模型都稳](/live/2026-04/image2-vip-channels-stable) — 模型状态 · OpenAI * **2026-04-28 17:14** [经验分享:gpt-5.5 / gpt-image-2 官转 API 不能直接输出 PSD](/live/2026-04/api-psd-output-explained) — 行业快讯 · OpenAI * **2026-04-28 15:36** [gpt-image-2 双通道状态:官转走企业分组、官逆很稳](/live/2026-04/gpt-image-2-channels-stable) — 模型状态 · OpenAI * **2026-04-27 15:59** [image2Enterprise 分组稳定运行中(官转 gpt-image-2 推荐路径)](/live/2026-04/image2-enterprise-stable) — 模型状态 · OpenAI * **2026-04-27 15:28** [官逆 gpt-image-2-all 报错 500 通常是内容违规(不计费)](/live/2026-04/gpt-image-2-all-500-content-policy) — 模型状态 · OpenAI * **2026-04-27 12:06** [gpt-image-2-all(官逆)已恢复正常;gpt-image-2 官转建议走 image2Enterprise 更稳](/live/2026-04/gpt-image-2-all-recovered) — 模型状态 · OpenAI * **2026-04-27 11:24** [gpt-image-2 报错 429 / 408 提醒(Default 分组资源紧张)](/live/2026-04/gpt-image-2-429-408) — 模型状态 · OpenAI * **2026-04-26 15:10** [Codex 接入 API易 文档已更新,接入更简单](/live/2026-04/codex-cli-docs-updated) — 文档更新 · OpenAI * **2026-04-26 14:25** [默认分组 gpt-image-2 资源已补充,并发调用恢复正常](/live/2026-04/gpt-image-2-default-recovered) — 模型状态 · OpenAI * **2026-04-25 18:39** [GPT-5.5 官转上线(OpenAI 官方直转)](/live/2026-04/gpt-5-5) — 新模型 · OpenAI * **2026-04-25 11:54** [新增 image2Enterprise 企业分组(1.2x 倍率)](/live/2026-04/image2-enterprise) — 新模型 · OpenAI * **2026-04-25 11:15** [gpt-image-2 官转通道资源拥挤(算力紧张)](/live/2026-04/gpt-image-2) — 模型状态 · OpenAI * **2026-04-24 22:26** [gpt-image-2 官方通道临时限额(负载中)](/live/2026-04/gpt-image-2-0424-2226) — 模型状态 · OpenAI * **2026-04-24 15:35** [新增社区贡献:APIYI GPT-Image 2 Skills](/live/2026-04/apiyi-gpt-image-2-skills) — 文档更新 · OpenAI * **2026-04-24 15:33** [新增社区贡献:Luck GPT-Image 2 ComfyUI 节点](/live/2026-04/luck-gpt-image-2-comfyui) — 文档更新 · OpenAI * **2026-04-23 18:52** [gpt-image-2 官转已恢复](/live/2026-04/gpt-image-2-0423-1852) — 模型状态 · OpenAI * **2026-04-23 18:17** [gpt-image-2 官转状态更新](/live/2026-04/gpt-image-2-0423-1817) — 模型状态 · OpenAI * **2026-04-23 16:37** [gpt-image-2 官转模型并发告急](/live/2026-04/gpt-image-2-0423-1637) — 模型状态 · OpenAI * **2026-04-23 13:40** [新增 GPT-image-2 官转 vs 官逆 选型对照文档](/live/2026-04/gpt-image-2-vs) — 新模型 · OpenAI * **2026-04-23 09:19** [OpenAI gpt-image-2 旗舰图像模型上线](/live/2026-04/openai-gpt-image-2) — 新模型 · OpenAI * **2026-04-22 13:36** [gpt-image-2-all 新增对话式 Playground 文档](/live/2026-04/gpt-image-2-all-playground) — 新模型 · OpenAI * **2026-04-22 09:53** [旧版图像模型已官方下线 — 请尽快切换至 gpt-image-2-all](/live/2026-04/gpt-image-2-all) — 服务通知 · OpenAI * **2026-04-22 01:36** [ChatGPT 最新生图能力 gpt-image-2-all 已上线](/live/2026-04/chatgpt-gpt-image-2-all) — 新模型 · OpenAI * **2026-03-27 14:03** [Sora 2 低价官逆版本成功率极低,疑似官方下线准备中,平台最后成功时间为 13:00 (UTC+…](/live/2026-03/model-status-0327-1403) — 模型状态 · OpenAI, Google * **2026-03-23 12:56** [Sora-2 低价版本今天挺稳的,可以试试~使用默认分组或 sora-2 分组,\$0.](/live/2026-03/model-status-0323-1256) — 模型状态 · OpenAI * **2026-03-18 14:54** [新上线 gpt-5.](/live/2026-03/new-model-0318-1454) — 新模型 · OpenAI * **2026-03-18 12:27** [Sora-2 官逆低价版目前成功率不高,但仍能产出,还需进一步优化号池](/live/2026-03/model-status-0318-1227) — 模型状态 · OpenAI * **2026-03-18 01:27** [Sora-2 官逆低价版本已恢复,观察中,希望这次不是一日游](/live/2026-03/model-status-0318-0127) — 模型状态 · OpenAI * **2026-03-06 11:05** [GPT-5.](/live/2026-03/new-model-0306-1105) — 新模型 · OpenAI * **2026-03-06 10:04** [Sora 2 低价版本一日游,目前再次被风控,已无法使用](/live/2026-03/model-status-0306-1004) — 模型状态 · OpenAI * **2026-03-05 20:12** [Sora 2 官逆已恢复,\$0.](/live/2026-03/model-status-0305-2012) — 模型状态 · OpenAI ## 厂商:Zhipu * **2026-04-27 23:43** [ClaudeCode 分组新增 GLM-5.1 与 Qwen3.6-plus(阿里云官转)](/live/2026-04/claude-code-glm-qwen-aliyun) — 新模型 · Alibaba, Zhipu * **2026-04-09 12:51** [glm-5.](/live/2026-04/new-model-0409-1251) — 新模型 · Zhipu ## 厂商:xAI * **2026-05-03 23:10** [Grok 4.3 上线(全分组开放)](/live/2026-05/grok-4-3-launch) — 新模型 · xAI * **2026-03-20 10:50** [新增 4 款 Grok 4.](/live/2026-03/new-model-0320-1050) — 新模型 · xAI # 实时动态 Source: https://docs.apiyi.com/live/index API易模型状态、行业快讯、服务动态实时更新 🛠️ **「AI图片大师」新增图片拖拽 / 替换 + 上传扩容到 12 张** —— `imagen.apiyi.com` 测试工具升级:支持图片拖拽上传、一键替换已上传图片,常用模型的上传图片数量上限扩充到 **12 张**,多图融合、批量编辑都更顺手。请刷新后使用新版本。 🎯 **工具定位**:「AI图片大师」是 API易服务客户的**接口测试 Demo**,用于展示接口能力、帮助企业客户更快接入与试用,**不做直面 C 端的产品**。欢迎广大用户继续提需求,我们持续打磨。 📖 立即访问:`imagen.apiyi.com` 📖 [查看详情](/live/2026-05/imagen-drag-replace-12) 🛠️ **「AI图片大师」批量生成页升级:一键下载全部 + 全屏预览改进** —— API易测试工具 `imagen.apiyi.com/#batch` 批量生成页面新增「一键下载所有图片」功能,并改进了全屏预览等交互体验,批量出图后不用再一张张右键保存。欢迎更多客户继续提改进建议,我们会持续打磨。 📖 测试工具:`imagen.apiyi.com/#batch` 📖 [查看详情](/live/2026-05/imagen-batch-download) 🛠️ **文档中心每页一键复制 + 问 AI 上线** —— API易文档中心产品升级:每个页面右上角现在自带「复制页面」下拉菜单,支持以 Markdown 格式复制给 LLMs、以纯文本查看,或直接在 ChatGPT / Claude / Perplexity / Google AI Studio 中打开询问关于此页面的问题。看文档遇到不懂的地方,可以直接丢给 AI 解释。 文档中心每页右上角的『复制页面』下拉菜单:复制页面 / 以 Markdown 格式查看 / 在 ChatGPT、Claude、Perplexity、Google AI Studio 中打开 📖 [查看详情](/live/2026-05/docs-copy-ask-ai) 📘 **gpt-image-2 官转 vs 官逆对比文档已更新(更全面)** —— 重新梳理了价格、参数支持、速度、限制项的差异。**个人推荐业务方双通道都接入**:官逆 `gpt-image-2-all` 成本低适合主链路,官转 `gpt-image-2` 作为兜底,参数完整、上游稳定,也把选择权留给最终用户。 📖 对比文档:[/api-capabilities/gpt-image-2/vs-gpt-image-2-all](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) 📖 [查看详情](/live/2026-05/gpt-image-2-vs-doc-updated) ✅ **VEO 3.1 高负载报错已解决** —— VEO 3.1 视频生成接口此前的 `We're under heavy load, please try again later.` 报错已恢复正常,恢复时间 2026-05-06 11:30 (UTC+8)。此前失败的视频生成任务直接重新发起即可。 📖 [查看详情](/live/2026-05/veo-3-1-recovered) 🚀 **Grok 4.3 上线(全分组开放)** —— xAI 全新旗舰 `grok-4.3` 通过官方直转上线,Intelligence Index **53**、GDPval-AA ELO **1500(+321)**、τ²-Bench **98%**、IFBench **81%**,1M 上下文 + 多模态 + **159 t/s** 极速输出。挂牌 \$1.25/\$2.50 每 1M tokens(输入降 37.5%、输出降 58.3% vs Grok 4.20),阶梯计费:0–200K 标准价、200K–∞ \$2.50/\$5.00。 ✅ **Default、SVIP 等常用分组全开放**,价格亲民、风险可控;充值 100 美金赠 10%,综合成本约官网 85 折。 grok-4.3 阶梯计费表:0-200K 输入 $1.25 输出 $2.50;200K-∞ 输入 $2.50 输出 $5.00 📖 上线说明:[/news/grok-4-3-launch](/news/grok-4-3-launch) 📖 [查看详情](/live/2026-05/grok-4-3-launch) 🚀 **gpt-5.5-pro 上线(仅 SVIP 分组)** —— OpenAI 当前最强推理模型 `gpt-5.5-pro` 通过官方直转通道上线,Terminal-Bench 2.0 **82.7%**、Expert-SWE **73.1%**、GDPval **84.9%**,1.05M 上下文 + 128K 输出。阶梯计费:0–272K \$30/\$180、272K–∞ \$60/\$270 每 1M tokens。 ⚠️ **仅 SVIP 分组开放**:未对 Default 默认分组开放——单次调用可能数美金到十几美金,请确认场景必要性后再调,并务必在应用层设置预算上限。 gpt-5.5-pro 阶梯计费表:0-272K 输入 $30 输出 $180;272K-∞ 输入 $60 输出 $270 📖 上线说明:[/news/gpt-5-5-pro-launch](/news/gpt-5-5-pro-launch) 📖 [查看详情](/live/2026-05/gpt-5-5-pro-launch) 🚀 **Claude Code 超高缓存命中率,等你来用\~** —— 实测 `claude-opus-4-7` 在 Claude Code 场景下缓存命中率极高,连续多次调用单价稳定在 \$0.08–0.12 区间(已含 `ClaudeCode` 分组 0.95x 折扣),首字节多在 1–4 秒。长上下文反复调用、大段代码 review、多轮对话都能命中缓存,综合成本远低于按 token 直算。 🔐 **资源说明**:本站 Claude Code 通道直连 Anthropic 官方 KEY(T4 等级)+ AWS Bedrock 高配额大账户,专做 Claude 官转资源 API,**非逆向**——稳定性、配额、缓存命中机制与官方上游一致。 Claude Code 调用日志:单次约 $0.08–0.12,0.95x 折扣 📖 接入指南:[/scenarios/programming/claude-code](/scenarios/programming/claude-code) 📖 [查看详情](/live/2026-05/claude-code-cache-hit) 📘 **FLUX.2 系列图片编辑文档更新:Playground 现可在线测试** —— `flux-2-max` / `flux-2-pro` 等系列模型的图片编辑接口文档已更新,右侧交互式 Playground 现在支持在线试用:填好 `Bearer sk-xxx`、把参考图的公网 URL 写进 `input_image`(多图融合继续填 `input_image_2 … _8`),再加 prompt 一键发送即可,免写代码。 📄 文档:[/api-capabilities/flux/image-edit](/api-capabilities/flux/image-edit) 📖 [查看详情](/live/2026-04/flux-2-image-edit-playground) 🎨 **「AI图片大师」测试工具上线 gpt-image-2 全系列三模型** —— 浏览器内一键切换、对比体验:`gpt-image-2-all`(chatgpt 网页版官逆,60s 出图,提示词控尺寸,\$0.03/张)、`gpt-image-2-vip`(codex 官逆,90s,1K/2K 共 5 档 size + 自适应,\$0.03/张)、`gpt-image-2`(OpenAI 官转,全参数支持但按 tokens 计费偏贵)。需要快速试用又不想写代码的同学可以直接进去对比。 📖 官转 vs 官逆区别:[/api-capabilities/gpt-image-2/vs-gpt-image-2-all](/api-capabilities/gpt-image-2/vs-gpt-image-2-all) 📖 [查看详情](/live/2026-04/image-master-gpt-image-2-trio) *** > 📖 查看更早的动态请访问 [实时动态归档](/live/archive),按月份、分类、厂商浏览历史动态。 查看 AI风向标栏目 适合全球用户 陆续上新 # Claude Opus 4.5 震撼发布:编程能力登顶,价格降至原版 1/3 Source: https://docs.apiyi.com/news/claude-opus-4-5-launch Anthropic 最新旗舰模型 Claude Opus 4.5 正式上线,SWE-bench Verified 达 80.9% 超越所有竞品,价格仅为前代 1/3,API易已全面支持 OpenAI 和 Anthropic 原生格式调用。 ## 核心要点 * **性能登顶**:SWE-bench Verified 达 80.9%,超越 GPT-5.1-Codex-Max(77.9%)和 Gemini 3 Pro(76.2%) * **价格暴降**:\$5/\$25 每百万 token,仅为前代 Opus 的 1/3,性价比飙升 * **编程之王**:内部工程师招聘考试超越历史最高人类成绩,Aider Polyglot 比 Sonnet 4.5 提升 10.6% * **智能推理**:全新 effort 参数可调节推理深度,medium 模式下比 Sonnet 4.5 节省 76% 输出 token * **API易上线**:已全面支持 OpenAI 和 Anthropic 原生格式调用,可在 Claude Code 中直接使用 ## 背景介绍 2025年11月24日,Anthropic 正式发布旗舰模型 Claude Opus 4.5(版本号 `claude-opus-4-5-20251101`),这是继 Claude 4.1 系列后的重磅升级。此次发布最大的亮点是在大幅提升性能的同时,将价格降至前代的 1/3,彻底打破了"顶级模型必然昂贵"的行业规律。 Claude Opus 4.5 在编程、推理、工具使用等方面实现了全面突破,特别是在真实软件工程任务(SWE-bench Verified)上达到了 80.9% 的准确率,超越了 OpenAI GPT-5.1-Codex-Max 和 Google Gemini 3 Pro,成为目前编程能力最强的 AI 模型。 API易已在第一时间上线 Claude Opus 4.5,支持 OpenAI 和 Anthropic 两种原生格式调用,开发者可以无缝切换,享受顶级 AI 能力。 ## 详细解析 ### 核心特性 SWE-bench Verified 达 80.9%,超越所有竞品,内部工程师考试超越人类历史最高分 全新 effort 参数(low/medium/high),平衡速度与质量,medium 模式节省 76% 输出 token \$5/\$25 每百万 token,仅为前代 1/3,让顶级 AI 能力触手可及 升级视觉理解能力,支持图像分析、图表解读、UI 识别等复杂视觉任务 ### 性能亮点 Claude Opus 4.5 在多个权威评测中展现出卓越性能,特别是在编程和推理任务上: | 评测项目 | Claude Opus 4.5 | GPT-5.1-Codex-Max | Gemini 3 Pro | Sonnet 4.5 | | ---------------------- | ------------------------ | ----------------- | ------------ | ---------- | | **SWE-bench Verified** | **80.9%** | 77.9% | 76.2% | 77.2% | | **Aider Polyglot** | **比 Sonnet 4.5 高 10.6%** | - | - | 基准 | | **Vending-Bench** | **比 Sonnet 4.5 高 29%** | - | - | 基准 | 数据来源:Anthropic 官方博客(2025年11月24日发布),SWE-bench Verified 是业界公认的真实软件工程任务评测基准。 **编程能力突破**: * 在真实代码仓库修复任务中达到 80.9% 准确率 * 内部工程师招聘考试中超越历史最高人类成绩 * Aider Polyglot 多语言编程测试中比 Sonnet 4.5 提升 10.6% **推理效率革新**: * 全新 `effort` 参数可调节推理深度(low/medium/high) * medium 模式下输出质量与 Sonnet 4.5 相当,但仅使用 24% 的输出 token * 在保证质量的前提下大幅降低使用成本 ### 技术规格 | 参数 | 规格 | | ---------- | -------------------------- | | **上下文长度** | 200,000 tokens | | **最大输出** | 64,000 tokens | | **知识截止** | 2025年3月 | | **多模态** | 支持图像输入(视觉能力升级) | | **推理控制** | effort 参数(low/medium/high) | | **API 格式** | OpenAI 兼容 / Anthropic 原生 | 推理模式(effort 参数)会影响响应速度和 token 消耗:high 模式质量最高但速度较慢,low 模式速度快但推理深度有限,medium 模式平衡性能与成本。 ## 实际应用 ### 推荐场景 Claude Opus 4.5 凭借顶级编程能力和推理深度,特别适合以下场景: 1. **复杂代码开发**:多文件项目重构、架构设计、代码审查 2. **软件工程任务**:Bug 修复、功能实现、测试用例生成 3. **深度推理分析**:技术决策、方案对比、问题诊断 4. **多模态应用**:UI 设计分析、图表数据提取、文档理解 5. **长文本处理**:20万 token 上下文支持完整代码库分析 ### 代码示例 #### OpenAI 格式调用 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="claude-opus-4-5-20251101", messages=[ { "role": "user", "content": "帮我重构这段 Python 代码,提升性能并增加错误处理..." } ], # 可选:设置推理深度(默认 medium) extra_body={ "anthropic_effort": "high" # low/medium/high } ) print(response.choices[0].message.content) ``` #### Anthropic 原生格式调用 ```python theme={null} import anthropic client = anthropic.Anthropic( api_key="your-apiyi-key", base_url="https://api.apiyi.com" ) message = client.messages.create( model="claude-opus-4-5-20251101", max_tokens=8192, messages=[ { "role": "user", "content": "分析这个架构设计的优缺点..." } ], # 设置推理深度 extra_headers={ "anthropic-effort": "high" } ) print(message.content[0].text) ``` #### 在 Claude Code 中使用 Claude Code 桌面应用已集成 Opus 4.5,只需在配置中选择: ```json theme={null} { "model": "claude-opus-4-5-20251101", "apiKey": "your-apiyi-key", "baseURL": "https://api.apiyi.com/v1" } ``` ### 最佳实践 1. **选择合适的推理模式**: * **low 模式**:快速响应、简单任务、成本敏感场景 * **medium 模式**(默认):平衡质量与成本,适合大多数场景 * **high 模式**:复杂推理、关键任务、质量优先场景 2. **充分利用长上下文**: * 20万 token 上下文可容纳约 15 万字中文或完整代码库 * 适合多轮对话、长文档分析、代码库级别操作 3. **多模态能力应用**: * 上传 UI 截图让 AI 生成对应代码 * 分析技术架构图并提供优化建议 * 从图表中提取数据并生成报告 4. **成本优化技巧**: * 优先使用 medium 模式(比 high 模式节省约 70% 输出 token) * 对比前代 Opus,相同任务成本降低 66% * 通过 API易 充值加赠活动,实际成本可低至 8 折 ## 价格与可用性 ### 定价信息 | 计费项 | Claude Opus 4.5 | Claude Opus 4.1 | 降幅 | | ------ | ---------------- | ---------------- | -------- | | **输入** | \$5 / 百万 tokens | \$15 / 百万 tokens | **-66%** | | **输出** | \$25 / 百万 tokens | \$75 / 百万 tokens | **-66%** | 价格仅为前代 1/3(相当于降价 66%),在保持顶级性能的同时大幅降低使用成本。 **与竞品价格对比**: | 模型 | 输入价格 | 输出价格 | 性能水平 | | ------------------- | ------- | -------- | --------------- | | **Claude Opus 4.5** | **\$5** | **\$25** | SWE-bench 80.9% | | GPT-5.1-Codex-Max | \$1.25 | \$10 | SWE-bench 77.9% | | Gemini 3 Pro | \$2 | \$12 | SWE-bench 76.2% | | Claude Sonnet 4.5 | \$3 | \$15 | SWE-bench 77.2% | Claude Opus 4.5 虽然价格略高于竞品,但性能显著领先,在复杂任务中更具性价比。 ### 优惠活动 **API易充值加赠**: * 充值满 700 元,加赠 10% **实际成本**:通过加赠活动,Claude Opus 4.5 实际使用成本可低至: * 输入:\$4 / 百万 tokens(8 折) * 输出:\$20 / 百万 tokens(8 折) ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * 支持 OpenAI 格式(`https://api.apiyi.com/v1`) * 支持 Anthropic 原生格式(`https://api.apiyi.com`) * 兼容 Claude Code 桌面应用 **其他渠道**: * Anthropic 官方 API * AWS Bedrock * Google Cloud Vertex AI * Azure AI ## 总结与建议 Claude Opus 4.5 的发布标志着 AI 编程能力的新里程碑,它不仅在 SWE-bench Verified 等权威评测中登顶,更在价格上实现了 66% 的大幅下降,让顶级 AI 能力真正触手可及。 **核心优势**: * **编程之王**:80.9% SWE-bench Verified,超越所有竞品 * **性价比之选**:价格仅为前代 1/3,配合 effort 参数进一步优化成本 * **推理深度**:high 模式适合复杂任务,medium 模式平衡质量与成本 * **生态完善**:支持 OpenAI/Anthropic 双格式,兼容 Claude Code **使用建议**: 1. **复杂编程任务**:优先选择 Opus 4.5,配合 high 或 medium 模式 2. **成本优化**:使用 medium 模式,通过 API易 充值加赠降低成本 3. **快速开发**:简单任务可降级到 Sonnet 4.5(\$3/\$15),节省成本 4. **长文本处理**:充分利用 20万 token 上下文,一次性处理完整项目 **谁应该使用 Opus 4.5**: * 需要最强编程能力的开发者 * 处理复杂推理任务的研究人员 * 追求质量优先的企业级应用 * 需要长上下文支持的代码库分析场景 API易已全面上线 Claude Opus 4.5,支持 OpenAI 和 Anthropic 双格式调用,现在注册充值即享加赠优惠,立即体验编程之王的强大能力! 信息来源:Anthropic 官方博客(2025年11月24日)、SWE-bench 官方评测数据。数据获取时间:2025年11月25日。 # Claude Opus 4.7 重磅上线:编程再进化,视觉能力三倍升级 Source: https://docs.apiyi.com/news/claude-opus-4-7-launch Anthropic 最新旗舰模型 Claude Opus 4.7 正式发布,编程基准提升 13%、Rakuten-SWE-Bench 三倍于前代、新增 xhigh 推理档位与 ultrareview 能力,API易已同步上线 claude-opus-4-7 与 claude-opus-4-7-thinking。 ## 核心要点 * **编程再进化**:93 任务编程基准较 Opus 4.6 提升 13%,解决了 Opus 4.6 与 Sonnet 4.6 都无法完成的 4 个任务 * **真实任务三倍**:Rakuten-SWE-Bench 解决的生产级任务数是 Opus 4.6 的 3 倍,代码质量、测试质量均有两位数增长 * **多步工作流**:CursorBench 得分 70%(Opus 4.6 为 58%),复杂多步任务比前代领先 14%,工具错误降低至 1/3 * **视觉升级 3 倍**:支持长边最长 2,576 像素的图像输入,分辨率承载能力是以往 Claude 模型的三倍以上 * **API易已上线**:`claude-opus-4-7` 与 `claude-opus-4-7-thinking` 同步上线,提示 \$5 / 补全 \$25 每百万 tokens,与 Opus 4.6 持平 ## 背景介绍 2026 年 4 月 16 日,Anthropic 正式发布旗舰模型 Claude Opus 4.7,这是继 Opus 4.5、Opus 4.6 之后的又一次重大升级。在延续上一代定价的前提下,Opus 4.7 在编程、视觉、Agentic 多步任务等核心能力上实现了全面跨越,继续稳居"编程最强模型"的位置。 本次升级的重点并非颠覆,而是"更强、更稳、更深":在难度更高、步骤更长的真实工程任务上交付更一致的结果;在视觉理解上大幅提升图像分辨率承载能力;在 Agent 场景中减少工具调用错误、节省 token 消耗。 API易已同步上线 `claude-opus-4-7` 和带推理模式的 `claude-opus-4-7-thinking` 两个版本,支持 OpenAI 与 Anthropic 双原生格式调用,Claude Code 用户可直接切换使用。 ## 详细解析 ### 核心特性 93 任务基准较 Opus 4.6 提升 13%,多项 Opus 4.6/Sonnet 4.6 无解任务被攻克 CursorBench 70% vs 58%,多步工作流 +14%,工具错误降低至 1/3 图像长边最长 2,576 像素,分辨率承载力为此前 Claude 模型的 3 倍以上 在 high 与 max 之间新增 xhigh 档,更细粒度平衡推理深度与响应速度 ### 性能亮点 Claude Opus 4.7 的提升主要体现在"难度更大、流程更长"的真实任务上,而非单点刷榜: | 评测项目 | Claude Opus 4.7 | Claude Opus 4.6 | 提升幅度 | | --------------------------- | ---------------- | --------------- | --------- | | **93 任务编程基准** | 较 4.6 +13% | 基准 | **+13%** | | **Rakuten-SWE-Bench(生产任务)** | 约为 4.6 的 **3 倍** | 基准 | **3×** | | **CursorBench** | **70%** | 58% | **+12pp** | | **复杂多步工作流** | +14%(更少 token) | 基准 | **+14%** | | **工具调用错误** | 约为 4.6 的 **1/3** | 基准 | **-67%** | 数据来源:Anthropic 官方博客(2026 年 4 月 16 日发布)及 GitHub Changelog 的 Opus 4.7 GA 公告,部分独立评测转引自 TechBriefly、Dataconomy 等媒体报道。 **工程任务更扎实**: * 在真实代码仓库与生产问题上,Opus 4.7 不仅"能做",而且"做得更稳",在代码质量与测试质量两个维度均有两位数提升。 * 更擅长解决前代 Opus 4.6 与 Sonnet 4.6 都无法完成的高难度任务。 **Agentic 场景更省钱**: * 同样完成多步工作流,Opus 4.7 使用更少 token,并且工具调用错误只有前代的 1/3,大幅降低 Agent 系统的"失败重试"成本。 **视觉理解更强**: * 图像长边支持最长 2,576 像素,适合架构图、UI 截图、长截图、高清图表等高信息密度场景。 ### 技术规格 | 参数 | 规格 | | ---------- | ----------------------------------------------------------------- | | **模型标识** | `claude-opus-4-7` / `claude-opus-4-7-thinking` | | **上下文长度** | 200,000 tokens | | **图像输入** | 长边最长 2,576 像素 | | **推理控制** | effort 参数(low / medium / high / **xhigh** / max) | | **思考模式** | `claude-opus-4-7-thinking` 默认开启扩展思考 | | **API 格式** | OpenAI 兼容 / Anthropic 原生 | | **可用渠道** | Anthropic API、AWS Bedrock、Google Vertex AI、Microsoft Foundry、API易 | `claude-opus-4-7` 与 `claude-opus-4-7-thinking` 计费价格相同,但 thinking 版本在扩展思考过程中会额外消耗输出 token,总体成本通常会高于普通版。追求极致深度推理时再启用。 ### 新增功能 * **xhigh 推理档位**:在原有 high 与 max 之间新增一档,适合"比 high 更深、比 max 更省"的日常高质量场景。 * **Task Budgets(任务预算)公测**:API 端新增任务级别预算能力,可在 Agent 多步任务中对 token、工具调用做硬性上限控制,避免失控消耗。 * **ultrareview(Claude Code)**:为 Claude Code 新增的深度代码审查指令,可识别潜在 Bug、设计缺陷和边界问题,定位在"上线前最后一道关口"使用。 ## 实际应用 ### 推荐场景 Claude Opus 4.7 特别适合以下场景: 1. **大型仓库级编程**:跨文件重构、复杂 Bug 修复、架构级设计决策 2. **长链路 Agent 任务**:研究代理、代码代理、浏览器代理等需要多步工具调用的场景 3. **高信息密度视觉**:架构图解读、完整 UI 截图生成代码、长截图总结 4. **关键代码审查**:结合 Claude Code 的 ultrareview 指令,用于重要 PR 的最后一道把关 5. **需要"稳"的生产调用**:希望减少工具调用错误、降低失败重试成本的线上服务 ### 代码示例 #### OpenAI 格式调用(普通版) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="claude-opus-4-7", messages=[ { "role": "user", "content": "审查这段 TypeScript 代码,指出潜在 Bug 与可以改进的设计。" } ], extra_body={ "anthropic_effort": "xhigh" # low / medium / high / xhigh / max } ) print(response.choices[0].message.content) ``` #### Anthropic 原生格式调用(思考版) ```python theme={null} import anthropic client = anthropic.Anthropic( api_key="your-apiyi-key", base_url="https://api.apiyi.com" ) message = client.messages.create( model="claude-opus-4-7-thinking", max_tokens=8192, messages=[ { "role": "user", "content": "我有一个 Rakuten 订单系统的生产 Bug,请一步步定位根因并给出修复方案。" } ] ) print(message.content[0].text) ``` #### 在 Claude Code 中使用 Claude Code 中只需更换模型名称即可使用: ```json theme={null} { "model": "claude-opus-4-7", "apiKey": "your-apiyi-key", "baseURL": "https://api.apiyi.com/v1" } ``` 日常编码推荐 `claude-opus-4-7`;在关键 PR、复杂重构前执行 `/ultrareview` 审查时,可切换至 `claude-opus-4-7-thinking` 以获得更深的推理链路。 ### 最佳实践 1. **按任务选型**: * **日常代码/重构/审查**:`claude-opus-4-7` + `xhigh` 档位 * **复杂根因定位/多步规划**:`claude-opus-4-7-thinking` * **成本敏感的批量任务**:继续使用 Sonnet 4.6 或 Opus 4.7 的 `medium` 档位 2. **善用 Task Budgets**: * 在长链路 Agent 任务中设置 token 与工具调用上限,避免失控。 * 结合 Opus 4.7 "工具错误仅为 1/3" 的特性,构建更稳的生产 Agent。 3. **发挥视觉能力**: * 直接上传高清截图、架构图,让模型在一次调用中完成读图 + 生成。 * 对长截图、数据表格图像的理解比此前模型更完整。 4. **充分利用上下文**: * 200K tokens 可覆盖完整项目源码 + 文档,一次性完成仓库级操作。 ## 价格与可用性 ### 定价信息 | 计费项 | Claude Opus 4.7 | Claude Opus 4.6 | 变化 | | ------ | ---------------- | ---------------- | -- | | **输入** | \$5 / 百万 tokens | \$5 / 百万 tokens | 持平 | | **输出** | \$25 / 百万 tokens | \$25 / 百万 tokens | 持平 | Opus 4.7 维持了 Opus 4.6 的价格,在"不加价"的前提下显著提升编程、Agentic 与视觉能力,等同于"白嫖"一次性能升级。 **与主流竞品价格对比**(仅供参考): | 模型 | 输入价格 | 输出价格 | 定位 | | ------------------- | ------- | -------- | -------------- | | **Claude Opus 4.7** | **\$5** | **\$25** | 最强编程 / Agentic | | Claude Sonnet 4.6 | \$3 | \$15 | 日常高性价比 | | GPT-5.1-Codex-Max | \$1.25 | \$10 | 编程竞品 | | Gemini 3 Pro | \$2 | \$12 | 通用旗舰 | ### 叠加网站充值活动 可结合 API易 充值加赠活动进一步降低实际成本,详见:`docs.apiyi.com/faq/recharge-promotions`。 ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * OpenAI 格式:`https://api.apiyi.com/v1` * Anthropic 原生格式:`https://api.apiyi.com` * 模型名:`claude-opus-4-7`、`claude-opus-4-7-thinking` **其他渠道**: * Anthropic 官方 API * AWS Bedrock * Google Cloud Vertex AI * Microsoft Foundry ## 总结与建议 Claude Opus 4.7 是一次"不加价但明显更强"的升级:编程基准 +13%、生产任务 3 倍、工具错误降至 1/3、视觉承载力提升 3 倍,同时带来 xhigh 档位、Task Budgets、ultrareview 等实用新能力。 **核心优势**: * **更强**:93 任务编程基准 +13%,Rakuten-SWE-Bench 生产任务 3 倍 * **更稳**:Agent 工具调用错误只剩 1/3,长链路任务更省 token * **更深**:xhigh 档位 + thinking 版本,适合关键任务与复杂根因分析 * **更广**:视觉输入长边升至 2,576 像素,覆盖高清图表与长截图 **使用建议**: 1. **关键编码任务**:直接选用 `claude-opus-4-7`,搭配 `xhigh` 档位 2. **生产 Agent 系统**:用 Opus 4.7 替换 Opus 4.6,并启用 Task Budgets 3. **高价值 PR 审查**:在 Claude Code 中使用 `ultrareview` + thinking 版本 4. **大规模批量调用**:继续沿用 Sonnet 4.6 或 Opus 4.7 的 `medium` 档位 API易已全面上线 `claude-opus-4-7` 与 `claude-opus-4-7-thinking`,兼容 OpenAI 与 Anthropic 原生格式,欢迎立即在自己的编码与 Agent 工作流中体验这次"白嫖式"升级。 信息来源:Anthropic 官方公告(`anthropic.com/claude/opus`)、GitHub Changelog(2026-04-16 Opus 4.7 GA)、The Information、TechBriefly、Dataconomy 等报道。数据获取时间:2026 年 4 月 17 日。 # DeepSeek V4-Pro / V4-Flash 上线:百万上下文 + 开源 SOTA Source: https://docs.apiyi.com/news/deepseek-v4-launch DeepSeek V4 预览版双模型上线 API易!1M 超长上下文、Hybrid Attention 架构、Agentic Coding 达开源 SOTA、SWE-Verified 80.6 接近 Claude/Gemini。官方同价,叠加充值活动可做到约 85 折。 ## 核心要点 * **双模型上线**:`deepseek-v4-pro`(1.6T 总参 / 49B 激活)与 `deepseek-v4-flash`(284B 总参 / 13B 激活),均为 MoE 架构 * **百万上下文**:全系支持 1M tokens 超长上下文,配合全新 Hybrid Attention 架构 + DSA 稀疏注意力 * **开源 SOTA**:V4-Pro 在 Agentic Coding 评测中达当前开源模型最佳,SWE-Verified 80.6,和 Claude(80.8)、Gemini(80.6)基本持平 * **思考模式可调**:支持 `reasoning_effort` 参数(high / max),复杂 Agent 场景官方推荐 max 强度 * **双接口兼容**:同时支持 OpenAI ChatCompletions 与 Anthropic 接口 * **价格亲民**:Flash 输入 \$0.14 / 输出 \$0.28(每 1M tokens),Pro 输入 \$1.74 / 输出 \$3.48,均与官方同价 * **充值加赠**:叠加 API易 充值活动可做到官方约 **85 折** 当前上架版本为**阿里云官转通道**,发布日期 2026-04-24(官方预览版),信息来源:DeepSeek 官方文档 `api-docs.deepseek.com/zh-cn/news/news260424`。 ## 背景介绍 距离 DeepSeek-R1 震撼业界已过去整整一年。2026 年 4 月 24 日,DeepSeek 正式发布 V4 预览版,一次性带来面向性能的 **V4-Pro** 和面向成本 / 速度的 **V4-Flash** 两款模型。 V4 最关键的技术进展是 **Hybrid Attention Architecture**(混合注意力架构)——在 token 维度对注意力进行压缩,并结合 DSA 稀疏注意力机制,使长上下文下的推理既高效又准确。配合 **1M 超长上下文**,这代模型在设计上就是为了 Agent 与长程推理而生。 在与闭源前沿模型的对比上,DeepSeek 坦率地给出了自我定位:V4-Pro 在世界知识上仅稍逊于 Gemini-Pro-3.1,整体与 GPT-5.4 / Gemini-Pro-3.1 的差距"约为 3 到 6 个月"——对开源阵营而言,这已是近期最亮眼的追赶。 ## 详细解析 ### 两款新模型 **性能旗舰** 1.6T 总参 / 49B 激活,MoE 架构,1M 上下文。面向复杂 Agent、Coding、数学、STEM 与竞赛级代码场景。Agentic Coding 为当前开源 SOTA。 **速度经济版** 284B 总参 / 13B 激活,MoE 架构,1M 上下文。面向高并发、低延迟、成本敏感场景,适合日常对话、文本处理、批量任务。 ### 性能亮点 基于官方及第三方评测报告的关键数据: | 评测维度 | DeepSeek-V4-Pro | 对手参考 | | ------------------------------- | ------------------ | ------------------------- | | SWE-Verified(真实软件工程) | **80.6** | Claude 80.8 / Gemini 80.6 | | Agentic Coding | **开源 SOTA** | 接近 Claude Opus 4.5 | | 世界知识 | 开源领先 | 仅次于 Gemini-Pro-3.1 | | 数学 / STEM / 竞赛代码 | **超越所有已公开评测的开源模型** | — | | 与 GPT-5.4 / Gemini-Pro-3.1 整体差距 | 约 **3-6 个月** | — | 官方内部评测中,**V4-Pro-Max(max 思考强度)** 在 Agent 任务上优于 Claude Sonnet 4.5,并逼近 Claude Opus 4.5。 ### 架构与技术规格 * **token 维度压缩**:全新注意力机制在 token 维度上做压缩,显著降低长上下文推理成本 * **DSA 稀疏注意力**:与稀疏注意力结合,进一步优化长程依赖建模 * **MoE 专家模型**:V4-Pro 激活率约 3%(49B/1.6T),V4-Flash 激活率约 4.6%(13B/284B) * **1M 上下文**:全系支持 1,000,000 tokens,天然适合 Agent、代码库级任务、长文档分析 ### 思考模式与 reasoning\_effort V4 同时支持**非思考模式**与**思考模式**。思考模式下提供 `reasoning_effort` 参数: * `high`:标准深度思考,适合一般复杂问题 * `max`:最大思考强度,**官方推荐用于复杂 Agent 场景** 对于复杂的 Agent 任务(长程工具调用、代码库级重构等),官方明确建议使用**思考模式 + `reasoning_effort=max`**,可显著提升任务完成率,但会增加输出 token 与耗时。 ## 实际应用 ### 推荐场景 V4-Pro-Max 在开源阵营中 Agent 能力最强,适合 Claude Code / Cline / 自研 Agent 流水线 SWE-Verified 80.6 + 1M 上下文,可一次性装入中大型仓库上下文 研报、法律合同、论文批量处理,1M 上下文 + 压缩注意力成本友好 V4-Flash 输入仅 \$0.14 / 1M tokens,适合客服、分类、翻译等高频任务 ### 快速开始(OpenAI 兼容接口) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-apiyi-key", base_url="https://api.apiyi.com/v1" ) # 性能旗舰:V4-Pro + 最大思考强度,适合复杂 Agent resp = client.chat.completions.create( model="deepseek-v4-pro", messages=[ {"role": "system", "content": "你是一名资深全栈工程师"}, {"role": "user", "content": "请基于现有仓库实现一个登录重试的熔断策略"} ], extra_body={"reasoning_effort": "max"} ) print(resp.choices[0].message.content) ``` ### 经济型调用(Flash) ```python theme={null} # 高并发经济型:V4-Flash,默认非思考模式,延迟更低 resp = client.chat.completions.create( model="deepseek-v4-flash", messages=[{"role": "user", "content": "把下面这段英文翻译成中文:..."}] ) ``` ### Anthropic 接口调用 ```python theme={null} import anthropic client = anthropic.Anthropic( api_key="sk-your-apiyi-key", base_url="https://api.apiyi.com" ) msg = client.messages.create( model="deepseek-v4-pro", max_tokens=4096, messages=[{"role": "user", "content": "帮我设计一个分布式队列的限流方案"}] ) print(msg.content[0].text) ``` ### 最佳实践 * **选型建议**:默认用 Flash,遇到 Agent / 复杂代码 / 推理密集任务再切 Pro * **思考强度**:简单任务关闭思考模式;复杂 Agent 场景用 `reasoning_effort=max` * **长上下文**:1M 上下文虽香,但输入 token 越多计费越高,建议做一轮预筛选再投喂 * **流式输出**:思考模式可能产出较多中间 token,建议客户端开启 stream 改善体验 ## 价格与可用性 ### 定价表(USD / 1M tokens) | 模型 | 计费类型 | 提示价格(输入) | 补全价格(输出) | 提示倍率 | 补全倍率 | | ------------------- | ----------- | ------------ | ------------ | ---- | ------ | | `deepseek-v4-flash` | 按量付费 - Chat | **\$0.1400** | **\$0.2800** | 0.07 | 2.0000 | | `deepseek-v4-pro` | 按量付费 - Chat | **\$1.7400** | **\$3.4800** | 0.87 | 2.0000 | API易 挂牌价格与 DeepSeek 官方完全一致,无加价。当前为**阿里云官转**通道,稳定性与官方直连一致。 ### 叠加网站充值活动 充值活动可把实际成本做到**官方约 85 折**,详见: 查看最新充值加赠规则,越大额加赠比例越高 ## 总结与建议 DeepSeek V4 预览版给出了开源阵营近一年最有分量的一份答卷: * ✅ **Agent / Coding 首选开源**:V4-Pro 是目前开源世界最能打的 Agent 基座,Claude Sonnet 级性能,价格只是一个零头 * ✅ **成本敏感首选 Flash**:\$0.14 / 1M tokens 的输入成本,配合 1M 上下文,几乎是长文档处理的性价比天花板 * ✅ **平滑迁移**:OpenAI + Anthropic 双接口兼容,现有代码改一行 `base_url` 和 `model` 即可切换 **推荐迁移路径**: 1. 把现有 DeepSeek-V3 / R1 调用逐步切到 V4-Flash 做 A/B 2. Agent / 代码类任务升级到 V4-Pro + `reasoning_effort=max` 3. 搭配 API易 充值加赠,把成本再拉低 \~15% **信息来源与日期** * DeepSeek 官方发布公告:`api-docs.deepseek.com/zh-cn/news/news260424` * 第三方报道与评测:`simonwillison.net/2026/Apr/24/deepseek-v4/`、`thenextweb.com`、`felloai.com/deepseek-v4/`、`techxplore.com`、`digitalapplied.com` * 数据获取日期:2026-04-24 # Gemini 2.5 Flash Lite:谷歌最快最省的轻量级模型,海量文本处理首选 Source: https://docs.apiyi.com/news/gemini-2-5-flash-lite-preview-launch 谷歌发布 Gemini 2.5 Flash Lite Preview 09-2025,性能提升 50%,专为高吞吐量场景优化。API易独家稳定供应,超过 500 并发支持,让您的海量文本处理更高效。 ## 核心要点 * **独家稳定供应**:该模型市场供应稀缺,API易确保稳定可靠的服务,无需担心配额限制 * **性能跃升**:输出 tokens 减少 50%,降低成本和延迟的同时提升响应质量 * **极速响应**:延迟低于 2.0 Flash Lite 和 2.0 Flash,专为高吞吐量场景优化 * **全能力覆盖**:支持 100 万上下文,64K 输出,多模态能力(文本、视觉、音频) * **API易优势**:提供超过 500 并发支持,稳定可靠,让您的海量文本处理无忧 ## 背景介绍 在 AI 应用快速发展的今天,海量文本处理已成为许多企业的核心需求。无论是内容审核、智能客服、文档分析,还是代码生成、数据提取,都需要在保证质量的前提下,尽可能降低成本、提高效率。 2025 年 9 月 25 日,谷歌发布了 **Gemini 2.5 Flash Lite Preview 09-2025**,这是 Gemini 2.5 系列中最轻量、最快速、最经济的模型。相比前代 2.0 Flash Lite,新版本在编程、数学、科学推理和多模态能力上全面提升,同时将输出成本和延迟降低了 50%。 对于有海量文本处理需求的开发者和企业,这是一个理想的选择。而 **API易** 作为国内领先的 AI API 服务商,不仅提供极具竞争力的价格,更能提供 **超过 500 并发** 的稳定支持,让您的业务高速运转。 ## 详细解析 ### 核心特性 * API易独家稳定供应 * 市场供应稀缺,服务可靠 * 持续稳定的性能表现 * 延迟低于 2.0 Flash Lite * 输出 tokens 减少 50% * 专为高吞吐量场景优化 * 显著提升复杂指令理解 * 更精准的系统提示响应 * 降低冗余输出 * 文本、代码、图像、音频 * 100 万上下文窗口 * 64K 输出限制 ### 性能亮点 Gemini 2.5 Flash Lite Preview 09-2025 在多个维度实现了显著提升: **质量提升** * 编程、数学、科学推理能力全面超越 2.0 Flash Lite * 指令遵循准确性大幅提高 * 音频转录、图像理解、翻译质量显著增强 **效率提升** * 输出 tokens 减少 50%,直接降低成本和延迟 * 响应速度比 7 月版本快 40% * 非推理模式得分提升 12 分,推理模式提升 8 分 **经济性优势** * 优化的定价结构,适合大规模部署 * 更低的单 token 成本,支持更大规模应用 * 降低延迟提升用户体验和吞吐量 ### 技术规格 | 规格项 | 参数 | | ------ | ------------------------ | | 上下文窗口 | 1,048,576 tokens (1M) | | 最大输出 | 65,536 tokens (64K) | | 架构 | 稀疏混合专家 (MoE) Transformer | | 多模态支持 | 文本、代码、图像、音频、视频 | | 最大输入大小 | 500 MB | | 发布日期 | 2025 年 9 月 25 日 | ## 实际应用 ### 推荐场景 Gemini 2.5 Flash Lite 特别适合以下高吞吐量场景: * 海量 UGC 内容审核 * 多语言内容分类 * 敏感信息检测 * 大规模客服机器人 * FAQ 自动回复 * 多轮对话理解 * 批量文档解析 * 结构化数据提取 * 多格式转换 * 代码补全与优化 * 错误诊断与修复 * 自动化测试生成 ### 代码示例 以下是使用 API易 调用 Gemini 2.5 Flash Lite 的 Python 示例: ```python theme={null} import openai # 配置 API易 客户端 client = openai.OpenAI( api_key="your-apiyi-api-key", # 替换为您的 API易 密钥 base_url="https://api.apiyi.com/v1" ) # 调用 Gemini 2.5 Flash Lite response = client.chat.completions.create( model="gemini-2.5-flash-lite-preview-09-2025", messages=[ { "role": "system", "content": "你是一个专业的内容审核助手,能够快速识别文本中的敏感信息。" }, { "role": "user", "content": "请分析以下评论是否包含不当内容:这个产品真的太棒了!" } ], max_tokens=1024, temperature=0.7 ) print(response.choices[0].message.content) ``` ### 最佳实践 **高并发场景优化建议** 1. **批量处理**:将多个请求合并为单个请求,减少网络开销 2. **异步调用**:使用异步客户端提高吞吐量(API易支持超过 500 并发) 3. **缓存策略**:对于重复性高的请求,使用缓存减少 API 调用 4. **Token 控制**:合理设置 `max_tokens`,避免不必要的输出成本 5. **错误重试**:实现指数退避重试机制,提高稳定性 **成本优化技巧** * 使用简洁的 System Prompt,减少输入 tokens * 利用模型的低冗余特性,避免过度生成 * 对于简单任务,优先选择 Flash Lite 而非 Flash 或 Pro * 监控 Token 使用量,及时调整策略 ## 价格与可用性 ### API易 独家定价 **现已在 API易 上线** * 极具竞争力的大规模使用定价 * 模型倍率:0.1(超低成本) * 补全倍率:8 * 超过 500 并发支持 * 7x24 小时技术支持 * 稳定供应保障 **供应状态与重要提醒** * 该模型目前市场供应稀缺,API易 确保稳定供应 * Preview 版本可能会有 API 变更,建议密切关注官方更新 * 高并发场景建议配置合理的限流和重试策略 * 对于关键业务,建议同时备用稳定版模型(gemini-2.5-flash-lite) ### 为什么选择 API易? **稀缺市场中的可靠供应** 尽管 Gemini 2.5 Flash Lite Preview 在全球范围内供应受限,API易 确保: 1. **持续可用性**:无中断或配额限制 2. **高并发能力**:支持超过 500 并发请求 3. **稳定性能**:99.9% 可用性保证 4. **响应式支持**:7x24 小时技术支持 ### 购买渠道 **快速开始使用 API易** 1. 访问 API易 官网:`apiyi.com` 2. 注册并充值(支持多种充值方式) 3. 在控制台获取 API Key 4. 使用 OpenAI SDK 格式调用(base\_url 设置为 API易 端点) 5. 享受超过 500 并发的稳定服务 **其他渠道** * Google AI Studio:`ai.google.dev`(供应有限) * Vertex AI:`cloud.google.com/vertex-ai`(供应有限) * 模型标识符:`gemini-2.5-flash-lite-preview-09-2025` ## 总结与建议 Gemini 2.5 Flash Lite Preview 09-2025 是谷歌为高吞吐量场景打造的理想模型:**超低成本**、**极速响应**(延迟降低 50%)、**全能力支持**(100 万上下文 + 多模态)、**稳定供应**(API易独家保障),特别适合内容审核、智能客服、文档处理、代码辅助等海量文本处理场景。 **我们的建议** * **小型团队/初创企业**:优先选择 Flash Lite,成本低、速度快、能力足够 * **中大型企业**:结合 Flash Lite(高吞吐)和 Flash/Pro(复杂任务)混合使用 * **海量处理场景**:选择 API易,享受超过 500 并发 + 稳定供应 + 可靠服务保障 **信息来源与更新日期** * 官方公告:Google Developers Blog(2025年9月25日) * 技术文档:Google Cloud Vertex AI 文档 * 性能数据:Google AI Studio 基准测试 * 定价信息:API易官方定价 * 数据获取时间:2025年11月24日 **立即开始使用** 访问 API易 官网,获取 API Key,开始您的 Gemini 2.5 Flash Lite 之旅。如有任何疑问,欢迎联系我们的技术支持团队! # Gemini 3.1 Flash Lite Preview:谷歌最新轻量级模型,代理任务与低延迟场景首选 Source: https://docs.apiyi.com/news/gemini-3-1-flash-lite-preview-launch 谷歌发布 Gemini 3.1 Flash Lite Preview,专为高吞吐量代理任务和低延迟场景优化。支持 100 万上下文、多模态输入,API易官方直连通道同步上线。 ## 核心要点 * **全新轻量级模型**:Gemini 3.1 Flash Lite Preview 是谷歌 Gemini 3.1 系列中最轻量、最快速的模型变体 * **代理任务优化**:专为高吞吐量代理任务、简单数据提取、极低延迟应用场景设计 * **超大上下文**:支持 1,048,576 tokens(100 万+)上下文窗口,65,536 tokens 最大输出 * **全模态输入**:支持文本、图像、视频、音频、PDF 五种输入模态 * **官方直连**:API易通过官转通道接入,定价与官网一致,稳定可靠 ## 背景介绍 随着 AI Agent(智能代理)应用的爆发式增长,开发者对轻量级、低延迟、高吞吐的模型需求日益增强。大量代理任务场景——如工具调用、数据提取、路由分发、简单分类——并不需要最强大的推理能力,而是需要快速响应和低成本。 谷歌推出的 **Gemini 3.1 Flash Lite Preview** 正是为此而生。作为 Gemini 3.1 系列的轻量级变体,它在保持强大多模态能力的同时,大幅降低了延迟和成本,成为代理任务流水线中的理想选择。 API易已通过官方直连(官转)通道同步接入该模型,定价与谷歌官网完全一致,为开发者提供稳定可靠的调用体验。 ## 详细解析 ### 核心特性 * 专为 Agent 工作流设计 * 极低延迟响应 * 高吞吐量并发支持 * 文本、图像、视频、音频、PDF * 100 万+ tokens 上下文窗口 * 65K tokens 最大输出 * 函数调用 (Function Calling) * 代码执行 (Code Execution) * 结构化输出 (Structured Output) * 搜索 Grounding * Batch API 批量处理 * 上下文缓存 (Caching) * 思维链输出 * 文件搜索 & URL 上下文 ### 技术规格 | 规格项 | 参数 | | ----- | ------------------------------- | | 模型名称 | `gemini-3.1-flash-lite-preview` | | 上下文窗口 | 1,048,576 tokens (1M+) | | 最大输出 | 65,536 tokens (64K) | | 输入模态 | 文本、图像、视频、音频、PDF | | 输出模态 | 文本 | | 接入渠道 | 官方直连(官转) | ### 与前代对比 | 特性 | 3.1 Flash Lite Preview | 2.5 Flash Lite | | ------------ | ---------------------- | -------------- | | 上下文窗口 | 1M+ tokens | 1M tokens | | 最大输出 | 64K tokens | 64K tokens | | 函数调用 | ✅ | ✅ | | 代码执行 | ✅ | ✅ | | 结构化输出 | ✅ | ✅ | | 思维链 | ✅ | ✅ | | 文件搜索 | ✅ | ❌ | | URL 上下文 | ✅ | ❌ | | 搜索 Grounding | ✅ | ❌ | | 代理任务优化 | ✅ | ❌ | Gemini 3.1 Flash Lite Preview 在前代基础上新增了文件搜索、URL 上下文、搜索 Grounding 等能力,更好地服务代理任务场景。 ## 实际应用 ### 推荐场景 * 工具调用与路由分发 * 多步骤代理编排 * 轻量级决策节点 * 结构化信息提取 * 表格/表单解析 * 批量文档处理 * 内容分类与标注 * 意图识别 * 情感分析 * 图片/视频内容理解 * 音频转文字 * PDF 文档解析 ### 代码示例 以下是使用 API易 调用 Gemini 3.1 Flash Lite Preview 的 Python 示例: ```python theme={null} import openai # 配置 API易 客户端 client = openai.OpenAI( api_key="your-apiyi-api-key", # 替换为您的 API易 密钥 base_url="https://api.apiyi.com/v1" ) # 调用 Gemini 3.1 Flash Lite Preview response = client.chat.completions.create( model="gemini-3.1-flash-lite-preview", messages=[ { "role": "system", "content": "你是一个高效的数据提取助手,从用户提供的文本中提取结构化信息。" }, { "role": "user", "content": "请从以下文本中提取公司名称、成立时间和主营业务:API易成立于2024年,是一家专注于AI大模型API中转服务的科技公司,支持200+热门AI模型。" } ], max_tokens=1024, temperature=0.3, response_format={"type": "json_object"} ) print(response.choices[0].message.content) ``` **函数调用示例** ```python theme={null} import openai import json client = openai.OpenAI( api_key="your-apiyi-api-key", base_url="https://api.apiyi.com/v1" ) # 定义工具 tools = [ { "type": "function", "function": { "name": "get_weather", "description": "获取指定城市的天气信息", "parameters": { "type": "object", "properties": { "city": {"type": "string", "description": "城市名称"} }, "required": ["city"] } } } ] response = client.chat.completions.create( model="gemini-3.1-flash-lite-preview", messages=[{"role": "user", "content": "北京今天天气怎么样?"}], tools=tools, tool_choice="auto" ) print(response.choices[0].message.tool_calls) ``` ### 最佳实践 **代理任务优化建议** 1. **精简提示词**:Flash Lite 对简洁指令响应更好,避免冗长的系统提示 2. **结构化输出**:使用 `response_format` 获取 JSON 格式输出,便于下游处理 3. **批量处理**:高吞吐场景使用 Batch API,进一步降低成本 4. **缓存利用**:对重复上下文启用缓存,减少输入 token 消耗 5. **温度控制**:数据提取类任务建议 temperature 设置为 0-0.3 ## 价格与可用性 ### API易定价 **现已在 API易 上线** | 类型 | 价格 | | ---- | ------------------ | | 文本输入 | \$0.25 / 百万 tokens | | 图片输入 | \$0.25 / 百万 tokens | | 视频输入 | \$0.25 / 百万 tokens | | 输出 | \$1.50 / 百万 tokens | * 官方直连(官转)通道 * 定价与谷歌官网一致 * 支持充值加赠优惠 **重要提醒** * 当前为 Preview 预览版,API 接口可能会有调整 * 建议在非关键业务中先行测试 * 关注 API易 公告获取后续更新信息 ### 购买渠道 1. 访问 API易 官网:`apiyi.com` 2. 注册并充值(支持多种支付方式) 3. 在控制台获取 API Key 4. 使用 OpenAI SDK 格式调用(base\_url 设置为 `https://api.apiyi.com/v1`) ## 总结与建议 Gemini 3.1 Flash Lite Preview 是谷歌为代理任务和低延迟场景量身打造的轻量级模型:**超低成本**(输入 \$0.25/M)、**极速响应**、**全模态输入**(文本/图像/视频/音频/PDF)、**丰富能力**(函数调用/结构化输出/搜索 Grounding),是构建 AI Agent 工作流的理想基础组件。 **我们的建议** * **Agent 开发者**:优先用于工具调用、路由分发、简单分类等轻量级节点 * **数据处理团队**:适合批量文档解析、信息提取、内容分类 * **成本敏感场景**:以极低成本获得 Gemini 3.1 系列的多模态能力 **信息来源与更新日期** * 来源:Google AI 官方文档 * 模型标识符:`gemini-3.1-flash-lite-preview` * 数据获取时间:2026年3月5日 **立即开始使用** 访问 API易 官网,获取 API Key,开始您的 Gemini 3.1 Flash Lite Preview 之旅! # Gemini 3 Flash Preview 震撼发布:Pro 级性能,Flash 级速度 Source: https://docs.apiyi.com/news/gemini-3-flash-preview-launch 谷歌最新高性能快速模型 Gemini 3 Flash Preview 正式上线!SWE-bench 78% 超越 Gemini 3 Pro,速度比 2.5 Pro 快 3 倍,MMMU-Pro 81.2% 击败所有竞品。API易同步上线 3 个模型变体,灵活切换推理模式。 ## 核心要点 * **🏆 超越 Pro 性能**:SWE-bench Verified 78%,超越 Gemini 3 Pro 和整个 2.5 系列 * **⚡ 极速响应**:速度比 Gemini 2.5 Pro 快 3 倍,Pro 级性能 Flash 级价格 * **🧠 顶尖推理**:MMMU-Pro 81.2% 击败所有竞品,Humanity's Last Exam 33.7% * **🎯 三种模式**:自动推理、强制推理、默认不推理,灵活切换适配不同场景 * **💰 性价比高**:仅为 Gemini 3 Pro 价格的 1/4(\$0.5/\$3.0 每百万 tokens) * **🚀 即刻可用**:API易已于12月18日同步上线,价格与官网一致,充值活动享额外折扣 ## 背景介绍 2025年12月17日,Google 正式发布 **Gemini 3 Flash Preview**,这是继 Gemini 3 Pro Preview 之后的又一重磅更新。作为 Gemini 3 系列的"快速版本",Flash Preview 在保持 Pro 级推理能力的同时,实现了 3 倍速度提升和大幅成本降低,重新定义了高性能 AI 模型的性价比标准。 令人惊讶的是,Gemini 3 Flash Preview 在编程能力方面甚至**超越了 Gemini 3 Pro**。在 SWE-bench Verified 测试中,Flash Preview 达到了 78% 的惊人成绩,不仅超越了同系列的 3 Pro,也全面领先于整个 Gemini 2.5 系列。这标志着 Google 在"速度与智能"的平衡上取得了新的突破。 Google 将 Gemini 3 Flash 定位为"人人可用的前沿智能",已将其设为 Gemini 应用和 AI Mode 搜索的默认模型。企业客户如 JetBrains、Figma、Cursor、Harvey 等已经开始使用这一模型。 API易团队在第一时间完成了模型接入,于**2025年12月18日**正式向所有用户开放 Gemini 3 Flash Preview API 调用服务,并提供 **3 个模型变体**以满足不同的推理需求。定价与 Google 官网保持一致,同时支持充值活动的额外折扣。 ## 详细解析 ### 核心特性 SWE-bench Verified 达到 78%,不仅超越 Gemini 3 Pro(约 76%),也全面领先 Gemini 2.5 系列。在智能体编程场景中表现尤为出色。 相比 Gemini 2.5 Pro 快 3 倍,同时保持 Pro 级的推理质量。适合需要快速响应的交互式应用和实时场景。 MMMU-Pro 达到 81.2%,超越所有竞品。支持文本、图像、视频、音频、PDF 等多种输入格式,单一模型处理所有内容。 定价仅为 Gemini 3 Pro 的 1/4(\$0.5/\$3.0 vs \$2.0/\$12.0),大幅降低企业和开发者的使用成本。 ### 性能亮点 #### 1. 编程能力对比 Gemini 3 Flash Preview 在编程领域的表现令人惊艳: | 模型 | SWE-bench Verified | 智能体编程 | 性能/价格比 | | -------------------------- | ------------------ | ----- | ------ | | **Gemini 3 Flash Preview** | **78%** | ✅ 优秀 | ⭐⭐⭐⭐⭐ | | Gemini 3 Pro | \~76% | ✅ 优秀 | ⭐⭐⭐ | | Gemini 2.5 Pro | \~72% | ✅ 良好 | ⭐⭐ | | Gemini 2.5 Flash | \~65% | ✅ 良好 | ⭐⭐⭐⭐ | Flash Preview 成为首个在编程能力上超越同系列 Pro 版本的 Flash 模型,为开发者提供了最佳的性价比选择。 #### 2. 推理能力对比 在多个权威评测中,Gemini 3 Flash Preview 展现了卓越的推理能力: | 评测基准 | Gemini 3 Flash Preview | Gemini 2.5 Flash | Gemini 3 Pro | | ------------------------ | ---------------------- | ---------------- | ------------ | | **MMMU-Pro** | **81.2%** 🥇 | \~70% | \~82% | | **Humanity's Last Exam** | **33.7%** | 11% | 37.5% | | **SWE-bench Verified** | **78%** 🥇 | \~65% | \~76% | 在 Humanity's Last Exam(被称为"人类最后的考试")中,Flash Preview 的 33.7% 成绩已经接近 Pro 版本的 37.5%,远超 2.5 Flash 的 11%。 #### 3. 速度与效率 Google 官方数据显示: * **响应速度**:比 Gemini 2.5 Pro 快 **3 倍** * **吞吐量**:适合高并发场景,支持大规模部署 * **延迟**:交互式应用中提供近实时响应 ### 技术规格 | 规格项 | Gemini 3 Flash Preview | | ------ | ------------------------------- | | 上下文窗口 | 1,048,576 tokens(约 100 万) | | 最大输出 | 65,536 tokens(约 6.5 万) | | 输入格式 | 文本、图像、视频、音频、PDF | | 输出格式 | 文本 | | API 端点 | `gemini-3-flash-preview` 系列 | | 可用性 | Google AI Studio、Vertex AI、API易 | ## 模型变体说明 API易为 Gemini 3 Flash Preview 提供 **3 个模型变体**,满足不同的推理需求: ### 1. gemini-3-flash-preview(自动推理) **推荐使用** - 智能自动判断是否需要推理 **工作原理**:模型根据问题复杂度自动决定是否启用推理模式 **适用场景**: * 通用对话和问答(简单问题快速响应,复杂问题深度思考) * 代码生成与调试(自动识别复杂度) * 混合任务场景(同时包含简单和复杂问题) * 不确定任务复杂度的场景 **优势**: * ✅ 平衡速度与质量 * ✅ 无需手动切换 * ✅ 成本自动优化 ### 2. gemini-3-flash-preview-thinking(强制推理) **深度思考** - 始终启用推理模式,显示完整思考过程 **工作原理**:每次请求都启用推理模式,输出包含 `` 标签的完整思考过程 **适用场景**: * 复杂数学和逻辑问题 * 需要多步骤推理的任务 * 代码架构设计和优化 * 需要可解释性的场景(查看推理过程) * 科研和学术任务 **优势**: * ✅ 最高质量输出 * ✅ 完整推理过程可见 * ✅ 适合复杂任务 **注意**: * ⚠️ 响应时间较长 * ⚠️ Token 消耗较多 ### 3. gemini-3-flash-preview-nothinking(默认不推理) **快速响应** - 默认不启用推理,追求最快速度 **工作原理**:默认不启用推理模式,直接输出结果 **适用场景**: * 简单问答和对话 * 文本摘要和翻译 * 快速信息检索 * 需要低延迟的实时应用 * 批量处理任务 **优势**: * ✅ 最快响应速度 * ✅ 最低 Token 消耗 * ✅ 适合高并发场景 **适用时机**: * 问题相对简单明确 * 对响应时间要求高 * 成本敏感场景 ### 模型选择建议 | 场景类型 | 推荐模型 | 原因 | | ----------- | ----------------------------------- | ----------- | | **通用开发** | `gemini-3-flash-preview` | 自动平衡,无需手动切换 | | **复杂编程任务** | `gemini-3-flash-preview-thinking` | 显示推理过程,质量最高 | | **简单问答/聊天** | `gemini-3-flash-preview-nothinking` | 速度最快,成本最低 | | **代码生成** | `gemini-3-flash-preview` | 自动识别复杂度 | | **数学/逻辑推理** | `gemini-3-flash-preview-thinking` | 需要深度推理 | | **实时应用** | `gemini-3-flash-preview-nothinking` | 低延迟要求 | ## 实际应用 ### 推荐场景 * AI 编程助手(Cursor、Cline 等) * 代码审查和重构 * 智能体自主编程 * IDE 集成开发 * Bug 修复和调试 * 数据分析和报告生成 * 多步骤推理问题 * 科研和学术任务 * 商业决策支持 * 复杂查询解答 * 图像理解和描述 * 视频内容分析 * PDF 文档解析 * 音频转录和分析 * 跨模态内容生成 * 智能客服机器人 * 教育辅导系统 * 知识问答平台 * 实时对话应用 * 内容创作助手 ### 代码示例 以下是使用 API易 调用 Gemini 3 Flash Preview 的 Python 示例: #### 示例 1:自动推理模式(推荐) ```python theme={null} import openai # 配置 API易 端点 client = openai.OpenAI( api_key="your-apiyi-api-key", base_url="https://api.apiyi.com/v1" ) # 使用自动推理模式 response = client.chat.completions.create( model="gemini-3-flash-preview", # 自动判断是否需要推理 messages=[ {"role": "user", "content": "帮我优化这段 Python 代码的性能:\n\ndef fibonacci(n):\n if n <= 1:\n return n\n return fibonacci(n-1) + fibonacci(n-2)"} ], temperature=1.0, ) print(response.choices[0].message.content) ``` #### 示例 2:强制推理模式(复杂任务) ```python theme={null} # 使用强制推理模式(显示完整思考过程) response = client.chat.completions.create( model="gemini-3-flash-preview-thinking", # 强制推理 messages=[ {"role": "user", "content": "设计一个高并发的分布式缓存系统架构,需要支持每秒 100 万次读写操作"} ], temperature=1.0, ) # 输出会包含 标签,显示推理过程 print(response.choices[0].message.content) ``` #### 示例 3:快速响应模式(简单任务) ```python theme={null} # 使用快速响应模式(不推理,速度最快) response = client.chat.completions.create( model="gemini-3-flash-preview-nothinking", # 默认不推理 messages=[ {"role": "user", "content": "将这段话翻译成英文:人工智能正在改变世界"} ], temperature=1.0, ) print(response.choices[0].message.content) ``` #### 示例 4:多模态输入(图像分析) ```python theme={null} # 多模态:分析图像内容 response = client.chat.completions.create( model="gemini-3-flash-preview", messages=[ { "role": "user", "content": [ {"type": "text", "text": "这张图片中有什么?请详细描述。"}, { "type": "image_url", "image_url": { "url": "https://example.com/image.jpg" # 或 base64 编码 } } ] } ], ) print(response.choices[0].message.content) ``` ### 最佳实践 **模型选择建议**: * 如果不确定任务复杂度,使用 `gemini-3-flash-preview`(自动推理) * 需要查看推理过程或处理超复杂任务时,使用 `gemini-3-flash-preview-thinking` * 简单任务或对速度要求高时,使用 `gemini-3-flash-preview-nothinking` * 可以在同一个应用中根据不同任务混合使用三种变体 **使用限制**: * 遵守 Google 使用政策,禁止生成有害内容 * API 调用有速率限制,具体限制视账户等级而定 * 推理模式(thinking)会消耗更多 tokens,请合理使用 * 上下文窗口虽大(100万 tokens),但过长上下文可能影响响应速度 ## 价格与可用性 ### 定价信息 Gemini 3 Flash Preview 定价显著低于 Pro 版本: | 模型 | 输入价格 | 输出价格 | 相比 3 Pro | 相比 2.5 Flash | | -------------------------- | ---------------------- | ---------------------- | ------------ | ------------ | | **Gemini 3 Flash Preview** | **\$0.50** / 1M tokens | **\$3.00** / 1M tokens | **1/4 价格** ⭐ | 略高 | | Gemini 3 Pro | \$2.00 / 1M tokens | \$12.00 / 1M tokens | - | - | | Gemini 2.5 Flash | \$0.30 / 1M tokens | \$2.50 / 1M tokens | - | - | **定价说明**: * 价格基于每百万 tokens 计算 * 三个模型变体(自动推理/强制推理/不推理)价格相同 * 推理模式(thinking)会产生额外的推理 tokens 消耗 * 多模态输入(图像、视频等)按 tokens 等价计算 * 数据来源:Google 官方定价(2025年12月17日发布) ### 性价比分析 Gemini 3 Flash Preview 在"性能/价格比"上达到了新的高度: * **编程任务**:SWE-bench 78%,价格仅为 3 Pro 的 1/4,性价比约 **4 倍** * **推理任务**:接近 3 Pro 质量,价格仅 1/4,性价比约 **3-4 倍** * **通用任务**:超越 2.5 系列,价格略高但性能提升显著 ### 优惠活动 在 API易 使用 Gemini 3 Flash Preview,除了享受与官网一致的定价外,还可通过**充值活动**获得额外折扣: * 充值 \$100 可获赠额外额度 * 充值越多,赠送比例越高(最高可达 8 折优惠) * 详情请访问 API易 官网或联系客服 ### 购买渠道 Gemini 3 Flash Preview 已在以下渠道可用: 1. **API易 API 服务**(推荐) * 地址:`api.apiyi.com` * 支持 OpenAI SDK 直接调用 * 提供 3 个模型变体灵活切换 * 享受充值活动折扣 2. **Google Gemini App** * 免费用户和 Gemini Advanced 用户均可使用 * 在模型选择器中选择"Fast"(快速)或"Thinking"(思考)模式 3. **Google AI Studio / Vertex AI** * 官网定价,无额外折扣 * 适合企业级部署 ## 总结与建议 Gemini 3 Flash Preview 是 Google 在"速度与智能"平衡上的又一次突破,以 **Flash 级价格**提供 **Pro 级性能**,甚至在编程能力上超越了 Gemini 3 Pro。这标志着高性能 AI 模型正式进入"普惠时代"。 ### 核心竞争力 * ✅ **编程之王**:SWE-bench 78%,超越 Gemini 3 Pro * ✅ **速度优势**:比 2.5 Pro 快 3 倍 * ✅ **性价比无敌**:仅为 3 Pro 价格的 1/4 * ✅ **灵活切换**:3 个模型变体适配不同场景 ### 推荐使用场景 * 🎯 **首选场景**:AI 编程助手、代码生成、智能体开发 * 🎯 **推荐场景**:多模态内容分析、复杂推理任务、数据分析 * 🎯 **适合场景**:交互式应用、实时对话、知识问答 ### 使用建议 1. **优先使用自动推理模式**:`gemini-3-flash-preview` 适合大多数场景,无需手动切换 2. **复杂任务用强制推理**:需要深度思考或查看推理过程时,使用 `thinking` 变体 3. **简单任务用快速模式**:追求极致速度时,使用 `nothinking` 变体 4. **充分利用多模态**:支持图像、视频、音频、PDF 等多种输入 5. **结合充值活动**:在 API易 充值可享额外折扣,降低长期使用成本 ### 与竞品对比 | 对比维度 | Gemini 3 Flash Preview | Claude Sonnet 4.5 | GPT-5.1 | | -------- | ---------------------- | ----------------- | ------------- | | **编程能力** | ⭐⭐⭐⭐⭐ (78%) | ⭐⭐⭐⭐⭐ (77.2%) | ⭐⭐⭐⭐⭐ (76.3%) | | **响应速度** | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | | **性价比** | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | | **多模态** | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Gemini 3 Flash Preview 在编程能力、速度和性价比三个维度上都达到了业界顶尖水平,是当前最值得推荐的高性价比 AI 模型之一。 **信息来源与日期**: * Google 官方博客发布日期:2025年12月17日 * API易 接入上线日期:2025年12月18日 * 官方公告:`blog.google/products/gemini/gemini-3-flash/` * 技术分析来源:TechCrunch、SiliconANGLE、9to5Google 等科技媒体 * 性能数据来源:Google AI Studio、官方评测报告 *** 立即体验 Gemini 3 Flash Preview 的强大能力,访问 API易 官网获取 API 密钥,开启高性价比 AI 开发之旅! # Gemini 3 Pro Preview 正式发布:LMArena 全球第一 Source: https://docs.apiyi.com/news/gemini-3-pro-preview-launch 谷歌最新多模态智能模型 Gemini 3 Pro Preview 震撼上线!LMArena 排行榜 1501 Elo 全球第一,SWE-bench Verified 76.2%,支持 100 万上下文和思维链输出。API易第一时间接入,充值加赠可达 8 折优惠。 ## 核心要点 * **全球最强**:LMArena 排行榜 1501 Elo 位居全球第一,超越所有竞品 * **代码能力顶尖**:SWE-bench Verified 76.2%,代码生成与修复能力业界领先 * **超大上下文**:100 万 Token 上下文窗口,支持处理超大型代码库和文档 * **思维链输出**:支持显示完整推理过程,提升复杂任务的推理能力 * **价格优势**:与谷歌官网价格一致,充值加赠活动可达 8 折优惠 ## 背景介绍 2025年11月18日,谷歌正式发布了 Gemini 3 Pro Preview 多模态智能模型,这是继 Gemini 2.5 系列之后的又一次重大升级。新模型在 LMArena 排行榜上以 1501 Elo 分数位居全球第一,超越了 GPT-5、Claude Opus 4.1 等所有竞品,标志着谷歌在大模型领域重回巅峰。 Gemini 3 Pro Preview 不仅在性能上实现了突破,还引入了多项创新特性,包括可配置的思维层级、更强大的 Agentic 能力,以及业界领先的多模态理解能力。API易第一时间完成接入,为开发者提供稳定、高性价比的 API 服务。 ## 详细解析 ### 新增模型 API易上线了 Gemini 3 Pro Preview 的两个版本: **自动推理模型** 根据任务复杂度自动调整推理力度,无需手动配置。适合大多数场景,提供最佳的性能与成本平衡。 **强制思考输出模型** 显示完整的推理过程,特别适合需要透明推理的场景,如高级编程、数学、科学计算等。 ### 性能亮点 Gemini 3 Pro Preview 在多项权威评测中取得了业界领先的成绩: | 评测项目 | 分数 | 排名 | | ---------------------- | -------- | ------- | | **LMArena** | 1501 Elo | 🏆 全球第一 | | **SWE-bench Verified** | 76.2% | 🥇 顶尖水平 | | **Terminal-Bench 2.0** | 54.2% | 🥇 业界领先 | | **多模态理解** | - | 🏆 全球最强 | 数据来源:LMArena 官方排行榜(2025年11月18日)、OpenAI SWE-bench 评测(2025年11月)。Gemini 3 Pro Preview 是目前唯一在 LMArena 上突破 1500 Elo 的模型。 ### 核心特性 #### 🧠 超大上下文窗口 * **100 万 Token 输入**:支持处理超大型代码库、长篇文档、多轮对话历史 * **64K Token 输出**:生成长篇代码、详细文档、深度分析报告无压力 * **应用场景**:企业级文档分析、大型项目代码审查、知识库问答系统 #### 🌟 思维链推理 `gemini-3-pro-preview-thinking` 模型支持显示完整的推理过程: * **透明推理**:清晰展示模型的思考步骤 * **可控性提升**:通过 `thinking_level` 参数控制推理深度 * **适用场景**:数学证明、逻辑推理、复杂编程任务、科学计算 #### 🎯 多模态理解 * **文本**:长文本理解、多语言翻译、内容创作 * **图像**:图像识别、场景理解、OCR 文字提取 * **视频**:视频内容分析、关键帧提取、动作识别 * **音频**:语音转文字、音频分类、情感分析 #### 🛠️ 工具增强 Gemini 3 Pro Preview 内置多种工具能力: 内置网络搜索能力,实时获取最新信息 文件搜索和分析,支持多种文档格式 代码执行能力,支持 Python、JavaScript 等语言 标准函数调用,轻松集成外部工具和 API ## 实际应用 ### 推荐场景 * IDE 集成(Cursor、VS Code) * 代码审查和优化建议 * 自主开发和问题修复 * 技术文档生成 * 数学证明和科学计算 * 逻辑推理和决策分析 * 策略规划和优化 * 数据分析和洞察 * 图像内容理解和描述 * 视频分析和摘要 * OCR 和文档解析 * 跨模态内容生成 * Agentic Workflows * 自主任务执行 * 工具调用和集成 * 长期记忆和上下文管理 ### 代码示例 #### OpenAI 兼容模式调用 ```python theme={null} import openai client = openai.OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) # 基础对话 response = client.chat.completions.create( model="gemini-3-pro-preview", messages=[ {"role": "user", "content": "解释一下量子纠缠的原理"} ] ) print(response.choices[0].message.content) # 思维链模式 response = client.chat.completions.create( model="gemini-3-pro-preview-thinking", messages=[ {"role": "user", "content": "证明:对于任意正整数 n,1+2+3+...+n = n(n+1)/2"} ] ) print(response.choices[0].message.content) ``` #### 多模态理解 ```python theme={null} # 图像理解 response = client.chat.completions.create( model="gemini-3-pro-preview", messages=[ { "role": "user", "content": [ {"type": "text", "text": "这张图片中有什么?"}, { "type": "image_url", "image_url": {"url": "https://example.com/image.jpg"} } ] } ] ) ``` #### 函数调用 ```python theme={null} # 函数调用示例 tools = [ { "type": "function", "function": { "name": "get_weather", "description": "获取指定城市的天气信息", "parameters": { "type": "object", "properties": { "city": {"type": "string", "description": "城市名称"} }, "required": ["city"] } } } ] response = client.chat.completions.create( model="gemini-3-pro-preview", messages=[{"role": "user", "content": "北京今天天气怎么样?"}], tools=tools ) ``` ### 最佳实践 #### 1. 上下文管理 * **长对话优化**:利用 100 万 Token 上下文,保留完整对话历史 * **文档分析**:一次性输入整个代码库或文档集合,无需分段处理 * **结构化输入**:使用 XML 标签或 Markdown 结构化长文本 #### 2. 思维链使用 * **复杂任务**:使用 `gemini-3-pro-preview-thinking` 获取推理过程 * **调试优化**:通过思维链输出理解模型决策逻辑 * **教学场景**:展示解题步骤,帮助用户理解推理过程 #### 3. 多模态集成 * **图文结合**:在 prompt 中混合文本和图像,实现更丰富的交互 * **视频分析**:将视频拆分为关键帧,逐帧分析内容 * **文档解析**:结合 OCR 和语义理解,提取结构化信息 ## 价格与可用性 ### 定价信息 Gemini 3 Pro Preview 的定价与谷歌官网保持一致: | 计费项 | 价格 | 说明 | | ------------ | ------------------- | ---------------- | | **输入 Token** | \$2.00 / 百万 tokens | 200K tokens 以内提示 | | **输出 Token** | \$12.00 / 百万 tokens | 所有输出 tokens | | **缓存输入** | \$0.20 / 百万 tokens | 提示缓存(如支持) | **价格优势**:API易充值加赠活动进行中,实际可达 **8 折优惠**!相比官网价格,输入成本低至 \$1.6/百万 tokens,输出成本低至 \$9.6/百万 tokens。 ### 调用方式 Gemini 3 Pro Preview 支持两种调用方式: **推荐方式** 使用 OpenAI SDK,只需更改 `base_url` 和 `model` 参数,无需修改其他代码。 **完整功能** 支持 Vertex AI API 格式,使用谷歌官方 SDK 调用,获取完整特性支持。 ### 可用渠道 * ✅ **Google AI Studio**(免费交互使用,有速率限制) * ✅ **Vertex AI**(企业版) * ✅ **GitHub Copilot**(Pro/Business/Enterprise) * ✅ **Gemini CLI**(命令行工具) * ✅ **API易**(稳定直连,充值享 8 折优惠)⭐ 推荐 ## 总结与建议 Gemini 3 Pro Preview 是谷歌迄今为止最强大的多模态智能模型,在性能、能力和灵活性上都实现了显著提升。以下是我们的使用建议: ### 💡 谁应该使用? * **开发者**:需要强大代码生成和调试能力的编程场景 * **研究人员**:需要复杂推理和科学计算的研究任务 * **企业用户**:需要处理大量文档和数据的业务场景 * **产品团队**:需要构建智能助手和 Agentic 应用的产品开发 ### 🎯 选择建议 * **通用场景**:使用 `gemini-3-pro-preview`,自动推理更高效 * **需要透明推理**:使用 `gemini-3-pro-preview-thinking`,了解决策过程 * **长上下文任务**:充分利用 100 万 Token 上下文窗口 * **多模态应用**:结合文本、图像、视频实现丰富交互 ### 📊 性价比分析 相比竞品: * **vs GPT-5**:性能更强(1501 vs 1485 Elo),价格相当 * **vs Claude Opus 4.1**:推理能力更强,价格更低 * **vs DeepSeek V3**:性能显著领先,价格略高但物有所值 **速率限制**:免费渠道(Google AI Studio)有速率限制,生产环境建议使用 API易 等付费服务,确保稳定性和可用性。 ## 立即开始 准备好体验 Gemini 3 Pro Preview 了吗? 1. **注册 API易账号**:[https://api.apiyi.com](https://api.apiyi.com) 2. **充值获取令牌**:享受充值加赠活动,实际可达 8 折优惠 3. **查看 API 文档**:[Gemini API 使用指南](/api-capabilities/gemini) 4. **开始调用**:将 `model` 参数改为 `gemini-3-pro-preview` 即可 有任何问题?欢迎加入我们的技术社区交流,或查看 [常见问题](/faq/model-availability) 获取帮助。 *** **信息来源**: * 谷歌官方博客:Gemini 3 Pro Preview 发布公告 `blog.google/technology/ai/google-gemini-3-pro-preview/` * LMArena 排行榜:`lmarena.ai/leaderboard` * SWE-bench 评测:`swebench.com` * 数据获取日期:2025年11月20日 # Gemini Embedding 2 Preview 上线:首个原生多模态嵌入模型 Source: https://docs.apiyi.com/news/gemini-embedding-2-preview-launch 谷歌首个原生多模态嵌入模型 Gemini Embedding 2 Preview 上线 API易,支持文本/图片/视频/音频/PDF 统一向量空间,MTEB 英文榜首 68.32,3072 维 MRL 灵活降维,文本仅 $0.20/百万 tokens。 ## 核心要点 * **首个原生多模态嵌入**:支持文本、图片、视频、音频、PDF 五种模态统一映射到同一向量空间 * **MTEB 英文榜首**:68.32 分登顶,分类 +9.6、检索 +9.0、聚类 +3.7 领先第二名 * **灵活维度控制**:默认 3072 维,支持 128~3072 任意截断(Matryoshka 表征学习),768 维仍达 67.99 * **超长输入支持**:文本最大 8192 tokens,图片最多 6 张/请求,视频最长 120 秒 * **100+ 语言覆盖**:多语言嵌入能力,MTEB 多语言榜 Top 5 ## 背景介绍 2026 年 3 月 10 日,谷歌正式发布 Gemini Embedding 2 Preview,这是 Gemini 系列的**首个原生多模态嵌入模型**。与此前仅支持文本的 text-embedding-004 和 gemini-embedding-001 不同,Gemini Embedding 2 可以将文本、图片、视频、音频和 PDF 文档统一映射到同一个向量空间,实现真正的跨模态语义检索。 这意味着你可以用一段文本去搜索相关的图片,或者用一张图片去检索匹配的文档——所有模态共享同一套向量表示,无需分别处理。 API易已上架 `gemini-embedding-2-preview`,支持 OpenAI 兼容的 `/v1/embeddings` 接口直接调用。 ## 详细解析 ### 核心特性 文本、图片、视频、音频、PDF 统一向量空间,实现跨模态语义搜索和相似度计算 英文 68.32 分登顶,分类、检索、聚类三项大幅领先,多语言 Top 5 支持 128~3072 维灵活截断,低维仍保持高质量,按需平衡性能与存储成本 告别固定 task\_type 枚举,使用自然语言 prompt 描述任务类型,更灵活精确 ### 性能亮点 Gemini Embedding 2 Preview 在 MTEB 基准上全面领先: | 维度 | MTEB 英文总分 | 说明 | | ------------ | --------- | ------------ | | **3072**(默认) | **68.32** | 榜首 | | **2048** | **68.16** | 接近满维表现 | | **1536** | **68.17** | 适合替代 3-large | | **768** | **67.99** | 存储减半,性能几乎无损 | **分项领先幅度**(相比第二名): | 任务类型 | 领先幅度 | | ------ | ------ | | **分类** | +9.6 分 | | **检索** | +9.0 分 | | **聚类** | +3.7 分 | 数据来源:谷歌官方博客(`blog.google`)及 MTEB 排行榜。Gemini Embedding 2 Preview 于 2026 年 3 月 10 日发布。 ### 与前代模型对比 | 特性 | text-embedding-004 | gemini-embedding-001 | gemini-embedding-2-preview | | ----------- | ------------------ | -------------------- | -------------------------- | | **模态** | 仅文本 | 仅文本 | 文本/图片/视频/音频/PDF | | **最大输入** | 2048 tokens | 2048 tokens | **8192 tokens** | | **默认维度** | 768 | 3072 | **3072** | | **维度范围** | 有限 | MRL 支持 | **128~3072(MRL)** | | **任务指定** | task\_type 枚举 | task\_type 枚举 | **Prompt 指令式** | | **MTEB 英文** | 较低 | 中等 | **68.32(榜首)** | | **语言** | 有限 | 100+ | **100+** | Gemini Embedding 2 与之前版本的嵌入空间不兼容,不能混用不同版本生成的向量。迁移时需要重新生成全部嵌入。 ### 多模态输入规格 | 输入类型 | 限制 | 支持格式 | | ------- | -------------- | -------- | | **文本** | 最大 8192 tokens | 纯文本 | | **图片** | 每请求最多 6 张 | PNG、JPEG | | **视频** | 最长 120 秒 | MP4、MOV | | **音频** | 原生音频嵌入(无需转文本) | 常见音频格式 | | **PDF** | 原生支持 | PDF 文档 | ### 支持的任务类型 Gemini Embedding 2 使用 prompt 指令式任务描述: | 任务 | 说明 | | ----------- | ------------- | | **语义相似度** | 评估文本间的语义相似程度 | | **分类** | 按预设标签对文本分类 | | **聚类** | 按相似度对文本分组 | | **检索(文档端)** | 优化文档侧的搜索嵌入 | | **检索(查询端)** | 优化查询侧的搜索嵌入 | | **代码检索** | 用自然语言检索代码片段 | | **问答** | 为 QA 系统生成问题嵌入 | | **事实验证** | 为事实核查生成陈述嵌入 | ### 技术规格 | 参数 | Gemini Embedding 2 Preview | | ---------- | -------------------------- | | **模型 ID** | gemini-embedding-2-preview | | **发布日期** | 2026 年 3 月 10 日 | | **开发商** | Google | | **输入类型** | 文本、图片、视频、音频、PDF | | **输出** | 浮点向量 | | **默认维度** | 3072 | | **维度范围** | 128~3072(MRL) | | **最大文本输入** | 8192 tokens | | **语言** | 100+ | ## 实际应用 ### 推荐场景 1. **跨模态语义搜索**:用文本搜图片、用图片搜文档,统一向量空间实现混合检索 2. **多语言 RAG**:100+ 语言覆盖,适合构建全球化检索增强生成系统 3. **文档智能分析**:直接嵌入 PDF,无需预处理即可建立文档检索库 4. **视频/音频内容检索**:原生支持视频和音频嵌入,适合媒体内容管理 5. **聚类与分类**:分类 +9.6、聚类 +3.7 的优势,适合大规模内容组织 6. **代码语义搜索**:自然语言查询代码片段,提升开发效率 ### 代码示例 #### 文本嵌入 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.embeddings.create( model="gemini-embedding-2-preview", input="谷歌最新的多模态嵌入模型有哪些特点?", dimensions=768 # 可选:128~3072 ) embedding = response.data[0].embedding print(f"维度: {len(embedding)}") ``` #### 批量文本嵌入 ```python theme={null} texts = [ "人工智能的最新发展趋势", "机器学习在医疗领域的应用", "大语言模型的工作原理" ] response = client.embeddings.create( model="gemini-embedding-2-preview", input=texts, dimensions=1536 ) for i, data in enumerate(response.data): print(f"文本 {i}: 维度 {len(data.embedding)}") ``` #### 语义搜索示例 ```python theme={null} import numpy as np def cosine_similarity(a, b): return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b)) # 构建文档库嵌入 docs = ["量子计算原理", "深度学习入门", "区块链技术概述"] doc_resp = client.embeddings.create( model="gemini-embedding-2-preview", input=docs, dimensions=768 ) doc_embeddings = [d.embedding for d in doc_resp.data] # 查询 query_resp = client.embeddings.create( model="gemini-embedding-2-preview", input="神经网络是怎么工作的?", dimensions=768 ) query_embedding = query_resp.data[0].embedding # 计算相似度 for i, doc_emb in enumerate(doc_embeddings): sim = cosine_similarity(query_embedding, doc_emb) print(f"{docs[i]}: {sim:.4f}") ``` ### 最佳实践 1. **选择合适维度**:768 维性价比最优(67.99 分,存储减半),3072 维追求极致精度 2. **注意向量归一化**:3072 维已预归一化,降维后需手动归一化 3. **利用 prompt 指令**:检索场景区分 query 和 document 端,可显著提升效果 4. **不可混用版本**:与 text-embedding-004 或 gemini-embedding-001 的向量空间不兼容,迁移需全量重建 ## 价格与可用性 ### 定价 | 输入类型 | 价格(每百万 tokens) | | ------ | ---------------------- | | **文本** | \$0.20 | | **图片** | \$0.45(约 \$0.00012/张) | | **音频** | \$6.50(约 \$0.00016/秒) | | **视频** | \$12.00(约 \$0.00079/帧) | ### 与竞品价格对比 | 模型 | 文本价格/百万 tokens | 维度 | 多模态 | | ------------------------------ | -------------- | ---- | ----- | | **gemini-embedding-2-preview** | **\$0.20** | 3072 | ✅ 五模态 | | text-embedding-3-large | \$0.13 | 3072 | ❌ 仅文本 | | text-embedding-3-small | \$0.02 | 1536 | ❌ 仅文本 | 文本价格略高于 OpenAI text-embedding-3 系列,但 Gemini Embedding 2 是唯一支持五模态统一嵌入的模型,跨模态检索场景无需额外模型。 ### 叠加网站充值活动 API易 提供充值加赠优惠,充值越多加赠越多,叠加模型本身的价格优势,实际使用成本更低。 ### 可用模型 | 模型名称 | 说明 | | ---------------------------- | --------------------------- | | `gemini-embedding-2-preview` | 原生多模态嵌入模型,支持文本/图片/视频/音频/PDF | ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 接口:`/v1/embeddings`(OpenAI 兼容格式) * 兼容所有 OpenAI SDK ## 总结与建议 Gemini Embedding 2 Preview 是当前最强大的嵌入模型,也是业界首个原生多模态嵌入模型。它在 MTEB 英文榜登顶,同时支持五种模态的统一向量表示,为跨模态检索开辟了全新可能。 **核心优势**: * **多模态统一**:文本/图片/视频/音频/PDF 共享向量空间,一个模型搞定所有检索 * **性能榜首**:MTEB 68.32 登顶,分类、检索、聚类三项大幅领先 * **灵活降维**:MRL 支持 128~3072 维,按需平衡精度与成本 * **超长输入**:8192 tokens,4 倍于前代 **使用建议**: 1. **跨模态检索**:首选 Gemini Embedding 2,目前唯一选择 2. **纯文本 + 极致低价**:text-embedding-3-small 仍是最便宜的选项 3. **纯文本 + 高精度**:Gemini Embedding 2 的 768 维已超越 text-embedding-3-large 4. **RAG 场景**:8192 tokens 长输入 + 灵活降维,非常适合大文档分块检索 **谁应该使用 Gemini Embedding 2**: * 需要跨模态搜索的应用(图搜文、文搜图等) * 构建多语言 RAG 系统的开发者 * 需要处理 PDF/视频/音频内容的企业场景 * 追求最高嵌入质量的检索系统 信息来源:Google 官方博客(`blog.google`)、Google AI 开发者文档(`ai.google.dev`)、MTEB 排行榜。Gemini Embedding 2 Preview 于 2026 年 3 月 10 日发布。数据获取时间:2026 年 3 月 31 日。 # GLM-5.1 上线:智谱开源最强编程 Agent 模型 Source: https://docs.apiyi.com/news/glm-5-1-launch 智谱 Z.AI 最新旗舰开源模型 GLM-5.1 上线 API易,SWE-Bench Pro 58.4 击败 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,744B MoE 架构,200K 上下文,支持长达 8 小时长程编程任务,MIT 开源协议。 ## 核心要点 * **SWE-Bench Pro 全球第一**:58.4 分超越 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro,开源模型登顶 * **超大 MoE 架构**:744B 总参数 / 256 专家 / 每 token 激活 8 个,有效计算量约 40B * **长程任务能力**:可自主执行单个编程任务长达 8 小时,覆盖规划、执行、测试、优化全流程 * **200K 上下文**:200,000 token 上下文窗口,支持 128,000 token 输出 * **开源 + 高性价比**:MIT 协议开源,API 输入 \$1.00/百万 tokens、输出 \$3.20/百万 tokens ## 背景介绍 2026 年 4 月 7 日,智谱 Z.AI 正式发布旗舰开源模型 **GLM-5.1**,这是 GLM-5 系列的重要升级版本。在权威的 SWE-Bench Pro 编程评测中,GLM-5.1 以 58.4 分的成绩超越了 GPT-5.4、Claude Opus 4.6 和 Gemini 3.1 Pro,成为该评测的新晋全球第一,也是首个在该榜单击败所有闭源旗舰模型的开源模型。 GLM-5.1 专为「智能体工程」和「长程软件开发」场景设计,可以自主完成单个编程任务长达 8 小时,期间持续进行规划、执行、测试和优化。模型完全使用 100,000 颗华为昇腾 910B 芯片训练,展现了国产算力在前沿大模型训练上的实力。 API易现已上线 `glm-5.1`,支持 OpenAI 兼容模式直接调用。 ## 详细解析 ### 核心特性 58.4 分超越所有闭源旗舰,开源模型登顶 SWE-Bench Pro 编程评测 744B 总参数 / 256 专家 / 激活 8 个,有效计算约 40B,性能与效率兼得 可自主完成单个编程任务最长 8 小时,规划-执行-测试-优化全流程闭环 权重已上传 HuggingFace 和 ModelScope,支持 vLLM、SGLang 推理框架 ### 性能亮点 | 评测项目 | GLM-5.1 | 对比 | | ---------------------- | -------- | -------------------------------------------------- | | **SWE-Bench Pro** | **58.4** | 全球第一,超越 GPT-5.4 / Claude Opus 4.6 / Gemini 3.1 Pro | | **Terminal-Bench 2.0** | **63.5** | 终端操作能力顶尖 | | **NL2Repo** | **42.7** | 仓库级代码生成 | | **CyberGym** | **68.7** | 安全编程评测 | | **BrowseComp** | **68.0** | 浏览器 Agent 任务 | | **vs GLM-5** | **+28%** | 相比前代编程能力大幅跃升 | 数据来源:智谱 Z.AI 官方文档(`docs.z.ai`)、Dataconomy、Z.AI 开发者文档。GLM-5.1 于 2026 年 4 月 7 日正式发布,独立基准测试结果同日更新。 **与竞品对比**: * **vs Claude Opus 4.6**:编程评测 GLM-5.1 (58.4) 超越 Opus 4.6 (47.9),达到 94.6%-122% 性能水平 * **vs GPT-5.4 / Gemini 3.1 Pro**:在 SWE-Bench Pro 上均超越 * **价格优势**:API 价格远低于闭源旗舰,性价比突出 ### 技术规格 | 参数 | GLM-5.1 | | --------- | --------------------- | | **架构** | MoE(混合专家) | | **总参数** | 744B | | **专家数量** | 256 个(每 token 激活 8 个) | | **有效参数** | \~40B | | **上下文窗口** | 200,000 tokens | | **最大输出** | 128,000 tokens | | **训练硬件** | 100,000 颗华为昇腾 910B | | **开源协议** | MIT License | | **模型名称** | `glm-5.1` | ## 实际应用 ### 推荐场景 8 小时连续编程任务,适合复杂项目重构、大型功能开发、自动化代码迁移 SWE-Bench Pro 第一,是 Claude Code、Cursor 等编程助手的优质开源替代 CyberGym 68.7 的安全编程能力,适合代码审计、漏洞分析、安全修复 MIT 协议开源,企业可下载权重本地部署,数据完全自主可控 ### 代码示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="glm-5.1", messages=[ {"role": "system", "content": "你是一个资深软件工程师,擅长长程编程任务。"}, {"role": "user", "content": "请帮我重构这个 Python 项目,实现从单体架构到微服务架构的迁移。"} ], max_tokens=16384 ) print(response.choices[0].message.content) ``` ```javascript theme={null} import OpenAI from "openai"; const client = new OpenAI({ apiKey: "your-api-key", baseURL: "https://api.apiyi.com/v1", }); const response = await client.chat.completions.create({ model: "glm-5.1", messages: [ { role: "user", content: "Audit this codebase for security vulnerabilities and propose fixes." } ], max_tokens: 16384, }); console.log(response.choices[0].message.content); ``` ### 最佳实践 GLM-5.1 专为长程任务设计,长任务建议设置较长的 timeout(如 600 秒以上),充分利用其 8 小时连续推理能力。 * **长程编程**:将完整项目代码作为上下文,让 GLM-5.1 自主规划重构方案并执行 * **Agent 工作流**:充分利用 BrowseComp 68.0 的浏览器操作能力,构建自主 Web Agent * **本地化部署**:开源 MIT 协议允许企业下载权重本地部署,结合 vLLM 或 SGLang 实现高效推理 ## 价格与可用性 ### 定价信息 | 计费项 | 价格 | | ------ | ------------------ | | **输入** | \$1.00 / 百万 tokens | | **输出** | \$3.20 / 百万 tokens | ### 叠加网站充值活动 当前充值加赠活动持续进行中,充值越多加赠越多,详情请查看 [充值优惠政策](/faq/recharge-promotions)。 ## 总结与建议 GLM-5.1 是当前最强的开源编程 Agent 模型,在 SWE-Bench Pro 上击败所有闭源旗舰,744B MoE 架构带来出色性能与效率平衡。最长 8 小时的长程任务执行能力 + 200K 上下文 + MIT 开源协议,使其成为编程 Agent、长程代码任务和企业本地化部署的理想选择。 **推荐人群**: * 需要顶级编程 Agent 能力的开发者和团队 * 寻求 Claude Opus / GPT-5.4 高性价比开源替代的用户 * 构建长程编程任务、自主 Agent 工作流的技术团队 * 需要本地化部署、数据自主可控的企业用户 信息来源:智谱 Z.AI 官方开发者文档(`docs.z.ai`)、Dataconomy、TechBriefly、OpenRouter。数据获取日期:2026 年 4 月 9 日。GLM-5.1 完全使用国产华为昇腾 910B 芯片训练。 # Google AI Studio 使用指南:轻松体验 Gemini 模型的三种方案 Source: https://docs.apiyi.com/news/google-ai-studio-usage-guide Google AI Studio 是谷歌推出的免费 AI 开发平台,但使用 Nano Banana Pro 等付费模型需要海外信用卡。本文为您详解三种解决方案:API 中转站(2 折优惠)、会员代充(230 元/月)和官方订阅,帮您选择最适合的方式。 ## 核心要点 * **Google AI Studio 是什么**:谷歌推出的免费在线 AI 开发平台,可直接在浏览器中测试 Gemini 模型 * **为何需要 API Key**:使用付费模型(如 Nano Banana Pro 图像生成)需要绑定 Google Cloud 账单,门槛较高 * **方案一:API 中转站**:通过 API易 使用,价格仅官费 2 折,适合 API 调用场景 * **方案二:会员代充**:通过林兄 AI 代充 Gemini 会员,230 元/月,享受原生交互体验 * **方案三:官方订阅**:直接订阅 Google AI Pro/Ultra,需要海外支付方式 ## Google AI Studio 是什么? ### 产品定位 **Google AI Studio** 是谷歌推出的基于浏览器的集成开发环境(IDE),旨在帮助开发者、学生和研究人员快速体验和构建基于 Gemini 模型的应用。您无需安装任何软件,只需访问 `aistudio.google.com`,就能立即开始使用。 ### 核心功能 * 可视化提示词工程 * 实时模型测试 * 对话流设计 * 文本、图像、音频、视频 * 文件上传与分析 * Google Drive 集成 * 完全免费体验所有模型 * 每分钟 60 次请求 * 无需绑定信用卡(基础功能) * 自动生成 API 调用代码 * 支持多种编程语言 * 一键导出项目 ### 使用场景 * **快速测试**:在写代码之前,先在 AI Studio 中测试提示词效果 * **模型对比**:同时测试多个模型,选择最适合的 * **教育学习**:学生和教师可以免费学习 AI 开发 * **原型演示**:向客户或团队展示 AI 功能原型 ## 为什么 Nano Banana Pro 需要绑定 API Key? ### Nano Banana Pro 是什么? **Nano Banana Pro** 是谷歌在 2025 年 11 月发布的最新图像生成模型,也被称为 **Gemini 3 Pro Image**。它能够生成高质量的 1080p、2K 甚至 4K 分辨率的图像,是目前谷歌最强大的图像生成模型。 ### 为何需要 API Key? 与 Gemini 2.5 Flash 等文本模型不同,**Nano Banana Pro 没有免费配额**。这意味着: **计费要求** * 必须创建 Google Cloud 项目并启用计费 * 需要绑定有效的信用卡(通常需要海外信用卡) * 谷歌会验证信用卡的有效性和持卡人身份 * 价格:\$0.139/张(1080p/2K),\$0.24/张(4K) ### 门槛在哪里? 很多国内用户在尝试使用 Nano Banana Pro 时会遇到以下问题: 1. **海外信用卡要求**:Google Cloud 通常要求海外信用卡(Visa、MasterCard 等) 2. **严格验证**:谷歌会验证持卡人身份,部分银行卡可能无法通过 3. **复杂流程**:需要注册 Google Cloud、创建项目、设置计费账户等多个步骤 4. **汇率损失**:使用外币支付可能产生汇率损失和手续费 **关键信息** 在 Google AI Studio 中绑定的 API Key 实际上是 **Google Cloud** 的 API Key,而非单纯的 AI Studio Key。这意味着您需要具备 Google Cloud 的账单权限,这是门槛较高的主要原因。 ## 三种解决方案对比 针对上述门槛,我们为您提供三种解决方案,各有优劣,您可以根据自己的需求选择。 ### 方案一:使用 API 中转站(API易) **适合人群**:开发者、企业用户、需要大量 API 调用的场景 **核心优势** * **超低价格**:仅为官方价格的 2 折,大幅降低成本 * **无需海外信用卡**:支持国内支付方式(微信、支付宝等) * **即开即用**:注册即可获取 API Key,无需复杂配置 * **高并发支持**:支持超过 500 并发请求 * **稳定可靠**:7x24 小时技术支持 **使用步骤** 1. 访问 API易 官网:`apiyi.com` 2. 注册并充值(支持多种充值方式) 3. 获取 API Key 4. 使用 OpenAI SDK 格式调用(base\_url 设置为 API易 端点) **代码示例** ```python theme={null} import openai client = openai.OpenAI( api_key="your-apiyi-api-key", base_url="https://api.apiyi.com/v1" ) # 调用 Nano Banana Pro(Gemini 3 Pro Image) response = client.images.generate( model="nano-banana-pro", prompt="A futuristic city with flying cars at sunset", size="1080p" ) print(response.data[0].url) ``` **劣势分析** * **交互界面**:无法使用 Google AI Studio 的原生可视化界面 * **功能限制**:仅支持 API 调用,不支持 AI Studio 的高级功能(如实时流、屏幕共享等) * **中转依赖**:依赖第三方服务,需要信任中转商的稳定性 **适用场景** * 需要集成到自己的应用或网站中 * 大量批量生成图像 * 对价格敏感,希望降低成本 * 不需要 AI Studio 的可视化界面 ### 方案二:会员代充(林兄 AI) **适合人群**:个人用户、内容创作者、需要原生体验的用户 **核心优势** * **原生体验**:完整享受 Google AI Studio 的所有功能 * **价格实惠**:230 元/月,低于官方 Pro 订阅(约 144 元官方价,但需海外支付) * **无需海外信用卡**:通过代充服务绕过支付门槛 * **包含额外权益**:2TB 云存储、Veo 2 视频生成等 **购买渠道** * 访问林兄 AI 网站:`ai.daishengji.com` * 选择 Gemini Pro 或 Ultra 会员套餐 * 完成支付后,代充服务会为您开通会员 **会员权益** * **Gemini Pro(230 元/月)**: * 每日 100 次 Gemini 2.5 Pro 对话 * 每日生成 1000 张图片 * 每日 3 个 Veo 3 Fast 视频 * 2TB 云存储 * Deep Research 每日 20 份报告 * **Gemini Ultra(价格咨询)**: * 每日 500 次任何模型对话 * 每日生成 1000 张图片 * 每日 5 个 Veo 3 视频 * 30TB 云存储 * Deep Research 每日 200 份报告 **劣势分析** * **按月付费**:需要持续支付会员费,不适合低频使用 * **第三方依赖**:依赖代充服务,存在一定风险 * **账号安全**:需要提供 Google 账号信息,存在安全隐患 **适用场景** * 需要使用 Google AI Studio 的可视化界面 * 经常使用 Gemini 进行对话、图像生成、视频生成 * 不仅需要 API,还需要完整的 AI 工具套件 * 对原生体验有要求 ### 方案三:官方订阅 **适合人群**:有海外支付方式的用户、企业用户 **官方定价** * **Google AI Pro**:\$19.99/月(约 144 元人民币) * **Google AI Ultra**:\$249.99/月(约 1,803 元人民币) **订阅方式** 1. 访问 Google Gemini 订阅页面:`gemini.google/subscriptions/` 2. 选择 Pro 或 Ultra 套餐 3. 绑定海外信用卡或 PayPal 4. 完成支付 **核心优势** * **官方服务**:最高的安全性和稳定性 * **完整功能**:所有最新功能第一时间可用 * **无中介费用**:直接支付给谷歌,无额外成本 **劣势分析** * **支付门槛**:需要海外信用卡或 PayPal * **价格较高**:Ultra 套餐价格昂贵(近 2000 元/月) * **汇率波动**:使用外币支付,可能受汇率影响 **适用场景** * 已有海外支付方式 * 企业用户,需要最高级别的服务保障 * 对数据安全和隐私有严格要求 ## 方案对比总结 | 对比项 | API 中转站(API易) | 会员代充(林兄 AI) | 官方订阅 | | --------- | ------------- | ----------- | ------------------ | | **价格** | 官费 2 折(最低) | 230 元/月 | \$19.99-\$249.99/月 | | **支付方式** | 国内支付 | 国内支付 | 海外信用卡/PayPal | | **交互界面** | 仅 API | 完整原生界面 | 完整原生界面 | | **功能完整度** | API 调用 | 所有功能 | 所有功能 | | **并发能力** | 500+ | 取决于套餐 | 取决于套餐 | | **适合场景** | 开发者/API 集成 | 个人/创作者 | 企业/海外用户 | | **门槛** | 极低 | 低 | 高(需海外支付) | ## 使用建议 ### 如果您是开发者 **推荐方案一:API 中转站(API易)** * 价格最低(仅官费 2 折) * 支持高并发(500+) * 无需海外信用卡 * 适合集成到应用中 ### 如果您是内容创作者 **推荐方案二:会员代充(林兄 AI)** * 享受完整的 Google AI Studio 体验 * 包含图像生成、视频生成、对话等全套功能 * 230 元/月性价比较高 * 无需海外信用卡 ### 如果您是企业用户 **推荐方案三:官方订阅** * 最高级别的服务保障 * 数据安全和隐私保护 * 适合有海外支付方式的企业 * Ultra 套餐适合高频使用场景 ## 常见问题 ### Q1: API易 的 2 折价格是如何实现的? API易 通过规模化采购和优化的技术架构,能够以更低的成本提供服务。同时,作为中转平台,省去了用户直接对接 Google Cloud 的复杂流程,降低了运营成本。 ### Q2: 会员代充安全吗? 选择信誉良好的代充服务(如林兄 AI)相对安全,但仍需注意: * 选择有良好口碑的代充平台 * 不要使用主账号,建议使用单独的 Google 账号 * 定期更改密码,启用两步验证 ### Q3: 免费的 Google AI Studio 和付费会员有什么区别? | 项目 | 免费版 | AI Pro | AI Ultra | | ----------------- | ------- | -------- | -------- | | Gemini 2.5 Pro 对话 | 5 次/天 | 100 次/天 | 500 次/天 | | 图像生成 | 100 张/天 | 1000 张/天 | 1000 张/天 | | Veo 视频生成 | 不支持 | 3 个/天 | 5 个/天 | | Deep Research | 5 份/月 | 20 份/天 | 200 份/天 | | 云存储 | 15GB | 2TB | 30TB | ### Q4: 如何选择适合自己的方案? * **低频使用**:免费的 Google AI Studio(每天少于 5 次对话) * **API 集成**:API易 中转站(价格低、并发高) * **日常创作**:会员代充(完整体验、价格适中) * **企业应用**:官方订阅(最高保障) ## 总结 Google AI Studio 是一个强大的 AI 开发平台,但使用 Nano Banana Pro 等付费模型时,海外信用卡的门槛确实让很多国内用户望而却步。本文介绍的三种方案各有优劣: * **API 中转站(API易)**:适合开发者,价格最低(2 折),但仅支持 API 调用 * **会员代充(林兄 AI)**:适合个人和创作者,230 元/月,享受完整原生体验 * **官方订阅**:适合企业和有海外支付方式的用户,安全性最高 无论您选择哪种方案,都能轻松体验 Gemini 的强大能力。如果您有任何疑问,欢迎联系我们的技术支持团队! **信息来源与更新日期** * Google AI Studio 官方文档:`ai.google.dev/aistudio` * Nano Banana Pro 官方公告:Google Developers Blog(2025 年 11 月 20 日) * Gemini 订阅计划:`gemini.google/subscriptions/` * 定价信息:Google AI Studio 定价页面 * 数据获取时间:2025 年 11 月 24 日 # GPT-5.2 重磅发布:OpenAI 反击 Gemini 3,推出三大版本应对竞争 Source: https://docs.apiyi.com/news/gpt-5-2-launch OpenAI 于 2025 年 12 月 11 日发布 GPT-5.2 系列,推出 Instant、Thinking、Pro 三大版本,在推理、编程、长文本等领域全面升级,API易已全面支持 OpenAI 原生格式调用。 ## 核心要点 * **三大版本**:Instant(快速写作)、Thinking(结构化编程)、Pro(专业难题),满足不同场景需求 * **推理突破**:GPT-5.2 Pro 在 ARC-AGI-1 上达到 90%,首个突破该阈值的模型,成本降低 390 倍 * **专业能力**:GDPval 评测中 70.9% 任务超越或持平行业专业人士,专业知识工作能力登顶 * **超长上下文**:400,000 tokens 上下文窗口,支持 128,000 tokens 单次输出,处理海量信息 * **知识更新**:知识截止日期提升至 2025 年 8 月 31 日,覆盖最新技术和事件 ## 背景介绍 2025 年 12 月 11 日,OpenAI 正式发布 GPT-5.2 系列模型,这是继上月 GPT-5.1 发布后的快速迭代,也是对 Google Gemini 3 和 Anthropic Claude Opus 4.5 等竞品的强势回应。 此次发布背景是 OpenAI 在上月宣布进入"代码红色"(Code Red)紧急状态,以应对 Google Gemini 3 和 Anthropic 新模型的挑战。OpenAI CEO Sam Altman 表示,随着 GPT-5.2 的发布,公司有望在 2026 年 1 月退出"代码红色"状态。 GPT-5.2 系列包含三个版本: * **GPT-5.2 Instant**(`gpt-5.2-chat-latest`):快速响应,擅长写作和信息检索 * **GPT-5.2 Thinking**(`gpt-5.2`):结构化工作,擅长编程和规划 * **GPT-5.2 Pro**(`gpt-5.2-pro`):最高精度,应对最复杂的专业问题 API易已在第一时间上线 GPT-5.2 全系列,支持 OpenAI 原生格式调用,开发者可立即使用。 ## 详细解析 ### 核心特性 ARC-AGI-1 达 90%,首个突破该阈值的模型,成本降低 390 倍 GDPval 评测中 70.9% 任务超越或持平行业专业人士 400,000 tokens 上下文窗口,128,000 tokens 单次输出 知识截止日期提升至 2025 年 8 月 31 日 ### 性能亮点 GPT-5.2 系列在多个权威评测中展现出卓越性能,特别是在推理、科学、数学和编程任务上: | 评测项目 | GPT-5.2 Pro | GPT-5.2 Thinking | GPT-5.1 | Gemini 3 Pro | | --------------------------- | ----------- | ---------------- | ------- | ------------ | | **ARC-AGI-1 (Verified)** | **90.0%** | - | 87.0% | - | | **ARC-AGI-2** | **54.2%** | - | - | - | | **GPQA Diamond** | **93.2%** | 92.4% | - | - | | **FrontierMath (Tier 1-3)** | - | **40.3%** | - | - | | **SWE-Bench Pro** | - | **55.6%** | 76.3% | 76.2% | | **GDPval(专业知识)** | - | **70.9%** | - | - | 数据来源:OpenAI 官方博客(2025 年 12 月 11 日发布),ARC-AGI、GPQA、FrontierMath、SWE-Bench 均为业界权威评测基准。 **推理能力突破**: * **ARC-AGI-1**:GPT-5.2 Pro 达到 90%,首个突破该阈值的模型 * **成本优化**:相比去年的 o3-preview(87%),成本降低约 390 倍 * **ARC-AGI-2**:达到 54.2%,在更难的抽象推理任务上继续领先 **科学与数学能力**: * **GPQA Diamond**:GPT-5.2 Pro 达 93.2%,研究生级别 Google-proof 问答 * **FrontierMath**:GPT-5.2 Thinking 在专家级数学问题上解决 40.3% **编程与专业工作**: * **SWE-Bench Pro**:达 55.6%,真实软件工程任务评测 * **GDPval**:70.9% 任务中超越或持平行业专业人士 **长文本理解**: * **256k tokens** 范围内几乎完美准确率 * 相当于约 20 万字中文或一部完整小说 ### 技术规格 | 参数 | GPT-5.2 / Thinking | GPT-5.2 Pro | | --------- | ------------------------ | ----------------------- | | **上下文长度** | 400,000 tokens | 400,000 tokens | | **最大输出** | 128,000 tokens | 128,000 tokens | | **知识截止** | 2025 年 8 月 31 日 | 2025 年 8 月 31 日 | | **输入价格** | \$1.75 / 百万 tokens | \$21.00 / 百万 tokens | | **输出价格** | \$14.00 / 百万 tokens | \$168.00 / 百万 tokens | | **缓存输入** | \$0.175 / 百万 tokens(9 折) | \$2.10 / 百万 tokens(9 折) | 相比 GPT-5.1(\$1.25/\$10),GPT-5.2 价格上涨 40%,但性能和知识更新显著提升。 ### 三大版本对比 | 版本 | 模型名称 | 适用场景 | 核心优势 | | ------------ | --------------------- | ----------- | ----- | | **Instant** | `gpt-5.2-chat-latest` | 快速写作、信息检索 | 响应速度快 | | **Thinking** | `gpt-5.2` | 编程、规划、结构化任务 | 逻辑推理强 | | **Pro** | `gpt-5.2-pro` | 复杂难题、科学研究 | 精度最高 | 不同版本适用于不同场景,Thinking 和 Pro 版本在复杂任务中表现更佳,但成本更高,请根据实际需求选择。 ## 实际应用 ### 推荐场景 GPT-5.2 系列凭借强大的推理、编程和长文本能力,特别适合以下场景: 1. **复杂推理任务**:抽象问题求解、逻辑推理、数学证明 2. **软件工程开发**:代码生成、Bug 修复、架构设计 3. **科学研究分析**:研究生级问答、文献综述、数据分析 4. **专业知识工作**:报告撰写、方案设计、决策支持 5. **长文本处理**:40 万 token 上下文支持完整书籍、代码库分析 ### 代码示例 #### OpenAI 格式调用(推荐) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) # 使用 GPT-5.2 Thinking(推荐用于编程任务) response = client.chat.completions.create( model="gpt-5.2", messages=[ { "role": "user", "content": "设计一个高性能的分布式缓存系统,包含架构图和核心代码..." } ], max_tokens=8192 ) print(response.choices[0].message.content) ``` #### 使用 GPT-5.2 Pro(最高精度) ```python theme={null} # 使用 GPT-5.2 Pro 处理复杂科学问题 response = client.chat.completions.create( model="gpt-5.2-pro", messages=[ { "role": "user", "content": "推导量子纠缠的数学证明,并解释其物理意义..." } ], max_tokens=16384 ) print(response.choices[0].message.content) ``` #### 使用锁定版本(企业推荐) ```python theme={null} # 使用锁定版本确保输出一致性 response = client.chat.completions.create( model="gpt-5.2-2025-12-11", # 锁定版本 messages=[ { "role": "user", "content": "分析这个市场报告的关键趋势..." } ] ) ``` ### 最佳实践 1. **选择合适的版本**: * **Instant**:快速写作、邮件回复、简单查询 * **Thinking**(默认):编程、规划、结构化任务 * **Pro**:科学研究、复杂推理、关键决策 2. **充分利用长上下文**: * 40 万 token 上下文可容纳约 30 万字中文 * 适合完整代码库分析、长文档处理 * 支持 12.8 万 token 单次输出 3. **缓存优化成本**: * 缓存输入价格享受 9 折优惠 * 适合重复使用相同 system prompt 的场景 * 高并发应用可显著降低成本 4. **企业级应用建议**: * 使用锁定版本(`gpt-5.2-2025-12-11`)确保输出一致性 * 生产环境推荐 Thinking 或 Pro 版本 * 开发测试可使用 Instant 版本降低成本 ## 价格与可用性 ### 定价信息 | 计费项 | GPT-5.2 / Thinking | GPT-5.2 Pro | GPT-5.1 | 变化 | | -------- | ------------------- | -------------------- | ------------------- | ---- | | **输入** | \$1.75 / 百万 tokens | \$21.00 / 百万 tokens | \$1.25 / 百万 tokens | +40% | | **输出** | \$14.00 / 百万 tokens | \$168.00 / 百万 tokens | \$10.00 / 百万 tokens | +40% | | **缓存输入** | \$0.175 / 百万 tokens | \$2.10 / 百万 tokens | \$0.125 / 百万 tokens | +40% | 相比 GPT-5.1,GPT-5.2 价格上涨 40%,但性能提升明显,知识截止日期更新至 2025 年 8 月。 **与竞品价格对比**: | 模型 | 输入价格 | 输出价格 | 性能水平 | | -------------------- | ----------- | ------------ | --------------- | | **GPT-5.2 Thinking** | **\$1.75** | **\$14.00** | GDPval 70.9% | | **GPT-5.2 Pro** | **\$21.00** | **\$168.00** | ARC-AGI 90% | | Claude Opus 4.5 | \$5.00 | \$25.00 | SWE-bench 80.9% | | Gemini 3 Pro | \$2.00 | \$12.00 | SWE-bench 76.2% | | GPT-5.1 | \$1.25 | \$10.00 | SWE-bench 76.3% | GPT-5.2 Thinking 价格适中,Pro 版本虽然昂贵但在推理任务上性能卓越。 ### 优惠活动 API易 提供充值加赠优惠,充值越多加赠越多(10%-20%),实际使用成本可低至官方价格的 8 折。点击查看详细的首充加赠、阶梯加赠比例等信息。 ### 可用模型 | 模型名称 | 版本 | 说明 | | ------------------------ | -------- | ------------ | | `gpt-5.2` | Thinking | 默认版本,适合编程和规划 | | `gpt-5.2-2025-12-11` | Thinking | 锁定版本,输出一致性高 | | `gpt-5.2-chat-latest` | Instant | 快速响应版本 | | `gpt-5.2-pro` | Pro | 最高精度版本 | | `gpt-5.2-pro-2025-12-11` | Pro | Pro 锁定版本 | ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 支持 OpenAI 原生格式 * 兼容所有 OpenAI SDK **其他渠道**: * OpenAI 官方 API * Azure OpenAI Service * AWS Bedrock(即将支持) ## 总结与建议 GPT-5.2 系列的发布标志着 OpenAI 在推理、科学和专业知识工作领域的全面突破,特别是 GPT-5.2 Pro 在 ARC-AGI-1 上首次突破 90% 阈值,同时将成本降低 390 倍,展现了强大的技术实力。 **核心优势**: * **推理之王**:ARC-AGI-1 达 90%,首个突破该阈值的模型 * **专业能力**:GDPval 评测 70.9% 超越专业人士 * **超长上下文**:40 万 token 上下文,12.8 万 token 输出 * **知识更新**:截止日期提升至 2025 年 8 月 31 日 **使用建议**: 1. **日常任务**:使用 Instant 版本,响应快、成本低 2. **编程开发**:使用 Thinking 版本(默认 `gpt-5.2`),逻辑推理强 3. **科学研究**:使用 Pro 版本,精度最高 4. **企业生产**:使用锁定版本(`gpt-5.2-2025-12-11`),输出一致性高 **谁应该使用 GPT-5.2**: * 需要强大推理能力的研究人员 * 处理复杂编程任务的开发者 * 追求最新知识的专业用户 * 需要超长上下文的代码库分析场景 **版本选择建议**: * **成本敏感**:GPT-5.1 仍是性价比之选(\$1.25/\$10) * **性能优先**:GPT-5.2 Thinking 平衡性能与成本 * **极致追求**:GPT-5.2 Pro 适合最复杂的任务 API易已全面上线 GPT-5.2 系列,支持 OpenAI 原生格式调用,现在注册充值即享加赠优惠,立即体验 OpenAI 最新推理能力! 信息来源:OpenAI 官方博客(2025 年 12 月 11 日)、TechCrunch、CNBC、VentureBeat 等权威媒体报道。数据获取时间:2025 年 12 月 13 日。 # GPT-5.3 Chat 上线:更少幻觉、更自然的 ChatGPT 聊天模型 Source: https://docs.apiyi.com/news/gpt-5-3-chat-launch OpenAI 于 2026 年 3 月 3 日发布 GPT-5.3 Instant,幻觉率降低 26.8%,对话更自然流畅,API易已通过官方直连通道第一时间接入。 ## 核心要点 * **幻觉率大幅降低**:联网搜索场景降低 26.8%,纯知识场景降低 19.7%,回答更准确可靠 * **对话风格优化**:减少不必要的拒绝、说教式回复和过度谨慎措辞,对话更自然流畅 * **128K 上下文窗口**:支持 16,384 tokens 最大输出,满足各类对话需求 * **多模态输入**:支持文本 + 图像输入,可理解和分析图片内容 * **官方直连**:API易通过 OpenAI 官方 API 透明转发,稳定可靠 ## 背景介绍 2026 年 3 月 3 日,OpenAI 正式发布 GPT-5.3 Instant,取代 GPT-5.2 Instant 成为所有 ChatGPT 用户的默认模型。这是 OpenAI 在 GPT-5.2 系列基础上的又一次重要迭代,重点优化了对话体验和准确性。 GPT-5.3 Instant 的 API 模型名称为 `gpt-5.3-chat-latest`,是 ChatGPT 中实际使用的聊天模型快照。与此同时,OpenAI 还发布了 GPT-5.3-Codex(编程模型)和 GPT-5.3-Codex-Spark(实时编程模型)等其他变体。 API易已在第一时间通过**官方直连通道**接入 GPT-5.3-chat-latest,开发者可立即使用。 ## 详细解析 ### 核心改进 联网搜索场景幻觉率降低 26.8%,纯知识场景降低 19.7%,回答更值得信赖 减少过度防御性和说教式前缀,不再动不动就加免责声明 显著减少不必要的拒绝回复,有用的回答直接给出 支持文本和图像输入,可分析图片内容并生成文字回复 ### 性能提升 GPT-5.3 Instant 相比前代模型在多个维度实现了显著改进: | 改进维度 | 具体提升 | | ------------ | ------------ | | **幻觉率(联网)** | 降低 26.8% | | **幻觉率(纯知识)** | 降低 19.7% | | **不必要拒绝** | 显著减少 | | **对话自然度** | 大幅提升,更接近自然对话 | 数据来源:OpenAI 官方博客(2026 年 3 月 3 日发布)。 ### 技术规格 | 参数 | GPT-5.3 Chat | GPT-5.2 Instant | | --------- | --------------------- | --------------------- | | **模型名称** | `gpt-5.3-chat-latest` | `gpt-5.2-chat-latest` | | **上下文窗口** | 128,000 tokens | 128,000 tokens | | **最大输出** | 16,384 tokens | 16,384 tokens | | **知识截止** | 2025 年 8 月 31 日 | 2025 年 8 月 31 日 | | **输入格式** | 文本 + 图像 | 文本 + 图像 | | **流式输出** | ✅ | ✅ | | **函数调用** | ✅ | ✅ | | **结构化输出** | ✅ | ✅ | ### GPT-5.3 系列全家福 GPT-5.3 系列包含多个变体,面向不同使用场景: | 模型 | 定位 | 特点 | | ----------------------- | ---- | ---------------------------------- | | **GPT-5.3 Chat** | 日常对话 | 更少幻觉、更自然对话 | | **GPT-5.3 Codex** | 编程代理 | 77.3% Terminal-Bench 2.0,比前代更快 25% | | **GPT-5.3 Codex Spark** | 实时编程 | 15 倍生成速度,128K 上下文 | GPT-5.3-Codex 是首个被 OpenAI Preparedness Framework 分类为"高能力"网络安全级别的模型。 ## 实际应用 ### 推荐场景 GPT-5.3 Chat 特别适合以下场景: 1. **客服对话机器人**:更准确的回答 + 更自然的对话风格 2. **内容创作助手**:减少不必要的免责声明,直接输出有用内容 3. **知识问答系统**:幻觉率大幅降低,回答更可靠 4. **多模态应用**:结合图像理解能力,实现图文混合对话 ### 快速开始 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="gpt-5.3-chat-latest", messages=[ {"role": "system", "content": "你是一个友好的助手"}, {"role": "user", "content": "请用简洁的语言解释量子计算的基本原理"} ] ) print(response.choices[0].message.content) ``` ### 流式输出 ```python theme={null} response = client.chat.completions.create( model="gpt-5.3-chat-latest", messages=[ {"role": "user", "content": "写一篇关于 AI 发展趋势的短文"} ], stream=True ) for chunk in response: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="") ``` ### 从 GPT-5.2 迁移 迁移非常简单,只需更改模型名称: ```python theme={null} # 之前使用 GPT-5.2 Instant # model="gpt-5.2-chat-latest" # 现在使用 GPT-5.3 Chat model="gpt-5.3-chat-latest" ``` ## 价格与可用性 ### 定价信息 | 计费项 | GPT-5.3 Chat | GPT-5.2 | GPT-5 | | -------- | ------------------- | ------------------- | ------------------- | | **输入** | \$1.75 / 百万 tokens | \$1.75 / 百万 tokens | \$1.25 / 百万 tokens | | **缓存输入** | \$0.175 / 百万 tokens | \$0.175 / 百万 tokens | \$0.125 / 百万 tokens | | **输出** | \$14.00 / 百万 tokens | \$14.00 / 百万 tokens | \$10.00 / 百万 tokens | GPT-5.3 Chat 与 GPT-5.2 定价一致,性能更优,是直接升级替换的理想选择。 ### 优惠活动 API易提供充值加赠优惠,充值越多加赠越多(10%-20%),实际使用成本可低至官方价格的 8 折。 ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 渠道类型:OpenAI 官方直连(官转) * 兼容所有 OpenAI SDK ## 总结与建议 GPT-5.3 Chat 是 OpenAI 在对话体验方面的一次重要优化。虽然在参数规格上与 GPT-5.2 保持一致,但在实际使用中,幻觉率大幅降低和更自然的对话风格带来了明显的体验提升。 **核心优势**: * 🎯 幻觉率降低 26.8%,回答更准确 * 💬 对话风格更自然,告别"说教式"回复 * 🖼️ 支持图像输入,多模态能力 * 💰 价格与 GPT-5.2 一致,性能更优 **使用建议**: 1. **日常对话**:首选 GPT-5.3 Chat,体验最自然 2. **编程任务**:推荐 GPT-5.3 Codex,专业性更强 3. **复杂推理**:继续使用 GPT-5.2 Pro,精度最高 4. **成本优先**:GPT-5.1 仍是性价比之选 **谁应该升级到 GPT-5.3 Chat**: * 对回答准确性要求较高的应用 * 客服、助手等需要自然对话风格的场景 * 正在使用 GPT-5.2 Instant 的开发者(无缝切换) API易已通过官方直连通道第一时间接入,现在注册充值即享加赠优惠,立即体验更准确、更自然的 GPT-5.3 Chat! 信息来源:OpenAI 官方博客(2026 年 3 月 3 日)、9to5Mac、NxCode 等媒体报道。数据获取时间:2026 年 3 月 4 日。 # GPT-5.4 重磅发布:OpenAI 最强专业模型,原生计算机使用能力 Source: https://docs.apiyi.com/news/gpt-5-4-launch OpenAI 于 2026 年 3 月 5 日发布 GPT-5.4 系列,推出标准版、Thinking 和 Pro 三大版本,原生支持计算机使用、深度研究,专业任务表现超越 83% 人类办公人员。API易已全面上架,定价与官网一致。 ## 核心要点 * **最强专业模型**:GPT-5.4 在专业任务中 83% 的情况下优于人类办公人员,文档创建、电子表格分析、演示文稿设计表现卓越 * **原生计算机使用**:OpenAI 首个搭载原生计算机使用能力的通用模型,支持多步骤跨应用工作流 * **百万级上下文**:API 版本支持最高 100 万 tokens 上下文窗口,OpenAI 迄今最大 * **更少错误**:单项声明错误率降低 33%,整体回答错误率降低 18% * **三大版本**:标准版(GPT-5.4)、Thinking(深度分析)、Pro(高性能企业级) ## 背景介绍 2026 年 3 月 5 日,OpenAI 正式发布 GPT-5.4 系列模型,这是 OpenAI 迄今为止最强大、最高效的前沿模型,专为专业工作场景设计。 此次发布距离 GPT-5.3 仅一个月不到,标志着 OpenAI 加快了模型迭代节奏。GPT-5.4 被定位为面向企业级专业任务的旗舰模型,在文档处理、电子表格分析、代码生成和自主代理等领域实现了全面突破。 GPT-5.4 系列包含三个版本: * **GPT-5.4**(标准版):通用旗舰模型,适合日常和专业任务 * **GPT-5.4 Thinking**:深度分析与多步骤问题推理 * **GPT-5.4 Pro**:高性能企业级版本,专为规模化应用优化 API易已在第一时间上架 GPT-5.4 全系列,定价与 OpenAI 官网完全一致,充值 100 美金起享 10% 加赠优惠。 ## 详细解析 ### 核心特性 83% 的专业任务中优于人类办公人员,文档、电子表格、演示文稿全面领先 OpenAI 首个搭载原生计算机使用能力的通用模型,支持多步骤跨应用工作流 API 支持最高 100 万 tokens 上下文窗口,OpenAI 迄今最大 单项错误率降低 33%,整体错误率降低 18%,回答更可靠 ### 性能亮点 GPT-5.4 系列在多个权威评测中展现出卓越性能: | 评测项目 | GPT-5.4 / Pro | GPT-5.2 | 说明 | | --------------------------- | ------------- | ------- | ------------ | | **GDPval(专业知识)** | **83%** | 70.9% | 专业任务超越人类办公人员 | | **SWE-Bench Pro** | **57.7%** | 55.6% | 真实软件工程任务 | | **OSWorld-Verified(计算机使用)** | **75%** | - | 计算机使用基准测试 | | **APEX-Agents** | **#1** | - | 专业服务工作代理基准 | | **WebArena Verified** | **#1** | - | 网页操作基准测试 | 数据来源:OpenAI 官方博客(2026 年 3 月 5 日发布)、TechCrunch、VentureBeat 等权威媒体报道。 **专业工作能力**: * **GDPval 83%**:在专业知识工作评测中,83% 的任务优于人类办公人员 * 擅长文档创建、电子表格分析、演示文稿设计 * 金融插件支持 Microsoft Excel 和 Google Sheets **计算机使用能力**: * OpenAI 首个在 Codex 和 API 中搭载原生计算机使用能力的通用模型 * OSWorld-Verified 基准测试达 75% * 支持跨应用多步骤自动化工作流 **编程与代理能力**: * SWE-Bench Pro 达 57.7%,持续提升 * APEX-Agents 和 WebArena Verified 均排名第一 * Token 效率显著提升,解决相同问题所需 tokens 大幅减少 **准确性提升**: * 单项声明错误率比 GPT-5.2 降低 33% * 整体回答错误率降低 18% ### 技术规格 | 参数 | GPT-5.4 | GPT-5.4 Pro | | ------------------- | ------------------- | -------------------- | | **上下文长度** | 1,050,000 tokens | 1,050,000 tokens | | **输入价格** | \$2.50 / 百万 tokens | \$30.00 / 百万 tokens | | **输出价格** | \$15.00 / 百万 tokens | \$180.00 / 百万 tokens | | **长上下文输入(大于 272K)** | \$5.00 / 百万 tokens | \$60.00 / 百万 tokens | | **长上下文输出(大于 272K)** | \$22.50 / 百万 tokens | \$270.00 / 百万 tokens | 当输入超过 272K tokens 时,输入价格为 2 倍,输出价格为 1.5 倍(适用于整个会话)。 ### 三大版本对比 | 版本 | 定位 | 适用场景 | 核心优势 | | -------------------- | ---- | ----------- | ------- | | **GPT-5.4** | 通用旗舰 | 日常专业任务、文档处理 | 平衡性能与成本 | | **GPT-5.4 Thinking** | 深度推理 | 复杂分析、多步骤推理 | 深度分析能力强 | | **GPT-5.4 Pro** | 企业级 | 高性能规模化应用 | 速度快、吞吐高 | ## 实际应用 ### 推荐场景 GPT-5.4 系列凭借原生计算机使用、超强专业能力和百万级上下文,特别适合: 1. **企业办公自动化**:文档创建、电子表格分析、演示文稿设计 2. **软件工程开发**:代码生成、Bug 修复、自主编程代理 3. **深度研究分析**:长文档分析、跨源研究、数据挖掘 4. **自主代理工作流**:计算机使用、多步骤跨应用自动化 5. **金融数据处理**:Excel/Sheets 金融插件、报表生成 ### 代码示例 #### 标准调用 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) # 使用 GPT-5.4 标准版 response = client.chat.completions.create( model="gpt-5.4", messages=[ { "role": "user", "content": "分析这份季度财务报告,生成关键指标摘要和趋势预测..." } ], max_tokens=8192 ) print(response.choices[0].message.content) ``` #### 使用 GPT-5.4 Pro ```python theme={null} # 使用 GPT-5.4 Pro 处理高性能企业级任务 response = client.chat.completions.create( model="gpt-5.4-pro", messages=[ { "role": "user", "content": "设计一个完整的微服务架构,包含服务发现、负载均衡、熔断器和分布式追踪..." } ], max_tokens=16384 ) print(response.choices[0].message.content) ``` ### 最佳实践 1. **选择合适的版本**: * **GPT-5.4**:日常专业任务,平衡性能与成本 * **GPT-5.4 Thinking**:需要深度推理的复杂问题 * **GPT-5.4 Pro**:企业级高吞吐量应用 2. **充分利用百万级上下文**: * 100 万 token 上下文可容纳整个代码库或多份长文档 * 注意超过 272K tokens 时价格会调整 3. **利用计算机使用能力**: * 通过 Codex 和 API 构建自主代理 * 实现跨应用多步骤自动化工作流 ## 价格与可用性 ### 定价信息 | 计费项 | GPT-5.4 | GPT-5.4 Pro | GPT-5.2 | 变化 | | ------ | ------------------- | -------------------- | ------------------- | ---- | | **输入** | \$2.50 / 百万 tokens | \$30.00 / 百万 tokens | \$1.75 / 百万 tokens | +43% | | **输出** | \$15.00 / 百万 tokens | \$180.00 / 百万 tokens | \$14.00 / 百万 tokens | +7% | GPT-5.4 相比 GPT-5.2 输入价格上涨 43%,输出价格仅上涨 7%。Pro 版本定价为 OpenAI 最贵模型,但专业能力也最强。 **与竞品价格对比**: | 模型 | 输入价格 | 输出价格 | 定位 | | --------------- | ----------- | ------------ | ---- | | **GPT-5.4** | **\$2.50** | **\$15.00** | 专业旗舰 | | **GPT-5.4 Pro** | **\$30.00** | **\$180.00** | 企业级 | | Claude Opus 4.5 | \$5.00 | \$25.00 | 编码旗舰 | | Gemini 3 Pro | \$2.00 | \$12.00 | 多模态 | | GPT-5.2 | \$1.75 | \$14.00 | 前代旗舰 | ### 优惠活动 API易 提供充值加赠优惠,充值 100 美金起享 10% 加赠,充值越多加赠越多。定价与官网一致,通过充值优惠实现折扣,实际使用成本更低。 ### 可用模型 | 模型名称 | 版本 | 说明 | | ------------- | --- | -------------- | | `gpt-5.4` | 标准版 | 通用旗舰,适合大多数专业场景 | | `gpt-5.4-pro` | Pro | 高性能企业级版本 | ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 支持 OpenAI 原生格式 * 兼容所有 OpenAI SDK ## 总结与建议 GPT-5.4 系列的发布标志着 OpenAI 在专业工作领域的全面突破。原生计算机使用能力、百万级上下文窗口和 83% 超越人类的专业表现,使其成为企业级应用的首选模型。 **核心优势**: * **专业之王**:83% 任务优于人类办公人员 * **原生计算机使用**:首个搭载原生 CUA 的通用模型 * **百万级上下文**:100 万 tokens,OpenAI 最大 * **更少错误**:错误率降低 18-33% **使用建议**: 1. **日常专业任务**:使用 GPT-5.4 标准版,性能与成本平衡 2. **深度分析推理**:使用 GPT-5.4 Thinking,复杂问题首选 3. **企业级应用**:使用 GPT-5.4 Pro,高吞吐低延迟 4. **成本敏感场景**:GPT-5.2 仍是性价比之选 **谁应该使用 GPT-5.4**: * 需要自动化办公流程的企业用户 * 构建自主代理和工作流的开发者 * 处理超长文档和代码库的专业用户 * 追求最高准确性的研究人员 API易已全面上架 GPT-5.4 系列,定价与官网一致,充值 100 美金起享 10% 加赠优惠,立即体验 OpenAI 最强专业模型! 信息来源:OpenAI 官方博客(2026 年 3 月 5 日)、TechCrunch、VentureBeat、Axios、Fortune 等权威媒体报道。数据获取时间:2026 年 3 月 6 日。 # GPT-5.4 Mini & Nano 上线:轻量高性价比,为规模化场景而生 Source: https://docs.apiyi.com/news/gpt-5-4-mini-nano-launch OpenAI 于 2026 年 3 月 17 日发布 GPT-5.4 Mini 和 Nano,Mini 速度比 GPT-5 Mini 快 2 倍以上,Nano 仅需 $0.20/百万输入 tokens。API易已全面上架,定价与官网一致,官转 API 充值约 9 折起。 ## 核心要点 * **最强小模型**:GPT-5.4 Mini 在编码、推理、多模态理解和工具调用全面超越 GPT-5 Mini,速度快 2 倍以上 * **极致性价比**:GPT-5.4 Nano 输入仅 \$0.20/百万 tokens,输出 \$1.25/百万 tokens,OpenAI 最便宜的 5.4 系列模型 * **接近旗舰水准**:Mini 在 SWE-Bench Pro(54.4%)和 OSWorld-Verified(72.1%)上接近 GPT-5.4 全尺寸版本 * **40 万上下文**:与 GPT-5 家族一致的 400K context window * **全能力支持**:文本、图像输入、工具调用、网页搜索、计算机使用能力一应俱全 ## 背景介绍 2026 年 3 月 17 日,OpenAI 正式发布 GPT-5.4 Mini 和 GPT-5.4 Nano,官方称其为「迄今最强大的小模型」。这是继 3 月初 GPT-5.4 旗舰系列发布后,OpenAI 将 5.4 系列能力下沉到轻量级模型的重要举措。 GPT-5.4 Mini 面向需要高性能但预算有限的开发者,在保持接近旗舰水准的同时大幅降低成本;GPT-5.4 Nano 则专为高吞吐量、低成本场景设计,适合分类、数据提取、排序和编码子代理等任务。 API易已在第一时间上架两款模型,定价与 OpenAI 官网完全一致,官转 API 通道稳定可靠,充值加赠约 9 折起。 ## 详细解析 ### 核心特性 GPT-5.4 Mini 比 GPT-5 Mini 快 2 倍以上,延迟大幅降低 Nano 输入仅 \$0.20/百万 tokens,76000 张图片描述仅需约 \$52 Mini SWE-Bench Pro 54.4%(GPT-5.4 为 57.7%),差距极小 图像理解、工具调用、网页搜索、计算机使用全部支持 ### GPT-5.4 Mini 性能亮点 GPT-5.4 Mini 在多个权威评测中全面碾压前代 GPT-5 Mini: | 评测项目 | GPT-5.4 Mini | GPT-5.4(旗舰) | GPT-5 Mini | 说明 | | ---------------------- | ------------ | ----------- | ---------- | -------- | | **SWE-Bench Pro** | **54.4%** | 57.7% | 45.7% | 真实软件工程任务 | | **OSWorld-Verified** | **72.1%** | 75.0% | 42.0% | 计算机使用基准 | | **Toolathlon** | **42.9%** | — | 26.9% | 工具调用评测 | | **GPQA Diamond** | **88.0%** | — | 81.6% | 研究级科学推理 | | **Tau2-Bench** | **93.4%** | — | 74.1% | 工具调用基准 | | **MCP Atlas** | **57.7%** | — | 47.6% | MCP 协议评测 | | **Terminal-Bench 2.0** | **60.0%** | — | — | 终端操作评测 | GPT-5.4 Mini 在 OSWorld-Verified 上达到 72.1%,相比 GPT-5 Mini 的 42.0% 提升了 71.7%,接近旗舰 GPT-5.4 的 75.0%。 ### GPT-5.4 Nano 性能定位 Nano 是 GPT-5.4 系列中最小、最便宜的版本,专为速度和成本优先的场景设计: | 评测项目 | GPT-5.4 Nano | GPT-5.4 Mini | | ---------------------- | ------------ | ------------ | | **Terminal-Bench 2.0** | 46.3% | 60.0% | | **OSWorld-Verified** | 39.0% | 72.1% | OpenAI 官方推荐 Nano 用于分类、数据提取、排序以及编码子代理中处理简单辅助任务的场景。 ### 推理能力可调 两款模型均支持可变推理力度设置,开发者可根据任务复杂度灵活调整: * `none`:无推理,最快响应 * `low` / `medium` / `high`:递增推理深度 * `xhigh`:最大推理力度 值得关注的是,GPT-5.4 Nano 在最大推理力度下的表现已超过前代 GPT-5 Mini,以极低成本实现了上一代中端模型的能力。 ## 实际应用 ### 推荐场景 **GPT-5.4 Mini 适合:** 1. **编程助手**:SWE-Bench Pro 54.4%,适合代码生成、审查和调试 2. **自主代理**:OSWorld 72.1%,支持计算机使用和多步骤工作流 3. **日常对话**:ChatGPT 免费版和 Go 版用户的默认思考模型 4. **OpenClaw 等场景**:高性能低成本,适合批量智能任务处理 **GPT-5.4 Nano 适合:** 1. **数据处理流水线**:分类、提取、排序等高吞吐量任务 2. **编码子代理**:处理简单辅助任务,作为代理架构中的执行层 3. **批量图像理解**:76000 张图片描述仅需约 \$52 4. **实时分类系统**:极低延迟,极低成本 ### 代码示例 #### 使用 GPT-5.4 Mini ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) # GPT-5.4 Mini - 高性价比编程助手 response = client.chat.completions.create( model="gpt-5.4-mini", messages=[ { "role": "user", "content": "帮我重构这段代码,提取公共逻辑并添加错误处理..." } ], max_tokens=4096 ) print(response.choices[0].message.content) ``` #### 使用 GPT-5.4 Nano 批量处理 ```python theme={null} # GPT-5.4 Nano - 极致性价比批量任务 response = client.chat.completions.create( model="gpt-5.4-nano", messages=[ { "role": "system", "content": "你是一个文本分类器,将用户输入分类为:正面、负面、中性。只输出分类结果。" }, { "role": "user", "content": "这个产品质量非常好,下次还会购买!" } ], max_tokens=10 ) print(response.choices[0].message.content) ``` ## 价格与可用性 ### 定价信息 | 计费项 | GPT-5.4 Nano | GPT-5.4 Mini | GPT-5.4(旗舰) | | -------- | ------------------ | ------------------- | ------------------- | | **输入** | \$0.20 / 百万 tokens | \$0.75 / 百万 tokens | \$2.50 / 百万 tokens | | **缓存输入** | \$0.02 / 百万 tokens | \$0.075 / 百万 tokens | — | | **输出** | \$1.25 / 百万 tokens | \$4.50 / 百万 tokens | \$15.00 / 百万 tokens | GPT-5.4 Mini 成本仅为旗舰 GPT-5.4 的 30%,而性能接近旗舰水准。Nano 更是仅为旗舰的 8%,极致性价比。 **与同级别竞品对比**: | 模型 | 输入价格 | 输出价格 | 定位 | | --------------------- | ---------- | ---------- | ----- | | **GPT-5.4 Nano** | **\$0.20** | **\$1.25** | 极致轻量 | | **GPT-5.4 Mini** | **\$0.75** | **\$4.50** | 高性价比 | | Gemini 3.1 Flash Lite | \$0.25 | \$0.50 | 轻量快速 | | Claude Haiku 4.5 | \$0.80 | \$4.00 | 快速响应 | | GPT-5.2 mini | \$0.30 | \$1.80 | 前代小模型 | ### 优惠活动 API易 提供充值加赠优惠,官转 API 充值约 9 折起。定价与官网一致,通过充值优惠实现折扣,实际使用成本更低。 ### 可用模型 | 模型名称 | 版本 | 上下文 | 说明 | | -------------- | ---- | ---- | ------------ | | `gpt-5.4-mini` | Mini | 400K | 高性价比,接近旗舰水准 | | `gpt-5.4-nano` | Nano | 400K | 极致低成本,高吞吐量场景 | ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 支持 OpenAI 原生格式,兼容所有 OpenAI SDK * 官转 API 通道,稳定可靠 ## 总结与建议 GPT-5.4 Mini 和 Nano 的发布,让 GPT-5.4 系列的强大能力以极低成本触达更多开发者和应用场景。 **核心优势**: * **Mini**:旗舰级能力,30% 的价格,2 倍速度 * **Nano**:极致低价,8% 的旗舰成本,适合规模化部署 **选型建议**: 1. **需要接近旗舰性能**:选 GPT-5.4 Mini,SWE-Bench Pro 54.4%,OSWorld 72.1% 2. **高吞吐量批处理**:选 GPT-5.4 Nano,\$0.20/百万输入 tokens 3. **代理架构子任务**:Nano 作为执行层,Mini 作为决策层 4. **OpenClaw 等场景**:Mini 和 Nano 均适用,按需选择性价比最优方案 5. **成本不敏感的专业任务**:仍推荐 GPT-5.4 旗舰或 Pro API易已全面上架 GPT-5.4 Mini 和 Nano,定价与官网一致,官转 API 充值约 9 折起,立即体验 OpenAI 最强轻量级模型! 信息来源:OpenAI 官方博客(2026 年 3 月 17 日)、9to5Mac、The New Stack、Simon Willison's Weblog 等权威媒体报道。数据获取时间:2026 年 3 月 18 日。 # GPT-5.5 官转上线:OpenAI 最强前沿模型,xhigh 推理新档位 Source: https://docs.apiyi.com/news/gpt-5-5-launch OpenAI 于 2026 年 4 月 23 日发布 GPT-5.5,距离 GPT-5.4 仅六周。SWE-bench 88.7%、幻觉率降低 60%,新增 xhigh 推理档位。API易官方直转通道已上架,定价与官网完全一致:输入 $5、输出 $30 / 百万 tokens。 ## 核心要点 * **最新前沿模型**:OpenAI 面向最复杂专业工作打造的旗舰,距 GPT-5.4 仅 6 周 * **xhigh 推理档位**:reasoning.effort 新增 `xhigh`,覆盖 none / low / medium(默认)/ high / xhigh 五档 * **百万级上下文**:1,050,000 tokens 输入窗口、128,000 tokens 最大输出 * **官转通道**:API易上线 OpenAI 官方直转通道,模型质量与官网一致 * **定价持平官网**:\$5 / 百万输入、\$30 / 百万输出,缓存输入仅 \$0.50 ## 背景介绍 2026 年 4 月 23 日,OpenAI 发布 GPT-5.5,定位为"面向最复杂专业工作的最新前沿模型"。距离 3 月初的 GPT-5.4 仅六周时间,OpenAI 的迭代节奏继续加速。 与 GPT-5.4 相比,GPT-5.5 的价格直接翻倍(GPT-5.4 标准版输入 \$2.50、输出 \$15)。OpenAI 给出的解释是:新模型在难任务上 token 效率显著提升,独立评测显示综合智能成本实际只增加约 20%。换句话说,**单价更贵,但解同一道题烧的 token 更少**。 GPT-5.5 系列包含三个版本:标准版 GPT-5.5、GPT-5.5 Thinking(扩展推理预算)、GPT-5.5 Pro(更高准确率,仅 Pro/Business/Enterprise 套餐可用)。本次 API易先行上线标准版 `gpt-5.5`,走的是 **OpenAI 官方直转通道**——模型权重、行为、限速与官网一致,无任何中转或降级。 ## 详细解析 ### 核心特性 reasoning.effort 新增 xhigh 档位,专为最难的多步推理与代码任务设计 SWE-bench Verified 达到 88.7%,刷新 OpenAI 自家纪录 较 GPT-5.4 减少约 60% 幻觉,专业场景输出更可靠 1.05M 输入 + 128K 输出,可吞下整套代码库或多份长文档 ### reasoning.effort 五档详解 GPT-5.5 是 API易当前唯一支持五档推理强度的 OpenAI 模型: | 档位 | 适用场景 | 说明 | | ------------ | ----------- | ---------------- | | `none` | 即时回复、简单问答 | 不投入推理 token,最快最省 | | `low` | 日常对话、轻量任务 | 少量推理,平衡速度与质量 | | `medium`(默认) | 通用任务 | 默认档位,覆盖大多数场景 | | `high` | 复杂分析、长链推理 | 显著增加推理预算 | | `xhigh` | 最难的代码、研究、规划 | 推理预算上限,新增档位 | xhigh 档位会显著增加推理 token 消耗。建议先用 medium / high 试跑,确认确实需要时再升档到 xhigh。 ### 性能亮点 | 评测项目 | GPT-5.5 | GPT-5.4 | 提升 | | ---------------------- | ------------ | ------- | ------- | | **SWE-bench Verified** | **88.7%** | \~85% | +3.7pp | | **幻觉率** | **降低 60%** | 基线 | 大幅改善 | | **Token 效率** | 同任务 token 更少 | 基线 | 抵消约一半涨价 | 数据来源:OpenAI 官方模型卡及 Microsoft Foundry 公告(2026 年 4 月 23 日)。基准测试结果可能因评测条件不同而存在差异。 ### 技术规格 | 参数 | GPT-5.5 | | -------------------- | -------------------------------------- | | **模型名称** | `gpt-5.5` | | **快照版本** | `gpt-5.5-2026-04-23` | | **上下文窗口** | 1,050,000 tokens | | **最大输出** | 128,000 tokens | | **知识截止** | 2025 年 12 月 1 日 | | **推理 token** | 支持 | | **reasoning.effort** | none / low / medium / high / xhigh | | **API 端点** | `/v1/chat/completions`、`/v1/responses` | ## 实际应用 ### 推荐场景 GPT-5.5 的高单价决定了它**不是日常对话的首选**,更适合下列场景: 1. **复杂代码工程**:大型重构、跨文件 Bug 定位、SWE-bench 类多步任务 2. **专业知识研究**:法律、金融、医疗等需要严密推理与低幻觉的领域 3. **长上下文分析**:百万级代码库审计、多份长文档交叉对比 4. **自主代理任务**:需要多步规划、自我纠错的 agent 工作流 5. **xhigh 推理场景**:常规模型无法解决、需要最深推理预算的难题 ### 代码示例 #### 标准调用(默认 medium 推理) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="gpt-5.5", messages=[ {"role": "user", "content": "帮我重构这段 Python 代码并解释设计决策..."} ], max_tokens=8192 ) print(response.choices[0].message.content) ``` #### 使用 xhigh 推理档 ```python theme={null} response = client.chat.completions.create( model="gpt-5.5", messages=[ {"role": "user", "content": "这是一个复杂的分布式系统死锁问题,请给出根因分析和修复方案..."} ], reasoning_effort="xhigh", max_tokens=16384 ) print(response.choices[0].message.content) ``` #### 节省成本:none 档跳过推理 ```python theme={null} response = client.chat.completions.create( model="gpt-5.5", messages=[ {"role": "user", "content": "把这段中文翻译成英文"} ], reasoning_effort="none", max_tokens=2048 ) print(response.choices[0].message.content) ``` ### 最佳实践 1. **按任务难度选档**:简单任务用 `none` / `low`,难题再升 `xhigh`,避免无谓烧推理 token 2. **善用缓存输入**:缓存命中后输入价仅 \$0.50 / 百万 tokens,是原价的 1/10 3. **长上下文场景慎用 xhigh**:百万 tokens + xhigh 推理 = 单次成本可能很高,先评估必要性 4. **不是所有任务都需要 GPT-5.5**:对话、翻译、摘要等常规任务,GPT-5.4 标准版甚至更早版本可能更划算 ## 价格与可用性 ### 定价信息(与 OpenAI 官网完全一致) | 计费项 | 单价 | 备注 | | -------- | ------------------- | --------- | | **输入** | \$5.00 / 百万 tokens | 标准输入 | | **缓存输入** | \$0.50 / 百万 tokens | 命中缓存时,1 折 | | **输出** | \$30.00 / 百万 tokens | 含推理 token | ### 与近期模型价格对比 | 模型 | 输入 | 输出 | 定位 | | --------------- | ---------- | ----------- | ------------- | | **GPT-5.5** | **\$5.00** | **\$30.00** | 最新前沿,xhigh 推理 | | GPT-5.4 | \$2.50 | \$15.00 | 上代旗舰,性价比仍优 | | Claude Opus 4.7 | \$5.00 | \$25.00 | 编程旗舰 | | Gemini 3 Pro | \$2.00 | \$12.00 | 多模态 | GPT-5.5 单价是 GPT-5.4 的两倍。如果任务用 GPT-5.4 已经能解决,**不建议盲目升级**。GPT-5.5 的价值主要在 xhigh 推理与最难任务上。 ### 叠加网站充值活动 API易 提供充值加赠优惠,定价与官网一致,通过加赠折扣摊薄单次调用成本。 ### 可用模型 | 模型名称 | 通道 | 说明 | | -------------------- | ----------- | ------------- | | `gpt-5.5` | OpenAI 官方直转 | 当前最新,自动跟随官网快照 | | `gpt-5.5-2026-04-23` | OpenAI 官方直转 | 固定快照版本 | ### 购买渠道 * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 兼容 OpenAI 原生 SDK,仅需替换 `base_url` 与 `api_key` ## 总结与建议 GPT-5.5 是 OpenAI 当前最强、也最贵的通用模型。它的价值集中在两个点:**xhigh 推理档位**和**显著降低的幻觉率**。 **适合升级的场景**: * 已经在用 GPT-5.4 但仍碰到推理上限的难题 * 对幻觉敏感的专业领域(法律、金融、医疗、研究) * 需要 xhigh 档位才能解决的多步代码 / 规划任务 **不建议升级的场景**: * 常规对话、翻译、摘要等任务(GPT-5.4 或更早版本更划算) * 高频调用、对单次成本敏感的应用 * 任务用 GPT-5.4 medium 推理已经稳定通过 API易已上线 GPT-5.5 **官方直转通道**,行为与官网一致,定价持平。建议先用小流量在自己的真实任务上对比 GPT-5.4 与 GPT-5.5 的效果差距,再决定是否切换。 信息来源:OpenAI 官方模型卡(developers.openai.com)、Microsoft Azure Foundry 公告、独立评测报道。数据获取时间:2026 年 4 月 25 日。 # GPT-5.5 Pro 官转上线:OpenAI 当前最强推理模型 Source: https://docs.apiyi.com/news/gpt-5-5-pro-launch OpenAI 于 2026 年 4 月 24 日开放 GPT-5.5 Pro API,Terminal-Bench 2.0 达 82.7%、Expert-SWE 73.1%、GDPval 84.9%,单价为基础版 6 倍。API易官转通道已上架,仅对 SVIP 分组开放,单次调用可能数美金,请谨慎使用。 ## 核心要点 * **OpenAI 当前最强推理**:面向最复杂专业工作流的旗舰推理版本,比基础版 GPT-5.5 准确率显著更高 * **顶级 agentic / 代码评测**:Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9% * **百万级上下文**:1,050,000 tokens 输入窗口、128,000 tokens 最大输出 * **阶梯计费**:0–272K 区间 \$30 / \$180 每百万 tokens;272K–∞ 区间 \$60 / \$270,长上下文 2x 溢价 * **仅 SVIP 分组开放**:未对 Default 默认分组开放,防止误用——**单次调用可能数美金**,请确认场景必要性后再调 ## 背景介绍 2026 年 4 月 23 日 (UTC+8),OpenAI 在发布 GPT-5.5 的同时推出 **GPT-5.5 Pro** 旗舰推理版本,4 月 24 日全面开放 API。GPT-5.5 Pro 定位为"OpenAI 当前最强推理模型",针对最复杂的专业研究、长链代码、自主代理工作流场景。 与基础版 GPT-5.5(输入 \$5、输出 \$30)相比,GPT-5.5 Pro 的单价直接 **翻 6 倍**——输入 \$30、输出 \$180 / 百万 tokens。OpenAI 的解释是:Pro 版投入更高的推理预算与更严格的多次验证流程,在最难的任务上准确率显著领先,但对应的算力成本也呈指数级上升。 API易经过一周的稳定性观察后,于 2026 年 5 月 3 日正式上线 `gpt-5.5-pro` **OpenAI 官方直转通道**,行为、限速与官网完全一致。考虑到该模型单次调用可能消耗数美金,**仅对 SVIP 分组开放**,未挂载到 Default 默认分组——避免新用户因误调用而产生意外费用。 ## 详细解析 ### 核心特性 Terminal-Bench 2.0 82.7%,刷新 OpenAI 自家 agentic 编程纪录 Expert-SWE long-horizon benchmark 73.1%,跨文件多步任务表现领先 GDPval 综合专业评测 84.9%,覆盖律师、医生、研究员等高门槛任务 1.05M 输入 + 128K 输出,可吞下整个代码库或多份长文档 ### 性能亮点 | 评测项目 | GPT-5.5 Pro | 说明 | | ---------------------- | ----------- | ------------------------ | | **Terminal-Bench 2.0** | **82.7%** | OpenAI 当前最高 agentic 编程得分 | | **Expert-SWE** | **73.1%** | 内部长链 SWE 评测,跨文件多步推理 | | **GDPval** | **84.9%** | 综合专业评测,覆盖多个高门槛行业 | | **FrontierMath** | SOTA | 前沿数学题,开放评测之一 | | **CyberGym** | SOTA | 网络安全推理评测 | 数据来源:OpenAI 官方模型卡(2026 年 4 月 23 日)。基准测试结果可能因评测条件不同而存在差异。Pro 版相比基础 GPT-5.5 在所有难任务上都有显著提升,但日常任务差距不明显。 ### 技术规格 | 参数 | GPT-5.5 Pro | | ------------ | -------------------------------------- | | **模型名称** | `gpt-5.5-pro` | | **快照版本** | `gpt-5.5-pro-2026-04-23` | | **上下文窗口** | 1,050,000 tokens | | **最大输出** | 128,000 tokens | | **知识截止** | 2025 年 12 月 1 日 | | **推理 token** | 支持(推理预算高于基础版) | | **API 端点** | `/v1/chat/completions`、`/v1/responses` | | **可用分组** | **仅 SVIP** | ## 实际应用 ### 推荐场景 GPT-5.5 Pro 的高单价决定了它**不是日常对话或常规任务的选择**,仅适合下列高价值场景: 1. **最难的代码工程**:百万行代码库审计、跨多模块死锁定位、Expert-SWE 类长链任务 2. **专业领域研究**:法律深度分析、医学临床决策、金融复杂建模等容错率极低的任务 3. **长上下文综合分析**:百万 tokens 级别的多文档交叉对比、合同审查、专利分析 4. **自主代理多步规划**:需要严密推理、自我纠错的复杂 agent 工作流 5. **基础版搞不定的难题**:先用 `gpt-5.5` 试跑,确认无法解决再升 Pro 版 ### 代码示例 #### 标准调用 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", # 需 SVIP 分组的 KEY base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="gpt-5.5-pro", messages=[ {"role": "user", "content": "请分析这份 800 页合同的潜在合规风险..."} ], max_tokens=16384 ) print(response.choices[0].message.content) ``` #### 长上下文场景(注意 272K 阶梯) ```python theme={null} response = client.chat.completions.create( model="gpt-5.5-pro", messages=[ {"role": "user", "content": long_codebase_audit_prompt} # 总 tokens > 272K ], max_tokens=32768 ) # 注意:超过 272K 上下文后,input/output 单价翻倍 # 单次成本可能从几美金跃升至十几美金,请谨慎评估 ``` ### 最佳实践 1. **先用基础版兜底**:90% 的"难题"用 `gpt-5.5` 已能解决,只有真正卡住才升 Pro 2. **控制上下文长度**:尽量保持总 tokens 在 272K 以内,避开长上下文 2x 阶梯 3. **设置硬性预算上限**:在自家应用层加 `max_tokens` 与单 user 配额,防止意外烧费 4. **批量任务用 Batch**:如果是离线批处理,OpenAI 官方 Batch API 享 50% 折扣(API易暂未开放该折扣通道) 5. **不适合实时高频场景**:单次响应慢、单价高,不要拿它做 chat-bot 后端 ## 价格与可用性 ### 定价信息(阶梯计费) | 上下文区间 | 输入价格 | 输出价格 | 备注 | | ------------------- | ------------------- | -------------------- | ---------------- | | **0 – 272K tokens** | \$30.00 / 百万 tokens | \$180.00 / 百万 tokens | 标准段,对齐 OpenAI 官网 | | **272K – ∞ tokens** | \$60.00 / 百万 tokens | \$270.00 / 百万 tokens | 长上下文段,2x 溢价 | gpt-5.5-pro 阶梯计费表:0-272K 输入 $30 输出 $180;272K-∞ 输入 $60 输出 $270 ### 单次调用成本估算 | 场景 | 输入 tokens | 输出 tokens | 估算成本 | | ----------- | --------- | --------- | ---------------------- | | 短问答 | 5K | 2K | 约 \$0.51 | | 中等代码 review | 50K | 8K | 约 \$2.94 | | 长文档分析 | 200K | 16K | 约 \$8.88 | | **超长上下文审计** | **500K** | **32K** | **约 \$24.84**(含 2x 溢价) | **单次调用可能数美金到十几美金**。本站为防止误用,未对 Default 默认分组开放 `gpt-5.5-pro`,**仅 SVIP 分组可调用**。请在确认场景必要性后再使用,并务必在应用层设置预算告警。 ### 与近期模型价格对比 | 模型 | 输入 | 输出 | 定位 | | --------------- | ----------- | ------------ | ------------- | | **GPT-5.5 Pro** | **\$30.00** | **\$180.00** | OpenAI 当前最强推理 | | GPT-5.5 | \$5.00 | \$30.00 | 基础版前沿模型 | | GPT-5.4 | \$2.50 | \$15.00 | 上代旗舰,性价比仍优 | | Claude Opus 4.7 | \$5.00 | \$25.00 | 编程旗舰 | | Gemini 3 Pro | \$2.00 | \$12.00 | 多模态 | ### 叠加网站充值活动 API易 提供充值加赠优惠,定价与官网一致,通过加赠折扣摊薄单次调用成本。 ### 可用模型与分组 | 模型名称 | 通道 | 分组 | 说明 | | ------------------------ | ----------- | -------- | ------------- | | `gpt-5.5-pro` | OpenAI 官方直转 | **SVIP** | 当前最新,自动跟随官网快照 | | `gpt-5.5-pro-2026-04-23` | OpenAI 官方直转 | **SVIP** | 固定快照版本 | 如需开通 SVIP 分组权限,请联系客服或在后台「分组管理」查看升级条件。 ## 总结与建议 GPT-5.5 Pro 是 OpenAI 当前最强、也最贵的通用推理模型。它的价值集中在**最难任务的准确率天花板**——Terminal-Bench 2.0 82.7%、Expert-SWE 73.1%、GDPval 84.9% 这三个数字只对真的卡在难题上的人有意义。 **适合升级 Pro 的场景**: * 已经用 GPT-5.5 基础版试跑,确认仍无法解决的难题 * 对单次错误成本极高的专业领域(法律、医疗、金融、科研) * 长链代码、跨文件多步重构、深度 agent 工作流 * 单次调用价值远高于 \$5–\$15 成本的高 ROI 场景 **不建议用 Pro 的场景**: * 常规对话、翻译、摘要、代码补全(GPT-5.5 或 GPT-5.4 完全够用) * 高频、低延迟要求的应用(Pro 响应较慢) * 对单次成本敏感、用户量大的 to-C 产品 API易已上线 GPT-5.5 Pro **OpenAI 官方直转通道**,行为与官网一致、定价持平。**仅 SVIP 分组开放**,建议先在小流量、可控预算下评估实际收益,再决定是否在生产环境放开。 信息来源:OpenAI 官方模型卡(developers.openai.com)、Inworld AI 模型库、独立评测报道。数据获取时间:2026 年 5 月 3 日 (UTC+8)。 # OpenAI GPT Image 1.5 正式上线:4倍速度提升,精准编辑新体验 Source: https://docs.apiyi.com/news/gpt-image-1-5-launch OpenAI 最新图片生成模型 GPT Image 1.5 震撼发布!生成速度提升4倍,支持精准编辑保持细节一致,文本渲染能力大幅增强,价格更优惠。API易已于12月17日同步上线。 ## 核心要点 * **⚡ 4倍速度提升**:图片生成速度比前代 GPT-Image-1 快4倍,大幅缩短等待时间 * **🎯 精准编辑能力**:支持局部编辑,保持光照、构图、人物外观一致,避免整体重绘 * **📝 文本渲染增强**:更好地渲染小而密集的文本,适合海报、宣传图等场景 * **💰 价格更优惠**:比前代降低20%,低质量 \$0.01/张、中质量 \$0.04/张、高质量 \$0.17/张 * **🚀 即刻可用**:API易已于12月17日同步上线,所有用户均可使用,充值活动享额外折扣 ## 背景介绍 2025年12月16日,OpenAI 正式发布了新一代图片生成模型 **GPT Image 1.5**,这是继 DALL-E 3 和 GPT-Image-1 之后的又一次重大升级。此次发布正值 AI 图片生成领域竞争白热化之际,紧随 Google Gemini 3 和其他竞品之后,OpenAI 加快了产品迭代节奏。 GPT Image 1.5 的核心改进集中在**速度、精准度和成本**三个方面。官方数据显示,新模型的生成速度提升了4倍,同时引入了业界领先的精准编辑功能,用户可以对上传的图片进行局部修改,而不会影响其他区域的视觉一致性。这一突破性功能将大幅提升设计师、创作者和开发者的工作效率。 API易团队在第一时间完成了模型接入,于**2025年12月17日**正式向所有用户开放 GPT Image 1.5 API 调用服务。定价与 OpenAI 官网保持一致,同时支持充值活动的额外折扣,为开发者提供更高性价比的选择。 ## 详细解析 ### 核心特性 生成速度比 GPT-Image-1 快4倍,显著缩短从提示词到成图的等待时间。适合需要快速迭代和批量生成的场景。 支持局部编辑功能,可针对特定区域进行修改(如调整表情、改变光照),同时保持其他区域的构图、色调、人物外观完全一致,避免整体重绘。 大幅提升小字体、密集文本的渲染质量,适合生成包含大量文字的海报、宣传图、信息图表等内容。 API 调用成本比前代降低20%,三种质量档位分别为 \$0.01(低)、\$0.04(中)、\$0.17(高),性价比进一步提升。 ### 性能亮点 #### 1. 生成速度对比 GPT Image 1.5 相比前代模型,生成速度提升了**4倍**。以中等质量的正方形图片为例: | 模型 | 平均生成时间 | 速度提升 | | ---------------------- | ------ | ---- | | GPT-Image-1 (DALL-E 3) | 约 12 秒 | - | | GPT Image 1.5 | 约 3 秒 | 4倍 ⚡ | 这意味着在批量生成、快速迭代场景下,开发者可以节省大量时间成本。 #### 2. 精准编辑能力 GPT Image 1.5 引入了业界领先的**后期编辑功能**,用户可以: * 上传一张现有图片 * 使用自然语言描述需要修改的部分(如"让人物微笑""把天空改为夜晚""调整光线更冷") * 模型仅修改指定区域,保持其他部分的视觉一致性(人物外观、构图、色调等) 这一功能特别适合需要微调图片细节的场景,避免了传统方法中"整体重新生成"导致的不可控变化。 #### 3. 文本渲染改进 相比前代模型,GPT Image 1.5 在渲染小字体和密集文本时表现更出色。适合以下场景: * 海报设计(包含标题、副标题、正文) * 宣传图制作(产品介绍、价格标签) * 信息图表(数据可视化、流程图) * 社交媒体配图(带文字说明的图片) ### 技术规格 | 规格项 | GPT Image 1.5 | | ------- | --------------------- | | 支持的图片尺寸 | 正方形、横向、纵向(多种分辨率) | | 输入方式 | 文本提示词 + 可选参考图片 | | 编辑功能 | 支持局部编辑、保持视觉一致性 | | API 端点 | `gpt-image-1.5` | | 可用性 | ChatGPT 所有用户 + API 调用 | ## 实际应用 ### 推荐场景 * 快速生成产品原型图 * 创意海报和宣传素材 * 社交媒体配图和封面 * 品牌视觉资产制作 * 博客文章配图 * 电商产品展示图 * 广告素材快速迭代 * 信息图表和数据可视化 * 局部调整图片细节 * 修改人物表情和姿态 * 调整光照和色调 * 添加/修改文字内容 * 游戏资产批量制作 * 多版本设计方案对比 * A/B 测试素材准备 * 大规模内容生产 ### 代码示例 以下是使用 API易 调用 GPT Image 1.5 的 Python 示例: ```python theme={null} import openai # 配置 API易 端点 client = openai.OpenAI( api_key="your-apiyi-api-key", # 替换为你的 API易 密钥 base_url="https://api.apiyi.com/v1" ) # 示例1:文本生成图片 response = client.images.generate( model="gpt-image-1.5", prompt="一只在太空中漂浮的宇航猫,背景是五彩斑斓的星云,高清写实风格", size="1024x1024", quality="standard", # 可选:standard (中质量) 或 hd (高质量) n=1 ) print(f"图片URL: {response.data[0].url}") # 示例2:编辑现有图片(精准编辑功能) # 注意:需要先将图片转为 base64 或提供 URL edit_response = client.images.edit( model="gpt-image-1.5", image=open("original.png", "rb"), # 原始图片 prompt="让猫咪的表情变得更开心,保持其他部分不变", size="1024x1024", n=1 ) print(f"编辑后的图片URL: {edit_response.data[0].url}") ``` ### 最佳实践 **提示词优化建议**: * 详细描述场景、风格、色调、光照等细节 * 使用"高清""写实""插画风格"等关键词控制画风 * 编辑时明确指出需要修改的区域,避免整体重绘 * 多次迭代时,使用精准编辑功能而非重新生成 **使用限制**: * 遵守 OpenAI 使用政策,禁止生成暴力、色情、侵权内容 * 商业使用需遵循相关版权和授权规定 * API 调用有速率限制,具体限制视账户等级而定 ## 价格与可用性 ### 定价信息 GPT Image 1.5 比前代 GPT-Image-1 降价 **20%**,具体定价如下: | 质量档位 | 分辨率示例 | 每张价格 | 适用场景 | | ------------ | ------------- | ------ | ---------- | | **Low** | 1024x1024 | \$0.01 | 快速原型、测试迭代 | | **Standard** | 1024x1024 | \$0.04 | 常规设计、内容创作 | | **HD** | 1024x1024 及以上 | \$0.17 | 高质量输出、商业用途 | **定价说明**: * 价格基于正方形图片(1024x1024)计算 * 不同尺寸的价格可能略有差异,详见官方文档 * 图片编辑功能与生成功能价格相同 * 数据来源:OpenAI 官方定价(2025年12月16日发布) ### 优惠活动 在 API易 使用 GPT Image 1.5,除了享受与官网一致的定价外,还可通过**充值活动**获得额外折扣: * 充值 \$100 可获赠额外额度 * 充值越多,赠送比例越高(最高可达8折优惠) * 详情请访问 API易 官网或联系客服 ### 购买渠道 GPT Image 1.5 已在以下渠道可用: 1. **API易 API 服务**(推荐) * 地址:`api.apiyi.com` * 支持 OpenAI SDK 直接调用 * 享受充值活动折扣 2. **ChatGPT 网页版** * 免费用户、Plus 用户、Enterprise 用户均可使用 * 在对话中直接请求生成或编辑图片 3. **OpenAI 官方 API** * 官网定价,无额外折扣 ## 总结与建议 GPT Image 1.5 是 OpenAI 在图片生成领域的一次重要升级,**4倍速度提升**、**精准编辑功能**和**20%降价**三大亮点使其成为目前市场上极具竞争力的图片生成模型。 ### 推荐使用场景 * ✅ **设计师和创作者**:利用精准编辑功能快速调整细节,避免重复生成 * ✅ **内容营销团队**:批量生成高质量配图,加速内容生产流程 * ✅ **开发者**:集成到应用中,为用户提供图片生成和编辑能力 * ✅ **电商从业者**:快速制作产品展示图、广告素材 ### 使用建议 1. **优先使用精准编辑**:对于需要微调的图片,使用编辑功能而非重新生成,节省成本和时间 2. **选择合适的质量档位**:测试和原型阶段使用 Low/Standard,正式发布使用 HD 3. **优化提示词**:详细的提示词能显著提升生成质量,减少重试次数 4. **利用充值活动**:在 API易 充值可享额外折扣,降低长期使用成本 **信息来源与日期**: * OpenAI 官方博客发布日期:2025年12月16日 * API易 接入上线日期:2025年12月17日 * 官方公告:`openai.com/index/new-chatgpt-images-is-here/` * 技术分析来源:TechCrunch、SiliconANGLE、VentureBeat 等科技媒体 *** 立即体验 GPT Image 1.5 的强大能力,访问 API易 官网获取 API 密钥,或在 ChatGPT 中直接使用! # gpt-image-2-all 上线:$0.03/张 GPT 官逆图像模型 Source: https://docs.apiyi.com/news/gpt-image-2-all-launch API易上线 GPT 图像生成官逆模型 gpt-image-2-all!$0.03/张按次计费,约30秒出图,支持文生图、多图融合编辑、自然语言改图,文字还原度高、中文提示词原生友好。 ## 核心要点 * **官逆通道稳定**:GPT 图像生成官方逆向模型,行为对齐官方能力 * **极具竞争力定价**:统一 \$0.03/张,无分辨率阶梯,成本完全可预测 * **三大能力覆盖**:文生图 / 单图编辑 / 多图融合 / 自然语言改图,一站到位 * **文字还原度高**:招牌、海报、信息图中的中英文字渲染稳定 * **中文提示词原生**:无需翻译即可获得高质量输出 * **30 秒出图**:约 30 秒返回,R2 CDN 加速下载 ## 背景介绍 2026 年 4 月,API易 正式上线 **gpt-image-2-all** —— 一款 GPT 图像生成的\*\*官方逆向(官逆)\*\*模型。在官方 GPT-Image-1.5 走阶梯计费、单张高质量图成本可达 \$0.20 的背景下,gpt-image-2-all 以 **统一 \$0.03/张** 的按次计费方式,为需要"成本可控 + 文字强 + 中文友好"的场景提供了更经济的选择。 对于大量面向中文用户的信息图、营销海报、社交媒体内容生产场景,这是一个在保留 GPT 图像生成风格基础上,把单张成本拉到一个全新水位的选择。 ## 详细解析 ### 新增模型 **GPT 图像生成官逆模型** 统一 \$0.03/张,约 30 秒出图,支持文生图、单图编辑、多图融合、自然语言改图。无需关心 size/n/quality 等参数,尺寸与风格全部写进 prompt 即可。 ### 模型对比 | 特性 | **gpt-image-2-all** | GPT-Image-1.5(官转) | Nano Banana 2 | | ----- | ------------------- | ----------------------- | ---------------- | | 通道性质 | 官方逆向 | 官方直连 | 官方直连 | | 计费方式 | 统一按次 | 按分辨率阶梯 + Token | 按次 / 按量 | | 典型价格 | **\$0.03/张** | 低 \$0.009 \~ 高 \$0.20/张 | \$0.055/次 | | 出图速度 | 约 30 秒 | 约 10 秒 | 约 5-15 秒 | | 尺寸控制 | 通过 prompt 描述 | `size` 参数 | `aspectRatio` 参数 | | 中文提示词 | ✅ 原生友好 | ✅ 支持 | ✅ 支持 | | 文字渲染 | ✅ 高还原度 | ⭐⭐⭐⭐⭐ 最强 | ⭐⭐⭐⭐ 优秀 | | 多图融合 | ✅ `image[]` 数组 | ✅ 编辑接口 | ✅ inlineData | | 内容限制 | 较少 | 较严格 | 中等 | **选择建议**: * 💰 **成本敏感、中文场景** → gpt-image-2-all(\$0.03/张统一价) * 🎨 **极致文字渲染、官方直连** → GPT-Image-1.5 * 🍌 **4K 大图、14 种比例** → Nano Banana 2 ### 三端点兼容 gpt-image-2-all 同时兼容三个标准 OpenAI 风格端点: 1. **文生图**:`POST /v1/images/generations`(JSON) 2. **图片编辑**:`POST /v1/images/edits`(multipart/form-data) 3. **对话式**:`POST /v1/chat/completions`(适合多轮 + 参考图) 可以无缝复用已有的 OpenAI SDK 和工作流,只需切换 `base_url` 和 `model` 即可。 ### 重要注意事项 **不接受 size/n/quality/aspect\_ratio 字段** 本模型为自适应模型,传入这些字段可能触发参数校验错误。**尺寸和比例请直接写进 `prompt`**,并把尺寸词放在提示词最前面,模型遵循度更高。 推荐写法示例: * `横版 16:9 电影画幅,黄昏时的海边老灯塔` * `1024×1024 方形 LOGO,极简猫咪线条` * `竖版 9:16 手机海报,赛博朋克雨夜` **b64\_json 字段已含 data URL 前缀** 与部分旧版 OpenAI 兼容模型不同,本模型返回的 `b64_json` 字段已经包含 `data:image/png;base64,` 前缀,可直接用作 HTML ``。**请不要再手动拼接前缀**,否则会产出损坏的 data URL。 建议先用 `startsWith('data:')` 做兼容性检测。 ## 实际应用 ### 快速开始(Python) ```python theme={null} import requests response = requests.post( "https://api.apiyi.com/v1/images/generations", headers={"Authorization": "Bearer sk-your-api-key"}, json={ "model": "gpt-image-2-all", "prompt": "横版 16:9 电影画幅,黄昏时的海边老灯塔", "response_format": "url" }, timeout=300 # 保守值,吸收长尾 + 图片上传/下载耗时 ).json() print(response["data"][0]["url"]) ``` ### 多图融合(cURL) ```bash theme={null} curl -X POST "https://api.apiyi.com/v1/images/edits" \ -H "Authorization: Bearer sk-your-api-key" \ -F "model=gpt-image-2-all" \ -F "prompt=把图1的人物放进图2的场景,参考图3的画风" \ -F "response_format=url" \ -F "image[]=@./ref1.png" \ -F "image[]=@./ref2.png" \ -F "image[]=@./ref3.png" ``` ### 适用场景 海报、直播封面、社交媒体图文,中文文字渲染稳定 多图融合生成产品场景图,比合成软件更灵活 带文字标注的信息图,成本远低于官方 high 质量 无需蒙版,通过自然语言描述迭代修改画面 ## 价格与可用性 | 项目 | 详情 | | --------- | -------------------- | | **模型名** | `gpt-image-2-all` | | **定价** | \$0.03 / 张,按次计费 | | **计费规则** | 统一定价,不区分分辨率/质量/提示词长度 | | **失败请求** | 不计费(鉴权失败、参数校验失败) | | **N 张生成** | 单次 1 张,N 张请客户端并行调用 | | **充值优惠** | 可叠加充值加赠活动 | **接入即可使用**:已有 API易 令牌可直接调用,无需特殊开通。 ## 总结与建议 gpt-image-2-all 的核心价值是 **"GPT 风格 + 中文友好 + 成本可预测"**: * ✅ 如果你的业务大量产出中文内容营销物料 → 推荐作为**主力生图通道** * ✅ 如果对文字渲染有极致要求 → 可作为 **GPT-Image-1.5 的补充**(成本敏感任务走 gpt-image-2-all,极致文字任务走 1.5) * ⚠️ 如果对分辨率/宽高比有严格参数化控制需求 → 更推荐 **Nano Banana 2**(支持 14 种宽高比、4K 输出) 立即开始使用: 查看完整能力说明与最佳实践 在线调试文生图接口 上传图片实测改图/融合 查看最新充值加赠活动 # OpenAI gpt-image-2 正式上线:原生 4K + 降价 30% Source: https://docs.apiyi.com/news/gpt-image-2-launch OpenAI 旗舰图像生成模型 gpt-image-2 震撼发布!原生支持 2K/4K 任意分辨率、参考图自动高保真、价格较 1.5 降低 20-30%。API易已同步上线,OpenAI SDK 零改动直连。 ## 核心要点 * **🖼️ 原生 2K/4K**:单次出图最大 3840×2160(约 8.3MP),不再需要外挂超分 * **🎯 参考图自动高保真**:编辑/融合自动启用 high-fidelity,无需手动设 `input_fidelity` * **💰 同档降价 20-30%**:相比 `gpt-image-1.5` 同尺寸 + 同画质,token 成本明显下降 * **🌏 中文提示词原生支持**:无需翻译即可获得高质量结果,文字渲染更稳 * **🔌 OpenAI SDK 零改动**:把 `base_url` 指向 `api.apiyi.com/v1` 即可直接调用 * **🛠️ 能力齐全**:文生图 / 参考图编辑 / 多图融合(最多 5 张)/ mask 局部重绘 ## 背景介绍 2026 年 4 月,OpenAI 正式发布 **gpt-image-2**,作为 `gpt-image-1.5` 的旗舰升级版。这是 OpenAI 在图像生成赛道的又一次结构性提速:上一代 `gpt-image-1.5` 主打"速度提升 4 倍 + 精准编辑",而这一代把焦点放到了**分辨率上限**与**单位成本**两个长期痛点上。 `gpt-image-2` 最直接的变化是**任意合法尺寸**——只要满足"最大边 ≤ 3840px、两边都是 16 的倍数、长短比 ≤ 3:1、总像素 0.65MP–8.3MP"四个约束,就能直接出图。这意味着 4K 横屏壁纸、1792×1024 电影画幅、3200×1800 信息图等以往需要超分后处理的尺寸,现在一次出图就能拿到。 API易团队在第一时间完成了模型接入,OpenAI 官方 SDK 仅需修改 `base_url` 即可直接调用 `gpt-image-2`,零代码改动迁移。 ## 详细解析 ### 核心特性 支持任意合法尺寸输出,预设涵盖 1K / 2K / 3840×2160 4K,自定义尺寸只需满足边长 16 倍数、比例 ≤ 3:1 等基本约束。 编辑场景下自动启用 high-fidelity 处理,参考图细节、人物身份、文字内容保留度大幅提升。**无需也不能**再传 `input_fidelity` 参数。 1024×1024 高画质从 1.5 时代的 \$0.25 级别降到 \$0.211/张,2K/4K 按 token 实计但同样下行,长期使用成本明显降低。 中文提示词原生支持,招牌、海报、UI 截图等场景的中英文文字渲染稳定,`high` 档位下精细文字几乎不糊。 ### 性能与规格 | 维度 | gpt-image-2 | | --------- | ------------------------------------- | | 输出分辨率 | 任意合法尺寸(1K/2K/4K,最大 3840×2160) | | 画质档位 | `auto` / `low` / `medium` / `high` | | 输出格式 | `png`(默认) / `jpeg` / `webp` | | 单次出图 | 1 张(`n=1`) | | 速度 | 约 120 秒(高画质 4K 接近 2 分钟) | | 中文提示词 | ✅ 原生支持 | | 参考图上限 | 5 张(`image[]`) | | mask 局部重绘 | ✅ 支持(要求带 alpha 通道) | | 透明背景 | ❌ 暂不支持(`background: transparent` 会报错) | ### 与 gpt-image-1.5 的关键差异 | 对比项 | gpt-image-1.5 | **gpt-image-2** | | ------ | -------------------- | ------------------- | | 最大分辨率 | 1024×1536 | **3840×2160(4K)** | | 自定义尺寸 | 受限的几个预设 | **任意合法尺寸** | | 参考图高保真 | 需手动 `input_fidelity` | **自动启用** | | 同档价格 | 基准 | **降低 20-30%** | | 透明背景 | ✅ 支持 | ❌ 暂不支持 | | 出图速度 | 约 30 秒 | 约 120 秒(换更大尺寸/更高保真) | 超过 `2560×1440`(约 3.69MP)的输出目前官方标记为**实验性**,可能出现质量波动。生产环境建议优先用预设尺寸:`2048x1152` / `2048x2048` / `3840x2160` 等。 ## 实际应用 ### 推荐场景 一次出图直达 4K(3840×2160 / 2160×3840),适合电影海报、桌面壁纸、视频预览图、大屏物料等以往要走超分管线的场景。 参考图自动高保真,传入角色立绘后做不同场景的二次创作,人物身份、服饰、配色保留度显著提升。 最多 5 张参考图 + mask 软引导,支持"图1人物 + 图2场景 + 图3风格"这类复合编辑指令。 支持 3:1 内的任意比例,1792×1024 电影画幅、3200×1800 长图、2048×1152 视频封面均可一次成图。 ### 代码示例 #### 文生图(Python,OpenAI SDK 直连) ```python theme={null} from openai import OpenAI import base64 client = OpenAI( api_key="your-apiyi-api-key", base_url="https://api.apiyi.com/v1" ) resp = client.images.generate( model="gpt-image-2", prompt="赛博朋克城市雨夜,霓虹招牌特写,电影画幅", size="2048x1152", quality="high", output_format="jpeg", output_compression=85 ) with open("out.jpg", "wb") as f: f.write(base64.b64decode(resp.data[0].b64_json)) ``` #### 多图融合 + 高保真编辑 ```python theme={null} resp = client.images.edit( model="gpt-image-2", image=[ open("person.png", "rb"), open("scene.png", "rb"), open("style.png", "rb"), ], prompt="把图1人物放进图2场景,沿用图3的色彩风格", size="1536x1024", quality="high" ) with open("edited.png", "wb") as f: f.write(base64.b64decode(resp.data[0].b64_json)) ``` **响应格式说明**:`gpt-image-2` 返回的是**纯 base64 字符串**(无 `data:image/...;base64,` 前缀),需要客户端自行 decode 写文件,或在浏览器端拼前缀渲染。 ### 最佳实践 **生产环境建议**: * 尺寸优先选官方预设(1024×1024 / 1536×1024 / 2048×1152 / 3840×2160 等),速度和质量更稳定 * 默认 `output_format=jpeg` + `output_compression=85`,比 PNG 快且体积小一半以上 * 文字 / 招牌 / 海报场景锁 `quality=high`,低档位文字仍可能糊 * 客户端超时建议 **360 秒起步**(保守值;`quality=high` + 2K/4K 实测可能 3-5 分钟,按 120 秒配会大量误超时) * 5xx 与超时做指数退避,最多重试 2 次;记录 `x-request-id` 便于排障 **迁移注意**: * 原先传了 `input_fidelity` 的代码必须**移除该参数**,新模型强制高保真,传了会报错 * 原先用 `background: "transparent"` 的代码暂不可用,需改用 `opaque` 或后处理抠透明 * 单次仍只能出 1 张(`n=1`),需要多张请并发调用 ## 价格与可用性 ### 定价信息(按 token 实计,常用预设参考价) | 画质 | 1024×1024 | 1024×1536 | 1536×1024 | | ---------- | --------- | --------- | --------- | | **Low** | \$0.006 | \$0.005 | \$0.005 | | **Medium** | \$0.053 | \$0.041 | \$0.041 | | **High** | \$0.211 | \$0.165 | \$0.165 | **定价说明**: * 2K/4K 无固定每张价,按输入 + 输出 token 实计 * 编辑场景因强制高保真,输入 token 会明显高于纯文生图 * 流式出图(`stream: true` + `partial_images: N`)每张 partial 额外消耗 100 个输出 image token * 数据来源:OpenAI 官方定价(2026年4月) ### 叠加网站充值活动 在 API易 使用 `gpt-image-2`,除享受与官网一致的按 token 计价外,还可叠加充值活动赠送额度,最高可达 8 折。详情见: 📖 充值活动说明:`docs.apiyi.com/faq/recharge-promotions` ### 与 gpt-image-2-all(官逆)的选型 | 选 | 场景 | | ----------------------- | ------------------------------------ | | **gpt-image-2**(官方) | 需要精确控制 size / quality、对官方契约有强依赖、要 4K | | **gpt-image-2-all**(官逆) | 追求统一价 \$0.03/张、约 30 秒出图、参数极简 | ## 总结与建议 `gpt-image-2` 把"原生大分辨率 + 自动高保真 + 同档降价"三件事一次给齐,对**大图物料生产**和**带参考图的二创编辑**两类场景是结构性升级。 ### 推荐使用场景 * ✅ **设计 / 视频团队**:直接出 4K 海报、视频封面、桌面壁纸,省掉超分后处理 * ✅ **IP / 角色一致性**:参考图自动高保真,做角色二创、不同场景延展 * ✅ **多图融合工作流**:最多 5 张参考图 + mask,复合编辑指令一次到位 * ✅ **从 1.5 平滑迁移**:删掉 `input_fidelity`、避开 `transparent`,其它字段不动即可跑通 ### 使用建议 1. **不需要 4K 时仍用 1K 预设**:1024×1024 /1536×1024 出图最快,成本最低 2. **编辑请求预算要留足**:因强制高保真,输入 token 会明显高于纯文生图 3. **超时配置 ≥ 360 秒**:`quality=high` + 2K/4K 实测可能 3-5 分钟,前端务必给进度反馈 4. **走预设尺寸更稳**:超过 2560×1440 仍属实验性,生产环境慎用 **信息来源与日期**: * OpenAI 官方文档:`developers.openai.com/api/docs/guides/image-generation` * API易 接入文档:`docs.apiyi.com/knowledge-base/gpt-image-2-API-for-user` * 数据获取日期:2026年4月23日 *** 立即体验 `gpt-image-2` 的原生 4K 出图能力,访问 API易 官网获取 API 密钥,OpenAI SDK 直接 `base_url=https://api.apiyi.com/v1` 即可调用! # Grok 4.20 Beta 系列上线:四智能体协作架构,200 万上下文 Source: https://docs.apiyi.com/news/grok-4-20-beta-launch xAI 发布 Grok 4.20 Beta 系列 4 款模型,采用四智能体协作架构,200 万 token 上下文,统一定价输入 $2 / 输出 $6 每百万 tokens。API易已全面上架。 ## 核心要点 * **四智能体架构**:Grok 4.20 的核心创新——4 个专业智能体并行思考、相互辩论后输出最终答案,幻觉率降低约 65% * **200 万上下文**:相比 Grok 4 的 256K,上下文窗口提升 8 倍至 200 万 tokens * **4 款模型覆盖全场景**:推理版、多智能体版、基础版、非推理版,满足从极速响应到深度研究的各类需求 * **统一低价**:输入 \$2 / 输出 \$6 每百万 tokens,比 Grok 4(\$3/\$15)大幅降价 * **多模态输入**:支持文本 + 图片(JPG、PNG)输入 ## 背景介绍 2026 年 2 月 17 日,xAI 在 `grok.com` 上首次发布 Grok 4.20 Beta 消费端产品,3 月 9-10 日正式开放 API 访问,包含 3 个独立模型变体。Grok 4.20 是 Grok 系列的重大升级,从单一模型架构演进为多智能体协作系统。 Grok 4.20 的核心创新在于四智能体协作架构:Grok(队长/协调者)、Harper(研究与事实核查)、Benjamin(逻辑/数学/编程专家)、Lucas(创意综合与"唱反调"角色)。四个智能体并行运作、相互辩论,最终输出更准确、更全面的答案。 API易已在第一时间上架全部 4 款模型,统一定价与 xAI 官网一致。 ## 详细解析 ### 4 款模型对比 | 模型 | 定位 | 适用场景 | | ----------------------------------- | ------ | ----------------- | | `grok-4.20-beta` | 基础通用版 | 日常对话、内容生成、通用任务 | | `grok-4.20-beta-0309-reasoning` | 推理增强版 | 复杂逻辑、多步数学、科学推理、编程 | | `grok-4.20-beta-0309-non-reasoning` | 极速非推理版 | 低延迟场景、简单问答、分类任务 | | `grok-4.20-multi-agent-beta-0309` | 多智能体版 | 深度研究、复杂多步工作流、协作任务 | ### 核心特性 Grok(协调者)、Harper(研究)、Benjamin(逻辑)、Lucas(创意),并行思考相互辩论 上下文窗口 200 万 tokens,是 Grok 4(256K)的 8 倍 多智能体协作使幻觉率从约 12% 降至约 4.2%,降幅约 65% 输入 \$2 / 输出 \$6 每百万 tokens,比 Grok 4 降价约 60% ### 性能数据 以下数据来源于 Artificial Analysis 等第三方评测平台,xAI 官方尚未发布完整 benchmark 数据。 | 指标 | 推理版 | 非推理版 | Grok 4(参考) | | ----------- | --------- | ----------- | ---------- | | **AA 智能指数** | 48 | 30 | 42 | | **输出速度** | \~231 t/s | \~232.5 t/s | — | | **上下文窗口** | 200 万 | 200 万 | 25.6 万 | | **输入价格** | \$2/百万 | \$2/百万 | \$3/百万 | | **输出价格** | \$6/百万 | \$6/百万 | \$15/百万 | ### 多智能体版特别说明 `grok-4.20-multi-agent-beta-0309` 内置了多种工具能力: * **web\_search**:网页搜索 * **x\_search**:X(Twitter)实时数据搜索 * **code\_execution**:代码执行 * **collections\_search**:知识库搜索 API 调用时只返回主智能体的最终响应,子智能体的中间推理过程默认不暴露。 ## 实际应用 ### 代码示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) # 推理版 - 适合复杂逻辑任务 response = client.chat.completions.create( model="grok-4.20-beta-0309-reasoning", messages=[ {"role": "user", "content": "分析以下代码的时间复杂度并给出优化方案..."} ] ) print(response.choices[0].message.content) ``` ```python theme={null} # 非推理版 - 适合低延迟场景 response = client.chat.completions.create( model="grok-4.20-beta-0309-non-reasoning", messages=[ {"role": "user", "content": "将以下文本翻译为英文:..."} ] ) print(response.choices[0].message.content) ``` ### 推荐使用场景 数学竞赛题、科研分析、复杂编程、多步逻辑推理 快速问答、文本分类、翻译、数据提取 日常对话、内容创作、通用助手 深度研究报告、复杂调研、需要多角度分析的任务 ## 价格与可用性 ### 定价信息 | 模型 | 输入价格 | 输出价格 | 计费方式 | | ----------------------------------- | --------------- | --------------- | ---- | | `grok-4.20-beta` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 | | `grok-4.20-beta-0309-reasoning` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 | | `grok-4.20-beta-0309-non-reasoning` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 | | `grok-4.20-multi-agent-beta-0309` | \$2 / 百万 tokens | \$6 / 百万 tokens | 按量付费 | ### 叠加网站充值活动 充值加赠活动同样适用,详见 [充值优惠说明](/faq/recharge-promotions)。 ## 总结与建议 Grok 4.20 Beta 系列的核心亮点在于四智能体协作架构和 200 万超长上下文。虽然在 AA 智能指数上(48)尚不及 Gemini 3.1 Pro(57)和 GPT-5.4(57),但其独特的多智能体协作机制在降低幻觉、提升复杂任务准确性方面表现突出。统一 \$2/\$6 的定价也非常有竞争力。 Grok 4.20 目前仍处于 Beta 阶段,xAI 表示每天都在修复 bug 和改进。建议在生产环境中做好容错处理。 信息来源:xAI 官方文档 `docs.x.ai`、Artificial Analysis 评测数据、xAI 发布公告。数据获取时间:2026 年 3 月。 # Grok 4.3 上线:xAI 全新旗舰,输入降 37.5% / 输出降 58.3% Source: https://docs.apiyi.com/news/grok-4-3-launch xAI 于 2026 年 4 月 30 日发布 Grok 4.3,Intelligence Index 53、GDPval-AA ELO 1500、τ²-Bench 98%、IFBench 81%,速度 159 tokens/s。挂牌仅 \$1.25/\$2.50 每百万 tokens,全分组可用,叠加充值赠 10% 后约官网 85 折。 ## 核心要点 * **xAI 全新旗舰**:4 月 30 日发布的 Grok 4.3,定位"幻觉率最低、Agent 工具调用最强、指令遵循最好" * **大降价**:输入价格较 Grok 4.20 0309 v2 降 **37.5%**、输出降 **58.3%**,整体跑评测预算下降约 20% * **响应飞快**:159 tokens/s 输出速度,远超同价位推理模型中位数 64.6 t/s * **百万级上下文 + 多模态**:1M tokens 上下文,文本 + 图片输入,always-on reasoning(推理常开不可关) * **全分组可用**:Default、SVIP 等常用分组均开放,**充值 100 美金赠 10%,相当于官网 85 折** ## 背景介绍 2026 年 4 月 30 日 (UTC+8),xAI 发布 **Grok 4.3**,作为 Grok 4.20 之后的下一代旗舰。这个版本最大的亮点不是"刷榜",而是**性价比的整体跃迁**:在 Artificial Analysis Intelligence Index 上拿到 53 分,跑完一次完整评测套件成本仅 \$395,比 Grok 4.20 0309 v2 低约 20%。 xAI 给出的官方定位是"业界领先的非幻觉率(non-hallucination rate)、Agent 工具调用、指令遵循"——三个维度都瞄准生产级 Agent 场景。性能上 Grok 4.3 在 Intelligence Index 综合排名上略超 Claude Sonnet 4.6,单项最大跃升发生在 GDPval-AA 评测:ELO 从 Grok 4.20 v2 的 1179 直接拉到 **1500**,单代提升 321 分。 API易已上线 Grok 4.3,**Default、SVIP 等常用用户分组均可调用**——价格亲民、风险可控,无需像 GPT-5.5 Pro 那样限制分组。叠加充值加赠 10% 后,综合成本约官网 85 折。 ## 详细解析 ### 核心特性 τ²-Bench Telecom 达 98%,IFBench 81%,复杂工具链与多步代理任务表现稳定 AA-Omniscience Accuracy 较上代 +8 分,xAI 自评"非幻觉率"业界领先 159 tokens/s 输出,是同价位推理模型中位数(64.6 t/s)的 2.5 倍 1M tokens 上下文窗口,支持文本 + 图片输入,Always-on Reasoning ### 性能亮点 | 评测项目 | Grok 4.3 | Grok 4.20 v2 | 变化 | | --------------------------- | ----------- | ------------ | -------- | | **Intelligence Index** | **53** | 49 | +4 | | **GDPval-AA (ELO)** | **1500** | 1179 | **+321** | | **τ²-Bench Telecom** | **98%** | — | 业界领先 | | **IFBench** | **81%** | — | 指令遵循 | | **AA-Omniscience Accuracy** | +8 vs v2 | 基线 | 准确率提升 | | **输出速度** | **159 t/s** | 较低 | 大幅提升 | | **跑完 Index 评测成本** | **\$395** | \~\$494 | -20% | 数据来源:xAI 官方公告、Artificial Analysis 独立评测(2026 年 4 月 30 日)。Intelligence Index 综合多项基准,可作为模型综合智能的参考指标。 ### 技术规格 | 参数 | Grok 4.3 | | ---------- | ---------------------------- | | **模型名称** | `grok-4.3` | | **上下文窗口** | 1,000,000 tokens | | **最大输出** | 无显式上限(按上下文余量) | | **输入模态** | 文本 + 图片 | | **推理模式** | Always-on Reasoning(常开,不可关闭) | | **输出速度** | \~159 tokens/s | | **API 端点** | `/v1/chat/completions` | | **可用分组** | **Default、SVIP** 等常用分组 | ## 实际应用 ### 推荐场景 Grok 4.3 的"高速 + 低价 + 强 Agent"组合特别适合: 1. **生产级 Agent 工作流**:高频工具调用、多步规划、需要稳定指令遵循的场景 2. **大规模文档处理**:1M 上下文 + 159 t/s 速度,长文档摘要、跨文件审计跑得快 3. **客服 / Telecom 类对话**:τ²-Bench Telecom 98% 表明在工单、技术问答类工具调用任务上表现强 4. **多模态分析**:图片 + 文本混合输入,适合截图分析、图表解读 5. **成本敏感的高 QPS 应用**:单价低 + 速度快,用 Grok 4.3 替代部分 GPT-5.4 / Claude Sonnet 场景可显著降本 ### 代码示例 #### 标准调用 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="grok-4.3", messages=[ {"role": "user", "content": "帮我分析这份客户工单并生成处理方案"} ], max_tokens=4096 ) print(response.choices[0].message.content) ``` #### 多模态调用(图片 + 文本) ```python theme={null} response = client.chat.completions.create( model="grok-4.3", messages=[ { "role": "user", "content": [ {"type": "text", "text": "这张截图里的报错是什么原因?"}, {"type": "image_url", "image_url": {"url": "https://example.com/error.png"}} ] } ] ) print(response.choices[0].message.content) ``` #### Agent 工具调用 ```python theme={null} tools = [ { "type": "function", "function": { "name": "query_order_status", "description": "查询客户订单状态", "parameters": { "type": "object", "properties": {"order_id": {"type": "string"}}, "required": ["order_id"] } } } ] response = client.chat.completions.create( model="grok-4.3", messages=[{"role": "user", "content": "帮我查询订单 #A1024 的状态"}], tools=tools, tool_choice="auto" ) ``` ### 最佳实践 1. **Agent 场景首选**:τ²-Bench / IFBench 数据显示 Grok 4.3 在工具调用、指令遵循上有明显优势,比通用模型更适合 Agent 2. **关注 200K 上下文阶梯**:超过 200K 后 input/output 单价翻倍,长文档场景注意控制传入长度 3. **always-on reasoning 是默认行为**:推理 token 计入输出账单,简单任务也会有少量推理消耗 4. **速度优先的对话场景**:159 t/s 的吞吐让 Grok 4.3 适合"边生成边渲染"的实时聊天 5. **充值加赠摊薄成本**:API易充值 100 美金赠 10%,叠加挂牌价相当于官网 85 折 ## 价格与可用性 ### 定价信息(阶梯计费) | 上下文区间 | 输入价格 | 输出价格 | 备注 | | ------------------- | ------------------ | ------------------ | ------------- | | **0 – 200K tokens** | \$1.25 / 百万 tokens | \$2.50 / 百万 tokens | 标准段,对齐 xAI 官网 | | **200K – ∞ tokens** | \$2.50 / 百万 tokens | \$5.00 / 百万 tokens | 长上下文段,2x 溢价 | grok-4.3 阶梯计费表:0-200K 输入 $1.25 输出 $2.50;200K-∞ 输入 $2.50 输出 $5.00 ### 与近期模型价格对比 | 模型 | 输入 | 输出 | 速度 | 综合定位 | | ----------------- | ---------- | ---------- | ----------- | -------------- | | **Grok 4.3** | **\$1.25** | **\$2.50** | **159 t/s** | 高速 Agent 性价比之选 | | Grok 4.20 | \$2.00 | \$6.00 | 较低 | 上代旗舰 | | Claude Sonnet 4.6 | \$3.00 | \$15.00 | 中等 | 编程通用 | | GPT-5.5 | \$5.00 | \$30.00 | 中等 | 前沿推理 | | Gemini 3 Pro | \$2.00 | \$12.00 | 较高 | 多模态 | Grok 4.3 在 \$1.25/\$2.50 的价位段几乎没有同档对手——同性能模型基本都贵 2-10 倍。性价比是当前最大卖点。 ### 叠加网站充值活动 API易 提供充值加赠优惠:充 \$100 赠 10%,叠加挂牌价后综合成本相当于 xAI 官网约 85 折,长期使用更划算。 ### 可用模型与分组 | 模型名称 | 通道 | 可用分组 | 说明 | | ---------- | -------- | ---------------------- | ----------- | | `grok-4.3` | xAI 官方直转 | **Default、SVIP** 等常用分组 | 当前最新,自动跟随官网 | ### 购买渠道 * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 兼容 OpenAI 原生 SDK,仅需替换 `base_url` 与 `api_key`、`model` 改为 `grok-4.3` ## 总结与建议 Grok 4.3 是 xAI 当前最有性价比的旗舰:**\$1.25 / \$2.50 + 159 t/s + 1M 上下文 + 强 Agent 能力**,这套组合在 \$1-3 输入价位段几乎找不到对手。 **适合升级 / 切换到 Grok 4.3 的场景**: * 已经在用 Grok 4.20 / Claude Sonnet 4.6 / GPT-5.4 mini 做 Agent 类任务,可优先评估迁移 * 高频工具调用、客服自动化、Telecom 类工单处理 * 成本敏感、QPS 要求高的实时对话产品 * 需要图片输入的多模态分析 **暂不需要切换的场景**: * 已在使用 GPT-5.5 / Claude Opus 4.7 做最难推理任务(Grok 4.3 智能上限相对较低) * 强依赖 OpenAI / Anthropic 特定 API 能力(如 OpenAI 函数 schema 严格行为) * 已稳定用 GPT-5.4 / Gemini 3 Pro 跑业务,迁移收益不明显 API易 已开放 Grok 4.3 的 **Default、SVIP 等常用用户分组**,价格亲民、速度快、风险可控。叠加充值加赠 10% 后约官网 85 折。建议先用小流量在自家真实场景跑对比,验证效果后逐步替换。 信息来源:xAI 官方 API 文档(docs.x.ai)、Artificial Analysis 独立评测、VentureBeat 与 The Decoder 报道。数据获取时间:2026 年 5 月 3 日 (UTC+8)。 # Kimi K2.6 上线:开源旗舰 Agent 编程登顶 Source: https://docs.apiyi.com/news/kimi-k2-6-launch 月之暗面 Kimi K2.6 上线 API易!1T MoE / 32B 激活、256K 上下文、SWE-Bench Pro 58.6 反超 GPT-5.4 与 Claude Opus 4.6,通过华为云官转通道接入,\$0.60 输入 / \$2.40 输出每 1M tokens,比官网 6.5 / 27 元人民币约 6 折。 ## 核心要点 * **开源最强 Agent 编程模型**:`kimi-k2.6` 正式上线 API易,MoE 架构,1T 总参 / 32B 激活,Modified MIT 协议开源 * **256K 超长上下文**:原生 256K tokens 上下文,天然适配代码库级任务与长程 Agent 调度 * **编程基准反超闭源旗舰**:SWE-Bench Pro 58.6,领先 GPT-5.4(57.7)、Claude Opus 4.6 Max(53.4)、Gemini 3.1 Pro(54.2) * **工程能力完备**:官方支持 **Function Call**、**前缀续写**(Prefix Continuation),方便构建严格结构化输出与多轮工具调用 * **华为云官转接入**:稳定性与官方直连一致,中文场景响应友好 * **价格直降约 4 成**:API易 挂牌 \$0.60 输入 / \$2.40 输出(每 1M tokens),相比官网 6.5 元输入 / 27 元输出约 **6 折** * **充值加赠**:叠加 API易 充值活动可进一步拉低实际成本 当前上架版本为**华为云官转通道**,模型基于 Moonshot 2026-04-20 开源的 Kimi K2.6 正式版。信息来源:`moonshotai/Kimi-K2` Hugging Face 仓库、`platform.moonshot.ai` 官方文档,数据获取日期:2026-04-25。 ## 背景介绍 K2 系列是月之暗面(Moonshot AI)面向 Agent 场景重点打造的开源旗舰线。K2.5 开启了"开源也能挑战闭源旗舰"的势头,K2.6 则把这条路线推到了新阶段——在代码与长程任务两个维度上,首次以开源模型的身份反超 GPT-5.4 与 Claude Opus 4.6。 2026 年 4 月 20 日,Moonshot 正式发布 Kimi K2.6,沿用 MoE 架构(1T 总参 / 32B 激活),把上下文统一拉到 **256K**,并显著强化了长程编码稳定性、指令遵循、自我纠错与 Agent 自主执行能力。K2.6 也是 K 系列中首个原生支持 Agent Swarm 调度(官方演示中可并行 300 子 Agent、协调 4000 步)的版本,面向"真实软件工程 / Coding Agent"这类高价值场景做了系统级优化。 对于中文开发者而言,这代模型的意义不止在分数:**在真实代码仓库、Claude Code / Cursor 类 Agent 工作流里,K2.6 的表现已经足以作为主力**,而价格又只是闭源旗舰的一个零头。 ## 详细解析 ### 核心特性 **1T 总参 / 32B 激活** 约 3.2% 的激活率,推理成本按"32B 级"付费,却能调度万亿参数的专家知识池。 **代码库级长文适配** 全量 256K tokens 上下文,适合整仓代码、长合同、研究报告、Agent 多步轨迹。 **长程编码 / 群体调度** 官方演示支持最高 300 子 Agent 并行、4000 协同步骤的 Agent Swarm 形态。 **Function Call + 前缀续写** 原生支持 Function Call(工具调用)与 Prefix Continuation(前缀续写),方便做结构化输出、格式约束与多轮接力。 ### 性能亮点 以下数据来源于 Moonshot 官方评测报告与第三方公开基准: | 评测维度 | Kimi K2.6 | GPT-5.4 | Claude Opus 4.6 Max | Gemini 3.1 Pro | 前代 K2.5 | | ------------------------- | ------------- | ------- | ------------------- | -------------- | ------- | | SWE-Bench Pro(真实软工) | **58.6** | 57.7 | 53.4 | 54.2 | 50.7 | | Humanity's Last Exam(含工具) | **54.0** | 52.1 | 53.0 | 51.4 | — | | 长程编码稳定性 | 显著增强 | — | — | — | 基准 | | 自主 Agent 步数上限 | 4000 步(Swarm) | — | — | — | — | K2.6 是目前**首个在 SWE-Bench Pro 上超过 GPT-5.4 与 Claude Opus 4.6 Max 的开源模型**,且对开源权重没有额外限制,这对自研 Agent 团队非常关键。 ### 技术规格 * **模型 ID**:`kimi-k2.6` * **架构**:Mixture-of-Experts(MoE) * **总参数量**:1T(1 万亿) * **激活参数**:32B(每 token 激活约 3.2%) * **上下文长度**:256K tokens(原生) * **工具调用**:✅ Function Call * **前缀续写**:✅ Prefix Continuation * **接口兼容**:OpenAI ChatCompletions 兼容 * **通道**:华为云官转 * **开源协议**:Modified MIT(权重公开,商用友好) Function Call 与前缀续写适合构建严格结构化输出(JSON / DSL / 指令流)。在做多工具并行调度时,建议客户端侧做好调用栈管理与错误回滚,以发挥 K2.6 的长程执行优势。 ## 实际应用 ### 推荐场景 SWE-Bench Pro 58.6 + 256K 上下文,整仓读代码、多文件重构、真实 PR 任务首选开源模型 官方原生支持大规模子 Agent 并行,适合研究向 Agent 框架、自动化流水线 Function Call + 前缀续写组合,保证 JSON / 工具参数 / DSL 输出严格可解析 256K 上下文一次吞下中大型仓库或长报告,减少切片与检索成本 ### 快速开始(OpenAI 兼容接口) ```python theme={null} from openai import OpenAI client = OpenAI( api_key="sk-your-apiyi-key", base_url="https://api.apiyi.com/v1" ) # 典型用法:Agent 编程 + 工具调用 resp = client.chat.completions.create( model="kimi-k2.6", messages=[ {"role": "system", "content": "你是一名资深全栈工程师,擅长在真实代码库中完成 PR 级任务。"}, {"role": "user", "content": "帮我把这个仓库的日志系统统一迁移到 structlog,并给出最小变更的 PR"} ], temperature=0.3, ) print(resp.choices[0].message.content) ``` ### 前缀续写(Prefix Continuation)示例 前缀续写非常适合"让模型顺着一段已写好的内容继续生成",在生成 JSON、SQL、代码补丁等严格结构时尤为好用: ```python theme={null} # 让模型严格从给定前缀继续补全(常用于结构化输出) resp = client.chat.completions.create( model="kimi-k2.6", messages=[ {"role": "user", "content": "请输出一个用户对象,仅返回 JSON"}, { "role": "assistant", "content": '{"id": 1, "name": "', } ], extra_body={"prefix": True}, # 开启前缀续写 temperature=0.2, ) print(resp.choices[0].message.content) ``` ### Function Call 示例 ```python theme={null} tools = [{ "type": "function", "function": { "name": "search_repo", "description": "在指定仓库里按关键词检索代码", "parameters": { "type": "object", "properties": { "repo": {"type": "string"}, "query": {"type": "string"} }, "required": ["repo", "query"] } } }] resp = client.chat.completions.create( model="kimi-k2.6", messages=[{"role": "user", "content": "在 apiyi/core 仓库里找一下限流中间件的实现"}], tools=tools, tool_choice="auto", ) print(resp.choices[0].message.tool_calls) ``` ### 最佳实践 * **选型建议**:代码 / Agent / 严格结构化输出场景首选 `kimi-k2.6`;成本敏感或高并发对话可搭配 Flash 级模型做路由 * **长上下文**:256K 足够塞入中大型仓库,建议对输入做一轮裁剪 / 摘要再投喂,兼顾成本与召回 * **温度参数**:Agent / 代码场景建议 `temperature=0.2 ~ 0.4`,保留稳定性 * **流式输出**:长程任务建议开启 stream,改善用户感知延迟 * **工具调用稳健性**:给工具参数写清楚 schema,配合前缀续写可显著降低 JSON 解析失败率 ## 价格与可用性 ### 定价表(USD / 1M tokens) | 模型 | 计费类型 | 提示价格(输入) | 补全价格(输出) | 官网对应价(CNY/1M) | API易 相对官网 | | ----------- | ----------- | ------------ | ------------ | ------------- | --------- | | `kimi-k2.6` | 按量付费 - Chat | **\$0.6000** | **\$2.4000** | ¥6.5 / ¥27 | **约 6 折** | API易 通过**华为云官转**通道接入 Kimi K2.6,稳定性与月之暗面官方一致。相比官网 6.5 元人民币输入 / 27 元人民币输出(约合 \$0.90 / \$3.73),API易 挂牌价大致**打到 6 折左右**,中文团队可直接按美元计费平移,无需担心汇率波动。 ### 叠加网站充值活动 充值活动叠加之后,实际成本还能进一步拉低: 查看最新充值加赠规则,越大额加赠比例越高 ## 总结与建议 Kimi K2.6 把"开源旗舰能不能真上生产"这个问题,给出了一个相对明确的答案: * ✅ **基准反超**:SWE-Bench Pro 58.6,领先 GPT-5.4 / Opus 4.6 / Gemini 3.1 Pro * ✅ **工程友好**:Function Call + 前缀续写 + 256K 上下文三件套齐全,拿来就能做 Agent * ✅ **价格友好**:华为云官转 \$0.60 / \$2.40,相比官网 6.5 / 27 元人民币约 6 折,充值加赠后更低 * ✅ **开源权重**:Modified MIT,方便自研团队做离线评测 / 二次训练,与 API 调用双轨推进 **推荐迁移路径**: 1. 把现有 K2.5 / DeepSeek V3 的 Agent / 编程调用切一部分到 `kimi-k2.6` 做 A/B 2. 用前缀续写重构现有 JSON / 工具调用管线,降低解析失败率 3. 在 Claude Code / Cursor / 自研 Agent 里把 `kimi-k2.6` 作为"开源旗舰"兜底或主力选项 4. 搭配 API易 充值加赠,把单次 Agent 任务成本拉到闭源旗舰的 **1/5 \~ 1/4** **信息来源与日期** * Moonshot 官方发布:`moonshotai.github.io`、`platform.moonshot.ai` * 开源权重仓库:`huggingface.co/moonshotai/Kimi-K2` * 第三方报道与评测:`marktechpost.com`、`siliconangle.com`、`ithome.com/0/941/385.htm`、`linux.do/t/topic/2019847` * 数据获取日期:2026-04-25 # MiMo-V2 系列上线:小米万亿参数智能体模型,性能逼近 Opus 4.6 Source: https://docs.apiyi.com/news/mimo-v2-launch 小米发布 MiMo-V2-Pro(万亿参数推理模型)和 MiMo-V2-Omni(全模态理解模型),Pro 版性能逼近 Claude Opus 4.6 但价格仅为 1/6。API易已全面上架。 ## 核心要点 * **万亿参数**:MiMo-V2-Pro 总参数超 1 万亿,活跃参数 42B,MoE 架构 * **性能逼近顶级**:AA 智能指数 49(全球第 8),ClawEval 61.5 逼近 Opus 4.6(66.3),编码能力超越 Sonnet 4.6 * **价格仅 1/6**:Pro 版输入 \$1 / 输出 \$3 每百万 tokens,约为 GPT-5.2、Opus 4.6 的 1/6 * **全模态理解**:MiMo-V2-Omni 支持文本、图片、视频、音频输入,10+ 小时连续音频理解 * **100 万上下文**:Pro 版支持 100 万 token 上下文窗口 ## 背景介绍 2026 年 3 月 18-19 日,小米正式发布 MiMo-V2 系列基础模型。此前 MiMo-V2-Pro 曾以代号 "Hunter Alpha" 在 OpenRouter 上匿名测试,凭借出色表现引发广泛关注和猜测,最终小米确认了其身份。 MiMo-V2-Pro 定位为智能体基础模型,专为编排复杂工作流、工具调用和代码执行优化;MiMo-V2-Omni 则是统一多模态理解模型,原生处理文本/图片/视频/音频,号称首个支持 10+ 小时连续音频理解的全模态模型。 API易已在第一时间上架两款模型。 ## 详细解析 ### 核心特性 Pro 版总参数超 1T,活跃参数 42B,7:1 混合注意力比率 Pro 版 \$1/\$3 每百万 tokens,约为同级竞品的 1/6 Omni 版支持文本、图片、视频、音频四模态输入 Pro 版 100 万 token 上下文,最大输出 131,072 tokens ### MiMo-V2-Pro 性能数据 | 评测项目 | MiMo-V2-Pro | Claude Opus 4.6 | GPT-5.2 | 说明 | | ------------ | ------------- | --------------- | ------- | ---------------- | | **AA 智能指数** | **49** | — | — | 全球第 8,中国 LLM 第 2 | | **ClawEval** | **61.5** | 66.3 | 50.0 | 智能体评测 | | **编码能力** | 超越 Sonnet 4.6 | — | — | 代码生成与理解 | ### MiMo-V2-Omni 性能数据 | 评测项目 | MiMo-V2-Omni | 对比 | 说明 | | ------------------ | --------------- | ---------------- | ---------- | | **AA 智能指数** | **43** | 平均 14 | 远超同类 | | **BigBench Audio** | **94.0** | — | 音频理解 | | **MMAU-Pro** | **69.4** | — | 多模态音频理解 | | **图像理解** | 超越 Opus 4.6 | MMMU-Pro、CharXiv | 视觉推理 | | **音频理解** | 超越 Gemini 3 Pro | — | 环境音分类、多说话人 | ### 技术规格 | 规格 | MiMo-V2-Pro | MiMo-V2-Omni | | --------- | ------------------ | ----------------- | | **上下文窗口** | 1,000,000 tokens | 256,000 tokens | | **最大输出** | 131,072 tokens | — | | **输入模态** | 文本 + 图片 | 文本 + 图片 + 视频 + 音频 | | **输出模态** | 文本 | 文本 | | **架构** | MoE(1T+ 总参,42B 活跃) | 统一多模态 | | **特色** | 推理链、智能体工作流 | 10+ 小时连续音频理解 | ## 实际应用 ### 代码示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) # MiMo-V2-Pro - 适合复杂推理和编码任务 response = client.chat.completions.create( model="mimo-v2-pro", messages=[ {"role": "user", "content": "设计一个高并发消息队列系统的架构方案,要求支持百万级 TPS..."} ] ) print(response.choices[0].message.content) ``` ```python theme={null} # MiMo-V2-Omni - 多模态理解 response = client.chat.completions.create( model="mimo-v2-omni", messages=[ { "role": "user", "content": [ {"type": "text", "text": "描述这张图片中的内容"}, {"type": "image_url", "image_url": {"url": "https://example.com/image.png"}} ] } ] ) print(response.choices[0].message.content) ``` ### 推荐使用场景 复杂编码、智能体工作流、深度推理、长文档分析(100 万上下文) 视频内容理解、音频转写分析、多模态文档解析、图表分析 ## 价格与可用性 ### 定价信息 | 模型 | 输入价格 | 输出价格 | 说明 | | ---------------------- | ------------------ | ------------------ | --------- | | `mimo-v2-pro`(256K 内) | \$1.00 / 百万 tokens | \$3.00 / 百万 tokens | 推理模型,含思维链 | | `mimo-v2-pro`(256K-1M) | \$2.00 / 百万 tokens | \$6.00 / 百万 tokens | 超长上下文场景 | | `mimo-v2-omni` | \$0.40 / 百万 tokens | \$2.00 / 百万 tokens | 全模态理解 | MiMo-V2-Pro 的定价约为 Claude Opus 4.6 和 GPT-5.2 的 1/6,性价比极高。 ### 叠加网站充值活动 充值加赠活动同样适用,详见 [充值优惠说明](/faq/recharge-promotions)。 ## 总结与建议 MiMo-V2 系列是小米 AI 领域的重磅之作。Pro 版以万亿参数和 100 万上下文在智能体评测中逼近 Opus 4.6,但价格仅为其 1/6,性价比极其突出。Omni 版的全模态理解(尤其是 10+ 小时音频)在同类产品中独树一帜。 **推荐策略**:需要高性价比推理和编码时选 Pro,需要多模态理解(尤其音视频)时选 Omni。 MiMo-V2 系列刚发布不久,建议在生产环境中做好容错处理,关注后续更新。 信息来源:小米官方 `mimo.xiaomi.com`、Artificial Analysis 评测数据、OpenRouter 定价信息。数据获取时间:2026 年 3 月。 # MiniMax-M2.7 上线:10B 参数的自进化智能体模型,性价比惊人 Source: https://docs.apiyi.com/news/minimax-m2-7-launch MiniMax 发布 M2.7 和 M2.7-highspeed,仅 10B 活跃参数即达到 Tier-1 级别性能,SWE-bench Pro 56.22%,价格低至竞品的 1/50。API易已全面上架。 ## 核心要点 * **最小 Tier-1 模型**:仅 10B 活跃参数,SWE-bench Pro 56.22%、SWE-bench Verified 78%,媲美 Opus 级别性能 * **自进化能力**:业界首个深度参与自身训练进化的模型,自主完成 30-50% 的强化学习开发流程 * **原生多智能体**:内建 Agent Teams 协作能力,支持 40+ 复杂技能,技能遵循率达 97% * **极致性价比**:输入 \$0.30 / 输出 \$1.20 每百万 tokens,约为同级竞品的 1/50 * **双版本可选**:标准版和 highspeed 版输出质量完全一致,highspeed 速度约 100 TPS ## 背景介绍 2026 年 3 月 18 日,MiniMax 正式发布 M2.7 系列模型。M2.7 被称为「最小的 Tier-1 模型」,仅用 10B 活跃参数就在多项权威评测中达到了与 Claude Opus 4.6、GPT-5.3 Codex 等顶级模型相当的水平。 M2.7 最大的亮点是其「自进化」能力——它能自主触发日志分析、调试和指标评估,独立完成 30-50% 的自身强化学习开发流程,包括分析自身失败案例、重写部分代码、执行评估并决定保留或丢弃结果。 API易已上架 M2.7 和 M2.7-highspeed 两个版本,按量付费 Chat 类型。 ## 详细解析 ### 核心特性 业界首个深度参与自身训练的模型,自主处理 30-50% 的 RL 开发流程 内建 Agent Teams 协作,角色边界、对抗推理、协议遵循均为内化能力 仅 10B 活跃参数达到 Tier-1 水准,效率极高 管理 40+ 复杂技能(每个超 2000 tokens),遵循率 97% ### 性能评测 | 评测基准 | M2.7 得分 | 说明 | | ------------------ | ------- | ---------- | | SWE-bench Pro | 56.22% | 接近 Opus 级别 | | SWE-bench Verified | 78% | 软件工程能力强劲 | | VIBE-Pro | 55.6% | 端到端项目交付 | | Terminal Bench 2 | 57.0% | 复杂工程系统 | | MM Claw | 62.7% | 智能体任务 | | MLE Bench Lite | 66.6% | ML 竞赛获奖率 | | 技能遵循率 | 97% | 40+ 复杂技能 | 在 Artificial Analysis 智能指数中得分 **50**,与 GLM-5 并列,领先 MiMo-V2-Pro(49)和 Kimi K2.5(47),而输出 token 用量少 20%,成本仅为同级竞品的三分之一以下。 ### M2.7 vs M2.7-highspeed 两个版本**输出质量完全相同**,区别仅在速度和价格: | 对比项 | M2.7 标准版 | M2.7-highspeed | | ----- | -------------- | -------------- | | 输出质量 | 完全一致 | 完全一致 | | 速度 | \~60 TPS | \~100 TPS | | 上下文窗口 | 204,800 tokens | 204,800 tokens | | 适用场景 | 预算优先 | 延迟敏感的生产环境 | ### 技术规格 * **上下文窗口**:204,800 tokens(约 205K) * **最大输出**:131,072 tokens * **推理能力**:支持 `` 标签强制推理 * **架构**:MoE 混合专家架构 ## 价格与可用性 | 模型 | 提示价格 | 补全价格 | 计费类型 | | ---------------------- | ------------------ | ------------------ | ----------- | | MiniMax-M2.7 | \$0.30 / 1M tokens | \$1.20 / 1M tokens | 按量付费 - Chat | | MiniMax-M2.7-highspeed | \$0.60 / 1M tokens | \$2.40 / 1M tokens | 按量付费 - Chat | M2.7-highspeed 速度约为标准版的 1.7 倍,适合对延迟敏感的生产场景。两个版本智能水平完全一致,可根据实际需求选择。 ## 总结与建议 MiniMax-M2.7 以仅 10B 活跃参数实现了 Tier-1 级别的性能表现,堪称「以小博大」的典范。其自进化能力和原生多智能体协作是独特亮点,在软件工程、工具调用和复杂工作流编排方面表现出色。 **推荐场景**: * 需要高智能但预算有限的开发者 * 智能体 / Agent 工作流和多步任务 * 软件工程辅助和代码生成 * 需要强工具调用能力的生产环境 # Nano Banana 2 上线:Pro画质 Flash价格 Source: https://docs.apiyi.com/news/nano-banana-2-launch 谷歌最新图像生成模型 Nano Banana 2(gemini-3.1-flash-image-preview)正式发布!Pro级画质+Flash级速度,支持4K输出、14种宽高比、图像搜索Grounding,API易按次 $0.055/次,按量低至 $0.025/张。 ## 核心要点 * **Pro 级画质 + Flash 级速度**:画质媲美 Nano Banana Pro,生成速度快数倍 * **超低价格**:API易按次 \$0.055/次,按量低至 \$0.025/张,性价比极高 * **14 种宽高比**:新增 1:4、4:1、1:8、8:1,覆盖长图、信息图等特殊场景 * **图像搜索 Grounding**:独家功能,从 Google 图片搜索拉取视觉上下文 * **思维模式**:可配置推理级别,处理复杂提示词更精准 ## 背景介绍 2026 年 2 月 26 日,谷歌正式发布了 **Nano Banana 2**(模型 ID:`gemini-3.1-flash-image-preview`),这是 Nano Banana 系列的最新旗舰。不同于基于 Gemini 3 Pro 的 Nano Banana Pro,Nano Banana 2 基于 **Gemini 3.1 Flash**,在保持接近 Pro 级画质的同时,大幅提升了生成速度并降低了成本。 这意味着用户不再需要在"画质"和"价格"之间艰难取舍——Nano Banana 2 同时做到了两者兼顾。 ## 详细解析 ### 新增模型 **Nano Banana 2 图像生成** 基于 Gemini 3.1 Flash 的图像生成模型,Pro 级画质、Flash 级速度。支持 4K 输出、14 种宽高比、图像搜索 Grounding、思维模式等特性。 ### 与前代版本对比 | 特性 | **Nano Banana 2** | Nano Banana Pro | Nano Banana | | ------------------ | -------------------------------- | ---------------------------- | ------------------------ | | **模型 ID** | `gemini-3.1-flash-image-preview` | `gemini-3-pro-image-preview` | `gemini-2.5-flash-image` | | **画质** | ⭐⭐⭐⭐⭐ Pro 级 | ⭐⭐⭐⭐⭐ 最高 | ⭐⭐⭐⭐ 优秀 | | **速度** | 🚀 最快 | 🐢 较慢(约20秒) | ⚡ 快速(约10秒) | | **最高分辨率** | 4K | 4K | 1K | | **宽高比** | 14 种 | 10 种 | 10 种 | | **图像搜索 Grounding** | ✅ 独家 | ❌ | ❌ | | **思维模式** | ✅ | ❌ | ❌ | | **谷歌官方 4K 定价** | \$0.151 | \$0.151 | \$0.039(仅1K) | | **API易定价** | **\$0.055(按次)/ \~\$0.025起(按量)** | \$0.09 | \$0.02 | **关键数据**:谷歌官方 4K 定价 \$0.151/次,API易 Nano Banana 2 按次仅需 **\$0.055/次**(约 3.6 折),按量计费低至 **\~\$0.025/张**(512px),性价比极高! ### 独家新特性 #### 🔍 图像搜索 Grounding 这是 Nano Banana 2 的独家功能。通过接入 Google 图片搜索,模型可以: * 参考真实世界的视觉素材生成更准确的图像 * 生成真实地标、人物、产品等更贴合现实 * 结合实时数据生成天气图表、事件海报等 ```python theme={null} import requests response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", headers={"Authorization": "Bearer sk-your-api-key", "Content-Type": "application/json"}, json={ "contents": [{"parts": [{"text": "今天上海外滩的实景插画风格图"}]}], "generationConfig": { "responseModalities": ["TEXT", "IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} }, "tools": [{"google_search": {}}] }, timeout=300 ).json() ``` #### 🧠 思维模式 可配置 `minimal` 或 `high` 两种思维级别,让模型在生成前进行推理分析: * **minimal**:快速生成,适合简单提示词 * **high**:深度推理,适合复杂构图、精确文字、多元素场景 ```python theme={null} response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", headers={"Authorization": "Bearer sk-your-api-key", "Content-Type": "application/json"}, json={ "contents": [{"parts": [{"text": "设计一张科技公司年度报告封面,包含文字'2026 Annual Report',深蓝渐变背景,数据可视化元素"}]}], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "3:4", "imageSize": "4K"}, "thinkingConfig": {"thinkingLevel": "high", "includeThoughts": True} } }, timeout=300 ).json() ``` #### 📐 14 种宽高比 新增 4 种超长/超宽比例: | 新增比例 | 适用场景 | | ----- | -------------- | | `1:4` | 超长竖图、手机长图 | | `4:1` | 超宽横幅、网站 Banner | | `1:8` | 极长竖图、信息图 | | `8:1` | 极宽横幅、全景图 | 完整支持的宽高比:`1:1`、`1:4`、`4:1`、`1:8`、`8:1`、`2:3`、`3:2`、`3:4`、`4:3`、`4:5`、`5:4`、`9:16`、`16:9`、`21:9` ### 其他亮点 继承 Nano Banana Pro 的文字渲染能力,支持多语言清晰文字。适合海报、广告、品牌素材等包含文字的场景。 支持通过多轮对话逐步编辑图像。上传原图后,可以通过对话指令进行背景虚化、物体移除、风格转换等操作。 最多保持 5 个角色的相貌一致性和 14 个参考物体的高保真度,适合系列素材和角色 IP 创作。 支持 Batch API(24 小时内完成),享受更高的速率限制,适合大批量图像生成任务。 ## 实际应用 ### 快速开始 #### 谷歌原生格式(推荐) ```python theme={null} import requests import base64 API_KEY = "sk-your-api-key" response = requests.post( "https://api.apiyi.com/v1beta/models/gemini-3.1-flash-image-preview:generateContent", headers={"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}, json={ "contents": [{"parts": [{"text": "一只可爱的柴犬坐在樱花树下,水彩画风格"}]}], "generationConfig": { "responseModalities": ["IMAGE"], "imageConfig": {"aspectRatio": "16:9", "imageSize": "2K"} } }, timeout=300 ).json() img_data = response["candidates"][0]["content"]["parts"][0]["inlineData"]["data"] with open("output.png", 'wb') as f: f.write(base64.b64decode(img_data)) print("图片已保存") ``` #### OpenAI 兼容模式 ```python theme={null} from openai import OpenAI client = OpenAI(api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1") response = client.chat.completions.create( model="gemini-3.1-flash-image-preview", stream=False, messages=[{"role": "user", "content": "一幅秋天的山水画,远处有红叶和飞鸟"}] ) print(response.choices[0].message.content) ``` OpenAI 兼容模式使用 `/v1/chat/completions` 端点,不是 `/v1/images/generations`。 ### 从 Nano Banana Pro 迁移 只需更改模型名称即可: ```python theme={null} # Nano Banana Pro(旧) model = "gemini-3-pro-image-preview" # Nano Banana 2(新)- 更便宜、更快 model = "gemini-3.1-flash-image-preview" # 其他参数保持不变 ``` ## 价格与可用性 ### 定价对比 | 模型 | API易定价(按次) | 谷歌官方 4K 定价 | 节省幅度 | | ----------------- | ------------- | ------------ | -------------- | | **Nano Banana 2** | **\$0.055/次** | \$0.151 | **🔥 约 3.6 折** | | Nano Banana Pro | \$0.09/次 | \$0.151 | 约 6 折 | | Nano Banana | \$0.02/次 | \$0.039(仅1K) | 约 6.4 折 | Nano Banana(`gemini-2.5-flash-image`)最高仅支持 2K,无 4K 选项,表中为其 1K 官方定价。 ### 按量计费(Nano Banana 2 专属) | 计费项目 | Google 官方 | API易 | 官网折扣 | | ----------- | --------------------- | --------------- | ------- | | Input | \$0.50/M tokens | \$0.14/M tokens | **28%** | | Output(统一价) | 图片 \$60/M, 文本 \$1.5/M | \$16.8/M tokens | **28%** | #### 按量计费价格预估 | 分辨率 | Google 官方 | API易 | | ----- | --------- | ------------- | | 512px | \$0.045 | **\~\$0.025** | | 1K | \$0.067 | **\~\$0.035** | | 2K | \$0.101 | **\~\$0.045** | | 4K | \$0.151 | **\~\$0.07** | **计费模式选择**:通过创建令牌时的「Billing model」设置选择: * **Pay-as-you-go / Pay-as-you-go Priority** → 按量计费 * **Pay-per-request / Pay-per-request Priority** → 按次计费 * ⚠️ 请勿选择 Hybrid billing(混合计费) **💰 4K 高清超值!** 谷歌官方 4K 定价高达 \$0.151/次,API易按次仅需 \$0.055/次(约 3.6 折),按量计费低至 \~\$0.07/张(4K)。结合充值加赠活动,实际成本更低。 ### 谷歌官方分辨率定价参考 | 分辨率 | 谷歌官方价格 | | ------ | ------- | | 512px | \$0.045 | | 1K(默认) | \$0.067 | | 2K | \$0.101 | | 4K | \$0.151 | ### 可用渠道 * ✅ **API易**(稳定直连,第一时间上线)⭐ 推荐 * ✅ **Gemini 应用**(网页端和移动端,已设为默认图像模型) * ✅ **Google AI Studio**(标记为"New") * ✅ **Vertex AI**(Preview 访问) ## 总结与建议 Nano Banana 2 重新定义了图像生成的性价比——**Pro 级画质、Flash 级速度、超低价格**。对于绝大多数用户来说,它是取代 Nano Banana Pro 的最佳选择。 ### 💡 谁应该使用? * **所有图像生成用户**:画质接近 Pro,按量计费低至 \$0.025/张,性价比极高 * **需要特殊宽高比**:14 种宽高比覆盖更多场景 * **需要实时数据**:图像搜索 Grounding 可结合搜索结果生成图像 * **复杂提示词用户**:思维模式让复杂场景生成更精准 ### 🎯 版本选择建议 * 🔥 **首选 Nano Banana 2**:性价比之王,按量低至 \$0.025/张,适合 90% 的场景 * 🎨 **极致画质选 Nano Banana Pro**:对保真度有极致要求的专业场景 * ⚡ **最低成本选 Nano Banana**:\$0.025/次,适合大批量低成本需求 *** **信息来源**: * 谷歌官方博客:Nano Banana 2 发布公告 `blog.google/innovation-and-ai/technology/ai/nano-banana-2/` * 谷歌开发者博客:`blog.google/innovation-and-ai/technology/developers-tools/build-with-nano-banana-2/` * 谷歌 AI 开发者文档:`ai.google.dev/gemini-api/docs/image-generation` * 谷歌 API 定价:`ai.google.dev/gemini-api/docs/pricing` * 数据获取日期:2026年2月27日 # Nano Banana Pro 震撼上线:4K高清图像生成 Source: https://docs.apiyi.com/news/nano-banana-pro-launch 谷歌最新图像生成模型 Nano Banana Pro(Gemini 3 Pro Image)正式发布!支持 4K 高清出图,业界最佳文本渲染能力,强大的局部编辑功能。API易第一时间接入,与官网价格一致。 ## 核心要点 * **4K 高清支持**:支持 1K、2K、4K 三种高清图像生成,比前代分辨率大幅提升 * **文本渲染之王**:业界最佳的图像文本渲染能力,文字清晰可读 * **局部编辑能力**:支持调整摄像机角度、焦点、色彩分级、场景照明等 * **基于 Gemini 3 Pro**:融合最先进的推理和真实世界知识 * **稳定可靠**:客户反馈"强+稳",生成速度约 20 秒 ## 背景介绍 2025年11月20日,谷歌正式发布了 Nano Banana Pro(代号 Gemini 3 Pro Image Preview),这是继 Nano Banana(Gemini 2.5 Flash Image)之后的重大升级版本。新模型基于 Gemini 3 Pro 的强大推理能力,在分辨率、文本渲染和编辑能力上都实现了显著提升。 Nano Banana Pro 特别适合需要高分辨率图像和精确文字渲染的专业场景,如海报设计、广告创意、品牌营销等。API易第一时间完成接入,为设计师和开发者提供稳定、高质量的图像生成服务。 ## 详细解析 ### 新增模型 API易上线了 Nano Banana Pro 的图像生成模型: **Nano Banana Pro 图像生成** 基于 Gemini 3 Pro 的图像生成模型,支持 4K 高清出图,业界最佳文本渲染,强大的局部编辑能力。 ### 核心特性对比 | 特性 | Nano Banana (2.5) | Nano Banana Pro (3.0) | 提升幅度 | | ---------- | ----------------- | --------------------- | ---------- | | **最高分辨率** | 1024×1024 | 4K (4096×4096) | 🚀 16倍像素 | | **文本渲染** | 良好 | 业界最佳 | ⭐⭐⭐ | | **局部编辑** | 基础 | 高级(角度、焦点、光照) | ⭐⭐⭐ | | **生成速度** | \~10秒 | \~20秒 | ⏱️ 稍慢但质量更强 | | **推理能力** | Gemini 2.5 Flash | Gemini 3 Pro | 🧠 显著提升 | | **价格** | \$0.039 | \$0.134-\$0.24 | 💰提价不少 | | **API易价格** | \$0.02 | \$0.09 | 约官网 38%! | **技术升级**:Nano Banana Pro 深度融合了 Gemini 3 Pro 的推理能力,能够更好地理解复杂提示词,生成更符合预期的高质量图像。 ### 核心特性详解 #### 🎨 4K 高清支持 Nano Banana Pro 支持三种分辨率级别: 1024×1024 像素 适合快速原型、社交媒体内容 2048×2048 像素 适合网站横幅、数字广告 4096×4096 像素 适合印刷品、专业设计、大屏展示 #### ✍️ 文本渲染之王 Nano Banana Pro 在图像文本渲染方面达到了业界最佳水平: * **清晰可读**:生成的文字边缘清晰,字体识别准确 * **样式丰富**:支持多种字体、大小、颜色、效果 * **中英文支持**:完美支持中文、英文及其他语言文字 * **排版精准**:文字位置、对齐、间距符合设计规范 **适用场景**: * 📊 海报和宣传物料 * 🏷️ 品牌标语和广告 * 📰 社交媒体图文内容 * 🎨 包装设计和产品标签 #### 🛠️ 局部编辑能力 Nano Banana Pro 提供强大的局部编辑功能: * 调整拍摄角度 * 改变焦距和景深 * 控制构图和视角 * 场景照明控制 * 日夜转换效果 * 阴影和高光调整 * 色调和饱和度 * 对比度和亮度 * 滤镜和风格化 * 背景虚化(Bokeh) * 景深效果 * 艺术化渲染 #### 🔒 透明度与安全 * **SynthID 水印**:内置隐形水印,确保内容可追溯性 * **安全过滤**:自动过滤不当内容请求 * **版权保护**:遵守图像版权和使用规范 ## 实际应用 ### 推荐场景 * 高分辨率海报设计 * 印刷品和宣传册 * 品牌视觉设计 * 产品包装设计 * 带文字的广告创意 * 社交媒体图文内容 * 标语和口号图片 * 信息图表和图解 * 图像风格调整 * 光照和氛围优化 * 背景虚化效果 * 细节精修和优化 * 品牌形象一致性 * 视觉营销素材 * 多渠道内容生成 * A/B 测试素材制作 ### 代码示例 #### OpenAI 兼容模式调用 ```python theme={null} import openai client = openai.OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) # 基础图像生成 response = client.images.generate( model="gemini-3-pro-image-preview", prompt="一张现代简约风格的咖啡店海报,包含文字'晨光咖啡 Morning Brew',温暖的色调,专业摄影", n=1, size="1024x1024", # 支持 1024x1024, 2048x2048, 4096x4096 quality="hd" # 高清质量 ) image_url = response.data[0].url print(f"生成的图像: {image_url}") ``` #### 高级参数配置 ```python theme={null} # 4K 高清图像生成 response = client.images.generate( model="gemini-3-pro-image-preview", prompt="一张 4K 高清的科技公司宣传海报,包含文字'AI 改变未来 AI Changes Future',科技感强烈,蓝色调,未来主义风格", size="4096x4096", quality="hd", response_format="url" ) # 局部编辑(通过 prompt 控制) response = client.images.generate( model="gemini-3-pro-image-preview", prompt="一张咖啡杯的特写照片,背景虚化(bokeh effect),暖色调,从侧面45度角拍摄,柔和的自然光", size="2048x2048", quality="hd" ) ``` #### 批量生成 ```python theme={null} import asyncio from openai import AsyncOpenAI async_client = AsyncOpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) async def generate_image(prompt, index): response = await async_client.images.generate( model="gemini-3-pro-image-preview", prompt=prompt, size="2048x2048" ) return f"Image {index}: {response.data[0].url}" async def batch_generate(): prompts = [ "夏日海滩风格的饮料广告,文字'清凉一夏'", "科技感十足的手机广告,文字'未来已来'", "温馨家居风格的家具广告,文字'家的温度'" ] tasks = [generate_image(prompt, i+1) for i, prompt in enumerate(prompts)] results = await asyncio.gather(*tasks) for result in results: print(result) # 运行批量生成 asyncio.run(batch_generate()) ``` ### 最佳实践 #### 1. Prompt 优化技巧 **文本渲染 Prompt**: ``` ✅ 好的 Prompt: "一张现代简约风格的海报,包含清晰可读的文字'Morning Coffee', 使用 sans-serif 字体,白色文字在深蓝色背景上,居中对齐" ❌ 避免的 Prompt: "海报,有文字" # 太简略,结果不可控 ``` **高清图像 Prompt**: ``` ✅ 好的 Prompt: "一张 4K 超高清的产品照片,细节丰富,专业摄影,工作室光照, 白色背景,产品居中,柔和阴影" ❌ 避免的 Prompt: "产品照片" # 缺少细节描述 ``` **局部编辑 Prompt**: ``` ✅ 好的 Prompt: "一张咖啡杯的特写,浅景深,背景虚化(bokeh),从45度角俯拍, 暖色调,柔和的自然光从左侧照射" ❌ 避免的 Prompt: "咖啡杯照片" # 没有指定编辑效果 ``` #### 2. 分辨率选择建议 * **1K (1024×1024)**: * 快速原型和测试 * 社交媒体内容(Instagram、Twitter) * Web 缩略图和图标 * **2K (2048×2048)**: * 网站横幅和 Hero 图 * 数字广告素材 * 演示文稿和 PPT * **4K (4096×4096)**: * 印刷品(海报、宣传册) * 大屏展示和广告牌 * 专业设计项目 * 需要后期裁剪的素材 #### 3. 文本渲染优化 * 在 prompt 中用引号标注文字内容 * 指定字体风格(serif/sans-serif) * 说明文字颜色和位置 * 描述背景色和对比度 * 文字内容过长(建议少于20字) * 复杂的排版需求 * 小字号文字(可能模糊) * 过于艺术化的字体 ## 价格与可用性 ### 定价信息 Nano Banana Pro 的定价与谷歌官网保持一致: | 分辨率 | 价格/张 | 推荐场景 | | ------------------ | ------ | --------- | | **1K (1024×1024)** | \$0.04 | 快速原型、社交媒体 | | **2K (2048×2048)** | \$0.08 | 网站横幅、数字广告 | | **4K (4096×4096)** | \$0.16 | 印刷品、专业设计 | **价格优势**:API易充值加赠活动进行中,结合充值优惠,实际成本更低!满血 4K 高清版本定价只需要 \$0.09/张,官方 4K 价格为 \$0.24/张,约为官网 38%!批量生成享受更多优惠。 ### 调用方式 **推荐方式** 使用 OpenAI SDK 的 `images.generate` 接口,只需更改 `model` 参数为 `gemini-3-pro-image-preview` 即可。 **完整功能** 使用谷歌官方 `/v1beta/models/gemini-3-pro-image-preview:generateContent` 端点,获取完整特性支持。 ### 可用渠道 * ✅ **Google Gemini 应用**(网页端和移动端) * ✅ **Google Ads**(广告创意生成) * ✅ **Google Workspace**(文档和演示) * ✅ **API易**(稳定直连,第一时间上线)⭐ 推荐 ### 从旧版本迁移 如果您之前使用 Nano Banana (Gemini 2.5 Flash Image),升级到 Nano Banana Pro 非常简单: ```python theme={null} # 旧版本 model="gemini-2.5-flash-image" # 新版本 - 只需更改模型名 model="gemini-3-pro-image-preview" # 其他参数保持不变 ``` ## 总结与建议 Nano Banana Pro 是谷歌迄今为止最强大的图像生成模型,特别适合需要高分辨率和精确文字渲染的专业场景。以下是我们的使用建议: ### 💡 谁应该使用? * **设计师**:需要制作高质量海报、宣传品的专业设计师 * **营销人员**:需要快速生成广告素材和品牌内容的营销团队 * **内容创作者**:需要为社交媒体、博客生成图文内容的创作者 * **开发者**:需要为应用生成动态图像内容的软件开发者 ### 🎯 选择建议 * **高分辨率需求**:优先选择 Nano Banana Pro,分辨率提升 16 倍 * **文字渲染**:有文字内容的图像,必选 Nano Banana Pro * **快速原型**:如果只是快速测试,旧版 Nano Banana 也够用 * **专业项目**:印刷品和专业设计项目,强烈推荐 Nano Banana Pro ### 📊 与竞品对比 | 模型 | 最高分辨率 | 文本渲染 | 局部编辑 | 价格/张(4K) | | ------------------- | ----- | ----- | ----- | -------- | | **Nano Banana Pro** | 4K | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | \$0.16 | | DALL-E 3 | 1K | ⭐⭐⭐ | ⭐⭐ | - | | Midjourney | 2K | ⭐⭐⭐⭐ | ⭐⭐⭐ | \$0.20 | | Stable Diffusion 3 | 2K | ⭐⭐ | ⭐⭐⭐⭐ | \$0.10 | **注意事项**: * 4K 图像生成时间约 20 秒,请耐心等待 * 文字渲染虽然是业界最佳,但仍建议文字内容少于20字 * 生成的图像包含 SynthID 水印,用于内容追溯 ## 立即开始 准备好体验 Nano Banana Pro 了吗? 1. **注册 API易账号**:[https://api.apiyi.com](https://api.apiyi.com) 2. **充值获取令牌**:享受充值加赠活动 3. **查看 API 文档**:[Nano Banana 使用指南](/api-capabilities/nano-banana-image) 4. **开始调用**:将 `model` 参数改为 `gemini-3-pro-image-preview` 即可 有任何问题?欢迎加入我们的技术社区交流,或查看 [常见问题](/faq/model-availability) 获取帮助。 *** **信息来源**: * 谷歌官方博客:Nano Banana Pro 发布公告 `blog.google/products/gemini/nano-banana-pro/` * 谷歌云文档:Gemini 3 Pro Image API `cloud.google.com/vertex-ai/docs/generative-ai/image/generate-images` * API易用户反馈:客户实测"强+稳" * 数据获取日期:2025年11月20日 # Qwen3.6 双模上线:Max-Preview + Flash Source: https://docs.apiyi.com/news/qwen-3-6-max-flash-launch 通义千问 Qwen3.6-Max-Preview 与 Qwen3.6-Flash 阿里云官转上线 API易,定价持平官网。Max 旗舰在 SWE-bench Pro 等 6 项编程基准登顶,Flash 支持 1M 多模态上下文。叠加充值活动约 85 折优惠。 ## 核心要点 * **阿里云官转直发**:`qwen3.6-max-preview` 与 `qwen3.6-flash` 通过阿里云百炼官方通道接入 API易,稳定性与官方直连一致 * **Max 旗舰编程登顶**:Qwen3.6-Max-Preview 在 SWE-bench Pro、Terminal-Bench 2.0 等 6 项编程基准夺得第一,AIME 2025 93%、GPQA 86%、LiveCodeBench 79% * **Flash 1M 多模态**:Qwen3.6-Flash 35B-A3B MoE,原生 256K(可扩 1M)上下文,支持文本 / 图像 / 视频输入 * **价格持平官网**:Max 挂牌 \$1.28 输入 / \$7.68 输出,Flash 挂牌 \$0.17 输入 / \$1.02 输出(每 1M tokens) * **充值活动加赠约 85 折**:定价持平官网的同时,通过 API易 充值加赠活动可拉低实际单价至约 8.5 折 * **计费模式**:按量付费 - Chat,无需预订资源包 上架版本为**阿里云百炼官方通道**。模型基于阿里通义千问团队 2026 年 4 月发布的 Qwen3.6 系列。Max-Preview 为预览版,仍在持续迭代;Flash 为正式版。信息来源:阿里云百炼官方文档 `help.aliyun.com/zh/model-studio/models`、Qwen 团队博客 `qwen.ai/blog`,数据获取日期:2026-04-27。 ## 背景介绍 Qwen3.6 是通义千问团队在 2026 年第二季度发布的新一代大模型家族,整体路线分四档:**Max**(旗舰)、**Plus**(均衡)、**Flash**(极速)、**35B-A3B**(开源本地)。Max-Preview 于 2026-04-20 在 Qwen Studio 首发后即开启 API 上架准备,本次随 Flash 一同接入 API易 阿里云官转分组。 对中文场景的实际意义在于两点:一是 **Max-Preview 把编程与 Agent 评测推到国产模型新高**,在 SWE-bench Pro 上以 58.4 反超此前国产顶配 GLM-5.1(56.6);二是 **Flash 用极低单价覆盖了"高频 + 多模态 + 长上下文"这一过去最贵的场景组合**,0.17 美金每百万输入 token 的价格,使图像 / 视频 + 长上下文工作流真正具备跑量条件。 ## 详细解析 ### 核心特性 **国产模型 Coding 新天花板** SWE-bench Pro / Terminal-Bench 2.0 / SkillsBench / QwenClawBench / QwenWebBench / SciCode 6 项基准登顶,适合 Agent 与代码库级任务。 **35B-A3B MoE / 1M 上下文** 原生支持文本 / 图像 / 视频输入,256K 基础上下文可扩展至 1M,单价仅 Max 的约 1/8。 **稳定性与官方一致** 通过阿里云百炼官方通道接入,鉴权与限流策略与官网一致,国内访问延迟低。 **无需预订资源包** Chat 接口直接按量计费,配合 API易 充值活动加赠,实际单价约 8.5 折。 ### 性能亮点(Qwen3.6-Max-Preview) 以下数据来源于 Qwen 团队官方博客与第三方公开基准: | 评测维度 | Qwen3.6-Max-Preview | GLM-5.1 | Qwen3.6-Plus | | ------------------- | ------------------- | ------- | ------------ | | SWE-bench Pro(真实软工) | **58.4** | 56.6 | — | | LiveCodeBench | **79%** | — | — | | AIME 2025(数学竞赛) | **93%** | — | — | | GPQA(科学推理) | **86%** | — | — | | Terminal-Bench 2.0 | **第 1** | — | — | | 编程基准登顶项数 | **6 项** | — | — | Max-Preview 标记为 Preview,意味着官方仍在迭代权重;Qwen 团队明确表示后续版本会有进一步提升,建议关键链路上线前先做小流量灰度。 ### 技术规格 **Qwen3.6-Max-Preview** * 模型 ID:`qwen3.6-max-preview` * 架构:稠密大模型(具体参数未公开) * 上下文:262K tokens * 输入模态:文本 * 计费模式:按量付费 - Chat * 通道:阿里云官转 **Qwen3.6-Flash** * 模型 ID:`qwen3.6-flash` * 架构:MoE,35B 总参 / 3B 激活(35B-A3B) * 上下文:256K 基础,可扩展至 1M tokens * 输入模态:文本 / 图像 / 视频 * 计费模式:按量付费 - Chat(高 token 段阶梯价) * 通道:阿里云官转 Qwen3.6-Flash 在阿里云官网采用阶梯价:单次请求总输入 token 数会决定整请求的单价档位。API易 上架的挂牌价对应基础档;超过 256K 的超长请求请关注实际计费回执。 ## 实际应用 ### 推荐场景 用 `qwen3.6-max-preview` 做主驱动模型,配合 Cursor / Claude Code 等 Agent 工作流,SWE-bench Pro 表现可媲美 GPT-5 / Claude Opus 旗舰。 用 `qwen3.6-flash` 处理图像 / 视频理解、长文档总结、批量翻译这类高频任务,0.17/1.02 美金的单价让"跑量"真正成立。 Flash 256K → 1M 的扩展窗口适合 RAG 后检索 + 整篇综合归纳的链路,避免分块带来的语义断裂。 阿里云官转通道,对国内合规与数据出境敏感场景友好,可作为对标 GPT/Claude 的国产替代选项。 ### 代码示例 ```python theme={null} import openai client = openai.OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) # 编程旗舰:用 Max-Preview 跑 Agent 任务 resp = client.chat.completions.create( model="qwen3.6-max-preview", messages=[ {"role": "system", "content": "你是一个资深 Python 工程师,按规范返回 diff。"}, {"role": "user", "content": "为下面这段代码补充类型注解并修复潜在 bug ..."} ] ) print(resp.choices[0].message.content) # 极速多模态:用 Flash 处理图像 + 文本输入 resp = client.chat.completions.create( model="qwen3.6-flash", messages=[ {"role": "user", "content": [ {"type": "text", "text": "请用中文描述这张图片的关键信息"}, {"type": "image_url", "image_url": {"url": "https://your-image-url.png"}} ]} ] ) print(resp.choices[0].message.content) ``` ### 最佳实践 * **任务路由**:以 Flash 作为默认通道处理常规对话与分类,仅在编程 / 复杂推理 / Agent 调度时升级到 Max-Preview,可在不损失质量的前提下把成本压到最低。 * **Preview 灰度**:Max-Preview 仍在迭代,关键链路建议先小流量灰度 + AB 比对,待版本稳定后再切主流量。 * **多模态分批**:Flash 支持 1M 上下文,但单次过长仍会触发阶梯价。建议把超长视频先切片再喂入,按 256K 分批控制单次成本。 ## 价格与可用性 ### 定价信息 | 模型 | 计费模式 | 输入价格 | 输出价格 | | --------------------- | ----------- | ------------------ | ------------------ | | `qwen3.6-max-preview` | 按量付费 - Chat | \$1.28 / 1M tokens | \$7.68 / 1M tokens | | `qwen3.6-flash` | 按量付费 - Chat | \$0.17 / 1M tokens | \$1.02 / 1M tokens | 挂牌价持平阿里云官网。叠加 API易 当期充值加赠后,实际单价约为 **8.5 折**。 ### 叠加网站充值活动 API易 充值加赠活动详情:[/faq/recharge-promotions](/faq/recharge-promotions) 充值后实际折算单价(参考 8.5 折): | 模型 | 实际输入 | 实际输出 | | --------------------- | --------------- | -------------- | | `qwen3.6-max-preview` | ≈ \$1.088 / 1M | ≈ \$6.528 / 1M | | `qwen3.6-flash` | ≈ \$0.1445 / 1M | ≈ \$0.867 / 1M | ## 总结与建议 Qwen3.6-Max-Preview 与 Qwen3.6-Flash 是 API易 阿里云官转分组的最新补强:**Max 在编程与推理上把国产模型推到新高,Flash 把多模态长上下文的单价压到极低**。两款模型搭配使用,可以覆盖从重型 Agent 到高频分发的完整需求曲线。 推荐策略:**Flash 默认 + Max-Preview 升级**。常规对话 / 多模态批量交给 Flash,编程 / Agent / 复杂推理升级到 Max-Preview,再叠加充值加赠拿到约 85 折单价,是当前阿里云官转通道里性价比最优的组合。 数据来源:阿里云百炼官方文档(`help.aliyun.com/zh/model-studio/models`)、Qwen 团队官方博客(`qwen.ai/blog`)、Qwen3.6-Max-Preview 评测报告。Max-Preview 发布日期:2026-04-20。文章数据获取日期:2026-04-27 (UTC+8)。 # Qwen3.6 开源双模上线:API易官转托管 · 免租卡 Source: https://docs.apiyi.com/news/qwen-3-6-opensource-launch Qwen3.6 系列新增 qwen3.6-27b 与 qwen3.6-35b-a3b 两款开源权重模型,由 API易 官转托管:27b 编程对标 397B、35b-a3b 与闭源 Flash 同源 MoE。按量付费 Chat 平价不分档(27b $0.42/$2.52,35b-a3b $0.26/$1.56),免去客户租 GPU、运维推理框架。 ## 核心要点 * **Qwen3.6 系列扩展为 5 模型**:在闭源 Max-Preview / Flash / Plus 之外,新增 `qwen3.6-27b`(27B 稠密)与 `qwen3.6-35b-a3b`(35B MoE / 3B 激活)两款**开源权重**模型 * **API易 官转托管**:开源不等于免费跑,权重虽然在 Hugging Face 公开(`Qwen/Qwen3.6-27B`、`Qwen/Qwen3.6-35B-A3B`),但本地推理需要 GPU、显存、推理框架与运维。**API易 官转托管把这些全部托掉** * **免去客户租卡 / 买算力**:按 token 计费,开发期直接调 API 跑通,未来若需自托管再切换权重,路径平滑 * **平价不分档**:开源版采用按量付费 - Chat **平价计费**(不分阶梯):`qwen3.6-27b` \$0.42 输入 / \$2.52 输出,`qwen3.6-35b-a3b` \$0.26 输入 / \$1.56 输出 每 1M tokens * **OpenAI 兼容**:与闭源版共用 `/v1/chat/completions` 端点,仅 `model` 字段区分,5 模型同一份 SDK * **充值加赠叠加约 8.5 折**:挂牌持平官网,叠加 API易 充值活动后实际单价约官网 8.5 折 上架版本基于 Qwen 团队开源权重:`Qwen/Qwen3.6-27B`(Hugging Face)、`Qwen/Qwen3.6-35B-A3B`(Hugging Face)。本次上线为 **API易 官转托管版本**,权重与官方一致,调用方式 OpenAI Chat Completions 兼容。信息来源:Qwen 团队 Hugging Face 模型卡片,数据获取日期:2026-04-28 (UTC+8)。 ## 背景介绍 Qwen 团队在发布 Qwen3.6 闭源生产版(Max / Plus / Flash)的同时,也按照惯例把 27B 稠密版与 35B-A3B MoE 版的权重在 Hugging Face 开源放出,给希望"权重可审计、协议可控、可本地部署"的客户一条退路。 但开源 ≠ 跑得起来。本地推理一个 27B 稠密模型至少需要:A100 40G ×1 起步、vLLM / TensorRT-LLM 等推理框架、监控告警、容灾、版本升级流程;35B-A3B 虽然激活 3B 但显存仍按 35B 总参算。**对绝大多数客户而言,"想用开源 Qwen3.6"和"养得起一台开源 Qwen3.6 推理集群"之间,差着一支 SRE 团队的距离。** API易 这次上架的核心价值就是把这条路径补齐:**开源权重 + 官转托管 = 客户调 API 直接用,不用关心 GPU**。开发期跑通业务、生产期再决定要不要切自托管,路径平滑、成本可控。 ## 详细解析 ### 核心特性 **27B 稠密 · 开源权重** Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-27B`),27B 编程能力对标 397B 量级模型,单 GPU 友好。 **35B-A3B 开源 MoE** Qwen 团队开源(Hugging Face `Qwen/Qwen3.6-35B-A3B`),与闭源 Flash 同源,3B 激活极低算力成本。 **权重在公网,算力在我们这里** 客户调 API 即可使用,省去租 GPU / 部署推理 / 监控运维 / 版本升级,按 token 计费、按需扩缩。 **预算简单可控** 开源版按量付费 - Chat 平价计费,不分阶梯档位。无需提前评估 P95 token 数,预算可直接按 token 数线性估算。 ### 性能与定位 | 维度 | qwen3.6-27b | qwen3.6-35b-a3b | | ----------------- | --------------------- | ---------------------- | | 架构 | 27B 稠密 | MoE 35B 总参 / 3B 激活 | | 开源协议 | Qwen 团队开源 | Qwen 团队开源 | | Hugging Face 仓库 | `Qwen/Qwen3.6-27B` | `Qwen/Qwen3.6-35B-A3B` | | 编程能力 | 对标 397B 级别(小尺寸编程冠军) | 与闭源 Flash 同源 | | 多模态 | 文本 | 文本 | | 推荐场景 | 成本敏感的编程辅助、合规审计、本地部署评估 | 高频低成本对话、未来可切自托管的过渡期 | | 单 GPU 部署门槛(自托管参考) | A100 40G 起 | 显存按 35B 总参,推理算力按 3B 激活 | **小尺寸的编程模型有什么用?**——在 IDE 内联补全、PR 审查、代码搜索这类**低延迟 / 高频次**场景,27B 比闭源旗舰更适合:响应快、成本低、又有接近大模型的代码理解能力。 ### 技术规格 * **模型 ID**:`qwen3.6-27b` / `qwen3.6-35b-a3b` * **端点**:`POST /v1/chat/completions`(OpenAI Chat Completions 兼容) * **输入模态**:文本 * **流式输出**:✅ 支持 * **函数调用 / Tool Use**:✅ 支持 * **计费模式**:按量付费 - Chat(平价,**不分档**) * **通道**:API易 官转托管 * **上下文 / 最大输出**:与官方权重卡片一致,详见 Hugging Face 模型仓库 ## 实际应用 ### 推荐场景 用 `qwen3.6-27b` 做 IDE 内联补全、PR Bot、commit 摘要等高频任务,27B 体积响应快,单价远低于 Max-Preview 旗舰。 用 `qwen3.6-35b-a3b` 处理客服对话、批量翻译、内容审核等高并发任务,3B 激活算力极低,单价仅 \$0.26/\$1.56。 需要"权重可审计 / 协议可备案"的客户,可拉取 Hugging Face 公开权重做内部合规检查,运行时仍走 API易 官转托管。 评估开源 Qwen3.6 是否适合业务前,先用 API易 跑通 PoC、量化 token 成本,再决定是否上自有 GPU 集群。 ### 代码示例 ```python theme={null} import openai client = openai.OpenAI( api_key="sk-your-api-key", base_url="https://api.apiyi.com/v1" ) # 27B 编程小钢炮:低延迟代码补全 resp = client.chat.completions.create( model="qwen3.6-27b", messages=[ {"role": "system", "content": "你是 Python IDE 内联补全助手,只返回代码差异,不解释。"}, {"role": "user", "content": "为下面这个函数补全实现:def merge_intervals(intervals): ..."} ], stream=True ) for chunk in resp: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="", flush=True) # 35B-A3B 极速 MoE:高并发对话 resp = client.chat.completions.create( model="qwen3.6-35b-a3b", messages=[ {"role": "user", "content": "用一句话介绍量子纠缠"} ] ) print(resp.choices[0].message.content) ``` ### 最佳实践 * **小模型先行**:成本敏感场景,先尝试 27B / 35B-A3B;如能力足够则停在开源档;不足时再升级到闭源 Plus / Max-Preview,避免过度投入旗舰单价。 * **平价计费的预算估算**:开源版**不分档**,可以直接按 `输入 token × 单价 + 输出 token × 单价` 线性估算月度成本,不用算 P95 token 落档概率。 * **未来自托管的平滑过渡**:API易 官转 SDK 与自托管 vLLM 的 OpenAI 兼容接口完全一致,未来若有自有算力,把 `base_url` 切到内部网关即可,业务代码零改动。 ## 价格与可用性 ### 定价信息 | 模型 | 计费模式 | 输入价格 | 输出价格 | | ----------------- | ------------------ | -------------------- | -------------------- | | `qwen3.6-27b` | 按量付费 - Chat(平价不分档) | \$0.4200 / 1M tokens | \$2.5200 / 1M tokens | | `qwen3.6-35b-a3b` | 按量付费 - Chat(平价不分档) | \$0.2600 / 1M tokens | \$1.5600 / 1M tokens | **平价计费 vs 阶梯计费**:闭源 Max-Preview / Flash / Plus 采用阶梯计费(按单次请求输入 token 数决定档位),开源 27b / 35b-a3b 采用**单一档位平价计费**,预算估算更直接。挂牌价持平阿里云官网,叠加 API易 充值加赠后实际单价约**官网 8.5 折**。 ### 叠加网站充值活动 API易 充值加赠活动详情:[/faq/recharge-promotions](/faq/recharge-promotions) 充值加赠后实际折算单价(参考 8.5 折): | 模型 | 实际输入 | 实际输出 | | ----------------- | -------------- | -------------- | | `qwen3.6-27b` | ≈ \$0.357 / 1M | ≈ \$2.142 / 1M | | `qwen3.6-35b-a3b` | ≈ \$0.221 / 1M | ≈ \$1.326 / 1M | ## 总结与建议 Qwen3.6 开源双模上线,把"开源权重可控"和"免租卡 / 免运维"这两件原本互斥的事缝合到一起: * **27B 稠密** —— 编程小钢炮,低延迟、高频次、成本可控,适合 IDE 类内嵌场景 * **35B-A3B 开源 MoE** —— 与闭源 Flash 同源、3B 激活极速,适合大并发分发 **推荐策略**:成本敏感场景从开源档(27b / 35b-a3b)起步,跑通业务再决定要不要升级到闭源生产版。叠加充值加赠后开源 35B-A3B 实际输入约 \$0.22 / 1M tokens,是当前阿里云官转通道里最便宜的开源方案。 数据来源:Qwen 团队 Hugging Face 模型仓库(`Qwen/Qwen3.6-27B`、`Qwen/Qwen3.6-35B-A3B`)。本次上线为 API易 官转托管版本,与官方权重一致,调用方式 OpenAI Chat 兼容。文章数据获取日期:2026-04-28 (UTC+8)。 ## 相关阅读 * [Qwen3.6 系列文本模型概览](/api-capabilities/qwen-3-6/overview) - 5 模型完整介绍 + 价格 + 路由策略 * [Qwen3.6 双模上线:Max-Preview + Flash](/news/qwen-3-6-max-flash-launch) - 闭源生产版深度解读 * [Qwen3.6-Plus 上线:阿里千问最强编程 Agent 模型](/news/qwen-3-6-plus-launch) - Plus 均衡主力深度解读 # Qwen3.6-Plus 上线:阿里千问最强编程 Agent 模型 Source: https://docs.apiyi.com/news/qwen-3-6-plus-launch 阿里通义千问3.6系列首款模型 Qwen3.6-Plus 上线 API易,MoE 架构 72B 参数仅 18B 有效计算,100万 Token 上下文,Terminal-Bench 61.6 超越 Claude Opus 4.5,编程 Agent 能力国产第一。 ## 核心要点 * **国产编程最强**:Terminal-Bench 2.0 达 61.6 超越 Claude Opus 4.5(59.3),SWE-bench Verified 78.8,编程 Agent 能力全球顶尖 * **MoE 高效架构**:72B 总参数 / 8 专家 / 激活 2 个,有效计算量仅约 18B 密集模型水平,推理速度约为 Claude Opus 4.6 的 3 倍 * **百万级上下文**:100 万 Token 上下文窗口,可一次性处理约 75 万字文本或完整大型代码仓库 * **始终开启思维链**:always-on chain-of-thought 推理 + 原生函数调用,天生适合 Agent 工作流 * **多模态感知**:原生多模态训练,支持基于截图、设计稿生成前端代码 ## 背景介绍 2026 年 4 月 2 日,阿里通义千问团队正式发布 Qwen3.6 系列的首款模型 **Qwen3.6-Plus**,被誉为「中国编程能力最强的模型」。这是千问系列在 MoE(混合专家)架构上的重大升级,在保持极高推理效率的同时,编程和 Agent 能力直接对标 Claude Opus 4.5。 Qwen3.6-Plus 的发布标志着国产大模型在编程 Agent 领域迈入世界第一梯队。在 Terminal-Bench 2.0 等真实编程任务评测中,Qwen3.6-Plus 超越了 Claude Opus 4.5,并在 OpenRouter 上架后短时间内刷新了日调用量纪录。 API易现已上线 `qwen3.6-plus`,支持 OpenAI 兼容模式直接调用。 ## 详细解析 ### 核心特性 Terminal-Bench 61.6 超越 Claude Opus 4.5,SWE-bench 78.8,可自主拆解任务、规划路径、测试修改直至完成 72B 总参数 / 8 专家模块 / 每次激活 2 个,有效计算约 18B,推理速度快且成本低 100 万 Token 窗口,可一次摄入完整大型代码仓库或约 75 万字文本,长文档处理无压力 基于原生多模态数据训练,可基于界面截图、设计稿完成前端页面生成、代码补全等任务 ### 性能亮点 | 评测领域 | 评测项目 | Qwen3.6-Plus | 对比 | | ------------- | ------------------ | ------------ | --------------------- | | **编程** | Terminal-Bench 2.0 | **61.6** | Claude Opus 4.5: 59.3 | | **编程** | SWE-bench Verified | **78.8** | Claude Opus 4.5: 80.9 | | **文档** | OmniDocBench v1.5 | **91.2** | 全球第一 | | **真实问答** | RealWorldQA | **85.4** | 领先主流模型 | | **Web Agent** | QwenWebBench Elo | **1502** | 仅次于 Gemini 3 Pro | 数据来源:阿里通义千问官方博客(`qwen.ai/blog`)、OpenRouter 评测数据。Qwen3.6-Plus 于 2026 年 4 月 2 日正式发布。 **与竞品对比**: * **vs Claude Opus 4.5**:Terminal-Bench 超越(61.6 vs 59.3),SWE-bench 接近(78.8 vs 80.9) * **vs Gemini 3 Pro**:OmniDocBench 领先,QwenWebBench 接近 * **推理速度**:社区实测约为 Claude Opus 4.6 的 3 倍 ### 技术规格 | 参数 | Qwen3.6-Plus | | --------- | ------------------- | | **架构** | MoE(混合专家) | | **总参数** | 72B | | **专家数量** | 8 个(每次激活 2 个) | | **有效计算量** | \~18B | | **上下文窗口** | 1,000,000 tokens | | **最大输出** | 65,536 tokens | | **思维链** | 始终开启(always-on CoT) | | **函数调用** | 原生支持 | | **多模态** | 文本 + 图片输入 | | **模型名称** | `qwen3.6-plus` | ## 实际应用 ### 推荐场景 自主代码修复、仓库级重构、复杂终端操作,适合 Claude Code / Cursor 等编程助手场景 百万 Token 上下文,一次性分析完整代码仓库或长篇文档,OmniDocBench 全球第一 基于设计稿或截图自动生成前端页面,支持交互式修改和代码补全 始终开启思维链 + 原生函数调用,适合复杂工作流编排和多步骤任务执行 ### 代码示例 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="qwen3.6-plus", messages=[ {"role": "system", "content": "你是一个专业的编程助手。"}, {"role": "user", "content": "请帮我写一个 Python 函数,实现 LRU 缓存,要求支持并发访问。"} ], max_tokens=8192 ) print(response.choices[0].message.content) ``` ```javascript theme={null} import OpenAI from "openai"; const client = new OpenAI({ apiKey: "your-api-key", baseURL: "https://api.apiyi.com/v1", }); const response = await client.chat.completions.create({ model: "qwen3.6-plus", messages: [ { role: "user", content: "Review this code for potential security issues and suggest fixes." } ], max_tokens: 8192, }); console.log(response.choices[0].message.content); ``` ### 最佳实践 Qwen3.6-Plus 始终启用思维链推理,输出可能包含推理过程。如果只需要最终答案,可在 system prompt 中指定「直接给出结果,不要推理过程」。 * **编程场景**:利用百万上下文窗口,将完整项目代码作为上下文传入,获得更精准的代码修改建议 * **Agent 场景**:充分利用原生函数调用能力,定义清晰的工具描述,让模型自主规划执行路径 * **长文档**:对于超长文档,Qwen3.6-Plus 的 OmniDocBench 91.2 全球第一,非常适合文档理解和信息抽取 ## 价格与可用性 ### 定价信息 | 计费项 | 价格 | | ------ | ----------- | | **输入** | 详见 API易 控制台 | | **输出** | 详见 API易 控制台 | ### 叠加网站充值活动 当前充值加赠活动持续进行中,充值越多加赠越多,详情请查看 [充值优惠政策](/faq/recharge-promotions)。 ## 总结与建议 Qwen3.6-Plus 是目前国产最强的编程 Agent 模型,Terminal-Bench 61.6 超越 Claude Opus 4.5,MoE 架构带来出色的推理速度和成本优势。百万 Token 上下文 + 始终开启思维链 + 原生函数调用的组合,使其成为编程助手、Agent 工作流和长文档处理的理想选择。 **推荐人群**: * 需要高质量编程助手的开发者 * 构建 Agent 工作流的技术团队 * 需要处理超长文档或大型代码仓库的用户 * 追求高性价比的国产模型替代方案 信息来源:阿里通义千问官方博客(`qwen.ai/blog`)、中新网、观察者网、IT之家。数据获取日期:2026 年 4 月 6 日。千问 3.6 系列后续还将发布更强的 Qwen3.6-Max 旗舰模型及其他尺寸的开源模型。 # Seed 2.0 Lite 上线:字节跳动高性价比企业级多模态模型 Source: https://docs.apiyi.com/news/seed-2-0-lite-launch 字节跳动 Seed 2.0 Lite 正式上线 API易,整体性能超越 Seed 1.8,支持图片/视频/文本多模态输入,AIME 2025 达 93.0,MMLU-Pro 87.7,适合高吞吐量生产场景,OpenAI 兼容模式即可调用。 ## 核心要点 * **超越前代**:整体性能全面超越上一代 Seed 1.8,在视觉推理、指令跟随、工具调用等方面均有显著提升 * **多模态输入**:支持图片、视频、文本多种输入类型,覆盖文档/图表分析和视频理解场景 * **灵活视觉分级**:提供 low / high / xhigh 三档视觉输入质量选项,按需平衡成本与精度 * **强劲评测表现**:AIME 2025 达 93.0,MMLU-Pro 87.7(超越 Pro),SWE-Bench Verified 73.5% * **高性价比部署**:成本约为 Pro 的 1/5,适合高 QPS、大规模覆盖的生产场景 ## 背景介绍 2026 年 2 月 14 日,字节跳动 Seed 团队正式发布 Seed 2.0 系列大语言模型,推出 Pro、Lite、Mini 三个版本,覆盖从旗舰到轻量的全场景需求。 Seed 2.0 Lite 定位为**通用生产级模型**,在保持强劲能力的同时大幅降低推理成本。它专为高频企业工作负载设计,适用于非结构化信息处理、文本内容创作、搜索推荐和数据分析等核心生产任务。 相比上一代 Seed 1.8,Lite 在多模态理解、指令跟随、推理能力和工具调用方面均实现了大幅提升,同时新增了视频理解和灵活的视觉分级能力。 API易已全面上架 Seed 2.0 Lite,支持 OpenAI 兼容模式直接调用。 ## 详细解析 ### 核心特性 支持图片、视频、文本输入,覆盖文档/图表分析、视频字幕和视觉定位等常见场景 提供 low / high / xhigh 三档视觉输入质量,默认 high 档提升可预测性,xhigh 档处理密集文本和复杂图表 指令跟随、推理和工具/函数调用能力大幅提升,COLLIE 达 94.0,MARS-Bench 达 80.5 成本约为 Pro 的 1/5,在保持能力优势的同时大幅降本,适合高 QPS 和大规模覆盖场景 ### 性能亮点 Seed 2.0 Lite 在多个权威评测中表现出色: | 评测项目 | Seed 2.0 Lite | Seed 2.0 Pro | Seed 1.8 | 说明 | | ---------------------- | ------------- | ------------ | -------- | ------------- | | **AIME 2025** | **93.0** | 96.0 | - | 数学推理,接近旗舰水平 | | **MMLU-Pro** | **87.7** | 87.0 | - | 知识理解,超越 Pro | | **SWE-Bench Verified** | **73.5%** | 76.5% | - | 软件工程任务 | | **LiveCodeBench v6** | **81.7** | 84.0 | - | 实时编程评测 | | **MathVision** | **86.4** | - | 81.3 | 视觉数学推理,大幅超越前代 | | **MathVista** | **89.0** | - | - | 视觉数学理解 | | **VideoMME** | **87.7** | - | - | 视频多模态理解 | | **COLLIE** | **94.0** | - | - | 指令跟随能力 | 数据来源:ByteDance Seed 官方网站(`seed.bytedance.com`)及 LLM Stats(`llm-stats.com`)。Seed 2.0 系列于 2026 年 2 月 14 日正式发布。 **关键亮点**: * **数学推理接近旗舰**:AIME 2025 达 93.0,仅比 Pro(96.0)低 3 分 * **知识理解超越 Pro**:MMLU-Pro 以 87.7 超过 Pro 的 87.0,证明在知识理解任务上 Lite 完全胜任 * **视觉推理大幅提升**:MathVision 从 Seed 1.8 的 81.3 提升至 86.4,进步显著 * **视频理解能力**:VideoMME 达 87.7,VideoReasonBench 达 64.2,支持时空视频分析 ### 多模态能力详解 Seed 2.0 Lite 的多模态能力是此次升级的一大亮点: **图像理解**: * 支持混合图文内容的信息提取 * 文档和图表分析覆盖大部分常见场景 * 视觉定位(Grounding)能力 **视频理解**: * 时空视频理解和运动感知 * 视频字幕生成 * 视频推理分析 **视觉质量分级**: | 分级 | 适用场景 | 成本 | | ------------ | ---------------- | -- | | **low** | 简单图像识别、快速分类 | 最低 | | **high**(默认) | 常规文档/图表分析,可预测性好 | 中等 | | **xhigh** | 密集文本、复杂图表、细节丰富场景 | 最高 | Seed 2.0 Lite 支持多模态输入(图片/视频/文本),但输出仅支持文本格式。 ### 技术规格 | 参数 | Seed 2.0 Lite | | -------- | ------------------ | | **发布日期** | 2026 年 2 月 14 日 | | **开发商** | 字节跳动 Seed 团队 | | **输入类型** | 文本、图片、视频 | | **输出类型** | 文本 | | **视觉分级** | low / high / xhigh | | **知识截止** | 2024 年 1 月 | | **调用方式** | OpenAI 兼容模式 | ## 实际应用 ### 推荐场景 Seed 2.0 Lite 凭借高性价比和强劲多模态能力,特别适合以下场景: 1. **非结构化信息处理**:文档解析、票据识别、合同分析 2. **文本内容创作**:营销文案、产品描述、内容摘要 3. **搜索与推荐**:语义理解、意图识别、内容排序 4. **数据分析**:报表解读、图表理解、趋势分析 5. **视频内容理解**:视频字幕、内容审核、片段分析 6. **代理工作流**:多步骤指令执行、工具调用、函数调用 ### 代码示例 #### 文本对话 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="seed-2-0-lite-260228", messages=[ { "role": "user", "content": "分析以下季度数据,给出关键趋势和建议..." } ], max_tokens=4096 ) print(response.choices[0].message.content) ``` #### 图像理解 ```python theme={null} response = client.chat.completions.create( model="seed-2-0-lite-260228", messages=[ { "role": "user", "content": [ { "type": "text", "text": "请分析这张图表中的关键数据和趋势" }, { "type": "image_url", "image_url": { "url": "https://example.com/chart.png", "detail": "high" } } ] } ], max_tokens=4096 ) print(response.choices[0].message.content) ``` #### 工具调用 ```python theme={null} response = client.chat.completions.create( model="seed-2-0-lite-260228", messages=[ {"role": "user", "content": "北京今天的天气怎么样?"} ], tools=[ { "type": "function", "function": { "name": "get_weather", "description": "获取指定城市的天气信息", "parameters": { "type": "object", "properties": { "city": {"type": "string", "description": "城市名称"} }, "required": ["city"] } } } ] ) print(response.choices[0].message) ``` ### 最佳实践 1. **选择合适的视觉分级**: * 常规文档分析使用默认 **high** 档即可 * 密集文本或复杂图表使用 **xhigh** 档确保准确性 * 简单分类任务使用 **low** 档节省成本 2. **充分利用多模态能力**: * 混合图文输入可提升信息提取效果 * 视频理解支持时空分析,适合内容审核场景 3. **大规模生产部署**: * Lite 成本约为 Pro 的 1/5,高 QPS 场景优先选择 * 在知识理解(MMLU-Pro)等任务上 Lite 可完全替代 Pro ## 价格与可用性 ### Seed 2.0 系列对比 | 版本 | 定位 | 适用场景 | 成本级别 | | ----------------- | ----- | ------- | ----------- | | **Seed 2.0 Pro** | 旗舰模型 | 最高精度任务 | 最高 | | **Seed 2.0 Lite** | 生产级模型 | 日常生产任务 | 约 Pro 的 1/5 | | **Seed 2.0 Mini** | 轻量模型 | 低延迟、高并发 | 最低 | Seed 2.0 Lite 的定价约为 Pro 的 1/5,在大部分评测中性能接近甚至超越 Pro(如 MMLU-Pro),是生产环境的最佳性价比之选。 ### 叠加网站充值活动 API易 提供充值加赠优惠,充值越多加赠越多,叠加模型本身的价格优势,实际使用成本更低。 ### 可用模型 | 模型名称 | 说明 | | ---------------------- | ------------- | | `seed-2-0-lite-260228` | 通用生产级模型,多模态输入 | ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 支持 OpenAI 兼容格式 * 兼容所有 OpenAI SDK ## 总结与建议 Seed 2.0 Lite 是字节跳动 Seed 2.0 系列中性价比最优的选择,在多模态理解、指令跟随和推理能力方面全面超越前代 Seed 1.8,同时保持了极具竞争力的低成本。 **核心优势**: * **性价比之王**:成本约为 Pro 的 1/5,部分评测(MMLU-Pro)甚至超越 Pro * **全面多模态**:图片、视频、文本输入全覆盖,视觉分级灵活可控 * **生产就绪**:长上下文处理、多源信息融合、高保真结构化输出 * **代理能力强**:指令跟随 94.0(COLLIE),工具调用大幅提升 **使用建议**: 1. **日常生产任务**:Lite 是默认首选,平衡能力与成本 2. **高精度需求**:考虑升级到 Pro,如 SWE-Bench 任务 3. **高并发轻量场景**:考虑 Mini,成本更低 4. **视觉密集场景**:使用 xhigh 视觉分级确保准确性 **谁应该使用 Seed 2.0 Lite**: * 需要大规模部署 AI 能力的企业用户 * 需要多模态文档/视频分析的生产场景 * 构建代理工作流的开发者 * 追求性价比的高 QPS 应用 API易已全面上架 Seed 2.0 Lite,OpenAI 兼容模式直接调用,立即体验字节跳动高性价比企业级模型! 信息来源:ByteDance Seed 官方网站(`seed.bytedance.com`)、LLM Stats(`llm-stats.com`)。Seed 2.0 系列于 2026 年 2 月 14 日正式发布。数据获取时间:2026 年 3 月 8 日。 # Seed 2.0 Pro 旗舰版上线:字节跳动最强推理模型 Source: https://docs.apiyi.com/news/seed-2-0-pro-launch 字节跳动 Seed 2.0 Pro 旗舰推理模型正式上线 API易,AIME 2025 达 98.3,Codeforces 3020,SWE-Bench Verified 76.5%,支持多模态理解和 Agent 工作流,OpenAI 兼容模式即可调用。 ## 核心要点 * **旗舰推理能力**:AIME 2025 达 98.3,AIME 2026 达 94.2,数学推理能力全球顶尖 * **顶级编程表现**:Codeforces 评分 3020(无工具),LiveCodeBench v6 达 87.8,SWE-Bench Verified 76.5% * **强大 Agent 能力**:BrowseComp 77.3,tau2-Bench Retail 90.4 / Telecom 94.2,WideSearch 74.7 * **多模态理解**:支持图片、视频、文本输入,VideoMME 89.5,MMMU 85.4 * **全球竞争力**:LMArena 排行榜第 6,直接对标 GPT-5.2、Claude Opus 4.5、Gemini 3 Pro ## 背景介绍 2026 年 2 月 14 日,字节跳动 Seed 团队正式发布 Seed 2.0 系列大语言模型,推出 Pro、Lite、Mini、Code 四个版本。其中 **Seed 2.0 Pro** 作为旗舰版本,定位为最高精度的推理和 Agent 模型,在数学、编程、多模态理解和复杂工作流执行方面均展现出世界级水准。 Seed 2.0 Pro 是豆包(Doubao)App 背后的核心模型之一,该应用每周活跃用户超过 1.55 亿。Pro 版本专为需要长链推理、复杂决策和多步骤任务执行的场景设计。 API易现已上架 Seed 2.0 Pro 最新版本 `seed-2-0-pro-260328`,支持 OpenAI 兼容模式直接调用。 ## 详细解析 ### 核心特性 AIME 2025 达 98.3,GPQA Diamond 88.9,长链推理鲁棒性出色,适合复杂数学和科学问题 Codeforces 3020(无工具),SWE-Bench 76.5%,TerminalBench 2.0 达 55.8,覆盖从竞赛到工程全场景 BrowseComp 77.3,tau2-Bench 零售/电信均超 90,设计用于长链任务执行和工具增强推理 支持图片、视频、文本输入,VideoMME 89.5,MMMU 85.4,MotionBench 75.2 ### 性能亮点 Seed 2.0 Pro 在多个权威评测中达到世界级水准: | 评测领域 | 评测项目 | Seed 2.0 Pro | 说明 | | --------- | -------------------- | ------------ | ---------- | | **数学** | AIME 2025 | **98.3** | 接近满分 | | **数学** | AIME 2026 | **94.2** | 最新数学竞赛 | | **数学** | GPQA Diamond | **88.9** | 研究生级别推理 | | **数学** | MathVision | **88.8** | 视觉数学推理 | | **知识** | MMLU-Pro | **87.0** | 专业知识理解 | | **编程** | Codeforces | **3020** | 无工具竞赛编程 | | **编程** | LiveCodeBench v6 | **87.8** | 实时编程评测 | | **编程** | SWE-Bench Verified | **76.5%** | 软件工程任务 | | **编程** | TerminalBench 2.0 | **55.8** | 终端操作能力 | | **多模态** | VideoMME | **89.5** | 视频理解 | | **多模态** | MMMU | **85.4** | 多模态大学级推理 | | **Agent** | BrowseComp | **77.3** | 浏览器操作 | | **Agent** | tau2-Bench (Retail) | **90.4** | 零售场景 Agent | | **Agent** | tau2-Bench (Telecom) | **94.2** | 电信场景 Agent | 数据来源:ByteDance Seed 官方网站(`seed.bytedance.com`)及 LLM Stats(`llm-stats.com`)。Seed 2.0 系列于 2026 年 2 月 14 日正式发布。 **竞品对比**: * **vs GPT-5.2**:输入成本约为 GPT-5.2 的 1/3.7,输出成本约为 1/5.9 * **vs Claude Opus 4.5**:输入成本约为 Opus 4.5 的 1/10 * **vs Gemini 3 Pro**:在 Agent 和数学推理方面各有优势 * Seed 2.0 Pro 在 ICPC、IMO、CMO 竞赛中均获得金牌 ### 技术规格 | 参数 | Seed 2.0 Pro | | -------- | --------------------------- | | **模型版本** | seed-2-0-pro-260328 | | **发布日期** | 2026 年 2 月 14 日(3 月 28 日更新) | | **开发商** | 字节跳动 Seed 团队 | | **输入类型** | 文本、图片、视频 | | **输出类型** | 文本 | | **知识截止** | 2024 年 1 月 | | **调用方式** | OpenAI 兼容模式 | ## 实际应用 ### 推荐场景 Seed 2.0 Pro 凭借顶级推理和 Agent 能力,特别适合: 1. **复杂数学与科学推理**:高难度数学证明、科研辅助、定量分析 2. **高级编程任务**:代码生成、代码审查、大型项目重构、Bug 修复 3. **Agent 工作流**:多步骤自动化、浏览器操作、复杂决策链 4. **图像转代码**:将设计稿转换为功能页面 5. **3D 设计与 CAD**:辅助工程设计和建模 6. **多模态文档分析**:复杂图表、视频内容的深度理解 ### 代码示例 #### 文本对话 ```python theme={null} from openai import OpenAI client = OpenAI( api_key="your-apiyi-key", base_url="https://api.apiyi.com/v1" ) response = client.chat.completions.create( model="seed-2-0-pro-260328", messages=[ { "role": "user", "content": "证明:对于所有正整数 n,n^3 + 2n 能被 3 整除" } ], max_tokens=4096 ) print(response.choices[0].message.content) ``` #### 图像理解 ```python theme={null} response = client.chat.completions.create( model="seed-2-0-pro-260328", messages=[ { "role": "user", "content": [ { "type": "text", "text": "将这个设计稿转换为 HTML + CSS 代码" }, { "type": "image_url", "image_url": { "url": "https://example.com/design.png", "detail": "high" } } ] } ], max_tokens=4096 ) print(response.choices[0].message.content) ``` #### 工具调用 ```python theme={null} response = client.chat.completions.create( model="seed-2-0-pro-260328", messages=[ {"role": "user", "content": "帮我查询最近的航班信息并比较价格"} ], tools=[ { "type": "function", "function": { "name": "search_flights", "description": "搜索航班信息", "parameters": { "type": "object", "properties": { "origin": {"type": "string", "description": "出发城市"}, "destination": {"type": "string", "description": "目的城市"}, "date": {"type": "string", "description": "出发日期"} }, "required": ["origin", "destination", "date"] } } } ] ) print(response.choices[0].message) ``` ### 最佳实践 1. **充分利用长链推理**:Pro 的优势在于复杂多步骤问题,简单任务可使用 Lite 或 Mini 节省成本 2. **Agent 场景优先选 Pro**:需要工具调用和多步决策时,Pro 的鲁棒性远超其他版本 3. **搭配 Lite 使用**:日常生产任务用 Lite(成本约 Pro 的 1/5),高精度需求升级到 Pro ## 价格与可用性 ### Seed 2.0 系列对比 | 版本 | 定位 | 适用场景 | 成本级别 | | ----------------- | ------ | ---------------- | ----------- | | **Seed 2.0 Pro** | 旗舰推理模型 | 最高精度任务、Agent 工作流 | 最高 | | **Seed 2.0 Lite** | 生产级模型 | 日常生产任务、高 QPS | 约 Pro 的 1/5 | | **Seed 2.0 Mini** | 轻量模型 | 低延迟、高并发 | 最低 | | **Seed 2.0 Code** | 编程专用 | 软件开发(TRAE 平台) | - | Seed 2.0 Pro 的输入定价约 \$0.47/百万 tokens,输出约 \$2.37/百万 tokens,相比 GPT-5.2(\$1.75/\$14.00)和 Claude Opus 4.5(\$5.00/\$25.00)具有显著的价格优势。 ### 叠加网站充值活动 API易 提供充值加赠优惠,充值越多加赠越多,叠加模型本身的价格优势,实际使用成本更低。 ### 可用模型 | 模型名称 | 说明 | | --------------------- | ----------------------- | | `seed-2-0-pro-260328` | 旗舰推理模型,最新版本(2026年3月28日) | ### 购买渠道 **API易平台**: * 官网:`apiyi.com` * API 端点:`https://api.apiyi.com/v1` * 支持 OpenAI 兼容格式 * 兼容所有 OpenAI SDK ## 总结与建议 Seed 2.0 Pro 是字节跳动 Seed 2.0 系列的旗舰模型,在数学推理、编程能力和 Agent 工作流方面均达到世界级水准,同时价格相比同级竞品具有显著优势。 **核心优势**: * **推理之王**:AIME 2025 达 98.3,Codeforces 3020,IMO/ICPC/CMO 金牌 * **Agent 能力强**:BrowseComp 77.3,tau2-Bench 均超 90,适合复杂自动化场景 * **多模态理解**:视频、图片、文本全覆盖,VideoMME 89.5 * **极具竞争力的价格**:相比 GPT-5.2 便宜约 4-6 倍,相比 Opus 4.5 便宜约 10 倍 **使用建议**: 1. **高难度推理任务**:Pro 是首选,尤其是数学证明、科研分析 2. **Agent 工作流**:Pro 的长链推理鲁棒性最佳 3. **日常生产**:考虑 Lite(约 Pro 的 1/5 成本),部分场景性能相当 4. **高并发轻量场景**:考虑 Mini,成本最低 **谁应该使用 Seed 2.0 Pro**: * 需要最高精度推理的研究人员和工程师 * 构建复杂 Agent 系统的开发者 * 需要高质量代码生成和审查的团队 * 追求旗舰性能同时关注成本的企业用户 API易已全面上架 Seed 2.0 Pro 最新版本,OpenAI 兼容模式直接调用,立即体验字节跳动旗舰推理模型! 信息来源:ByteDance Seed 官方网站(`seed.bytedance.com`)、LLM Stats(`llm-stats.com`)、TechNode。Seed 2.0 系列于 2026 年 2 月 14 日正式发布,`seed-2-0-pro-260328` 为 2026 年 3 月 28 日更新版本。数据获取时间:2026 年 3 月 30 日。 # SeeDream 4.5 震撼上线:BytePlus 火山方舟最强 4K 图像生成模型 Source: https://docs.apiyi.com/news/seedream-4-5-launch BytePlus 火山方舟最新图像生成模型 SeeDream 4.5 正式发布!12亿参数架构,更强的 4K 图像生成能力,文本渲染大幅提升,支持最多10张参考图像,价格仅 $0.035/张。官方提供 200 张免费图片测试额度。 ## 核心要点 * **12亿参数架构**:ByteDance 最新的统一图像生成和编辑系统 * **4K 高清增强**:相比 SeeDream 4.0,画质和细节表现显著提升 * **文本渲染突破**:小文本渲染更清晰,面部特征更自然 * **多图合成能力**:支持最多 10 张参考图像,保持主体一致性 * **超值定价**:\$0.035/张,官方提供 200 张免费测试额度 ## 背景介绍 2025年12月4日,BytePlus 火山方舟正式发布 **SeeDream 4.5**(模型代号:`seedream-4-5-251128`),这是继 SeeDream 4.0 之后的重大升级版本。作为 ByteDance 旗下的高品质图像生成模型,SeeDream 系列一直以其出色的 4K 高清输出和视觉一致性受到专业设计师和内容创作者的青睐。 API易已与 BytePlus 火山方舟达成官方战略合作,第一时间接入 SeeDream 4.5 模型,为用户提供稳定可靠的服务。相比前代版本,SeeDream 4.5 在画质、文本渲染、多图合成等方面都实现了全面突破,是专业设计和商业内容创作的理想选择。 ## 详细解析 ### 核心特性 **画质全面提升** * 支持最高 4K 分辨率输出 * 纹理细节更丰富,层次更分明 * 相比 4.0 版本,画质显著增强 * 适合专业设计和印刷输出 **清晰可读的文字** * 小文本渲染大幅改进,减少模糊 * 面部特征更清晰,保持自然感 * 适合海报、广告、营销物料 * 文字准确性业界领先 **强大的一致性控制** * 支持最多 10 张参考图像 * 准确识别主体,保持视觉一致性 * 可生成连贯的图像系列 * 批处理最多 15 张图像 **生成与编辑一体化** * 图像生成和编辑集成架构 * 编辑时保留光照、色调和细节 * 跨迭代的一致性编辑 * 灵活处理复杂多模态任务 ### 性能亮点 SeeDream 4.5 基于 **12亿参数**的深度学习架构,在多项关键指标上实现突破: **技术规格** * **模型架构**:12 亿参数统一生成-编辑系统 * **最大分辨率**:4K(4096×4096) * **参考图像**:最多 10 张 * **批处理**:最多 15 张图像 * **生成速度**:平均 15 秒/张 * **知识截止**:2025年11月 #### 与 SeeDream 4.0 对比 | 特性 | SeeDream 4.5 | SeeDream 4.0 | | --------- | --------------- | ------------ | | **画质** | 🔥 4K 高保真,细节更丰富 | ⭐ 4K 高清 | | **文本渲染** | 🔥 小文本清晰,无模糊 | ⭐ 基础文本渲染 | | **面部细节** | 🔥 清晰自然,保真度高 | ⭐ 标准水平 | | **参考图像** | 🔥 最多 10 张 | ⭐ 标准支持 | | **批处理** | 🔥 最多 15 张 | ⭐ 标准支持 | | **编辑一致性** | 🔥 保留光照和细节 | ⭐ 基础编辑 | | **价格** | \$0.035/张 | \$0.03/张 | ### 技术规格 SeeDream 4.5 采用标准的 OpenAI Image API 格式,完全兼容现有的图像生成工作流: **支持的尺寸设置**: * **分辨率规格**:"1K", "2K", "4K" - 让模型根据提示词自动决定最佳宽高比 * **精确像素**:"2048x2048", "1920x1080", "3840x2160" 等 * **像素范围**:\[1280×720, 4096×4096] * **宽高比范围**:\[1/16, 16] **质量选项**: * `standard` - 标准质量,速度更快 * `hd` - 高清质量,细节更丰富 **返回格式**: * `url` - 返回图片 URL * `b64_json` - 返回 Base64 编码的图片数据 ## 实际应用 ### 推荐场景 SeeDream 4.5 特别适合以下应用场景: * 海报设计(支持清晰文字) * 广告横幅 * 社交媒体图片 * 产品宣传图 * 电商产品图 * 产品展示图 * 场景化产品摄影 * 多角度产品视图 * 博客配图 * 文章插图 * 品牌视觉设计 * 创意素材库 * 平面设计 * UI/UX 设计参考 * 视觉概念图 * 高分辨率打印输出 ### 代码示例 以下是使用 SeeDream 4.5 的完整 Python 示例: ```python theme={null} import requests import base64 import datetime # API 配置 API_KEY = "sk-your-api-key" API_URL = "https://api.apiyi.com/v1/images/generations" # 生成图片 def generate_image(prompt, size="4K", quality="hd"): response = requests.post( API_URL, headers={ "Content-Type": "application/json", "Authorization": f"Bearer {API_KEY}" }, json={ "model": "seedream-4-5-251128", "prompt": prompt, "size": size, "quality": quality, "n": 1, "response_format": "url" }, timeout=60 ) if response.status_code == 200: result = response.json() image_url = result["data"][0]["url"] print(f"✅ 图片生成成功!") print(f"🔗 图片URL: {image_url}") return image_url else: print(f"❌ 生成失败: {response.text}") return None # 使用示例 if __name__ == "__main__": # 生成营销海报 prompt = """ A modern tech product launch poster with bold typography, featuring a sleek smartphone on gradient background, text: 'Innovation 2025', 4K, ultra detailed, professional """ generate_image(prompt, size="4K", quality="hd") ``` ### 最佳实践 **提示词优化技巧**: 1. **详细描述**:提供具体的场景、风格、颜色等描述 2. **添加质量标签**:如 "4K", "ultra detailed", "high quality", "professional" 3. **指定风格**:如 "photorealistic", "minimalist", "cinematic" 4. **包含光线信息**:如 "soft lighting", "golden hour", "studio lighting" 5. **文字内容**:使用 "text: '...'" 明确指定图中文字 **示例提示词**: ✅ **好的提示词**: ``` A professional product photography of wireless headphones on white background, soft studio lighting from top-left, subtle shadows, minimal composition, text: 'Premium Sound', 4K resolution, commercial photography style ``` ❌ **简单提示词**: ``` headphones on white background ``` **使用限制** * 生成速度:平均 15 秒/张(4K 分辨率) * 批处理:建议不超过 15 张以保证稳定性 * 参考图像:最多 10 张 * 文件大小:4K 图片约 3-5 MB ## 价格与可用性 ### 定价信息 SeeDream 4.5 在 API易 提供极具竞争力的定价: | 版本 | API易价格 | 官网价格 | 优势 | | ---------------- | ------------ | --------- | -------------- | | **SeeDream 4.5** | \$0.035/张 | \$0.03/张起 | 🔥 最强画质,文本渲染最佳 | | SeeDream 4.0 | \$0.03/张 | \$0.03/张 | ⭐ 稳定可靠,性价比高 | | Nano Banana Pro | \$0.05/张(4K) | \$0.24/张 | 谷歌技术,21% 折扣 | | Nano Banana | \$0.020/张 | \$0.04/张 | 10秒快速生成 | **价格说明** * **计费方式**:按次计费,每张图片独立计费 * **充值优惠**:结合充值加赠活动,实际成本约 ¥0.21/张 * **免费额度**:官方提供 200 张免费图片测试额度 * **批量优惠**:大批量使用可联系客服获取企业定价 ### 优惠活动 🎁 **限时优惠**: 1. **新用户福利**: * 官方提供 **200 张免费图片**测试额度 * API易 提供首充加赠优惠 2. **充值加赠**: * 充值享受阶梯加赠优惠(10%-20%),[查看详细政策](/faq/recharge-promotions) * 企业用户支持对公转账和发票 3. **性价比优势**: * 相比 Nano Banana Pro(\$0.05/张),价格更优 * 文本渲染能力更强,适合营销物料 * 批处理能力强,适合大量生产 ### 购买渠道 **开始使用 SeeDream 4.5**: 1. **注册账号**:访问 API易官网注册账号 2. **获取 API Key**:在控制台创建 API 密钥 3. **充值余额**:选择合适的充值套餐 4. **开始调用**:使用标准 OpenAI Image API 格式调用 **相关资源**: * API易官网:`api.apiyi.com` * 控制台:`api.apiyi.com/account/profile` * 详细文档:`docs.apiyi.com/api-capabilities/seedream-image` * 图像测试工具:`imagen.apiyi.com` ## 总结与建议 SeeDream 4.5 是 BytePlus 火山方舟在图像生成领域的又一次重大突破。12亿参数的统一架构、增强的 4K 画质、突破性的文本渲染能力,使其成为专业设计和商业内容创作的理想选择。 ### 使用建议 **推荐使用 SeeDream 4.5**: * ✅ 需要包含清晰文字的图片(海报、广告) * ✅ 追求最佳画质和细节表现 * ✅ 专业设计、商业用途 * ✅ 需要高分辨率打印输出 * ✅ 多图合成、系列图片生成 **可以使用 SeeDream 4.0**: * ✅ 追求性价比 * ✅ 日常图片生成需求 * ✅ 对文本渲染要求不高 **版本对比总结**: * **最佳画质** → SeeDream 4.5(\$0.035/张) * **性价比** → SeeDream 4.0(\$0.03/张) * **快速生成** → Nano Banana(\$0.025/张,10秒) **数据来源与发布信息** * **官方发布**:BytePlus Volcano Engine, 2025年12月4日 * **模型版本**:seedream-4-5-251128 * **API文档**:`docs.byteplus.com/en/docs/ModelArk/1824121` * **技术参数**:基于官方文档和实际测试 * **价格信息**:截至 2025年12月4日 本文信息经过联网搜索验证,确保准确性和时效性。 *** **立即体验 SeeDream 4.5**,开启专业级 4K 图像创作之旅! 💡 访问 API易官网获取 200 张免费测试额度 # Chat Completions Source: https://docs.apiyi.com/api-reference/chat/chat-completions /api-reference/apiyi-openapi-en.yaml post /v1/chat/completions Core chat interface, compatible with the OpenAI Chat Completions API format. Supports 200+ AI models — just change the `model` parameter to switch between providers, with no other code changes needed. **Supported providers**: OpenAI, Anthropic, Google, xAI, DeepSeek, Alibaba, Moonshot, and more. **Note**: Streaming output (stream: true) cannot be previewed in the Playground. Use an SDK to test. # Create Embeddings Source: https://docs.apiyi.com/api-reference/embeddings/create-embeddings /api-reference/apiyi-openapi-en.yaml post /v1/embeddings Convert text into vector representations (embeddings) for use in semantic search, text clustering, recommendation systems, and more. Supports single text or batch text input. # List Models Source: https://docs.apiyi.com/api-reference/models/list-models /api-reference/apiyi-openapi-en.yaml get /v1/models Retrieve the list of all currently available models. The returned list includes model ID, creation time, owner, and other information. Can be used to check if a specific model is available.