跳转到主要内容

简短回答

API易 目前不支持缓存计费功能。 这是由于 API易 采用号池分散请求的中转站模式,请求会分配到多个不同的上游账号,而缓存是针对特定账号的,无法跨账号命中缓存。
重要提醒:如果您的业务特别依赖缓存功能(如 DeepSeek、Kimi 等模型的上下文缓存),建议使用官方网站的直连 API。

为什么不支持缓存?

中转站的工作原理

API易 作为 AI 模型的中转站平台,采用以下架构来提高并发能力和服务稳定性:

号池机制

多个上游账号池API易 后台维护多个上游账号(如 OpenAI、Claude 等),请求会智能分散到不同账号

负载均衡

动态分配请求每次 API 调用可能会分配到不同的上游账号,提高并发处理能力

缓存的工作原理

大模型的缓存机制(如 Prompt Caching)是针对特定账号的:
1

首次请求

用户通过账号 A 发送请求,上游 API(如 OpenAI)将提示词缓存到账号 A 的缓存空间
2

缓存计费

上游 API 对账号 A 的缓存进行计费(通常比正常输入便宜 50%-90%)
3

后续请求

如果后续请求仍然使用账号 A,则可以命中缓存,享受缓存优惠价格

为什么 API易 无法支持缓存?

核心问题:中转站的号池机制与缓存的账号绑定特性存在冲突
场景示例
第 1 次请求:
- 用户请求 → API易 → 分配到上游账号 A
- 上游账号 A 缓存了提示词,计费 $0.10

第 2 次请求(相同提示词):
- 用户请求 → API易 → 分配到上游账号 B
- 上游账号 B 没有缓存,需要重新处理,计费 $1.00(无缓存优惠)

结果:缓存未命中,用户无法享受缓存优惠
缓存失效的原因
  • 缓存是对账号而言的,不是对用户或 API Key 而言的
  • API易 后台有多个号分散请求,无法保证连续请求使用同一个上游账号
  • 即使首次请求在账号 A 建立了缓存,第二次请求可能分配到账号 B,导致缓存未命中

如果我需要缓存功能怎么办?

方案 1:使用官方直连 API(推荐)

如果您的业务特别需要缓存功能(如长上下文、重复提示词场景),建议:

官方直连 API

使用官方网站的 API
  • 直接使用 OpenAI、Claude、DeepSeek 等官方 API
  • 保证所有请求使用同一个账号
  • 可以正常享受缓存计费优惠
注意:官方 API 需要自行解决:
  • 海外信用卡支付
  • 网络访问限制
  • 账号注册门槛

方案 2:评估缓存收益

在决定是否切换到官方 API 前,建议评估缓存收益:
高收益场景
  • 📄 长系统提示词:如果您的系统提示词很长(数千 tokens),且每次请求都重复使用
  • 📚 长上下文 RAG:检索增强生成(RAG)场景,每次请求都附带大量文档内容
  • 🔁 重复调用:短时间内频繁调用相同或相似的提示词
  • 💬 多轮对话:长对话历史需要反复传递
低收益场景
  • 💬 短提示词:系统提示词很短(几十个 tokens)
  • 🔀 多样化请求:每次请求的提示词都不同
  • 低频调用:请求间隔较长(缓存可能过期)
缓存节省计算公式
单次节省 = (正常输入价格 - 缓存输入价格) × 缓存命中的 tokens 数量

月度节省 = 单次节省 × 缓存命中次数 × 30天
示例(以 Claude Sonnet 4 为例):
场景正常输入价格缓存输入价格节省比例
Claude Sonnet 4$3/百万 tokens$0.30/百万 tokens90%
系统提示词 5000 tokens$0.015$0.0015节省 $0.0135
每天 1000 次调用$15/天$1.5/天月节省 $405
评估建议
  • 如果月度节省 大于官方 API 的额外成本和运维成本,建议切换
  • 如果月度节省 小于 $50,继续使用 API易 更划算(无需处理支付、网络等问题)
API易 的优势(无缓存情况下):支付便捷
  • 支持支付宝、微信支付
  • 人民币计价(1:7 优惠汇率)
  • 无需海外信用卡
充值优惠
  • 首充加赠 + 阶梯加赠(10%-20%)
  • 综合折扣可达官方 8 折
无网络限制
  • 国内直连,无需代理
  • 回国专线优化,速度快
统一接口
  • 200+ 模型统一 API 格式
  • 一键切换不同模型
  • 兼容 OpenAI SDK
稳定可靠
  • 号池机制提高并发能力
  • 自动容错切换
  • 专业技术支持
详见 充值优惠政策

方案 3:混合使用

根据业务场景灵活选择:

缓存敏感场景

使用官方直连 API
  • 长上下文 RAG
  • 固定系统提示词
  • 多轮对话应用

一般调用场景

使用 API易
  • 短提示词任务
  • 多样化请求
  • 低频调用场景

支持缓存的模型

以下模型的官方 API 支持缓存计费(仅供参考):
模型厂商缓存功能名称节省比例官方文档
ClaudePrompt Caching90%docs.anthropic.com/en/docs/build-with-claude/prompt-caching
DeepSeekCache Prefix95%api-docs.deepseek.com/quick_start/pricing
KimiContext Caching85%platform.moonshot.cn/docs/pricing
GeminiContext Caching75%ai.google.dev/gemini-api/docs/caching
说明:上述文档链接为纯文本格式,请手动复制到浏览器访问。

常见问题

号池机制的优势
  1. 提高并发能力:单个账号有 API 速率限制(如 OpenAI 的 RPM/TPM 限制),多账号池可以突破单账号限制
  2. 提升稳定性:某个账号出现问题时,可以自动切换到其他账号,避免服务中断
  3. 成本优化:不同账号可能有不同的定价或配额,灵活调度可降低成本
  4. 规避风险:分散请求到多个账号,降低单账号被限流或封禁的风险
这是中转站平台的核心竞争力,也是 API易 能够提供高并发、稳定服务的基础。
目前不支持。原因:
  • 绑定固定账号会失去号池机制的优势(并发能力、稳定性)
  • 单账号的速率限制可能无法满足您的并发需求
  • 技术实现复杂,且会增加运维成本
如果您确实需要固定账号(如缓存需求),建议直接使用官方 API。
我们理解缓存功能对某些业务场景的重要性。技术挑战
  • 需要彻底改变号池分配机制
  • 需要追踪每个用户的缓存状态
  • 需要保证连续请求使用同一上游账号
可能的方案
  • 提供”固定账号模式”选项(可选功能)
  • 用户可以选择是否启用缓存(牺牲部分并发能力)
目前该功能还在评估中,如有进展会在 AI风向标 中公布。如果您有强烈的缓存需求,欢迎联系我们的商务团队讨论定制方案。
需要缓存的典型信号✅ 您的系统提示词 超过 5000 tokens ✅ 每次请求都附带 大量重复的上下文(如 RAG 文档) ✅ 每天调用次数 超过 1000 次 ✅ 计算后月度缓存节省 超过 $50不需要缓存的典型信号❌ 系统提示词 少于 1000 tokens ❌ 请求内容 多样化,很少重复 ❌ 调用频率 较低(每天少于 100 次) ❌ 更看重 支付便捷性网络稳定性判断方法
  1. 查看您当前的 API 调用日志
  2. 统计平均每次请求的输入 tokens 数量
  3. 计算其中可缓存的部分(如系统提示词、固定上下文)
  4. 使用上述公式计算潜在节省

相关文档

充值优惠政策

了解 API易 的充值加赠优惠,无需缓存也能享受 8 折价格

模型选择指南

了解如何选择合适的模型,优化成本和性能

API 并发限制

了解 API易 的并发能力和速率限制

调用日志查询

查看您的 API 调用日志,分析 tokens 消耗情况

总结

API易 不支持缓存计费,原因是:
  • ✅ 中转站采用号池机制,提高并发和稳定性
  • ❌ 缓存是账号绑定的,无法跨账号命中
如果您需要缓存功能
  • 方案 1:使用官方直连 API(适合高频、长上下文场景)
  • 方案 2:评估缓存收益,权衡成本(月节省 $50+ 再考虑切换)
  • 方案 3:混合使用(缓存场景用官方 API,其他场景用 API易)
API易 的优势(无缓存场景):
  • 💰 充值优惠 8 折起
  • 💳 支付便捷(支付宝/微信)
  • 🌐 国内直连,无需代理
  • 🚀 200+ 模型统一接口
如有更多疑问,欢迎联系我们!

联系我们

企业微信客服

企业微信客服二维码扫码添加 或 点击联系客服缓存功能咨询、技术支持

邮件咨询

客服邮箱[email protected]商务合作[email protected]