Apiyi Codex CLI 集成指南
通过 Apiyi 在命令行中接入 OpenAI Codex CLI,实现 AI 编程助手能力(兼容 OpenAI SDK)
一、准备工作
1. 安装 Codex CLI
先全局安装官方 CLI 工具:二、核心配置
Apiyi 是OpenAI 兼容接口(透明代理),所以本质就是替换 Base URL + Key。1. 环境变量配置(Mac / Linux)
编辑你的 shell 配置文件:2. 使配置生效
三、Windows 配置(重点补充)
Windows 下分两种情况:✅ 方式一:PowerShell(推荐)
执行:✅ 方式二:临时环境变量(当前窗口)
✅ 方式三:系统环境变量(GUI)
- 打开「系统环境变量」
- 新建:
-
变量名:
OPENAI_BASE_URL -
值:
https://api.apiyi.com/v1 -
变量名:
OPENAI_API_KEY -
值:
sk-xxx
四、启动 Codex CLI
进入你的项目目录:五、基础使用
示例:可以,Codex CLI 支持在命令行启动时直接切换模型,用
-m 或 --model 即可。OpenAI 官方 Codex 文档也明确给了示例:codex -m gpt-5.5,并且 Codex CLI 参考文档说明 --model, -m 用于覆盖配置里的默认模型。([OpenAI开发者][1])
你文档里“模型说明”这块可以更新成下面这版:
六、模型说明(Apiyi 推荐)
Apiyi 当前可用于 Codex CLI 的常用模型包括:gpt-5.5:最新主力模型,适合复杂代码任务、工程分析、Agent 工作流。gpt-5.4:常用稳定模型,适合大多数代码开发、调试、重构场景。还有便宜的 gpt-5.4-mini 和 gpt-5.4-nanogpt-5.3-codex:偏 Codex 场景的代码模型,适合复杂软件工程任务。- gpt-4.1 等便宜的经典模型
gpt-5.5、gpt-5.4、gpt-5.3-codex 列为 Codex 推荐模型,并分别提供了对应的命令行调用方式。([OpenAI开发者][1])
1. 启动时临时指定模型
gpt-5.3-codex:
2. 非交互模式指定模型
3. 会话中切换模型
进入 Codex CLI 之后,也可以在当前会话里使用:/model 命令切换模型。([OpenAI开发者][1])
4. 配置默认模型
如果希望默认就使用某个模型,可以编辑:config.toml,不是早期教程里常见的 config.json。官方文档说明,用户级配置文件位于 ~/.codex/config.toml,也支持项目级 .codex/config.toml。([OpenAI开发者][2])
七、进阶配置
1. 自定义系统提示词
编辑:- 编码风格
- 输出语言
- 项目规范
2. 常用参数
八、注意事项(关键)
1. Key 使用
Apiyi Key 获取: 👉 Apiyi 控制台 必须使用:2. Base URL
必须带/v1:
3. 网络问题
如果遇到:- timeout
- 连接失败
- 本地代理
- DNS
- 是否误用了 Cloudflare 中转域名(不建议)
4. 模型差异
Codex CLI:- 偏向代码任务
- 不支持所有图像/多模态能力
九、常见问题
❓ Q1:为什么能用 OpenAI CLI?
因为 Apiyi:- 完全兼容 OpenAI API 协议
- 仅替换 Base URL 即可
❓ Q2:能用哪些模型?
取决于 Apiyi 当前支持:- OpenAI 系列 ✅
- 部分聚合模型(但 CLI 未必支持)
❓ Q3:适合生产吗?
可以,但建议:- CLI 用于开发效率
- 生产调用走 API(更可控)
十、总结(实话版)
这类接入本质就一句话:把 OpenAI 的入口换成 Apiyi核心两行: