跳转到主要内容

Apiyi Codex CLI 集成指南

通过 Apiyi 在命令行中接入 OpenAI Codex CLI,实现 AI 编程助手能力(兼容 OpenAI SDK)

一、准备工作

1. 安装 Codex CLI

先全局安装官方 CLI 工具:
npm install -g @openai/codex

二、核心配置

Apiyi 是OpenAI 兼容接口(透明代理),所以本质就是替换 Base URL + Key。

1. 环境变量配置(Mac / Linux)

编辑你的 shell 配置文件:
vim ~/.zshrc
# 或 ~/.bashrc
加入:
export OPENAI_BASE_URL="https://api.apiyi.com/v1"
export OPENAI_API_KEY="sk-xxx"  # 替换为你的 Apiyi Key

2. 使配置生效

source ~/.zshrc
# 或
source ~/.bashrc

三、Windows 配置(重点补充)

Windows 下分两种情况:

✅ 方式一:PowerShell(推荐)

执行:
setx OPENAI_BASE_URL "https://api.apiyi.com/v1"
setx OPENAI_API_KEY "sk-xxx"
然后关闭并重新打开终端生效。

✅ 方式二:临时环境变量(当前窗口)

$env:OPENAI_BASE_URL="https://api.apiyi.com/v1"
$env:OPENAI_API_KEY="sk-xxx"

✅ 方式三:系统环境变量(GUI)

  1. 打开「系统环境变量」
  2. 新建:
  • 变量名:OPENAI_BASE_URL
  • 值:https://api.apiyi.com/v1
  • 变量名:OPENAI_API_KEY
  • 值:sk-xxx

四、启动 Codex CLI

进入你的项目目录:
cd /your/project
codex

五、基础使用

示例:
codex "帮我写一个 Python HTTP Server"
或:
codex -q "修复当前项目报错"

可以,Codex CLI 支持在命令行启动时直接切换模型,用 -m--model 即可。OpenAI 官方 Codex 文档也明确给了示例:codex -m gpt-5.5,并且 Codex CLI 参考文档说明 --model, -m 用于覆盖配置里的默认模型。([OpenAI开发者][1]) 你文档里“模型说明”这块可以更新成下面这版:

六、模型说明(Apiyi 推荐)

Apiyi 当前可用于 Codex CLI 的常用模型包括:
  • gpt-5.5:最新主力模型,适合复杂代码任务、工程分析、Agent 工作流。
  • gpt-5.4:常用稳定模型,适合大多数代码开发、调试、重构场景。还有便宜的 gpt-5.4-mini 和 gpt-5.4-nano
  • gpt-5.3-codex:偏 Codex 场景的代码模型,适合复杂软件工程任务。
  • gpt-4.1 等便宜的经典模型
官方 Codex 文档中也将 gpt-5.5gpt-5.4gpt-5.3-codex 列为 Codex 推荐模型,并分别提供了对应的命令行调用方式。([OpenAI开发者][1])

1. 启动时临时指定模型

codex -m gpt-5.5
或:
codex --model gpt-5.4
使用 gpt-5.3-codex
codex -m gpt-5.3-codex
也可以直接带上任务:
codex -m gpt-5.5 "帮我检查这个项目的代码结构,并指出可以优化的地方"

2. 非交互模式指定模型

codex -q -m gpt-5.4 "修复当前项目里的构建错误"

3. 会话中切换模型

进入 Codex CLI 之后,也可以在当前会话里使用:
/model
然后选择或输入要切换的模型。官方说明 Codex CLI 支持在活跃线程中用 /model 命令切换模型。([OpenAI开发者][1])

4. 配置默认模型

如果希望默认就使用某个模型,可以编辑:
~/.codex/config.toml
加入:
model = "gpt-5.5"
Codex 当前官方配置文件是 config.toml,不是早期教程里常见的 config.json。官方文档说明,用户级配置文件位于 ~/.codex/config.toml,也支持项目级 .codex/config.toml。([OpenAI开发者][2])

七、进阶配置

1. 自定义系统提示词

编辑:
~/.codex/instructions.md
可以定义:
  • 编码风格
  • 输出语言
  • 项目规范

2. 常用参数

codex -h
常用:
-m 指定模型
-q 静默输出
--full-auto 自动执行

八、注意事项(关键)

1. Key 使用

Apiyi Key 获取: 👉 Apiyi 控制台 必须使用:
OPENAI_API_KEY
不要改变量名(CLI 写死的)

2. Base URL

必须带 /v1
https://api.apiyi.com/v1

3. 网络问题

如果遇到:
  • timeout
  • 连接失败
优先检查:
  • 本地代理
  • DNS
  • 是否误用了 Cloudflare 中转域名(不建议)

4. 模型差异

Codex CLI:
  • 偏向代码任务
  • 不支持所有图像/多模态能力

九、常见问题

❓ Q1:为什么能用 OpenAI CLI?

因为 Apiyi:
  • 完全兼容 OpenAI API 协议
  • 仅替换 Base URL 即可

❓ Q2:能用哪些模型?

取决于 Apiyi 当前支持:
  • OpenAI 系列 ✅
  • 部分聚合模型(但 CLI 未必支持)

❓ Q3:适合生产吗?

可以,但建议:
  • CLI 用于开发效率
  • 生产调用走 API(更可控)

十、总结(实话版)

这类接入本质就一句话:
把 OpenAI 的入口换成 Apiyi
核心两行:
OPENAI_BASE_URL=https://api.apiyi.com/v1
OPENAI_API_KEY=你的key
剩下都是锦上添花。