Skip to content

Codex CLI 配置

1. 安装 Codex

确保已安装 Node.js,然后安装或更新 Codex CLI:

bash
npm install -g @openai/codex

启动:

bash
codex

如果你明确知道自己在做什么,也可以使用跳过权限确认的模式:

bash
codex --dangerously-bypass-approvals-and-sandbox

权限提醒

跳过权限确认会让 Codex 直接执行命令。只建议在可信目录、可信机器上使用。

2. 配置 Base URL 和 Token

Codex 使用 OpenAI 兼容接口时,通常需要:

bash
export OPENAI_API_KEY="sk-你的令牌"
export OPENAI_BASE_URL="https://superapi.buzz/v1"

Windows PowerShell:

powershell
$env:OPENAI_API_KEY="sk-你的令牌"
$env:OPENAI_BASE_URL="https://superapi.buzz/v1"

3. 模型选择

进入 Codex 后,通过客户端的模型设置选择可用模型。若提示模型元数据缺失,一般不影响基础请求,但可能影响 token 估算或体验。

4. fast 和百万上下文

Codex fast 可以在 Codex 里执行:

text
/fast

GPT / Codex API 层对应:

json
{
  "service_tier": "fast"
}

SuperAPI 不再使用单独 fast 分组,会按请求里的 fast / service_tier 动态计费。

GPT 百万上下文超过 272k 的部分会额外计费。不要默认把整个仓库、超长日志一次性塞进上下文。

详见 fast 与百万上下文

5. 常见问题

Unexpected status 404 Not Found

通常是 URL 填错。Codex 请求 /v1/responses 时,Base URL 应该类似:

text
https://superapi.buzz/v1

不要填成:

text
https://superapi.buzz/v1/responses

Service temporarily unavailable

表示当前模型 / 分组 / 上游账号暂时不可用。处理方式:

  1. 换同系列模型。
  2. 换支持的分组。
  3. 等待账号池恢复。

context too large

上下文太大时,新开会话或减少附加文件。可以让 Codex 先读关键文件,不要一次性塞入整个项目。

SuperAPI 文档仅用于帮助用户正确配置客户端。