Codex CLI 配置
Base URL
https://superapi.buzz1. 安装 Codex
确保已安装 Node.js,然后安装或更新 Codex CLI:
bash
npm install -g @openai/codex启动:
bash
codex如果你明确知道自己在做什么,也可以使用跳过权限确认的模式:
bash
codex --dangerously-bypass-approvals-and-sandbox权限提醒
跳过权限确认会让 Codex 直接执行命令。只建议在可信目录、可信机器上使用。
2. 配置 Base URL 和 Token
Codex 使用 OpenAI 兼容接口时,通常需要:
bash
export OPENAI_API_KEY="sk-你的令牌"
export OPENAI_BASE_URL="https://superapi.buzz/v1"Windows PowerShell:
powershell
$env:OPENAI_API_KEY="sk-你的令牌"
$env:OPENAI_BASE_URL="https://superapi.buzz/v1"3. 模型选择
进入 Codex 后,通过客户端的模型设置选择可用模型。若提示模型元数据缺失,一般不影响基础请求,但可能影响 token 估算或体验。
4. fast 和百万上下文
Codex fast 可以在 Codex 里执行:
text
/fastGPT / Codex API 层对应:
json
{
"service_tier": "fast"
}SuperAPI 不再使用单独 fast 分组,会按请求里的 fast / service_tier 动态计费。
GPT 百万上下文超过 272k 的部分会额外计费。不要默认把整个仓库、超长日志一次性塞进上下文。
详见 fast 与百万上下文。
5. 常见问题
Unexpected status 404 Not Found
通常是 URL 填错。Codex 请求 /v1/responses 时,Base URL 应该类似:
text
https://superapi.buzz/v1不要填成:
text
https://superapi.buzz/v1/responsesService temporarily unavailable
表示当前模型 / 分组 / 上游账号暂时不可用。处理方式:
- 换同系列模型。
- 换支持的分组。
- 等待账号池恢复。
context too large
上下文太大时,新开会话或减少附加文件。可以让 Codex 先读关键文件,不要一次性塞入整个项目。