模型与分组
分组是什么
分组决定当前请求会进入哪一类账号池,以及该池支持哪些模型、倍率和能力。
常见分组可能包含:
codex-pluscodex-teamcodex-proopenai-team
具体名称以控制台展示为准。
fast / service_tier 的理解
- fast:表示更快的速度档或官方 fast mode,当前按请求动态计费,不再要求单独 fast 分组。
- service_tier=fast:GPT / Codex fast 对应的 API 参数。
如果客户端模型名或配置里包含 fast,系统会按请求实际 fast 状态动态计费。用户无需专门切换到 *-fast 分组。
当前公告里的计费说明
- fast 不再依赖单独的 fast 分组。
- 使用普通 plus / team / free / pro 等可用分组。
- 请求启用 fast 时,系统按动态计费识别倍率。
gpt-5.5 fast可能有更高倍率,但不需要用户切换到单独分组。- GPT / Codex fast 通过
service_tier、客户端 fast 开关或/fast启用。 - Claude Code fast 通过
/fast或"fastMode": true启用。 - spark 模型仅 pro 分组可用,且 pro 分组当前暂不支持 fast。
体感速度只作为参考:
| 类型 | 简单请求体感 |
|---|---|
| 默认 | 约 7 秒 |
| fast | 约 4-5 秒 |
| spark | 约 3 秒 |
Codex 模型范围
公告明确提到,gpt-5.2-codex 以及任何低于 5.2 的模型已下架,不能请求。当前主线可用范围大致是:
gpt-5.2gpt-5.3-codexgpt-5.4gpt-5.5
pro 分组的可用模型可能不同,以控制台模型列表为准。
生图模型
当前公告提到:
gpt-image-2通过 API 可用。- Codex 内部调用 skill 生图可用。
- Codex 内生图和直接调用 API 生图均支持。
- 慢图、大图、高分辨率图建议使用流式请求和 partial images。
模型不可用时怎么办
如果看到:
json
{
"error": {
"message": "model price not configured"
}
}说明当前模型没有配置价格或不在分组白名单里。处理方式:
- 换控制台明确列出的模型。
- 检查令牌所属分组。
- 等管理员同步模型和价格配置。