fast 与百万上下文
Base URL
https://superapi.buzz结论
- GPT / Codex 的 fast 本质是
service_tier。 - Codex 里也可以用
/fast启用 fast。 - SuperAPI 不再使用单独 fast 分组;按请求动态计费。
- GPT 百万上下文按长上下文计费,超过
272k的部分额外计费。
GPT / Codex fast
基础配置:
bash
export OPENAI_API_KEY="sk-你的令牌"
export OPENAI_BASE_URL="https://superapi.buzz/v1"Codex 内启用:
text
/fastAPI / 客户端请求里的核心字段:
json
{
"model": "gpt-5.5",
"service_tier": "fast"
}如果客户端把 fast 做成按钮、速度档或配置项,本质也是设置 service_tier=fast。SuperAPI 会识别请求里的 fast / service_tier 并动态计费。
Claude fast
Claude Code 内启用:
text
/fast也可以在 Claude Code 设置里写:
json
{
"fastMode": true
}禁用:
bash
export CLAUDE_CODE_DISABLE_FAST_MODE=1CC Switch 设置
基础项:
text
Base URL: https://superapi.buzz
Token: sk-你的令牌
分组:普通可用分组Claude Code:
text
Fast:开启如果 CC Switch 没有 fast 开关,启动 Claude Code 后输入:
text
/fastGPT / Codex:
text
service_tier:fast如果 CC Switch 没有 service_tier 字段,就在对应客户端里开启 fast,或使用支持 service_tier 的客户端配置。
百万上下文
Claude
Claude 4.6 系列百万上下文通常原生支持,不需要额外 beta。
CC Switch / 环境变量里通常不要填:
text
ANTHROPIC_BETAS=context-1m-2025-08-07如果出现 invalid beta、unsupported beta、unexpected anthropic-beta,先删掉 beta 配置。
GPT / Codex
GPT 百万上下文按长上下文计费。
规则:
272k以内按普通上下文计费。- 超过
272k的输入进入长上下文计费区间。 - 超过部分会额外计费,不要默认把百万上下文当普通价格。
使用建议:
- 日常编程不要默认塞满百万上下文。
- 大仓库先让模型读关键目录,不要一次性塞全仓。
- 长日志先裁剪,只保留关键报错和上下文。
- 需要长上下文时明确告知用户会增加费用。
推荐写法
普通编程
text
分组:普通可用分组
fast:关闭
上下文:控制在 272k 以内低延迟编程
text
分组:普通可用分组
Codex:/fast
GPT API:service_tier=fast
计费:动态 fast 计费超长上下文
text
分组:普通可用分组
上下文:允许超过 272k
计费:272k 以上额外计费排错
- fast 没生效:确认 Codex 是否执行
/fast,或请求是否带service_tier。 - 价格异常高:检查是否同时启用了 fast 和超长上下文。
- 1M 不生效:确认模型是否支持百万上下文。
- beta 报错:删除
ANTHROPIC_BETAS。