Skip to content

fast 与百万上下文

结论

  • GPT / Codex 的 fast 本质是 service_tier
  • Codex 里也可以用 /fast 启用 fast。
  • SuperAPI 不再使用单独 fast 分组;按请求动态计费。
  • GPT 百万上下文按长上下文计费,超过 272k 的部分额外计费。

GPT / Codex fast

基础配置:

bash
export OPENAI_API_KEY="sk-你的令牌"
export OPENAI_BASE_URL="https://superapi.buzz/v1"

Codex 内启用:

text
/fast

API / 客户端请求里的核心字段:

json
{
  "model": "gpt-5.5",
  "service_tier": "fast"
}

如果客户端把 fast 做成按钮、速度档或配置项,本质也是设置 service_tier=fast。SuperAPI 会识别请求里的 fast / service_tier 并动态计费。

Claude fast

Claude Code 内启用:

text
/fast

也可以在 Claude Code 设置里写:

json
{
  "fastMode": true
}

禁用:

bash
export CLAUDE_CODE_DISABLE_FAST_MODE=1

CC Switch 设置

基础项:

text
Base URL: https://superapi.buzz
Token: sk-你的令牌
分组:普通可用分组

Claude Code:

text
Fast:开启

如果 CC Switch 没有 fast 开关,启动 Claude Code 后输入:

text
/fast

GPT / Codex:

text
service_tier:fast

如果 CC Switch 没有 service_tier 字段,就在对应客户端里开启 fast,或使用支持 service_tier 的客户端配置。

百万上下文

Claude

Claude 4.6 系列百万上下文通常原生支持,不需要额外 beta。

CC Switch / 环境变量里通常不要填:

text
ANTHROPIC_BETAS=context-1m-2025-08-07

如果出现 invalid betaunsupported betaunexpected anthropic-beta,先删掉 beta 配置。

GPT / Codex

GPT 百万上下文按长上下文计费。

规则:

  • 272k 以内按普通上下文计费。
  • 超过 272k 的输入进入长上下文计费区间。
  • 超过部分会额外计费,不要默认把百万上下文当普通价格。

使用建议:

  • 日常编程不要默认塞满百万上下文。
  • 大仓库先让模型读关键目录,不要一次性塞全仓。
  • 长日志先裁剪,只保留关键报错和上下文。
  • 需要长上下文时明确告知用户会增加费用。

推荐写法

普通编程

text
分组:普通可用分组
fast:关闭
上下文:控制在 272k 以内

低延迟编程

text
分组:普通可用分组
Codex:/fast
GPT API:service_tier=fast
计费:动态 fast 计费

超长上下文

text
分组:普通可用分组
上下文:允许超过 272k
计费:272k 以上额外计费

排错

  • fast 没生效:确认 Codex 是否执行 /fast,或请求是否带 service_tier
  • 价格异常高:检查是否同时启用了 fast 和超长上下文。
  • 1M 不生效:确认模型是否支持百万上下文。
  • beta 报错:删除 ANTHROPIC_BETAS

SuperAPI 文档仅用于帮助用户正确配置客户端。