提升 Codex 响应速度
说明 Codex Fast mode 和 Codex-Spark 的区别:一个是加速支持模型,一个是独立的低延迟模型选择。
这一篇用 6 分钟换什么:把"Codex 慢了怎么办"从"换模型"重新理解成4 步排查——先压上下文,再关无关 MCP,再换小模型,最后才开 Fast mode。读完后你不会一上来就用 credits 换延迟。
Codex 的 speed(速度)不是只有"换更快模型"一种方式。官方文档里有两个概念需要分清:
- Fast mode(快速模式):让支持的模型更快响应,但按更高倍率消耗 credits。
- Codex-Spark:一个独立模型选择,速度更快、能力更轻,且有自己的 usage limits。
Fast mode 快速模式
Codex 支持用更多 credits 换取更快模型速度。
Fast mode 会把支持模型的速度提升到 1.5x,同时比 Standard mode(标准模式)消耗更多 credits。
当前 Fast mode 支持:
| Model | Speed | Credit consumption |
|---|---|---|
| GPT-5.5 | 1.5x | 2.5x Standard rate |
| GPT-5.4 | 1.5x | 2x Standard rate |
在 CLI 中可以用下面三个命令切换或查看状态:
/fast on
/fast off
/fast status如果你希望默认启用 Fast mode,可以在 config.toml 中持久化配置:
service_tier = "fast"
[features]
fast_mode = trueFast mode 可用于:
- Codex IDE extension
- Codex CLI
- Codex app
前提是你使用 ChatGPT 登录。
如果你使用 API key,Codex 会走 standard API pricing(标准 API 价格),不能使用 Fast mode credits。
官方示例视频:
https://developers.openai.com/videos/codex/fast-mode-demo.mp4
Codex-Spark
GPT-5.3-Codex-Spark 是一个独立的 Codex 模型。它速度更快、能力更轻,目标是 near-instant, real-time coding iteration(近乎即时的实时编程迭代)。
它和 Fast mode 的区别是:
| 项 | Fast mode | GPT-5.3-Codex-Spark |
|---|---|---|
| 本质 | 给支持的模型加速 | 一个独立模型 |
| 代价 | 按更高倍率消耗 credits | 使用自己的 usage limits |
| 适合 | 你仍想用 GPT-5.5 或 GPT-5.4,但希望更快 | 日常快速 coding iteration |
| 可用范围 | ChatGPT 登录下的 IDE extension、CLI、app | research preview 阶段仅 ChatGPT Pro |
官方说明:在 research preview 阶段,Codex-Spark 只面向 ChatGPT Pro subscribers(ChatGPT Pro 订阅用户)开放。
先优化上下文,再换速度档
很多“慢”不是模型慢,而是上下文太重、任务太宽、工具太多。官方 Pricing 页也明确建议用这些方式延长 usage limits:
| 优化点 | 做法 | 影响 |
|---|---|---|
| Prompt size | 指令写具体,删除无关背景 | 输入更短,启动更快。 |
| AGENTS.md | 大项目用嵌套 instructions 控制注入范围 | 减少每次 thread 默认上下文。 |
| MCP servers | 不用的 MCP 禁用 | 减少工具目录和初始化成本。 |
| Model | routine task 换 gpt-5.4-mini | 延长 local message limits。 |
| Subagents | 只在真正并行时使用 | 避免多 agent 同时消耗 token。 |
优先级建议:
- 先把任务拆小。
- 再减少默认上下文和无关 MCP。
- 再切换小模型。
- 最后才开 Fast mode。
Fast mode 是“用 credits 换延迟”,不是质量优化。任务本身不清楚时,开 Fast mode 只会更快地消耗额度。
不同场景怎么选
| 场景 | 推荐 |
|---|---|
| 高风险重构但希望快一点 | gpt-5.5 或 gpt-5.4 + Fast mode。 |
| 日常小改、解释、轻量扫描 | gpt-5.4-mini。 |
| 快速 text-only coding iteration | 有资格时试 gpt-5.3-codex-spark。 |
| CI 或 shared automation | API key + standard API pricing,不能用 Fast mode credits。 |
| 多 agent 扫描 | explorer 用小模型,主 agent 用强模型汇总。 |
如果任务需要浏览器、截图、复杂工具调用或长时间验证,不要只按“模型响应速度”判断。工具执行和测试时间往往才是真正瓶颈。
速度问题排查
感觉 Codex 变慢时,按这个顺序排查:
/status看当前模型、Fast mode、上下文和额度状态。- 检查 thread 是否太长,必要时
/compact或新开 thread。 - 看 prompt 是否塞入大段无关日志或文件。
- 暂时关闭不需要的 MCP/plugin。
- 对 routine task 切到更小模型。
- 只有在任务目标清楚且值得消耗 credits 时,开启 Fast mode。
不要在一个长 thread 里不断追加新需求。上下文越长,模型需要处理的历史越多,速度和稳定性都会下降。