AI 编程教程中文版
官方教程中文版模型、价格与效率

提升 Codex 响应速度

说明 Codex Fast mode 和 Codex-Spark 的区别:一个是加速支持模型,一个是独立的低延迟模型选择。

这一篇用 6 分钟换什么:把"Codex 慢了怎么办"从"换模型"重新理解成4 步排查——先压上下文,再关无关 MCP,再换小模型,最后才开 Fast mode。读完后你不会一上来就用 credits 换延迟。

Codex 的 speed(速度)不是只有"换更快模型"一种方式。官方文档里有两个概念需要分清:

  • Fast mode(快速模式):让支持的模型更快响应,但按更高倍率消耗 credits。
  • Codex-Spark:一个独立模型选择,速度更快、能力更轻,且有自己的 usage limits。

Fast mode 快速模式

Codex 支持用更多 credits 换取更快模型速度。

Fast mode 会把支持模型的速度提升到 1.5x,同时比 Standard mode(标准模式)消耗更多 credits。

当前 Fast mode 支持:

ModelSpeedCredit consumption
GPT-5.51.5x2.5x Standard rate
GPT-5.41.5x2x Standard rate

在 CLI 中可以用下面三个命令切换或查看状态:

/fast on
/fast off
/fast status

如果你希望默认启用 Fast mode,可以在 config.toml 中持久化配置:

service_tier = "fast"

[features]
fast_mode = true

Fast mode 可用于:

  • Codex IDE extension
  • Codex CLI
  • Codex app

前提是你使用 ChatGPT 登录。

如果你使用 API key,Codex 会走 standard API pricing(标准 API 价格),不能使用 Fast mode credits。

官方示例视频:

https://developers.openai.com/videos/codex/fast-mode-demo.mp4

Codex-Spark

GPT-5.3-Codex-Spark 是一个独立的 Codex 模型。它速度更快、能力更轻,目标是 near-instant, real-time coding iteration(近乎即时的实时编程迭代)。

它和 Fast mode 的区别是:

Fast modeGPT-5.3-Codex-Spark
本质给支持的模型加速一个独立模型
代价按更高倍率消耗 credits使用自己的 usage limits
适合你仍想用 GPT-5.5 或 GPT-5.4,但希望更快日常快速 coding iteration
可用范围ChatGPT 登录下的 IDE extension、CLI、appresearch preview 阶段仅 ChatGPT Pro

官方说明:在 research preview 阶段,Codex-Spark 只面向 ChatGPT Pro subscribers(ChatGPT Pro 订阅用户)开放。

先优化上下文,再换速度档

很多“慢”不是模型慢,而是上下文太重、任务太宽、工具太多。官方 Pricing 页也明确建议用这些方式延长 usage limits:

优化点做法影响
Prompt size指令写具体,删除无关背景输入更短,启动更快。
AGENTS.md大项目用嵌套 instructions 控制注入范围减少每次 thread 默认上下文。
MCP servers不用的 MCP 禁用减少工具目录和初始化成本。
Modelroutine task 换 gpt-5.4-mini延长 local message limits。
Subagents只在真正并行时使用避免多 agent 同时消耗 token。

优先级建议:

  1. 先把任务拆小。
  2. 再减少默认上下文和无关 MCP。
  3. 再切换小模型。
  4. 最后才开 Fast mode。

Fast mode 是“用 credits 换延迟”,不是质量优化。任务本身不清楚时,开 Fast mode 只会更快地消耗额度。

不同场景怎么选

场景推荐
高风险重构但希望快一点gpt-5.5gpt-5.4 + Fast mode。
日常小改、解释、轻量扫描gpt-5.4-mini
快速 text-only coding iteration有资格时试 gpt-5.3-codex-spark
CI 或 shared automationAPI key + standard API pricing,不能用 Fast mode credits。
多 agent 扫描explorer 用小模型,主 agent 用强模型汇总。

如果任务需要浏览器、截图、复杂工具调用或长时间验证,不要只按“模型响应速度”判断。工具执行和测试时间往往才是真正瓶颈。

速度问题排查

感觉 Codex 变慢时,按这个顺序排查:

  1. /status 看当前模型、Fast mode、上下文和额度状态。
  2. 检查 thread 是否太长,必要时 /compact 或新开 thread。
  3. 看 prompt 是否塞入大段无关日志或文件。
  4. 暂时关闭不需要的 MCP/plugin。
  5. 对 routine task 切到更小模型。
  6. 只有在任务目标清楚且值得消耗 credits 时,开启 Fast mode。

不要在一个长 thread 里不断追加新需求。上下文越长,模型需要处理的历史越多,速度和稳定性都会下降。

官方资料

接下来去哪

本页目录