AI 程式設計教程中文版
官方教程中文版模型、價格與效率

提升 Codex 響應速度

說明 Codex Fast mode 和 Codex-Spark 的區別:一個是加速支援模型,一個是獨立的低延遲模型選擇。

這一篇用 6 分鐘換什麼:把"Codex 慢了怎麼辦"從"換模型"重新理解成4 步排查——先壓上下文,再關無關 MCP,再換小模型,最後才開 Fast mode。讀完後你不會一上來就用 credits 換延遲。

Codex 的 speed(速度)不是隻有"換更快模型"一種方式。官方文件裡有兩個概念需要分清:

  • Fast mode(快速模式):讓支援的模型更快響應,但按更高倍率消耗 credits。
  • Codex-Spark:一個獨立模型選擇,速度更快、能力更輕,且有自己的 usage limits。

Fast mode 快速模式

Codex 支援用更多 credits 換取更快模型速度。

Fast mode 會把支援模型的速度提升到 1.5x,同時比 Standard mode(標準模式)消耗更多 credits。

當前 Fast mode 支援:

ModelSpeedCredit consumption
GPT-5.51.5x2.5x Standard rate
GPT-5.41.5x2x Standard rate

在 CLI 中可以用下面三個命令切換或檢視狀態:

/fast on
/fast off
/fast status

如果你希望預設啟用 Fast mode,可以在 config.toml 中持久化配置:

service_tier = "fast"

[features]
fast_mode = true

Fast mode 可用於:

  • Codex IDE extension
  • Codex CLI
  • Codex app

前提是你使用 ChatGPT 登入。

如果你使用 API key,Codex 會走 standard API pricing(標準 API 價格),不能使用 Fast mode credits。

官方示例影片:

https://developers.openai.com/videos/codex/fast-mode-demo.mp4

Codex-Spark

GPT-5.3-Codex-Spark 是一個獨立的 Codex 模型。它速度更快、能力更輕,目標是 near-instant, real-time coding iteration(近乎即時的即時程式設計迭代)。

它和 Fast mode 的區別是:

Fast modeGPT-5.3-Codex-Spark
本質給支援的模型加速一個獨立模型
代價按更高倍率消耗 credits使用自己的 usage limits
適合你仍想用 GPT-5.5 或 GPT-5.4,但希望更快日常快速 coding iteration
可用範圍ChatGPT 登入下的 IDE extension、CLI、appresearch preview 階段僅 ChatGPT Pro

官方說明:在 research preview 階段,Codex-Spark 只面向 ChatGPT Pro subscribers(ChatGPT Pro 訂閱使用者)開放。

先最佳化上下文,再換速度檔

很多“慢”不是模型慢,而是上下文太重、任務太寬、工具太多。官方 Pricing 頁也明確建議用這些方式延長 usage limits:

最佳化點做法影響
Prompt size指令寫具體,刪除無關背景輸入更短,啟動更快。
AGENTS.md大專案用巢狀 instructions 控制注入範圍減少每次 thread 預設上下文。
MCP servers不用的 MCP 停用減少工具目錄和初始化成本。
Modelroutine task 換 gpt-5.4-mini延長 local message limits。
Subagents只在真正並行時使用避免多 agent 同時消耗 token。

優先順序建議:

  1. 先把任務拆小。
  2. 再減少預設上下文和無關 MCP。
  3. 再切換小模型。
  4. 最後才開 Fast mode。

Fast mode 是“用 credits 換延遲”,不是質量最佳化。任務本身不清楚時,開 Fast mode 只會更快地消耗額度。

不同場景怎麼選

場景推薦
高風險重構但希望快一點gpt-5.5gpt-5.4 + Fast mode。
日常小改、解釋、輕量掃描gpt-5.4-mini
快速 text-only coding iteration有資格時試 gpt-5.3-codex-spark
CI 或 shared automationAPI key + standard API pricing,不能用 Fast mode credits。
多 agent 掃描explorer 用小模型,主 agent 用強模型彙總。

如果任務需要瀏覽器、截圖、複雜工具呼叫或長時間驗證,不要只按“模型響應速度”判斷。工具執行和測試時間往往才是真正瓶頸。

速度問題排查

感覺 Codex 變慢時,按這個順序排查:

  1. /status 看當前模型、Fast mode、上下文和額度狀態。
  2. 檢查 thread 是否太長,必要時 /compact 或新開 thread。
  3. 看 prompt 是否塞入大段無關日誌或檔案。
  4. 暫時關閉不需要的 MCP/plugin。
  5. 對 routine task 切到更小模型。
  6. 只有在任務目標清楚且值得消耗 credits 時,開啟 Fast mode。

不要在一個長 thread 裡不斷追加新需求。上下文越長,模型需要處理的歷史越多,速度和穩定性都會下降。

官方資料

接下來去哪

本頁目錄