提升 Codex 響應速度
說明 Codex Fast mode 和 Codex-Spark 的區別:一個是加速支援模型,一個是獨立的低延遲模型選擇。
這一篇用 6 分鐘換什麼:把"Codex 慢了怎麼辦"從"換模型"重新理解成4 步排查——先壓上下文,再關無關 MCP,再換小模型,最後才開 Fast mode。讀完後你不會一上來就用 credits 換延遲。
Codex 的 speed(速度)不是隻有"換更快模型"一種方式。官方文件裡有兩個概念需要分清:
- Fast mode(快速模式):讓支援的模型更快響應,但按更高倍率消耗 credits。
- Codex-Spark:一個獨立模型選擇,速度更快、能力更輕,且有自己的 usage limits。
Fast mode 快速模式
Codex 支援用更多 credits 換取更快模型速度。
Fast mode 會把支援模型的速度提升到 1.5x,同時比 Standard mode(標準模式)消耗更多 credits。
當前 Fast mode 支援:
| Model | Speed | Credit consumption |
|---|---|---|
| GPT-5.5 | 1.5x | 2.5x Standard rate |
| GPT-5.4 | 1.5x | 2x Standard rate |
在 CLI 中可以用下面三個命令切換或檢視狀態:
/fast on
/fast off
/fast status如果你希望預設啟用 Fast mode,可以在 config.toml 中持久化配置:
service_tier = "fast"
[features]
fast_mode = trueFast mode 可用於:
- Codex IDE extension
- Codex CLI
- Codex app
前提是你使用 ChatGPT 登入。
如果你使用 API key,Codex 會走 standard API pricing(標準 API 價格),不能使用 Fast mode credits。
官方示例影片:
https://developers.openai.com/videos/codex/fast-mode-demo.mp4
Codex-Spark
GPT-5.3-Codex-Spark 是一個獨立的 Codex 模型。它速度更快、能力更輕,目標是 near-instant, real-time coding iteration(近乎即時的即時程式設計迭代)。
它和 Fast mode 的區別是:
| 項 | Fast mode | GPT-5.3-Codex-Spark |
|---|---|---|
| 本質 | 給支援的模型加速 | 一個獨立模型 |
| 代價 | 按更高倍率消耗 credits | 使用自己的 usage limits |
| 適合 | 你仍想用 GPT-5.5 或 GPT-5.4,但希望更快 | 日常快速 coding iteration |
| 可用範圍 | ChatGPT 登入下的 IDE extension、CLI、app | research preview 階段僅 ChatGPT Pro |
官方說明:在 research preview 階段,Codex-Spark 只面向 ChatGPT Pro subscribers(ChatGPT Pro 訂閱使用者)開放。
先最佳化上下文,再換速度檔
很多“慢”不是模型慢,而是上下文太重、任務太寬、工具太多。官方 Pricing 頁也明確建議用這些方式延長 usage limits:
| 最佳化點 | 做法 | 影響 |
|---|---|---|
| Prompt size | 指令寫具體,刪除無關背景 | 輸入更短,啟動更快。 |
| AGENTS.md | 大專案用巢狀 instructions 控制注入範圍 | 減少每次 thread 預設上下文。 |
| MCP servers | 不用的 MCP 停用 | 減少工具目錄和初始化成本。 |
| Model | routine task 換 gpt-5.4-mini | 延長 local message limits。 |
| Subagents | 只在真正並行時使用 | 避免多 agent 同時消耗 token。 |
優先順序建議:
- 先把任務拆小。
- 再減少預設上下文和無關 MCP。
- 再切換小模型。
- 最後才開 Fast mode。
Fast mode 是“用 credits 換延遲”,不是質量最佳化。任務本身不清楚時,開 Fast mode 只會更快地消耗額度。
不同場景怎麼選
| 場景 | 推薦 |
|---|---|
| 高風險重構但希望快一點 | gpt-5.5 或 gpt-5.4 + Fast mode。 |
| 日常小改、解釋、輕量掃描 | gpt-5.4-mini。 |
| 快速 text-only coding iteration | 有資格時試 gpt-5.3-codex-spark。 |
| CI 或 shared automation | API key + standard API pricing,不能用 Fast mode credits。 |
| 多 agent 掃描 | explorer 用小模型,主 agent 用強模型彙總。 |
如果任務需要瀏覽器、截圖、複雜工具呼叫或長時間驗證,不要只按“模型響應速度”判斷。工具執行和測試時間往往才是真正瓶頸。
速度問題排查
感覺 Codex 變慢時,按這個順序排查:
/status看當前模型、Fast mode、上下文和額度狀態。- 檢查 thread 是否太長,必要時
/compact或新開 thread。 - 看 prompt 是否塞入大段無關日誌或檔案。
- 暫時關閉不需要的 MCP/plugin。
- 對 routine task 切到更小模型。
- 只有在任務目標清楚且值得消耗 credits 時,開啟 Fast mode。
不要在一個長 thread 裡不斷追加新需求。上下文越長,模型需要處理的歷史越多,速度和穩定性都會下降。