選擇 Codex 模型
說明 Codex 模型選擇思路:按入口、任務複雜度、速度、成本和驗證要求做取捨。
Codex 支援多種模型。選模型時,不要只看"哪個最強",還要看登入方式、任務入口、任務複雜度、速度、成本和驗證要求。
模型名稱、可用入口、價格、額度和 rollout 狀態變化快。寫配置或教程前,以官方 Models 頁、Pricing 頁和你賬號裡的 model picker 為準。
選擇維度
flowchart LR
Task["任務"] --> Quality["質量"]
Task --> Speed["速度"]
Task --> Cost["成本"]
Task --> Entry["入口"]
Task --> Verify["驗證要求"]
選擇模型先看五件事:
- 任務是否複雜:架構、重構、疑難 bug、長任務更需要高能力模型。
- 是否需要響應快:輕量解釋、小改動、subagent 分工可以用更快模型。
- 當前入口是什麼:ChatGPT 登入、API key、CLI、IDE、Cloud 的可用模型可能不同。
- 是否能驗證:可自動測試的任務可以更大膽;不可驗證任務要更保守。
- 成本和額度是否可控:批次自動化、subagents、圖片生成都會更快消耗額度。
當前推薦怎麼用
官方 Models 頁會列出當前推薦模型、適合場景、入口和限制。實際使用時按這個順序判斷:
- 先看當前 Codex model picker 中有哪些模型。
- 再看官方 Models 頁確認推薦和限制。
- 最後按任務風險選擇質量優先或速度優先。
如果官方推薦的最新模型還沒出現在賬號裡,不要硬配模型名。繼續使用 model picker 裡可用的推薦模型。
截至本頁核驗日期,官方 Codex Models 頁的推薦順序可以這樣理解:
| 模型 | 適合場景 | 關鍵限制 |
|---|---|---|
gpt-5.5 | 複雜編碼、computer use、知識工作、研究和高質量 agent workflow | ChatGPT 登入下可用;不支援 API-key authentication;Codex Cloud 不可用。 |
gpt-5.4 | 專業工作、複雜推理、工具使用和 agentic workflows;其編碼能力源自 GPT-5.3-Codex | CLI/IDE/app 可用;API Access 可用;Codex Cloud 不可用。 |
gpt-5.4-mini | 更快、更低成本的輕量 coding task 和 subagent | 適合掃描、解釋、小修,不適合高風險重構。 |
gpt-5.3-codex | 複雜軟體工程;同時也驅動 GPT-5.4 的編碼能力 | Cloud tasks 與 GitHub code review 預設使用此模型。 |
gpt-5.3-codex-spark | 近乎即時的 text-only coding iteration | research preview,僅 ChatGPT Pro;不走 ChatGPT Credits/API Access。 |
模型名和可用入口會變化,所以教程裡不要把這張表當永久配置,只能噹噹前選型基線。
配置預設模型
Codex CLI 和 IDE extension 使用同一個 config.toml:
model = "your-current-codex-model"不要把教程裡的佔位符複製成長期配置。寫入前確認:
- 賬號可用。
- 當前入口支援。
- 組織允許。
- 費用和額度可接受。
如果不顯式指定模型,Codex app、CLI 或 IDE extension 會預設使用官方推薦模型。
Reasoning effort 也要和任務匹配。GPT-5.5 預設 reasoning effort 是 medium,這是質量、可靠性、延遲和成本之間的平衡起點。低延遲任務可以先試 low;只有 evals 證明質量明顯提升時,再升到 high 或 xhigh。
不要把 “higher effort” 當成預設更好。任務目標不清、停止條件弱、工具開放過寬時,高 effort 可能帶來過度搜尋、過度修改或更高成本。
臨時切換
在 Codex CLI 的 active thread 裡,用 /model 切換模型。
在 IDE extension 裡,用輸入框下方的 model selector 切換模型。
啟動新 CLI thread 或 codex exec 時,可以用:
codex -m <model-name>Cloud tasks 當前不能修改預設模型(由官方頁明確)。Cloud 與 GitHub code review 都跑在 gpt-5.3-codex 上。如果你需要換模型,只能換到本地 CLI / IDE 入口跑,不要在 Cloud 任務裡反覆找選項。
Subagents 的模型選擇
多 agent 場景不應該所有 agent 都用最高模型。
推薦分配方式:
- 主 agent 或最終決策:優先
gpt-5.5或當前賬號裡最強可用模型。 - 只讀掃描:
gpt-5.4-mini通常夠用。 - 快速區域性實現:可以用
gpt-5.4-mini或更快的 Codex model,但必須收窄寫入範圍。 - 高風險 review、安全分析、遷移判斷:使用更強模型,並保留人工 review。
如果不在 custom agent file 裡 pin model,Codex 可以按任務自動選擇一個在 intelligence、speed、price 間平衡的設定。需要穩定復現時,再把 model 和 model_reasoning_effort 寫入 agent file。
常見誤區
- 只看“最強模型”,不看任務是否能驗證。
- 把模型名寫死進團隊配置,後續賬號不可用。
- 把 API Access 和 ChatGPT 登入可用性混為一談。
- 為所有 subagents 使用最高能力模型,導致速度和額度不可控。
- 模型升級時只改 model name,不看 prompt、tool 和 response shape。
驗收清單
- 當前模型在 model picker 或官方 Models 頁可見。
- 入口和認證方式支援該模型。
- 任務複雜度和 reasoning effort 匹配。
- 成本、速度、額度可接受。
- 改模型後跑過關鍵測試或 evals。
- 配置裡沒有過期模型名。
- 子 agent 沒有無腦全部使用最高模型。
- reasoning effort 的提升有測試或 evals 依據。