选择 Codex 模型
说明 Codex 模型选择思路:按入口、任务复杂度、速度、成本和验证要求做取舍。
Codex 支持多种模型。选模型时,不要只看"哪个最强",还要看登录方式、任务入口、任务复杂度、速度、成本和验证要求。
模型名称、可用入口、价格、额度和 rollout 状态变化快。写配置或教程前,以官方 Models 页、Pricing 页和你账号里的 model picker 为准。
选择维度
flowchart LR
Task["任务"] --> Quality["质量"]
Task --> Speed["速度"]
Task --> Cost["成本"]
Task --> Entry["入口"]
Task --> Verify["验证要求"]
选择模型先看五件事:
- 任务是否复杂:架构、重构、疑难 bug、长任务更需要高能力模型。
- 是否需要响应快:轻量解释、小改动、subagent 分工可以用更快模型。
- 当前入口是什么:ChatGPT 登录、API key、CLI、IDE、Cloud 的可用模型可能不同。
- 是否能验证:可自动测试的任务可以更大胆;不可验证任务要更保守。
- 成本和额度是否可控:批量自动化、subagents、图片生成都会更快消耗额度。
当前推荐怎么用
官方 Models 页会列出当前推荐模型、适合场景、入口和限制。实际使用时按这个顺序判断:
- 先看当前 Codex model picker 中有哪些模型。
- 再看官方 Models 页确认推荐和限制。
- 最后按任务风险选择质量优先或速度优先。
如果官方推荐的最新模型还没出现在账号里,不要硬配模型名。继续使用 model picker 里可用的推荐模型。
截至本页核验日期,官方 Codex Models 页的推荐顺序可以这样理解:
| 模型 | 适合场景 | 关键限制 |
|---|---|---|
gpt-5.5 | 复杂编码、computer use、知识工作、研究和高质量 agent workflow | ChatGPT 登录下可用;不支持 API-key authentication;Codex Cloud 不可用。 |
gpt-5.4 | 专业工作、复杂推理、工具使用和 agentic workflows;其编码能力源自 GPT-5.3-Codex | CLI/IDE/app 可用;API Access 可用;Codex Cloud 不可用。 |
gpt-5.4-mini | 更快、更低成本的轻量 coding task 和 subagent | 适合扫描、解释、小修,不适合高风险重构。 |
gpt-5.3-codex | 复杂软件工程;同时也驱动 GPT-5.4 的编码能力 | Cloud tasks 与 GitHub code review 默认使用此模型。 |
gpt-5.3-codex-spark | 近乎即时的 text-only coding iteration | research preview,仅 ChatGPT Pro;不走 ChatGPT Credits/API Access。 |
模型名和可用入口会变化,所以教程里不要把这张表当永久配置,只能当当前选型基线。
配置默认模型
Codex CLI 和 IDE extension 使用同一个 config.toml:
model = "your-current-codex-model"不要把教程里的占位符复制成长期配置。写入前确认:
- 账号可用。
- 当前入口支持。
- 组织允许。
- 费用和额度可接受。
如果不显式指定模型,Codex app、CLI 或 IDE extension 会默认使用官方推荐模型。
Reasoning effort 也要和任务匹配。GPT-5.5 默认 reasoning effort 是 medium,这是质量、可靠性、延迟和成本之间的平衡起点。低延迟任务可以先试 low;只有 evals 证明质量明显提升时,再升到 high 或 xhigh。
不要把 “higher effort” 当成默认更好。任务目标不清、停止条件弱、工具开放过宽时,高 effort 可能带来过度搜索、过度修改或更高成本。
临时切换
在 Codex CLI 的 active thread 里,用 /model 切换模型。
在 IDE extension 里,用输入框下方的 model selector 切换模型。
启动新 CLI thread 或 codex exec 时,可以用:
codex -m <model-name>Cloud tasks 当前不能修改默认模型(由官方页明确)。Cloud 与 GitHub code review 都跑在 gpt-5.3-codex 上。如果你需要换模型,只能换到本地 CLI / IDE 入口跑,不要在 Cloud 任务里反复找选项。
Subagents 的模型选择
多 agent 场景不应该所有 agent 都用最高模型。
推荐分配方式:
- 主 agent 或最终决策:优先
gpt-5.5或当前账号里最强可用模型。 - 只读扫描:
gpt-5.4-mini通常够用。 - 快速局部实现:可以用
gpt-5.4-mini或更快的 Codex model,但必须收窄写入范围。 - 高风险 review、安全分析、迁移判断:使用更强模型,并保留人工 review。
如果不在 custom agent file 里 pin model,Codex 可以按任务自动选择一个在 intelligence、speed、price 间平衡的设置。需要稳定复现时,再把 model 和 model_reasoning_effort 写入 agent file。
常见误区
- 只看“最强模型”,不看任务是否能验证。
- 把模型名写死进团队配置,后续账号不可用。
- 把 API Access 和 ChatGPT 登录可用性混为一谈。
- 为所有 subagents 使用最高能力模型,导致速度和额度不可控。
- 模型升级时只改 model name,不看 prompt、tool 和 response shape。
验收清单
- 当前模型在 model picker 或官方 Models 页可见。
- 入口和认证方式支持该模型。
- 任务复杂度和 reasoning effort 匹配。
- 成本、速度、额度可接受。
- 改模型后跑过关键测试或 evals。
- 配置里没有过期模型名。
- 子 agent 没有无脑全部使用最高模型。
- reasoning effort 的提升有测试或 evals 依据。