AI 编程教程中文版
官方教程中文版模型、价格与效率

选择 Codex 模型

说明 Codex 模型选择思路:按入口、任务复杂度、速度、成本和验证要求做取舍。

Codex 支持多种模型。选模型时,不要只看"哪个最强",还要看登录方式、任务入口、任务复杂度、速度、成本和验证要求。

模型名称、可用入口、价格、额度和 rollout 状态变化快。写配置或教程前,以官方 Models 页、Pricing 页和你账号里的 model picker 为准。

选择维度

flowchart LR
    Task["任务"] --> Quality["质量"]
    Task --> Speed["速度"]
    Task --> Cost["成本"]
    Task --> Entry["入口"]
    Task --> Verify["验证要求"]

选择模型先看五件事:

  • 任务是否复杂:架构、重构、疑难 bug、长任务更需要高能力模型。
  • 是否需要响应快:轻量解释、小改动、subagent 分工可以用更快模型。
  • 当前入口是什么:ChatGPT 登录、API key、CLI、IDE、Cloud 的可用模型可能不同。
  • 是否能验证:可自动测试的任务可以更大胆;不可验证任务要更保守。
  • 成本和额度是否可控:批量自动化、subagents、图片生成都会更快消耗额度。

当前推荐怎么用

官方 Models 页会列出当前推荐模型、适合场景、入口和限制。实际使用时按这个顺序判断:

  1. 先看当前 Codex model picker 中有哪些模型。
  2. 再看官方 Models 页确认推荐和限制。
  3. 最后按任务风险选择质量优先或速度优先。

如果官方推荐的最新模型还没出现在账号里,不要硬配模型名。继续使用 model picker 里可用的推荐模型。

截至本页核验日期,官方 Codex Models 页的推荐顺序可以这样理解:

模型适合场景关键限制
gpt-5.5复杂编码、computer use、知识工作、研究和高质量 agent workflowChatGPT 登录下可用;不支持 API-key authentication;Codex Cloud 不可用。
gpt-5.4专业工作、复杂推理、工具使用和 agentic workflows;其编码能力源自 GPT-5.3-CodexCLI/IDE/app 可用;API Access 可用;Codex Cloud 不可用。
gpt-5.4-mini更快、更低成本的轻量 coding task 和 subagent适合扫描、解释、小修,不适合高风险重构。
gpt-5.3-codex复杂软件工程;同时也驱动 GPT-5.4 的编码能力Cloud tasks 与 GitHub code review 默认使用此模型。
gpt-5.3-codex-spark近乎即时的 text-only coding iterationresearch preview,仅 ChatGPT Pro;不走 ChatGPT Credits/API Access。

模型名和可用入口会变化,所以教程里不要把这张表当永久配置,只能当当前选型基线。

配置默认模型

Codex CLI 和 IDE extension 使用同一个 config.toml

model = "your-current-codex-model"

不要把教程里的占位符复制成长期配置。写入前确认:

  • 账号可用。
  • 当前入口支持。
  • 组织允许。
  • 费用和额度可接受。

如果不显式指定模型,Codex app、CLI 或 IDE extension 会默认使用官方推荐模型。

Reasoning effort 也要和任务匹配。GPT-5.5 默认 reasoning effort 是 medium,这是质量、可靠性、延迟和成本之间的平衡起点。低延迟任务可以先试 low;只有 evals 证明质量明显提升时,再升到 highxhigh

不要把 “higher effort” 当成默认更好。任务目标不清、停止条件弱、工具开放过宽时,高 effort 可能带来过度搜索、过度修改或更高成本。

临时切换

在 Codex CLI 的 active thread 里,用 /model 切换模型。

在 IDE extension 里,用输入框下方的 model selector 切换模型。

启动新 CLI thread 或 codex exec 时,可以用:

codex -m <model-name>

Cloud tasks 当前不能修改默认模型(由官方页明确)。Cloud 与 GitHub code review 都跑在 gpt-5.3-codex 上。如果你需要换模型,只能换到本地 CLI / IDE 入口跑,不要在 Cloud 任务里反复找选项。

Subagents 的模型选择

多 agent 场景不应该所有 agent 都用最高模型。

推荐分配方式:

  • 主 agent 或最终决策:优先 gpt-5.5 或当前账号里最强可用模型。
  • 只读扫描:gpt-5.4-mini 通常够用。
  • 快速局部实现:可以用 gpt-5.4-mini 或更快的 Codex model,但必须收窄写入范围。
  • 高风险 review、安全分析、迁移判断:使用更强模型,并保留人工 review。

如果不在 custom agent file 里 pin model,Codex 可以按任务自动选择一个在 intelligence、speed、price 间平衡的设置。需要稳定复现时,再把 modelmodel_reasoning_effort 写入 agent file。

常见误区

  • 只看“最强模型”,不看任务是否能验证。
  • 把模型名写死进团队配置,后续账号不可用。
  • 把 API Access 和 ChatGPT 登录可用性混为一谈。
  • 为所有 subagents 使用最高能力模型,导致速度和额度不可控。
  • 模型升级时只改 model name,不看 prompt、tool 和 response shape。

验收清单

  • 当前模型在 model picker 或官方 Models 页可见。
  • 入口和认证方式支持该模型。
  • 任务复杂度和 reasoning effort 匹配。
  • 成本、速度、额度可接受。
  • 改模型后跑过关键测试或 evals。
  • 配置里没有过期模型名。
  • 子 agent 没有无脑全部使用最高模型。
  • reasoning effort 的提升有测试或 evals 依据。

官方资料

本页目录