官方教程中文版模型、价格与效率
模型、价格与效率
理解 Codex 模型选择、价格、用量、速度档位和提示词效率,避免把高成本配置用在低复杂度任务上。
模型名称、价格、用量口径和套餐权益都属于高波动事实。本章只讲选择方法和核验入口,具体数值必须回 OpenAI 官方页面确认。
同样是 Codex,模型、推理强度、速度档位、上下文规模和提示词质量都会影响成本、速度和结果稳定性。真正的优化顺序不是先换模型,而是先把任务边界、上下文、验收标准和失败处理讲清楚。
5 个可调旋钮
flowchart LR
Task[任务]
Task --> P[提示词质量]
Task --> C[上下文规模]
Task --> M[模型选择]
Task --> R[推理强度]
Task --> S[速度档位]
P --> Result[成本 / 速度 / 质量 / 稳定性]
C --> Result
M --> Result
R --> Result
S --> Result
style P fill:#dcfce7,stroke:#22c55e,stroke-width:2px
style C fill:#eff6ff,stroke:#2563eb,stroke-width:2px
提示词质量和上下文剪裁是最先调整的两个杠杆。模型和速度档位应该服务于任务复杂度,而不是替代任务拆解。
本章先给结论
默认选型可以按这个顺序:
- 复杂、高风险、跨模块任务:用账号里可见的最强 Codex 推荐模型,当前优先看
gpt-5.5,不可用时继续用gpt-5.4。 - 轻量解释、扫描、小修、subagent 只读任务:优先小模型,例如
gpt-5.4-mini。 - Cloud tasks 和 GitHub code review:按官方当前支持的 cloud/review 模型,不把本地 model picker 的可用性直接套过去。
- 想要更快但仍使用强模型:再考虑 Fast mode,并接受更高 credit 消耗。
- 近乎即时 text-only 迭代:有 ChatGPT Pro 权限时再评估
gpt-5.3-codex-spark。
模型选择不是永久答案。只要涉及“当前最新模型、价格、额度、可用入口”,都必须回官方页核验。
章节速查
写好 Codex 提示词
先用目标、上下文、范围、验证和交付格式降低返工。
选择 Codex 模型
按复杂度、风险、延迟和验证成本选择,不在教程里硬写默认模型。
理解价格和用量
理解 token、上下文、任务重试和官方用量入口,具体价格回官方核验。
提升响应速度
通过缩小范围、剪裁上下文、分阶段验证和速度档位减少等待。
判断功能成熟度
区分稳定功能、实验功能、入口差异和团队落地风险。
实践建议
把官方建议转成可执行的 prompt、配置、验证和审查习惯。
推荐优化顺序
- 先重写任务:目标、范围、禁止事项、验证命令、输出格式。
- 再压上下文:只给相关文件、错误日志、官方链接和必要约束。
- 再拆阶段:先只读分析,再小范围修改,再验证和复盘。
- 再调模型和推理强度:复杂、跨模块、高风险任务才升档。
- 最后看价格和用量:用官方页面核验当前口径,不用旧截图和二手列表。
成本来自哪里
Codex 成本不只来自“模型单价”。实际消耗通常来自这些地方:
- Thread 很长,历史上下文和压缩摘要越来越多。
AGENTS.md太大,每次都注入大量无关规则。- MCP、plugins、apps 太多,工具列表和外部上下文变重。
- 任务没拆清楚,失败后反复重试。
- Subagents 并行过度,多个 agent 同时消耗模型和工具调用。
- Fast mode 或图片生成等能力加速消耗 usage limits。
所以本章的学习目标不是背价格表,而是建立一个习惯:每次觉得“贵、慢、不稳定”,先看任务边界和上下文,再看模型。
一页判断表
| 问题 | 先读哪篇 |
|---|---|
| Codex 总是改太多文件 | 写好 Codex 提示词 |
| 不知道该用哪个模型 | 选择 Codex 模型 |
| 额度消耗快 | 理解价格和用量 |
| 响应慢 | 提升 Codex 响应速度 |
| 功能能不能进团队 SOP | 判断功能成熟度 |
| 想把习惯固化成流程 | 实践建议 |
配套从原理到实战
完整的调档方法论见 控制模型、速度、成本和质量。那篇讲判断逻辑,本章提供官方功能页和查询入口。
返回 官方教程中文版总目录
接下来去哪
先改提示词
先降低返工率,再考虑模型、速度和价格。
再选模型
用任务复杂度和风险决定档位,不追逐固定推荐。
再看用量
把 token、上下文、重试和官方 billing 入口联系起来。
最后提速
用范围、上下文、阶段化和速度档位共同降低等待。