官方教程中文版模型、價格與效率
模型、價格與效率
理解 Codex 模型選擇、價格、用量、速度檔位和提示詞效率,避免把高成本配置用在低複雜度任務上。
模型名稱、價格、用量口徑和套餐權益都屬於高波動事實。本章只講選擇方法和核驗入口,具體數值必須回 OpenAI 官方頁面確認。
同樣是 Codex,模型、推理強度、速度檔位、上下文規模和提示詞質量都會影響成本、速度和結果穩定性。真正的最佳化順序不是先換模型,而是先把任務邊界、上下文、驗收標準和失敗處理講清楚。
5 個可調旋鈕
flowchart LR
Task[任務]
Task --> P[提示詞質量]
Task --> C[上下文規模]
Task --> M[模型選擇]
Task --> R[推理強度]
Task --> S[速度檔位]
P --> Result[成本 / 速度 / 質量 / 穩定性]
C --> Result
M --> Result
R --> Result
S --> Result
style P fill:#dcfce7,stroke:#22c55e,stroke-width:2px
style C fill:#eff6ff,stroke:#2563eb,stroke-width:2px
提示詞質量和上下文剪裁是最先調整的兩個槓桿。模型和速度檔位應該服務於任務複雜度,而不是替代任務拆解。
本章先給結論
預設選型可以按這個順序:
- 複雜、高風險、跨模組任務:用賬號裡可見的最強 Codex 推薦模型,當前優先看
gpt-5.5,不可用時繼續用gpt-5.4。 - 輕量解釋、掃描、小修、subagent 只讀任務:優先小模型,例如
gpt-5.4-mini。 - Cloud tasks 和 GitHub code review:按官方當前支援的 cloud/review 模型,不把本地 model picker 的可用性直接套過去。
- 想要更快但仍使用強模型:再考慮 Fast mode,並接受更高 credit 消耗。
- 近乎即時 text-only 迭代:有 ChatGPT Pro 許可權時再評估
gpt-5.3-codex-spark。
模型選擇不是永久答案。只要涉及“當前最新模型、價格、額度、可用入口”,都必須回官方頁核驗。
章節速查
寫好 Codex 提示詞
先用目標、上下文、範圍、驗證和交付格式降低返工。
選擇 Codex 模型
按複雜度、風險、延遲和驗證成本選擇,不在教程裡硬寫預設模型。
理解價格和用量
理解 token、上下文、任務重試和官方用量入口,具體價格回官方核驗。
提升響應速度
透過縮小範圍、剪裁上下文、分階段驗證和速度檔位減少等待。
判斷功能成熟度
區分穩定功能、實驗功能、入口差異和團隊落地風險。
實踐建議
把官方建議轉成可執行的 prompt、配置、驗證和審查習慣。
推薦最佳化順序
- 先重寫任務:目標、範圍、禁止事項、驗證命令、輸出格式。
- 再壓上下文:只給相關檔案、錯誤日誌、官方連結和必要約束。
- 再拆階段:先只讀分析,再小範圍修改,再驗證和覆盤。
- 再調模型和推理強度:複雜、跨模組、高風險任務才升檔。
- 最後看價格和用量:用官方頁面核驗當前口徑,不用舊截圖和二手列表。
成本來自哪裡
Codex 成本不只來自“模型單價”。實際消耗通常來自這些地方:
- Thread 很長,歷史上下文和壓縮摘要越來越多。
AGENTS.md太大,每次都注入大量無關規則。- MCP、plugins、apps 太多,工具列表和外部上下文變重。
- 任務沒拆清楚,失敗後反覆重試。
- Subagents 並行過度,多個 agent 同時消耗模型和工具呼叫。
- Fast mode 或圖片生成等能力加速消耗 usage limits。
所以本章的學習目標不是背價格表,而是建立一個習慣:每次覺得“貴、慢、不穩定”,先看任務邊界和上下文,再看模型。
一頁判斷表
| 問題 | 先讀哪篇 |
|---|---|
| Codex 總是改太多檔案 | 寫好 Codex 提示詞 |
| 不知道該用哪個模型 | 選擇 Codex 模型 |
| 額度消耗快 | 理解價格和用量 |
| 響應慢 | 提升 Codex 響應速度 |
| 功能能不能進團隊 SOP | 判斷功能成熟度 |
| 想把習慣固化成流程 | 實踐建議 |
配套從原理到實戰
完整的調檔方法論見 控制模型、速度、成本和質量。那篇講判斷邏輯,本章提供官方功能頁和查詢入口。
返回 官方教程中文版總目錄
接下來去哪
先改提示詞
先降低返工率,再考慮模型、速度和價格。
再選模型
用任務複雜度和風險決定檔位,不追逐固定推薦。
再看用量
把 token、上下文、重試和官方 billing 入口聯絡起來。
最後提速
用範圍、上下文、階段化和速度檔位共同降低等待。