模型选择器与系统模型
根据 Google 官方 Models 文档解释 Antigravity reasoning model、模型选择器、sticky 选择逻辑和不可自定义的系统模型。
Antigravity 的模型体系分两层:用户可以在 conversation prompt box 下方的 model selector 里选择核心 reasoning model;同时,产品内部还会使用一些不可自定义的系统模型来支撑图片生成、browser subagent、checkpointing、上下文总结和代码库语义搜索。
这意味着你不能只看“当前聊天框选了哪个模型”。一个 Agent 任务里,核心推理、浏览器操作、图片生成、摘要、搜索可能由不同模型或工具链协同完成。
核验日期:本篇按 2026-05-06 官方 Models 文档重写。模型名称和可用性属于高波动信息,后续以 antigravity.google/docs/models 当前页面为准。
阅读目标:读完本章,你应该能区分“我能手动选择的 reasoning model”和“Antigravity 内部自动调用的系统模型”,并知道什么时候应该取消任务后重新选择模型。
1. Reasoning model 是 Agent 的主推理模型
官方 Models 文档把 core reasoning model 描述为 Antigravity Agent 的核心推理模型,来自 Google Vertex Model Garden。用户可以在 conversation prompt box 下方的 model selector drop down 中选择。
截至本篇核验时,官方页面列出的 reasoning model 包括:
- Gemini 3.1 Pro (high)
- Gemini 3.1 Pro (low)
- Gemini 3 Flash
- Claude Sonnet 4.6 (thinking)
- Claude Opus 4.6 (thinking)
- GPT-OSS-120b
这些名称不要死记。你要建立的是选择逻辑:
| 任务类型 | 选择思路 |
|---|---|
| 简单解释、局部小改 | 优先速度和额度消耗 |
| 跨文件实现、复杂重构 | 优先推理稳定性和代码能力 |
| 需要计划审查 | 优先能稳定产出 plan 和 artifacts 的模型 |
| 长时间 agent 任务 | 关注 rate limit、quota 和任务拆分 |
| UI 或多模态任务 | 同时关注 browser subagent 与 artifact 验收 |
flowchart TD
Task["新任务"] --> Scope["判断任务范围"]
Scope --> Selector["选择 core reasoning model"]
Selector --> Turn["当前 user turn 执行"]
Turn --> Sticky["同一 conversation 内保持 sticky"]
Turn --> Tools["Browser / image / summary / semantic search 由系统模型协同"]
Tools --> Review["用 artifacts、diff 和测试验收"]
2. 模型选择是 conversation 内 sticky 的
官方文档说明,reasoning model 的选择在同一个 conversation 的用户消息之间保持 sticky。
更关键的是:如果你在 Agent 正在运行时切换模型,当前 user turn 会继续使用之前选中的模型,直到它完成当前步骤,或者你取消当前执行。
实操影响很直接:
- 不要以为运行中切模型会立刻改变当前任务。
- 复杂任务开始前先选好模型。
- 如果模型选错,取消当前执行,再重新发起。
- 长任务最好在 prompt 里写清楚任务边界,避免浪费高配模型额度。
错误理解:运行到一半切模型,当前步骤马上变强。
正确理解:切换通常影响后续 user message,不会自动替换当前正在执行的 turn。3. 模型选择器怎么用
第一次使用时,按任务难度选,不要总是选最高规格。
| 场景 | 建议 |
|---|---|
| 只读解释项目结构 | 用较快模型即可 |
| 补文档、整理 README | 用中等模型,保留人工审查 |
| 修复杂 bug | 用更强 reasoning model,要求先写计划 |
| 设计跨模块方案 | 用 Planning 模式和更强模型 |
| 迁移或批量转换 | 先用低成本模型试跑,再人工抽查 |
如果任务失败,不要第一反应就换最高模型。先检查:
- prompt 是否给了清晰目标。
- workspace 是否完整。
- 权限是否阻止了必要命令。
- artifact review 是否提前中断。
- rate limit 或 quota 是否耗尽。
4. 附加模型不可自定义
官方 Models 文档列出一些产品内部使用的 additional models,并明确这些不是用户可自定义的。
| 模型 | 官方用途 |
|---|---|
| Nano Banana Pro 2 | Agent 需要生成 UI mockup、网页/应用图片、系统或架构图等生成式图片任务 |
| Gemini 2.5 Pro UI Checkpoint | Browser subagent 执行点击、滚动、填写输入等浏览器动作 |
| Gemini 2.5 Flash | 后台 checkpointing 和 context summarization |
| Gemini 2.5 Flash Lite | 代码库语义搜索工具 |
这解释了一个常见现象:你选择了某个 reasoning model,但浏览器动作、总结、搜索或图片生成的表现仍然受内部模型影响。用户能控制的是核心 reasoning model、任务模式、权限和审查,不是产品栈里每一个内部模型。
深读:为什么“选了模型”不等于控制了整套系统
Antigravity 的 Agent 任务不是单一聊天模型在连续输出。官方 Models 文档把可选的 core reasoning model 和 additional models 分开列出,说明产品内部会按场景调用不同模型能力。
对使用者来说,最容易误判的是把“模型选择器”当成全局开关。实际更稳的理解是:你选择的是主推理模型,它负责规划、解释和调用工具;而浏览器点击、图片生成、上下文总结、代码语义搜索这类能力,仍然可能由产品内置模型承担。
所以调试一个失败任务时,不要只问“是不是模型不够强”。更应该检查任务是否拆得过大、权限是否卡住、artifact review 是否需要人工确认、quota 是否耗尽,以及最终 diff 和测试是否能证明结果可用。
5. 不要把模型列表当教程核心
模型列表会变化。真正应该教给用户的是:
- 复杂任务开始前先选模型。
- 运行中切换不一定影响当前 turn。
- quota 和 rate limits 会影响可用性。
- Browser、image、summary、semantic search 可能由附加模型完成。
- 任务质量仍要靠 plan、artifacts、diff、测试和人工审查验证。
高配模型不是权限边界。即使选择最强 reasoning model,也不能跳过 terminal review、artifact review、browser allowlist 和 Git diff。
6. 一个实用的选择模板
发起任务前可以先写:
这个任务涉及 4 个文件以内,需要先读代码、提出计划、等待我确认后再改。
请使用 Planning 模式。
如果当前模型不适合,请先说明原因,不要直接执行。如果是简单任务:
这是一个局部文案修改任务。
可以用 Fast 模式,只修改指定文件。
完成后给出 diff,不要运行部署命令。模型选择不是一次性决定,而是和任务拆分一起做:简单任务不要浪费复杂模型,复杂任务不要省掉计划审查。
本章自检
完成本章后,用这 3 个问题检查自己是否真正理解:
- 为什么运行中的任务切换模型,不一定会影响当前正在执行的 user turn?
- 用户能手动控制哪些模型相关设置,哪些 additional models 不能自定义?
- 为什么选择更强 reasoning model,也不能跳过权限、artifact review、diff 和测试?
通过标准:你能用自己的话解释 Antigravity 的“双层模型结构”,并能在发起任务前先选模型、定边界、安排验收方式。
官方来源
- Google Antigravity Models —— 官方列出 reasoning model、sticky model selection 和 additional models。
- Google Antigravity Plans —— 官方说明 quota、rate limits 和 AI credits 会影响模型可用性。