AI 编程教程中文版
官方教程中文版06 · Models & Pricing

模型选择器与系统模型

根据 Google 官方 Models 文档解释 Antigravity reasoning model、模型选择器、sticky 选择逻辑和不可自定义的系统模型。

Antigravity 的模型体系分两层:用户可以在 conversation prompt box 下方的 model selector 里选择核心 reasoning model;同时,产品内部还会使用一些不可自定义的系统模型来支撑图片生成、browser subagent、checkpointing、上下文总结和代码库语义搜索。

这意味着你不能只看“当前聊天框选了哪个模型”。一个 Agent 任务里,核心推理、浏览器操作、图片生成、摘要、搜索可能由不同模型或工具链协同完成。

核验日期:本篇按 2026-05-06 官方 Models 文档重写。模型名称和可用性属于高波动信息,后续以 antigravity.google/docs/models 当前页面为准。

阅读目标:读完本章,你应该能区分“我能手动选择的 reasoning model”和“Antigravity 内部自动调用的系统模型”,并知道什么时候应该取消任务后重新选择模型。

1. Reasoning model 是 Agent 的主推理模型

官方 Models 文档把 core reasoning model 描述为 Antigravity Agent 的核心推理模型,来自 Google Vertex Model Garden。用户可以在 conversation prompt box 下方的 model selector drop down 中选择。

截至本篇核验时,官方页面列出的 reasoning model 包括:

  • Gemini 3.1 Pro (high)
  • Gemini 3.1 Pro (low)
  • Gemini 3 Flash
  • Claude Sonnet 4.6 (thinking)
  • Claude Opus 4.6 (thinking)
  • GPT-OSS-120b

这些名称不要死记。你要建立的是选择逻辑:

任务类型选择思路
简单解释、局部小改优先速度和额度消耗
跨文件实现、复杂重构优先推理稳定性和代码能力
需要计划审查优先能稳定产出 plan 和 artifacts 的模型
长时间 agent 任务关注 rate limit、quota 和任务拆分
UI 或多模态任务同时关注 browser subagent 与 artifact 验收
flowchart TD
  Task["新任务"] --> Scope["判断任务范围"]
  Scope --> Selector["选择 core reasoning model"]
  Selector --> Turn["当前 user turn 执行"]
  Turn --> Sticky["同一 conversation 内保持 sticky"]
  Turn --> Tools["Browser / image / summary / semantic search 由系统模型协同"]
  Tools --> Review["用 artifacts、diff 和测试验收"]

2. 模型选择是 conversation 内 sticky 的

官方文档说明,reasoning model 的选择在同一个 conversation 的用户消息之间保持 sticky。

更关键的是:如果你在 Agent 正在运行时切换模型,当前 user turn 会继续使用之前选中的模型,直到它完成当前步骤,或者你取消当前执行。

实操影响很直接:

  1. 不要以为运行中切模型会立刻改变当前任务。
  2. 复杂任务开始前先选好模型。
  3. 如果模型选错,取消当前执行,再重新发起。
  4. 长任务最好在 prompt 里写清楚任务边界,避免浪费高配模型额度。
错误理解:运行到一半切模型,当前步骤马上变强。
正确理解:切换通常影响后续 user message,不会自动替换当前正在执行的 turn。

3. 模型选择器怎么用

第一次使用时,按任务难度选,不要总是选最高规格。

场景建议
只读解释项目结构用较快模型即可
补文档、整理 README用中等模型,保留人工审查
修复杂 bug用更强 reasoning model,要求先写计划
设计跨模块方案用 Planning 模式和更强模型
迁移或批量转换先用低成本模型试跑,再人工抽查

如果任务失败,不要第一反应就换最高模型。先检查:

  • prompt 是否给了清晰目标。
  • workspace 是否完整。
  • 权限是否阻止了必要命令。
  • artifact review 是否提前中断。
  • rate limit 或 quota 是否耗尽。

4. 附加模型不可自定义

官方 Models 文档列出一些产品内部使用的 additional models,并明确这些不是用户可自定义的。

模型官方用途
Nano Banana Pro 2Agent 需要生成 UI mockup、网页/应用图片、系统或架构图等生成式图片任务
Gemini 2.5 Pro UI CheckpointBrowser subagent 执行点击、滚动、填写输入等浏览器动作
Gemini 2.5 Flash后台 checkpointing 和 context summarization
Gemini 2.5 Flash Lite代码库语义搜索工具

这解释了一个常见现象:你选择了某个 reasoning model,但浏览器动作、总结、搜索或图片生成的表现仍然受内部模型影响。用户能控制的是核心 reasoning model、任务模式、权限和审查,不是产品栈里每一个内部模型。

深读:为什么“选了模型”不等于控制了整套系统

Antigravity 的 Agent 任务不是单一聊天模型在连续输出。官方 Models 文档把可选的 core reasoning model 和 additional models 分开列出,说明产品内部会按场景调用不同模型能力。

对使用者来说,最容易误判的是把“模型选择器”当成全局开关。实际更稳的理解是:你选择的是主推理模型,它负责规划、解释和调用工具;而浏览器点击、图片生成、上下文总结、代码语义搜索这类能力,仍然可能由产品内置模型承担。

所以调试一个失败任务时,不要只问“是不是模型不够强”。更应该检查任务是否拆得过大、权限是否卡住、artifact review 是否需要人工确认、quota 是否耗尽,以及最终 diff 和测试是否能证明结果可用。

5. 不要把模型列表当教程核心

模型列表会变化。真正应该教给用户的是:

  • 复杂任务开始前先选模型。
  • 运行中切换不一定影响当前 turn。
  • quota 和 rate limits 会影响可用性。
  • Browser、image、summary、semantic search 可能由附加模型完成。
  • 任务质量仍要靠 plan、artifacts、diff、测试和人工审查验证。

高配模型不是权限边界。即使选择最强 reasoning model,也不能跳过 terminal review、artifact review、browser allowlist 和 Git diff。

6. 一个实用的选择模板

发起任务前可以先写:

这个任务涉及 4 个文件以内,需要先读代码、提出计划、等待我确认后再改。
请使用 Planning 模式。
如果当前模型不适合,请先说明原因,不要直接执行。

如果是简单任务:

这是一个局部文案修改任务。
可以用 Fast 模式,只修改指定文件。
完成后给出 diff,不要运行部署命令。

模型选择不是一次性决定,而是和任务拆分一起做:简单任务不要浪费复杂模型,复杂任务不要省掉计划审查。

本章自检

完成本章后,用这 3 个问题检查自己是否真正理解:

  1. 为什么运行中的任务切换模型,不一定会影响当前正在执行的 user turn?
  2. 用户能手动控制哪些模型相关设置,哪些 additional models 不能自定义?
  3. 为什么选择更强 reasoning model,也不能跳过权限、artifact review、diff 和测试?

通过标准:你能用自己的话解释 Antigravity 的“双层模型结构”,并能在发起任务前先选模型、定边界、安排验收方式。

官方来源

接下来去哪

本页目录