Skip to main content

AI 模型比较

比较 Copilot 对话助手 中的可用 AI 模型,并选择任务的最佳模型。

适用于 GitHub Copilot 的 AI 模型的比较

GitHub Copilot 支持具有不同功能的多个 AI 模型。 你选择的模型会影响 Copilot 对话助手 的响应以及 Copilot 代码补全的质量和相关性。 某些模型提供较低延迟,而另一些模型则提供较少的虚构内容或针对特定任务的更出色性能。 本指南可帮助你根据任务(而不仅仅是模型名称)选择最佳模型。

注意

Grok Code Fast 1 的免费访问权限可以用到中午 12 点。 PDT 2025 年 9 月 10 日星期三。 在此时间点之后,将应用常规定价

使用下表快速查找合适的模型,请在以下部分中查看更多详细信息。

型号任务领域擅长功能(主要用例)附加功能其他阅读材料
GPT-4.1常规用途的编码和编写快速、准确的代码补全和解释代理模式,视觉GPT-4.1 模型卡
GPT-5-Codex常规用途的编码和编写快速、准确的代码补全和解释代理模式GPT-5-Codex 模型卡
GPT-5 mini深层推理和调试定义明确的任务和精确的提示推理,视觉不可用
GPT-5深层推理和调试多步骤解决问题和体系结构级代码分析原因GPT-5 模型卡
o3深层推理和调试多步骤解决问题和体系结构级代码分析原因o3 模型卡
o4-mini快速帮助完成简单或重复的任务为轻型编码问题提供快速可靠的答案降低延迟o4-mini 模型卡
Claude Sonnet 4.5常规用途的编码和智能体任务复杂的问题解决挑战,复杂的推理代理模式不可用
Claude Opus 4.1深层推理和调试复杂的问题解决挑战,复杂的推理推理,视觉Claude Opus 4.1 模型卡
Claude Opus 4深层推理和调试复杂的问题解决挑战,复杂的推理推理,视觉Claude Opus 4 模型卡
Claude Sonnet 3.5快速帮助完成简单或重复的任务提供代码、语法和文档方面的快速答复代理模式,视觉Claude Sonnet 3.5 模型卡
Claude Sonnet 3.7深层推理和调试跨大型复杂代码库进行结构化推理代理模式,视觉Claude Sonnet 3.7 模型卡
Claude Sonnet 4深层推理和调试为编码工作流打造的性能与实用性的完美结合代理模式,视觉Claude Sonnet 4 模型卡
Gemini 2.5 Pro深层推理和调试复杂代码生成、调试和研究工作流推理,视觉Gemini 2.5 Pro 模型卡
Gemini 2.0 Flash使用视觉对象(图表、屏幕截图)为基于 UI 和图表的任务提供实时答复和视觉推理视觉Gemini 2.0 Flash 模型卡
Grok Code Fast 1常规用途的编码和编写快速、准确的代码补全和解释代理模式Grok Code Fast 1 模型卡

任务:常规用途的编码和编写

将这些模型用于需要平衡质量、速度和成本效益的常见开发任务。 如果没有特定要求,这些模型是不错的默认方案。

型号适合的原因
GPT-4.1这是适合大多数编码和编写任务的可靠默认方案。 快速、准确且跨语言和框架工作良好。
GPT-5-Codex在复杂的工程任务(如功能、测试、调试、重构和评审)中,无需冗长指令即可交付更高质量的代码。
Claude Sonnet 3.7生成清晰、结构化的输出。 遵循格式设置说明并保持一致的样式。
Gemini 2.0 Flash快速且经济高效。 非常适合快速问题、简短代码片段和轻型编写任务。
o4-mini针对速度和成本效益进行了优化。 非常适合以较低的使用开销提供实时建议。
Grok Code Fast 1编码任务专用。 在生成代码和跨多种语言调试方面表现出色。

何时使用这些模型

如果要执行以下操作,请使用这些模型之一:

  • 编写或查看函数、短文件或代码差异。
  • 生成文档、注释或摘要。
  • 快速解释错误或意外行为。
  • 在非英语编程环境中工作。

何时使用其他模型

如果要处理复杂的重构、体系结构决策或多步骤逻辑,请考虑使用深层推理和调试中的模型。 若要完成更快、更简单的任务(如重复编辑或一次性代码建议),请参阅快速帮助完成简单或重复的任务

任务:快速帮助完成简单或重复的任务

这些模型针对速度和响应能力进行了优化。 它们非常适合快速编辑、实用工具函数、语法帮助和轻型原型制作。 你将获得快速答案,而无需等待不必要的深度或较长的推理链。

型号适合的原因
o4-mini这是一款适用于重复或简单编码任务的快速且经济高效的模型。 提供简洁明了的建议。
Claude Sonnet 3.5平衡质量输出与快速答复。 非常适合小型任务和轻型代码解释。
Gemini 2.0 Flash延迟极低和支持多模态(如果有)。 非常适合快速交互式反馈。

何时使用这些模型

如果要执行以下操作,请使用这些模型之一:

  • 编写或编辑小型函数或实用工具代码。
  • 询问快速语法或语言问题。
  • 以最少的设置建立创意原型。
  • 获取有关简单提示或编辑的快速反馈。

何时使用其他模型

如果要处理复杂的重构、体系结构决策或多步骤逻辑,请参阅深层推理和调试。 有关需要更强常规用途的推理或更结构化输出的任务,请参阅常规用途的编码和编写

任务:深层推理和调试

这些模型专为需要分步推理、复杂决策或高上下文感知的任务而设计。 当你需要结构化分析、深思熟虑的代码生成或多文件理解时,它们就很合适。

型号适合的原因
GPT-5 mini提供深度推理和调试能力,与 GPT-5 相比,响应速度更快,资源使用率更低。 非常适合交互式会话和分步代码分析。
GPT-5擅长复杂的推理、代码分析和技术决策。
o3擅长算法设计、系统调试和体系结构决策。 可平衡性能和推理。
Claude Sonnet 3.7提供可兼顾快速任务和更深入思考的混合推理。
Claude Sonnet 4在 3.7 的基础上加以改进,在压力下可提供更可靠的补全和更智能的推理。
Claude Opus 4.1Anthropic 的最强模型。 Claude Opus 4 的改进。
Claude Opus 4在策略、调试和多层逻辑方面非常强大。
Gemini 2.5 Pro提供具有长篇语境的高级推理和提供科学或技术分析。

何时使用这些模型

如果要执行以下操作,请使用这些模型之一:

  • 跨多个文件调试上下文的复杂问题。
  • 重构大型或互连的代码库。
  • 跨层规划功能或体系结构。
  • 在库、模式或工作流之间进行权衡。
  • 分析日志、性能数据或系统行为。

何时使用其他模型

若要完成快速迭代或轻型任务,请参阅快速帮助完成简单或重复的任务。 有关常规开发工作流或内容生成,请参阅常规用途的编码和编写

任务:使用视觉对象(图表、屏幕截图)

如果要询问有关屏幕截图、图表、UI 组件或其他视觉输入的问题,请使用这些模型。 这些模型支持多模态输入,非常适合前端工作或视觉对象调试。

型号适合的原因
GPT-4.1这是适合大多数编码和编写任务的可靠默认方案。 快速、准确,并支持视觉推理任务的多模式输入。 跨语言和框架工作良好。
Claude Opus 4Anthropic 的最强模型。 在策略、调试和多层逻辑方面非常强大。
Claude Sonnet 4在 3.7 的基础上加以改进,在压力下可提供更可靠的补全和更智能的推理。
Gemini 2.0 Flash这款快速多模态模型针对实时交互进行了优化。 非常适合用于提供图表、视觉原型和 UI 布局的反馈。
Gemini 2.5 Pro深度推理和调试,非常适合复杂的代码生成、调试和研究工作流。

何时使用这些模型

如果要执行以下操作,请使用这些模型之一:

  • 询问有关图表、屏幕截图或 UI 组件的问题。
  • 获取有关视觉草稿或工作流的反馈。
  • 通过视觉上下文了解前端行为。

提示

如果在不支持图像输入(如代码编辑器)的上下文中使用模型,则看不到视觉推理的优势。 可以使用 MCP 服务器间接访问视觉输入。 请参阅“使用模型上下文协议 (MCP) 扩展 GitHub Copilot 对话助手”。

何时使用其他模型

如果任务涉及深层推理或大规模重构,请考虑使用深层推理和调试中的模型。 若要完成纯文本任务或更简单的代码编辑,请参阅快速帮助完成简单或重复的任务

后续步骤

选择正确的模型有助于充分利用 Copilot。 如果不确定要使用哪种模型,请从常规用途的方案(如 GPT-4.1)开始,然后根据需求进行调整。