Skip to main content

AI モデルの比較

Copilot Chat で使用できる AI モデルを比較し、タスクに最適なモデルを選びます。

GitHub Copilot の AI モデルの比較

GitHub Copilot は、さまざまな能力を持つ複数の AI モデルをサポートします。 選んだモデルは、Copilot Chat および Copilot のコード補完による応答の品質と関連性に影響します。 待機時間が少ないモデルや、特定のタスクではハルシネーションが少ない、またはパフォーマンスが高いモデルがあります。 このガイドは、モデル名だけでなく、タスクに基づいて最適なモデルを選ぶのに役立ちます。

メモ

Complimentary access to Grok Code Fast 1 is continuing past the previously announced end time. A new end date has not been set. We may update or conclude this promotion at any time. Regular pricing applies after the extension ends.

次の表は、適切なモデルをすばやく見つけるのにお使いください。詳細については、後のセクションを参照してください。

モデルタスク領域長所 (主なユース ケース)その他の機能参考資料
GPT-4.1汎用のコーディングとライティング高速で正確なコード補完と説明エージェント モード、ビジョンGPT-4.1 モデル カード
GPT-5 mini詳細な推論とデバッグ明確に定義されたタスクと正確なプロンプト推論、ビジョン使用不可
GPT-5詳細な推論とデバッグ複数ステップの問題解決とアーキテクチャ レベルのコード分析認識力GPT-5 モデル カード
o3詳細な推論とデバッグ複数ステップの問題解決とアーキテクチャ レベルのコード分析認識力o3 モデル カード
o4-mini単純なタスクや反復的なタスクに関する高速の支援軽量なコーディングの質問に対する高速で信頼性の高い回答待ち時間の短縮o4-mini モデル カード
Claude Opus 4.1詳細な推論とデバッグ複雑な問題解決の課題、高度な推論推論、ビジョンClaude Opus 4.1 モデル カード
Claude Opus 4詳細な推論とデバッグ複雑な問題解決の課題、高度な推論推論、ビジョンClaude Opus 4 モデル カード
Claude Sonnet 3.5単純なタスクや反復的なタスクに関する高速の支援コード、構文、ドキュメントに対するすばやい応答エージェント モード、ビジョンClaude Sonnet 3.5 モデル カード
Claude Sonnet 3.7詳細な推論とデバッグ大規模で複雑なコードベース全体の構造化された推論エージェント モード、ビジョンClaude Sonnet 3.7 モデル カード
Claude Sonnet 4詳細な推論とデバッグコーディング ワークフローに最適な、パフォーマンスと実用性の完璧なバランスエージェント モード、ビジョンClaude Sonnet 4 モデル カード
Gemini 2.5 Pro詳細な推論とデバッグ複雑なコード生成、デバッグ、調査ワークフロー推論、ビジョンGemini 2.5 Pro モデル カード
Gemini 2.0 Flashビジュアルの処理 (図、スクリーンショット)UI と図に基づくタスクに関するリアルタイムの応答と視覚的な推論VisionGemini 2.0 Flash モデル カード
Grok Code Fast 1汎用のコーディングとライティング高速で正確なコード補完と説明エージェント モードGrok Code Fast 1 モデル カード

タスク: 汎用のコーディングとライティング

品質、速度、コスト効率のバランスが必要な一般的な開発タスクには、これらのモデルを使います。 これらのモデルは、特定の要件がない場合に既定で使うのに適しています。

モデル適している理由
GPT-4.1コーディングとライティングのほとんどのタスクに対する信頼性の高い既定値。 高速かつ正確で、言語やフレームワークが違っても良好に動作します。
Claude Sonnet 3.7明確で構造化された出力を生成します。 書式設定の指示に従い、一貫したスタイルを保ちます。
Gemini 2.0 Flash高速で高いコスト効率。 簡単な質問、短いコード スニペット、軽いライティング タスクに適しています。
o4-mini速度とコスト効率に最適化されています。 使用量のオーバーヘッドが少ないリアルタイムの提案に最適です。
Grok Code Fast 1コーディング タスクに特化しています。 複数の言語にわたるコード生成とデバッグに優れたパフォーマンスを発揮します。

これらのモデルを使用すべきとき

次のことが必要な場合は、これらのモデルのいずれかをお使いください。

  • 関数、短いファイル、またはコードの差分を記述または確認します。
  • ドキュメント、コメント、または概要を生成します。
  • エラーや予期しない動作をすばやく説明します。
  • 英語以外のプログラミング環境で作業します。

別のモデルを使用すべきとき

複雑なリファクタリング、アーキテクチャの決定、またはマルチステップ ロジックの作業を行っている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 反復的な編集や 1 回限りのコードの提案など、高速でシンプルなタスクの場合は、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。

タスク: 単純なタスクや反復的なタスクに関する高速の支援

これらのモデルは、速度と応答性のために最適化されています。 これらは簡単な編集、ユーティリティ関数、構文のヘルプ、軽量のプロトタイプ作成に最適です。 必要以上に詳細な、または長い推論チェーンを待たずに、速やかに回答を得ることができます。

モデル適している理由
o4-mini反復的または単純なコーディング タスクのための迅速でコスト効率の高いモデル。 明確で簡潔な提案を提供します。
Claude Sonnet 3.5迅速な応答と高品質の出力のバランスを取ります。 小さなタスクや軽量のコードの説明に最適です。
Gemini 2.0 Flash非常に短い待ち時間とマルチモーダルのサポート (使用可能な場合)。 高速で対話形式のフィードバックに最適です。

これらのモデルを使用すべきとき

次のことが必要な場合は、これらのモデルのいずれかをお使いください。

  • 小さい関数やユーティリティ コードを記述または編集します。
  • 構文や言語について簡単な質問をします。
  • 最小限のセットアップでアイデアのプロトタイプを作成します。
  • 簡単なプロンプトや編集に関するフィードバックをすばやく入手します。

別のモデルを使用すべきとき

複雑なリファクタリング、アーキテクチャの決定、またはマルチステップ ロジックの作業を行っている場合は、「詳細な推論とデバッグ」をご覧ください。 より強力な汎用の推論またはより構造化された出力を必要とするタスクについては、「汎用コーディングとライティング」を参照してください。

タスク: 詳細な推論とデバッグ

これらのモデルは、ステップ バイ ステップの推論、複雑な意思決定、または高コンテキストの認識を必要とするタスク用に設計されています。 構造化された分析、よく考えられたコード生成、または複数のファイルの理解が必要な場合に適切に機能します。

モデル適している理由
GPT-5 miniGPT-5 よりも高速な応答と低いリソース使用量で、深い推論とデバッグを実現します。 対話型セッションやステップバイステップのコード分析に最適です。
GPT-5複雑な推論、コード分析、技術的な意思決定に優れています。
o3アルゴリズムの設計、システム デバッグ、アーキテクチャの決定に適しています。 パフォーマンスと推論のバランスを取ります。
Claude Sonnet 3.7高速のタスクとより深い思考の両方に適応するハイブリッド推論を提供します。
Claude Sonnet 4より信頼性の高い補完と、厳しい条件下でのより優れた推論で、3.7 を改善します。
Claude Opus 4.1Anthropic の最も強力なモデルです。 Claude Opus 4 が改善されています。
Claude Opus 4戦略、デバッグ、多層ロジックに優れています。
Gemini 2.5 Pro長いコンテキストでの高度な推論と、科学的または技術的な分析。

これらのモデルを使用すべきとき

次のことが必要な場合は、これらのモデルのいずれかをお使いください。

  • 複数のファイルを対象にコンテキストに関する複雑な問題をデバッグします。
  • 大規模な、または相互に接続されたコードベースをリファクタリングします。
  • 複数のレイヤーを対象とする機能またはアーキテクチャを計画します。
  • ライブラリ、パターン、またはワークフローの間のトレードオフを比較します。
  • ログ、パフォーマンス データ、またはシステムの動作を分析します。

別のモデルを使用すべきとき

高速の反復的または軽量なタスクについては、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。 一般的な開発ワークフローまたはコンテンツの生成については、「汎用のコーディングとライティング」を参照してください。

タスク: ビジュアルの処理 (図、スクリーンショット)

スクリーンショット、図、UI コンポーネント、その他の視覚的な入力について質問したい場合は、これらのモデルを使います。 これらのモデルはマルチモーダル入力をサポートしており、フロントエンドの作業や視覚的なデバッグに適しています。

モデル適している理由
GPT-4.1コーディングとライティングのほとんどのタスクに対する信頼性の高い既定値。 高速かつ正確で、視覚的な推論タスクにおいてマルチモーダル入力に対応します。 言語やフレームワークが違っても良好に動作します。
Claude Opus 4Anthropic の最も強力なモデルです。 戦略、デバッグ、多層ロジックに優れています。
Claude Sonnet 4より信頼性の高い補完と、厳しい条件下でのより優れた推論で、3.7 を改善します。
Gemini 2.0 Flashリアルタイム対話用に最適化された高速のマルチモーダル モデル。 図、ビジュアル プロトタイプ、UI レイアウトに関するフィードバックに役立ちます。
Gemini 2.5 Pro詳細な推論とデバッグは、複雑なコード生成、デバッグ、調査ワークフローに最適です。

これらのモデルを使用すべきとき

次のことが必要な場合は、これらのモデルのいずれかをお使いください。

  • 図、スクリーンショット、または UI コンポーネントについて質問します。
  • 視覚的な下書きまたはワークフローに関するフィードバックを受け取ります。
  • ビジュアル コンテキストからフロントエンドの動作を理解します。

ヒント

画像入力をサポートしていないコンテキストでモデルを使っている場合 (コード エディターなど)、視覚的な推論の利点は見られません。 MCP サーバーを使って、視覚的な入力に間接的にアクセスできる場合があります。 「モデル コンテキスト プロトコル (MCP) を使用した GitHub Copilot Chat の拡張」を参照してください。

別のモデルを使用すべきとき

タスクに詳細な推論または大規模なリファクタリングが含まれている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 テキストのみのタスクや簡単なコード編集の場合は、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。

次のステップ

適切なモデルを選ぶと、Copilot を最大限に活用できます。 どのモデルを使えばよいかわからない場合は、GPT-4.1 などの汎用オプションを使って始めた後、ニーズに基づいて調整します。