Comparaison des modèles IA pour GitHub Copilot
GitHub Copilot prend en charge plusieurs modèles IA avec différentes fonctionnalités. Le modèle que vous choisissez affecte la qualité et la pertinence des réponses pour les réponses de Tchat Copilot et les suggestions inline de Copilot. Certains modèles offrent une latence inférieure, tandis que d’autres offrent moins d’hallucinations ou de meilleures performances sur des tâches spécifiques. Ce guide vous aide à choisir le modèle le mieux adapté à votre tâche, et pas seulement en fonction du nom du modèle.
Remarque
- Les différents modèles ont des multiplicateurs de requêtes premium différents, ce qui peut affecter la part de votre quota d'utilisation mensuel consommée. Pour plus d’informations, consultez Demandes dans GitHub Copilot.
- Lorsque vous utilisez Tchat Copilot dans les IDE pris en charge, Auto sélectionne automatiquement le meilleur modèle pour vous en fonction de la disponibilité. Vous pouvez choisir manuellement un autre modèle pour remplacer cette sélection. Consultez « À propos de la sélection automatique du modèle Copilot » et « Modification du modèle IA pour GitHub Copilot Chat».
Modèles recommandés par tâche
Utilisez ce tableau pour trouver rapidement un modèle adapté ; plus de détails sont disponibles dans les sections ci-dessous.
| Modèle | Zone de tâche | Excelle dans (cas d’utilisation principal) | Pour aller plus loin |
|---|---|---|---|
| GPT-4.1 | General-purpose coding and writing | Fast, accurate code completions and explanations | |
| GPT-5 mini | General-purpose coding and writing | Fast, accurate code completions and explanations | |
| GPT-5.1 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | |
| GPT-5.1-Codex | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | |
| GPT-5.1 Codex Max | Agentic software development | Agentic tasks | |
| GPT-5.1-Codex-Mini | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | |
| GPT-5.2 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | |
| GPT-5.2-Codex | Agentic software development | Agentic tasks | |
| GPT-5.3-Codex | Agentic software development | Agentic tasks | |
| GPT-5.4 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | |
| GPT-5.4 mini | Agentic software development | Codebase exploration and is especially effective when using grep-style tools | |
| Claude Haiku 4.5 | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | |
| Claude Opus 4.5 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | |
| Claude Opus 4.6 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | |
| Claude Opus 4.6 (fast mode) (preview) | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | |
| Claude Sonnet 4.0 | Deep reasoning and debugging | Performance and practicality, perfectly balanced for coding workflows | |
| Claude Sonnet 4.5 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | |
| Claude Sonnet 4.6 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | |
| Gemini 2.5 Pro | Deep reasoning and debugging | Complex code generation, debugging, and research workflows | |
| Gemini 3 Flash | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | |
| Gemini 3 Pro | Deep reasoning and debugging | Complex code generation, debugging, and research workflows | |
| Gemini 3.1 Pro | Deep reasoning and debugging | Effective and efficient edit-then-test loops with high tool precision | |
| Grok Code Fast 1 | General-purpose coding and writing | Fast, accurate code completions and explanations | |
| Qwen2.5 | General-purpose coding and writing | Code generation, reasoning, and code repair / debugging | |
| Raptor mini | General-purpose coding and writing | Fast, accurate code completions and explanations |
Tâche : codage et écriture à usage général
Utilisez ces modèles pour les tâches de développement courantes qui nécessitent un équilibre entre qualité, rapidité et rentabilité. Ces modèles sont une bonne solution par défaut lorsque vous n’avez pas d’exigences particulières.
| Modèle | Pourquoi ils sont adaptés |
|---|---|
| GPT-5.3-Codex | Fournit un code de meilleure qualité pour les tâches d'ingénierie complexes telles que les fonctionnalités, les tests, le débogage, les refactorisations et les révisions, sans instructions fastidieuses. |
| GPT-5 mini | Fiables par défaut pour la plupart des tâches de codage et d’écriture. Rapides, précis et fonctionnent bien dans toutes les langues et toutes les infrastructures. |
| Code Grok Rapide 1 | Spécialisés dans les tâches de codage. Fonctionnent bien pour la génération de code et le débogage dans plusieurs langages |
| Raptor mini | Spécialisé dans les suggestions et les explications précises et rapides. |
Quand utiliser ces modèles
Utilisez l’un de ces modèles si vous souhaitez :
- Écrire ou passer en revue des fonctions, des fichiers courts ou des différences de code.
- Générer de la documentation, des commentaires ou des résumés.
- Expliquer rapidement les erreurs ou le comportement inattendu.
- Travailler dans un environnement de programmation non anglophone.
Quand utiliser un autre modèle
Si vous travaillez sur une refactorisation complexe, des décisions architecturales ou une logique en plusieurs étapes, envisagez un modèle issu de Raisonnement approfondi et débogage. Pour des tâches plus rapides et plus simples, telles que des modifications répétitives ou des suggestions de code ponctuelles, consultez Aide rapide pour les tâches simples ou répétitives.
Tâche : Aide rapide pour les tâches simples ou répétitives
Ces modèles sont optimisés pour la vitesse et la réactivité. Ils sont idéaux pour les modifications rapides, les fonctions utilitaires, l’aide syntaxique et le prototypage léger. Vous obtiendrez des réponses rapides sans attendre des explications approfondies inutiles ou de longues chaînes de raisonnement.
Modèles recommandés
| Modèle | Pourquoi ils sont adaptés |
|---|---|
| Claude Haiku 4.5 | Offrent un équilibre entre rapidité de réponse et qualité de sortie. Idéaux pour les petites tâches et les explications de code légères. |
Quand utiliser ces modèles
Utilisez l’un de ces modèles si vous souhaitez :
- Écrivent ou modifient de petites fonctions ou du code utilitaire.
- Posez de brèves questions sur la syntaxe ou le langage.
- Prototypage d’idées avec une configuration minimale.
- Obtenez rapidement des commentaires sur des prompts ou des modifications simples.
Quand utiliser un autre modèle
Si vous travaillez sur une refactorisation complexe, des décisions architecturales ou une logique en plusieurs étapes, consultez Raisonnement approfondi et débogage. Pour les tâches qui nécessitent un raisonnement général plus poussé ou une sortie plus structurée, consultez Codage et écriture à usage général.
Tâche : Raisonnement approfondi et débogage
Ces modèles sont conçus pour des tâches qui nécessitent un raisonnement étape par étape, une prise de décision complexe ou une conscience élevée du contexte. Ils fonctionnent bien lorsque vous avez besoin d’une analyse structurée, d’une génération de code réfléchie ou d’une compréhension multi-fichiers.
Modèles recommandés
| Modèle | Pourquoi ils sont adaptés |
|---|---|
| GPT-5 mini | Offre un raisonnement approfondi et un débogage avec des réponses plus rapides et une consommation de ressources inférieure à celle de GPT-5. Idéal pour les sessions interactives et l’analyse de code étape par étape. |
| GPT-5.4 | Parfait pour le raisonnement complexe, l’analyse de code et la prise de décision technique. |
| Claude Sonnet 4.6 | Améliore la version Sonnet 4.5 avec des complétions plus fiables et un raisonnement plus intelligent sous pression. |
| Claude Opus 4.6 | Le modèle le plus puissant d’Anthropic. Améliore Claude Opus 4.5. |
| Gemini 3 Pro | Raisonnement avancé sur de longs contextes et l'analyse scientifique ou technique. |
| Goldeneye | Problèmes complexes de résolution de problèmes et raisonnement sophistiqué. |
Quand utiliser ces modèles
Utilisez l’un de ces modèles si vous souhaitez :
- Déboguer des problèmes complexes liés au contexte dans plusieurs fichiers.
- Refactoriser des codebases volumineux ou interconnectés.
- Planifier les fonctionnalités ou l’architecture entre les couches.
- Évaluer les compromis entre bibliothèques, modèles ou flux de travail.
- Analyser les journaux, les données de performance ou le comportement du système.
Quand utiliser un autre modèle
Pour une itération rapide ou des tâches légères, consultez Aide rapide pour les tâches simples ou répétitives. Pour les flux de travail généraux de développement ou la génération de contenu, consultez Codage et écriture à usage général.
Tâche : travailler avec des supports visuels (diagrammes, captures d’écran)
Utilisez ces modèles lorsque vous souhaitez poser des questions sur des captures d’écran, des diagrammes, des composants de l’interface utilisateur ou d’autres entrées visuelles. Ces modèles prennent en charge les entrées multimodales et sont bien adaptés au travail en amont ou au débogage visuel.
| Modèle | Pourquoi ils sont adaptés |
|---|---|
| GPT-5 mini | Fiables par défaut pour la plupart des tâches de codage et d’écriture. Rapide, précis et prend en charge la saisie multimodale pour les tâches de raisonnement visuel. Fonctionne bien dans toutes les langues et tous les cadres. |
| Claude Sonnet 4.6 | Améliore la version Sonnet 4.5 avec des complétions plus fiables et un raisonnement plus intelligent sous pression. |
| Gemini 3 Pro | Raisonnement et débogage approfondis, idéal pour la génération de code complexe, le débogage et les flux de travail de recherche. |
Quand utiliser ces modèles
Utilisez l’un de ces modèles si vous souhaitez :
- Poser des questions sur les diagrammes, les captures d’écran ou les composants de l’interface utilisateur.
- Obtenir des commentaires sur les brouillons visuels ou les flux de travail.
- Comprendre le comportement du front-end à partir du contexte visuel.
Conseil
Si vous utilisez un modèle dans un contexte qui ne prend pas en charge l’entrée d’images (comme un éditeur de code), vous ne bénéficierez pas des avantages du raisonnement visuel. Vous pouvez utiliser un serveur MCP pour accéder indirectement à l’entrée visuelle. Consultez « Étendre GitHub Copilot Chat avec des serveurs MCP (Model Context Protocol) ».
Quand utiliser un autre modèle
Si votre tâche implique un raisonnement approfondi ou une refactorisation à grande échelle, envisagez un modèle issu de Raisonnement approfondi et débogage. Pour les tâches uniquement textuelles ou les modifications de code simples, consultez Aide rapide pour les tâches simples ou répétitives.
Étapes suivantes
Choisir le bon modèle vous aide à tirer le meilleur parti de Copilot. Si vous ne savez pas quel modèle utiliser, commencez par une option polyvalente telle que GPT-4.1, puis ajustez-la en fonction de vos besoins.
- Pour obtenir des spécifications de modèle détaillées et des tarifs, consultez Modèles IA pris en charge dans GitHub Copilot.
- Pour plus d’exemples d’utilisation de différents modèles, consultez Comparaison des modèles IA à l’aide de différentes tâches.
- Pour passer d’un modèle à l’autre, reportez-vous à Modification du modèle IA pour GitHub Copilot Chat ou Modification du modèle IA des suggestions en ligne de GitHub Copilot.
- Pour découvrir comment Tchat Copilot sert différents modèles d’IA, consultez Hébergement de modèles pour GitHub Copilot Conversation.