GitHub Copilot peut utiliser une variété de modèles IA. Cet article explique comment ces modèles sont hébergés et servis.
Modèles OpenAI
Utilisé pour les tâches suivantes :
- o3
- o4-mini
Ces modèles sont hébergés par OpenAI et le locataire Azure de GitHub lorsqu'ils sont utilisés dans GitHub Copilot. OpenAI prend l’engagement suivant en matière de données : Nous [OpenAI] n’entraînons pas nos modèles sur vos données commerciales par défaut. GitHub a conclu un accord de conservation des données zéro avec OpenAI.
Lors de l'utilisation d’OpenAI, les prompts d'entrée et les réponses de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec le code public, lorsqu'ils sont appliqués, ainsi que par les filtres de contenu nuisible ou offensant.
Modèles anthropices
Utilisé pour les tâches suivantes :
- Claude Opus 4
- Claude Sonnet 3.5
- Claude Sonnet 3.7
- Pensif Claude Sonnet 3.7
- Claude Sonnet 4
Claude Opus 4 et Claude Sonnet 4 sont hébergés par Anthropic PBC et Google Cloud Platform. Claude Sonnet 3.7 est hébergé par Amazon Web Services, Anthropic PBC et Google Cloud Platform. Claude Sonnet 3.5 est hébergé exclusivement par Amazon Web Services. GitHub a mis en place des accords avec les fournisseurs afin de garantir que les données ne sont pas utilisées pour l’entraînement des modèles. Vous trouverez ci-dessous des informations supplémentaires pour chaque fournisseur :
- Amazon Bedrock : Amazon prend les engagements suivants en matière de données : Amazon Bedrock ne stocke ni n’enregistre vos prompts et vos réponses. Amazon Bedrock n'utilise pas vos invites et vos réponses pour former des modèles AWS et ne les distribue pas à des tiers.
- Anthropic PBC : GitHub a conclu un accord de conservation des données zéro avec Anthropic.
- Google Cloud : dans ses conditions d’utilisation, Google s’engage à ne pas entraîner ses modèles avec les données issues de GitHub. De plus, GitHub n’est pas soumis à l’enregistrement des prompts pour la surveillance des abus.
Afin de fournir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts. Vous pouvez en savoir plus sur la mise en cache des prompts sur Anthropic PBC, Amazon Bedrock et Google Cloud.
Lors de l'utilisation de Claude, les invites d'entrée et les compléments de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec le code public, lorsqu'ils sont appliqués, ainsi que par les filtres de contenu nuisible ou offensant.
Modèles Google
Utilisé pour les tâches suivantes :
- Gemini 2.5 Pro
- Flash Gemini 2.0
GitHub Copilot utilise Flash Gemini 2.0 et Gemini 2.5 Pro hébergés sur Google Cloud Platform (GCP). Lorsque vous utilisez des modèles Gemini, des prompts et des métadonnées sont envoyés à GCP, ce qui entraîne le commit de données suivant : Gemini n’utilise pas vos prompts, ni ses réponses, comme données pour entraîner ses modèles.
Afin de fournir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts.
Lors de l’utilisation des modèles Gemini, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance de code public, lorsqu’elle est appliquée, ainsi que pour les contenus nuisibles ou offensants.