Skip to main content

Hosting de modèles pour Copilot Chat

Découvrez comment différents modèles d'IA sont hébergés dans Copilot Chat.

GitHub Copilot peut utiliser une variété de modèles IA. Cet article explique comment ces modèles sont hébergés et servis.

Modèles OpenAI

Utilisé pour les tâches suivantes :

  • o3
  • o4-mini

Ces modèles sont hébergés par OpenAI et le locataire Azure de GitHub lorsqu'ils sont utilisés dans GitHub Copilot. OpenAI prend l’engagement suivant en matière de données : Nous [OpenAI] n’entraînons pas nos modèles sur vos données commerciales par défaut. GitHub a conclu un accord de conservation des données zéro avec OpenAI.

Lors de l'utilisation d’OpenAI, les prompts d'entrée et les réponses de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec le code public, lorsqu'ils sont appliqués, ainsi que par les filtres de contenu nuisible ou offensant.

Modèles anthropices

Utilisé pour les tâches suivantes :

  • Claude Opus 4
  • Claude Sonnet 3.5
  • Claude Sonnet 3.7
  • Pensif Claude Sonnet 3.7
  • Claude Sonnet 4

Claude Opus 4 et Claude Sonnet 4 sont hébergés par Anthropic PBC et Google Cloud Platform. Claude Sonnet 3.7 est hébergé par Amazon Web Services, Anthropic PBC et Google Cloud Platform. Claude Sonnet 3.5 est hébergé exclusivement par Amazon Web Services. GitHub a mis en place des accords avec les fournisseurs afin de garantir que les données ne sont pas utilisées pour l’entraînement des modèles. Vous trouverez ci-dessous des informations supplémentaires pour chaque fournisseur :

Afin de fournir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts. Vous pouvez en savoir plus sur la mise en cache des prompts sur Anthropic PBC, Amazon Bedrock et Google Cloud.

Lors de l'utilisation de Claude, les invites d'entrée et les compléments de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec le code public, lorsqu'ils sont appliqués, ainsi que par les filtres de contenu nuisible ou offensant.

Modèles Google

Utilisé pour les tâches suivantes :

  • Gemini 2.5 Pro
  • Flash Gemini 2.0

GitHub Copilot utilise Flash Gemini 2.0 et Gemini 2.5 Pro hébergés sur Google Cloud Platform (GCP). Lorsque vous utilisez des modèles Gemini, des prompts et des métadonnées sont envoyés à GCP, ce qui entraîne le commit de données suivant : Gemini n’utilise pas vos prompts, ni ses réponses, comme données pour entraîner ses modèles.

Afin de fournir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts.

Lors de l’utilisation des modèles Gemini, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance de code public, lorsqu’elle est appliquée, ainsi que pour les contenus nuisibles ou offensants.