À propos de GitHub Copilot Chat
GitHub Copilot Chat est une interface de chat qui vous permet d'interagir avec GitHub Copilot, afin de poser des questions liées au codage et d'obtenir des réponses sur le site web GitHub et les IDE pris en charge. L’interface de conversation permet d’accéder aux informations sur le codage et au support sans avoir à parcourir la documentation ni à rechercher dans des forums en ligne. Pour plus d’informations, consultez « Qu’est-ce que GitHub Copilot ? ».
GitHub Copilot Chat peut répondre à un large éventail de questions liées au codage, notamment sur la syntaxe, les concepts de programmation, les cas de test, le débogage, etc. GitHub Copilot Chat n’est pas conçu pour répondre à des questions qui ne concernent pas le codage ni pour fournir des informations générales sur des sujets qui ne relèvent pas du codage.
La langue principale prise en charge pour GitHub Copilot Chat est l'anglais.
GitHub Copilot Chat fonctionne en combinant le traitement du langage naturel et l’apprentissage automatique pour comprendre votre question et vous fournir une réponse. Ce processus peut être divisé en plusieurs étapes.
Traitement de l’entrée
La saisie de l'utilisateur est pré-traitée par le système Discussion avec Copilot, combinée à des informations contextuelles (par exemple, le nom du référentiel que l'utilisateur est en train de consulter et les fichiers qu'il a ouverts), puis envoyée à un modèle linguistique de grande taille. L’entrée utilisateur peut prendre la forme d’extraits de code ou être exprimée en langage normal.
Les informations contextuelles d’ajout peuvent être ajoutées automatiquement aux invites de conversation à partir d’un fichier .github/copilot-instructions.md facultatif que l’utilisateur peut créer. Ces informations supplémentaires ne s’affichent pas dans la conversation, mais si les instructions sont envoyées au modèle, le fichier est répertorié comme référence dans la réponse de conversation. L’utilisateur peut désactiver cette fonctionnalité dans les paramètres d’extension Copilot.
Le grand modèle de langage prend l’invite, collecte un contexte supplémentaire (par exemple, les données de référentiel stockées sur GitHub) et fournit une réponse basée sur l’invite. Le système est destiné seulement à répondre à questions relatives au codage.
Analyse du modèle de langage
Le prompt pré-traité est ensuite transmis au modèle de langage Discussion avec Copilot, qui est un réseau neuronal qui a été entraîné sur un grand corpus de données textuelles. Le modèle de langage analyse la demande entrée.
Génération de la réponse
Le modèle de langage génère une réponse en fonction de son analyse de la demande entrée et du contexte fourni. Le modèle de langage peut collecter du contexte supplémentaire et fournir une réponse basée sur l’invite. Cette réponse peut se présenter sous forme de code généré, de code suggéré ou d’explications du code existant.
Lorsque vous utilisez le participant de discussion @github, Discussion avec Copilot pourra extraire le contexte de votre code stocké sur GitHub ainsi que les résultats de recherche Bing (si ceux-ci sont activés par votre administrateur).
Mise en forme de la sortie
La réponse générée par Discussion avec Copilot est formatée et présentée à l’utilisateur. Discussion avec Copilot peut utiliser la coloration syntaxique, l’indentation et d’autres fonctionnalités de mise en forme pour clarifier la réponse générée. Selon le type de question de l’utilisateur, des liens vers le contexte utilisé par le modèle lors de la génération d’une réponse, comme les fichiers de code source ou la documentation, peuvent également être fournis.
GitHub Copilot Chat a pour objectif de vous fournir la réponse la plus pertinente à votre question. Cependant, il peut ne pas toujours fournir la réponse que vous recherchez. Les utilisateurs de Discussion avec Copilot sont tenus de vérifier et de valider les réponses générées par le système afin de s’assurer qu’elles sont exactes et appropriées. De plus, dans le cadre de notre processus de développement de produits, nous réalisons des exercices de red teaming (simulations d’attaques) afin de comprendre et d’améliorer la sécurité de Discussion avec Copilot. Les invites d’entrée et les complétions de sortie sont exécutées via des filtres de contenu. Le système de filtrage de contenu détecte et empêche la sortie sur des catégories spécifiques de contenu, notamment du contenu dangereux, offensant ou hors sujet. Pour plus d'informations sur l'amélioration des performances de GitHub Copilot Chat, consultez Améliorer les performances de GitHub Copilot Chat.
Tirer parti d’une recherche web pour répondre à une question
Lorsque vous utilisez le participant à la conversation @github, GitHub Copilot Chat peut utiliser une recherche Bing pour vous aider à répondre à votre question si cette option a été activée par votre administrateur.
Votre administrateur GitHub Enterprise peut activer Bing pour toute votre entreprise ou déléguer cette décision à l’administrateur de l’organisation. Pour plus d’informations, consultez « Application de stratégies pour GitHub Copilot dans votre entreprise ».
Lorsque vous utilisez Bing, Copilot utilise le contenu de votre invite, ainsi que le contexte disponible supplémentaire, pour générer une requête de recherche Bing en votre nom envoyée à l’API de recherche Bing. Copilot fournit un lien vers les résultats de la recherche avec sa réponse. La requête de recherche envoyée à Bing est régie par la Déclaration de confidentialité Microsoft.
Utilisation de Bring Your Own Key (BYOK) avec GitHub Copilot
Lorsque vous utilisez Bring Your Own Key avec GitHub Copilot Chat, vous pouvez connecter l’expérience de conversation à des modèles de langage volumineux provenant de fournisseurs pris en charge au-delà du modèle par défaut Copilot. Parmi les fournisseurs pris en charge, citons Anthropic, AWS Bedrock, Google AI Studio, Microsoft Foundry, OpenAI, openAI-compatible providers et xAI. Vous ajoutez votre clé API pour le fournisseur choisi directement dans vos paramètres Copilot.
Lorsque BYOK est actif :
- Étendue des fonctionnalités : votre modèle choisi est utilisé dans GitHub Copilot Chat. En mode Agent, BYOK alimente la conversation principale, mais certaines actions, telles que l'application de code ou d'autres appels d'outils, peuvent toujours utiliser des modèles hébergés par GitHub, optimisés pour ces tâches. Ces modèles intégrés ne s’exécutent pas via votre fournisseur BYOK.
- Processus de sécurité : quel que soit le fournisseur actif, les réponses passent toujours par GitHubles systèmes de sécurité de }, y compris le filtrage de contenu, avant que les résultats ne soient affichés à vous.
- Considérations relatives à la qualité : les suggestions peuvent varier en fonction des forces et de la couverture de formation de votre fournisseur choisi.
- Gestion des données : lorsque vous utilisez BYOK, vos invites et réponses sont transmises à votre fournisseur sélectionné et peuvent être soumises aux stratégies de rétention et de confidentialité des données de ce fournisseur. GitHub traite temporairement ces données pour le filtrage de sécurité, mais ne conserve pas le contenu de conversation BYOK au-delà de la durée de session.
- Vos responsabilités : vous êtes responsable des éléments suivants :
- Sécurité de la clé API du fournisseur
- Coûts ou quotas d’utilisation
- Validation de sortie
- Évaluer si votre modèle choisi répond à vos exigences de sécurité et de qualité
- Conformité avec les conditions de votre fournisseur sélectionné
- Déterminer si votre modèle choisi est conforme aux lois applicables
- S'assurer qu'une personne examine tout résultat avant de prendre des décisions qui affectent les gens
- Restrictions d’exportation : certains modèles IA peuvent être soumis à des contrôles d’exportation. Vérifiez que votre fournisseur et votre modèle sélectionnés sont autorisés à être utilisés dans votre juridiction.
BYOK permet à votre organisation de choisir le modèle linguistique qui correspond le mieux à vos besoins tout en bénéficiant de l'infrastructure de sécurité de GitHub. Notez que les caractéristiques de performances et de sécurité du modèle dépendent du fournisseur.
Cas d’utilisation pour GitHub Copilot Chat
GitHub Copilot Chat peut fournir une aide au codage dans divers scénarios.
Génération de cas de test unitaire
Discussion avec Copilot peut vous aider à rédiger des cas de test unitaires en générant des extraits de code basés sur le code ouvert dans l'éditeur ou sur l'extrait de code que vous sélectionnez dans l'éditeur. Ceci peut vous aider à écrire des cas de test sans consacrer autant de temps à des tâches répétitives. Par exemple, si vous écrivez un cas de test pour une fonction spécifique, vous pouvez utiliser Discussion avec Copilot pour suggérer des paramètres d'entrée possibles et des valeurs de sortie attendues en fonction de la signature et du corps de la fonction. Discussion avec Copilot peut également suggérer des assertions qui garantissent le bon fonctionnement de la fonction, en fonction du contexte et de la sémantique du code.
Discussion avec Copilot peut également vous aider à rédiger des cas de test pour les cas limites et les conditions limites qui peuvent être difficiles à identifier manuellement. Par exemple, Discussion avec Copilot peut suggérer des cas de test pour la gestion des erreurs, des valeurs null ou des types d’entrée inattendus, ce qui vous permet de vérifier que votre code est robuste et résilient. Cependant, il est important de noter que les cas de test générés peuvent ne pas couvrir tous les scénarios possibles, et que les tests manuels et la révision du code sont toujours nécessaires pour garantir la qualité du code. Pour plus d'informations sur la génération de cas de test unitaires, consultez Poser des questions GitHub Copilot Chat sur votre code.
Explication du code et suggestions d’améliorations
Discussion avec Copilot peut aider à expliquer le code sélectionné en générant des descriptions en langage naturel de la fonctionnalité et de l’objectif du code. Ceci peut être utile si vous souhaitez comprendre le comportement du code ou pour des parties prenantes non techniques qui doivent comprendre le fonctionnement du code. Par exemple, si vous sélectionnez une fonction ou un bloc de code dans l’éditeur de code, Discussion avec Copilot peut générer une description en langage naturel de ce que fait le code et de la manière dont il s’intègre dans le système global. Ceci peut inclure des informations comme les paramètres d’entrée et de sortie de la fonction, ses dépendances et son objectif dans l’application au sens plus large.
Discussion avec Copilot peut également suggérer des améliorations potentielles au code sélectionné, telles que l’amélioration de la gestion des erreurs et des cas limites, ou des modifications du flux logique afin de rendre le code plus lisible.
En générant des explications et en suggérant des documents connexes, Discussion avec Copilot peut vous aider à comprendre le code sélectionné, ce qui améliore la collaboration et rend le développement logiciel plus efficace. Cependant, il est important de noter que les explications et la documentation générées peuvent ne pas toujours être exactes ou complètes. Vous devrez donc vérifier et, parfois, corriger les résultats fournis par Discussion avec Copilot.
Proposition de correctifs de code
Discussion avec Copilot peut proposer un correctif pour les bogues dans votre code en suggérant des extraits de code et des solutions basées sur le contexte de l’erreur ou du problème. Ceci peut être utile si vous avez du mal à identifier la cause racine d’un bogue ou si vous avez besoin d’aide sur la meilleure façon de le corriger. Par exemple, si votre code génère un message d’erreur ou un avertissement, Discussion avec Copilot peut suggérer des correctifs possibles en fonction du message d’erreur, de la syntaxe du code et du code environnant.
Discussion avec Copilot peut suggérer des modifications à apporter aux variables, aux structures de contrôle ou aux appels de fonction susceptibles de résoudre le problème, et générer des extraits de code pouvant être intégrés au codebase. Cependant, il est important de noter que les correctifs suggérés peuvent ne pas toujours être optimaux ou complets : vous devez donc passer en revue et tester les suggestions.
Répondre à des questions sur le codage
Vous pouvez demander à Discussion avec Copilot de vous aider ou de clarifier des problèmes de code spécifiques et recevoir des réponses en langage naturel ou sous forme d'extraits de code.
La réponse générée parDiscussion avec Copilot utilisera le jeu de données d'apprentissage du modèle pour répondre à vos questions.
Lorsque vous utilisez le participant de conversation @github, la réponse générée peut également utiliser les résultats de recherche de Bing et le code dans vos référentiels.
Ce peut être un outil pratique pour les programmeurs, car il peut fournir des conseils et du support pour des tâches et des problématiques de codage courantes.
Amélioration des performances pour GitHub Copilot Chat
Discussion avec Copilot peut prendre en charge un large éventail d'applications pratiques telles que la génération de code, l'analyse de code et les corrections de code, chacune avec des indicateurs de performance et des stratégies d'atténuation différents. Pour améliorer les performances et pallier certaines des limitations de Discussion avec Copilot, vous pouvez adopter différentes mesures. Pour plus d’informations sur les limitations de Discussion avec Copilot, consultez Limitations de GitHub Copilot Chat.
Limitez vos demandes au sujet concerné
Discussion avec Copilot est destiné à répondre exclusivement aux questions liées au codage. Par conséquent, limiter la demande à des questions ou des tâches de codage peut améliorer la qualité de la sortie du modèle.
Utilisez Discussion avec Copilot comme un outil, et non comme un substitut
Bien que Discussion avec Copilot puisse être un outil puissant pour générer du code, il est important de l’utiliser comme un outil plutôt que comme un substitut à la programmation humaine. Vous devez toujours vérifier et tester le code généré par Discussion avec Copilot afin de vous assurer qu’il répond à vos exigences et qu’il ne contient aucune erreur ni aucun problème de sécurité.
Utiliser des pratiques de codage sécurisé et de révision du code
Bien que Discussion avec Copilot puisse générer un code syntaxiquement correct, il n’est pas toujours sécurisé. Vous devez toujours respecter les meilleures pratiques en matière de codage sécurisé, telles que l’évitement des mots de passe codés en dur ou des vulnérabilités d’injection SQL, ainsi que suivre les meilleures pratiques en matière de revue, afin de pallier les limitations de Discussion avec Copilot.
Fournir des commentaires
Si vous rencontrez des problèmes ou des limitations avec Discussion avec Copilot, nous vous recommandons de nous faire part de vos commentaires via le lien **Partager vos commentaires **dans l'interface Discussion avec Copilot de votre IDE. Cela peut aider les développeurs à améliorer l’outil, et à résoudre les problèmes ou les limitations.
Rester informé
Discussion avec Copilot est une nouvelle technologie qui est susceptible d’évoluer au fil du temps. Il est recommandé de se tenir informé des mises à jour ou des modifications apportées à l’outil ainsi que des nouveaux risques ou des bonnes pratiques en matière de sécurité qui peuvent apparaître. Les mises à jour automatisées des extensions sont activées par défaut dans Visual Studio Code, Visual Studio et la suite d’IDE JetBrains. Pour GitHub Copilot Chat dans GitHub, vous aurez toujours accès à la dernière expérience produit. Si les mises à jour automatiques sont activées, Discussion avec Copilot se mettra automatiquement à jour vers la dernière version lorsque vous ouvrirez votre IDE. Pour plus d’informations sur les mises à jour automatiques dans votre IDE, consultez la documentation Visual Studio Code, la documentation Visual Studio et la documentation pour votre IDE JetBrains.
Limitations de GitHub Copilot Chat
En fonction de facteurs tels que votre codebase et vos données d’entrée, vous pouvez constater différents niveaux de performances lors de l’utilisation de Discussion avec Copilot. Les informations suivantes ont pour but de vous aider à comprendre les limitations du système et les concepts clés liés aux performances qui s’appliquent à Discussion avec Copilot.
Étendue limitée
Discussion avec Copilot a été entraîné sur un vaste corpus de code, mais son champ d’application reste limité et il peut ne pas être en mesure de traiter des structures de code plus complexes ou des langages de programmation obscurs. Pour chaque langage, la qualité des suggestions que vous recevez peut dépendre du volume et de la diversité des données d’entraînement pour ce langage. Par exemple, JavaScript est bien représenté dans les dépôts publics et est l’un des langages les mieux pris en charge par GitHub Copilot. Les langues moins représentées dans les référentiels publics peuvent être plus difficiles à prendre en charge par Discussion avec Copilot. De plus, Discussion avec Copilot ne peut suggérer du code qu’en fonction du contexte du code en cours d’écriture. Il se peut donc qu’il ne soit pas en mesure d’identifier des problèmes de conception ou d’architecture plus importants.
Biais potentiels
Les données d’entraînement de Copilot sont extraites de dépôts de code existants, qui peuvent contenir des biais et des erreurs qui peuvent être perpétués par l’outil. De plus, Discussion avec Copilot peut être biaisé en faveur de certains langages de programmation ou styles de codage, ce qui peut entraîner des suggestions de code sous-optimales ou incomplètes.
Risques liés à la sécurité
Discussion avec Copilot génère du code en fonction du contexte du code en cours d’écriture, ce qui peut potentiellement exposer des informations sensibles ou des vulnérabilités s’il n’est pas utilisé avec précaution. Vous devez être prudent lorsque vous utilisez Discussion avec Copilot pour générer du code destiné à des applications sensibles en matière de sécurité, et toujours vérifier et tester minutieusement le code généré.
Correspondances avec du code public
Discussion avec Copilot est capable de générer du nouveau code, ce qu’il fait de manière probabiliste. Bien que la probabilité qu’il produise un code correspondant à celui du jeu d’apprentissage soit faible, une suggestion Discussion avec Copilot peut contenir des extraits de code correspondant au code du jeu d’apprentissage.
Si vous avez désactivé les suggestions correspondant au code public, Discussion avec Copilot utilise des filtres qui l’empêchent d’afficher le code correspondant au code trouvé dans les référentiels publics sur GitHub. Toutefois, vous devez toujours prendre les mêmes précautions que vous le feriez avec n’importe quel code que vous écrivez qui utilise du matériel que vous n’avez pas écrit à l’origine, y compris les précautions pour garantir sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Si vous avez activé les suggestions qui correspondent au code public, Discussion avec Copilot affiche un message lorsqu’un code correspondant est trouvé. Le message inclut un lien qui vous permet d’afficher les détails du code correspondant et les détails de licence trouvés, dans l’éditeur VS Code. Pour plus d’informations, consultez « Recherche de code public qui correspond à GitHub Suggestions de Copilot ».
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Code erroné
L’une des limitations de Discussion avec Copilot réside dans le fait qu’il peut générer du code qui semble valide, mais qui peut ne pas être correct d’un point de vue sémantique ou syntaxique, ou qui peut ne pas refléter fidèlement l’intention du développeur. Pour atténuer le risque d’avoir du code erroné, vous devez réviser et tester soigneusement le code généré, en particulier quand vous travaillez sur des applications critiques ou sensibles. Vous devez aussi vérifier que le code généré respecte les bonnes pratiques et les modèles de conception, et qu’il s’intègre dans l’architecture globale et le style du codebase.
Réponses erronées sur des sujets autres que le codage
Discussion avec Copilot n’est pas conçu pour répondre à des questions qui ne concernent pas le codage, et ses réponses peuvent donc ne pas toujours être précises ou utiles dans ces contextes. Si un utilisateur pose à Discussion avec Copilot une question non liée au codage, il peut générer une réponse hors sujet ou absurde, ou bien indiquer simplement qu’il est incapable de fournir une réponse utile.
Étapes suivantes
Pour plus d’informations sur l’utilisation de GitHub Copilot Chat, consultez :
Pour aller plus loin
À propos de GitHub Copilot Chat
GitHub Copilot Chat est une interface de chat qui vous permet d'interagir avec GitHub Copilot, afin de poser des questions liées au codage et d'obtenir des réponses sur le site web GitHub et les IDE pris en charge. L’interface de conversation permet d’accéder aux informations sur le codage et au support sans avoir à parcourir la documentation ni à rechercher dans des forums en ligne. Pour plus d’informations, consultez « Qu’est-ce que GitHub Copilot ? ».
GitHub Copilot Chat peut répondre à un large éventail de questions liées au codage, notamment sur la syntaxe, les concepts de programmation, les cas de test, le débogage, etc. GitHub Copilot Chat n’est pas conçu pour répondre à des questions qui ne concernent pas le codage ni pour fournir des informations générales sur des sujets qui ne relèvent pas du codage.
La langue principale prise en charge pour GitHub Copilot Chat est l'anglais.
GitHub Copilot Chat fonctionne en combinant le traitement du langage naturel et l’apprentissage automatique pour comprendre votre question et vous fournir une réponse. Ce processus peut être divisé en plusieurs étapes.
Traitement de l’entrée
La saisie de l'utilisateur est pré-traitée par le système Discussion avec Copilot, combinée à des informations contextuelles (par exemple, le nom du référentiel que l'utilisateur est en train de consulter et les fichiers qu'il a ouverts), puis envoyée à un modèle linguistique de grande taille. L’entrée utilisateur peut prendre la forme d’extraits de code ou être exprimée en langage normal.
Les informations contextuelles d’ajout peuvent être ajoutées automatiquement aux invites de conversation à partir d’un fichier .github/copilot-instructions.md facultatif que l’utilisateur peut créer. Ces informations supplémentaires ne s’affichent pas dans la conversation, mais si les instructions sont envoyées au modèle, le fichier est répertorié comme référence dans la réponse de conversation. L’utilisateur peut désactiver cette fonctionnalité dans les paramètres d’extension Copilot.
Le grand modèle de langage prend l’invite, collecte un contexte supplémentaire (par exemple, les données de référentiel stockées sur GitHub) et fournit une réponse basée sur l’invite. Le système est destiné seulement à répondre à questions relatives au codage.
Analyse du modèle de langage
Le prompt pré-traité est ensuite transmis au modèle de langage Discussion avec Copilot, qui est un réseau neuronal qui a été entraîné sur un grand corpus de données textuelles. Le modèle de langage analyse la demande entrée.
Génération de la réponse
Le modèle de langage génère une réponse en fonction de son analyse de la demande entrée et du contexte fourni. Le modèle de langage peut collecter du contexte supplémentaire et fournir une réponse basée sur l’invite. Cette réponse peut se présenter sous forme de code généré, de code suggéré ou d’explications du code existant.
Lorsque vous utilisez le participant de conversation @github, Discussion avec Copilot est en mesure de recueillir du contexte à partir de votre code stocké sur GitHub ainsi que des résultats de recherche provenant de Bing (si cette option est activée par votre administrateur).
Mise en forme de la sortie
La réponse générée par Discussion avec Copilot est formatée et présentée à l’utilisateur. Discussion avec Copilot peut utiliser la coloration syntaxique, l’indentation et d’autres fonctionnalités de mise en forme pour clarifier la réponse générée. Selon le type de question de l’utilisateur, des liens vers le contexte utilisé par le modèle lors de la génération d’une réponse, comme les fichiers de code source ou la documentation, peuvent également être fournis.
GitHub Copilot Chat a pour objectif de vous fournir la réponse la plus pertinente à votre question. Cependant, il peut ne pas toujours fournir la réponse que vous recherchez. Les utilisateurs de Discussion avec Copilot sont tenus de vérifier et de valider les réponses générées par le système afin de s’assurer qu’elles sont exactes et appropriées. De plus, dans le cadre de notre processus de développement de produits, nous réalisons des exercices de red teaming (simulations d’attaques) afin de comprendre et d’améliorer la sécurité de Discussion avec Copilot. Les invites d’entrée et les complétions de sortie sont exécutées via des filtres de contenu. Le système de filtrage de contenu détecte et empêche la sortie sur des catégories spécifiques de contenu, notamment du contenu dangereux, offensant ou hors sujet. Pour plus d'informations sur l'amélioration des performances de GitHub Copilot Chat, consultez Améliorer les performances de GitHub Copilot Chat.
Tirer parti d’une recherche web pour répondre à une question
Lorsque vous utilisez le participant à la conversation @github, GitHub Copilot Chat peut utiliser une recherche Bing pour vous aider à répondre à votre question si cette option a été activée par votre administrateur.
Votre administrateur GitHub Enterprise peut activer Bing pour toute votre entreprise ou déléguer cette décision à l’administrateur de l’organisation. Pour plus d’informations, consultez « Application de stratégies pour GitHub Copilot dans votre entreprise ».
Lorsque vous utilisez Bing, Copilot utilise le contenu de votre invite, ainsi que le contexte disponible supplémentaire, pour générer une requête de recherche Bing en votre nom envoyée à l’API de recherche Bing. Copilot fournit un lien vers les résultats de la recherche avec sa réponse. La requête de recherche envoyée à Bing est régie par la Déclaration de confidentialité Microsoft.
Utilisation de Bring Your Own Key (BYOK) avec GitHub Copilot
Lorsque vous utilisez Bring Your Own Key avec GitHub Copilot Chat, vous pouvez connecter l’expérience de conversation à des modèles de langage volumineux provenant de fournisseurs pris en charge au-delà du modèle par défaut Copilot. Parmi les fournisseurs pris en charge, citons Anthropic, AWS Bedrock, Google AI Studio, Microsoft Foundry, OpenAI, openAI-compatible providers et xAI. Vous ajoutez votre clé API pour le fournisseur choisi directement dans vos paramètres Copilot.
Lorsque BYOK est actif :
- Étendue des fonctionnalités : votre modèle choisi est utilisé dans GitHub Copilot Chat. En mode Agent, BYOK alimente la conversation principale, mais certaines actions, telles que l'application de code ou d'autres appels d'outils, peuvent toujours utiliser des modèles hébergés par GitHub, optimisés pour ces tâches. Ces modèles intégrés ne s’exécutent pas via votre fournisseur BYOK.
- Processus de sécurité : quel que soit le fournisseur actif, les réponses passent toujours par GitHubles systèmes de sécurité de }, y compris le filtrage de contenu, avant que les résultats ne soient affichés à vous.
- Considérations relatives à la qualité : les suggestions peuvent varier en fonction des forces et de la couverture de formation de votre fournisseur choisi.
- Gestion des données : lorsque vous utilisez BYOK, vos invites et réponses sont transmises à votre fournisseur sélectionné et peuvent être soumises aux stratégies de rétention et de confidentialité des données de ce fournisseur. GitHub traite temporairement ces données pour le filtrage de sécurité, mais ne conserve pas le contenu de conversation BYOK au-delà de la durée de session.
- Vos responsabilités : vous êtes responsable des éléments suivants :
- Sécurité de la clé API du fournisseur
- Coûts ou quotas d’utilisation
- Validation de sortie
- Évaluer si votre modèle choisi répond à vos exigences de sécurité et de qualité
- Conformité avec les conditions de votre fournisseur sélectionné
- Déterminer si votre modèle choisi est conforme aux lois applicables
- S'assurer qu'une personne examine tout résultat avant de prendre des décisions qui affectent les gens
- Restrictions d’exportation : certains modèles IA peuvent être soumis à des contrôles d’exportation. Vérifiez que votre fournisseur et votre modèle sélectionnés sont autorisés à être utilisés dans votre juridiction.
BYOK permet à votre organisation de choisir le modèle linguistique qui correspond le mieux à vos besoins tout en bénéficiant de l'infrastructure de sécurité de GitHub. Notez que les caractéristiques de performances et de sécurité du modèle dépendent du fournisseur.
Cas d’utilisation pour GitHub Copilot Chat
GitHub Copilot Chat peut fournir une aide au codage dans divers scénarios.
Génération de cas de test unitaire
Discussion avec Copilot peut vous aider à rédiger des cas de test unitaires en générant des extraits de code basés sur le code ouvert dans l'éditeur ou sur l'extrait de code que vous sélectionnez dans l'éditeur. Ceci peut vous aider à écrire des cas de test sans consacrer autant de temps à des tâches répétitives. Par exemple, si vous écrivez un cas de test pour une fonction spécifique, vous pouvez utiliser Discussion avec Copilot pour suggérer des paramètres d'entrée possibles et des valeurs de sortie attendues en fonction de la signature et du corps de la fonction. Discussion avec Copilot peut également suggérer des assertions qui garantissent le bon fonctionnement de la fonction, en fonction du contexte et de la sémantique du code.
Discussion avec Copilot peut également vous aider à rédiger des cas de test pour les cas limites et les conditions limites qui peuvent être difficiles à identifier manuellement. Par exemple, Discussion avec Copilot peut suggérer des cas de test pour la gestion des erreurs, des valeurs null ou des types d’entrée inattendus, ce qui vous permet de vérifier que votre code est robuste et résilient. Cependant, il est important de noter que les cas de test générés peuvent ne pas couvrir tous les scénarios possibles, et que les tests manuels et la révision du code sont toujours nécessaires pour garantir la qualité du code. Pour plus d'informations sur la génération de cas de test unitaires, consultez Poser des questions GitHub Copilot Chat sur votre code.
Explication du code et suggestions d’améliorations
Discussion avec Copilot peut aider à expliquer le code sélectionné en générant des descriptions en langage naturel de la fonctionnalité et de l’objectif du code. Ceci peut être utile si vous souhaitez comprendre le comportement du code ou pour des parties prenantes non techniques qui doivent comprendre le fonctionnement du code. Par exemple, si vous sélectionnez une fonction ou un bloc de code dans l’éditeur de code, Discussion avec Copilot peut générer une description en langage naturel de ce que fait le code et de la manière dont il s’intègre dans le système global. Ceci peut inclure des informations comme les paramètres d’entrée et de sortie de la fonction, ses dépendances et son objectif dans l’application au sens plus large.
Discussion avec Copilot peut également suggérer des améliorations potentielles au code sélectionné, telles que l’amélioration de la gestion des erreurs et des cas limites, ou des modifications du flux logique afin de rendre le code plus lisible.
En générant des explications et en suggérant des documents connexes, Discussion avec Copilot peut vous aider à comprendre le code sélectionné, ce qui améliore la collaboration et rend le développement logiciel plus efficace. Cependant, il est important de noter que les explications et la documentation générées peuvent ne pas toujours être exactes ou complètes. Vous devrez donc vérifier et, parfois, corriger les résultats fournis par Discussion avec Copilot.
Proposition de correctifs de code
Discussion avec Copilot peut proposer un correctif pour les bogues dans votre code en suggérant des extraits de code et des solutions basées sur le contexte de l’erreur ou du problème. Ceci peut être utile si vous avez du mal à identifier la cause racine d’un bogue ou si vous avez besoin d’aide sur la meilleure façon de le corriger. Par exemple, si votre code génère un message d’erreur ou un avertissement, Discussion avec Copilot peut suggérer des correctifs possibles en fonction du message d’erreur, de la syntaxe du code et du code environnant.
Discussion avec Copilot peut suggérer des modifications à apporter aux variables, aux structures de contrôle ou aux appels de fonction susceptibles de résoudre le problème, et générer des extraits de code pouvant être intégrés au codebase. Cependant, il est important de noter que les correctifs suggérés peuvent ne pas toujours être optimaux ou complets : vous devez donc passer en revue et tester les suggestions.
Répondre à des questions sur le codage
Vous pouvez demander à Discussion avec Copilot de vous aider ou de clarifier des problèmes de code spécifiques et recevoir des réponses en langage naturel ou sous forme d'extraits de code.
La réponse générée parDiscussion avec Copilot utilisera le jeu de données d'apprentissage du modèle pour répondre à vos questions.
Ce peut être un outil pratique pour les programmeurs, car il peut fournir des conseils et du support pour des tâches et des problématiques de codage courantes.
Amélioration des performances pour GitHub Copilot Chat
Discussion avec Copilot peut prendre en charge un large éventail d'applications pratiques telles que la génération de code, l'analyse de code et les corrections de code, chacune avec des indicateurs de performance et des stratégies d'atténuation différents. Pour améliorer les performances et pallier certaines des limitations de Discussion avec Copilot, vous pouvez adopter différentes mesures. Pour plus d’informations sur les limitations de Discussion avec Copilot, consultez Limitations de GitHub Copilot Chat.
Limitez vos demandes au sujet concerné
Discussion avec Copilot est destiné à répondre exclusivement aux questions liées au codage. Par conséquent, limiter la demande à des questions ou des tâches de codage peut améliorer la qualité de la sortie du modèle.
Utilisez Discussion avec Copilot comme un outil, et non comme un substitut
Bien que Discussion avec Copilot puisse être un outil puissant pour générer du code, il est important de l’utiliser comme un outil plutôt que comme un substitut à la programmation humaine. Vous devez toujours vérifier et tester le code généré par Discussion avec Copilot afin de vous assurer qu’il répond à vos exigences et qu’il ne contient aucune erreur ni aucun problème de sécurité.
Utiliser des pratiques de codage sécurisé et de révision du code
Bien que Discussion avec Copilot puisse générer un code syntaxiquement correct, il n’est pas toujours sécurisé. Vous devez toujours respecter les meilleures pratiques en matière de codage sécurisé, telles que l’évitement des mots de passe codés en dur ou des vulnérabilités d’injection SQL, ainsi que suivre les meilleures pratiques en matière de revue, afin de pallier les limitations de Discussion avec Copilot.
Fournir des commentaires
Si vous rencontrez des problèmes ou des limitations avec Discussion avec Copilot, nous vous recommandons de nous faire part de vos commentaires via le lien **Partager vos commentaires **dans l'interface Discussion avec Copilot de votre IDE. Cela peut aider les développeurs à améliorer l’outil, et à résoudre les problèmes ou les limitations.
Rester informé
Discussion avec Copilot est une nouvelle technologie qui est susceptible d’évoluer au fil du temps. Il est recommandé de se tenir informé des mises à jour ou des modifications apportées à l’outil ainsi que des nouveaux risques ou des bonnes pratiques en matière de sécurité qui peuvent apparaître. Les mises à jour automatisées des extensions sont activées par défaut dans Visual Studio Code, Visual Studio et la suite d’IDE JetBrains. Pour GitHub Copilot Chat dans GitHub, vous aurez toujours accès à la dernière expérience produit. Si les mises à jour automatiques sont activées, Discussion avec Copilot se mettra automatiquement à jour vers la dernière version lorsque vous ouvrirez votre IDE. Pour plus d’informations sur les mises à jour automatiques dans votre IDE, consultez la documentation Visual Studio Code, la documentation Visual Studio et la documentation pour votre IDE JetBrains.
Limitations de GitHub Copilot Chat
En fonction de facteurs tels que votre codebase et vos données d’entrée, vous pouvez constater différents niveaux de performances lors de l’utilisation de Discussion avec Copilot. Les informations suivantes ont pour but de vous aider à comprendre les limitations du système et les concepts clés liés aux performances qui s’appliquent à Discussion avec Copilot.
Étendue limitée
Discussion avec Copilot a été entraîné sur un vaste corpus de code, mais son champ d’application reste limité et il peut ne pas être en mesure de traiter des structures de code plus complexes ou des langages de programmation obscurs. Pour chaque langage, la qualité des suggestions que vous recevez peut dépendre du volume et de la diversité des données d’entraînement pour ce langage. Par exemple, JavaScript est bien représenté dans les dépôts publics et est l’un des langages les mieux pris en charge par GitHub Copilot. Les langues moins représentées dans les référentiels publics peuvent être plus difficiles à prendre en charge par Discussion avec Copilot. De plus, Discussion avec Copilot ne peut suggérer du code qu’en fonction du contexte du code en cours d’écriture. Il se peut donc qu’il ne soit pas en mesure d’identifier des problèmes de conception ou d’architecture plus importants.
Biais potentiels
Les données d’entraînement de Copilot sont extraites de dépôts de code existants, qui peuvent contenir des biais et des erreurs qui peuvent être perpétués par l’outil. De plus, Discussion avec Copilot peut être biaisé en faveur de certains langages de programmation ou styles de codage, ce qui peut entraîner des suggestions de code sous-optimales ou incomplètes.
Risques liés à la sécurité
Discussion avec Copilot génère du code en fonction du contexte du code en cours d’écriture, ce qui peut potentiellement exposer des informations sensibles ou des vulnérabilités s’il n’est pas utilisé avec précaution. Vous devez être prudent lorsque vous utilisez Discussion avec Copilot pour générer du code destiné à des applications sensibles en matière de sécurité, et toujours vérifier et tester minutieusement le code généré.
Correspondances avec du code public
Discussion avec Copilot est capable de générer du nouveau code, ce qu’il fait de manière probabiliste. Bien que la probabilité qu’il produise un code correspondant à celui du jeu d’apprentissage soit faible, une suggestion Discussion avec Copilot peut contenir des extraits de code correspondant au code du jeu d’apprentissage.
Si vous avez désactivé les suggestions correspondant au code public, Discussion avec Copilot utilise des filtres qui l’empêchent d’afficher le code correspondant au code trouvé dans les référentiels publics sur GitHub. Toutefois, vous devez toujours prendre les mêmes précautions que vous le feriez avec n’importe quel code que vous écrivez qui utilise du matériel que vous n’avez pas écrit à l’origine, y compris les précautions pour garantir sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Si vous avez activé les suggestions qui correspondent au code public, Discussion avec Copilot affiche un message lorsqu’un code correspondant est trouvé. Le message inclut un lien qui vous permet d’afficher les détails du code correspondant et les détails de licence trouvés, dans l’éditeur VS Code. Pour plus d’informations, consultez « Recherche de code public qui correspond à GitHub Suggestions de Copilot ».
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Code erroné
L’une des limitations de Discussion avec Copilot réside dans le fait qu’il peut générer du code qui semble valide, mais qui peut ne pas être correct d’un point de vue sémantique ou syntaxique, ou qui peut ne pas refléter fidèlement l’intention du développeur. Pour atténuer le risque d’avoir du code erroné, vous devez réviser et tester soigneusement le code généré, en particulier quand vous travaillez sur des applications critiques ou sensibles. Vous devez aussi vérifier que le code généré respecte les bonnes pratiques et les modèles de conception, et qu’il s’intègre dans l’architecture globale et le style du codebase.
Réponses erronées sur des sujets autres que le codage
Discussion avec Copilot n’est pas conçu pour répondre à des questions qui ne concernent pas le codage, et ses réponses peuvent donc ne pas toujours être précises ou utiles dans ces contextes. Si un utilisateur pose à Discussion avec Copilot une question non liée au codage, il peut générer une réponse hors sujet ou absurde, ou bien indiquer simplement qu’il est incapable de fournir une réponse utile.
Étapes suivantes
Pour plus d’informations sur l’utilisation de GitHub Copilot Chat, consultez :
Pour aller plus loin
À propos de GitHub Copilot Chat
GitHub Copilot Chat est une interface de chat qui vous permet d'interagir avec GitHub Copilot, afin de poser des questions liées au codage et d'obtenir des réponses sur le site web GitHub et les IDE pris en charge. L’interface de conversation permet d’accéder aux informations sur le codage et au support sans avoir à parcourir la documentation ni à rechercher dans des forums en ligne. Pour plus d’informations, consultez « Qu’est-ce que GitHub Copilot ? ».
GitHub Copilot Chat peut répondre à un large éventail de questions liées au codage, notamment sur la syntaxe, les concepts de programmation, les cas de test, le débogage, etc. GitHub Copilot Chat n’est pas conçu pour répondre à des questions qui ne concernent pas le codage ni pour fournir des informations générales sur des sujets qui ne relèvent pas du codage.
La langue principale prise en charge pour GitHub Copilot Chat est l'anglais.
GitHub Copilot Chat fonctionne en combinant le traitement du langage naturel et l’apprentissage automatique pour comprendre votre question et vous fournir une réponse. Ce processus peut être divisé en plusieurs étapes.
Traitement de l’entrée
La saisie de l'utilisateur est pré-traitée par le système Discussion avec Copilot, combinée à des informations contextuelles (par exemple, le nom du référentiel que l'utilisateur est en train de consulter et les fichiers qu'il a ouverts), puis envoyée à un modèle linguistique de grande taille. L’entrée utilisateur peut prendre la forme d’extraits de code ou être exprimée en langage normal.
Le grand modèle de langage prend l’invite, collecte un contexte supplémentaire (par exemple, les données de référentiel stockées sur GitHub) et fournit une réponse basée sur l’invite. Le système est destiné seulement à répondre à questions relatives au codage.
Analyse du modèle de langage
Le prompt pré-traité est ensuite transmis au modèle de langage Discussion avec Copilot, qui est un réseau neuronal qui a été entraîné sur un grand corpus de données textuelles. Le modèle de langage analyse la demande entrée.
Génération de la réponse
Le modèle de langage génère une réponse en fonction de son analyse de la demande entrée et du contexte fourni. Le modèle de langage peut collecter du contexte supplémentaire et fournir une réponse basée sur l’invite. Cette réponse peut se présenter sous forme de code généré, de code suggéré ou d’explications du code existant.
Mise en forme de la sortie
La réponse générée par Discussion avec Copilot est formatée et présentée à l’utilisateur. Discussion avec Copilot peut utiliser la coloration syntaxique, l’indentation et d’autres fonctionnalités de mise en forme pour clarifier la réponse générée. Selon le type de question de l’utilisateur, des liens vers le contexte utilisé par le modèle lors de la génération d’une réponse, comme les fichiers de code source ou la documentation, peuvent également être fournis.
GitHub Copilot Chat a pour objectif de vous fournir la réponse la plus pertinente à votre question. Cependant, il peut ne pas toujours fournir la réponse que vous recherchez. Les utilisateurs de Discussion avec Copilot sont tenus de vérifier et de valider les réponses générées par le système afin de s’assurer qu’elles sont exactes et appropriées. De plus, dans le cadre de notre processus de développement de produits, nous réalisons des exercices de red teaming (simulations d’attaques) afin de comprendre et d’améliorer la sécurité de Discussion avec Copilot. Les invites d’entrée et les complétions de sortie sont exécutées via des filtres de contenu. Le système de filtrage de contenu détecte et empêche la sortie sur des catégories spécifiques de contenu, notamment du contenu dangereux, offensant ou hors sujet. Pour plus d'informations sur l'amélioration des performances de GitHub Copilot Chat, consultez Améliorer les performances de GitHub Copilot Chat.
Utilisation de Bring Your Own Key (BYOK) avec GitHub Copilot
Lorsque vous utilisez Bring Your Own Key avec GitHub Copilot Chat, vous pouvez connecter l’expérience de conversation à des modèles de langage volumineux provenant de fournisseurs pris en charge au-delà du modèle par défaut Copilot. Parmi les fournisseurs pris en charge, citons Anthropic, AWS Bedrock, Google AI Studio, Microsoft Foundry, OpenAI, openAI-compatible providers et xAI. Vous ajoutez votre clé API pour le fournisseur choisi directement dans vos paramètres Copilot.
Lorsque BYOK est actif :
- Étendue des fonctionnalités : votre modèle choisi est utilisé dans GitHub Copilot Chat. En mode Agent, BYOK alimente la conversation principale, mais certaines actions, telles que l'application de code ou d'autres appels d'outils, peuvent toujours utiliser des modèles hébergés par GitHub, optimisés pour ces tâches. Ces modèles intégrés ne s’exécutent pas via votre fournisseur BYOK.
- Processus de sécurité : quel que soit le fournisseur actif, les réponses passent toujours par GitHubles systèmes de sécurité de }, y compris le filtrage de contenu, avant que les résultats ne soient affichés à vous.
- Considérations relatives à la qualité : les suggestions peuvent varier en fonction des forces et de la couverture de formation de votre fournisseur choisi.
- Gestion des données : lorsque vous utilisez BYOK, vos invites et réponses sont transmises à votre fournisseur sélectionné et peuvent être soumises aux stratégies de rétention et de confidentialité des données de ce fournisseur. GitHub traite temporairement ces données pour le filtrage de sécurité, mais ne conserve pas le contenu de conversation BYOK au-delà de la durée de session.
- Vos responsabilités : vous êtes responsable des éléments suivants :
- Sécurité de la clé API du fournisseur
- Coûts ou quotas d’utilisation
- Validation de sortie
- Évaluer si votre modèle choisi répond à vos exigences de sécurité et de qualité
- Conformité avec les conditions de votre fournisseur sélectionné
- Déterminer si votre modèle choisi est conforme aux lois applicables
- S'assurer qu'une personne examine tout résultat avant de prendre des décisions qui affectent les gens
- Restrictions d’exportation : certains modèles IA peuvent être soumis à des contrôles d’exportation. Vérifiez que votre fournisseur et votre modèle sélectionnés sont autorisés à être utilisés dans votre juridiction.
BYOK permet à votre organisation de choisir le modèle linguistique qui correspond le mieux à vos besoins tout en bénéficiant de l'infrastructure de sécurité de GitHub. Notez que les caractéristiques de performances et de sécurité du modèle dépendent du fournisseur.
Cas d’utilisation pour GitHub Copilot Chat
GitHub Copilot Chat peut fournir une aide au codage dans divers scénarios.
Génération de cas de test unitaire
Discussion avec Copilot peut vous aider à rédiger des cas de test unitaires en générant des extraits de code basés sur le code ouvert dans l'éditeur ou sur l'extrait de code que vous sélectionnez dans l'éditeur. Ceci peut vous aider à écrire des cas de test sans consacrer autant de temps à des tâches répétitives. Par exemple, si vous écrivez un cas de test pour une fonction spécifique, vous pouvez utiliser Discussion avec Copilot pour suggérer des paramètres d'entrée possibles et des valeurs de sortie attendues en fonction de la signature et du corps de la fonction. Discussion avec Copilot peut également suggérer des assertions qui garantissent le bon fonctionnement de la fonction, en fonction du contexte et de la sémantique du code.
Discussion avec Copilot peut également vous aider à rédiger des cas de test pour les cas limites et les conditions limites qui peuvent être difficiles à identifier manuellement. Par exemple, Discussion avec Copilot peut suggérer des cas de test pour la gestion des erreurs, des valeurs null ou des types d’entrée inattendus, ce qui vous permet de vérifier que votre code est robuste et résilient. Cependant, il est important de noter que les cas de test générés peuvent ne pas couvrir tous les scénarios possibles, et que les tests manuels et la révision du code sont toujours nécessaires pour garantir la qualité du code. Pour plus d'informations sur la génération de cas de test unitaires, consultez Poser des questions GitHub Copilot Chat sur votre code.
Explication du code et suggestions d’améliorations
Discussion avec Copilot peut aider à expliquer le code sélectionné en générant des descriptions en langage naturel de la fonctionnalité et de l’objectif du code. Ceci peut être utile si vous souhaitez comprendre le comportement du code ou pour des parties prenantes non techniques qui doivent comprendre le fonctionnement du code. Par exemple, si vous sélectionnez une fonction ou un bloc de code dans l’éditeur de code, Discussion avec Copilot peut générer une description en langage naturel de ce que fait le code et de la manière dont il s’intègre dans le système global. Ceci peut inclure des informations comme les paramètres d’entrée et de sortie de la fonction, ses dépendances et son objectif dans l’application au sens plus large.
Discussion avec Copilot peut également suggérer des améliorations potentielles au code sélectionné, telles que l’amélioration de la gestion des erreurs et des cas limites, ou des modifications du flux logique afin de rendre le code plus lisible.
En générant des explications et en suggérant des documents connexes, Discussion avec Copilot peut vous aider à comprendre le code sélectionné, ce qui améliore la collaboration et rend le développement logiciel plus efficace. Cependant, il est important de noter que les explications et la documentation générées peuvent ne pas toujours être exactes ou complètes. Vous devrez donc vérifier et, parfois, corriger les résultats fournis par Discussion avec Copilot.
Proposition de correctifs de code
Discussion avec Copilot peut proposer un correctif pour les bogues dans votre code en suggérant des extraits de code et des solutions basées sur le contexte de l’erreur ou du problème. Ceci peut être utile si vous avez du mal à identifier la cause racine d’un bogue ou si vous avez besoin d’aide sur la meilleure façon de le corriger. Par exemple, si votre code génère un message d’erreur ou un avertissement, Discussion avec Copilot peut suggérer des correctifs possibles en fonction du message d’erreur, de la syntaxe du code et du code environnant.
Discussion avec Copilot peut suggérer des modifications à apporter aux variables, aux structures de contrôle ou aux appels de fonction susceptibles de résoudre le problème, et générer des extraits de code pouvant être intégrés au codebase. Cependant, il est important de noter que les correctifs suggérés peuvent ne pas toujours être optimaux ou complets : vous devez donc passer en revue et tester les suggestions.
Répondre à des questions sur le codage
Vous pouvez demander à Discussion avec Copilot de vous aider ou de clarifier des problèmes de code spécifiques et recevoir des réponses en langage naturel ou sous forme d'extraits de code.
La réponse générée parDiscussion avec Copilot utilisera le jeu de données d'apprentissage du modèle pour répondre à vos questions.
Ce peut être un outil pratique pour les programmeurs, car il peut fournir des conseils et du support pour des tâches et des problématiques de codage courantes.
Amélioration des performances pour GitHub Copilot Chat
Discussion avec Copilot peut prendre en charge un large éventail d'applications pratiques telles que la génération de code, l'analyse de code et les corrections de code, chacune avec des indicateurs de performance et des stratégies d'atténuation différents. Pour améliorer les performances et pallier certaines des limitations de Discussion avec Copilot, vous pouvez adopter différentes mesures. Pour plus d’informations sur les limitations de Discussion avec Copilot, consultez Limitations de GitHub Copilot Chat.
Limitez vos demandes au sujet concerné
Discussion avec Copilot est destiné à répondre exclusivement aux questions liées au codage. Par conséquent, limiter la demande à des questions ou des tâches de codage peut améliorer la qualité de la sortie du modèle.
Utilisez Discussion avec Copilot comme un outil, et non comme un substitut
Bien que Discussion avec Copilot puisse être un outil puissant pour générer du code, il est important de l’utiliser comme un outil plutôt que comme un substitut à la programmation humaine. Vous devez toujours vérifier et tester le code généré par Discussion avec Copilot afin de vous assurer qu’il répond à vos exigences et qu’il ne contient aucune erreur ni aucun problème de sécurité.
Utiliser des pratiques de codage sécurisé et de révision du code
Bien que Discussion avec Copilot puisse générer un code syntaxiquement correct, il n’est pas toujours sécurisé. Vous devez toujours respecter les meilleures pratiques en matière de codage sécurisé, telles que l’évitement des mots de passe codés en dur ou des vulnérabilités d’injection SQL, ainsi que suivre les meilleures pratiques en matière de revue, afin de pallier les limitations de Discussion avec Copilot.
Fournir des commentaires
Si vous rencontrez des problèmes ou des limitations avec Discussion avec Copilot, nous vous recommandons de nous faire part de vos commentaires via le lien **Partager vos commentaires **dans l'interface Discussion avec Copilot de votre IDE. Cela peut aider les développeurs à améliorer l’outil, et à résoudre les problèmes ou les limitations.
Rester informé
Discussion avec Copilot est une nouvelle technologie qui est susceptible d’évoluer au fil du temps. Il est recommandé de se tenir informé des mises à jour ou des modifications apportées à l’outil ainsi que des nouveaux risques ou des bonnes pratiques en matière de sécurité qui peuvent apparaître. Les mises à jour automatisées des extensions sont activées par défaut dans Visual Studio Code, Visual Studio et la suite d’IDE JetBrains. Pour GitHub Copilot Chat dans GitHub, vous aurez toujours accès à la dernière expérience produit. Si les mises à jour automatiques sont activées, Discussion avec Copilot se mettra automatiquement à jour vers la dernière version lorsque vous ouvrirez votre IDE. Pour plus d’informations sur les mises à jour automatiques dans votre IDE, consultez la documentation Visual Studio Code, la documentation Visual Studio et la documentation pour votre IDE JetBrains.
Limitations de GitHub Copilot Chat
En fonction de facteurs tels que votre codebase et vos données d’entrée, vous pouvez constater différents niveaux de performances lors de l’utilisation de Discussion avec Copilot. Les informations suivantes ont pour but de vous aider à comprendre les limitations du système et les concepts clés liés aux performances qui s’appliquent à Discussion avec Copilot.
Étendue limitée
Discussion avec Copilot a été entraîné sur un vaste corpus de code, mais son champ d’application reste limité et il peut ne pas être en mesure de traiter des structures de code plus complexes ou des langages de programmation obscurs. Pour chaque langage, la qualité des suggestions que vous recevez peut dépendre du volume et de la diversité des données d’entraînement pour ce langage. Par exemple, JavaScript est bien représenté dans les dépôts publics et est l’un des langages les mieux pris en charge par GitHub Copilot. Les langues moins représentées dans les référentiels publics peuvent être plus difficiles à prendre en charge par Discussion avec Copilot. De plus, Discussion avec Copilot ne peut suggérer du code qu’en fonction du contexte du code en cours d’écriture. Il se peut donc qu’il ne soit pas en mesure d’identifier des problèmes de conception ou d’architecture plus importants.
Biais potentiels
Les données d’entraînement de Copilot sont extraites de dépôts de code existants, qui peuvent contenir des biais et des erreurs qui peuvent être perpétués par l’outil. De plus, Discussion avec Copilot peut être biaisé en faveur de certains langages de programmation ou styles de codage, ce qui peut entraîner des suggestions de code sous-optimales ou incomplètes.
Risques liés à la sécurité
Discussion avec Copilot génère du code en fonction du contexte du code en cours d’écriture, ce qui peut potentiellement exposer des informations sensibles ou des vulnérabilités s’il n’est pas utilisé avec précaution. Vous devez être prudent lorsque vous utilisez Discussion avec Copilot pour générer du code destiné à des applications sensibles en matière de sécurité, et toujours vérifier et tester minutieusement le code généré.
Correspondances avec du code public
Discussion avec Copilot est capable de générer du nouveau code, ce qu’il fait de manière probabiliste. Bien que la probabilité qu’il produise un code correspondant à celui du jeu d’apprentissage soit faible, une suggestion Discussion avec Copilot peut contenir des extraits de code correspondant au code du jeu d’apprentissage.
Si vous avez désactivé les suggestions correspondant au code public, Discussion avec Copilot utilise des filtres qui l’empêchent d’afficher le code correspondant au code trouvé dans les référentiels publics sur GitHub. Toutefois, vous devez toujours prendre les mêmes précautions que vous le feriez avec n’importe quel code que vous écrivez qui utilise du matériel que vous n’avez pas écrit à l’origine, y compris les précautions pour garantir sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Si vous avez activé les suggestions qui correspondent au code public, Discussion avec Copilot affiche un message lorsqu’un code correspondant est trouvé. Le message inclut un lien qui vous permet d’afficher les détails du code correspondant et les détails de licence trouvés, dans l’éditeur VS Code. Pour plus d’informations, consultez « Recherche de code public qui correspond à GitHub Suggestions de Copilot ».
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Code erroné
L’une des limitations de Discussion avec Copilot réside dans le fait qu’il peut générer du code qui semble valide, mais qui peut ne pas être correct d’un point de vue sémantique ou syntaxique, ou qui peut ne pas refléter fidèlement l’intention du développeur. Pour atténuer le risque d’avoir du code erroné, vous devez réviser et tester soigneusement le code généré, en particulier quand vous travaillez sur des applications critiques ou sensibles. Vous devez aussi vérifier que le code généré respecte les bonnes pratiques et les modèles de conception, et qu’il s’intègre dans l’architecture globale et le style du codebase.
Réponses erronées sur des sujets autres que le codage
Discussion avec Copilot n’est pas conçu pour répondre à des questions qui ne concernent pas le codage, et ses réponses peuvent donc ne pas toujours être précises ou utiles dans ces contextes. Si un utilisateur pose à Discussion avec Copilot une question non liée au codage, il peut générer une réponse hors sujet ou absurde, ou bien indiquer simplement qu’il est incapable de fournir une réponse utile.
Étapes suivantes
Pour plus d’informations sur l’utilisation de GitHub Copilot Chat, consultez :
Pour aller plus loin
À propos de GitHub Copilot Chat
GitHub Copilot Chat est une interface de chat qui vous permet d'interagir avec GitHub Copilot, afin de poser des questions liées au codage et d'obtenir des réponses sur le site web GitHub et les IDE pris en charge. L’interface de conversation permet d’accéder aux informations sur le codage et au support sans avoir à parcourir la documentation ni à rechercher dans des forums en ligne. Pour plus d’informations, consultez « Qu’est-ce que GitHub Copilot ? ».
GitHub Copilot Chat peut répondre à un large éventail de questions liées au codage, notamment sur la syntaxe, les concepts de programmation, les cas de test, le débogage, etc. GitHub Copilot Chat n’est pas conçu pour répondre à des questions qui ne concernent pas le codage ni pour fournir des informations générales sur des sujets qui ne relèvent pas du codage.
La langue principale prise en charge pour GitHub Copilot Chat est l'anglais.
GitHub Copilot Chat fonctionne en combinant le traitement du langage naturel et l’apprentissage automatique pour comprendre votre question et vous fournir une réponse. Ce processus peut être divisé en plusieurs étapes.
Traitement de l’entrée
La saisie de l'utilisateur est pré-traitée par le système Discussion avec Copilot, combinée à des informations contextuelles (par exemple, le nom du référentiel que l'utilisateur est en train de consulter et les fichiers qu'il a ouverts), puis envoyée à un modèle linguistique de grande taille. L’entrée utilisateur peut prendre la forme d’extraits de code ou être exprimée en langage normal.
Le grand modèle de langage prend l’invite, collecte un contexte supplémentaire (par exemple, les données de référentiel stockées sur GitHub) et fournit une réponse basée sur l’invite. Le système est destiné seulement à répondre à questions relatives au codage.
Analyse du modèle de langage
Le prompt pré-traité est ensuite transmis au modèle de langage Discussion avec Copilot, qui est un réseau neuronal qui a été entraîné sur un grand corpus de données textuelles. Le modèle de langage analyse la demande entrée.
Génération de la réponse
Le modèle de langage génère une réponse en fonction de son analyse de la demande entrée et du contexte fourni. Le modèle de langage peut collecter du contexte supplémentaire et fournir une réponse basée sur l’invite. Cette réponse peut se présenter sous forme de code généré, de code suggéré ou d’explications du code existant.
Mise en forme de la sortie
La réponse générée par Discussion avec Copilot est formatée et présentée à l’utilisateur. Discussion avec Copilot peut utiliser la coloration syntaxique, l’indentation et d’autres fonctionnalités de mise en forme pour clarifier la réponse générée. Selon le type de question de l’utilisateur, des liens vers le contexte utilisé par le modèle lors de la génération d’une réponse, comme les fichiers de code source ou la documentation, peuvent également être fournis.
GitHub Copilot Chat a pour objectif de vous fournir la réponse la plus pertinente à votre question. Cependant, il peut ne pas toujours fournir la réponse que vous recherchez. Les utilisateurs de Discussion avec Copilot sont tenus de vérifier et de valider les réponses générées par le système afin de s’assurer qu’elles sont exactes et appropriées. De plus, dans le cadre de notre processus de développement de produits, nous réalisons des exercices de red teaming (simulations d’attaques) afin de comprendre et d’améliorer la sécurité de Discussion avec Copilot. Les invites d’entrée et les complétions de sortie sont exécutées via des filtres de contenu. Le système de filtrage de contenu détecte et empêche la sortie sur des catégories spécifiques de contenu, notamment du contenu dangereux, offensant ou hors sujet. Pour plus d'informations sur l'amélioration des performances de GitHub Copilot Chat, consultez Améliorer les performances de GitHub Copilot Chat.
Utilisation de Bring Your Own Key (BYOK) avec GitHub Copilot
Lorsque vous utilisez Bring Your Own Key avec GitHub Copilot Chat, vous pouvez connecter l’expérience de conversation à des modèles de langage volumineux provenant de fournisseurs pris en charge au-delà du modèle par défaut Copilot. Parmi les fournisseurs pris en charge, citons Anthropic, AWS Bedrock, Google AI Studio, Microsoft Foundry, OpenAI, openAI-compatible providers et xAI. Vous ajoutez votre clé API pour le fournisseur choisi directement dans vos paramètres Copilot.
Lorsque BYOK est actif :
- Étendue des fonctionnalités : votre modèle choisi est utilisé dans GitHub Copilot Chat. En mode Agent, BYOK alimente la conversation principale, mais certaines actions, telles que l'application de code ou d'autres appels d'outils, peuvent toujours utiliser des modèles hébergés par GitHub, optimisés pour ces tâches. Ces modèles intégrés ne s’exécutent pas via votre fournisseur BYOK.
- Processus de sécurité : quel que soit le fournisseur actif, les réponses passent toujours par GitHubles systèmes de sécurité de }, y compris le filtrage de contenu, avant que les résultats ne soient affichés à vous.
- Considérations relatives à la qualité : les suggestions peuvent varier en fonction des forces et de la couverture de formation de votre fournisseur choisi.
- Gestion des données : lorsque vous utilisez BYOK, vos invites et réponses sont transmises à votre fournisseur sélectionné et peuvent être soumises aux stratégies de rétention et de confidentialité des données de ce fournisseur. GitHub traite temporairement ces données pour le filtrage de sécurité, mais ne conserve pas le contenu de conversation BYOK au-delà de la durée de session.
- Vos responsabilités : vous êtes responsable des éléments suivants :
- Sécurité de la clé API du fournisseur
- Coûts ou quotas d’utilisation
- Validation de sortie
- Évaluer si votre modèle choisi répond à vos exigences de sécurité et de qualité
- Conformité avec les conditions de votre fournisseur sélectionné
- Déterminer si votre modèle choisi est conforme aux lois applicables
- S'assurer qu'une personne examine tout résultat avant de prendre des décisions qui affectent les gens
- Restrictions d’exportation : certains modèles IA peuvent être soumis à des contrôles d’exportation. Vérifiez que votre fournisseur et votre modèle sélectionnés sont autorisés à être utilisés dans votre juridiction.
BYOK permet à votre organisation de choisir le modèle linguistique qui correspond le mieux à vos besoins tout en bénéficiant de l'infrastructure de sécurité de GitHub. Notez que les caractéristiques de performances et de sécurité du modèle dépendent du fournisseur.
Cas pratiques pour GitHub Copilot Chat
GitHub Copilot Chat peut fournir une assistance en matière de code dans divers scénarios.
Génération de cas de test unitaire
Discussion avec Copilot peut vous aider à rédiger des cas de test unitaires en générant des extraits de code basés sur le code ouvert dans l'éditeur ou sur l'extrait de code que vous sélectionnez dans l'éditeur. Ceci peut vous aider à écrire des cas de test sans consacrer autant de temps à des tâches répétitives. Par exemple, si vous écrivez un cas de test pour une fonction spécifique, vous pouvez utiliser Discussion avec Copilot pour suggérer des paramètres d'entrée possibles et des valeurs de sortie attendues en fonction de la signature et du corps de la fonction. Discussion avec Copilot peut également suggérer des assertions qui garantissent le bon fonctionnement de la fonction, en fonction du contexte et de la sémantique du code.
Discussion avec Copilot peut également vous aider à rédiger des cas de test pour les cas limites et les conditions limites qui peuvent être difficiles à identifier manuellement. Par exemple, Discussion avec Copilot peut suggérer des cas de test pour la gestion des erreurs, des valeurs null ou des types d’entrée inattendus, ce qui vous permet de vérifier que votre code est robuste et résilient. Cependant, il est important de noter que les cas de test générés peuvent ne pas couvrir tous les scénarios possibles, et que les tests manuels et la révision du code sont toujours nécessaires pour garantir la qualité du code. Pour plus d'informations sur la génération de cas de test unitaires, consultez Poser des questions GitHub Copilot Chat sur votre code.
Explication du code et suggestions d'amélioration
Discussion avec Copilot peut aider à expliquer le code d'un fichier en générant des descriptions en langage naturel de la fonctionnalité et de l'objectif du code. Ceci peut être utile si vous souhaitez comprendre le comportement du code ou pour des parties prenantes non techniques qui doivent comprendre le fonctionnement du code. Par exemple, vous pouvez demander à Copilot d'expliquer une fonction nommée dans le fichier actuellement affiché et Discussion avec Copilot générera une description en langage naturel de ce que fait le code. Cela peut inclure des informations telles que les paramètres d'entrée et de sortie de la fonction, ainsi que ses dépendances.
Discussion avec Copilot peut également suggérer des améliorations potentielles du code, comme une meilleure gestion des erreurs et des cas limites, ou des modifications du flux logique pour rendre le code plus lisible.
En générant des explications et en suggérant une documentation connexe, Discussion avec Copilot peut vous aider à comprendre le code dans un project, ce qui entraîne une collaboration améliorée et un développement logiciel plus efficace. Cependant, il est important de noter que les explications et la documentation générées ne sont pas toujours exactes ou complètes. Vous devrez donc examiner et, à l'occasion, corriger la sortie de Discussion avec Copilot.
Répondre à des questions sur le codage
Vous pouvez demander à Discussion avec Copilot de vous aider ou de clarifier des problèmes de code spécifiques et recevoir des réponses en langage naturel ou sous forme d'extraits de code.
La réponse générée parDiscussion avec Copilot utilisera le jeu de données d'apprentissage du modèle pour répondre à vos questions.
Ce peut être un outil pratique pour les programmeurs, car il peut fournir des conseils et du support pour des tâches et des problématiques de codage courantes.
Amélioration des performances pour GitHub Copilot Chat
Discussion avec Copilot peut prendre en charge un large éventail d'applications pratiques telles que la génération de code, l'analyse de code et les corrections de code, chacune avec des indicateurs de performance et des stratégies d'atténuation différents. Pour améliorer les performances et pallier certaines des limitations de Discussion avec Copilot, vous pouvez adopter différentes mesures. Pour plus d’informations sur les limitations de Discussion avec Copilot, consultez Limitations de GitHub Copilot Chat.
Limitez vos demandes au sujet concerné
Discussion avec Copilot est destiné à répondre exclusivement aux questions liées au codage. Par conséquent, limiter la demande à des questions ou des tâches de codage peut améliorer la qualité de la sortie du modèle.
Utilisez Discussion avec Copilot comme un outil, et non comme un substitut
Bien que Discussion avec Copilot puisse être un outil puissant pour générer du code, il est important de l’utiliser comme un outil plutôt que comme un substitut à la programmation humaine. Vous devez toujours vérifier et tester le code généré par Discussion avec Copilot afin de vous assurer qu’il répond à vos exigences et qu’il ne contient aucune erreur ni aucun problème de sécurité.
Utiliser des pratiques de codage sécurisé et de révision du code
Bien que Discussion avec Copilot puisse générer un code syntaxiquement correct, il n’est pas toujours sécurisé. Vous devez toujours respecter les meilleures pratiques en matière de codage sécurisé, telles que l’évitement des mots de passe codés en dur ou des vulnérabilités d’injection SQL, ainsi que suivre les meilleures pratiques en matière de revue, afin de pallier les limitations de Discussion avec Copilot.
Rester informé
Discussion avec Copilot est une nouvelle technologie qui est susceptible d’évoluer au fil du temps. Il est recommandé de se tenir informé des mises à jour ou des modifications apportées à l’outil ainsi que des nouveaux risques ou des bonnes pratiques en matière de sécurité qui peuvent apparaître. Les mises à jour automatisées des extensions sont activées par défaut dans Visual Studio Code, Visual Studio et la suite d’IDE JetBrains. Pour GitHub Copilot Chat dans GitHub, vous aurez toujours accès à la dernière expérience produit. Si les mises à jour automatiques sont activées, Discussion avec Copilot se mettra automatiquement à jour vers la dernière version lorsque vous ouvrirez votre IDE. Pour plus d’informations sur les mises à jour automatiques dans votre IDE, consultez la documentation Visual Studio Code, la documentation Visual Studio et la documentation pour votre IDE JetBrains.
Limitations de GitHub Copilot Chat
En fonction de facteurs tels que votre codebase et vos données d’entrée, vous pouvez constater différents niveaux de performances lors de l’utilisation de Discussion avec Copilot. Les informations suivantes ont pour but de vous aider à comprendre les limitations du système et les concepts clés liés aux performances qui s’appliquent à Discussion avec Copilot.
Étendue limitée
Discussion avec Copilot a été entraîné sur un vaste corpus de code, mais son champ d’application reste limité et il peut ne pas être en mesure de traiter des structures de code plus complexes ou des langages de programmation obscurs. Pour chaque langage, la qualité des suggestions que vous recevez peut dépendre du volume et de la diversité des données d’entraînement pour ce langage. Par exemple, JavaScript est bien représenté dans les dépôts publics et est l’un des langages les mieux pris en charge par GitHub Copilot. Les langues moins représentées dans les référentiels publics peuvent être plus difficiles à prendre en charge par Discussion avec Copilot. De plus, Discussion avec Copilot ne peut suggérer du code qu’en fonction du contexte du code en cours d’écriture. Il se peut donc qu’il ne soit pas en mesure d’identifier des problèmes de conception ou d’architecture plus importants.
Biais potentiels
Les données d’entraînement de Copilot sont extraites de dépôts de code existants, qui peuvent contenir des biais et des erreurs qui peuvent être perpétués par l’outil. De plus, Discussion avec Copilot peut être biaisé en faveur de certains langages de programmation ou styles de codage, ce qui peut entraîner des suggestions de code sous-optimales ou incomplètes.
Risques liés à la sécurité
Discussion avec Copilot génère du code en fonction du contexte du code en cours d’écriture, ce qui peut potentiellement exposer des informations sensibles ou des vulnérabilités s’il n’est pas utilisé avec précaution. Vous devez être prudent lorsque vous utilisez Discussion avec Copilot pour générer du code destiné à des applications sensibles en matière de sécurité, et toujours vérifier et tester minutieusement le code généré.
Correspondances avec du code public
Discussion avec Copilot est capable de générer du nouveau code, ce qu’il fait de manière probabiliste. Bien que la probabilité qu’il produise un code correspondant à celui du jeu d’apprentissage soit faible, une suggestion Discussion avec Copilot peut contenir des extraits de code correspondant au code du jeu d’apprentissage.
Si vous avez désactivé les suggestions correspondant au code public, Discussion avec Copilot utilise des filtres qui l’empêchent d’afficher le code correspondant au code trouvé dans les référentiels publics sur GitHub. Toutefois, vous devez toujours prendre les mêmes précautions que vous le feriez avec n’importe quel code que vous écrivez qui utilise du matériel que vous n’avez pas écrit à l’origine, y compris les précautions pour garantir sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Si vous avez activé les suggestions qui correspondent au code public, Discussion avec Copilot affiche un message lorsqu’un code correspondant est trouvé. Le message inclut un lien qui vous permet d’afficher les détails du code correspondant et les détails de licence trouvés, dans l’éditeur VS Code. Pour plus d’informations, consultez « Recherche de code public qui correspond à GitHub Suggestions de Copilot ».
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Discussion avec Copilot utilise des filtres qui bloquent les correspondances avec le code public sur les référentiels GitHub, mais vous devez toujours prendre les mêmes précautions que pour tout code que vous écrivez et qui utilise du matériel dont vous n’êtes pas l’auteur, notamment en vous assurant de sa pertinence. Ceci inclut des tests rigoureux, l’analyse des adresses IP et la recherche des vulnérabilités de sécurité. Vous devez vérifier que votre IDE ou votre éditeur ne compile pas ou n’exécute pas automatiquement du code généré avant de le réviser.
Code erroné
L’une des limitations de Discussion avec Copilot réside dans le fait qu’il peut générer du code qui semble valide, mais qui peut ne pas être correct d’un point de vue sémantique ou syntaxique, ou qui peut ne pas refléter fidèlement l’intention du développeur. Pour atténuer le risque d’avoir du code erroné, vous devez réviser et tester soigneusement le code généré, en particulier quand vous travaillez sur des applications critiques ou sensibles. Vous devez aussi vérifier que le code généré respecte les bonnes pratiques et les modèles de conception, et qu’il s’intègre dans l’architecture globale et le style du codebase.
Réponses erronées sur des sujets autres que le codage
Discussion avec Copilot n’est pas conçu pour répondre à des questions qui ne concernent pas le codage, et ses réponses peuvent donc ne pas toujours être précises ou utiles dans ces contextes. Si un utilisateur pose à Discussion avec Copilot une question non liée au codage, il peut générer une réponse hors sujet ou absurde, ou bien indiquer simplement qu’il est incapable de fournir une réponse utile.
Étapes suivantes
Pour plus d’informations sur l’utilisation de GitHub Copilot Chat, consultez :