
Le 19 mai 2025, GitHub a publié un billet de blogue annonçant que Copilot rendrait désormais plus rapide et plus facile la création de rapports de bogues (tickets). Selon le billet, GitHub Copilot pourrait prochainement générer automatiquement des rapports de bogue et des propositions de modification du code dans les dépôts. La fonctionnalité est encore expérimentale et semble avoir été discrètement déployée pour les utilisateurs de la plateforme.
« Nous espérons que ces changements transformeront la création d'un problème en un jeu d'enfant, vous permettant ainsi de gagner un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », a écrit l'équipe GitHub. Mais cette annonce — ou plutôt, cette découverte — a suscité une vague de critiques et d'indignation dans la communauté des développeurs. Beaucoup rejettent cette option.
Une fonction imposée sans consentement des développeurs
De nombreux utilisateurs ont appris l'existence de cette fonctionnalité sans une annonce officielle claire. Certains ont découvert que leur projet GitHub avait reçu des tickets générés par Copilot sans qu'ils aient activé quoi que ce soit. Cela donne l'impression que GitHub teste des fonctions en production, sans consentement explicite. Selon les développeurs, cela jette des doutes sur les objectifs de la fonction et nuit à la réputation de la plateforme.
« C'est comme si une machine entrait dans ton bureau et collait des Post-its partout sans te demander ton avis. C'est inacceptable ! », a écrit un mainteneur sur Hacker News. Les développeurs réclament de la transparence, une activation volontaire des fonctionnalités, et un contrôle total sur leur usage.
Les rapports de bogue de mauvaise qualité générés par l'IA sont devenus un problème pour les mainteneurs de logiciels libres et open source. Ce phénomène met en évidence les défis posés par l'utilisation non encadrée de l'IA dans la détection de vulnérabilités. Selon une étude d'OpenAI, l'IA peut écrire du code, mais ne parvient pas à le comprendre. Cela suggère que les modèles d'IA actuels sont loin d'être prêts à remplacer les développeurs.
Risque de pollution des dépôts par des spams et de bruit inutile
Les développeurs craignent que les rapports générés par Copilot soient : vagues ou mal formulés, inutiles ou hors sujet, redondants avec ceux déjà existants, etc. Cette avalanche de rapport pourrait submerger les projets, en particulier les dépôts open source gérés par des bénévoles. C'est perçu comme du bruit inutile, qui ajoute du travail au lieu d'en enlever. Cette situation peut détourner les ressources limitées des développeurs bénévoles.
Elle peut aussi entraîner une perte de temps, de l'épuisement et une diminution de la motivation des contributeurs bénévoles. Mcclure, mainteneur du projet open source NFTBlocker, un plug-in de navigateur pour bloquer les utilisateurs de NFT sur Twitter, souligne les dangers liés à cette fonction :

Les développeurs notent que l'IA est souvent hors contexte
Même les progrès récents, l'IA n'a pas toujours le contexte nécessaire pour comprendre les choix d'architecture ou les discussions passées d'un projet. Elle risque de signaler comme des problèmes ce qui est en fait délibérément conçu ainsi. Les mainteneurs s'inquiètent d'avoir à passer du temps à : trier les fausses alertes, fermer les rapports inappropriés, expliquer à d'autres contributeurs humains pourquoi une suggestion écrite par l'IA est hors sujet.
« J'ai déjà dû fermer sommairement des pull request générées par l'IA qui tentaient de corriger la grammaire tout en changeant le sens. Les auteurs les envoient à des dizaines de projets pour tenter d'augmenter leur nombre de contributions. Les rapports générés par l'IA seront tout aussi ennuyeux. Laissez les développeurs choisir par eux-mêmes s'ils veulent faire appel à l'IA ou pas. L'IA est jusqu'ici inutile dans ce rôle », a écrit un autre critique.
Une fracture entre développeurs et automatisation
Bien que l'option annoncée par GitHub dans son billet de blogue du 19 mai a disparu par la suite, la fonction souligne un écart croissant entre les outils d'IA que les grandes plateformes veulent imposer et les attentes réelles des développeurs. Certains utilisateurs reprochent à GitHub de privilégier l'automatisation « à tout prix », au détriment de la collaboration humaine. Les critiques s'adressent également à Microsoft, propriétaire de la plateforme.
Cela ravive des débats éthiques sur : le respect des communautés open source, l'appropriation du travail collectif par des outils commerciaux, et la perte de contrôle sur les environnements de travail. Mcclure suggère une fonctionnalité que les développeurs pourront choisir d'activer par eux-mêmes :

« Je ne suis pas nécessairement contre l'IA, mais lui donner un accès en écriture à la plupart des bases de code critiques dans le monde, y compris les blocs de construction de l'ensemble du Web, est une décision extrêmement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.