IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les utilisateurs de GitHub furieux face à la perspective de rapports de bogues générés par l'IA Copilot,
Les mainteneurs craignent que les hallucinations de l'IA ne deviennent un fardeau supplémentaire

Le , par Mathis Lucas

92PARTAGES

3  0 
GitHub envisage de permettre aux utilisateurs de générer automatiquement des rapports de bogue et des propositions de modification du code à l'aide de Copilot. L'objectif affiché est de leur faire gagner du temps. Mais cette option a suscité des réactions très négatives. En raison des hallucinations de l'IA, les mainteneurs craignent que les rapports générés par l'IA ne se traduisent par des pertes de temps et de leurs ressources déjà limitées. Ils redoutent une augmentation des spams qui pollueraient les dépôts et une mécanisation contre-productive du travail communautaire. Certains projets open source ont interdit les rapports de bogue générés par l'IA.

Le 19 mai 2025, GitHub a publié un billet de blogue annonçant que Copilot rendrait désormais plus rapide et plus facile la création de rapports de bogues (tickets). Selon le billet, GitHub Copilot pourrait prochainement générer automatiquement des rapports de bogue et des propositions de modification du code dans les dépôts. La fonctionnalité est encore expérimentale et semble avoir été discrètement déployée pour les utilisateurs de la plateforme.

« Nous espérons que ces changements transformeront la création d'un problème en un jeu d'enfant, vous permettant ainsi de gagner un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », a écrit l'équipe GitHub. Mais cette annonce — ou plutôt, cette découverte — a suscité une vague de critiques et d'indignation dans la communauté des développeurs. Beaucoup rejettent cette option.

Une fonction imposée sans consentement des développeurs

De nombreux utilisateurs ont appris l'existence de cette fonctionnalité sans une annonce officielle claire. Certains ont découvert que leur projet GitHub avait reçu des tickets générés par Copilot sans qu'ils aient activé quoi que ce soit. Cela donne l'impression que GitHub teste des fonctions en production, sans consentement explicite. Selon les développeurs, cela jette des doutes sur les objectifs de la fonction et nuit à la réputation de la plateforme.


« C'est comme si une machine entrait dans ton bureau et collait des Post-its partout sans te demander ton avis. C'est inacceptable ! », a écrit un mainteneur sur Hacker News. Les développeurs réclament de la transparence, une activation volontaire des fonctionnalités, et un contrôle total sur leur usage.

Les rapports de bogue de mauvaise qualité générés par l'IA sont devenus un problème pour les mainteneurs de logiciels libres et open source. Ce phénomène met en évidence les défis posés par l'utilisation non encadrée de l'IA dans la détection de vulnérabilités. Selon une étude d'OpenAI, l'IA peut écrire du code, mais ne parvient pas à le comprendre. Cela suggère que les modèles d'IA actuels sont loin d'être prêts à remplacer les développeurs.

Risque de pollution des dépôts par des spams et de bruit inutile

Les développeurs craignent que les rapports générés par Copilot soient : vagues ou mal formulés, inutiles ou hors sujet, redondants avec ceux déjà existants, etc. Cette avalanche de rapport pourrait submerger les projets, en particulier les dépôts open source gérés par des bénévoles. C'est perçu comme du bruit inutile, qui ajoute du travail au lieu d'en enlever. Cette situation peut détourner les ressources limitées des développeurs bénévoles.


Elle peut aussi entraîner une perte de temps, de l'épuisement et une diminution de la motivation des contributeurs bénévoles. Mcclure, mainteneur du projet open source NFTBlocker, un plug-in de navigateur pour bloquer les utilisateurs de NFT sur Twitter, souligne les dangers liés à cette fonction :

Citation Envoyé par Mcclure


Je considérerais ces rapports/PR comme une perte de temps et une violation du code de conduite de mes projets. Le filtrage des rapports/PR générés par l'IA deviendra un fardeau supplémentaire pour moi en tant que responsable, me faisant perdre non seulement mon temps, mais aussi celui des auteurs des rapports (qui ont généré à l'aide de l'IA un contenu auquel je ne répondrai pas), ainsi que le temps de votre serveur (qui a dû préparer une réponse que je fermerai sans y répondre).

Mcclure et les autres développeurs redoutent que Copilot produise des rapports peu pertinents ou erronés, ce qui polluerait leurs dépôts. Les mainteneurs veulent garder la main sur ce qui est ajouté à leur projet. « Je peux...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !