IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'utilisation de l'assistant d'IA GitHub Copilot pour la programmation entraîne une baisse de la qualité globale du code et une quantité importante de code redondant,
Selon une étude

Le , par Mathis Lucas

122PARTAGES

5  0 
Copilot, l'outil d’IA commercial de GitHub, est critiqué par la communauté du logiciel open source,
Pour sa reproduction aveugle des blocs de code

Un outil de programmation alimenté par l’intelligence artificielle qui facilite la recherche d'échantillons de code peut sembler une aubaine pour les développeurs de logiciels, mais l'accueil réservé au nouvel outil Copilot de GitHub a été un peu plus froid. Si certains développeurs sont enthousiasmés par son potentiel, d’autres sont frustrés par la façon dont l’outil, permettant aux codeurs de gagner du temps, a été construit. En effet, GitHub Copilot tire le contexte des commentaires et du code et recommande instantanément des lignes individuelles et des fonctions entières. Mais ces derniers craignent que l'outil ne permette de contourner les exigences en matière de licence pour le code open source et de violer les droits d'auteur des utilisateurs individuels.

Copilot a été lancé en fin juin dans le cadre d'une Preview technique sur invitation uniquement, promettant de faire gagner du temps en répondant au code des utilisateurs par ses propres suggestions intelligentes. Ces suggestions sont basées sur des milliards de lignes de code public dont les utilisateurs ont publiquement contribué à GitHub, en utilisant un système d'IA appelé Codex de la société de recherche OpenAI.

Si Copilot représente un gain de temps considérable que certains qualifient de "magique", d'autres développeurs se montrent sceptiques, craignant que l'outil ne permette de contourner les exigences en matière de licence pour le code source ouvert et de violer les droits d'auteur des utilisateurs individuels.

Armin Ronacher, un éminent développeur de la communauté open source, est l’un des développeurs qui ont été frustrés par la façon dont Copilot a été construit. Il a expérimenté l’outil, a publié une capture d'écran sur Twitter, en trouvant étrange que Copilot, un outil d'intelligence artificielle qui est commercialisé, puisse produit du code protégé par le droit d'auteur.


Fonctionnement de GitHub Copilot

GitHub décrit Copilot comme l'équivalent IA de la "programmation en paire", dans laquelle deux développeurs travaillent ensemble sur un seul ordinateur. L'idée est qu'un développeur peut apporter de nouvelles idées ou repérer des problèmes que l'autre développeur aurait pu manquer, même si cela nécessite plus d'heures de travail.

Dans la pratique, cependant, Copilot est plutôt un outil utilitaire de gain de temps, qui intègre les ressources que les développeurs devraient autrement chercher ailleurs. Lorsque les utilisateurs saisissent des données dans Copilot, l'outil leur suggère des extraits de code à ajouter en cliquant sur un bouton. Ainsi, ils n'ont pas à passer du temps à chercher dans la documentation de l'API ou à rechercher des exemples de code sur des sites comme StackOverflow.


Un réseau neuronal dans GitHub Copilot est entraîné à l'aide de volumes massifs de données, constituées du code : des millions de lignes téléchargées par les 65 millions d'utilisateurs de GitHub, la plus grande plateforme au monde permettant aux développeurs de collaborer et de partager leur travail. Le but est que Copilot en apprenne suffisamment sur les modèles de code pour pouvoir faire du hacking lui-même. Il peut prendre le code incomplet d'un partenaire humain et terminer le travail en ajout les parties manquantes. Dans la plupart des cas, il semble réussir à le faire. GitHub prévoit de vendre l'accès à l'outil aux développeurs.

Comme pour la plupart des outils d'IA, GitHub souhaite également que Copilot devienne plus intelligent au fil du temps en fonction des données qu'il collecte auprès des utilisateurs. Lorsque les utilisateurs acceptent ou rejettent les suggestions de Copilot, son modèle d'apprentissage automatique utilisera ce retour d'information pour améliorer les suggestions futures, de sorte que l'outil deviendra peut-être plus humain à mesure qu'il apprendra.

Vives réactions de la communauté open source

Peu après le lancement de Copilot, certains développeurs ont commencé à s'alarmer de l'utilisation d'un code public pour entraîner l'IA de l'outil. L'une des préoccupations est que si Copilot reproduit des parties suffisamment importantes du code existant, il pourrait violer les droits d'auteur ou blanchir le code open source dans des utilisations commerciales sans licence appropriée. L'outil peut également recracher des informations personnelles que les développeurs ont publiées, et dans un cas, il a reproduit le code largement cité du jeu PC Quake III Arena de 1999, y compris le commentaire du développeur John Carmack.


L’utilisateur Hogan a aussi ajouté dans son fil de discussion : « Ce qui serait vraiment drôle, c'est que les gens qui maintiennent des dépôts populaires commençaient à mettre du mauvais code exprès ».

GitHub affirme que les dérapages de Copilot sont rares. Mais un autre utilisateur de Twitter, répondant au post de Ronacher, a écrit : « Et ici nous avons la preuve directe que GitHub reproduit directement un morceau de code sous GPL, ce qui prouve que c'est un outil vraiment dangereux à utiliser dans des environnements commerciaux ». Dans une autre réponse, on peut lire : « Lol, c'est du blanchiment de code… »

Un porte-parole de Github, a refusé de commenter et s'est contenté de renvoyer à la FAQ existante de la société sur la page Web de Copilot, qui reconnaît que l'outil peut produire des extraits de code textuels à partir de ses données d'entraînement. Cela se produit environ 0,1 % du temps, selon GitHub, généralement lorsque les utilisateurs ne fournissent pas suffisamment de contexte autour de leurs demandes ou lorsque le problème a une solution banale.

« Nous sommes en train de mettre en place un système de suivi de l'origine pour détecter les rares cas où le code est répété à partir de l'ensemble des données de formation, afin de vous aider à prendre de bonnes décisions en temps réel concernant les suggestions de GitHub Copilot », indique la FAQ de l'entreprise.

Entre-temps, le PDG de GitHub, Nat Friedman, a fait valoir sur un site de réseau social que la formation de systèmes d'apprentissage automatique sur des données publiques est une utilisation équitable, tout en reconnaissant que « la propriété intellectuelle et l'intelligence artificielle feront l'objet d'une discussion politique intéressante » à laquelle l'entreprise participera activement.

Cela n'a pas convenu à certains utilisateurs de GitHub qui disent que l'outil dépend de leur code et néglige leurs attentes quant à la façon dont il sera utilisé. La société a récolté du code libre d'utilisation et du code protégé par des droits d'auteur et « a mis le tout dans un mixeur afin de vendre la bouillie à des intérêts commerciaux et propriétaires », a déclare une programmeuse et conceptrice de jeux basée dans le Colorado dont les tweets sur le sujet sont devenus viraux. « On a l'impression de se moquer de l'open source ».

Dans un de ses tweets, elle a écrit : « GitHub Copilot a, de son propre aveu, été formé sur des montagnes de code GPL, donc je ne vois pas bien en quoi il ne s'agit pas d'une forme de blanchiment de code open source dans des œuvres commerciales. La phrase "il ne reproduit généralement pas les morceaux exacts" n'est pas très satisfaisante ».


« Le droit d'auteur ne couvre pas seulement le copier-coller ; il couvre les travaux dérivés. GitHub Copilot a été formé sur du code open source et la somme totale de tout ce qu'il sait a été tirée de ce code. Il n'y a pas d'interprétation possible du terme "dérivé" qui n'inclue pas cela », a-t-elle écrit. « La génération précédente d'IA a été entraînée sur des textes et des photos publics, sur lesquels il est plus difficile de revendiquer des droits d'auteur, mais celle-ci est tirée de grands corpus de travaux avec des licences très explicites testées par les tribunaux, donc j'attends avec impatience les inévitables /massifs/ recours collectifs à ce sujet ».

Sources : GitHub, Tweets (1, 2 & 3)

Et vous ?

Quel est votre avis sur GitHub Copilot ?
Que pensez-vous des commentaires des développeurs qui sont frustrés par la façon dont l’outil est construit ?
Que se passera-t-il si un code privé créé avec l’aide de Copilot viole les droits d'auteur ?

Voir aussi :

Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
Open AI présente DALL-E (comme GPT-3), un modèle qui crée des images à partir de texte, pour un large éventail de concepts exprimables en langage naturel
OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée, mais le modèle n'est pas encore parfait
Une IA génère des images de corps entiers de personnes qui n'existent pas, avec des modèles et des tenues photoréalistes
Vous avez lu gratuitement 6 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ValCapri
Membre habitué https://www.developpez.com
Le 26/01/2024 à 23:18
Oui, l'IA peut générer du code de mauvaise qualité. Pour moi, GitHub Copilot est plus à considérer comme une autocompletetion enrichi. Et il est bien souvent bluffant à ce niveau.

Par contre, l'IA de Jetbrains me semble de bien meilleur qualité et notamment le refactoring où il te propose des aides intéressantes.

Maintenant, ce sont des aides, ça ne remplace pas l'humain derrière.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/11/2024 à 9:53
Citation Envoyé par Jade Emy Voir le message

Pensez-vous que "Copilot Vision" est crédible ou pertinente ?
Quel est votre avis sur les fonctionnalités d'IA ?
Quelle horreur...

Au passage, leur truc ressemble fortement au projet Jarvis de Google. Donc ben toutes les GAFAM s'y mettent.

Citation Envoyé par Prox_13 Voir le message
Tout comme pour Blizzard Entertainment, on en arrive à se demander si l'entreprise ne se sabote pas d'elle-même.
Aucun risque. Ils sont en monopole. C'est pour ça qu'ils osent faire tout ce qu'ils font.
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 04/11/2024 à 21:22
Y'a une faute de frappe dans le titre :
ce qui ressemble à une tentative délibérée désespérée de tirer parti de la marque « Apple Intelligence »
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 15/11/2024 à 11:22
Citation Envoyé par Stéphane le calme Voir le message

Quelle lecture faites-vous de la situation ? Le modèle d’abonnement mensuel avec une prime de 5 % est-il un moyen efficace pour Microsoft de maximiser ses profits, ou est-ce une stratégie à court terme qui risque de décourager les utilisateurs ?
Ça ne va rien décourager du tout. Les utilisateurs sont captifs, donc ils paieront, tant que les augmentations se feront petit à petit.
C'est une bonne stratégie de la part du marketing de Microsoft. C'est moche, mais c'est une bonne stratégie.

Citation Envoyé par Stéphane le calme Voir le message

L'intégration croissante de l’IA dans des outils comme Microsoft 365 Copilot pourrait-elle conduire à une centralisation encore plus forte des données personnelles et professionnelles des utilisateurs ?
Clairement. C'est bien ce qui fait rêver toutes les GAFAM.

Citation Envoyé par Stéphane le calme Voir le message

Est-ce que Microsoft, en intégrant l'IA dans ses outils de productivité, fait avancer la démocratisation de l'intelligence artificielle, ou crée-t-il simplement un marché de niches technologiques coûteuses ?
Microsoft, comme beaucoup de boîtes a bien compris que ce qui fait rêver les actionnaires en ce moment, c'est le mot IA. Ils se moquent de démocratiser l'IA. En bonne GAFAM, ils veulent l'argent des actionnaires et les données des utilisateurs.
1  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 04/11/2024 à 19:51
"Brainstorm" ça claquerait comme dénomination
0  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 04/11/2024 à 22:06
J'ai pas de matos Apple...

Mais a chaque transition d'architecture...Tour de magie...pas de perte significative de puissance de calcul

Personne sur ce forum ne peut expliquer cela

Conjecture
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 07/11/2024 à 9:34
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Bon, ça explique peut-être pourquoi ils retardent d'un mois, seulement, le lancement de Recall.

C'est donc une histoire de branding, et non pas de préoccupations de la GAFAM envers les soucis que ça va poser pour la vie privée.
0  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 08/11/2024 à 9:48
Tout comme pour Blizzard Entertainment, on en arrive à se demander si l'entreprise ne se sabote pas d'elle-même.
0  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 10/11/2024 à 15:17
c'est moi ou microsoft ce fait un botnet la ?
0  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 16/11/2024 à 8:21
Voilà pourquoi il ne faut jamais rien investir dans le SaaS. Surtout que Power BI franchement...
0  0