
GitHub Copilot, qu'est-ce que c'est ?
Copilot a été lancé en fin juin dans le cadre d'une Preview technique sur invitation uniquement, promettant de faire gagner du temps en répondant au code des utilisateurs par ses propres suggestions intelligentes. Ces suggestions sont basées sur des milliards de lignes de code public dont les utilisateurs ont publiquement contribué à GitHub, en utilisant un système d'IA appelé Codex de la société de recherche OpenAI.
GitHub décrit Copilot comme l'équivalent IA de la « programmation en paire », dans laquelle deux développeurs travaillent ensemble sur un seul ordinateur. L'idée est qu'un développeur peut apporter de nouvelles idées ou repérer des problèmes que l'autre développeur aurait pu manquer, même si cela nécessite plus d'heures de travail.
Dans la pratique, cependant, Copilot est plutôt un outil utilitaire de gain de temps, qui intègre les ressources que les développeurs devraient autrement chercher ailleurs. Lorsque les utilisateurs saisissent des données dans Copilot, l'outil leur suggère des extraits de code à ajouter en cliquant sur un bouton. Ainsi, ils n'ont pas à passer du temps à chercher dans la documentation de l'API ou à rechercher des exemples de code sur des sites spécialisés.
Un réseau neuronal dans GitHub Copilot est entraîné à l'aide de volumes massifs de données, constituées du code : des millions de lignes téléchargées par les 65 millions d'utilisateurs de GitHub, la plus grande plateforme au monde permettant aux développeurs de collaborer et de partager leur travail. Le but est que Copilot en apprenne suffisamment sur les modèles de code pour pouvoir faire du hacking lui-même. Il peut prendre le code incomplet d'un partenaire humain et terminer le travail en ajout les parties manquantes. Dans la plupart des cas, il semble réussir à le faire. GitHub prévoit de vendre l'accès à l'outil aux développeurs.
Comme pour la plupart des outils d'IA, GitHub souhaite également que Copilot devienne plus intelligent au fil du temps en fonction des données qu'il collecte auprès des utilisateurs. Lorsque les utilisateurs acceptent ou rejettent les suggestions de Copilot, son modèle d'apprentissage automatique utilisera ce retour d'information pour améliorer les suggestions futures, de sorte que l'outil deviendra peut-être plus humain à mesure qu'il apprendra.
De nombreux développeurs ont accueilli favorablement le nouvel outil ou ont au moins été intrigués par celui-ci. Mais Matthew Butterick, développeur, designer, écrivain et avocat à Los Angeles, n'était pas l'un d'entre eux. Et il a expliqué pourquoi :

En formant leurs systèmes d'IA sur des référentiels publics GitHub (bien que basés sur leurs déclarations publiques, peut-être bien plus), nous soutenons que les accusés ont violé les droits légaux d'un grand nombre de créateurs qui ont publié du code ou d'autres travaux sous certaines licences open source sur GitHub. Quelles licences ? Un ensemble de 11 licences open source populaires qui nécessitent toutes l'attribution du nom de l'auteur et des droits d'auteur, y compris la licence MIT, la GPL et la licence Apache. (Celles-ci sont énumérées dans l'annexe à la plainte.)
En plus d'avoir enfreint les exigences d'attribution de ces licences, nous soutenons que les défendeurs ont enfreint :
Dans les semaines à venir, nous modifierons probablement cette plainte pour ajouter d'autres parties et réclamations.
En plus d'avoir enfreint les exigences d'attribution de ces licences, nous soutenons que les défendeurs ont enfreint :
- les conditions d'utilisation et les politiques de confidentialité de GitHub ;
- le DMCA § 1202, qui interdit la suppression des informations de gestion des droits d'auteur ;
- la loi californienne sur la protection de la vie privée des consommateurs ;
- et d'autres lois donnant lieu à des réclamations légales connexes.
Dans les semaines à venir, nous modifierons probablement cette plainte pour ajouter d'autres parties et réclamations.
La poursuite judiciaire semble être la première attaque légale contre une technique de conception appelée « entraînement/ formation d'IA ». Ces dernières années, de nombreux artistes, écrivains, experts et militants de la vie privée se sont plaints que les entreprises forment leurs systèmes d'IA en utilisant des données qui ne leur appartiennent pas.
La plainte trouve des échos dans les dernières décennies de l'industrie technologique. Dans les années 1990 et dans les années 2000, Microsoft a combattu la montée des logiciels open source, les considérant comme une menace existentielle pour l'avenir des activités de l'entreprise. Au fur et à mesure que l'importance de l'open source augmentait, Microsoft l'a adopté et a même acquis GitHub, une maison pour les développeurs open source et un endroit où ils ont construit et stocké leur code.
Presque toutes les nouvelles générations de technologies, même les moteurs de recherche en ligne, ont été confrontées à des défis juridiques similaires. Souvent, « il n'y a pas de loi ou de jurisprudence qui le couvre », a déclaré Bradley J. Hulbert, un avocat spécialisé en propriété intellectuelle dans ce domaine du droit de plus en plus important.
La poursuite judiciaire fait partie d'une vague d'inquiétude concernant l'intelligence artificielle. Les artistes, écrivains, compositeurs et autres créateurs craignent de plus en plus que les entreprises et les chercheurs utilisent leur travail pour créer de nouvelles technologies sans leur consentement et sans compensation. Les entreprises forment une grande variété de systèmes de cette manière, y compris des générateurs d'art, des systèmes de reconnaissance vocale comme Siri et Alexa, et même des voitures sans conducteur.
Copilot est basé sur une technologie développée par OpenAI, un laboratoire d'intelligence artificielle à San Francisco soutenu par un financement d'un milliard de dollars de Microsoft. OpenAI est à l'avant-garde de l'effort de plus en plus répandu pour former les technologies d'intelligence artificielle à l'aide de données numériques.
Après que Microsoft et GitHub ont publié Copilot, le directeur général de GitHub, Nat Friedman, a tweeté que l'utilisation du code existant pour former le système était une « utilisation équitable » du matériel en vertu de la loi sur le droit d'auteur, un argument souvent utilisé par les entreprises et les chercheurs qui ont construit ces systèmes. Mais aucune affaire judiciaire n'a encore testé cet argument.
« Les ambitions de Microsoft et OpenAI vont bien au-delà de GitHub et Copilot », a déclaré M. Butterick dans une interview. « Ils veulent s'entraîner sur n'importe quelle donnée n'importe où, gratuitement, sans consentement, pour toujours ».
En 2020, OpenAI a dévoilé un système appelé GPT-3. Les chercheurs ont formé le système en utilisant d'énormes quantités de texte numérique, y compris des milliers de livres, des articles de Wikipédia, des journaux de discussion et d'autres données publiées sur Internet.
En identifiant des modèles dans tout ce texte, ce système a appris à prédire le mot suivant dans une séquence. Lorsque quelqu'un tapait quelques mots, l'outil pouvait faire des suggestions de paragraphes entiers de texte. De cette façon, le système pourrait écrire ses propres publications, discours, poèmes et articles de presse sur Twitter.
À la grande surprise des chercheurs qui ont construit le système, il pouvait même écrire des programmes informatiques, ayant apparemment appris d'un nombre incalculable de programmes publiés sur Internet.
OpenAI est donc allé plus loin en formant un nouveau système, Codex, sur une nouvelle collection de données stockées spécifiquement avec du code. Au moins une partie de ce code, a déclaré le laboratoire plus tard dans un document de recherche détaillant la technologie, provenait de GitHub, détenu et exploité par Microsoft.
Ce nouveau système est devenu la technologie sous-jacente de Copilot, que Microsoft a fait tester aux développeurs sur GitHub. Après avoir été testé avec un nombre...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.