GitHub Copilot adopte une approche multimodèle
GitHub fait partie des premières entreprises technologiques à proposer un assistant de codage basé sur l'IA générative avec GitHub Copilot. Ce dernier repose sur la technologie d'IA générative d'OpenAI, un partenaire de la société mère de GitHub, Microsoft. Alors que la concurrence s'intensifie sur le marché des assistants de codage, GitHub adopte une approche « multimodèle » en étendant son produit aux grands modèles de langage (LLM) de Google et Anthropic.
Thomas Dohmke, PDG de GitHub, a expliqué cette approche multimodèle comme suit : « il n'y a pas un modèle unique pour tous les scénarios, et les développeurs attendent de l'agence qu'elle construise avec les modèles qui fonctionnent le mieux pour eux. La prochaine phase de la génération de code avec l'IA ne sera pas seulement définie par une fonctionnalité multimodèle, mais par un choix multimodèle. Aujourd'hui, c'est exactement ce que nous proposons ».
GitHub Copilot Chat prendra bientôt en charge les modèles Claude 3.5 Sonnet d'Anthropic et Gemini 1.5 Pro de Google, en plus du modèle GPT-4o d'OpenAI. Il introduit également les modèles o1-preview et o1-mini d'OpenAI, qui sont conçus pour les tâches de raisonnement avancées. GitHub annonce avoir conclu des accords avec Google et Anthropic, mais n'a pas révélé les détails de ces accords. Les modèles d'OpenAI continueront à être le paramètre par défaut.
Mais les développeurs pourront passer aux modèles de Google et d'Anthropic s'ils le souhaitent. Cette approche permettra aux développeurs de sélectionner des modèles en fonction de facteurs tels que la compatibilité avec les langages de programmation, les exigences de l'entreprise et les préférences personnelles.
Selon Thomas Dohmke, au cours du mois dernier, GitHub a collaboré avec les équipes d'ingénieurs d'Anthropic et de Google sur la sûreté, la sécurité et l'évolutivité de leurs modèles. « Nous prévoyons d'étendre cette liste à l'avenir, mais nous n'avons pas de partenariat à annoncer pour le moment », a-t-il déclaré.
Déploiement et disponibilité des nouveaux modèles
Dans une interview avec CNBC, Thomas Dohmke a déclaré que l'arrivée des modèles o1 d'OpenAI en septembre 2024 a conduit GitHub à envisager l'ajout d'un menu déroulant pour Copilot afin d'offrir plus d'options. « À ce moment-là, il a semblé que c'était le bon moment d'ajouter les modèles d'Anthropic et de Google », a déclaré Thomas Dohmke. Le déploiement commencera par le modèle d'Anthropic, suivi par Gemini de Google dans les semaines à venir.
Cette fonctionnalité multimodèle sera initialement disponible dans Copilot Chat sur le site de GitHub et dans Visual Studio Code. GitHub a également présenté en avant-première un projet d'IA appelé Spark, qui permet aux utilisateurs de créer des miniapplications, par exemple un carnet de voyage avec des cartes ou un suivi des événements, à l'aide d'invites en langage naturel clair plutôt que d'écrire du code dans un langage de programmation donné.
Les utilisateurs qui savent programmer peuvent également ouvrir le code généré par Spark et le modifier, en alternant entre le codage et les invites. Thomas Dohmke a déclaré que l'idée est de donner aux « novices » un moyen de créer quelque chose et aux développeurs plus expérimentés un moyen plus facile de tester des idées. « Il n'en reste pas moins que le développement de logiciels à l'aide de l'IA devient de plus en plus performant », affirme Thomas Dohmke.
Comme indiqué ci-dessus, il ne s'agit ici que d'une version préliminaire de la plateforme Spark. GitHub indique que les développeurs qui souhaitent aller plus loin dans leurs projets Spark devront les transférer vers un programme de développement logiciel plus complet, comme GitHub Copilot ou Power Platform de Microsoft.
Bien que le choix multimodèle soit actuellement limité à Copilot Chat et au tout nouveau Spark, GitHub prévoit d'étendre cette fonctionnalité à diverses fonctions de Copilot. Il s'agit de Copilot Workspace, de l'édition multifichiers, de la revue de code, de l'autofixation de sécurité et de l'interface en ligne de commande.
Impact sur les relations entre Microsoft et OpenAI
Depuis l'acquisition de GitHub en 2018, Microsoft a permis à la plateforme d'hébergement de code de maintenir et de nouer un large éventail de partenariats, même s'ils sont techniquement des rivaux de Microsoft. Selon les dirigeants de GitHub, l'entreprise tient à offrir un choix à ses clients et à proposer des options à ceux qui utilisent les services cloud de Google et d'Amazon. Les modèles d'Anthropic fonctionnent sur le réseau d'AWS (Amazon Web Services).
Microsoft laisse également les clients de son cloud Azure utiliser d'autres modèles que celui d'OpenAI, notamment ceux de Meta et de Mistral, mais ne propose pas les modèles d'Anthropic ou de Google. De nombreux autres produits et services de Microsoft, notamment Teams et Windows, utilisent la technologie d'IA d'OpenAI. De son côté, Microsoft continue de fournir de la puissance de calcul à OpenAI, qui est aujourd'hui valorisée à 157 milliards de dollars.
Microsoft a investi des sommes colossales dans OpenAI au fil des ans, avec un milliard de dollars en 2019 et plusieurs milliards de dollars supplémentaires l'année dernière. Toutefois, la relation entre les deux entreprises semble s'être effilochée au cours de l'année écoulée, à la suite de l'éviction et de la réintégration soudaines du PDG d'OpenAI, Sam Altman, en novembre. Cet incident dramatique aurait provoqué la colère du PDG de Microsoft, Satya Nadella.
En février 2024, Microsoft a annoncé un partenariat avec le développeur français de modèles d'IA Mistral. Le mois suivant, Microsoft a déclaré qu'il embauchait Mustafa Suleyman, cofondateur de DeepMind, et des employés de sa nouvelle startup d'IA, Inflection AI, dont l'assistant Pi était en concurrence avec le populaire ChatGPT d'OpenAI. Au cours de l'été 2024, Microsoft a désigné OpenAI comme « un concurrent » dans un dépôt réglementaire.
L'on ignore comment l'approche de GitHub est perçue par OpenAI. Mais l'initiative de GitHub pourrait potentiellement influencer la stratégie plus large de Microsoft en matière d'IA, en soulevant la question de savoir si Microsoft pourrait adopter une approche multimodèle similaire pour ses autres assistants d'IA.
Les outils d'IA de codage ont un faible impact sur la productivité des développeurs
Les assistants de codage ont été un cas d'utilisation précoce évident dans la ruée vers l'IA générative. Mais une étude publiée par la société d'analyse Uplevel indique que les améliorations de productivité promises sont loin d'être au rendez-vous, si tant est qu'elles existent. Uplevel, qui fournit des informations sur les données de codage et de collaboration, rapporte que l'utilisation de GitHub Copilot a également introduit 41 % de bogues supplémentaires.
« Cela suggère que Copilot peut avoir un impact négatif sur la qualité du code. Les responsables de l'ingénierie peuvent souhaiter creuser davantage pour trouver les PR avec des bogues et mettre en place des garde-fous pour l'utilisation responsable de l'IA générative », indique le rapport intitulé "Can Generative AI Improve Developer Productivity". Cette conclusion est aux antipodes des rapports faisant état d'un gain de productivité grâce à l'IA.
L'étude a mesuré le temps de cycle des demandes de fusion (pull request - PR), c'est-à-dire le temps nécessaire pour fusionner le code dans un dépôt, et le débit des PR, c'est-à-dire le nombre de demandes de fusion fusionnées. Elle n'a révélé aucune amélioration significative pour les développeurs utilisant GitHub Copilot. Ce résultat est l'un des trois énumérés par l'entreprise, qui a déclaré avoir mené la recherche pour répondre à trois questions :
- l'accès à GitHub Copilot aide-t-il les développeurs à produire du code plus rapidement ?
- GitHub Copilot aide-t-il les développeurs à produire un code de meilleure qualité ?
- GitHub Copilot atténue-t-il l'impact de l'épuisement des développeurs ?
Dans le cadre de l'étude, Uplevel a utilisé les données générées par ses clients et a comparé la production d'environ 800 développeurs utilisant GitHub Copilot sur une période de trois mois à leur production sur une période de trois mois avant l'adoption. Les deux autres conclusions d'Uplevel sont les suivantes :
Pas de changement significatif dans les mesures d'efficacité
« En comparant le temps de cycle, le débit et la complexité des RP avec les RP avec tests, GitHub Copilot n'a ni aidé ni nui aux développeurs de l'échantillon, et n'a pas non plus augmenté la vitesse de codage. Bien que certaines de ces mesures soient statistiquement significatives, le changement réel n'a pas eu d'incidence sur les résultats techniques, par exemple le temps de cycle a diminué de 1,7 minute », indique le rapport d'Uplevel.
Atténuation du risque d'épuisement professionnel
L'indicateur « Sustained Always On » d'Uplevel (temps de travail prolongé en dehors des heures normales et indicateur avancé d'épuisement professionnel) a diminué dans les deux groupes. Mais il a diminué de 17 % pour ceux qui avaient accès à GitHub Copilot et de près de 28 % pour ceux qui n'y avaient pas accès.
Source : GitHub
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'ajout de Gemini et de Claude à l'assistant de codage GitHub Copilot ?
En quoi cet ajout pourrait-il améliorer GitHub Copilot et l'écriture de code à l'aide de l'IA ?
Que pensez-vous des assistants d'IA de codage en général ? Ces outils ont-ils des avantages ?
Quel est votre avis sur les préoccupations en matière de sécurité liées aux assistants d'IA de codage ?
Voir aussi
Les assistants d'IA de codage font-ils vraiment gagner du temps aux développeurs ? Une étude suggère que ces outils n'augmentent pas la vitesse de codage, mais augmentent significativement le taux de bogues
92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs
GitHub Copilot : un juge rejette la demande de protection des droits d'auteur en vertu de la DMCA dans le cadre d'un procès contre l'outil IA de Microsoft