IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

GitHub, propriété de Microsoft, conclut des accords avec Google et Anthropic pour intégrer leurs modèles d'IA à son assistant de codage Copilot,
Mais la qualité et la sécurité du code généré restent un défi

Le , par Mathis Lucas

35PARTAGES

3  0 
L'assistant de codage GitHub Copilot va s'étendre au-delà des modèles d'IA proposés par OpenAI. La filiale de Microsoft a signé un accord avec les rivaux Google et Anthropic pour intégrer leurs modèles d'IA à GitHub Copilot. Dans un premier temps, Google Gemini 1.5 Pro et Claude 3.5 Sonnet d'Anthropic seront intégrés, avec des améliorations au fil du temps. Cela offre plus d'options aux utilisateurs de GitHub Copilot qui, selon l'entreprise, est utilisé par des millions de développeurs de logiciels. Cependant, une étude récente a révélé que l'utilisation de GitHub Copilot entraîne une augmentation de 41 % des bogues, soulevant des inquiétudes quant à la qualité du code.

GitHub Copilot adopte une approche multimodèle

GitHub fait partie des premières entreprises technologiques à proposer un assistant de codage basé sur l'IA générative avec GitHub Copilot. Ce dernier repose sur la technologie d'IA générative d'OpenAI, un partenaire de la société mère de GitHub, Microsoft. Alors que la concurrence s'intensifie sur le marché des assistants de codage, GitHub adopte une approche « multimodèle » en étendant son produit aux grands modèles de langage (LLM) de Google et Anthropic.


Thomas Dohmke, PDG de GitHub, a expliqué cette approche multimodèle comme suit : « il n'y a pas un modèle unique pour tous les scénarios, et les développeurs attendent de l'agence qu'elle construise avec les modèles qui fonctionnent le mieux pour eux. La prochaine phase de la génération de code avec l'IA ne sera pas seulement définie par une fonctionnalité multimodèle, mais par un choix multimodèle. Aujourd'hui, c'est exactement ce que nous proposons ».

GitHub Copilot Chat prendra bientôt en charge les modèles Claude 3.5 Sonnet d'Anthropic et Gemini 1.5 Pro de Google, en plus du modèle GPT-4o d'OpenAI. Il introduit également les modèles o1-preview et o1-mini d'OpenAI, qui sont conçus pour les tâches de raisonnement avancées. GitHub annonce avoir conclu des accords avec Google et Anthropic, mais n'a pas révélé les détails de ces accords. Les modèles d'OpenAI continueront à être le paramètre par défaut.

Mais les développeurs pourront passer aux modèles de Google et d'Anthropic s'ils le souhaitent. Cette approche permettra aux développeurs de sélectionner des modèles en fonction de facteurs tels que la compatibilité avec les langages de programmation, les exigences de l'entreprise et les préférences personnelles.

Selon Thomas Dohmke, au cours du mois dernier, GitHub a collaboré avec les équipes d'ingénieurs d'Anthropic et de Google sur la sûreté, la sécurité et l'évolutivité de leurs modèles. « Nous prévoyons d'étendre cette liste à l'avenir, mais nous n'avons pas de partenariat à annoncer pour le moment », a-t-il déclaré.

Déploiement et disponibilité des nouveaux modèles

Dans une interview avec CNBC, Thomas Dohmke a déclaré que l'arrivée des modèles o1 d'OpenAI en septembre 2024 a conduit GitHub à envisager l'ajout d'un menu déroulant pour Copilot afin d'offrir plus d'options. « À ce moment-là, il a semblé que c'était le bon moment d'ajouter les modèles d'Anthropic et de Google », a déclaré Thomas Dohmke. Le déploiement commencera par le modèle d'Anthropic, suivi par Gemini de Google dans les semaines à venir.


Cette fonctionnalité multimodèle sera initialement disponible dans Copilot Chat sur le site de GitHub et dans Visual Studio Code. GitHub a également présenté en avant-première un projet d'IA appelé Spark, qui permet aux utilisateurs de créer des miniapplications, par exemple un carnet de voyage avec des cartes ou un suivi des événements, à l'aide d'invites en langage naturel clair plutôt que d'écrire du code dans un langage de programmation donné.

Les utilisateurs qui savent programmer peuvent également ouvrir le code généré par Spark et le modifier, en alternant entre le codage et les invites. Thomas Dohmke a déclaré que l'idée est de donner aux « novices » un moyen de créer quelque chose et aux développeurs plus expérimentés un moyen plus facile de tester des idées. « Il n'en reste pas moins que le développement de logiciels à l'aide de l'IA devient de plus en plus performant », affirme Thomas Dohmke.

Comme indiqué ci-dessus, il ne s'agit ici que d'une version préliminaire de la plateforme Spark. GitHub indique que les développeurs qui souhaitent aller plus loin dans leurs projets Spark devront les transférer vers un programme de développement logiciel plus complet, comme GitHub Copilot ou Power Platform de Microsoft.

Bien que le choix multimodèle soit actuellement limité à Copilot Chat et au tout nouveau Spark, GitHub prévoit d'étendre cette fonctionnalité à diverses fonctions de Copilot. Il s'agit de Copilot Workspace, de l'édition multifichiers, de la revue de code, de l'autofixation de sécurité et de l'interface en ligne de commande.

Impact sur les relations entre Microsoft et OpenAI

Depuis l'acquisition de GitHub en 2018, Microsoft a permis à la plateforme d'hébergement de code de maintenir et de nouer un large éventail de partenariats, même s'ils sont techniquement des rivaux de Microsoft. Selon les dirigeants de GitHub, l'entreprise tient à offrir un choix à ses clients et à proposer des options à ceux qui utilisent les services cloud de Google et d'Amazon. Les modèles d'Anthropic fonctionnent sur le réseau d'AWS (Amazon Web Services).


Microsoft laisse également les clients de son cloud Azure utiliser d'autres modèles que celui d'OpenAI, notamment ceux de Meta et de Mistral, mais ne propose pas les modèles d'Anthropic ou de Google. De nombreux autres produits et services de Microsoft, notamment Teams et Windows, utilisent la technologie d'IA d'OpenAI. De son côté, Microsoft continue de fournir de la puissance de calcul à OpenAI, qui est aujourd'hui valorisée à 157 milliards de dollars.

Microsoft a investi des sommes colossales dans OpenAI au fil des ans, avec un milliard de dollars en 2019 et plusieurs milliards de dollars supplémentaires l'année dernière. Toutefois, la relation entre les deux entreprises semble s'être effilochée au cours de l'année écoulée, à la suite de l'éviction et de la réintégration soudaines du PDG d'OpenAI, Sam Altman, en novembre. Cet incident dramatique aurait provoqué la colère du PDG de Microsoft, Satya Nadella.

En février 2024, Microsoft a annoncé un partenariat avec le développeur français de modèles d'IA Mistral. Le mois suivant, Microsoft a déclaré qu'il embauchait Mustafa Suleyman, cofondateur de DeepMind, et des employés de sa nouvelle startup d'IA, Inflection AI, dont l'assistant Pi était en concurrence avec le populaire ChatGPT d'OpenAI. Au cours de l'été 2024, Microsoft a désigné OpenAI comme « un concurrent » dans un dépôt réglementaire.

L'on ignore comment l'approche de GitHub est perçue par OpenAI. Mais l'initiative de GitHub pourrait potentiellement influencer la stratégie plus large de Microsoft en matière d'IA, en soulevant la question de savoir si Microsoft pourrait adopter une approche multimodèle similaire pour ses autres assistants d'IA.

Les outils d'IA de codage ont un faible impact sur la productivité des développeurs

Les assistants de codage ont été un cas d'utilisation précoce évident dans la ruée vers l'IA générative. Mais une étude publiée par la société d'analyse Uplevel indique que les améliorations de productivité promises sont loin d'être au rendez-vous, si tant est qu'elles existent. Uplevel, qui fournit des informations sur les données de codage et de collaboration, rapporte que l'utilisation de GitHub Copilot a également introduit 41 % de bogues supplémentaires.


« Cela suggère que Copilot peut avoir un impact négatif sur la qualité du code. Les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 30/10/2024 à 11:25
« En comparant le temps de cycle, le débit et la complexité des RP avec les RP avec tests, GitHub Copilot n'a ni aidé ni nui aux développeurs de l'échantillon, et n'a pas non plus augmenté la vitesse de codage. Bien que certaines de ces mesures soient statistiquement significatives, le changement réel n'a pas eu d'incidence sur les résultats techniques, par exemple le temps de cycle a diminué de 1,7 minute », indique le rapport d'Uplevel.
L'étude est complétement bidon, ca peut aussi vouloir dire que les participants ont levés le pied car ils avaient moins de travail à fournir grace à copilot.
D'ailleurs quiconque l'a déjà utilisé (github copilot) sait le temps que cela fait gagner rien qu'avec l'écriture de la documentation et des commentaires...
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 30/10/2024 à 12:05
Citation Envoyé par jnspunk Voir le message
L'étude est complétement bidon, ca peut aussi vouloir dire que les participants ont levés le pied car ils avaient moins de travail à fournir grace à copilot.
D'ailleurs quiconque l'a déjà utilisé (github copilot) sait le temps que cela fait gagner rien qu'avec l'écriture de la documentation et des commentaires...
je ne saurais l'expliquer, dans mon équipe, il y'a un gain de temps de mon coté, mais pour autant je ne constate pas une amélioration de la productivité ou de la qualité.
le nombre de bug et de tache Jira avec le status "finish" et similaire entre 2022, 2023 et 2024. a plus au moins 8% pres. Meme si chatgpt a permis d 'augmenter la productivité de 8% (ce qui reste a prouvé avec juste comme panel 1 projet celui ou je bosse, difficile d'en l'affirmer), 8% reste faible comme gain par rapport aux promesses des startups.

il serait intéressant sur developpez.com qu'on se partage les stats du nombre de tache jira finis et/ou des mr mergé sur 1 année, histoire de voir la tendance.
0  0 
Avatar de Metal3d
Membre habitué https://www.developpez.com
Le 31/10/2024 à 7:48
De mon côté je peux dire que la productivité a augmenté de 10 à 20% avec une IA de complétion. Je prends en compte le temp de dev et le temps de fix. On a moins de bugs et moins de tickets.

On a aussi testé Tabby en mode communautaire et pro. La productivité est moins impacté mais on n'avait pas les modèles adaptés selon moi.

Ce qui a compté, aussi, c'est le confort de dev. Les ingénieurs apprécient l'aide de l'IA, ça leur donne des idées ou carrément ça leur apprend des choses. Par contre il est nécessaire de bien préparé, surtout les jeunes, à vérifier ce qui est proposé.
0  0 
Avatar de pokinwilly
Nouveau Candidat au Club https://www.developpez.com
Le 14/02/2025 à 12:06
Citation Envoyé par OuftiBoy Voir le message


  • Dans l'imagerie médicale, l'IA peut comparer des milliers de radiographies pour assister un docteur spécialisé dans ce domaine, et l'aider a voir ce qu'il n'aurait pas vu, et permettre de poser un diagnostique plus affiné, permettant d'en déduire le meilleur traitement a effectuer par la suite. C'est une bonne chose, tant pour le patient, le docteur et le budget nécessaire. Cette IA peut faire un travail correct, car les radio qu'on lui a soumise on été préalablement "validée" et lui sont fournies avec le diagnostique donné suite à cette radio. Il y a donc une certaine "fiabilité" des données en entrée. Et dans ce domaine qui se nomme "imagerie médical", cela existait déjà bien avant la frénésie autours de l'IA.

Même cette application, tu peux la passer en rouge :
cf https://x.com/docteur_TJ/status/1889...88922510848295 qui explique que non seulement dans ce domaine, l'IA fait des grosses erreurs, mais qu'en plus, au fil des années, le niveau des humains a baissé, au point que maintenant certains ne font pas mieux que l'IA et laissent repartir des patients avec des fractures non diagnostiquées.

Dans le dev, j'entends parler de SSII qui ont viré les dev juniors pour ne garder que les séniors qui utilisent des IA pour générer le code, et ils corrigent par-dessus (comme les radiologues séniors d'il y a 10 ans).
Si on se projette dans 10 ans, l'IA codera mal mais on aura plus personne pour faire mieux.

L'IA sera-t-elle la cause du déclin de notre civilisation ?
0  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 15/02/2025 à 14:40


Citation Envoyé par pokinwilly Voir le message
Même cette application, tu peux la passer en rouge :
cf https://x.com/docteur_TJ/status/1889...88922510848295 qui explique que non seulement dans ce domaine, l'IA fait des grosses erreurs, mais qu'en plus, au fil des années, le niveau des humains a baissé, au point que maintenant certains ne font pas mieux que l'IA et laissent repartir des patients avec des fractures non diagnostiquées.
Oui, il faut faire attention. L'imagerie médicale existait bien avant qu'on ne plaque dessus le terme IA. En gros, le spécialsite a son avis, et le traitement d'image lui donne des informations supplémentaires. Cela reste de sa responsabilité de faire un bon diagnostic, et d'adapter le traitement. Que le niveau d'expertisse humaine décroisse, je veux bien le croire, et dans tous les domaines où il est trop assisté. Cette baisse d'expertisse, il faut bien sûr lutter contre, mais c'est un autre sujet. En gros, il ne faut pas se faire dépasser par les outils qui nous assistent. Pour couper des arbres, on le fait avec une tronsoneusse à la place d'une hache. C'est un progrès, mais celui qui se sert de la tronsonneusse doit toujours savoir comment l'arbre va tomber.

Citation Envoyé par pokinwilly Voir le message
Dans le dev, j'entends parler de SSII qui ont viré les dev juniors pour ne garder que les séniors qui utilisent des IA pour générer le code, et ils corrigent par-dessus (comme les radiologues séniors d'il y a 10 ans).
Si on se projette dans 10 ans, l'IA codera mal mais on aura plus personne pour faire mieux.
Oui, mais si on ne forme pas de juniors, il n'y aura plus de séniors assez vite. C'est une vue à court terme qui malheureusement se généralise.

Citation Envoyé par pokinwilly Voir le message
L'IA sera-t-elle la cause du déclin de notre civilisation ?
Notre "époque" n'a pas attendu l'IA pour décliner, et oui, l'IA sera une autre pierre en faveur de ce déclinement. C'est une volonté de nos dirigeants. C'est un phénomène mondial, à de rares exceptions. J'ai bien une idée du but de la manoeuvre...

BàT et Peace & Love.
0  0