Alors que l'intelligence artificielle (IA) est censée faciliter le travail des développeurs, le code généré par l'IA pourrait en réalité augmenter la charge de travail des développeurs et accroître les risques, selon Harness. L'augmentation du volume de code livré accroît en effet les risques de failles et de vulnérabilités si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués. Bien que neuf développeurs sur dix utilisent déjà des outils d'IA pour accélérer la livraison de logiciels, cette tendance nécessite une vigilance accrue à chaque étape du cycle de vie du développement logiciel pour prévenir les incidents de sécurité.
Le 7 avril 2023, Microsoft a lancé son chatbot Microsoft Copilot. Basé sur Prometheus, un grand modèle de langage de Microsoft construit à partir de modèles de fondation d'OpenAI comme GPT-4, Copilot est capable de citer des sources, de créer des poèmes et d'écrire des chansons. Il s'agit du principal remplaçant de Cortana, dont la commercialisation a été interrompue. Le service a initialement été lancé sous le nom de Bing Chat, en tant que fonctionnalité intégrée à Microsoft Bing et Microsoft Edge, et, au cours de l'année 2023, Microsoft a commencé à unifier la marque Copilot dans ses différents produits de chatbot.
Dans un billet publié sur X, le fondateur et directeur général de Salesforce, Marc Benioff, a réitéré ses critiques à l'égard de Microsoft Copilot, l'outil doté d'une intelligence artificielle (IA) capable de rédiger des documents Word, de créer des présentations PowerPoint, d'analyser des feuilles de calcul Excel et même de répondre à des courriels via Outlook.
Envoyé par Marc Benioff
When you look at how Copilot has been delivered to customers, it’s disappointing. It just doesn’t work, and it doesn’t deliver any level of accuracy. Gartner says it’s spilling data everywhere, and customers are left cleaning up the mess. To add insult to injury, customers are…
— Marc Benioff (@Benioff) October 17, 2024
Ces affirmations de Marc Benioff viennent renforcer les révélations d'un récent rapport d'Uplevel qui suggère que les outils de développement GenAI n'améliorent pas l'efficacité du codage mais, au contraire, augmentent le nombre de bogues. En effet, selon les conclusions du rapport, les développeurs ont constaté une augmentation de 41 % des bogues après la mise en œuvre de Microsoft Copilot, ce qui suggère que l'outil peut avoir un impact sur la qualité du code. L'étude d'Uplevel révèle par ailleurs que les développeurs utilisant Copilot n'ont pas constaté d'augmentation de la vitesse de codage. En termes de temps de cycle des demandes d'extraction (PR) (temps nécessaire pour fusionner le code dans un dépôt) et de débit des PR (nombre de demandes d'extraction fusionnées), Copilot n'a ni aidé ni nui aux développeurs.
Source : Marc Benioff, PDG de Salesforce
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les critiques de Marc Benioff à l'égard de Microsoft Copilot sont pertinentes et justifiées ?
Avez-vous utilisé cet outil ou un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?
Voir aussi :
Microsoft annonce que son assistant d'IA de productivité Copilot est maintenant disponible pour tous, et affirme que cela vise à améliorer son accessibilité et son utilité pour les utilisateurs
« Si vous confiez les rênes à Copilot, ne vous étonnez pas qu'il dévoile vos secrets », d'après une récente étude selon laquelle cette IA peut être transformée en outil d'exfiltration de données
L'exploitation de Microsoft Copilot Studio permet d'accéder à des données sensibles du cloud, un bug SSRF dans l'outil de création de Copilot personnalisée a potentiellement exposé des informations critiques