Le PDG de Salesforce, Marc Benioff, déclare que l'assistant IA Copilot de Microsoft ne fonctionne pas, qu'il n'offre « aucun niveau de précision » et que les clients sont « obligés de nettoyer le désordre »Marc Benioff, PDG de Salesforce, a intensifié sa critique de l'assistant d'intelligence artificielle (IA) de Microsoft, Copilot, le qualifiant de peu fiable et d'imprécis. Dans un billet publié sur X (anciennement Twitter), Marc Benioff a déclaré que la livraison de l'outil d'IA aux clients est décevante, qu'il « n'offre aucun niveau de précision » et laisse les clients aux prises avec des problèmes de données. Il a également comparé Copilot à « Clippy 2.0 », soulignant sa frustration quant à ses performances et à la charge imposée aux clients pour développer des LLM personnalisés après la mise en œuvre.
Alors que l'intelligence artificielle (IA) est censée faciliter le travail des développeurs, le code généré par l'IA pourrait en réalité augmenter la charge de travail des développeurs et accroître les risques, selon Harness. L'augmentation du volume de code livré accroît en effet les risques de failles et de vulnérabilités si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués. Bien que neuf développeurs sur dix utilisent déjà des outils d'IA pour accélérer la livraison de logiciels, cette tendance nécessite une vigilance accrue à chaque étape du cycle de vie du développement logiciel pour prévenir les incidents de sécurité.
Le 7 avril 2023, Microsoft a lancé son chatbot Microsoft Copilot. Basé sur Prometheus, un grand modèle de langage de Microsoft construit à partir de modèles de fondation d'OpenAI comme GPT-4, Copilot est capable de citer des sources, de créer des poèmes et d'écrire des chansons. Il s'agit du principal remplaçant de Cortana, dont la commercialisation a été interrompue. Le service a initialement été lancé sous le nom de Bing Chat, en tant que fonctionnalité intégrée à Microsoft Bing et Microsoft Edge, et, au cours de l'année 2023, Microsoft a commencé à unifier la marque Copilot dans ses différents produits de chatbot.
Dans un billet publié sur X, le fondateur et directeur général de Salesforce, Marc Benioff, a réitéré ses critiques à l'égard de Microsoft Copilot, l'outil doté d'une intelligence artificielle (IA) capable de rédiger des documents Word, de créer des présentations PowerPoint, d'analyser des feuilles de calcul Excel et même de répondre à des courriels via Outlook.
When you look at how Copilot has been delivered to customers, it’s disappointing. It just doesn’t work, and it doesn’t deliver any level of accuracy. Gartner says it’s spilling data everywhere, and customers are left cleaning up the mess. To add insult to injury, customers are…
— Marc Benioff (@Benioff) October 17, 2024
Ces affirmations de Marc Benioff viennent renforcer les révélations d'un récent rapport d'Uplevel qui suggère que les outils de développement GenAI n'améliorent pas l'efficacité du codage mais, au contraire, augmentent le nombre de bogues. En effet, selon les conclusions du rapport, les développeurs ont constaté une augmentation de 41 % des bogues après la mise en œuvre de Microsoft Copilot, ce qui suggère que l'outil peut avoir un impact sur la qualité du code. L'étude d'Uplevel révèle par ailleurs que les développeurs utilisant Copilot n'ont pas constaté d'augmentation de la vitesse de codage. En termes de temps de cycle des demandes d'extraction (PR) (temps nécessaire pour fusionner le code dans un dépôt) et de débit des PR (nombre de demandes d'extraction fusionnées), Copilot n'a ni aidé ni nui aux développeurs.
Source : Marc Benioff, PDG de Salesforce
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les critiques de Marc Benioff à l'égard de Microsoft Copilot sont pertinentes et justifiées ?
Avez-vous utilisé cet outil ou un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?Voir aussi :
Microsoft annonce que son assistant d'IA de productivité Copilot est maintenant disponible pour tous, et affirme que cela vise à améliorer son accessibilité et son utilité pour les utilisateurs
« Si vous confiez les rênes à Copilot, ne vous étonnez pas qu'il dévoile vos secrets », d'après une récente étude selon laquelle cette IA peut être transformée en outil d'exfiltration de données
L'exploitation de Microsoft Copilot Studio permet d'accéder à des données sensibles du cloud, un bug SSRF dans l'outil de création de Copilot personnalisée a potentiellement exposé des informations critiques
Vous avez lu gratuitement 1 275 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

