
évoquant les difficultés rencontrées et parlant des améliorations en cours
Microsoft a publié son premier rapport de transparence sur l'IA responsable, décrivant les mesures prises en 2023 pour développer et déployer des technologies d'IA de manière responsable. Ce rapport s'inscrit dans le cadre de l'engagement de Microsoft à créer des systèmes d'IA plus sûrs, une promesse faite dans le cadre d'un accord volontaire avec la Maison Blanche en juillet de l'année précédente.
Un nouveau rapport de Microsoft décrit les mesures prises par l'entreprise pour mettre en place des plateformes d'IA responsables l'année dernière.
Dans son rapport de transparence sur l'IA responsable, qui couvre principalement la période 2023, Microsoft vante ses réalisations en matière de déploiement de produits d'IA en toute sécurité. Le rapport annuel sur la transparence de l'IA est l'un des engagements pris par l'entreprise après avoir signé un accord volontaire avec la Maison Blanche en juillet de l'année dernière. Microsoft et d'autres entreprises ont promis de mettre en place des systèmes d'IA responsables et de s'engager en faveur de la sécurité.
Dans son rapport, Microsoft indique qu'elle a créé 30 outils d'IA responsable au cours de l'année écoulée, qu'elle a renforcé son équipe d'IA responsable et qu'elle a demandé aux équipes qui créent des applications d'IA générative de mesurer et de cartographier les risques tout au long du cycle de développement. L'entreprise indique qu'elle a ajouté des certificats de contenu (Content Credential) à ses plateformes de génération d'images, ce qui permet d'apposer un filigrane sur une photo et de la marquer comme ayant été créée par un modèle d'IA.

Des clients Azure AI mieux outillés
L'entreprise explique qu'elle a donné aux clients d'Azure AI l'accès à des outils qui détectent les contenus problématiques tels que les discours haineux, les contenus sexuels et l'automutilation, ainsi qu'à des outils permettant d'évaluer les risques de sécurité. Il s'agit notamment de nouvelles méthodes de détection de jailbreak, qui ont été étendues en mars de cette année pour inclure les injections indirectes d'invite, où les instructions malveillantes font partie des données ingérées par le modèle d'IA.

L'entreprise évoque également les équipes rouges internes qui tentent délibérément de contourner les dispositifs de sécurité de ses modèles d'IA, ainsi que les applications en équipe rouge pour permettre à des tiers de les tester avant de lancer de nouveaux modèles.
Pour mémoire, l'équipe rouge désigne un groupe prétendant être un ennemi. Ce groupe est missionné par une organisation pour effectuer une intrusion physique ou numérique contre celle-ci et produire un rapport afin que l'organisation puisse améliorer sa sécurité. Les équipes rouges sont embauchées par l'organisation. Leur travail est légal, mais peut surprendre les employés ignorants les activités de l'équipe rouge, ou trompés par celle-ci. Certaines définitions de l'équipe rouge sont plus larges et incluent tout groupe, au sein d'une organisation, chargé de sortir des sentiers battus et d'examiner des scénarios alternatifs considérés comme moins plausibles. L'objectif étant de protéger une entreprise des fausses hypothèses et de la pensée de groupe.
L'équipe rouge « technique » se concentre sur l'attaque des réseaux informatiques. Elle peut faire face à une équipe bleue, un terme désignant les employés de la cybersécurité chargés de défendre l'organisation contre les attaques informatiques.

Cependant, les unités de red-teaming ont du pain sur la planche
Les déploiements de l'entreprise en matière d'IA n'ont pas été épargnés par les controverses.
Lors du premier déploiement de l'IA de Bing en février 2023, les utilisateurs ont constaté que le chatbot énonçait avec assurance des faits incorrects et, à un moment donné, enseignait aux gens des insultes ethniques. En octobre, les utilisateurs du générateur d'images de Bing ont découvert qu'ils pouvaient utiliser la plateforme pour générer des photos de Mario (ou d'autres personnages populaires) pilotant un avion vers les tours jumelles. En janvier, des images nues profondément truquées de célébrités telles que Taylor Swift ont fait le tour de X. Ces images proviendraient d'un groupe partageant des images réalisées avec Microsoft Designer. Microsoft a fini par combler la faille qui permettait de générer ces images. À l'époque, le PDG de Microsoft, Satya Nadella, avait déclaré que ces images étaient « alarmantes et terribles ».
Microsoft a licencié son équipe chargée de l'éthique IA
Si Microsoft se vante de ses avancées en matière d'IA responsable, il faut rappeler que l'entreprise a licencié toute son équipe chargée d'assurer l'utilisation éthique des logiciels d'IA à un moment où la grande enseigne du logiciel intensifiait son utilisation de la technologie d'apprentissage automatique. Microsoft s'est débarrassé de l'équipe éthique et société, qui était au sein de son organisation d'intelligence artificielle, dans le cadre des 10 000 suppressions d'emplois que l'entreprise a annoncées.
Le coup porté à cette unité particulière pourrait supprimer certaines barrières de sécurité destinées à garantir que les produits de Microsoft qui intègrent des fonctionnalités d'apprentissage automatique respectent les normes de la méga-corporation en matière d'utilisation éthique de l'IA. Et cela est survenu alors que la discussion faisait rage sur les effets des modèles controversés d'intelligence artificielle sur la société dans son ensemble.
Un engagement en faveur de l'amélioration continue
Natasha Crampton, responsable de l'IA responsable chez Microsoft, a souligné que l'IA responsable est un voyage continu sans point final définitif. « L'IA responsable n'a pas de ligne d'arrivée, nous ne considérerons donc jamais que notre travail dans le cadre des engagements volontaires en matière d'IA est terminé. Mais nous avons réalisé des progrès considérables depuis leur signature et nous sommes impatients de poursuivre sur notre lancée cette année », a déclaré Crampton.
Alors que Microsoft navigue dans le paysage complexe du développement de l'IA, son engagement à améliorer et à étendre ses pratiques en matière d'IA responsable reste crucial pour relever les défis actuels et les innovations futures.
Source : Microsoft (1, 2, 3)
Et vous ?







Vous avez lu gratuitement 7 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.