Un nouveau rapport de Microsoft décrit les mesures prises par l'entreprise pour mettre en place des plateformes d'IA responsables l'année dernière.
Dans son rapport de transparence sur l'IA responsable, qui couvre principalement la période 2023, Microsoft vante ses réalisations en matière de déploiement de produits d'IA en toute sécurité. Le rapport annuel sur la transparence de l'IA est l'un des engagements pris par l'entreprise après avoir signé un accord volontaire avec la Maison Blanche en juillet de l'année dernière. Microsoft et d'autres entreprises ont promis de mettre en place des systèmes d'IA responsables et de s'engager en faveur de la sécurité.
Dans son rapport, Microsoft indique qu'elle a créé 30 outils d'IA responsable au cours de l'année écoulée, qu'elle a renforcé son équipe d'IA responsable et qu'elle a demandé aux équipes qui créent des applications d'IA générative de mesurer et de cartographier les risques tout au long du cycle de développement. L'entreprise indique qu'elle a ajouté des certificats de contenu (Content Credential) à ses plateformes de génération d'images, ce qui permet d'apposer un filigrane sur une photo et de la marquer comme ayant été créée par un modèle d'IA.
Envoyé par Microsoft
Des clients Azure AI mieux outillés
L'entreprise explique qu'elle a donné aux clients d'Azure AI l'accès à des outils qui détectent les contenus problématiques tels que les discours haineux, les contenus sexuels et l'automutilation, ainsi qu'à des outils permettant d'évaluer les risques de sécurité. Il s'agit notamment de nouvelles méthodes de détection de jailbreak, qui ont été étendues en mars de cette année pour inclure les injections indirectes d'invite, où les instructions malveillantes font partie des données ingérées par le modèle d'IA.
Envoyé par Microsoft
L'entreprise évoque également les équipes rouges internes qui tentent délibérément de contourner les dispositifs de sécurité de ses modèles d'IA, ainsi que les applications en équipe rouge pour permettre à des tiers de les tester avant de lancer de nouveaux modèles.
Pour mémoire, l'équipe rouge désigne un groupe prétendant être un ennemi. Ce groupe est missionné par une organisation pour effectuer une intrusion physique ou numérique contre celle-ci et produire un rapport afin que l'organisation puisse améliorer sa sécurité. Les équipes rouges sont embauchées par l'organisation. Leur travail est légal, mais peut surprendre les employés ignorants les activités de l'équipe rouge, ou trompés par celle-ci. Certaines définitions de l'équipe rouge sont plus larges et incluent tout groupe, au sein d'une organisation, chargé de sortir des sentiers battus et d'examiner des scénarios alternatifs considérés comme moins plausibles. L'objectif étant de protéger une entreprise des fausses hypothèses et de la pensée de groupe.
L'équipe rouge « technique » se concentre sur l'attaque des réseaux informatiques. Elle peut faire face à une équipe bleue, un terme désignant les employés de la cybersécurité chargés de défendre l'organisation contre les attaques informatiques.
Envoyé par Microsoft
Cependant, les unités de red-teaming ont du pain sur la planche
Les déploiements de l'entreprise en matière d'IA n'ont pas été épargnés par les controverses.
Lors du premier déploiement de l'IA de Bing en février 2023, les utilisateurs ont constaté que le chatbot énonçait avec assurance des faits incorrects et, à un moment donné, enseignait aux gens des insultes ethniques. En octobre, les utilisateurs du générateur d'images de Bing ont découvert qu'ils pouvaient utiliser la plateforme pour générer des photos de Mario (ou d'autres personnages populaires) pilotant un avion vers les tours jumelles. En janvier, des images nues profondément truquées de célébrités telles que Taylor Swift ont fait le tour de X. Ces images proviendraient d'un groupe partageant des images réalisées avec Microsoft Designer. Microsoft a fini par combler la faille qui permettait de générer ces images. À l'époque, le PDG de Microsoft, Satya Nadella, avait déclaré que ces images étaient « alarmantes et terribles ».
Microsoft a licencié son équipe chargée de l'éthique IA
Si Microsoft se vante de ses avancées en matière d'IA responsable, il faut rappeler que l'entreprise a licencié toute son équipe chargée d'assurer l'utilisation éthique des logiciels d'IA à un moment où la grande enseigne du logiciel intensifiait son utilisation de la technologie d'apprentissage automatique. Microsoft s'est débarrassé de l'équipe éthique et société, qui était au sein de son organisation d'intelligence artificielle, dans le cadre des 10 000 suppressions d'emplois que l'entreprise a annoncées.
Le coup porté à cette unité particulière pourrait supprimer certaines barrières de sécurité destinées à garantir que les produits de Microsoft qui intègrent des fonctionnalités d'apprentissage automatique respectent les normes de la méga-corporation en matière d'utilisation éthique de l'IA. Et cela est survenu alors que la discussion faisait rage sur les effets des modèles controversés d'intelligence artificielle sur la société dans son ensemble.
Un engagement en faveur de l'amélioration continue
Natasha Crampton, responsable de l'IA responsable chez Microsoft, a souligné que l'IA responsable est un voyage continu sans point final définitif. « L'IA responsable n'a pas de ligne d'arrivée, nous ne considérerons donc jamais que notre travail dans le cadre des engagements volontaires en matière d'IA est terminé. Mais nous avons réalisé des progrès considérables depuis leur signature et nous sommes impatients de poursuivre sur notre lancée cette année », a déclaré Crampton.
Alors que Microsoft navigue dans le paysage complexe du développement de l'IA, son engagement à améliorer et à étendre ses pratiques en matière d'IA responsable reste crucial pour relever les défis actuels et les innovations futures.
Source : Microsoft (1, 2, 3)
Et vous ?
Quels sont les principaux défis que vous pensez que Microsoft et d’autres entreprises technologiques doivent surmonter dans le développement de l’IA ?
Comment les entreprises peuvent-elles garantir que l’IA respecte la vie privée et les données personnelles des utilisateurs ?
Quel rôle les utilisateurs finaux devraient-ils jouer dans le développement de l’IA responsable ?
La transparence est-elle suffisante pour établir la confiance dans les systèmes d’IA, ou faut-il des mesures réglementaires plus strictes ?
Comment pouvons-nous équilibrer l’innovation technologique avec les préoccupations éthiques liées à l’IA ?
Quelles sont vos opinions sur l’utilisation des “Content Credentials” pour les images générées par l’IA ? Est-ce une étape suffisante vers la responsabilité ?
En quoi l’approche de Microsoft en matière d’IA responsable influence-t-elle votre perception de l’entreprise et de ses produits ?