IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les défis de l'IA responsable : les outils d'IA tiers seraient la cause de 55 % des échecs de l'IA dans les entreprises
Selon une étude du MIT Sloan Management Review et le Boston Consulting Group

Le , par Bruno

23PARTAGES

2  0 
Les défis de l’IA responsable : les outils d'IA tiers seraient la cause de 55 % des échecs de l'IA dans les entreprises,
selon une étude du MIT Sloan Management Review et le Boston Consulting Group

Les risques et les échecs des systèmes d'IA sont plus palpables et plus nombreux que jamais. Selon une enquête menée par le MIT Sloan Management Review et le Boston Consulting Group, les outils d’IA tiers sont responsables de plus de 55 % des échecs liés à l’IA dans les organisations. Les entreprises n’ont pas entièrement adapté leurs programmes de gestion des risques des tiers au contexte de l’IA ou aux défis liés au déploiement en toute sécurité de systèmes complexes tels que les produits d’IA générative. Les échecs pourraient entraîner une atteinte à la réputation, des pertes financières, une perte de confiance des consommateurs, voire des litiges.

Malgré une utilisation répandue, les risques liés aux outils d'IA tiers ne sont pas souvent évalués. Alors que plus des trois quarts des organisations interrogées par les chercheurs utilisent des outils d'IA tiers, plus de la moitié des défaillances liées à l'IA découlent de l'utilisation de ces outils.


Les outils d'IA tiers sont définis comme des outils d'IA auxquels une organisation accède, qu'elle achète ou dont elle acquiert la licence.

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates. Le cofondateur de Microsoft s'est équilibré sur la question de l’intelligence artificielle : c’est l’avancée technologique la plus importante depuis des décennies. C’est en même temps une potentielle menace pour l’humanité. En gros, c’est une technologie qui peut être utilisée à des fins bénéfiques ou maléfiques. Raison pour laquelle il conseille aux chercheurs de poursuivre les travaux en la matière pour aller à la recherche de solutions aux dangers qui résulte de son utilisation. La mise sur pied des robots tueurs est l’un des domaines d’application de l’intelligence artificielle et les négociations coincent depuis plusieurs années à l’échelle internationale quant à ce qui concerne l’établissement de règles internationales contraignantes.

Reconnaissant le problème de l'IA fantôme, Simon Chesterman, directeur principal de la gouvernance de l'IA à l'institut de recherche AI Singapore, déclare que l'un des plus grands défis est « que nous ne savons pas ce que nous ne savons pas ». L'IA tierce rend ce problème encore plus difficile lorsque les équipes d'une organisation sont en mesure d'engager des fournisseurs sans suivi.

Bien qu'il n'existe pas de solution miracle pour atténuer les risques liés à l'IA tierce, ou à tout autre type de risque lié à l'IA d'ailleurs, l'utilisation d'une grande variété d'approches et de méthodes différentes pour évaluer les outils tiers semble être plus efficace que l'utilisation d'un plus petit nombre d'approches. Par exemple, les organisations qui utilisent sept méthodes différentes sont plus de deux fois plus susceptibles de découvrir des défaillances de l'IA que celles qui n'en utilisent que trois (51 % contre 24 %).

Chatbots d’IA et diffamation : les conséquences dans le monde réel

Quelques mois à peine après son lancement, l'outil ChatGPT d'OpenAI a cristallisé l'attention sur les capacités, ainsi que sur les défis et les échecs éthiques de l'intelligence artificielle. D'innombrables exemples de sujets traités par le chatbot ont vu le jour, notamment la fausse accusation de harcèlement sexuel d'un professeur de droit et l'implication d'un maire australien dans un faux scandale de corruption, ce qui a donné lieu au premier procès contre un chatbot d'IA pour diffamation.

En avril, Jonathan Turley, professeur de droit à l'université George Washington, a appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette parce qu'elle était inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un.

À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte. En développant l'histoire concernant Turley, ChatGPT a déclaré que le professeur avait fait des commentaires sexuellement suggestifs et tenté de toucher une étudiante lors d'un voyage de classe en Alaska, citant un article de mars 2018 du Washington Post comme source.

Brian Hood, maire de la ville de Hepburn Shire Council, au nord de Melbourne, en Australie, envisage de poursuivre OpenAI pour diffamation après que ses administrés ont commencé à lui dire que ChatGPT avait allégué qu'il purgeait une peine de prison pour corruption. Mais la réalité était tout autre. Non seulement, Hood affirme qu'il n'a jamais été en prison, mais qu'il est le dénonciateur qui a signalé la corruption en premier lieu. Cette histoire montre une fois de plus que le problème l'hallucination et les erreurs fréquentes de ChatGPT, mais également des chatbots d'IA concurrents, commencent à avoir des conséquences dans le monde réel.

« Il s'agit d'un élu, sa réputation est au cœur de son rôle. Ce serait potentiellement d'un moment historique dans le sens où il s'agit d'appliquer la loi sur la diffamation à un nouveau domaine de l'IA et de la publication dans le secteur des technologies de l'information », a déclaré l'avocat James Naughton, partenaire de Gordon Legal, qui représente Hood. Les administrés du maire l'ont informé que le chatbot d'IA a prétendu qu'il faisait partie des personnes reconnues coupables dans une affaire de corruption qui s'est déroulée entre 1999 et 2004 et qui impliquait une entité de la Banque de réserve d'Australie, notamment Note Printing Australia.

En avril, Samsung a fait la une des journaux lorsque trois de ses employés ont accidentellement divulgué des informations confidentielles de l'entreprise, notamment des notes de réunions internes et du code source, en les entrant dans ChatGPT. Cette nouvelle a incité de nombreuses entreprises, telles que JPMorgan et Verizon, à bloquer l'accès aux chatbots d'IA à partir des systèmes de l'entreprise. En fait, près de la moitié des entreprises interrogées dans le cadre d'une récente enquête de Bloomberg ont déclaré qu'elles travaillaient activement sur des politiques relatives à l'utilisation des chatbots par les employés, ce qui suggère qu'une part importante des entreprises a été prise au dépourvu et n'était pas préparée à ces développements.

En effet, le rythme rapide des progrès de l'IA rend plus difficile l'utilisation responsable de l'IA et exerce une pression sur les programmes d'IA responsable (RAI) pour qu'ils suivent le rythme. Par exemple, la dépendance croissante des entreprises à l'égard d'une offre florissante d'outils d'IA de tiers, ainsi que l'adoption rapide de l'IA générative - algorithmes (tels que ChatGPT, Dall-E 2 et Midjourney) qui utilisent des données d'apprentissage pour générer des textes, des images ou des sons réalistes ou apparemment factuels - les exposent à de nouveaux risques commerciaux, juridiques et de réputation qui sont difficiles à cerner.

Dans certains cas, les responsables peuvent ne pas être conscients de l'utilisation de ces outils par les employés ou d'autres personnes au sein de l'organisation - un phénomène connu sous le nom d'IA fantôme. Comme le dit Riyanka Roy Choudhury, Stanford Law CodeX fellow, « les cadres RAI n'ont pas été écrits pour faire face au nombre soudain et inimaginable de risques que les outils d'IA générative introduisent ».

Un écart croissant entre les leaders et les non-laders de d'IA responsable

Alors que les organisations du monde entier continuent à développer leurs efforts en matière d’AI responsable, l'écart entre les leaders et les non-leaders semble se creuser. Selon les chercheurs, 13 % de plus des organisations interrogées peuvent être qualifiées de leaders en RAI par rapport à l'année dernière. Cela peut s'expliquer par le fait qu'un plus grand nombre d'organisations élargissent l'échelle de leurs programmes de RAI - c'est-à-dire la mesure dans laquelle les politiques, processus et approches de RAI sont mis en œuvre et adoptés dans l'ensemble de l'organisation, plutôt que sur une base ad hoc ou semi-ad hoc. Par exemple, 7 % des organisations non leaders interrogées cette année avaient des approches de RAI à l'échelle de l'entreprise, alors qu'il n'y en avait aucune en 2022.

En outre, les scores moyens de maturité des leaders et des non leaders se sont améliorés en 2023 (respectivement de 8 % et de 2 %) par rapport à 2022. En d'autres termes, alors que les organisations dans leur ensemble ont gagné en maturité par rapport à l'année dernière, celles du groupe des leaders ont évolué 6 % plus vite, creusant davantage l'écart entre les leaders et les non-leaders.

Cette tendance est particulièrement problématique pour les organisations dont les programmes de RAI sont principalement axés sur les outils et systèmes d'IA qu'elles conçoivent et développent en interne. Le fait est que la grande majorité des organisations interrogées utilisent des outils d'IA de tiers, et qu'une majorité d'entre elles s'appuient exclusivement sur ces outils, n'ayant pas développé d'IA en interne.

Comme l'observe Linda Leopold, responsable de l'IA et des données responsables au sein du groupe H&M, « les programmes d'IA responsable devraient couvrir à la fois les outils d'IA construits en interne et les outils d'IA de tiers. Les mêmes principes éthiques doivent s'appliquer, quelle que soit l'origine du système d'IA. En fin de compte, si quelque chose devait mal tourner, il importerait peu à la personne affectée de savoir si l'outil a été construit ou acheté. » Le problème fondamental est que les programmes RAI des organisations peinent à suivre le rythme des avancées techniques en matière d'IA.

Ces progrès élargissent l'écosystème des solutions d'IA tierces disponibles et facilitent l'utilisation de l'IA dans l'ensemble de l'organisation, mais ils élargissent également la portée et la complexité des risques que les programmes de RAI doivent prendre en compte.

Alors que les entreprises font évoluer leur approche, en partie en réponse à une course de plus en plus féroce au déploiement de l'IA, certaines réorganisent leurs équipes responsables de l'IA. D'autres semblent réduire les ressources internes consacrées à l'IA responsable dans le cadre d'une tendance plus large de licenciements dans l'industrie. Ces réductions des investissements dans la RAI se produisent, sans doute, au moment où elles sont le plus nécessaires.

Les organisations des secteurs soumis à des réglementations enregistrent moins de défaillances dues à des outils d'IA tiers

Les organisations signalent des défaillances dues à tous les types d'outils d'IA. Bien qu'une forte proportion (77 %) d'organisations dans les industries soumises à des réglementations non...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !