IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les défis de l'IA responsable : les outils d'IA tiers seraient la cause de 55 % des échecs de l'IA dans les entreprises
Selon une étude du MIT Sloan Management Review et le Boston Consulting Group

Le , par Bruno

18PARTAGES

2  0 
Les risques et les échecs des systèmes d'IA sont plus palpables et plus nombreux que jamais. Selon une enquête menée par le MIT Sloan Management Review et le Boston Consulting Group, les outils d’IA tiers sont responsables de plus de 55 % des échecs liés à l’IA dans les organisations. Les entreprises n’ont pas entièrement adapté leurs programmes de gestion des risques des tiers au contexte de l’IA ou aux défis liés au déploiement en toute sécurité de systèmes complexes tels que les produits d’IA générative. Les échecs pourraient entraîner une atteinte à la réputation, des pertes financières, une perte de confiance des consommateurs, voire des litiges.

Malgré une utilisation répandue, les risques liés aux outils d'IA tiers ne sont pas souvent évalués. Alors que plus des trois quarts des organisations interrogées par les chercheurs utilisent des outils d'IA tiers, plus de la moitié des défaillances liées à l'IA découlent de l'utilisation de ces outils.


Les outils d'IA tiers sont définis comme des outils d'IA auxquels une organisation accède, qu'elle achète ou dont elle acquiert la licence.

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates. Le cofondateur de Microsoft s'est équilibré sur la question de l’intelligence artificielle : c’est l’avancée technologique la plus importante depuis des décennies. C’est en même temps une potentielle menace pour l’humanité. En gros, c’est une technologie qui peut être utilisée à des fins bénéfiques ou maléfiques. Raison pour laquelle il conseille aux chercheurs de poursuivre les travaux en la matière pour aller à la recherche de solutions aux dangers qui résulte de son utilisation. La mise sur pied des robots tueurs est l’un des domaines d’application de l’intelligence artificielle et les négociations coincent depuis plusieurs années à l’échelle internationale quant à ce qui concerne l’établissement de règles internationales contraignantes.

Reconnaissant le problème de l'IA fantôme, Simon Chesterman, directeur principal de la gouvernance de l'IA à l'institut de recherche AI Singapore, déclare que l'un des plus grands défis est « que nous ne savons pas ce que nous ne savons pas ». L'IA tierce rend ce problème encore plus difficile lorsque les équipes d'une organisation sont en mesure d'engager des fournisseurs sans suivi.

Bien qu'il n'existe pas de solution miracle pour atténuer les risques liés à l'IA tierce, ou à tout autre type de risque lié à l'IA d'ailleurs, l'utilisation d'une grande variété d'approches et de méthodes différentes pour évaluer les outils tiers semble être plus efficace que l'utilisation d'un plus petit nombre d'approches. Par exemple, les organisations qui utilisent sept méthodes différentes sont plus de deux fois plus susceptibles de découvrir des défaillances de l'IA que celles qui n'en utilisent que trois (51 % contre 24 %).

Chatbots d’IA et diffamation : les conséquences dans le monde réel

Quelques mois à peine après son lancement, l'outil ChatGPT d'OpenAI a cristallisé l'attention sur les capacités, ainsi que sur les défis et les échecs éthiques de l'intelligence artificielle. D'innombrables exemples de sujets traités par le chatbot ont vu le jour, notamment la fausse accusation de harcèlement sexuel d'un professeur de droit et l'implication d'un maire australien dans un faux scandale de corruption, ce qui a donné lieu au premier procès contre un chatbot d'IA pour diffamation.

En avril, Jonathan Turley, professeur de droit à l'université George Washington, a appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette parce qu'elle était inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un.

À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte. En développant l'histoire concernant Turley, ChatGPT a déclaré que le professeur avait fait des commentaires sexuellement suggestifs et tenté de toucher une étudiante lors d'un voyage de classe en Alaska, citant un article de mars 2018 du Washington Post comme source.

Brian Hood, maire de la ville de Hepburn Shire Council, au nord de Melbourne, en Australie, envisage de poursuivre OpenAI pour diffamation après que ses administrés ont commencé à lui dire que ChatGPT avait allégué qu'il purgeait une peine de prison pour corruption. Mais la réalité était tout autre. Non seulement, Hood affirme qu'il n'a jamais été en prison, mais qu'il est le dénonciateur qui a signalé la corruption en premier lieu. Cette histoire montre une fois de plus que le problème l'hallucination et les erreurs fréquentes de ChatGPT, mais également des chatbots d'IA concurrents, commencent à avoir des conséquences dans le monde réel.

« Il s'agit d'un élu, sa réputation est au cœur de son rôle. Ce serait potentiellement d'un moment historique dans le sens où il s'agit d'appliquer la loi sur la diffamation à un nouveau domaine de l'IA et de la publication dans le secteur des technologies de l'information », a déclaré l'avocat James Naughton, partenaire de Gordon Legal, qui représente Hood. Les administrés du maire l'ont informé que le chatbot d'IA a prétendu qu'il faisait partie des personnes reconnues coupables dans une affaire de corruption qui s'est déroulée entre 1999 et 2004 et qui impliquait une entité de la Banque de réserve d'Australie, notamment Note Printing Australia.

En avril, Samsung a fait la une des journaux lorsque trois de ses employés ont accidentellement divulgué des informations confidentielles de l'entreprise, notamment des notes de réunions internes et du code source, en les entrant dans ChatGPT. Cette nouvelle a incité de nombreuses entreprises, telles que JPMorgan et Verizon, à bloquer l'accès aux chatbots d'IA à partir des systèmes de l'entreprise. En fait, près de la moitié des entreprises interrogées dans le cadre d'une récente enquête de Bloomberg ont déclaré qu'elles travaillaient activement sur des politiques relatives à l'utilisation des chatbots par les employés, ce qui suggère qu'une part importante des entreprises a été prise au dépourvu et n'était pas préparée à ces développements.

En effet, le rythme rapide des progrès de l'IA rend plus difficile l'utilisation responsable de l'IA et exerce une pression sur les programmes d'IA responsable (RAI) pour qu'ils suivent le rythme. Par exemple, la dépendance croissante des entreprises à l'égard d'une offre florissante d'outils d'IA de tiers, ainsi que l'adoption rapide de l'IA générative - algorithmes (tels que ChatGPT, Dall-E 2 et Midjourney) qui utilisent des données d'apprentissage pour générer des textes, des images ou des sons réalistes ou apparemment factuels - les exposent à de nouveaux risques commerciaux, juridiques et de réputation qui sont difficiles à cerner.

Dans certains cas, les responsables peuvent ne pas être conscients de l'utilisation de ces outils par les employés ou d'autres personnes au sein de l'organisation - un phénomène connu sous le nom d'IA fantôme. Comme le dit Riyanka Roy Choudhury, Stanford Law CodeX fellow, « les cadres RAI n'ont pas été écrits pour faire face au nombre soudain et inimaginable de risques que les outils d'IA générative introduisent ».

Un écart croissant entre les leaders et les non-laders de d'IA responsable

Alors que les organisations du monde entier continuent à développer leurs efforts en matière d’AI responsable, l'écart entre les leaders et les non-leaders semble se creuser. Selon les chercheurs, 13 % de plus des organisations interrogées peuvent être qualifiées de leaders en RAI par rapport à l'année dernière. Cela peut s'expliquer par le fait qu'un plus grand nombre d'organisations élargissent l'échelle de leurs programmes de RAI - c'est-à-dire la mesure dans laquelle les politiques, processus et approches de RAI sont mis en œuvre et adoptés dans l'ensemble de l'organisation, plutôt que sur une base ad hoc ou semi-ad hoc. Par exemple, 7 % des organisations non leaders interrogées cette année avaient des approches de RAI à l'échelle de l'entreprise, alors qu'il n'y en avait aucune en 2022.

En outre, les scores moyens de maturité des leaders et des non leaders se sont améliorés en 2023 (respectivement de 8 % et de 2 %) par rapport à 2022. En d'autres termes, alors que les organisations dans leur ensemble ont gagné en maturité par rapport à l'année dernière, celles du groupe des leaders ont évolué 6 % plus vite, creusant davantage l'écart entre les leaders et les non-leaders.

Cette tendance est particulièrement problématique pour les organisations dont les programmes de RAI sont principalement axés sur les outils et systèmes d'IA qu'elles conçoivent et développent en interne. Le fait est que la grande majorité des organisations interrogées utilisent des outils d'IA de tiers, et qu'une majorité d'entre elles s'appuient exclusivement sur ces outils, n'ayant pas développé d'IA en interne.

Comme l'observe Linda Leopold, responsable de l'IA et des données responsables au sein du groupe H&M, « les programmes d'IA responsable devraient couvrir à la fois les outils d'IA construits en interne et les outils d'IA de tiers. Les mêmes principes éthiques doivent s'appliquer, quelle que soit l'origine du système d'IA. En fin de compte, si quelque chose devait mal tourner, il importerait peu à la personne affectée de savoir si l'outil a été construit ou acheté. » Le problème fondamental est que les programmes RAI des organisations peinent à suivre le rythme des avancées techniques en matière d'IA.

Ces progrès élargissent l'écosystème des solutions d'IA tierces disponibles et facilitent l'utilisation de l'IA dans l'ensemble de l'organisation, mais ils élargissent également la portée et la complexité des risques que les programmes de RAI doivent prendre en compte.

Alors que les entreprises font évoluer leur approche, en partie en réponse à une course de plus en plus féroce au déploiement de l'IA, certaines réorganisent leurs équipes responsables de l'IA. D'autres semblent réduire les ressources internes consacrées à l'IA responsable dans le cadre d'une tendance plus large de licenciements dans l'industrie. Ces réductions des investissements dans la RAI se produisent, sans doute, au moment où elles sont le plus nécessaires.

Les organisations des secteurs soumis à des réglementations enregistrent moins de défaillances dues à des outils d'IA tiers

Les organisations signalent des défaillances dues à tous les types d'outils d'IA. Bien qu'une forte proportion (77 %) d'organisations dans les industries soumises à des réglementations non spécifiques à l'IA utilisent des outils d'IA tiers, elles enregistrent 12 % de moins de défaillances dues à ces outils que leurs homologues dans les industries non soumises à ces réglementations.


En revanche, le moment est venu pour les organisations de redoubler d'efforts et d'affirmer leur engagement en faveur de la RAI. Les PDG peuvent jouer un rôle clé en garantissant l'engagement d'une organisation en faveur de la RAI, ainsi qu'en soutenant les investissements nécessaires. L'engagement du PDG dans un programme de RAI peut aider une organisation à identifier et à traiter les risques existants et contribuer à un meilleur sentiment de préparation pour l'avenir.

Les organisations dont le PDG joue un rôle concret dans les efforts de RAI (par exemple en s'engageant dans les recrutements liés à la RAI, dans la mise en œuvre de la RAI ou des discussions au niveau des produits, ou en fixant des objectifs de performance liés à la RAI) rapportent 58 % plus d'avantages commerciaux que les organisations dont le PDG est moins impliqué, quel que soit le statut du leader.

(De plus, les organisations dont le PDG est directement impliqué dans le RAI sont plus susceptibles d'investir dans le RAI que les organisations dont le PDG n'intervient pas (39 % contre 22 %).

En résumé, l'engagement significatif du PDG dans la RAI est important pour toutes les organisations ; plus l'engagement est important, plus ses bénéfices semblent importants.

Le paysage de l'IA a changé de façon spectaculaire au cours de l'année écoulée, et ce qui n'était que des projets de recherche et de développement est soudain devenu un déploiement commercial. La technologie, et l'IA générative en particulier, a été rapidement adoptée par des outils grand public et des outils d'entreprise dans une grande variété de cas d'utilisation et d'applications. Parallèlement à cette adoption rapide, les risques et les échecs des systèmes d'IA sont plus palpables et plus nombreux.

De nombreuses entreprises ont été prises au dépourvu par la propagation de l'utilisation de l'IA dans l'ombre au sein de l'entreprise. Dans ce contexte, ne pas investir dans la RAI équivaut à prendre du retard et à exposer l’organisation à un risque important. Même si on peut avoir l'impression que la technologie dépasse les capacités du programme de RAI, la solution consisterait selon les chercheurs à renforcer l’engagement en faveur de la RAI, et non à l'abandonner.

Les récents développements démontrent l'urgence de la RAI et réaffirment également l'idée selon laquelle être un leader de la RAI a plus à voir avec le fait d'être une organisation responsable qu'avec la technologie de l'IA elle-même.

Sources : MIT Sloan Management Review and Boston Consulting Group

Et vous ?

Les conclusions des chercheurs qui estiment les outils d'IA tiers sont responsables de 55 % des échecs de l'IA dans les entreprises sont-elles pertinentes ?

Quels sont selon vous les principaux défis auxquels les programmes d’IA responsable sont confrontés lorsqu’ils couvrent à la fois les outils d’IA construits en interne et les outils d’IA de tiers ?

Comprenez-vous pourquoi certaines entreprises réduisent les ressources internes consacrées à l’IA responsable malgré une demande croissante de déploiement de l’IA ? Quelles pourraient être les conséquences de ces réductions ?

Quels sont les risques liés à l’utilisation d’outils d’IA tiers ? Comment ces risques peuvent-ils être évalués et atténués ?

Voir aussi :

Comment ChatGPT crée de fausses histoires de toutes pièces pour diffamer lourdement des innocents, cela donne-t-il raison aux détracteurs des chatbots ?

42 % des entreprises n'utilisent pas encore le plein potentiel de l'IA et 44 % des dirigeants ne perçoivent pas encore la valeur stratégique des données, d'après une étude de Devoteam

ChatGPT peut maintenant « voir, entendre et parler », selon OpenAI, mais les nouvelles fonctionnalités soulèvent des questions de confidentialité et de sécurité

Une erreur dans cette actualité ? Signalez-nous-la !