IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un nombre croissant d'entreprises reconnaissent la nécessité d'une intelligence artificielle éthique et de confiance mais les progrès en la matière restent inégaux
Selon Capgemini

Le , par Sandra Coret

94PARTAGES

7  0 
Selon le nouveau rapport de Capgemini, 70 % des clients s'attendent à ce que les entreprises déploient une intelligence artificielle de manière transparente et basée sur des critères d’équité.

L'intelligence artificielle (IA) a le pouvoir de transformer positivement la société et l'environnement, et pour exploiter ce pouvoir à son plein potentiel, les organisations doivent se concentrer sur la résolution des défis éthiques. Selon le nouveau rapport du Capgemini Research Institute intitulé « AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust », la part des clients qui estiment que les organisations sont totalement transparentes en matière de traitement de leurs données personnelles est tombée de 76 % à 62 % entre 2019 et 2020. Il révèle également que seulement 53 % des organisations ont désigné un responsable de l’éthique pour leurs systèmes IA. De plus, la mise en place d’une gouvernance, d'outils et de cadres pragmatiques lors de son déploiement, ainsi que le traitement de la question de la responsabilité de l'IA, entraînent un coût élevé pour les organisations.

Malgré cette prise de conscience, les progrès réalisés en termes de déploiement d’une IA éthique restent inégaux : une proportion quasi identique de dirigeants par rapport à 2019 déclarent avoir progressé sur les critères d’« équité » (65 % en 2020 contre 66 % en 2019) et d’« auditabilité » (45 % en 2020 contre 46 % en 2019) de leurs systèmes IA ; de même, le critère de transparence a chuté de 73 % à 59 %, alors même que 58 % des entreprises déclarent avoir sensibilisé leurs employés aux problèmes pouvant résulter de l'utilisation de l'IA. Le rapport indique également que 70 % des clients souhaitent obtenir des explications claires et s’attendent à ce que les organisations proposent des interactions IA à la fois transparentes et respectant des critères d’équité.


Une IA discriminatoire et une mauvaise expérience client peuvent impacter sérieusement les entreprises

Alors qu’un grand nombre d’organisations publiques et privées déploient de plus en plus les technologies IA cette année, il est essentiel de maintenir la confiance des clients en mettant en place des interactions positives avec l’IA. Des études montrent cependant que les données collectées pour le secteur de la santé et le secteur public sont soumises à des biais de nature sociale et culturelle.

Ce problème ne concerne pas uniquement les institutions publiques. Le rapport de Capgemini révèle en effet que 65 % des dirigeants sont conscients des biais discriminatoires dans les systèmes d’IA. De plus, au cours des deux ou trois dernières années, près de 60 % des organisations ont fait l’objet d’un examen juridique et 22 % ont été confrontées à des réactions négatives de la part de leurs clients en raison de décisions prises par leurs systèmes d’IA. De fait, 45 % des clients affirment en effet qu’ils n’hésiteraient pas à parler de leurs expériences négatives à leur famille et à leurs amis, en leur recommandant d’éviter l’organisation concernée. 39 % se disent également prêts à faire part de leurs préoccupations aux organisations et à leur demander des explications, et 39 % sont disposés à passer d’un canal IA à une interaction humaine plus coûteuse. Plus d’un quart (27 %) des consommateurs se disent également prêts à ne plus avoir affaire avec l’entreprise en question.

Les leaders doivent assumer leur responsabilité sur la question éthique

Seuls 53 % des organisations ont désigné un responsable de l’éthique ou ‘Chief Ethics Officer’ de leurs systèmes IA au sein de leur entreprise. Il est pourtant essentiel d’établir un leadership de haut niveau pour s’assurer que la question éthique de l’IA est traitée en priorité par la direction et pour garantir la robustesse des systèmes mis en place.

De plus, la responsabilité sur le plan éthique des conséquences liées aux applications IA doit intégralement incomber à la fois aux directions business et technologies des entreprises. Selon le rapport, seule la moitié des interrogés indique disposer d’une hotline confidentielle ou d’un médiateur pour permettre aux clients et aux collaborateurs de l’entreprise de signaler des problèmes éthiques liés à l’IA.

Une gouvernance éthique de l’IA est devenue un prérequis

La nécessité des chartes d’éthique en entreprise est également portée par la multiplication des cadres réglementaires. La Commission européenne a par exemple publié des directives sur les principes éthiques clés à respecter dans le cadre du développement des applications IA. Début 2020, la Federal Trade Commission (FTC) des États-Unis a également émis des recommandations en faveur de la transparence des IA indiquant que, face à une décision négative prise par un système IA (par exemple, le refus d’une demande d’emprunt faite par un client), l’organisation devrait montrer au client concerné les principales données utilisées dans le processus décisionnel, puis l’autoriser à modifier toute information incorrecte. En 2019, 73 % des organisations à travers le monde indiquaient qu’elles informaient leurs utilisateurs sur l’impact potentiel des décisions de l’IA, mais elles ne sont plus que 59 % à le faire aujourd’hui.

Selon le rapport, cette tendance repose sur plusieurs éléments : le contexte actuel créé par la pandémie de Covid-19, et ses dimensions sociétales et environnementales, la complexité croissante des systèmes IA, mais aussi l’évolution des comportements des consommateurs. D’où un bouleversement dans les fonctionnalités des modèles IA existants. Les entreprises repensent leurs systèmes pour s’adapter à cette réalité, faire face à de nouveaux facteurs – tels qu’un penchant accru pour la sécurité ou les achats en gros – et combler le manque de recul et de données sur des situations similaires qui auraient eu lieu par le passé. Malheureusement, ces changements ont nui à la transparence.

Le rapport conclut sur sept recommandations pour aider les organisations à concevoir et déployer une IA robuste sur le plan éthique, chacune s’appuyant sur des fondations solides en termes de leadership, gouvernance et pratiques internes.

  • Indiquer clairement l’objectif visé par les systèmes IA et leur impact potentiel
  • Déployer une IA qui soit pensée proactivement au service de la société et de l’environnement
  • Intégrer d’office des critères de diversité et d’inclusion tout au long du cycle de vie des systèmes IA
  • Renforcer la transparence au moyen d’outils technologiques
  • Rendre l’expérience IA plus humaine et s’assurer que les systèmes IA sont contrôlés par l’humain
  • Garantir la robustesse technologique des systèmes IA
  • Protéger la vie privée des utilisateurs en leur donnant plus de pouvoir en termes de contrôle des interactions IA



[I]« Compte tenu de son potentiel, une utilisation éthique de l'IA devrait bien sûr garantir l'absence de préjudice pour l’humain, ainsi que la pleine responsabilité humaine en cas de problème. Mais au-delà de ce prérequis, il existe une opportunité tangible de déployer une IA qui soit pensée proactivement au...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eomer212
Membre confirmé https://www.developpez.com
Le 11/10/2020 à 21:16
en clair, oui, c'est ca.
comment conquérir de nouveaux marchés?? en les créant..
exiger des IA ethiques. faudrait déja qu'elles arrivent à 'comprendre' le sens du concept. et on en est loin.
mais ca constitue encore un argumentaire marketing de plus pour tous les cadres dirigeants qui cherchent de nouveaux mots creux à rajouter à leur dictionnaire de communiquant.. risible ou pitoyable, entre les 2 je balance encore.
1  0