Alors que des groupes d'étude continuent de publier des documents proposant les principes d'une conception éthique de l'IA, des experts doutent que la conception éthique de l'IA soit largement adoptée au cours de la prochaine décennie, selon un nouveau rapport publié par le Pew Research Center et le Imaging the Internet Center d’Elon University. Dans une enquête menée auprès de 602 innovateurs technologiques, chefs d'entreprise et responsables politiques, chercheurs et activistes, une majorité s'inquiètent du fait que l'évolution de l'IA d'ici 2030 continuera à être principalement axée sur l'optimisation des profits et le contrôle social et que les parties prenantes auront du mal à parvenir à un consensus sur l'éthique.
Les entreprises et les gouvernements se lancent de plus en plus dans le développement de l'IA. De plus en plus, les non-programmeurs peuvent mettre en place des outils d'IA prêts à l'emploi et préconstruits, selon leurs préférences. Au fur et à mesure de cette évolution, un certain nombre d'experts et de défenseurs dans le monde entier s'inquiètent de l'impact et des implications à long terme des applications de l'IA. Ils s'inquiètent de la façon dont les progrès de l'IA affecteront ce que cela signifie d'être humain, d'être productif et d'exercer son libre arbitre. Mais les acteurs sont unanimes sur une chose : une conception éthique de l'IA est la solution aux potentielles dérives de cette technologie.
Mettre en œuvre l'IA de manière éthique signifie différentes choses pour différentes entreprises. Pour certaines, "éthique" implique d'adopter l'IA – à laquelle les gens sont naturellement enclins à faire confiance même lorsqu'elle est malveillante – d'une manière transparente, responsable et redevable. Pour d'autres, il s'agit de s'assurer que leur utilisation de l'IA reste conforme aux lois, aux règlements, aux normes, aux attentes des clients et aux valeurs organisationnelles. Dans tous les cas, l'IA "éthique" promet de se prémunir contre l'utilisation de données ou d'algorithmes biaisés, en donnant l'assurance que les décisions automatisées sont justifiées et explicables.
Dans ce contexte, le Pew Research Center et le Imagining the Internet Center d’Elon University ont demandé à des experts où en seraient, selon eux, les efforts visant à créer une intelligence artificielle éthique en 2030. "D'ici 2030, la plupart des systèmes d'IA utilisés par des organisations de toutes sortes utiliseront-ils des principes éthiques axés principalement sur le bien public ?"
Selon le rapport d’enquête, 68 % ont prédit que les principes éthiques destinés à soutenir le bien public ne seront pas employés dans la plupart des systèmes d'IA d'ici 2030, tandis que seulement 32 % ont cru que ces principes seront intégrés dans les systèmes d'ici 2030. Les réponses écrites de ces experts ont été recueillies au cours de l'été 2020.
« Ces systèmes sont... principalement construits dans le contexte d'un capitalisme tardif, qui fétichise l'efficacité, l'échelle et l'automatisation », a déclaré Danah Boyd, chercheuse principale chez Microsoft, à Pew et à Elon University. « Une position véritablement éthique sur l'IA exige que nous nous concentrions sur l'augmentation, le contexte localisé et l'inclusion, trois objectifs qui sont aux antipodes des valeurs justifiées par le capitalisme tardif. Nous ne pouvons pas parler utilement d'IA éthique tant que nous ne pouvons pas remettre en question les logiques du capitalisme tardif ».
Le pionnier de l'Internet Vint Cerf, qui a participé à l'enquête, prévoit que, même s'il y aura un « effort de bonne foi » pour adopter une conception éthique de l'IA, les bonnes intentions ne donneront pas nécessairement les résultats escomptés. « L'apprentissage automatique n'en est qu'à ses débuts, et notre capacité à prédire divers types d'échecs et leurs conséquences est limitée », a-t-il déclaré. « L'espace de conception de l'apprentissage automatique est énorme et largement inexploré. Si nous avons du mal avec les logiciels ordinaires dont le comportement est au moins analytique, l'apprentissage automatique est une autre histoire ».
La lenteur des progrès de l'industrie et des régulateurs pour freiner l'utilisation de l'IA nuisible rend la bataille difficile
Alors même que l'attention mondiale se tourne vers l'objectif et l'impact de l'intelligence artificielle, de nombreux experts s'inquiètent du fait que les comportements et les résultats éthiques sont difficiles à définir, à mettre en œuvre et à faire respecter. Le contrôle de l'IA est concentré entre les mains d'entreprises et de gouvernements puissants, mus par des motifs autres que des préoccupations éthiques, selon le rapport. Selon la majorité des répondants, au cours de la prochaine décennie, le développement de l'IA continuera de viser à trouver des moyens toujours plus sophistiqués d'exercer une influence sur les émotions et les croyances des gens afin de les convaincre d'acheter des biens, des services et des idées.
Selon ces experts, le génie de l'IA est déjà sorti de sa bouteille, des abus se produisent déjà, et certains sont peu visibles et difficiles à corriger. « Les applications de l'IA sont déjà à l'œuvre dans des systèmes "boîtes noires", au mieux opaques, au pire impossibles à disséquer. Comment appliquer des normes éthiques dans ces conditions ? Si l'histoire a montré que lorsque des abus surviennent à la suite de l'introduction de nouveaux outils, les sociétés s'adaptent toujours et s'efforcent de trouver des remèdes, cette fois-ci, c'est différent. L'IA constitue une menace majeure », lit-on dans le rapport.
Les sentiments des répondants reflètent la lenteur des progrès de l'industrie et des régulateurs pour freiner l'utilisation de l'IA nuisible. La législation fédérale clé aux États-Unis reste au point mort, y compris les interdictions de la reconnaissance faciale et des algorithmes discriminatoires sur les médias sociaux. Selon une récente enquête du Boston Consulting Group, moins de la moitié des entreprises ont mis en œuvre une IA responsable et parfaitement mature. Selon un autre rapport, celui de Corinium and FICO publié en mai, 65 % des entreprises ne peuvent pas expliquer comment les prédictions de leur IA sont faites, tandis que seulement 38 % ont des étapes d'atténuation des préjugés intégrées dans leurs processus de développement de modèles.
« Pour l'IA, il suffit de substituer "traitement numérique". Nous n'avons aucune raison de croire que l'esprit animal de ceux qui conçoivent les services de traitement numérique, avides d'échelle et de rentabilité, sera bridé par une quelconque mémoire interne de l'éthique, et nous n'avons aucune institution qui pourrait imposer ces contraintes à l'extérieur », a noté dans le rapport de Pew et d’Elon University Susan Crawford, professeur à la Harvard Law School et ancienne assistante spéciale de la Maison-Blanche sous Obama pour la politique de la science, de la technologie et de l'innovation.
Malgré ces revers, certains experts nourrissent de l’espoir de parvenir à une IA éthique par le moyen de l’IA elle-même. « Le déploiement ininterrompu de nouvelles IA est inévitable. Le développement de stratégies de réduction des dommages est également inévitable. En effet, les systèmes d'IA eux-mêmes peuvent être utilisés pour identifier et résoudre les problèmes découlant de systèmes non éthiques. L'attention mondiale de haut niveau portée à l'IA éthique ces dernières années a été productive et fait progresser la société vers un accord sur l'idée que le développement futur de l'IA devrait se concentrer sur la bienfaisance, la non-malfaisance, l'autonomie et la justice », lit-on dans le rapport.
Par ailleurs, des développements récents suggèrent que le vent pourrait tourner, du moins dans certains domaines. En avril, la Commission européenne, l'organe exécutif de l'Union européenne, a annoncé des réglementations sur l'utilisation de l'IA, y compris des garanties strictes sur les algorithmes de recrutement, d'infrastructures critiques, d'évaluation du crédit, de migration et d'application de la loi.
Des villes comme Amsterdam et Helsinki ont lancé des registres de l'IA qui détaillent la manière dont chaque administration municipale utilise les algorithmes pour fournir des services. Et le National Institute of Standards and Technology (NIST), une agence du ministère américain du Commerce qui promeut la science des mesures, a proposé une méthode pour évaluer la confiance des utilisateurs dans les systèmes d'IA.
Les géants de la technologie s’inquiètent également du danger que peut représenter l'IA lorsqu'elle n'est pas développée avec soin. Google a lancé des programmes sur le thème de l'« IA responsable ». Le travail sur l'IA de Google est basé sur deux principes qui sont « être responsable envers les gens » et « éviter de créer ou de renforcer des préjugés injustes ». Cela inclut le développement de systèmes d'intelligence artificielle interprétables qui placent les personnes au premier plan de chaque étape du processus de développement tout en garantissant que les préjugés injustes qu'un être humain peut avoir ne se reflètent pas dans les résultats d'un modèle.
Source : Rapport d’enquête
Et vous ?
Les experts doutent que la conception éthique de l'IA soit largement adoptée comme la norme d'ici 2030, selon le rapport. Quel commentaire en faites-vous ?
Selon vous, pourquoi sera-t-il difficile de parvenir à un consensus sur l’IA éthique ?
"En effet, les systèmes d'IA eux-mêmes peuvent être utilisés pour identifier et résoudre les problèmes découlant de systèmes non éthiques", d’après certains experts. Qu’en pensez-vous ?
Voir aussi :
Des chercheurs se penchent sur l'IA éthique
L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur
Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis, dans le domaine militaire
L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
Des experts doutent que la conception éthique de l'IA soit largement adoptée comme la norme d'ici 2030,
L'optimisation des profits et le contrôle social continueraient à guider l'évolution de l'IA
Des experts doutent que la conception éthique de l'IA soit largement adoptée comme la norme d'ici 2030,
L'optimisation des profits et le contrôle social continueraient à guider l'évolution de l'IA
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !