L’IA est un élément clé dans l’informatique des temps modernes qui a gagné tous les secteurs d’activité dans le monde, que ce soit la santé, le commerce, l’économie, l’éducation, l'automobile, pour ne citer que ceux-là. Mais pendant que certains pensent qu’elle rendra l'homme plus efficace dans son travail, des futuristes y voient une menace pour la démocratie telle que nous la connaissons, mettant en garde contre une époque où l’intelligence artificielle pourra s’améliorer d’elle-même, dépassant ainsi l’homme. D’où la nécessité de la mise en œuvre d’une intelligence artificielle qui serait capable de suivre des normes éthiques. Mais ce défi pourrait s’avérer beaucoup plus complexe, selon un article publié sur OneZero en janvier 2020 par Tom Chatfield, auteur et philosophe technologique britannique.
Selon Chatfield, les quelques rubriques sur lesquelles les entreprises de l’IA comme Microsoft, IBM et DeepMind de Google basent leurs principes éthiques pour le développement de l’IA consistent dans les points suivants : L'intelligence artificielle doit utiliser l’équité dans le traitement de toutes les personnes, donner à chacun les moyens d'agir, être fiable et sûre, être compréhensible, sécurisée et respectueuse de la vie privée, et avoir une responsabilité algorithmique. Elle doit être conforme aux valeurs humaines existantes, être explicable, être équitable et respecter les droits des utilisateurs en matière de données.
Elle doit être utilisée à des fins socialement bénéfiques et toujours rester sous un contrôle humain significatif. La responsabilité des créateurs de l’IA est également engagée à une époque où les systèmes automatisés sont impliqués dans toutes les facettes de l'existence humaine. Et tout ceci est une bonne chose, selon Chatfield. Il rapporte que les technologues seraient convaincus que les codes d'IA sont des recettes pour automatiser l'éthique elle-même, et qu'une fois que la majorité serait d’accord avec ces codes, « le problème de la détermination d'une direction future éthiquement positive pour le code informatique aura commencé à être résolu ».
Selon Chatfield, alors même que le monde prend conscience de l'importance de ce domaine, une tendance troublante est évidente lorsqu'il est question de la manière dont les codes d'éthique de l'IA sont discutés. Pour la simple raison du manque de consensus sur ce qui est éthique, l’auteur dit que nous ne pouvons pas le programmer. « Il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière que tout être rationnel acceptera », a-t-il écrit.
Pour soutenir sa thèse, l’auteur cite un article paru dans Nature Machine Intelligence de septembre 2019. Selon cet article, alors qu'il y a « une convergence mondiale émergeant autour de cinq principes éthiques (transparence, justice et équité, non-malfaisance, responsabilité et vie privée) », la signification précise de ces principes est toute une autre affaire. Il subsiste « une divergence de fond sur la manière dont ces principes sont interprétés, sur les raisons pour lesquelles ils sont jugés importants, sur la problématique, le domaine ou les acteurs auxquels ils se rapportent et sur la manière dont ils devraient être mis en œuvre ». En d'autres termes, selon Chatfield, les codes éthiques ressemblent beaucoup moins à des codes informatiques que leurs créateurs pourraient le souhaiter.
Les points de vue éthiques varient en fonction des priorités, selon l’auteur
Pour le philosophe technologique, la question d’IA éthique sera encore longtemps débattue, en grande partie parce qu'il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière qui convienne à tout être rationnel. En fonction de vos priorités, vos points de vue éthiques seront inévitablement incompatibles avec ceux de certaines autres personnes d'une manière qu'aucun raisonnement ne pourra résoudre, écrit-il.
« Qui, alors, peut dire à quoi ressemble un équilibre optimal entre vie privée et sécurité - ou ce que l'on entend par un objectif socialement bénéfique ? Et si nous ne pouvons pas nous entendre sur ce point entre nous, comment pouvons-nous apprendre à une machine à incarner des valeurs "humaines" ? », s’est-il interrogé.
L’auteur rapporte que la plupart des codes éthiques d'IA existants reconnaissent de différentes manières la difficulté à mettre en œuvre une IA éthique. Selon lui, DeepMind reconnaît que « différents groupes de personnes ont des valeurs différentes, ce qui signifie qu'il est difficile de s'accorder sur des principes universels ». Par conséquent, « la collaboration, la diversité de pensée et un engagement public significatif sont essentiels si nous voulons développer et appliquer l'IA pour un bénéfice maximum », a déclaré DeepMind. Selon l’auteur, cette déclaration est une franchise louable, mais pour lui l’IA éthique n’existe pas.
En 2019, le comité d’éthique de l’IA que Google a mis en place a été dissout une semaine après, après de nombreuses controverses à son encontre. Plusieurs membres du conseil faisaient l’objet de critiques de la part de communauté, de certains employés de la société elle-même et d’autres personnalités influentes. Des milliers d’employés de Google ont signé une pétition appelant à la destitution d’un membre du conseil d’administration, la présidente de la Heritage Foundation, Kay Coles James, pour ses commentaires sur les personnes transgenres et le scepticisme de son organisation à l’égard des changements climatiques.
L’"IA éthique" n’existe pas, de même qu’un ensemble unique d'instructions indiquant comment être bon, d’après Chatfield
« C'est le fait qu'il n'existe pas d'IA éthique, pas plus qu'il n'existe un seul ensemble d'instructions indiquant comment être bon - et que notre fascination actuelle pour l'"intérieur" des processus automatisés ne fait que nous éloigner davantage des contextes humains contestés dans lesquels les valeurs et les conséquences existent réellement », écrit-il.
En 2018, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui prendrait en compte d’autres contraintes telles que les règles éthiques et comportementales en plus des préférences de l’utilisateur. Les chercheurs ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants.
Les chercheurs ont toutefois rappelé qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, en ce qui concerne le modèle des chercheurs, un arbitre a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus. En ce qui concerne l’avis de Chatfield, on pourrait se demander comment définir cet arbitrage pour rencontrer les intérêts de tous.
Après une série de consultations qui a duré 15 mois avec des acteurs de l’industrie civile, le gouvernement, le monde académique et les citoyens américains, le Département américain de la Défense a publié en février dernier cinq principes éthiques que l’armée américaine s’engage à observer dans l’utilisation de l’intelligence artificielle. Cet effort a été placé sous le signe de la sauvegarde d’un « ordre mondial fondé sur des règles » dans le cadre des investissements massifs des États-Unis et de leurs alliés pour la maîtrise de l’IA au service de la sécurité nationale et internationale. Encore là, les règles de l’éthique sont fonction d’un objectif bien défini.
« N'oublions pas que nous savons déjà ce que veulent beaucoup des systèmes automatisés les plus puissants du monde, dans le sens des fins auxquelles ils sont destinés : l'augmentation de la valeur actionnariale pour des entreprises comme Google, Amazon et Facebook, et l'autonomisation des États totalitaires technocratiques comme la Chine. Toute discussion sérieuse sur ces systèmes exige une attention lucide aux objectifs qu'ils poursuivent et aux conséquences vécues de ceux-ci. En d'autres termes, le défi est avant tout politique et social, et non technologique », a écrit Chatfield.
Selon le point de vue de l'auteur, nous ne sommes pas d'accord sur ce qui est éthique, alors il sera difficile de le programmer. Mais selon un commentateur, les modèles IA d'aujourd'hui ne sont pas un mécanisme permettant de comprendre et d'équilibrer une multitude d'intérêts et d'exigences. « Elles sont en fait des machines de reconnaissance de formes, qui font correspondre des données à des catégories (ou des résultats, etc.). Ainsi, même si vous aviez formulé certains critères, une IA ne pourrait pas vraiment faire cela », a-t-il écrit. Et vous, qu’en pensez-vous ?
Source : Billet Blog de Tom Chatfield
Et vous ?
Qu’en pensez-vous ?
L’IA éthique n’existe pas, selon Tom Chatfield. Quel commentaire en faites-vous ? Que pensez-vous des arguments de Tom Chatfield ?
Selon vous, quelles sont les difficultés qu’il y a à programmer une IA éthique ?
Lire aussi
Le PDG de Google, Sundar Pichai, déclare qu'il ne fait aucun doute que l'IA doit être réglementée, au risque de laisser les forces du marché décider comment utiliser ces technologies
IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique, a été mis au point par des chercheurs d'IBM et du MIT
Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis, dans le domaine militaire
Des chercheurs se penchent sur l'IA éthique
L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code,
Mais ces défis seraient beaucoup plus complexes, selon un auteur
L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code,
Mais ces défis seraient beaucoup plus complexes, selon un auteur
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !