L'intelligence artificielle n'est pas une technologie verte
Kate Crawford est professeure de communication et d'études scientifiques et technologiques à l'université de Californie du Sud et chercheuse principale chez Microsoft Research. Elle concentre ses études sur les implications sociales et politiques de l'intelligence artificielle. Dans son livre "Atlas of AI" paru récemment, elle a passé en revue le processus de développement de l'IA ainsi que ses implications dans la vie de tout le monde. Invitée par The Guardian pour parler de son livre, Crawford a donné son avis sur ce qu'est l'IA, ce qu'elle n'est pas et la façon dont les systèmes d'IA sont construits.
Kate Crawford
L'intelligence artificielle (IA) est une branche de l'informatique qui s'intéresse à la construction de machines intelligentes capables d'effectuer des tâches qui requièrent généralement l'intelligence humaine. C'est ainsi qu'est généralement définie l'IA, mais l'analyse des propos de Crawford lors de son interview montre qu'elle semble être opposée à cette définition. Sa perception de ce qu'est l'IA, dans sa forme actuelle, est différente de celle que les entreprises de l'industrie nous présentent. À en croire ses critiques sur la technologie, le terme "intelligence artificielle" utilisé dans l'industrie serait une forme de battage médiatique. Certains disent la même chose de la blockchain.
Selon elle, la vision de l'IA qui est abstraite et immatérielle est "fausse". Crawford a déclaré que la fabrication des produits de l'IA regroupe des processus de travail et des logiques de classification et qu'elle a un coût important en ressources naturelles (les ressources minières). En raison de son impact environnemental, Crawford a déclaré que l'IA n'est pas une technologie verte et que l'industrie mettra encore de nombreuses années pour atteindre ce point. Bien qu'elle travaille sur l'IA, elle estime que l'IA n'est ni "autonome", ni "artificielle", ni "intelligente", et que les personnes qui travaillent sur la technologie sont faiblement rémunérées.
« Nous avons un long chemin à parcourir avant que ce soit une technologie verte. De même, les systèmes peuvent sembler automatisés, mais lorsque nous retirons le rideau, nous voyons de grandes quantités de travail faiblement rémunéré, allant du travail de la foule pour catégoriser les données à l'interminable labeur consistant à mélanger les boîtes Amazon. L'IA n'est ni artificielle ni intelligente. Elle est élaborée à partir de ressources naturelles et ce sont des personnes qui effectuent les tâches pour que les systèmes paraissent autonomes », a déclaré Crawford. Selon elle, cette charge de travail a un impact sur les travailleurs.
Les logiques de classification sont totalement biaisées
L'IA fonctionne grâce aux énormes quantités de données qui sont utilisées pour former les réseaux de neurones. Si l'on estime aujourd'hui que la technologie est autonome et intelligente et qu'elle est capable d'apprendre d'elle-même, elle dépend grandement des données d'entraînements. De ce fait, lorsque ces données sont biaisées, les résultats de l'IA sont également biaisés avec beaucoup d'erreurs, parfois préjudiciables. Dans certains cas, les femmes se voient offrir moins de crédit par les algorithmes de solvabilité et dans d'autres, les visages noirs sont mal étiquetés. Crawford a également abordé cette préoccupation lors de son interview.
Lorsque les chercheurs sont confrontés à ces biais, ils déclarent pour la plupart qu'il leur faut simplement plus de données. Mais Crawford explique que le problème est plus profond que cela. « Comme nous sommes de l'intérieur, nous sommes souvent en mesure de déceler les inconvénients avant que les systèmes ne soient largement déployés. J'ai essayé d'examiner ces logiques plus profondes de classification et vous commencez à voir des formes de discrimination, non seulement lorsque les systèmes sont appliqués, mais aussi dans la façon dont ils sont construits et formés pour voir le monde », a-t-elle déclaré.
« Les ensembles de données d'entraînement utilisés par les logiciels d'apprentissage automatique classent les personnes dans l'une des deux catégories de sexe, dans l'une des cinq catégories raciales en fonction de la couleur de leur peau, et tentent, en se basant sur l'apparence des personnes, de leur attribuer un caractère moral ou éthique. L'idée que l'on puisse faire ces déterminations en se basant sur l'apparence a un passé sombre et, malheureusement, la politique de classification s'est intégrée dans les substrats de l'IA », a expliqué l'universitaire. D'après ces dires, les logiques de classifications actuelles sont absurdes.
« À partir de 2017, j'ai réalisé un projet avec l'artiste Trevor Paglen pour examiner comment les gens étaient étiquetés. Nous avons trouvé des termes classificatoires horribles, misogynes, racistes, et jugeant à l'extrême. Des images de personnes étaient associées à des mots tels que cleptomane, alcoolique, mauvaise personne, reine du placard, call-girl, salope, toxicomane et bien d'autres encore que je ne peux pas citer ici », a-t-elle déclaré. Crawford estime que ces libellés de classification étaient utilisés par ImageNet, le plus grand jeu de données d'entraînement disponible publiquement pour la reconnaissance d'objets.
L'IA peut-elle permettre de reconnaître les émotions ?
Elle a ajouté qu'ils ont pu étudier ImageNet parce qu'il est public. Cependant, il existerait de grands ensembles de données d'entraînement totalement secrets détenus par des entreprises technologiques. Alors, faut-il utiliser l'IA pour la reconnaissance faciale ou la détection des émotions ? En effet, Microsoft commercialiserait une technologie utilisant l'IA pour la reconnaissance des émotions. Lorsque la question a été posée à Crawford lors de l'interview, bien qu'elle travaille au sein de Microsoft Research, elle a déclaré que : « l'idée que l'on puisse voir sur le visage d'une personne ce qu'elle ressent est profondément erronée ».
« Je ne pense pas que ce soit possible. J'ai dit qu'il s'agit de l'un des domaines les plus urgents à réglementer. Aujourd'hui, la plupart des systèmes de reconnaissance des émotions sont fondés sur un courant de pensée en psychologie développé dans les années 1970 selon lequel il existe six émotions universelles que nous montrons tous sur nos visages et qui peuvent être lues à l'aide des bonnes techniques. Mais dès le début, il y a eu des réactions négatives et des travaux plus récents montrent qu'il n'y a pas de corrélation fiable entre les expressions du visage et ce que nous ressentons réellement », a-t-elle déclaré.
Crawford dénonce le fait que malgré ces études, il y a des entreprises technologiques qui affirment qu'il est possible d'extraire des émotions simplement en regardant des vidéos de visages. D'après l'universitaire, cette technologie serait même déjà intégrée aux systèmes logiciels des voitures. Par ailleurs, une autre préoccupation majeure qui entoure aujourd'hui la création des systèmes d'IA et leur utilisation est la question de l'éthique. Jusqu'ici, toutes les tentatives visant à établir des normes mondiales pour encadrer l'industrie de l'IA ont échoué. L'Union européenne a entrepris une initiative dernièrement en publiant quelques règles.
En abordant le sujet, Crawford a déclaré que l'industrie et les gouvernements doivent se concentrer sur le pouvoir plutôt que sur l'éthique de l'IA. Pourquoi ? Elle estime que l'éthique est nécessaire, mais pas suffisante. ​« Il est plus utile de se poser des questions telles que : qui bénéficie et qui est lésé par ce système d'IA ? Et est-ce qu'il met le pouvoir entre les mains de ceux qui sont déjà puissants ? Ce que nous constatons sans cesse, de la reconnaissance faciale au suivi et à la surveillance sur les lieux de travail, c'est que ces systèmes donnent du pouvoir à des institutions déjà puissantes – entreprises, armées et police », a-t-elle expliqué.
Comment l'industrie peut-elle améliorer la situation ?
​« J'espère qu'en montrant le fonctionnement des systèmes d'IA, en mettant à nu les structures de production et les réalités matérielles, nous aurons un compte rendu plus précis des impacts, et que cela invitera davantage de personnes à participer à la conversation. Ces systèmes sont déployés dans une multitude de secteurs sans réglementation stricte, sans consentement ni débat démocratique », a déclaré Crawford à propos de son livre. À la question de savoir s'il existe des approches de solutions, Crawford a répondu en déclarant qu'il faut introduire une réglementation plus stricte dans l'industrie de l'IA.
Elle préconise des régimes de réglementation beaucoup plus stricts et une plus grande rigueur et responsabilité quant à la manière dont les ensembles de données de formation sont construits. Selon elle, l'on a également besoin de voix différentes dans ces débats, notamment de personnes qui voient et vivent avec les inconvénients de ces systèmes. Elle ajoute que toute technologie n'est pas nécessairement bonne à déployer. ​« Nous avons besoin d'une politique de refus renouvelée qui remette en question l'idée que si une technologie peut être construite, elle doit être déployée », a déclaré Crawford.
En parlant des efforts qui se font peu à peu ressentir, Crawford a applaudi l'initiative de l'UE d'avril dernier. En outre, l'Australie aurait également publié des lignes directrices pour la réglementation de l'IA. Selon Crawford, il y a des failles qui doivent être comblées et il est primordial de comprendre que ces outils ont besoin de garde-fous beaucoup plus solides.
Source : The Guardian
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, l'IA est-elle "autonome", "intelligente" et artificielle ?
Êtes-vous d'avis avec Crawford lorsqu'elle dit que l'IA n'est pas une technologie verte ?
Que pensez-vous des termes utilisés par ImageNet dans les logiques de classifications des images ?
Que proposez-vous comme approches de solutions pour éliminer les biais contenus dans les systèmes d'IA ?
Êtes-vous pour ou contre l'utilisation de la reconnaissance faciale ? Pourquoi ?
Que pensez-vous des technologies de reconnaissance d'émotions ? Doit-on les utiliser ?
Voir aussi
Le taux d'erreurs des algorithmes de reconnaissance faciale conçus pour détecter le contour des masques faciaux a augmenté, selon une étude de l'Institut US des normes et de la technologie
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert
Le MIT s'excuse, met hors ligne de façon permanente un énorme jeu de données qui a mené à des systèmes d'IA qui usent d'insultes racistes et misogynes
​
Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort