
l'universitaire estime cette technologie donne du pouvoir a des institutions déjà puissantes
L'intelligence artificielle est-elle une réalité ou devrait-on trouver une autre expression pour désigner la technologie ? Dans une interview accordée récemment au média britannique The Guardian, Kate Crawford de Microsoft Research a déclaré que l'IA n'est ni artificielle ni intelligente et que les entreprises devraient mettre un terme à cette vision abstraite et immatérielle de l'IA qu'elles présentent aux gens. Technologie non verte, main-d'œuvre mal payée, système non autonome, un coût énorme en ressources naturelles, etc., et un fort impact environnemental sont les expressions qu'elle utilise pour qualifier l'industrie de l'IA.
L'intelligence artificielle n'est pas une technologie verte
Kate Crawford est professeure de communication et d'études scientifiques et technologiques à l'université de Californie du Sud et chercheuse principale chez Microsoft Research. Elle concentre ses études sur les implications sociales et politiques de l'intelligence artificielle. Dans son livre "Atlas of AI" paru récemment, elle a passé en revue le processus de développement de l'IA ainsi que ses implications dans la vie de tout le monde. Invitée par The Guardian pour parler de son livre, Crawford a donné son avis sur ce qu'est l'IA, ce qu'elle n'est pas et la façon dont les systèmes d'IA sont construits.
Kate Crawford
L'intelligence artificielle (IA) est une branche de l'informatique qui s'intéresse à la construction de machines intelligentes capables d'effectuer des tâches qui requièrent généralement l'intelligence humaine. C'est ainsi qu'est généralement définie l'IA, mais l'analyse des propos de Crawford lors de son interview montre qu'elle semble être opposée à cette définition. Sa perception de ce qu'est l'IA, dans sa forme actuelle, est différente de celle que les entreprises de l'industrie nous présentent. À en croire ses critiques sur la technologie, le terme "intelligence artificielle" utilisé dans l'industrie serait une forme de battage médiatique. Certains disent la même chose de la blockchain.
Selon elle, la vision de l'IA qui est abstraite et immatérielle est "fausse". Crawford a déclaré que la fabrication des produits de l'IA regroupe des processus de travail et des logiques de classification et qu'elle a un coût important en ressources naturelles (les ressources minières). En raison de son impact environnemental, Crawford a déclaré que l'IA n'est pas une technologie verte et que l'industrie mettra encore de nombreuses années pour atteindre ce point. Bien qu'elle travaille sur l'IA, elle estime que l'IA n'est ni "autonome", ni "artificielle", ni "intelligente", et que les personnes qui travaillent sur la technologie sont faiblement rémunérées.
« Nous avons un long chemin à parcourir avant que ce soit une technologie verte. De même, les systèmes peuvent sembler automatisés, mais lorsque nous retirons le rideau, nous voyons de grandes quantités de travail faiblement rémunéré, allant du travail de la foule pour catégoriser les données à l'interminable labeur consistant à mélanger les boîtes Amazon. L'IA n'est ni artificielle ni intelligente. Elle est élaborée à partir de ressources naturelles et ce sont des personnes qui effectuent les tâches pour que les systèmes paraissent autonomes », a déclaré Crawford. Selon elle, cette charge de travail a un impact sur les travailleurs.
Les logiques de classification sont totalement biaisées
L'IA fonctionne grâce aux énormes quantités de données qui sont utilisées pour former les réseaux de neurones. Si l'on estime aujourd'hui que la technologie est autonome et intelligente et qu'elle est capable d'apprendre d'elle-même, elle dépend grandement des données d'entraînements. De ce fait, lorsque ces données sont biaisées, les résultats de l'IA sont également biaisés avec beaucoup d'erreurs, parfois préjudiciables. Dans certains cas, les femmes se voient offrir moins de crédit par les algorithmes de solvabilité et dans d'autres, les visages noirs sont mal étiquetés. Crawford a également abordé cette préoccupation lors de son interview.
Lorsque les chercheurs sont confrontés à ces biais, ils déclarent pour la plupart qu'il leur faut simplement plus de données. Mais Crawford explique que le problème est plus profond que cela. « Comme nous sommes de l'intérieur, nous sommes souvent en mesure de déceler les inconvénients avant que les systèmes ne soient largement déployés. J'ai essayé d'examiner ces logiques plus profondes de classification et vous commencez à voir des formes de discrimination, non seulement lorsque les systèmes sont appliqués, mais aussi dans la façon dont ils sont construits et formés pour voir le monde », a-t-elle déclaré.
« Les ensembles de données d'entraînement utilisés par les logiciels d'apprentissage automatique classent les personnes dans l'une des deux catégories de sexe, dans l'une des cinq catégories raciales en fonction de la couleur de leur peau, et tentent, en se basant sur l'apparence des personnes, de leur attribuer un caractère moral ou éthique. L'idée que l'on puisse faire ces déterminations en se basant sur l'apparence a un passé sombre et, malheureusement, la politique de classification s'est intégrée dans les substrats de l'IA », a expliqué l'universitaire. D'après ces dires, les logiques de classifications actuelles sont absurdes.
« À partir de 2017, j'ai réalisé un projet avec l'artiste Trevor Paglen pour examiner comment les gens étaient étiquetés. Nous avons trouvé des termes classificatoires horribles, misogynes, racistes, et jugeant à l'extrême. Des images de personnes étaient associées à des mots tels que cleptomane, alcoolique, mauvaise personne, reine du placard, call-girl, salope, toxicomane et bien d'autres encore que je ne peux pas citer ici », a-t-elle déclaré. Crawford estime que ces libellés de classification étaient utilisés par ImageNet, le plus grand jeu de données d'entraînement disponible publiquement pour la reconnaissance d'objets.
L'IA peut-elle permettre de reconnaître les émotions ?
Elle a ajouté qu'ils ont pu étudier ImageNet parce qu'il est public. Cependant, il existerait de grands ensembles de données d'entraînement totalement secrets détenus par des entreprises technologiques. Alors, faut-il utiliser l'IA pour la reconnaissance faciale ou la détection des émotions ? En effet, Microsoft commercialiserait une technologie utilisant l'IA pour la reconnaissance des émotions. Lorsque la question a été posée à Crawford lors de l'interview, bien qu'elle travaille au sein de Microsoft Research, elle a déclaré que : « l'idée que l'on puisse voir sur le visage d'une personne ce qu'elle ressent est profondément erronée ».
« Je ne pense pas que ce soit possible. J'ai dit qu'il s'agit de l'un des domaines les plus urgents à réglementer. Aujourd'hui, la plupart des systèmes de reconnaissance des émotions sont fondés sur un courant de pensée en psychologie développé dans les années 1970 selon lequel il existe six émotions universelles que nous montrons tous sur nos visages et qui peuvent être lues à l'aide des bonnes techniques. Mais dès le début, il y a eu des réactions négatives et des travaux plus récents montrent qu'il n'y a pas de corrélation fiable entre les expressions du visage et ce que nous ressentons réellement », a-t-elle déclaré.
Crawford dénonce le fait que malgré ces études, il y a des entreprises technologiques qui affirment qu'il est possible d'extraire des émotions simplement en regardant des vidéos de visages. D'après l'universitaire, cette technologie serait même déjà intégrée aux systèmes logiciels des voitures. Par ailleurs, une autre préoccupation majeure qui entoure aujourd'hui la création des systèmes d'IA et leur utilisation est la question de l'éthique. Jusqu'ici, toutes les tentatives visant à établir des normes mondiales pour encadrer l'industrie de l'IA ont échoué. L'Union européenne a entrepris une initiative dernièrement en publiant quelques règles.
En abordant le sujet, Crawford a déclaré que l'industrie et les gouvernements doivent se concentrer sur le pouvoir plutôt que sur l'éthique de l'IA. Pourquoi ? Elle estime que l'éthique est nécessaire, mais pas suffisante. « Il est plus utile de se poser des questions telles que : qui bénéficie et qui est lésé par ce système d'IA ? Et est-ce qu'il met le pouvoir entre les mains de ceux qui sont déjà puissants ? Ce que nous constatons sans cesse,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.