IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'IA n'est ni artificielle ni intelligente », selon Kate Crawford de Microsoft Research,
L'universitaire estime que cette technologie donne du pouvoir a des institutions déjà puissantes

Le , par Bill Fassinou

293PARTAGES

29  0 
L'intelligence artificielle est-elle une réalité ou devrait-on trouver une autre expression pour désigner la technologie ? Dans une interview accordée récemment au média britannique The Guardian, Kate Crawford de Microsoft Research a déclaré que l'IA n'est ni artificielle ni intelligente et que les entreprises devraient mettre un terme à cette vision abstraite et immatérielle de l'IA qu'elles présentent aux gens. Technologie non verte, main-d'œuvre mal payée, système non autonome, un coût énorme en ressources naturelles, etc., et un fort impact environnemental sont les expressions qu'elle utilise pour qualifier l'industrie de l'IA.

L'intelligence artificielle n'est pas une technologie verte

Kate Crawford est professeure de communication et d'études scientifiques et technologiques à l'université de Californie du Sud et chercheuse principale chez Microsoft Research. Elle concentre ses études sur les implications sociales et politiques de l'intelligence artificielle. Dans son livre "Atlas of AI" paru récemment, elle a passé en revue le processus de développement de l'IA ainsi que ses implications dans la vie de tout le monde. Invitée par The Guardian pour parler de son livre, Crawford a donné son avis sur ce qu'est l'IA, ce qu'elle n'est pas et la façon dont les systèmes d'IA sont construits.


Kate Crawford

L'intelligence artificielle (IA) est une branche de l'informatique qui s'intéresse à la construction de machines intelligentes capables d'effectuer des tâches qui requièrent généralement l'intelligence humaine. C'est ainsi qu'est généralement définie l'IA, mais l'analyse des propos de Crawford lors de son interview montre qu'elle semble être opposée à cette définition. Sa perception de ce qu'est l'IA, dans sa forme actuelle, est différente de celle que les entreprises de l'industrie nous présentent. À en croire ses critiques sur la technologie, le terme "intelligence artificielle" utilisé dans l'industrie serait une forme de battage médiatique. Certains disent la même chose de la blockchain.

Selon elle, la vision de l'IA qui est abstraite et immatérielle est "fausse". Crawford a déclaré que la fabrication des produits de l'IA regroupe des processus de travail et des logiques de classification et qu'elle a un coût important en ressources naturelles (les ressources minières). En raison de son impact environnemental, Crawford a déclaré que l'IA n'est pas une technologie verte et que l'industrie mettra encore de nombreuses années pour atteindre ce point. Bien qu'elle travaille sur l'IA, elle estime que l'IA n'est ni "autonome", ni "artificielle", ni "intelligente", et que les personnes qui travaillent sur la technologie sont faiblement rémunérées.

« Nous avons un long chemin à parcourir avant que ce soit une technologie verte. De même, les systèmes peuvent sembler automatisés, mais lorsque nous retirons le rideau, nous voyons de grandes quantités de travail faiblement rémunéré, allant du travail de la foule pour catégoriser les données à l'interminable labeur consistant à mélanger les boîtes Amazon. L'IA n'est ni artificielle ni intelligente. Elle est élaborée à partir de ressources naturelles et ce sont des personnes qui effectuent les tâches pour que les systèmes paraissent autonomes », a déclaré Crawford. Selon elle, cette charge de travail a un impact sur les travailleurs.

Les logiques de classification sont totalement biaisées

L'IA fonctionne grâce aux énormes quantités de données qui sont utilisées pour former les réseaux de neurones. Si l'on estime aujourd'hui que la technologie est autonome et intelligente et qu'elle est capable d'apprendre d'elle-même, elle dépend grandement des données d'entraînements. De ce fait, lorsque ces données sont biaisées, les résultats de l'IA sont également biaisés avec beaucoup d'erreurs, parfois préjudiciables. Dans certains cas, les femmes se voient offrir moins de crédit par les algorithmes de solvabilité et dans d'autres, les visages noirs sont mal étiquetés. Crawford a également abordé cette préoccupation lors de son interview.

Lorsque les chercheurs sont confrontés à ces biais, ils déclarent pour la plupart qu'il leur faut simplement plus de données. Mais Crawford explique que le problème est plus profond que cela. « Comme nous sommes de l'intérieur, nous sommes souvent en mesure de déceler les inconvénients avant que les systèmes ne soient largement déployés. J'ai essayé d'examiner ces logiques plus profondes de classification et vous commencez à voir des formes de discrimination, non seulement lorsque les systèmes sont appliqués, mais aussi dans la façon dont ils sont construits et formés pour voir le monde », a-t-elle déclaré.

« Les ensembles de données d'entraînement utilisés par les logiciels d'apprentissage automatique classent les personnes dans l'une des deux catégories de sexe, dans l'une des cinq catégories raciales en fonction de la couleur de leur peau, et tentent, en se basant sur l'apparence des personnes, de leur attribuer un caractère moral ou éthique. L'idée que l'on puisse faire ces déterminations en se basant sur l'apparence a un passé sombre et, malheureusement, la politique de classification s'est intégrée dans les substrats de l'IA », a expliqué l'universitaire. D'après ces dires, les logiques de classifications actuelles sont absurdes.

« À partir de 2017, j'ai réalisé un projet avec l'artiste Trevor Paglen pour examiner comment les gens étaient étiquetés. Nous avons trouvé des termes classificatoires horribles, misogynes, racistes, et jugeant à l'extrême. Des images de personnes étaient associées à des mots tels que cleptomane, alcoolique, mauvaise personne, reine du placard, call-girl, salope, toxicomane et bien d'autres encore que je ne peux pas citer ici », a-t-elle déclaré. Crawford estime que ces libellés de classification étaient utilisés par ImageNet, le plus grand jeu de données d'entraînement disponible publiquement pour la reconnaissance d'objets.

L'IA peut-elle permettre de reconnaître les émotions ?

Elle a ajouté qu'ils ont pu étudier ImageNet parce qu'il est public. Cependant, il existerait de grands ensembles de données d'entraînement totalement secrets détenus par des entreprises technologiques. Alors, faut-il utiliser l'IA pour la reconnaissance faciale ou la détection des émotions ? En effet, Microsoft commercialiserait une technologie utilisant l'IA pour la reconnaissance des émotions. Lorsque la question a été posée à Crawford lors de l'interview, bien qu'elle travaille au sein de Microsoft Research, elle a déclaré que : « l'idée que l'on puisse voir sur le visage d'une personne ce qu'elle ressent est profondément erronée ».

« Je ne pense pas que ce soit possible. J'ai dit qu'il s'agit de l'un des domaines les plus urgents à réglementer. Aujourd'hui, la plupart des systèmes de reconnaissance des émotions sont fondés sur un courant de pensée en psychologie développé dans les années 1970 selon lequel il existe six émotions universelles que nous montrons tous sur nos visages et qui peuvent être lues à l'aide des bonnes techniques. Mais dès le début, il y a eu des réactions négatives et des travaux plus récents montrent qu'il n'y a pas de corrélation fiable entre les expressions du visage et ce que nous ressentons réellement », a-t-elle déclaré.

Crawford dénonce le fait que malgré ces études, il y a des entreprises technologiques qui affirment qu'il est possible d'extraire des émotions simplement en regardant des vidéos de visages. D'après l'universitaire, cette technologie serait même déjà intégrée aux systèmes logiciels des voitures. Par ailleurs, une autre préoccupation majeure qui entoure aujourd'hui la création des systèmes d'IA et leur utilisation est la question de l'éthique. Jusqu'ici, toutes les tentatives visant à établir des normes mondiales pour encadrer l'industrie de l'IA ont échoué. L'Union européenne a entrepris une initiative dernièrement en publiant quelques règles.

En abordant le sujet, Crawford a déclaré que l'industrie et les gouvernements doivent se concentrer sur le pouvoir plutôt que sur l'éthique de l'IA. Pourquoi ? Elle estime que l'éthique est nécessaire, mais pas suffisante. ​« Il est plus utile de se poser des questions telles que : qui bénéficie et qui est lésé par ce système d'IA ? Et est-ce qu'il met le pouvoir entre les mains de ceux qui sont déjà puissants ? Ce que nous constatons sans cesse, de la reconnaissance faciale au suivi et à la surveillance sur les lieux de travail, c'est que ces systèmes donnent du pouvoir à des institutions déjà puissantes – entreprises, armées et police », a-t-elle expliqué.

Comment l'industrie peut-elle améliorer la situation ?

​« J'espère qu'en montrant le fonctionnement des systèmes d'IA, en mettant à nu les structures de production et les réalités matérielles, nous aurons un compte rendu plus précis des impacts, et que cela invitera davantage de personnes à participer à la conversation. Ces systèmes sont déployés dans une multitude de secteurs sans réglementation stricte, sans consentement ni débat démocratique », a déclaré Crawford à propos de son livre. À la question de savoir s'il existe des approches de solutions, Crawford a répondu en déclarant qu'il faut introduire une réglementation plus stricte dans l'industrie de l'IA.

Elle préconise des régimes de réglementation beaucoup plus stricts et une plus grande rigueur et responsabilité quant à la manière dont les ensembles de données de formation sont construits. Selon elle, l'on a également besoin de voix différentes dans ces débats, notamment de personnes qui voient et vivent avec les inconvénients de ces systèmes. Elle ajoute que toute technologie n'est pas nécessairement bonne à déployer. ​« Nous avons besoin d'une politique de refus renouvelée qui remette en question l'idée que si une technologie peut être construite, elle doit être déployée », a déclaré Crawford.

En parlant des efforts qui se font peu à peu ressentir, Crawford a applaudi l'initiative de l'UE d'avril dernier. En outre, l'Australie aurait également publié des lignes directrices pour la réglementation de l'IA. Selon Crawford, il y a des failles qui doivent être comblées et il est primordial de comprendre que ces outils ont besoin de garde-fous beaucoup plus solides.

Source : The Guardian

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, l'IA est-elle "autonome", "intelligente" et artificielle ?
Êtes-vous d'avis avec Crawford lorsqu'elle dit que l'IA n'est pas une technologie verte ?
Que pensez-vous des termes utilisés par ImageNet dans les logiques de classifications des images ?
Que proposez-vous comme approches de solutions pour éliminer les biais contenus dans les systèmes d'IA ?
Êtes-vous pour ou contre l'utilisation de la reconnaissance faciale ? Pourquoi ?
Que pensez-vous des technologies de reconnaissance d'émotions ? Doit-on les utiliser ?

Voir aussi

Le taux d'erreurs des algorithmes de reconnaissance faciale conçus pour détecter le contour des masques faciaux a augmenté, selon une étude de l'Institut US des normes et de la technologie

L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert

Le MIT s'excuse, met hors ligne de façon permanente un énorme jeu de données qui a mené à des systèmes d'IA qui usent d'insultes racistes et misogynes
​
Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort

L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 08/06/2021 à 13:49
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Si je m'en tiens à cette vision globale, je la partage totalement. Je n'ai pas lu le bouquin, donc je ne saurais m'avancer sur les détails.

Citation Envoyé par Bill Fassinou Voir le message
Selon vous, l'IA est-elle "autonome", "intelligente" et artificielle ?
Sur l'autonomie, on fait tout pour la rendre autonome, mais aussi tout pour la contrôller. On est donc en constante contradiction et comme chacun a son propre avis (même sur une application donnée) sur où mettre le curseur, il n'est pas prévu d'atteindre ni l'un ni l'autre de manière satisfaisante.

Sur l'intelligence, j'ai déjà souvent partagé mon avis sur la question : ce terme induit une interprétation qui n'a rien à voir avec la réalité du terrain. On s'appuie dessus pour faire la pub d'un idéal tout en vendant un outil qui ne fait rien de tout ça. Ceux qui se rapprochent le plus d'une notion raisonnable d'intelligence artificielle sont à chercher du côté de l'AGI (IA générale) mais qui reste une niche.

Sur l'artificialité, ça dépend. Aujourd'hui, on parle d'IA principalement pour parler d'apprentissage machine via réseaux de neurones, notamment le deep learning. L'utilité et l'efficacité de ces technos sont essentiellement basées sur des bases de données qui doivent être "nettoyées" par l'humain. Dans ce cadre, la performance humaine reste intrinsèquement nécessaire à la performance de la machine, on ne peut donc effectivement pas dire que tout le travail vienne de l'agent artificiel. Il existe cependant bien d'autres systèmes dans le domaine IA, qui eux sont totalement artificiels. Mais on ne parle généralement pas d'eux quand on parle d'IA. La critique est donc à relativiser mais tout à fait valable.

Citation Envoyé par Bill Fassinou Voir le message
Êtes-vous d'avis avec Crawford lorsqu'elle dit que l'IA n'est pas une technologie verte ?
Encore une fois, si on se focalise sur ce qu'on entend par IA aujourd'hui, à savoir l'apprentissage machine via réseaux de neurones, je ne peux qu'être d'accord. Mais d'un autre côté, les architectures matérielles ne sont pas optimisées pour et c'est en train d'évoluer. Donc la marche est en cours, reste à voir où elle nous mènera.

Citation Envoyé par Bill Fassinou Voir le message
Que proposez-vous comme approches de solutions pour éliminer les biais contenus dans les systèmes d'IA ?
Ne pas utiliser l'IA les systèmes d'apprentissage automatique, dont le seul but est de reproduire ce qu'ils observent dans leurs jeux de données. Soit on reproduit, et ça la machine le fait très bien, soit on fait autrement, mais là on sort de l'objectif d'un système d'apprentissage. On peut certes mettre de l'effort sur le nettoyage des données, mais ça n'est pas scalable : on nettoie les entrées de manière isolée, sauf que c'est la masse qui compte, et si on traite de manière massive, on doit mettre en place des critères statistiques pour mesurer la qualité de l'ensemble de données, sauf que ces critères sont décorrélés du système d'apprentissage lui-même, ils n'offrent donc aucune garantie.

Citation Envoyé par Bill Fassinou Voir le message
Êtes-vous pour ou contre l'utilisation de la reconnaissance faciale ? Pourquoi ?
Je ne suis jamais pour ni contre l'usage d'un outil. Tout dépend de son contexte d'usage. Lancer une bombe nucléaire sur un astéroide menaçant la Terre, je n'ai pas grand chose contre. L'envoyer sur une population, fut-elle de barbares, il n'en est pas question. Les technos d'IA et plus particulièrement de reconnaissance faciale, c'est pareil.

Citation Envoyé par Bill Fassinou Voir le message
Que pensez-vous des technologies de reconnaissance d'émotions ? Doit-on les utiliser ?
Idem.
7  1 
Avatar de gabriel21
Membre chevronné https://www.developpez.com
Le 08/06/2021 à 18:49
@Bill Fassinou : merci pour cet article de qualité. Cela fait plaisir de lire une actualité bien écrite et qui se concentre sur un sujet, ne mélangeant pas tout et n'importe quoi. Tu m'as presque donné envi d'acheter le livre, enfin le jour où il sera disponible en français...
4  0 
Avatar de La_Patate
Membre à l'essai https://www.developpez.com
Le 12/06/2021 à 17:24
Très bon article.
Je comprend ce qu'elle veut transmettre mais la définition actuelle de l'Intelligence Artificielle est complètement juste. C'est tout le baratin commercial qui dit de que l'IA n'est pas et c'est normal car c'est le travail des commerciaux de vendre leurs produits, ils vivent de ça.

...pour examiner comment les gens étaient étiquetés. Nous avons trouvé des termes classificatoires horribles, misogynes, ...
Pour le côté misogynes et tout les termes négatifs, le modèle de classification se base sur ce qu'on lui donne comme données en entrée et il sort une donnée étiquetés. Les étiquettes, ce sont soit un humain qui les a définit (supervisé), soit il n'y a pas d'étiquettes (non-supervisé).
Si la classification est non-supervisé (non-étiquetés), c'est au final un humain qui va mettre une étiquete sur ce qui a été classifié.

... ces libellés de classification étaient utilisés par ImageNet, le plus grand jeu de données d'entraînement disponible publiquement pour la reconnaissance d'objets.
Tout ça pour dire que ce n'est pas ImageNet le problème mais les humains qui ont étiquetés le jeu de données. D'où la nécessité de réglementer l'utilisation de l'IA.
1  0 
Avatar de moldavi
Inactif https://www.developpez.com
Le 09/06/2021 à 1:34
On ne sait même pas expliquer l'intelligence humaine, mais ça parle d'intelligence artificielle (IA).

Vous me faites tous rire.
1  2 
Avatar de bonnefoy31
Membre à l'essai https://www.developpez.com
Le 09/06/2021 à 7:26
Quel est votre avis sur le sujet ?
Mon avis est que lorsqu'on écoute une spécialiste de la com sur des sujets scientifiques on obtient toujours de la com sans valeur ajouté scientifique.
La présentation de Crawford à la valeur de celle d'une chargée de com travaillant pour Microsoft. Cela ne représente même pas la vision de Microsoft sur le sujet mais simplement l'image que la marque veut créer d'elle même.

Selon vous, l'IA est-elle "autonome", "intelligente" et artificielle ?
Cette Dame n'y entend rien et ne connait ni la définition d'intelligence ni celle d'artificiel et encore moins d'intelligence artificielle.
Les mots ont des signification, le sofisme ne fait que perdre les esprits les biaisant au grès des émotions que l'on leur imprime.
"l'IA" quelle IA ? le mot IA définit tous les automates virtuels ou non capable de prendre au moins une décision pour la quelle il nous faudrait réfléchir. cela va de l'ascenseur à "Skynet".
De plus ne lui en déplaise, les IA ne se limitent pas aux seuls réseaux de neurones artificiels.

"autonome" ?
Je ne vois pas à quoi servirait une IA non autonome.

intelligente ?
L'intelligence c'est l'aptitude à collecter des informations, les traiter, et en faire surgir la meilleure réponse possible.
Mais ce mot représente une aptitude, une capacité qui peut avoir plusieurs niveaux de valeur, ici de "débile" à "génial",
Les IA sont par définition intelligentes mais à des niveaux plus ou moins élevés.

artificiel viens d'artéfact (ars: art) (factum: effet) un artefact est un phénomène, un chose issu du génie humain, il en va de même pour l'adjectif "artificiel".
Donc un peu qu'elle est artificielle l'IA !

Êtes-vous d'avis avec Crawford lorsqu'elle dit que l'IA n'est pas une technologie verte ?
Je ne savait pas que les technologies avaient une couleur !
ah si c'est une technologie écologique ?
Cela dépends de ce que l'on en fait ! la roue peut tout autant servir à créer une landau qu' un véhicule militaire.
Quand à sa conception quelques lignes de codes et l'industrie informatique font le boulot. Rien de ce qui est électronique n'est 100% BIO.

Que pensez-vous des termes utilisés par ImageNet dans les logiques de classifications des images ?
Pour le commun des mortel les émotions se lisent sur le visage l'une de ses fonctions est de justement nous permettre de les exprimer même inconsciemment, mais certaines personnes peuvent plus ou moins contrôler ces expressions.
Donc il est possible de reconnaitre artificiellement les émotions exprimées par le sujet que ces émotions soient factices ou non.

Que proposez-vous comme approches de solutions pour éliminer les biais contenus dans les systèmes d'IA ?
Commençons par éliminer les biais contenus dans le cerveau humain ! Là aussi il faut se pencher sur le sens des mots la différence entre une règle logique et un biais est subjective, une personne biaisé va juger une logique pure comme un biais.
Une machine n'est ni militante ni capable d'émotion à ce jour, elle n'ont aucun biais émotionnel, elle ne peuvent avoir de biais que venant des humains, rien ne changera l'affaire tous les humains sont biaisés particulièrement ceux qui jugent les autres en se servant de préjugés au lieu de se pencher au cas par cas c'est à dire tout le monde quand on à pas le temps pour étudier en profondeur chaque sujet.
Ainsi pour éliminer les biais des machines il faudrait éliminer l'humanité et toute chose ne devant pas son état à la logique pure.

Êtes-vous pour ou contre l'utilisation de la reconnaissance faciale ? Pourquoi ?
ni pour ni contre une fois de plus nous parlons d'un outil, c'est la finalité de son utilisation qui en fait quelque chose de bon ou mauvais.

Que pensez-vous des technologies de reconnaissance d'émotions ? Doit-on les utiliser ?
Pourquoi s'en priver ? sont elles des créations du Diable ? va-t-on finir en enfer si on les utilise ?
3  5