Les technologies de nouvelle génération telles que l'intelligence artificielle (IA) et l'analyse des émotions sont en plein essor à travers le monde entier, et de nombreuses entreprises tirent parti de leurs capacités pour renforcer leur gestion de la relation client (CRM). L'analyse des émotions avec ses caractéristiques futuristes s’est fait une importante place dans le monde des affaires. La technologie est utilisée pour améliorer la classification, la collecte, la visualisation et l'analyse des données. Cependant, l'institut de recherche AI Now, dans son rapport annuel 2019, a dit que la reconnaissance des émotions devrait être interdite d'utilisation dans les décisions qui affectent la vie des gens, parce qu’il y a peu de fondement scientifique à cette technologie.
Dans ses investigations, AI Now a remarqué que le marché de la reconnaissance des émotions est plein essor malgré de nombreux problèmes inhérents à la technologie comme l’amplification des disparités entre les races et les sexes. Dans son rapport, AI Now s’en prend aussi à l’utilisation de la technologie de reconnaissance faciale pour des applications sensibles par les gouvernements.
Un marché de la technologie de reconnaissance des émotions en plein essor
Selon le rapport de l’institut AI Now, malgré le manque de preuves que les machines peuvent nous aider à comprendre ce que nous ressentons, la reconnaissance des émotions représente un marché d'au moins 20 milliards de dollars, et ce marché est en pleine croissance. L’institut fait le lien avec une étude publiée en avril 2018 par Market Research Future (MRFR), selon laquelle le marché de l'analyse émotionnelle atteindra environ 25 milliards de dollars d'ici 2023 avec un TCAC de 17 % entre 2016 et 2023. D’après MRFR, l'élargissement de la base d'applications est en partie à l'origine de cette croissance du marché mondial.
Selon le rapport de MRFR, les développeurs améliorent constamment l'efficacité et la fonctionnalité de l'analyse des émotions, les rendant compatibles avec un large éventail d'applications logicielles et matérielles qui utilisent des techniques d'exploitation audiovisuelle. En outre, la pénétration croissante de la big data et de l'intelligence artificielle ouvre de nouvelles possibilités d'application de l'analyse émotionnelle. Le rapport a également segmenté le marché mondial de l'analyse des émotions en quatre régions clés, à savoir l'Amérique du Nord, l'Europe, l'Asie Pacifique (APAC) et le reste du monde (RoW). Avec l'Amérique du Nord qui occupe une position dominante, en termes de parts de marché, et cette tendance devrait se poursuivre tout au long de la période des prévisions, selon le rapport.
Selon AI Now, la technologie est actuellement utilisée pour évaluer les candidats à un emploi et les personnes soupçonnées de crimes. Dans ce cas d’utilisation, l’institut a fait référence à un rapport publié en novembre dernier par Electronic Privacy Information Center (EPIC). Dans ce rapport, il est question de HireVue, un des outils d'intelligence artificielle que les entreprises utilisent de plus en plus pour évaluer les candidats. L'algorithme analyse les entrevues vidéo en se basant sur plusieurs indices, du choix des mots aux mouvements faciaux des candidats, pour établir un "score d'employabilité" qui est comparé à celui des autres candidats. Selon EPIC, plus de 100 entreprises l'ont déjà utilisé sur plus d'un million de candidats.
Selon le rapport, les critiques s'inquiètent du fait que l'algorithme est formé sur des données limitées et qu'il sera donc plus susceptible de marquer les candidats "traditionnels" (blancs, hommes) comme plus employables. Par conséquent, les candidats qui s'écartent de ces critères - y compris les personnes qui ne parlent pas l'anglais comme langue maternelle ou qui sont handicapées - sont susceptibles d'obtenir des notes inférieures, selon les experts.
De plus, AI Now a indiqué que la technologie de reconnaissance des émotions est testée pour d'autres applications, comme dans les casques VR pour déduire les états émotionnels des joueurs. Dans une interview publiée en décembre 2018, Brian Yongwook Chae, PDG de Looxid Labs a présenté son produit LooxidVR, qui permet de mesurer de façon transparente les ondes cérébrales et les images des caméras infrarouges des utilisateurs de VR une fois que ces derniers portent simplement le casque d'écoute. Les données physiologiques brutes mesurées par LooxidVR sont prétraitées à l'aide d'un algorithme de réduction du bruit des ondes cérébrales et de détection pupillaire. L'algorithme d'apprentissage machine est appliqué aux informations prétraitées pour détecter les états émotionnels des utilisateurs.
Des problèmes liés à la technologie de reconnaissance des émotions
Le rapport d’AI Now dit qu’il y a aussi des preuves que la reconnaissance des émotions peut amplifier les disparités entre les races et les sexes. En effet, l'IA est sujette à des préjugés cachés dans la lecture des émotions, selon une étude publiée en janvier par Lauren Rhue, professeur assistante de systèmes d'information et d'analyse à Wake Forest University. Selon elle, bien que l’analyse des émotions est de plus en plus utilisée dans la vie quotidienne, cette technologie a du mal à interpréter les émotions des visages noirs, la technologie attribuant plus d'émotions négatives au visage des hommes noirs qu'à celui des hommes blancs.
AI Now cite également une étude récente de l'Association for Psychological Science, qui a passé deux ans à examiner plus de 1 000 articles sur la détection des émotions et a conclu qu'il est très difficile d'utiliser les expressions faciales seules pour dire avec précision ce que ressent une personne. En effet, les gens sourient quand ils sont heureux et froncent les sourcils quand ils sont tristes, mais la corrélation est faible, dit Lisa Feldman Barrett, psychologue à la Northeastern University. Les gens font plein d'autres choses quand ils sont heureux ou tristes aussi, et un sourire peut être ironique. Leurs comportements varient beaucoup d'une culture et d'une situation à l'autre, et le contexte joue un rôle important dans la façon dont nous interprétons les expressions, a-t-elle ajouté.
Selon les chercheurs de l'Association for Psychological Science, le défaut de données de formation des IA de reconnaissance des émotions constitue un danger. Selon leur rapport, une approche extrêmement courante consiste, entre autres, pour les entreprises de demander aux gens de regarder des vidéos émouvantes et de scanner leur visage. Puis une personne de l'entreprise est responsable de l'étiquetage de ces données pour alimenter l'algorithme. Mais le problème avec est que, d’après le rapport, si on vous dit de faire un visage surpris, cela peut être très différent de l'apparence réelle de votre visage lorsque vous êtes surpris. Aussi, une tierce personne est chargée d’examiner et étiqueter ces données. Un observateur peut lire une expression faciale comme "surprise", mais sans demander à la personne d'origine, il est difficile de savoir quelle était la véritable émotion, lit-on dans le rapport.
AI Now recommande l’intervention des organismes de réglementation pour restreindre l’utilisation des technologies de reconnaissance faciale et des émotions
Dans son rapport, AI Now recommande que les organismes de réglementation intervenir pour restreindre fortement utilisation de la technologie de la reconnaissance des émotions, et d'ici là, que les sociétés d'IA cesse de la déployer. AI Now demande également aux gouvernements et aux entreprises de cesser d'utiliser la technologie de reconnaissance faciale pour des applications sensibles jusqu'à ce que les risques aient été correctement étudiés. San Francisco est devenu la première ville des Etats-Unis à interdire l'usage de la reconnaissance faciale en mai dernier, en se basant sur des raisons en lien avec les droits de l'Homme.
L’institut s'en prend à l'industrie de l'IA pour son « racisme systémique, sa misogynie et son manque de diversité ». Elle a également demandé la divulgation obligatoire de l'impact environnemental de l'industrie de l'IA.
Cependant, les chercheurs disent que les émotions que nous affichons ne peuvent pas être exactement interprétées, à quoi servirait la restriction de la technologie de reconnaissance des émotions ? Ne serait-il pas mieux d’interdire toutes les applications ?
Source : AI Now 2019 Report
Et vous ?
Que pensez-vous du rapport ?
Pensez-vous que la conclusion de AI Now est exagérée ou que la technologie de reconnaissance des émotions devrait être effectivement interdite ?
Pensez-vous qu’une réglementation de l’IA est possible à l’échelle mondiale ?
Lire aussi
La technologie de reconnaissance faciale d'Amazon identifie à tort 28 membres du Congrès US comme des criminels, quels dangers pour les Américains ?
La Chine interdit à 23 millions de personnes d'acheter des billets de voyage, dans le cadre de son système de crédit social
États-Unis : le sénateur Bernie Sanders veut interdire l'utilisation de la reconnaissance faciale, par la police
San Francisco devient la première ville US à interdire l'usage de la reconnaissance faciale, pour des raisons en lien avec les droits de l'Homme
La technologie de reconnaissance des émotions devrait être interdite, car elle a peu de fondement scientifique,
A conclu l'institut de recherche IA Now
La technologie de reconnaissance des émotions devrait être interdite, car elle a peu de fondement scientifique,
A conclu l'institut de recherche IA Now
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !