IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La technologie de reconnaissance des émotions devrait être interdite, car elle a peu de fondement scientifique,
A conclu l'institut de recherche IA Now

Le , par Stan Adkens

28PARTAGES

9  0 
Les technologies de nouvelle génération telles que l'intelligence artificielle (IA) et l'analyse des émotions sont en plein essor à travers le monde entier, et de nombreuses entreprises tirent parti de leurs capacités pour renforcer leur gestion de la relation client (CRM). L'analyse des émotions avec ses caractéristiques futuristes s’est fait une importante place dans le monde des affaires. La technologie est utilisée pour améliorer la classification, la collecte, la visualisation et l'analyse des données. Cependant, l'institut de recherche AI Now, dans son rapport annuel 2019, a dit que la reconnaissance des émotions devrait être interdite d'utilisation dans les décisions qui affectent la vie des gens, parce qu’il y a peu de fondement scientifique à cette technologie.

Dans ses investigations, AI Now a remarqué que le marché de la reconnaissance des émotions est plein essor malgré de nombreux problèmes inhérents à la technologie comme l’amplification des disparités entre les races et les sexes. Dans son rapport, AI Now s’en prend aussi à l’utilisation de la technologie de reconnaissance faciale pour des applications sensibles par les gouvernements.


Un marché de la technologie de reconnaissance des émotions en plein essor

Selon le rapport de l’institut AI Now, malgré le manque de preuves que les machines peuvent nous aider à comprendre ce que nous ressentons, la reconnaissance des émotions représente un marché d'au moins 20 milliards de dollars, et ce marché est en pleine croissance. L’institut fait le lien avec une étude publiée en avril 2018 par Market Research Future (MRFR), selon laquelle le marché de l'analyse émotionnelle atteindra environ 25 milliards de dollars d'ici 2023 avec un TCAC de 17 % entre 2016 et 2023. D’après MRFR, l'élargissement de la base d'applications est en partie à l'origine de cette croissance du marché mondial.

Selon le rapport de MRFR, les développeurs améliorent constamment l'efficacité et la fonctionnalité de l'analyse des émotions, les rendant compatibles avec un large éventail d'applications logicielles et matérielles qui utilisent des techniques d'exploitation audiovisuelle. En outre, la pénétration croissante de la big data et de l'intelligence artificielle ouvre de nouvelles possibilités d'application de l'analyse émotionnelle. Le rapport a également segmenté le marché mondial de l'analyse des émotions en quatre régions clés, à savoir l'Amérique du Nord, l'Europe, l'Asie Pacifique (APAC) et le reste du monde (RoW). Avec l'Amérique du Nord qui occupe une position dominante, en termes de parts de marché, et cette tendance devrait se poursuivre tout au long de la période des prévisions, selon le rapport.


Selon AI Now, la technologie est actuellement utilisée pour évaluer les candidats à un emploi et les personnes soupçonnées de crimes. Dans ce cas d’utilisation, l’institut a fait référence à un rapport publié en novembre dernier par Electronic Privacy Information Center (EPIC). Dans ce rapport, il est question de HireVue, un des outils d'intelligence artificielle que les entreprises utilisent de plus en plus pour évaluer les candidats. L'algorithme analyse les entrevues vidéo en se basant sur plusieurs indices, du choix des mots aux mouvements faciaux des candidats, pour établir un "score d'employabilité" qui est comparé à celui des autres candidats. Selon EPIC, plus de 100 entreprises l'ont déjà utilisé sur plus d'un million de candidats.

Selon le rapport, les critiques s'inquiètent du fait que l'algorithme est formé sur des données limitées et qu'il sera donc plus susceptible de marquer les candidats "traditionnels" (blancs, hommes) comme plus employables. Par conséquent, les candidats qui s'écartent de ces critères - y compris les personnes qui ne parlent pas l'anglais comme langue maternelle ou qui sont handicapées - sont susceptibles d'obtenir des notes inférieures, selon les experts.

De plus, AI Now a indiqué que la technologie de reconnaissance des émotions est testée pour d'autres applications, comme dans les casques VR pour déduire les états émotionnels des joueurs. Dans une interview publiée en décembre 2018, Brian Yongwook Chae, PDG de Looxid Labs a présenté son produit LooxidVR, qui permet de mesurer de façon transparente les ondes cérébrales et les images des caméras infrarouges des utilisateurs de VR une fois que ces derniers portent simplement le casque d'écoute. Les données physiologiques brutes mesurées par LooxidVR sont prétraitées à l'aide d'un algorithme de réduction du bruit des ondes cérébrales et de détection pupillaire. L'algorithme d'apprentissage machine est appliqué aux informations prétraitées pour détecter les états émotionnels des utilisateurs.


Des problèmes liés à la technologie de reconnaissance des émotions

Le rapport d’AI Now dit qu’il y a aussi des preuves que la reconnaissance des émotions peut amplifier les disparités entre les races et les sexes. En effet, l'IA est sujette à des préjugés cachés dans la lecture des émotions, selon une étude publiée en janvier par Lauren Rhue, professeur assistante de systèmes d'information et d'analyse à Wake Forest University. Selon elle, bien que l’analyse des émotions est de plus en plus utilisée dans la vie quotidienne, cette technologie a du mal à interpréter les émotions des visages noirs, la technologie attribuant plus d'émotions négatives au visage des hommes noirs qu'à celui des hommes blancs.

AI Now cite également une étude récente de l'Association for Psychological Science, qui a passé deux ans à examiner plus de 1 000 articles sur la détection des émotions et a conclu qu'il est très difficile d'utiliser les expressions faciales seules pour dire avec précision ce que ressent une personne. En effet, les gens sourient quand ils sont heureux et froncent les sourcils quand ils sont tristes, mais la corrélation est faible, dit Lisa Feldman Barrett, psychologue à la Northeastern University. Les gens font plein d'autres choses quand ils sont heureux ou tristes aussi, et un sourire peut être ironique. Leurs comportements varient beaucoup d'une culture et d'une situation à l'autre, et le contexte joue un rôle important dans la façon dont nous interprétons les expressions, a-t-elle ajouté.

Selon les chercheurs de l'Association for Psychological Science, le défaut de données de formation des IA de reconnaissance des émotions constitue un danger. Selon leur rapport, une approche extrêmement courante consiste, entre autres, pour les entreprises de demander aux gens de regarder des vidéos émouvantes et de scanner leur visage. Puis une personne de l'entreprise est responsable de l'étiquetage de ces données pour alimenter l'algorithme. Mais le problème avec est que, d’après le rapport, si on vous dit de faire un visage surpris, cela peut être très différent de l'apparence réelle de votre visage lorsque vous êtes surpris. Aussi, une tierce personne est chargée d’examiner et étiqueter ces données. Un observateur peut lire une expression faciale comme "surprise", mais sans demander à la personne d'origine, il est difficile de savoir quelle était la véritable émotion, lit-on dans le rapport.

AI Now recommande l’intervention des organismes de réglementation pour restreindre l’utilisation des technologies de reconnaissance faciale et des émotions

Dans son rapport, AI Now recommande que les organismes de réglementation intervenir pour restreindre fortement utilisation de la technologie de la reconnaissance des émotions, et d'ici là, que les sociétés d'IA cesse de la déployer. AI Now demande également aux gouvernements et aux entreprises de cesser d'utiliser la technologie de reconnaissance faciale pour des applications sensibles jusqu'à ce que les risques aient été correctement étudiés. San Francisco est devenu la première ville des Etats-Unis à interdire l'usage de la reconnaissance faciale en mai dernier, en se basant sur des raisons en lien avec les droits de l'Homme.

L’institut s'en prend à l'industrie de l'IA pour son « racisme systémique, sa misogynie et son manque de diversité ». Elle a également demandé la divulgation obligatoire de l'impact environnemental de l'industrie de l'IA.

Cependant, les chercheurs disent que les émotions que nous affichons ne peuvent pas être exactement interprétées, à quoi servirait la restriction de la technologie de reconnaissance des émotions ? Ne serait-il pas mieux d’interdire toutes les applications ?

Source : AI Now 2019 Report

Et vous ?

Que pensez-vous du rapport ?
Pensez-vous que la conclusion de AI Now est exagérée ou que la technologie de reconnaissance des émotions devrait être effectivement interdite ?
Pensez-vous qu’une réglementation de l’IA est possible à l’échelle mondiale ?

Lire aussi

La technologie de reconnaissance faciale d'Amazon identifie à tort 28 membres du Congrès US comme des criminels, quels dangers pour les Américains ?
La Chine interdit à 23 millions de personnes d'acheter des billets de voyage, dans le cadre de son système de crédit social
États-Unis : le sénateur Bernie Sanders veut interdire l'utilisation de la reconnaissance faciale, par la police
San Francisco devient la première ville US à interdire l'usage de la reconnaissance faciale, pour des raisons en lien avec les droits de l'Homme

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Neckara
Inactif https://www.developpez.com
Le 15/12/2019 à 9:31
Citation Envoyé par xXxNeWgEnErAtIoN Voir le message
Si tu sais pas faire la différence entre un insecte et un animal je peux rien pour toi.

C'est juste que les gens savent pas analyser les résultats, forcément à mettre tout le monde avec un bac+5 le niveau baisse .
Heu…

Les insectes (Insecta) sont une classe d'animaux invertébrés de l'embranchement des arthropodes et du sous-embranchement des hexapodes.
https://fr.wikipedia.org/wiki/Insecte

Forcément à donner à tout le monde le brevet des collèges le niveau baisse .

EDIT: Pour les mammifères https://www.sciencesetavenir.fr/arch...l-homme_105328
4  0 
Avatar de rawsrc
Expert éminent sénior https://www.developpez.com
Le 15/12/2019 à 16:27
Citation Envoyé par calvaire Voir le message
Quand vous mettez du savon sur votre peau, vous commettez un génocide,
A ressortir dans le grand monde, celle-là je devrais m'en souvenir
3  0 
Avatar de 09876543210
Membre à l'essai https://www.developpez.com
Le 14/12/2019 à 11:28
Ça parait loin mais c'était hier.
3  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 15/12/2019 à 16:02
la race humaine est très bien comme elle est. Elle évolue toujours plus, toujours plus vite, c'est son destin d'envahir la galaxie et d'exterminer toute espece qui se mettrait au travers de sa route.
Depuis l'apparition du 1er vaccin l'homme a déjà commencé l'extermination des nuisibles tels Mycobacterium tuberculosis (la tuberculose)
et c'est bien comme sa, l'extermination de masse des races qui nous menace permet de vivre et de progresser encore d’avantage. Quand vous mettez du savon sur votre peau, vous commettez un génocide, ne l'oublier pas (enfin si oublier le car on s'en fou ce ne sont que des microbes insignifiants).
2  0 
Avatar de Neckara
Inactif https://www.developpez.com
Le 14/12/2019 à 20:30
Citation Envoyé par xXxNeWgEnErAtIoN Voir le message
Ok donne moi une espèce animale qui a tué des millions de ces congénères les 2 derniers siècles, on t'écoute le progressiste.
Les fourmis, et ça monte à bien plus que quelques millions.

Sinon, pour rappel, c'est de l'IA entraînées à partir d'un jeu de données.
C'est à dire que si l'IA a un biais envers un groupe de personnes, ce n'est pas nécessairement parce que ses concepteurs sont racistes, juste que le jeu de donnée en entré est biaisé.

Cela peut aussi venir de corrélations réelles, mais qui ne sont pas légitimes pour prendre une décision, car ne sont que des corrélations.
3  2 
Avatar de Neckara
Inactif https://www.developpez.com
Le 15/12/2019 à 17:08
Citation Envoyé par xXxNeWgEnErAtIoN Voir le message
A ce rythme là dès qu'on respire on tue des millions de bactéries, on va tous aller au purgatoire à ce rythme
C'est pas grave, les bactéries ne font pas parti du règne animal :
https://fr.wikipedia.org/wiki/Embran...embranchements
1  0 
Avatar de Neckara
Inactif https://www.developpez.com
Le 15/12/2019 à 20:57
Citation Envoyé par xXxNeWgEnErAtIoN Voir le message
T'as raison tuons des bactéries car elles n'ont pas de sentiments, c'est pas parce qu'elles n'en ont pas que ça doit nous empêcher d'en avoir.
Ben arrête de respirer alors.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/12/2019 à 10:55
Citation Envoyé par Stan Adkens Voir le message
Pensez-vous que la conclusion de AI Now est exagérée ou que la technologie de reconnaissance des émotions devrait être effectivement interdite ?
Là si il y a un problème de race et de sexe c'est parce que l'algorithme est basé sur un mauvais set de données.
Il y a des recruteurs qui refusaient beaucoup de femmes et de noirs, c'est de ces données dont se nourris l'algorithme, donc automatiquement il va reproduire les mêmes schémas.

Certains recruteurs se méfient des femmes car ils sont inquiétés du fait qu'elles puissent tomber enceinte, elles vont avoir moins d'énergie puis elles vont louper le boulot.
Pour les noirs il y a des histoires de statistiques, ils sont globalement plus pauvre, donc plus enclins à commettre des délits et des crimes.

C'est peut-être exagéré mais en gros :
Blacks represent 13% of the population but commit 50% of the murders; 90% of black victims are murdered by other blacks.
https://time.com/3153340/beyond-a-si...-for-ferguson/
Bon par contre dès qu'il y a un diplôme il n'y a plus de problème, si la personne a eu accès à des études c'est qu'elle n'est pas pauvre, donc elle peut devenir policier, médecin, ingénieur, etc.
Les noirs riches n'ont pas de barrières ils peuvent tout faire, le problème c'est la pauvreté.
C'est un peu comme en Afrique du sud les pauvres noirs et les pauvres blancs se battent entre eux, alors que les riches noirs et les riches blancs s'entendent très bien, ils vont consommer de la coke et des putes ensemble.

Citation Envoyé par xXxNeWgEnErAtIoN Voir le message
les hommes (au sens humanité) ont du mal à comprendre que la couleur de peau ne change rien.
C'est un comportement animal naturel complètement normal, c'est l'esprit de survie et de préservation, dans le monde animal il est souvent question de territoire délimité, si un animal entre dans la mauvaise zone il prend des risques.
Dans la nature si tu ne défend pas ton territoire, des individus vont venir, tout bouffer et tu vas crever de faim.

Pendant des centaines de milliers l'humain a fonctionné comme ça et ce sera toujours en nous.
Cela dit il y a toujours eu des mélanges entre tribus, ça fait pas de mal d'éviter qu'il y ait trop de consanguinité.
Neandertal c'est reproduit avec Homo Sapiens, donc les mélanges existent, ils sont surtout utile quand il faut s'adapter à un environnement difficile, en se mélangeant avec Neandertal, Homo Sapiens a gagné des milliers d'années d'évolution, très vite sa descendance était plus adapté au froid.

Il y a un truc marrant chez l'humain, c'est la théorie des ensembles, à l'échelle du village on n'aime pas le village d'a côté, à l'échelle du département on n'aime pas le département d'a côté, à l'échelle de la région on aime pas la région d'a côté (c'est en parti pour ça si les gens étaient contre le regroupement des régions), à l'échelle du pays on n'aime pas le pays d'a côté (blagues Belge en France, blague Suisse en Belgique, blague Française en Suisse), etc.
Si il y a une partie de pétanque entre les meilleurs de ton village et les meilleurs du village d'a côté, tu va être à fond contre l'équipe du village voisin.
Par contre si un joueur du village d'a côté devient le champion du monde de pétanque d'un coup c'est quelqu'un que tu respectes. Tout dépend de l'échelle, tu peux toujours diviser ou unir.

====
Bref, la technologie de reconnaissance des émotions va avancer, mais là ça parle d'un truc dans le monde de l'entreprise, donc ce n'est pas intéressant.
0  0 
Avatar de xXxNeWgEnErAtIoN
Inactif https://www.developpez.com
Le 15/12/2019 à 20:08
T'as raison tuons des bactéries car elles n'ont pas de sentiments, c'est pas parce qu'elles n'en ont pas que ça doit nous empêcher d'en avoir.

On serait rien sans elles.
0  1 
Avatar de xXxNeWgEnErAtIoN
Inactif https://www.developpez.com
Le 14/12/2019 à 18:49
Ok donne moi une espèce animale qui a tué des millions de ces congénères les 2 derniers siècles, on t'écoute le progressiste.
1  3