IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une nouvelle startup affirme que son IA peut analyser les émotions des humains et proposer des solutions pour mieux les manipuler
Afin d'atteindre les objectifs de vente

Le , par Nancy Rey

35PARTAGES

3  0 
Alors que les chercheurs en IA tentent depuis des décennies d'insuffler des émotions humaines à des machines robotiques froides et calculatrices, des sociétés de logiciels de vente et de service à la clientèle, tels que Uniphore et Sybill, créent des produits qui utilisent l'IA pour tenter d'aider les humains à comprendre les émotions humaines et à y répondre. Zoom, le géant de la réunion virtuelle, prévoit également de proposer des fonctionnalités similaires à l'avenir. Ainsi, identifier, mesurer et quantifier ce qui compte vraiment pour les clients en utilisant l'intelligence émotionnelle en temps réel est t l’objectif crucial de vente à atteindre.


Uniphore est une startup de technologie d'automatisation conversationnelle qui vend des logiciels d'analyse conversationnelle, d'assistants conversationnels et de sécurité conversationnelle. L’entreprise a annoncé Q for Sales, une solution qui dote les organisations commerciales d'une solution puissante basée sur l'intelligence émotionnelle pour favoriser des interactions et des résultats positifs, engageants et fiables avec les clients. « Il est très difficile d'établir une relation dans ce type d'environnement », a déclaré Tim Harris, directeur du marketing produit chez Uniphore, à propos des réunions virtuelles.

La société vend un logiciel qui tente de détecter si un client potentiel est intéressé par ce qu'un vendeur a à dire pendant un appel vidéo, en alertant le vendeur en temps réel pendant la réunion si quelqu'un semble plus ou moins engagé dans un sujet particulier. Q for Sales, peut indiquer que le sentiment ou le niveau d'engagement d'un client potentiel augmente lorsqu'un vendeur mentionne une caractéristique particulière d'un produit, mais diminue lorsque le prix est mentionné. Sybill, un concurrent, utilise également l'IA pour tenter d'analyser l'humeur des gens pendant un appel.

Le logiciel d'Uniphore intègre la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel et l'intelligence artificielle des émotions pour détecter les indices comportementaux associés au ton de la voix, aux mouvements des yeux et du visage ou à tout autre langage corporel non verbal d'une personne, puis analyse ces données pour évaluer son attitude émotionnelle.

Il existe un véritable tableau de bord numérique des émotions

Installée à côté de l'image d'une personne sur une caméra pendant une réunion virtuelle, l'application Q for Sales visualise l'émotion par le biais de jauges fluctuantes indiquant les niveaux de sentiment et d'engagement détectés en fonction de l'interprétation combinée par le système de la satisfaction, du bonheur, de l'engagement, de la surprise, de la colère, du dégoût, de la peur ou de la tristesse. Le logiciel nécessite l'enregistrement des appels vidéo et n'est en mesure d'évaluer le sentiment d'une personne que lorsque ce client individuel, ou une pièce remplie de clients potentiels, et le vendeur ont approuvé l'enregistrement.

Bien que Harris ait déclaré qu'Uniphore ne compile pas de profils de personnes individuelles à partir des données qu'il intercepte et génère, son logiciel fournit des données qui, selon lui, indiquent « l'état émotionnel d'une transaction » en se basant sur le sentiment et l'engagement de tous les membres d'un comité d'achat qui ont participé à des réunions tout au long des discussions avec ce client potentiel.

Mais la simple demande d'enregistrement d'une conversation virtuelle peut modifier l'attitude d'un client, a déclaré Grace Briscoe, vice-présidente senior du développement de la clientèle de la société de publicité numérique Basis Technologies. « Dès que l'alerte d'enregistrement apparaît, les gens sont sur leurs gardes. Je pense que ce serait rébarbatif pour les clients ; ils seraient moins francs. Je ne pense pas que cela soit propice à l'établissement de la relation que nous souhaitons établir », dit-elle. Si certains participants à des réunions de vente peuvent être mal à l'aise à l'idée d'être enregistrés, d'autres seront plus ouverts à cette idée, a déclaré Josh Dulberger, responsable des produits, des données et de l'IA chez Zoom. « Cela dépend en partie de la culture de l'équipe de vente », a-t-il dit, notant que l'enregistrement pourrait ne pas être toléré lorsqu'il s'agit de vendre à des industries plus sensibles comme les services financiers.

Zoom, le roi des réunions virtuelles, a déclaré mercredi qu'il introduisait de nouvelles fonctionnalités appelées Zoom IQ for Sales, qui fournissent aux hôtes des réunions de vente des transcriptions de conversation post-réunion et une analyse des sentiments. Bien que certains services de transcription basés sur l'IA soient connus pour faire des erreurs, Dulberger a déclaré que le logiciel de Zoom a été construit en interne en utilisant son propre système de reconnaissance automatique du locuteur et de compréhension du langage naturel. Le système est intégré à Salesforce. « Nous examinons des éléments tels que la cadence du locuteur et d'autres facteurs dans l'approche linguistique pour essayer de distinguer un locuteur d'un autre », a déclaré Dulberger.

Pour l'instant, les nouvelles fonctionnalités de Zoom pour les vendeurs n'évaluent pas le sentiment en temps réel pendant une réunion. Elles fournissent plutôt une analyse après la réunion. Par exemple, M. Dulberger explique qu'une interaction peut être qualifiée de "faible engagement" si le client potentiel n'a pas beaucoup parlé. « Vous serez en mesure de mesurer qu'il n'a pas été très engagé », a-t-il déclaré, notant que les vendeurs visent des conversations équilibrées au cours desquelles les clients parlent aussi souvent que le représentant.

L'analyse des sentiments, une quête de longue date

L'analyse des sentiments n'a rien de nouveau. Depuis les premiers jours des médias sociaux, les fournisseurs de logiciels ont récupéré le texte des messages, des tweets et des évaluations de produits, analysant leur contenu pour aider à déterminer ce qu'ils signifient pour les marques de consommateurs, les restaurants ou les candidats politiques. Aujourd'hui, les logiciels destinés aux discussions d'assistance et aux centres d'appels utilisent la reconnaissance vocale et l'IA de traitement du langage naturel pour inciter les représentants du service clientèle à parler plus lentement ou à être plus énergiques. Par exemple, Amazon s'est associé à Salesforce pour apporter l'analyse des sentiments aux applications utilisées par les agents du service clientèle, et un produit de Cogito utilise l'analyse vocale en cours d'appel pour évaluer l'état émotionnel des appelants ou des agents de service.

Une IA douteuse pour le coaching des compétences humaines de base

Mais ce que font des entreprises telles qu'Uniphore, qui a récemment recueilli 400 millions de dollars de financement et Sybill va plus loin que les messages d'aide au service clientèle. Uniphore et Sybill visent à surveiller en temps réel le comportement humain pendant les appels vidéo. Et ils parient que même les vendeurs chevronnés peuvent bénéficier des conseils de leur coaching émotionnel par l'IA.

Dulberger a déclaré que Zoom mène également des recherches actives en vue d'intégrer l'IA émotionnelle dans les produits de la société à l'avenir. Il a cité des recherches qui, selon lui, montrent que des améliorations sont apportées à l'IA utilisée pour détecter les émotions des gens, y compris une étude impliquant une technique qui supprime les images faciales de l'imagerie de fond qui peut confondre les ordinateurs et un nouvel ensemble de données qui incorpore des données d'expression faciale, des signaux physiologiques tels que le rythme cardiaque et la température corporelle et des émotions auto-déclarées. « Ce sont des signaux informationnels qui peuvent être utiles ; ils ne sont pas nécessairement décisifs », a déclaré Dulberger, notant que les métriques basées sur l'IA des émotions pourraient être ajoutées pour fournir aux vendeurs une compréhension plus riche de ce qui s'est passé pendant une réunion de vente.

Grace Briscoe a déclaré qu'elle reconnaissait la valeur potentielle des technologies basées sur l'IA des émotions en tant qu'outils de gestion pour aider à déterminer quels vendeurs pourraient rencontrer des problèmes. Cependant, elle a déclaré : « Les entreprises devraient embaucher des personnes qui ont un certain niveau d'intelligence émotionnelle. Si les personnes de notre équipe ne peuvent pas lire que quelqu'un a perdu son intérêt, ce sont des compétences humaines de base que je ne vois pas pourquoi vous auriez besoin de l'IA pour faciliter ».

Même si le guidage émotionnel par l'IA est séduisant pour certaines équipes de vente, sa validité est remise en question

« L'affirmation selon laquelle l'état intérieur d'une personne peut être évalué avec précision en analysant le visage de cette personne est fondée sur des preuves bancales», écrit Kate Crawford dans un article publié en 2021 dans The Atlantic. Dans cet article, Kate Crawford, spécialiste de l'éthique de l'IA, professeur de recherche à l'USC Annenberg et chercheur principal senior chez Microsoft Research, cite un document de recherche de 2019 selon lequel « les preuves scientifiques disponibles suggèrent que les gens sourient parfois lorsqu'ils sont heureux, froncent les sourcils lorsqu'ils sont tristes, se renfrognent lorsqu'ils sont en colère, et ainsi de suite, comme le propose l'opinion commune, plus que ce à quoi on pourrait s'attendre par hasard. Pourtant, la façon dont les gens communiquent la colère, le dégoût, la peur, le bonheur, la tristesse et la surprise varie considérablement d'une culture à l'autre, d'une situation à l'autre, et même d'une personne à l'autre dans une même situation ».

Patrick Ehlen, vice-président de l'IA chez Uniphore, a déclaré que la technologie développée par Uniphore utilise les mêmes signaux que ceux utilisés par les gens pour déduire ce que les autres pensent ou ressentent, comme les expressions faciales, le langage corporel et le ton de la voix. « Nous nous efforçons de faire aussi bien qu'un humain », a-t-il déclaré. Le modèle d'intelligence artificielle d'Uniphore a été entraîné à l'aide d'ensembles de données privées et open-source présentant des images de divers groupes ethniques de personnes, a déclaré Ehlen. Certaines de ces données proviennent de réunions de vente réelles organisées par la société. Pour aider la machine à apprendre quels indices faciaux représentent certains types d'émotions, les données d'image ont été étiquetées par des personnes qu'Uniphore a engagées pour faire ces annotations sur la base d'un ensemble de directives que la société a établies puis modifiées en fonction de l'accord des personnes sur certains critères.

« À l'avenir, il sera toujours possible d'améliorer ces choses à mesure que le système sera entre les mains de domaines plus vastes », a déclaré Ehlen. L'entreprise mène également une étude de validation du logiciel. Mais Ehlen reconnaît les limites de la technologie. « Il n'existe pas de moyen vraiment objectif de mesurer les émotions des gens. Vous pourriez être en train de sourire et de hocher la tête, et en fait, vous pensez à vos vacances de la semaine prochaine », a-t-il déclaré.

Sources : Uniphore, Nature news (1, 2)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

La technologie de reconnaissance des émotions devrait être interdite, car elle a peu de fondement scientifique a conclu l'institut de recherche IA Now

Ameca : le robot humanoïde avec les expressions faciales les plus avancées et les plus réalistes à ce jour, pourra être exploité pour tester votre IA ou votre technologie d'apprentissage automatique

La plupart des propriétaires d'entreprises prévoient d'installer l'intelligence artificielle et la robotique en 2035, 41 % d'entre eux remplaceront entièrement les services à la clientèle

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de BleAcheD
Membre averti https://www.developpez.com
Le 19/04/2022 à 10:17
Bientôt une IA pour changer nos émotions ?
Déjà qu'on les manipulent aisément sans IA...
0  0