En avril, une publicité virale de Bland AI a suscité de vives réactions sur les réseaux sociaux, mettant en avant la capacité impressionnante de leurs chatbots à imiter les voix humaines avec une grande précision. Le panneau publicitaire de Bland AI posait la question « Toujours en train d'embaucher des humains ? », atteignant 3,7 millions de vues sur Twitter. Ces chatbots, conçus pour automatiser les appels d'assistance et de vente, utilisent des intonations et des pauses réalistes. Cependant, des tests ont montré que ces robots peuvent facilement mentir sur leur identité, prétendant être humains lorsqu'ils sont programmés pour le faire.Fondée en 2023, Bland AI est une plateforme dédiée aux appels téléphoniques pilotés par l'intelligence artificielle (IA). Son objectif est de développer, tester et optimiser des agents d'appels. Le nom "bland" provient du latin "blandus", signifiant agréable et séduisant. Cette solution propose toute l'infrastructure et les API nécessaires pour les appels entrants et sortants, facilitant l'intégration dans divers secteurs comme l'immobilier, la santé, la logistique et les finances.
Bland AI se distingue des systèmes d'IA traditionnels par sa capacité à gérer plus d'un million d'appels tout en privilégiant une interaction conversationnelle naturelle. Cette approche innovante favorise une communication fluide, cruciale pour les entreprises où chaque interaction client est importante. Cette technologie simplifie la création d'agents IA en ne nécessitant pas de compétences avancées en programmation, rendant ainsi l'IA plus accessible et facilitant son intégration dans les opérations commerciales courantes.
Lors d'un test, un chatbot de Bland AI a simulé un appel provenant d'un cabinet de dermatologie pédiatrique, demandant à une patiente fictive de 14 ans d'envoyer des photos de sa cuisse tout en mentant sur son identité humaine. Bland AI affirme opérer en mode "furtif", et son cofondateur Isaiah Granet ne mentionne pas l'entreprise sur LinkedIn. Ce cas met en lumière une inquiétude croissante concernant les chatbots d'IA générative et leur capacité à tromper les utilisateurs finaux, soulevant ainsi des enjeux éthiques cruciaux.
Des experts, comme Jen Caltrider de la Fondation Mozilla, estiment qu'il est contraire à l'éthique pour un chatbot de prétendre être humain. Michael Burke de Bland AI assure que leurs chatbots sont destinés à des environnements contrôlés pour des tâches spécifiques et que des audits réguliers sont effectués pour prévenir les abus. Cependant, les conditions d'utilisation de Bland AI permettent aux chatbots de se faire passer pour des humains, ce qui pose des questions sur les mesures nécessaires pour éviter les manipulations éthiques.
Les chatbots dopés à l'IA, qui mènent des conversations de type thérapeutique et les applications de bien-être qui diagnostiquent la dépression ou identifient les personnes à risque d'automutilation, gagnent en popularité parmi les prestations de santé offertes par les employeurs. « La demande de conseillers est immense, tandis que l'offre de professionnels de la santé mentale diminue », explique J. Marshall Dye, PDG de PayrollPlans, un fournisseur basé à Dallas de logiciels d'avantages sociaux, qui a introduit en novembre un chatbot appelé Woebot.
Des entreprises comme OpenAI et Meta ont également été critiquées pour leurs chatbots à voix trop humaines. Lors de tests, les chatbots d'OpenAI ne prétendaient pas être humains et demandaient l'assistance d'un parent pour certaines tâches, tandis que les chatbots de Meta, malgré un avertissement initial, refusaient d'admettre leur nature d'IA pendant les conversations. Ces cas illustrent la difficulté de maintenir la transparence et la confiance des utilisateurs face à des systèmes de plus en plus sophistiqués.
Les conséquences de l'utilisation des chatbots d'IA sans garde-fous appropriés peuvent être graves, notamment en matière de manipulation et de fraude. Bland AI affirme surveiller et limiter les abus potentiels, mais des experts comme Caltrider estiment qu'il est crucial de distinguer clairement entre humains et IA dès maintenant. Le secteur doit adopter des mesures de transparence rigoureuses et des sanctions pour éviter un futur dystopique où la distinction entre humains et robots devient floue.
Ordinateur ou humain ? Les dangers du mimétisme émotionnel des IA
Le chatbot à voix humaine de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.