IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google concevrait des chatbots pour effectuer tout type de tâches et l'un d'entre eux pourrait jouer le rôle de "coach de vie",
Mais les experts en IA jugent ce cas d'utilisation dangereux

Le , par Mathis Lucas

0PARTAGES

6  0 
Google déploie des efforts considérables pour arriver en tête dans la course à l'IA. La rumeur indique que l'entreprise travaille actuellement sur des modèles d'IA générative pour piloter des chatbots capables d'effectuer 21 tâches différentes, dont la rédaction de plans, le tutorat d'utilisateurs dans de nouvelles compétences et la délivrance de conseils de vie. Ce dernier cas d'utilisation inquiète les experts en IA, y compris certains cadres de Google, qui recommandent à l'entreprise d'éviter ce développement. Les chercheurs posent la préoccupation suivante : les machines n'ont aucune expérience du monde réel, alors pourquoi s'adresser à elles pour obtenir des conseils ?

Google a été pris de court par OpenAI et Microsoft et tout porte à croire que le géant de la recherche en ligne a été dépassé dans la course à l'IA. Toutefois, Google n'a aucune intention de se laisser faire. L'entreprise serait en train de construire une famille de nouveaux grands modèles de langage (LLM) que ses concurrents auront du mal à imiter. Pour cela, en avril, Google aurait fusionné DeepMind, un laboratoire de recherche acquis à Londres, et Brain, une équipe d'IA créée dans la Silicon Valley. L'équipe issue de cette fusion testerait actuellement de nouveaux outils d'IA ambitieux, dont l'un d'entre eux serait appelé à jouer le rôle de coach personnel de vie.

Cependant, ce développement soulève de nombreuses préoccupations. L'idée qu'une IA puisse offrir ce type de conseils est un changement important pour Google, car le géant de la publicité et de la recherche conseille actuellement aux utilisateurs de son chatbot Bard de ne pas utiliser le logiciel à cette fin. « Les réponses de Bard ne doivent pas être considérées comme des conseils médicaux, juridiques, financiers ou autres conseils professionnels », précise l'avis de confidentialité de Bard. En plus de cela, le document demande également aux utilisateurs de ne pas partager d'informations confidentielles ou sensibles dans leurs conversations avec le chatbot.


Ces informations constituent, par exemple, le genre de chose qu'un coach de vie doit savoir. Le mentor artificiel de Google serait appelé à traiter des requêtes comme celle-ci : « j'ai une amie très proche qui va se marier cet hiver. Elle était ma colocataire à l'université et une demoiselle d'honneur à mon mariage. J'aimerais tellement aller à son mariage pour la fêter, mais après plusieurs mois de recherche d'emploi, je n'ai toujours pas trouvé un travail. Elle organise son mariage dans un destination particulière et je n'ai pas les moyens de payer le vol ou l'hôtel pour le moment. Comment dois-je lui dire que je ne pourrai pas venir à son mariage ? ».

Selon un récent rapport du New York Times, le chatbot de Google comprend au moins trois éléments susceptibles de répondre à une telle requête. Son créateur d'idées peut faire des suggestions ou des recommandations, sa fonction de tutorat peut enseigner de nouvelles compétences et sa capacité de planification est en mesure de créer un budget financier. La question de savoir si tout cela serait utile, voire pertinent, est différente. Pour évaluer la question, Google aurait engagé Scale AI, une startup d'étiquetage de données, pour analyser les réponses que son mentor artificiel génère en réponse à des questions telles que celle ci-dessus.

L'équipe de Scale AI serait constituée de plus de 100 experts titulaires d'un doctorat dans différents domaines. Dans un diaporama présenté aux cadres en décembre, les experts en sécurité de l'IA de Google avaient mis en garde contre les dangers d'un attachement émotionnel trop fort des gens aux chatbots. Ils ont déclaré que les utilisateurs pourraient voir leur santé et leur bien-être diminuer et qu'ils pourraient perdre leur autonomie s'ils suivaient les conseils de vie de l'IA. (C'est la raison pour laquelle, lorsque Google a lancé Bard en mars, il a précisé que le chatbot n'avait pas le droit de donner des conseils médicaux, financiers ou juridiques).

Bard partage des ressources en matière de santé mentale avec les utilisateurs qui déclarent souffrir de troubles mentaux. En réponse aux diverses préoccupations de la communauté sur le sujet, une porte-parole de Google DeepMind a déclaré : « nous travaillons depuis longtemps avec divers partenaires pour évaluer nos recherches et nos produits dans l'ensemble de Google, ce qui constitue une étape essentielle dans la mise au point d'une technologie sûre et utile. À tout moment, de nombreuses évaluations de ce type sont en cours. Des échantillons isolés de données d'évaluation ne sont pas représentatifs de la feuille de route de nos produits ».

Les chatbots d'IA ont tendance à produire de fausses informations, et Google le sait. Les résultats produits par les outils d'IA générative vont du ridicule au gravement dangereux. Des chercheurs ont également mis en garde contre les lacunes des mesures de protection de certaines IA génératives. Par exemple, un rapport récent du Center for Countering Digital Hate, une organisation à but non lucratif qui se consacre à la protection des internautes, a révélé que les outils d'IA peuvent produire des contenus dangereux liés aux troubles de l'alimentation. Le plus inquiétant est que certains utilisateurs accueillent favorablement ce type de contenu.

Savey Meal-bot, un générateur de recettes géré par un supermarché néo-zélandais, a fait toutes sortes de recommandations, notamment des smoothies nauséabonds, des cocktails à base de gaz chloré, du riz infusé à l'eau de Javel et même des ragoûts à base de chair humaine - jusqu'à ce qu'il soit mis au pas. En mai, la National Eating Disorders Association des États-Unis (une organisation à but non lucratif qui se consacre à la prévention des troubles de l'alimentation et à l'orientation vers des traitements) a supprimé son chatbot Tessa, qui donnait des conseils contre-productifs aux personnes souffrant d'anorexie ou de boulimie.

Tessa a recommandé à une utilisatrice - qui cherchait des conseils pour se remettre en toute sécurité d'un trouble alimentaire - de compter les calories, de se peser chaque semaine et d'acheter des pieds à coulisse pour mesurer la graisse corporelle. Bien entendu, le fait que Google expérimente de tels chatbots ne signifie pas qu'il a l'intention de les déployer. La chocolaterie teste souvent des idées pour voir où elles pourraient aboutir ; après les tests, Google peut décider de ne pas les utiliser. Dans le cas de l'IA qui donne des conseils, l'entreprise est certainement consciente que toute erreur aurait des conséquences négatives.

Pour rappel, lorsque Bard a fait ses débuts en mars et a bâclé certaines réponses, le cours de l'action d'Alphabet, la société mère de Google, a chuté d'environ 10 %, les investisseurs craignant que l'entreprise ne passe à côté du marché de l'IA. Par ailleurs, Google testerait également un assistant pour les journalistes. Ce dernier est censé permettre aux journalistes de générer des articles de presse, de les réécrire et de suggérer des titres. L'entreprise aurait présenté ce logiciel, baptisé Genesis, à des responsables du New York Times, du Washington Post et de News Corp, la société mère du Wall Street Journal.

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous qu'une IA est habileté à donner des conseils sur la vie ?
Selon vous, un tel cas d'utilisation est-il prudent ? Quels sont les dangers potentiels ?

Voir aussi

Un chatbot médical GPT-3 d'OpenAI serait-il une bonne idée ? Il a dit à un patient simulé de se suicider, lors d'un test réalisé par Nabla

73 % des utilisateurs font confiance à ce que l'IA générative veut nous faire savoir, 53 % font confiance à la planification financière assistée par l'IA générative, selon Capgemini Research

Les utilisateurs de Replika sont tombés amoureux d'un chatbot d'IA, puis ont perdu leur compagnon après une mise à jour, ils supplient l'auteur de revenir à la version originale du logiciel

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eddy72
Membre régulier https://www.developpez.com
Le 20/08/2023 à 12:50
A quoi peut ressembler un bug dans un soft qui fabriquerais des sociopathes a la chaîne ?
FB ?
YT ?
0  0