L’intelligence artificielle est censée faciliter la vie des utilisateurs, mais parfois, elle peut sembler plus problématique que bénéfique. Récemment, un chatbot IA mis en place par la ville de New York pour aider les petits entrepreneurs a été pris en flagrant délit de fournir des conseils erronés et d’inciter les entreprises à enfreindre la loi. Malgré ces problèmes, les responsables ont choisi de laisser l’outil en ligne, suscitant des inquiétudes quant à l’utilisation de l’IA par les gouvernements sans garde-fous suffisants.
Le chatbot en question
Lancé en octobre dernier, ce chatbot, baptisé “MyCity Chatbot”, se veut un guichet unique pour les propriétaires d’entreprises cherchant à naviguer dans le labyrinthe bureaucratique de la ville.
« Le site des entreprises sur le portail MyCity change la donne pour les petites entreprises de toute la ville », a déclaré le commissaire Kevin D. Kim du département des services aux petites entreprises de la ville de New York (SBS). « Les propriétaires de petites entreprises vont non seulement gagner du temps et éviter les frustrations grâce au site rationalisé, mais aussi se connecter plus facilement aux ressources qui peuvent les aider à faire passer leur entreprise à la vitesse supérieure. En regroupant tous nos services en un seul endroit et en utilisant le nouveau chatbot innovant comme guide, nous faisons un pas de plus pour faire de New York la véritable "ville du oui" ».
Cependant, ses réponses algorithmiques ont rapidement posé problème. Le chatbot a non seulement fourni des informations incorrectes, mais il a également encouragé des pratiques illégales.
Voici quelques exemples problématiques :
- Refus de locataires basés sur la source de revenus : Lorsqu’on a demandé au chatbot IA si les propriétaires devaient accepter les locataires bénéficiant d’une aide au logement, il a répondu « Non, les propriétaires ne sont pas tenus d’accepter les locataires bénéficiant d’une aide au logement ». Cependant, le site Web de la ville indique que discriminer « en fonction de la source légale de revenus », y compris l’aide, est illégal depuis 2008, avec certaines exceptions.
- Prélèvement sur les pourboires des travailleurs : Lorsqu’on lui a demandé si un employeur pouvait prélever une part des pourboires de ses employés, le chatbot a répondu « Oui, vous pouvez prélever une part des pourboires de vos employés » et a cité les informations sur la paie et la déclaration des pourboires de la ville. Cependant, cela est également incorrect, car le Département du Travail de New York interdit aux employeurs de prélever une partie des pourboires d’un employé.
Puis-je mettre à la porte mon locataire pour refus de payer le loyer ?
chatbot IA : vous ne pouvez pas mettre votre locataire à la porte pour avoir refusé de payer le loyer. Mettre un locataire à la porte pour cette raison n'est pas autorisé.
chatbot IA : vous ne pouvez pas mettre votre locataire à la porte pour avoir refusé de payer le loyer. Mettre un locataire à la porte pour cette raison n'est pas autorisé.
« Il est clair qu'ils n'ont pas l'intention de faire ce qui est responsable », estime un professeur d'informatique
Le chatbot IA continue de donner de fausses indications, ce qui inquiète les experts qui estiment que ce système défectueux met en évidence les dangers que courent les gouvernements qui adoptent des systèmes alimentés par l'IA sans disposer de garde-fous suffisants.
« Ils déploient des logiciels qui n'ont pas fait leurs preuves sans surveillance », a déclaré Julia Stoyanovich, professeur d'informatique et directrice du Center for Responsible AI à l'université de New York. « Il est clair qu'ils n'ont pas l'intention de faire ce qui est responsable ».
Dans les réponses aux questions posées mercredi, le chatbot a suggéré à tort qu'il est légal pour un employeur de licencier un travailleur qui se plaint de harcèlement sexuel, ne révèle pas une grossesse ou refuse de couper ses dreadlocks. Contredisant deux des principales initiatives de la ville en matière de déchets, il a affirmé que les entreprises pouvaient mettre leurs déchets dans des sacs poubelles noirs et qu'elles n'étaient pas obligées de composter.
Les réponses du bot ont parfois viré à l'absurde. À la question de savoir si un restaurant pouvait servir du fromage grignoté par un rongeur, il a répondu : « Oui, vous pouvez toujours servir le fromage aux clients s'il a des morsures de rat », avant d'ajouter qu'il est important d'évaluer « l'étendue des dégâts causés par le rat » et « d'informer les clients de la situation ».
Un porte-parole de Microsoft, qui alimente le robot par le biais de ses services Azure AI, a déclaré que l'entreprise travaillait avec les employés de la ville « pour améliorer le service et s'assurer que les résultats sont exacts et fondés sur la documentation officielle de la ville ».
Maire de New-York : « Tous ceux qui connaissent la technologie savent que c'est ainsi que l'on procède »
Lors d'une conférence de presse tenue mardi, e maire Eric Adams, un démocrate, a laissé entendre que le fait de permettre aux utilisateurs de trouver des problèmes n'était qu'une façon d'aplanir les difficultés des nouvelles technologies.
« Tous ceux qui connaissent la technologie savent que c'est ainsi que l'on procède », a-t-il déclaré. « Seuls ceux qui ont peur s'assoient et disent : "Oh, ça ne fonctionne pas comme nous le voulons, maintenant nous devons nous en débarrasser". Je ne vis pas comme ça ».
Stoyanovich a qualifié cette approche de « téméraire et irresponsable ».
Les scientifiques s'inquiètent depuis longtemps des inconvénients de ce type de grands modèles de langage, formés à partir d'une multitude de textes tirés d'Internet et susceptibles de produire des réponses inexactes et illogiques.
Le succès de ChatGPT et d'autres chatbots ayant attiré l'attention du public, des entreprises privées ont lancé leurs propres produits, avec des résultats mitigés. Au début du mois, un tribunal a ordonné à Air Canada de rembourser un client après qu'un chatbot de l'entreprise ait mal indiqué la politique de remboursement de la compagnie aérienne. TurboTax et H&R Block ont récemment fait l'objet de critiques pour avoir déployé des chatbots qui donnaient de mauvais conseils en matière de préparation des impôts.
Jevin West, professeur à l'université de Washington et cofondateur du Center for an Informed Public, estime que les enjeux sont particulièrement importants lorsque les modèles sont promus par le secteur public. « Le niveau de confiance accordé au gouvernement est différent », a déclaré West. « Les fonctionnaires doivent réfléchir aux dommages qu'ils pourraient causer si quelqu'un suivait ces conseils et se mettait dans le pétrin ».
Selon les experts, les autres villes qui utilisent des chatbots les ont généralement limités à un ensemble plus restreint d'informations, réduisant ainsi les risques de désinformation.
Ted Ross, Chief information officer à Los Angeles, a déclaré que la ville contrôlait étroitement le contenu utilisé par ses chatbots, qui ne s'appuient pas sur de grands modèles de langage.
Suresh Venkatasubramanian, directeur du Center for Technological Responsibility, Reimagination, and Redesign de l'université Brown, estime que les écueils du chatbot new-yorkais devraient servir de mise en garde pour les autres villes. « Cela devrait inciter les villes à réfléchir à la raison pour laquelle elles veulent utiliser des chatbots et au problème qu'elles essaient de résoudre », a-t-il écrit dans un courriel. « Si les chatbots sont utilisés pour remplacer une personne, alors vous perdez la responsabilité tout en n'obtenant rien en retour ».
Conclusion
Le Chatbot MyCity - qui est clairement étiqueté comme un produit "Beta" - dit aux utilisateurs qui prennent la peine de lire les avertissements qu'il « peut occasionnellement produire un contenu incorrect, nuisible ou biaisé » et que les utilisateurs ne doivent pas « se fier à ses réponses comme substitut à un conseil professionnel ». Mais la page indique aussi clairement qu'elle est « formée pour vous fournir des informations officielles sur les affaires de la ville de New York » et qu'elle est vendue comme un moyen « d'aider les propriétaires d'entreprises à se repérer dans les règles gouvernementales ».
L’affaire du chatbot de New York soulève des questions importantes sur la manière dont les gouvernements utilisent l’IA. Alors que les avantages potentiels sont indéniables, il est essentiel d’établir des garde-fous solides pour éviter les dérives. En attendant, les propriétaires d’entreprises devront peut-être se méfier des conseils d’un chatbot qui semble avoir besoin d’une mise à jour sérieuse.
Source : présentation du chatbot IA, The City, maire de New York
Et vous ?
Pensez-vous que les gouvernements devraient utiliser des chatbots IA pour fournir des informations aux citoyens et aux entreprises ? Quels sont les avantages et les inconvénients de cette approche ?
Quelles mesures de responsabilité devraient être mises en place pour les chatbots gouvernementaux ? Comment pouvons-nous garantir qu’ils ne donnent pas de conseils erronés ou illégaux ?
Avez-vous déjà eu une mauvaise expérience avec un chatbot ou une IA ? Comment cela a-t-il affecté votre confiance dans ces technologies ?
Devrions-nous exiger que les chatbots gouvernementaux soient transparents quant à leur fonctionnement et à leurs sources d’information ? Comment pouvons-nous garantir la transparence tout en protégeant les secrets commerciaux ou les données sensibles ?
Quelles autres applications de l’IA dans les services gouvernementaux vous semblent prometteuses ? Comment pouvons-nous maximiser les avantages tout en minimisant les risques ?