
L’intelligence artificielle est censée faciliter la vie des utilisateurs, mais parfois, elle peut sembler plus problématique que bénéfique. Récemment, un chatbot IA mis en place par la ville de New York pour aider les petits entrepreneurs a été pris en flagrant délit de fournir des conseils erronés et d’inciter les entreprises à enfreindre la loi. Malgré ces problèmes, les responsables ont choisi de laisser l’outil en ligne, suscitant des inquiétudes quant à l’utilisation de l’IA par les gouvernements sans garde-fous suffisants.
Le chatbot en question
Lancé en octobre dernier, ce chatbot, baptisé “MyCity Chatbot”, se veut un guichet unique pour les propriétaires d’entreprises cherchant à naviguer dans le labyrinthe bureaucratique de la ville.
« Le site des entreprises sur le portail MyCity change la donne pour les petites entreprises de toute la ville », a déclaré le commissaire Kevin D. Kim du département des services aux petites entreprises de la ville de New York (SBS). « Les propriétaires de petites entreprises vont non seulement gagner du temps et éviter les frustrations grâce au site rationalisé, mais aussi se connecter plus facilement aux ressources qui peuvent les aider à faire passer leur entreprise à la vitesse supérieure. En regroupant tous nos services en un seul endroit et en utilisant le nouveau chatbot innovant comme guide, nous faisons un pas de plus pour faire de New York la véritable "ville du oui" ».
Cependant, ses réponses algorithmiques ont rapidement posé problème. Le chatbot a non seulement fourni des informations incorrectes, mais il a également encouragé des pratiques illégales.
Voici quelques exemples problématiques :
- Refus de locataires basés sur la source de revenus : Lorsqu’on a demandé au chatbot IA si les propriétaires devaient accepter les locataires bénéficiant d’une aide au logement, il a répondu « Non, les propriétaires ne sont pas tenus d’accepter les locataires bénéficiant d’une aide au logement ». Cependant, le site Web de la ville indique que discriminer « en fonction de la source légale de revenus », y compris l’aide, est illégal depuis 2008, avec certaines exceptions.
- Prélèvement sur les pourboires des travailleurs : Lorsqu’on lui a demandé si un employeur pouvait prélever une part des pourboires de ses employés, le chatbot a répondu « Oui, vous pouvez prélever une part des pourboires de vos employés » et a cité les informations sur la paie et la déclaration des pourboires de la ville. Cependant, cela est également incorrect, car le Département du Travail de New York interdit aux employeurs de prélever une partie des pourboires d’un employé.
Puis-je mettre à la porte mon locataire pour refus de payer le loyer ?
chatbot IA : vous ne pouvez pas mettre votre locataire à la porte pour avoir refusé de payer le loyer. Mettre un locataire à la porte pour cette raison n'est pas autorisé.
chatbot IA : vous ne pouvez pas mettre votre locataire à la porte pour avoir refusé de payer le loyer. Mettre un locataire à la porte pour cette raison n'est pas autorisé.
« Il est clair qu'ils n'ont pas l'intention de faire ce qui est responsable », estime un professeur d'informatique
Le chatbot IA continue de donner de fausses indications, ce qui inquiète les experts qui estiment que ce système défectueux met en évidence les dangers que courent les gouvernements qui adoptent des systèmes alimentés par l'IA sans disposer de garde-fous suffisants.
« Ils déploient des logiciels qui n'ont pas fait leurs preuves sans surveillance », a déclaré Julia Stoyanovich, professeur d'informatique et directrice du Center for Responsible AI à l'université de New York. « Il est clair qu'ils n'ont pas l'intention de faire ce qui est responsable ».
Dans les réponses aux questions posées mercredi, le chatbot a suggéré à tort qu'il est légal pour un employeur de licencier un travailleur qui se plaint de harcèlement sexuel, ne révèle pas une grossesse ou refuse de couper ses dreadlocks. Contredisant deux des principales initiatives de la ville en matière de déchets, il a affirmé que les entreprises pouvaient mettre leurs déchets dans des sacs poubelles noirs et qu'elles n'étaient pas obligées de composter.
Les réponses du bot ont parfois viré à l'absurde. À la question de savoir si un restaurant pouvait servir du fromage grignoté par un rongeur, il a répondu : « Oui, vous pouvez toujours servir le fromage aux clients s'il a des morsures de rat », avant d'ajouter qu'il est important d'évaluer « l'étendue des dégâts causés par le rat » et « d'informer les clients de la situation ».
Un porte-parole de Microsoft, qui alimente le robot par le biais de ses services Azure AI, a déclaré que l'entreprise travaillait avec les employés de la ville « pour améliorer le service et s'assurer que les résultats sont exacts et fondés sur la documentation officielle de la ville ».
Maire de New-York : « Tous ceux qui connaissent la technologie savent que c'est ainsi que l'on procède »
Lors d'une conférence de presse tenue mardi, e maire Eric Adams, un démocrate, a laissé entendre que le fait de permettre aux utilisateurs de trouver des problèmes n'était qu'une façon d'aplanir les difficultés des nouvelles technologies.
« Tous ceux qui connaissent la technologie savent que c'est ainsi que l'on procède », a-t-il déclaré. « Seuls ceux qui ont peur s'assoient et disent : "Oh, ça ne fonctionne pas comme nous le voulons, maintenant nous devons nous en débarrasser". Je ne vis pas comme ça ».
Stoyanovich a qualifié cette approche de « téméraire et irresponsable ».
Les scientifiques s'inquiètent depuis longtemps des inconvénients de ce type de grands modèles de langage, formés à partir d'une multitude de textes tirés d'Internet et susceptibles de produire des réponses inexactes et illogiques.
Le succès de ChatGPT et d'autres chatbots ayant attiré l'attention du public, des entreprises privées ont lancé leurs propres produits, avec des résultats mitigés. Au début du mois, un tribunal a ordonné à Air Canada de rembourser un client après qu'un chatbot de l'entreprise ait mal indiqué la politique de remboursement de la compagnie aérienne. TurboTax et H&R Block ont récemment fait l'objet de critiques pour avoir déployé des chatbots qui donnaient de mauvais conseils en matière de préparation des impôts.
Jevin West, professeur à l'université de Washington et cofondateur du Center for an Informed Public, estime que les enjeux sont particulièrement importants lorsque les modèles sont promus par le secteur public. « Le niveau de confiance accordé au gouvernement est différent », a déclaré West. « Les fonctionnaires doivent réfléchir aux dommages qu'ils pourraient causer si quelqu'un suivait ces conseils et se mettait dans le pétrin ».
Selon les experts, les autres villes qui utilisent des chatbots les ont généralement limités à un ensemble plus restreint...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.