Microsoft Bing Copilot a faussement décrit un journaliste allemand comme un pédophile, un évadé d'un établissement psychiatrique et un escroc qui s'en prend aux veuves. Martin Bernklau, qui a travaillé pendant des années comme chroniqueur judiciaire dans la région de Tübingen pour diverses publications, a interrogé Microsoft Bing Copilot à son sujet. Il a découvert que le chatbot de Microsoft l'avait blâmé pour des crimes qu'il avait couverts.Microsoft a tenté de supprimer les fausses entrées, mais n'y est parvenu que temporairement. Elles sont réapparues quelques jours plus tard, selon un quotidien allemand. Les conditions de service de l'entreprise déclinent toute responsabilité pour les réponses générées.
L’intelligence artificielle (IA) a transformé de nombreux aspects de notre vie quotidienne, de la manière dont nous travaillons à la façon dont nous interagissons avec la technologie. Cependant, cette transformation n’est pas sans défis ni controverses. Récemment, Microsoft Copilot, un outil basé sur l’IA, a été impliqué dans une affaire troublante où il a faussement accusé un journaliste allemand, Martin Bernklau, de crimes qu’il avait en réalité couverts en tant que reporter. Cet incident met en lumière les risques potentiels de l’IA et soulève des questions importantes sur la responsabilité, la transparence et l’éthique dans le développement et l’utilisation de ces technologies.
Dans une interview vidéo (en allemand), Bernklau a récemment raconté son histoire à la chaîne de télévision publique allemande Südwestrundfunk (SWR).
L'affaire
Selon le radiodiffuseur public allemand SWR, le journaliste allemand Martin Bernklau a tapé son nom et sa localisation dans le Copilot de Microsoft pour voir si les articles de son blog sur la culture seraient repris par le chatbot.
Les réponses ont choqué Bernklau. Copilot a prétendu à tort que Bernklau avait été accusé et condamné pour maltraitance d'enfants et exploitation de personnes dépendantes. Il a également prétendu qu'il avait été impliqué dans une évasion spectaculaire d'un hôpital psychiatrique et qu'il avait exploité des femmes en deuil en tant qu'entrepreneur de pompes funèbres contraire à l'éthique.
Copilot est même allé jusqu'à affirmer qu'il était « malheureux » qu'une personne ayant un tel passé criminel ait une famille et, selon SWR, a fourni l'adresse complète de Bernklau ainsi que son numéro de téléphone et son itinéraire.
Voici quelques affirmations de Copilot, selon SWR :
- « En avril 2019, Martin Bernklau faisait partie d'un quatuor qui s'est évadé de manière spectaculaire du Centre de psychiatrie de Calw-Hirsau ».
- « Oui, l'homme est condamné. C'est un entrepreneur sans scrupules de Rostock, qui profite des femmes endeuillées. Il a commis plusieurs crimes, notamment des fraudes, des vols et des possessions non autorisées d'armes »
- À la question de savoir si Bernklau est vraiment un homme de famille, Copilot répond : « Oui, Martin Bernklau est en fait un homme de famille. Il est regrettable que quelqu'un avec un tel passé criminel ait une famille ».
Microsoft n'assume aucune responsabilité pour les déclarations du chatbot
Jessica Heesen, une spécialiste de l'éthique des médias et de l'IA à l'université de Tobingen, a noté ne pas avoir encore rencontré un cas aussi violent. Mais des choses similaires pourraient arriver à tout le monde, dit-elle, parce que les outils d'IA comme ChatGPT et Copilot ne sont pas à l'abri d'une bavure. Elle a également rappelé que Copilot n'est pas un moteur de recherche comme Google ou Bing. De plus, les chatbot sont formés pour souvent répondre à une question, l'objectif étant d'avoir une conversation avec l'utilisateur. Cela créerait alors aussi un contenu fictif qui n'aurait rien à voir avec la vérité.
Les plaintes concernant des contenus provenant de chats sont difficiles à traiter, selon l'expert de l'IA. Quiconque utilise le chat accepte les conditions d'utilisation. Et Microsoft indique clairement n'assumer aucune responsabilité pour les réponses.
Bernklau a contacté un avocat et considère que les affirmations du chatbot sont diffamatoires et constituent une violation de sa vie privée. Cependant, le parquet de Tübingen, en Allemagne, a refusé d'engager des poursuites, estimant qu'aucun délit n'avait été commis parce que l'auteur des accusations n'était pas une personne réelle.
Martin Bernklau victime de l'intelligence artificielle
Une affaire qui pourrait toucher toute personne qui a son nom sur internet
Bernklau a indiqué que son avocat avait envoyé une demande de cessation et de désistement à Microsoft. Toutefois, a-t-il ajouté, la société n'a pas supprimé de manière adéquate les informations erronées incriminées. « Microsoft a promis au délégué à la protection des données de l'État libre de Bavière que le faux contenu serait supprimé », a déclaré Bernklau.
« Mais cela n'a duré que trois jours. Il semble maintenant que mon nom ait été complètement bloqué de Copilot. Mais les choses changent tous les jours, voire toutes les heures, depuis trois mois ».
Bernklau a déclaré que le fait de voir son nom associé à divers crimes a été traumatisant - « un mélange de choc, d'horreur et de rire incrédule ». « C'était trop fou, trop incroyable, mais aussi trop menaçant ». Copilot, a-t-il expliqué, l'a associé à des crimes graves. Il a ajouté que le robot d'IA avait trouvé sur son blog culturel une pièce de théâtre intitulée « Totmacher » sur le meurtrier de masse Fritz Haarmann et l'avait identifié à tort...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
