Microsoft AI, le service de voyage en ligne du géant de la technologie, a suscité la controverse en suggérant aux visiteurs d’Ottawa de se rendre à la banque alimentaire de la ville comme s’il s’agissait d’une attraction touristique incontournable. Dans un article généré par l’intelligence artificielle, Microsoft AI a classé la banque alimentaire au troisième rang des lieux à ne pas manquer à Ottawa, avec le conseil : « Envisagez d’y entrer le ventre vide ».
L’article, intitulé « Vous vous rendez à Ottawa ? Voici ce que vous ne devez pas manquer ! », faisait l’éloge des vertus de la capitale canadienne et recommandait d’assister au festival Winterlude (qui n’a lieu qu’en février), de visiter un match des Sénateurs d’Ottawa et de patiner sur « La plus grande patinoire naturellement gelée du monde » (sic). Mais c’est la mention de la banque alimentaire qui a attiré l’attention et l’indignation des internautes, qui ont dénoncé l’insensibilité et l’ignorance de l’IA.
En tant que destination n°3 sur la liste, Microsoft Travel suggère de visiter la Banque alimentaire d'Ottawa, probablement tirée d'un résumé trouvé en ligne mais couronné d'une tournure de phrase malheureuse :
La banque alimentaire d’Ottawa est une organisation caritative qui fournit de la nourriture aux personnes et aux familles dans le besoin dans la région d’Ottawa depuis 1984. Elle a pour mission de « combattre la faim et ses causes profondes ». Selon sa responsable de la communication, Samantha Koziara, la ligne « Envisagez d’y entrer le ventre vide » était « clairement insensible » et soulignait l’importance d’une supervision humaine.
Cette dernière ligne est un exemple du genre de platitude vide (ou de résumé erroné embarrassant) que l'on peut facilement trouver dans l'écriture générée par l'IA, insérée sans réfléchir parce que le modèle d'IA derrière l'article ne peut pas comprendre le contexte de ce qu'il fait.
Microsoft a rapidement retiré l’article et lancé une enquête sur la façon dont il a pu passer le processus de révision. La société s’est excusée pour l’erreur et a déclaré qu’elle travaillait à améliorer son système d’IA pour éviter que cela ne se reproduise. Microsoft, qui a licencié des journalistes en 2020 pour les remplacer par de l’IA, expérimente activement la création de contenu généré par l’IA dans divers services, tels que Bing Search et Microsoft Store.
L'IA est-elle prête à remplacer les écrivains humains ?
Remarqué pour la première fois par l'auteur technologique Paris Marx sur Bluesky, le message sur la Banque alimentaire d'Ottawa a commencé à gagner du terrain sur les réseaux sociaux jeudi. En réponse au message de Marx, la critique fréquente du LLM, Emily Bender, a noté : « Je ne trouve rien sur cette page qui la marque ouvertement comme étant générée par l'IA. Cela semble être un échec majeur sur deux de leurs principes d'IA responsable ».
Bender a également souligné les politiques de Microsoft ; l'une est « Transparence » et se lit comme suit : « Comment les gens pourraient-ils mal comprendre, mal utiliser ou estimer de manière incorrecte les capacités du système ? » et l'autre est « Responsabilité », qui stipule : « Comment pouvons-nous créer une surveillance afin que les humains puissent être responsables et en contrôle ? »
L’incident met en lumière le débat croissant autour de l’utilisation de l’intelligence artificielle pour remplacer les écrivains et les éditeurs humains. Si l’IA a montré des promesses dans de nombreuses applications, des erreurs comme celle-ci soulèvent des questions sur la capacité de la technologie à comprendre le contexte et la nuance. L’IA derrière l’article est probablement un modèle de langage volumineux (MLV), un type de modèle d’IA entraîné sur un vaste échantillon de texte trouvé sur Internet. Microsoft s’est associé à OpenAI, le créateur du MLV GPT-3 en 2020 et du GPT-4 en 2023, qui peuvent imiter les styles d’écriture humains, mais qui ont souvent été utilisés pour des tâches inadaptées, selon les critiques.
Alors que l’IA continue à évoluer et à devenir une partie plus intégrante de la génération de contenu, des cas comme celui du guide d’Ottawa de Microsoft Travel servent d’exemples à ne pas suivre. Les excuses et l’action rapide de Microsoft pour enquêter sur le problème témoignent d’une volonté de reconnaître les lacunes et de s’efforcer d’améliorer. Cependant, l’incident souligne la nécessité d’un équilibre entre l’innovation en matière d’IA et la sagesse humaine, pour fournir qualité et empathie dans la création de contenu.
Source : archive
Et vous ?
Ce type d'erreur est-il surprenant ? Pourquoi ?
Que pensez-vous de la réaction de Microsoft ?
Selon vous, l'IA est-elle déjà en mesure de remplacer les écrivains humains ?
Quels sont les avantages et les inconvénients de l’utilisation de l’IA pour générer du contenu ?
Est-il possible d'éviter que l’IA ne reproduise les biais et les préjugés présents sur Internet ? Si oui, comment ?
L'IA est-elle capable de second degré ?
Chaque texte générée par une IA devrait-il être présenté comme tel ? Pourquoi ?
Trolldi : l'IA de Microsoft recommande une banque alimentaire comme lieu touristique, suggérant de s'y rendre « le ventre vide ».
Une mention qui a suscité l'indignation des internautes
Trolldi : l'IA de Microsoft recommande une banque alimentaire comme lieu touristique, suggérant de s'y rendre « le ventre vide ».
Une mention qui a suscité l'indignation des internautes
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !