IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA de Google Search traite le site Web satirique The Onion comme une véritable source et l'exploite sans cesse pour générer ses résumés,
Ce qui donne lieu à des réponses erronées et parfois dangereuses

Le , par Mathis Lucas

5PARTAGES

6  0 
La nouvelle fonctionnalité de Google Search, appelée "AI Overviews", fait l'objet de critiques et de moqueries sur la toile en raison des résumés épouvantables qu'elle génère. Les captures d'écran des résumés montrent que la nouvelle fonctionnalité affiche des réponses trompeuses et, dans certains cas, des informations erronées et dangereuses. L'IA de Google exploite régulièrement des sources douteuses, dont les blagues écrites sur les sites communautaires, et ne comprend pas que les articles du site The Onion sont satiriques. Elle a encouragé les gens à manger des cailloux, à mettre de la colle sur leur pizza et leur a donné d'autres conseils dangereux.

Google a ajouté récemment une nouvelle fonctionnalité à son moteur de recherche : AI Overviews (aperçus de l'IA). Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Lancée le 14 mai, cette fonctionnalité est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web des résultats de recherche et la base de connaissances de Google. Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains.

La fonction est censée améliorer le moteur de recherche de Google et rationaliser la recherche d'informations, en aidant les internautes à comprendre rapidement des sujets complexes sans avoir à s'éloigner de leur requête initiale. Mais il n'a pas fallu longtemps pour que des utilisateurs signalent que l'IA de Google fournit un retour d'information épouvantable. Les exemples d'erreurs commises par l'IA se sont rapidement accumulés depuis la semaine dernière. Par exemple, lorsqu'on lui a demandé comment conserver le fromage sur une pizza, la fonction a suggéré d'ajouter un huitième de tasse d'une colle non toxique.

[tweet]<blockquote class="twitter-tweet"><p lang="zxx" dir="ltr"><a href="https://t.co/KBniV3Nl0O">pic.twitter.com/KBniV3Nl0O</a></p>&mdash; Tim Onion (@oneunderscore__) <a href="https://twitter.com/oneunderscore__/status/1793783956929757282?ref_src=twsrc%5Etfw">May 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Cette "astuce" a été postée il y a 11 ans par un utilisateur nommé "fucksmith" sur Reddit. Il s'agissait vraisemblablement d'une blague. En effet, à moins que vous ne cherchiez une excuse sans faille pour aller aux urgences, ajouter de la colle au fromage de la pizza n'est pas une bonne idée. De nombreux autres exemples partagés sur les réseaux sociaux montrent que la fonctionnalité s'est trompée sur des faits élémentaires. Par exemple, certaines captures d'écran montrent que l'IA de Google ne reconnaît pas les pays d'Afrique commençant par la lettre K et suggère que les pythons sont des mammifères, ce qui est bien sûr faux.

Un exemple partagé par l'informaticienne Melanie Mitchell montre que l'IA de Google propage une théorie du complot de droite selon laquelle l'ancien président des États-Unis Barack Obama est musulman. Cet aperçu semble être une tentative ratée de résumer un livre de la plateforme de recherche de l'Oxford University Press. À la question "combien de pierres dois-je manger chaque jour ?", l'IA de Google a répondu que les géologues recommandent de manger au moins une petite pierre par jour. Ce résultat étrange est tiré d'un article de 2021 publié sur The Onion, un site d'informations satiriques. Il a été lancé en 1988.

L'IA de Google ne s'est pas contentée de citer l'article de The Onion. Elle a fait son travail et a résumé le texte en conseils utiles et digestes : « selon des géologues de l'université de Berkeley, il est conseillé de manger au moins une petite pierre par jour. Les roches peuvent contenir des vitamines et des minéraux importants pour la santé digestive... Certains recommandent de manger une portion de cailloux, de géodes ou de gravier à chaque repas, ou de cacher des roches dans des aliments comme le beurre de cacahuète ou la crème glacée ». Ces résultats sont dangereux et peuvent induire en erreur des personnes non averties.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Google, FFS. <a href="https://t.co/UHtLQ5SdpG">pic.twitter.com/UHtLQ5SdpG</a></p>&mdash; Melanie Mitchell (@MelMitchell1) <a href="https://twitter.com/MelMitchell1/status/1793749621690474696?ref_src=twsrc%5Etfw">May 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

En outre, la recherche "de quelle couleur sont les surligneurs utilisés par la CIA ?" a amené l'IA de Google à répondre "noir". Il s'agit également d'une blague de The Onion datant de 2005. Le PDG de The Onion, Ben Collins, a remarqué ces exemples et les a postés sur Bluesky. La fonction fait l'objet de moquerie et de critiques acerbes, et certains utilisateurs estiment que la technologie de Google n'est pas prête. Un critique a déclaré : « je commence à penser que traiter des séquences de mots statistiquement communes sur l'ensemble d'Internet comme une source de vérité n'est peut-être pas une très bonne idée ».

Dire que les débuts ont été difficiles pour les résultats de recherche générés par l'IA de Google serait un euphémisme. Le problème majeur de l'IA semble être qu'elle ne reconnaît pas l'humour, un problème qui a été clairement mis en évidence par la façon dont elle continue à répéter les titres satiriques de The Onion comme s'il s'agissait d'un fait. Mais Google ne partage pas cet avis, affirmant que les résumés susmentionnés sont des cas isolés qui ne remettent pas en cause l'utilité de la fonction "AI Overviews" ni les avantages qu'elle offre aux utilisateurs. Un porte-parole de l'entreprise a déclaré :

Citation Envoyé par Google


La grande majorité des aperçus d'IA fournissent des informations de grande qualité, avec des liens permettant d'aller plus loin sur le Web. Beaucoup des exemples que nous avons vus étaient des requêtes peu courantes, et nous avons également vu des exemples qui étaient trafiqués ou que nous ne pouvions pas reproduire.

Nous avons procédé à des tests approfondis avant de lancer cette nouvelle expérience et, comme pour les autres fonctions que nous avons lancées dans le domaine de la recherche, nous apprécions les réactions.

Nous prenons des mesures rapides, le cas échéant, dans le cadre de nos politiques de contenu, et nous utilisons ces exemples pour apporter des améliorations plus larges de nos systèmes, dont certaines ont déjà commencé à être déployées.

En d'autres termes, les recherches virales loufoques ont probablement déjà été effacées. Mais à mesure que l'expérience se poursuit, nous ne serons pas surpris de voir apparaître des résultats de recherche plus inexacts et inquiétants. Certes, l'IA est censée apprendre et s'améliorer au fur et à mesure que vous l'utilisez, mais si Internet est de plus en plus rempli de déchets et d'absurdités, qu'est-ce que l'IA va bien pouvoir apprendre d'utile ? La plupart des réponses polémiques de l'IA de Google semblent être tirées des gros titres de The Onion. Les experts appellent les internautes à vérifier les réponses fournies par l'IA.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I couldn’t believe it before I tried it. Google needs to fix this asap.. <a href="https://t.co/r3FyOfxiTK">pic.twitter.com/r3FyOfxiTK</a></p>&mdash; Kris Kashtanova (@icreatelife) <a href="https://twitter.com/icreatelife/status/1793781850923823144?ref_src=twsrc%5Etfw">May 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Selon certains analystes, il s'agit essentiellement d'une nouvelle variante des hallucinations de l'IA. (Cela se produit lorsqu'un modèle d'IA fournit des informations fausses ou trompeuses et les présente comme des faits. Les hallucinations résultent de données d'entraînement erronées, d'erreurs algorithmiques ou d'interprétations erronées du contexte.) Cette polémique n'est pas une bonne nouvelle pour Google, qui tente de s'imposer dans la course à l'IA. Le moteur de recherche a fait ses débuts en 1998 et contrôle environ 86 % du marché. Bing contrôle 8,2 %, Yahoo 2,6 %, DuckDuckGo 2,1 %, Yandex 0,2 % et AOL 0,1 %.

Mais l'avènement de l'IA générative et son adoption rapide par les consommateurs menacent la mainmise de Google sur le marché, qui représente environ 8,5 milliards de recherches par jour et 240 milliards de dollars de recettes publicitaires annuelles. La dernière chose dont Google a besoin est de perdre la confiance des millions d'utilisateurs qui effectuent des recherches en ligne par le biais de son moteur de recherche. En fin de compte, le tollé suscité par la nouvelle fonction de Google Search (pilotée par le modèle d'IA Gemini) révèle un problème d'ancrage et de vérification des faits dans les résumés générés par l'IA.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des résumés polémiques générés par l'IA de Google ?
Quels pourraient être les impacts des résumés erronés sur le moteur de recherche ?
Ces résultats pourraient-ils pousser les utilisateurs à choisir d'autres moteurs de recherche ?
Cette fonctionnalité est-elle une bonne idée ? Pensez-vous qu'elle répond aux besoins des utilisateurs ?

Voir aussi

Désactiver l'IA dans Google Search : avec le paramètre "udm=14", vous pouvez mettre un terme aux résumés de l'IA et retrouver une expérience de recherche traditionnelle

Google Search ajoute un filtre « web uniquement » pour ceux qui préfèrent aller à l'essentiel : des liens textuels. Désormais, l'option par défaut de son moteur s'appuie sur l'IA générative

Google Search affichera désormais par défaut des réponses générées par l'IA à des millions de personnes. Des éditeurs dépendant de Google pour leur trafic craignent une diminution des visites de leurs sites

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 30/05/2024 à 12:23
"Google ne semble pas", ils le font et ont reconnu officiellement que Google supprimait manuellement les réponses débiles de son IA.

Par exemple, l'AI de Google dit que manger 3 cailloux par jour est excellent pour la santé humaine ou que laisser son chien dans une voiture fermée en plein soleil est très bon pour le chien ou encore qu'il est courant d'avoir des blattes vivant dans son pénis (et là, on se demande bien quelle est la question posée à l'IA par un vrai taré!).

De fait, l'IA de Google démontre simplement qu'elle n'a rien d'intelligent mais a simplement enregistré la totalité des données disponibles sur le web sans avoir la capacité de trier le vrai du faux, sans savoir distinguer les affirmations sérieuses des délires de certains sur les forum, des pointes d'humour ou des affirmations à lire au 2ème degré!

En réalité, l'IA de Google n'a aucune logique, aucune compréhension du réel: Un gamin de 5 ans comprend qu'il ne faut pas mettre sa main dans le feu, l'IA va dire que c'est habituel de mettre sa main dans le feu, de la cuire à petit feu et de la manger parce qu'il fait un lien avec un texte lu dans le web qui dit "Recettes de mains et de cuisine faciles" (https://chefsimon.com/recettes/tag/m...isine%20facile)
1  0