IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google semble supprimer manuellement les réponses étranges fournies par sa fonctionnalité "AI Overviews" dans les résultats de recherche,
La fonctionnalité fait l'objet de critiques et de moqueries

Le , par Mathis Lucas

0PARTAGES

9  0 
Google a confirmé qu'il prend "des mesures rapides" pour supprimer les réponses étranges fournies par la fonction "AI Overviews" de son moteur de recherche. De nombreuses captures d'écran partagées sur les médias sociaux montrent que l'IA de Google fournit parfois des réponses épouvantables aux utilisateurs, voire dangereuses. Par exemple, elle leur a demandé de mettre de la colle sur une pizza, leur a suggéré de manger des cailloux et a déclaré que Barack Obama est un musulman. Il s'avère que l'IA de Google traite le média satirique The Onion comme une source crédible et l'exploite sans cesse pour formuler ses réponses.

Google a ajouté récemment une nouvelle fonctionnalité à son moteur de recherche : AI Overviews (aperçus de l'IA). Il s'agit de résumés concis générés par l'IA et qui apparaissent directement sur les pages de résultats de recherche de Google. Lancée le 14 mai, cette fonctionnalité est conçue pour aider les internautes à comprendre rapidement un sujet en combinant des informations provenant de différentes sources, dont les pages Web des résultats de recherche et la base de connaissances de Google. Les résumés sont placés en haut de la page des résultats de recherche, et au-dessus des résultats rédigés par des humains.

La fonction fait toutefois l'objet de moquerie et de critiques en raison de certaines réponses étranges et dangereuses qu'elle a fournies aux utilisateurs. Certains utilisateurs estiment que la technologie de Google n'est tout simplement pas prête. Un spécialiste de l'IA qui a requis l'anonymat a déclaré à The Verge : « une société autrefois réputée pour être à la pointe de la technologie et fournir des produits de haute qualité est désormais connue pour ses résultats de piètre qualité qui font l'objet de mèmes ». Selon certains analystes, cette situation signifie que la fonction a peut-être fait l'objet d'un déploiement bâclé.


Mais Google teste la fonction depuis un an maintenant. Elle a été lancée en version bêta en mai 2023 sous le nom de "Search Generative Experience" et le PDG Sundar Pichai a déclaré que l'entreprise a répondu à plus d'un milliard de requêtes au cours de cette période. Il a également déclaré que Google a réduit de 80 % le coût de la fourniture de réponses d'IA au cours de cette même période, notamment grâce à des avancées matérielles, techniques et technologiques. Il semble que ce type d'optimisation soit intervenu trop tôt, avant que la technologie ne soit prête. Google continue d'affiner la technologie.

L'entreprise affirme toutefois que les réponses étranges de l'IA sont des cas isolés qui ne remettent pas en cause l'utilité de la fonctionnalité ni les avantages qu'elle offre aux utilisateurs. Cela suggère que les recherches virales loufoques sont probablement effacées manuellement au fur et à mesure que les mèmes sont publiés, ce qui explique pourquoi les utilisateurs voient tant de mèmes disparaître peu de temps après leur publication sur les réseaux sociaux. Meghann Farnsworth, porte-parole de Google, a déclaré :

Citation Envoyé par Meghann Farnsworth, porte-parole de Google

La grande majorité des aperçus d'IA fournissent des informations de grande qualité, avec des liens permettant d'aller plus loin sur le Web. Beaucoup des exemples que nous avons vus étaient des requêtes peu courantes, et nous avons également vu des exemples qui étaient trafiqués ou que nous ne pouvions pas reproduire.

Nous avons procédé à des tests approfondis avant de lancer cette nouvelle expérience et, comme pour les autres fonctions que nous avons lancées dans le domaine de la recherche, nous apprécions les réactions.

Nous prenons des mesures rapides, le cas échéant, dans le cadre de nos politiques de contenu, et nous utilisons ces exemples pour apporter des améliorations plus larges de nos systèmes, dont certaines ont déjà commencé à être déployées.
À mesure que l'expérience se poursuit, nous ne serons pas surpris de voir apparaître des résultats de recherche plus inexacts et inquiétants. Gary Marcus, expert en IA et professeur émérite de sciences neuronales à l'université de New York, a déclaré que de nombreuses entreprises d'IA vendent du "rêve" en pensant que cette technologie passera de 80 % d'exactitude à 100 %. Selon Marcus, il est relativement simple d'atteindre les 80 % initiaux, puisqu'il s'agit de se rapprocher d'une grande quantité de données humaines, mais les 20 % restants sont extrêmement difficiles à atteindre. Il pense que c'est le travail le plus difficile.


« Vous devez en fait fait raisonner pour décider si cette chose est plausible ou si cette source est légitime. Cette source est-elle légitime ? Vous devez faire des choses qu'un vérificateur de faits humain pourrait faire, et qui pourraient en fait nécessiter une intelligence artificielle générale », a-t-il déclaré. Gary Marcus et Yann LeCun, responsable de l'IA chez Meta, s'accordent à dire que les grands modèles de langage (LLM) qui pilotent les systèmes d'IA actuels, comme GPT-4 d'OpenAI, ne seront pas à l'origine de la création de l'AGI. Selon LeCun, les LLM seront probablement l'une des composantes de l'AGI.

Le pionnier français de IA a déclaré que les LLM ne sont pas en mesure de résoudre les problèmes cognitifs comme le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. « Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », affirme LeCun. Selon lui, sans ces capacités, les systèmes d'IA restent limités et sujets aux erreurs, les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques et les assistants ne peuvent accomplir que des tâches élémentaires.

Cette situation constitue une mauvaise publicité pour Google. Selon certains critiques, Google ressent clairement la pression de la concurrence, et c'est cette pression qui est à l'origine des innovations désordonnées en matière d'IA. Bing a intégré un modèle d'IA avant Google Search et OpenAI travaillerait sur son propre moteur de recherche, ce qui est perçu par une menace chez Google. Scott Jenson, ancien employé de Google, a récemment déclaré que la panique de l'entreprise face à l'IA ressemble à s'y méprendre au fiasco de Google+ et que les projets d'IA ne sont pas motivés par "les besoins réels" des utilisateurs.

Marcus rappelle qu'en 2022, Meta a lancé un modèle d'IA appelé Galactica, qui a dû être retiré peu après son lancement parce qu'il conseillait, entre autres, de manger du verre. L'IA de Google donne des conseils aussi étranges. À la question "combien de pierres dois-je manger chaque jour ?", l'IA de Google a répondu que les géologues recommandent de manger au moins une petite pierre par jour. Ce résultat étrange provient d'un article de 2021 publié sur The Onion, un site d'informations satirique, lancé en 1988. Ces résultats sont dangereux et peuvent aussi induire en erreur des utilisateurs non avertis.

Par ailleurs, Google a de grands projets pour la fonction d'IA. La fonctionnalité AI Overviews telle qu'elle existe aujourd'hui n'est qu'une infime partie de ce que l'entreprise a annoncé la semaine dernière. L'ambition est grande : le raisonnement en plusieurs étapes pour les requêtes complexes, recherche vidéo dans Google Lens, etc.. Mais pour l'instant, la réputation de Google dépend de sa capacité à résoudre les problèmes de base, et cela ne se présente pas très bien. « Ces modèles sont constitutionnellement incapables de contrôler leur propre travail, et c'est ce qui est en train de frapper l'industrie », a déclaré Marcus.

Source : Google

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des débuts compliqués de la fonctionnalité AI Overviews de Google ?
Google est-il en mesure de venir à bout du problème ? Quels seraient les impacts sur l'entreprise ?

Voir aussi

L'IA de Google Search traite le site Web satirique The Onion comme une véritable source et l'exploite sans cesse pour générer ses résumés, ce qui donne lieu à des réponses erronées et parfois dangereuses

Désactiver l'IA dans Google Search : avec le paramètre "udm=14", vous pouvez mettre un terme aux résumés de l'IA et retrouver une expérience de recherche traditionnelle

Google Search ajoute un filtre « web uniquement » pour ceux qui préfèrent aller à l'essentiel : des liens textuels. Désormais, l'option par défaut de son moteur s'appuie sur l'IA générative

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 30/05/2024 à 12:23
"Google ne semble pas", ils le font et ont reconnu officiellement que Google supprimait manuellement les réponses débiles de son IA.

Par exemple, l'AI de Google dit que manger 3 cailloux par jour est excellent pour la santé humaine ou que laisser son chien dans une voiture fermée en plein soleil est très bon pour le chien ou encore qu'il est courant d'avoir des blattes vivant dans son pénis (et là, on se demande bien quelle est la question posée à l'IA par un vrai taré!).

De fait, l'IA de Google démontre simplement qu'elle n'a rien d'intelligent mais a simplement enregistré la totalité des données disponibles sur le web sans avoir la capacité de trier le vrai du faux, sans savoir distinguer les affirmations sérieuses des délires de certains sur les forum, des pointes d'humour ou des affirmations à lire au 2ème degré!

En réalité, l'IA de Google n'a aucune logique, aucune compréhension du réel: Un gamin de 5 ans comprend qu'il ne faut pas mettre sa main dans le feu, l'IA va dire que c'est habituel de mettre sa main dans le feu, de la cuire à petit feu et de la manger parce qu'il fait un lien avec un texte lu dans le web qui dit "Recettes de mains et de cuisine faciles" (https://chefsimon.com/recettes/tag/m...isine%20facile)
1  0