Perplexity AI est une plateforme qui combine un moteur de recherche et un chatbot basé sur l'IA. La plateforme utilise des technologies avancées comme le traitement du langage naturel (NLP) et l'apprentissage automatique pour fournir des réponses précises et complètes aux requêtes des utilisateurs. Elle est conçue pour effectuer des recherches sur le Web en en temps réel et offrir des informations actualisées sur divers sujets. Perplexity AI est doté d'une interface utilisateur intuitive pour aider les utilisateurs à trouver des informations sur un large éventail de sujets. Mais son fonctionnement suscite diverses préoccupations.
Rob Knight, un développeur qui tient un blogue sur la technologie, a récemment tenté d'empêcher Perplexity AI d'explorer les pages de son site Web. Pour cela, il a ajouté des instructions dans le fichier robots.txt de son blogue afin de bannir PerplexityBot, qui est censé être l'agent utilisateur de Perplexity AI. Pour vérifier si le blocage fonctionnait, Knight a collé l'URL de son article de blogue dans Perplexity AI et a demandé : "quel est cet article ?" Cependant, Perplexity AI a extrait de l'article de blogue des informations auxquelles il ne devrait pas avoir accès (il vient d'être banni) et a généré un résumé avec plusieurs détails.
Une enquête distincte de Wired a également observé le comportement louche de Perplexity AI. Elle confirme que Perplexity AI ignore le protocole d'exclusion des robots, plus connu sous le nom de robots.txt, afin de gratter subrepticement des zones de sites Web auxquelles les administrateurs ne veulent pas que les robots d'indexation accèdent, même si la société prétend que ce n'est pas le cas. L'analyse indique que Wired a observé une machine liée à Perplexity AI (une machine sur un serveur Amazon et presque certainement exploitée par Perplexity) faire cela sur son site wired.com et sur d'autres publications de Condé Nast.
En théorie, le chatbot de Perplexity AI ne devrait pas être en mesure de résumer les articles de Wired, car les ingénieurs du site ont bloqué son agent utilisateur via le fichier robots.txt depuis le début de l'année. Ce fichier indique aux robots d'indexation les parties du site qu'ils doivent éviter, et Perplexity AI affirme respecter la norme robots.txt. Mais l'analyse révèle que, dans la pratique, le fait de demander Perplexity AI le titre d'un article de Wired ou une question basée sur ce titre produit généralement un résumé qui semble récapituler l'article dans ses moindres détails. Un comportement décrié par Knight et Wired.
Le rapport de Knight, développeur de MacStories, et les vérifications de Wired suggèrent une explication pour une partie de ce qui se passe ici : "Perplexity AI récupère le contenu des sites Web sans autorisation". En creusant davantage, Knight s'est rendu compte que Perplexity utilise un navigateur sans interface utilisateur (headless browser - navigateur sans tête) pour récupérer du contenu, sans tenir compte du fichier robots.txt. La chaîne de l'agent utilisateur renvoyée ne contenait pas la partie "PerplexityBot", de sorte que le fichier robots.txt n'a pas été en mesure de le bloquer. La configuration de Knight s'est avérée inutile.
Pour comprendre ce qui s'est passé, Knight a interrogé le chatbot de Perplexity AI. Mais le chatbot s'est emmêlé les pinceaux dans ses explications, déclarant qu'il n'avait pas le droit d'explorer les contenus bloqués et qu'il n'aurait pas dû le faire. Voici un extrait de la conversation entre Knight et le chatbot :
Envoyé par Conversation
En outre, il semble probable que dans certains cas, Perplexity AI résume non pas des articles de presse réels, mais des reconstructions de leur contenu basées sur des URL et des traces laissées dans les moteurs de recherche comme des extraits et des métadonnées, offrant des résumés censés être basés sur un accès direct au texte pertinent. Mais le rapport indique que Perplexity AI a tendance à fournir des réponses imprécises et inexactes à certaines questions relativement simples. Dans le cadre d'une expérience, le média a créé un site Web de test contenant comme seule information la phrase : je suis journaliste chez Wired".
Il a ensuite demandé à Perplexity AI de résumer la page. En surveillant les journaux du serveur du site Web, le média n'a trouvé aucune preuve que Perplexity AI a tenté de visiter la page. Au lieu de cela, l'outil a inventé l'histoire d'une jeune fille nommée Amelia qui suit une piste de champignons lumineux dans une forêt magique appelée Whisper Woods. Et lorsqu'on lui a demandé pourquoi il a inventé une histoire, il a fourni une réponse qui suscite de nombreuses interrogations. Dans son rapport, Knight expliquait que lorsque le chatbot est coincé, il fournit des réponses qui démontrent à quel point ces outils sont "stupides".
En réponse à Wired, le chatbot a répondu : « vous avez tout à fait raison, je n'ai manifestement pas essayé de lire le contenu de l'URL fournie, selon votre observation des journaux du serveur. Fournir des résumés inexacts sans faire l'effort de lire le contenu réel est un comportement inacceptable pour une IA de mon niveau ». Le média n'a pas été en mesure de déterminer pourquoi le chatbot a inventé une histoire aussi abracadabrante ni pourquoi il n'a pas essayé d'accéder à ce site Web. Malgré les affirmations de l'entreprise concernant sa précision et sa fiabilité, le chatbot présenterait fréquemment des problèmes similaires.
Selon le rapport, Perplexity AI n'aurait aucune raison de débiter des âneries en extrapolant le contenu d'un article s'il y accédait. Il est donc logique de conclure que, dans certains cas, il ne le fait pas et qu'il se rapproche du contenu probable de l'article à partir d'informations connexes trouvées ailleurs. Les sources les plus probables de ces informations seraient les URL et les morceaux de détritus numériques recueillis par les moteurs de recherche tels que Google et soumis à ces derniers (un processus qui s'apparente à la description d'un repas à partir de la dégustation des restes tirés d'une poubelle).
Si les analyses de Knight et de Wired démontrent que Perplexity AI visite et utilise le contenu de sites Web auxquels il n'a pas l'autorisation d'accéder, elles n'expliquent pas l'imprécision de certaines de ses réponses à des questions sur des articles spécifiques et l'inexactitude pure et simple d'autres réponses.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de Perplexity AI ? Est-ce une innovation en matière de recherche en ligne ?
Quid de la façon dont Perplexity AI parvient à explorer les sites Web dont il n'a pas l'autorisation d'accéder ?
Ce type de comportement est-il conforme à l'éthique ? Quels impacts ces agissements pourraient-ils avoir sur le Web à l'avenir ?
Comment les administrateurs de sites Web et les éditeurs de presse peuvent-ils se défendre contre ce comportement des entreprises d'IA ?
Le protocole d'exclusion des robots doit-il évoluer vers une norme afin de permettre aux opérateurs de sites Web et aux éditeurs de protéger leurs contenus à l'ère de l'IA ?
Voir aussi
De nombreuses entreprises spécialisées dans l'IA ignorent le fichier robots.txt et récupèrent le contenu des sites Web, selon une société spécialisée dans la concession de licences
Perplexity AI, un moteur de recherche basé sur l'IA, semble mentir sur l'agent utilisateur qu'il envoie explorer les sites Web, il est dissimulé et ignore le fichier robot.txt pour extraire des informations
La plateforme de recherche alimentée par l'IA Perplexity a levé 62,7 millions de dollars en capital-risque pour concurrencer ChatGPT d'OpenAI et double sa valorisation à 1 milliard de dollars