L’IA menace de plus en plus les projets collaboratifs comme Wikipedia et Reddit, rendant le web de plus en plus machine-centrique. Cela pourrait détruire le web tel que nous le connaissons, m’a confié Toby Walsh, professeur d’IA à l’université de Nouvelle-Galles du Sud. Cela posera aussi des problèmes aux créateurs d’IA. Face à la prolifération du contenu produit par l’IA, les géants du numérique comme Microsoft et Google auront moins de données authentiques pour perfectionner leurs modèles.
Les captchas, ces tests qui vérifient que les utilisateurs sont humains sur les sites web, sont devenus plus difficiles à cause de l’amélioration de l’intelligence artificielle, qui peut désormais tromper les anciens captchas. L’IA a transformé d’autres aspects de l’internet, comme la production de contenus et la modération des commentaires.
Licato, professeur à l'université de Floride du Sud, compare l'état actuel de l'expérience web à la théorie de « l'internet mort ». À mesure que les sites les plus visités, comme Reddit, sont inondés d'articles et de commentaires rédigés par des robots, les entreprises déploient des contre-bots supplémentaires pour lire et filtrer le contenu automatisé. À terme, selon cette théorie, la majeure partie de la création et de la consommation de contenu sur l'internet ne sera plus effectuée par des humains.
Neel Chauhan, ingénieur logiciel chez Microsoft 365, partage son point de vue sur l’avenir des médias sociaux dans un billet de blog intitulé « Social Media Will Die ». Il pense que les médias sociaux vont disparaître à cause de plusieurs facteurs, tels que la saturation du marché, la lassitude des utilisateurs, la régulation gouvernementale et la concurrence des nouvelles technologies.
Il prédit que les médias sociaux vont être remplacés par des plateformes plus décentralisées, plus respectueuses de la vie privée et plus adaptées aux besoins spécifiques des utilisateurs. Chauhan donne quelques exemples de ces plateformes, comme Mastodon, Matrix et Signal. L'ingénieur logiciel de Microsoft conclut en invitant les lecteurs à se préparer à ce changement et à explorer les alternatives aux médias sociaux traditionnels.
Stack Overflow en perte de vitesse face aux nouveaux outils d’IA pour les développeurs
Stack Overflow, le site web incontournable pour les questions et réponses techniques, a connu une chute brutale en juin. Martijn Pieters, un ingénieur logiciel qui vit à Cambridge, en a été témoin. Il participait à la plateforme et en était modérateur depuis plus de dix ans. Dans un billet de blog publié le 19 avril, David F. Carr, Senior Manager au sein de l'équipe Similarweb, présente l’impact de ChatGPT, un chatbot basé sur l’intelligence artificielle, sur le trafic de Stack Overflow, un site web communautaire pour les développeurs. Pour étayer ses déclarations, explique que ChatGPT peut générer du code et des explications à partir d’un simple texte, ce qui réduit le besoin de chercher des solutions sur Stack Overflow.
Il compare aussi ChatGPT avec CoPilot, un assistant de codage proposé par GitHub, qui utilise la même technologie que ChatGPT. Il présente des données de Similarweb qui montrent que le trafic de Stack Overflow a baissé de 14 % en mars 2023, tandis que celui de ChatGPT et de GitHub a augmenté. Il conclut que ChatGPT et CoPilot représentent une nouvelle façon de coder, plus basée sur l’ingénierie des prompts que sur le copier-coller.
Les programmeurs peuvent poser des questions et trouver des réponses sur Stack Overflow. Il s'agit du site phare du réseau Stack Exchange. Joel Spolsky et Jeff Atwood l'ont développé en 2008. Toutefois, les développeurs obtiennent de plus en plus de conseils auprès des chatbots d'IA et de GitHub CoPilot plutôt que sur les tableaux de messages de Stack Overflow. Alors que le trafic sur le ChatGPT d'OpenAI augmente de façon exponentielle, Stack Overflow connaît un déclin régulier, perdant ainsi une partie de son statut de source privilégiée vers laquelle les développeurs se tournent pour obtenir des réponses à leurs problèmes de codage.
L’IA envahit le web et menace la qualité de l’information
La plateforme de réseau social Reddit s'appuie sur des modérateurs bénévoles pour éviter que le site ne soit envahi par des contenus problématiques, notamment des discours haineux, et pour veiller à ce qu'il reste attrayant pour les utilisateurs. Bien qu'il ne soit pas rémunéré, ce travail est très précieux pour l'entreprise : selon deux nouvelles études menées par des informaticiens de l'université Northwestern, il vaut au minimum 3,4 millions de dollars par an, ce qui équivaut à 2,8 % du chiffre d'affaires de Reddit en 2019. Pour ce faire, ils s'appuient sur des outils tels qu'Apollo, une application vieille de près de dix ans qui offre des outils de modération avancés.
Mais en juin, les utilisateurs ont reçu un message inhabituel : Apollo fermait ses portes. Dans le cadre de la tentative de l'entreprise de participer à la ruée vers l'IA, les applications tierces ont été mises à l'écart. Un rapport d'Europol prévoit que, d'ici quelques années, 90 % du contenu de l'Internet sera généré par l'intelligence artificielle.
L'entreprise à l'origine du site, Prosus, a décidé d'autoriser les réponses générées par l'IA et a commencé à facturer l'accès à ses données aux entreprises spécialisées dans l'IA. En réaction, les principaux modérateurs se sont mis en grève, arguant que le contenu de mauvaise qualité généré par l'IA allait à l'encontre de l'objectif même du site : « Il s'agit d'un dépôt de questions et de réponses de haute qualité. »
NewsGuard, une société qui traque la désinformation et évalue la crédibilité des sites d'information, a découvert près de 350 sites d'information en ligne qui sont presque entièrement générés par l'IA, avec peu ou pas de supervision humaine. Des sites tels que Biz Breaking News et Market News Reports produisent des articles génériques sur des sujets aussi variés que la politique, la technologie, l'économie et les voyages. Nombre de ces articles sont truffés d'affirmations non vérifiées, de théories du complot et de canulars. Lorsque NewsGuard a testé le modèle d'IA derrière ChatGPT pour évaluer sa tendance à diffuser de faux récits, il a échoué 100 fois sur 100.
Selon Gordon Crovitz, codirecteur général de NewsGuard, l’IA risque de devenir la plus grande source de désinformation persuasive à grande échelle de l’histoire de l’internet si elle n’est pas améliorée et encadrée. Elle invente souvent les réponses aux questions. Un rapport d’Europol, l’agence de l’Union européenne chargée de l’application de la loi, estime que dans quelques années, l’IA produira 90 % du contenu de l’internet, ce qui est incroyable.
L’illusion du code généré par ChatGPT : une étude révèle les failles du chatbot d’IA d’OpenAI
Une étude publiée récemment par des chercheurs de l'université de Purdue, aux États-Unis, a révélé que ChatGPT produit un code incorrect (mais convaincant) environ une fois sur deux. Le rapport de l'étude indique que 52 % des réponses de ChatGPT sont incorrectes et 77 % sont verbeuses. Toutefois, le rapport estime que le chatbot d'IA d'OpenAI a été suffisamment convaincant pour tromper un tiers des participants à l'étude. Les réponses ChatGPT sont préférées dans 39,34 % des cas en raison de leur exhaustivité et de leur style de langage bien articulé. Les chercheurs indiquent également que parmi l'ensemble des réponses de ChatGPT qui ont été choisies, 77 % étaient fausses.
L'équipe de recherche a analysé les réponses de ChatGPT à 517 questions de Stack Overflow afin d'évaluer l'exactitude, la cohérence, l'exhaustivité et la concision des réponses du chatbot. Les chercheurs ont également procédé à une analyse linguistique et sentimentale des réponses et ont interrogé une douzaine de participants volontaires sur les résultats générés par le modèle. « Notre analyse montre que 52 % des réponses de ChatGPT sont incorrectes et 77 % sont verbeuses. Néanmoins, les réponses ChatGPT sont préférées dans 39,34 % des cas en raison de leur exhaustivité et de leur style de langage bien articulé », indique le rapport de l'étude.
Bien que des sites d'information générés par l'IA n'aient pas encore un public important, leur essor rapide est un signe précurseur de la facilité avec laquelle le contenu généré par l'IA déformera l'information sur les médias sociaux. Dans le cadre de ses recherches, Filippo Menczer, professeur d'informatique et directeur de l'Observatoire des médias sociaux de l'université de l'Indiana, a déjà découvert des réseaux de robots qui publient d'importants volumes de contenu généré par ChatGPT sur des sites de médias sociaux tels que X (anciennement Twitter) et Facebook.
L’hameçonnage et le spam deviendront plus sophistiqués et plus difficiles à détecter
À court terme, l'essor de l'IA posera une série de problèmes concrets en matière de sécurité et de protection de la vie privée. Les escroqueries en ligne, qui se multiplient depuis novembre, seront plus difficiles à détecter parce que l'IA permettra de les adapter plus facilement à chaque cible. Les recherches menées par John Licato, professeur d'informatique à l'université de Floride du Sud, ont montré qu'il est possible de concevoir des escroqueries avec précision en fonction des préférences et des tendances comportementales d'un individu, à partir de très peu d'informations sur une personne provenant de sites web publics et de profils de médias sociaux.
L'un des principaux signes révélateurs des escroqueries par hameçonnage à haut risque - un type d'attaque où l'intrus se fait passer pour une entité de confiance, comme votre banque, pour voler des informations sensibles - est que le texte contient souvent des fautes de frappe ou que les graphiques ne sont pas aussi raffinés et clairs qu'ils devraient l'être.
Mais ces signes n'existeront pas dans un réseau de fraude alimenté par l'IA, les pirates transformant les générateurs gratuits de texte à image et de texte comme ChatGPT en puissants moteurs de spam. L'IA générative pourrait potentiellement être utilisée pour insérer votre photo de profil dans la campagne de courrier électronique personnalisée d'une marque ou pour produire un message vidéo d'un homme politique avec une voix artificiellement retravaillée, s'exprimant exclusivement sur les sujets qui vous intéressent.
L'internet donnera de plus en plus l'impression d'être conçu pour les machines et par les machines. Et c'est déjà le cas : Les données d'une société de cybersécurité, Darktrace, ont détecté une augmentation de 135 % des cybercampagnes malveillantes depuis le début de l'année 2023, et ont révélé que les criminels se tournent de plus en plus vers les robots pour écrire des courriels de phishing afin d'envoyer des messages sans erreur, plus longs et moins susceptibles d'être détectés par les filtres anti-spam.
Bientôt, les pirates n'auront peut-être plus besoin de se donner trop de mal pour obtenir vos informations sensibles. À l'heure actuelle, les pirates recourent souvent à un dédale de méthodes indirectes pour vous espionner, notamment en dissimulant des traqueurs à l'intérieur des sites web et en achetant de vastes ensembles de données compromises sur le dark web.
Mais des chercheurs en sécurité ont découvert que les robots d'intelligence artificielle présents dans vos applications et appareils pourraient voler des informations sensibles pour les pirates. Étant donné que les modèles d'IA d'OpenAI et de Google parcourent activement le web, les pirates peuvent cacher des codes malveillants - un ensemble d'instructions pour le robot - à l'intérieur des sites web et les faire exécuter par les robots sans intervention humaine.
Sources : Newsguard, Northwestern, Darktrace
Et vous ?
Quels peuvent être les impacts sociaux, éthiques et juridiques de la production de contenu par l’IA ?
Quelles mesures peuvent prendre les plateformes collaboratives pour préserver la qualité et la fiabilité de leur contenu face à l’IA ?
Quelles sont selon vous, les opportunités et les limites de l’IA pour enrichir et diversifier le contenu du web ?
Voir aussi :
Stack Overflow est la victime de ChatGPT avec Baisse du trafic de 14 %, alors que ChatGPT a attiré 1,6 milliard de visites en mars et 920,7 millions au cours de la première quinzaine d'avril
Une étude affirme que 52 % des réponses de ChatGPT aux questions de codage informatique sont incorrectes et 77 % sont verbeuses, mais les réponses du chatbot sont "convaincantes"
Twitter, Reddit et tous les réseaux sociaux vont disparaître, affirme Neel Chauhan, ingénieur chez Microsoft 365
L'IA serait sur le point de transformer l'Internet en un véritable cauchemar,
Un outil à double tranchant pour le web : créativité ou manipulation ?
L'IA serait sur le point de transformer l'Internet en un véritable cauchemar,
Un outil à double tranchant pour le web : créativité ou manipulation ?
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !