IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA serait sur le point de transformer l'Internet en un véritable cauchemar,
Un outil à double tranchant pour le web : créativité ou manipulation ?

Le , par Bruno

24PARTAGES

29  1 
L’IA menace de plus en plus les projets collaboratifs comme Wikipedia et Reddit, rendant le web de plus en plus machine-centrique. Cela pourrait détruire le web tel que nous le connaissons, m’a confié Toby Walsh, professeur d’IA à l’université de Nouvelle-Galles du Sud. Cela posera aussi des problèmes aux créateurs d’IA. Face à la prolifération du contenu produit par l’IA, les géants du numérique comme Microsoft et Google auront moins de données authentiques pour perfectionner leurs modèles.

Les captchas, ces tests qui vérifient que les utilisateurs sont humains sur les sites web, sont devenus plus difficiles à cause de l’amélioration de l’intelligence artificielle, qui peut désormais tromper les anciens captchas. L’IA a transformé d’autres aspects de l’internet, comme la production de contenus et la modération des commentaires.


Licato, professeur à l'université de Floride du Sud, compare l'état actuel de l'expérience web à la théorie de « l'internet mort ». À mesure que les sites les plus visités, comme Reddit, sont inondés d'articles et de commentaires rédigés par des robots, les entreprises déploient des contre-bots supplémentaires pour lire et filtrer le contenu automatisé. À terme, selon cette théorie, la majeure partie de la création et de la consommation de contenu sur l'internet ne sera plus effectuée par des humains.

Neel Chauhan, ingénieur logiciel chez Microsoft 365, partage son point de vue sur l’avenir des médias sociaux dans un billet de blog intitulé « Social Media Will Die ». Il pense que les médias sociaux vont disparaître à cause de plusieurs facteurs, tels que la saturation du marché, la lassitude des utilisateurs, la régulation gouvernementale et la concurrence des nouvelles technologies.

Il prédit que les médias sociaux vont être remplacés par des plateformes plus décentralisées, plus respectueuses de la vie privée et plus adaptées aux besoins spécifiques des utilisateurs. Chauhan donne quelques exemples de ces plateformes, comme Mastodon, Matrix et Signal. L'ingénieur logiciel de Microsoft conclut en invitant les lecteurs à se préparer à ce changement et à explorer les alternatives aux médias sociaux traditionnels.

Stack Overflow en perte de vitesse face aux nouveaux outils d’IA pour les développeurs

Stack Overflow, le site web incontournable pour les questions et réponses techniques, a connu une chute brutale en juin. Martijn Pieters, un ingénieur logiciel qui vit à Cambridge, en a été témoin. Il participait à la plateforme et en était modérateur depuis plus de dix ans. Dans un billet de blog publié le 19 avril, David F. Carr, Senior Manager au sein de l'équipe Similarweb, présente l’impact de ChatGPT, un chatbot basé sur l’intelligence artificielle, sur le trafic de Stack Overflow, un site web communautaire pour les développeurs. Pour étayer ses déclarations, explique que ChatGPT peut générer du code et des explications à partir d’un simple texte, ce qui réduit le besoin de chercher des solutions sur Stack Overflow.

Il compare aussi ChatGPT avec CoPilot, un assistant de codage proposé par GitHub, qui utilise la même technologie que ChatGPT. Il présente des données de Similarweb qui montrent que le trafic de Stack Overflow a baissé de 14 % en mars 2023, tandis que celui de ChatGPT et de GitHub a augmenté. Il conclut que ChatGPT et CoPilot représentent une nouvelle façon de coder, plus basée sur l’ingénierie des prompts que sur le copier-coller.

Les programmeurs peuvent poser des questions et trouver des réponses sur Stack Overflow. Il s'agit du site phare du réseau Stack Exchange. Joel Spolsky et Jeff Atwood l'ont développé en 2008. Toutefois, les développeurs obtiennent de plus en plus de conseils auprès des chatbots d'IA et de GitHub CoPilot plutôt que sur les tableaux de messages de Stack Overflow. Alors que le trafic sur le ChatGPT d'OpenAI augmente de façon exponentielle, Stack Overflow connaît un déclin régulier, perdant ainsi une partie de son statut de source privilégiée vers laquelle les développeurs se tournent pour obtenir des réponses à leurs problèmes de codage.

L’IA envahit le web et menace la qualité de l’information

La plateforme de réseau social Reddit s'appuie sur des modérateurs bénévoles pour éviter que le site ne soit envahi par des contenus problématiques, notamment des discours haineux, et pour veiller à ce qu'il reste attrayant pour les utilisateurs. Bien qu'il ne soit pas rémunéré, ce travail est très précieux pour l'entreprise : selon deux nouvelles études menées par des informaticiens de l'université Northwestern, il vaut au minimum 3,4 millions de dollars par an, ce qui équivaut à 2,8 % du chiffre d'affaires de Reddit en 2019. Pour ce faire, ils s'appuient sur des outils tels qu'Apollo, une application vieille de près de dix ans qui offre des outils de modération avancés.

Mais en juin, les utilisateurs ont reçu un message inhabituel : Apollo fermait ses portes. Dans le cadre de la tentative de l'entreprise de participer à la ruée vers l'IA, les applications tierces ont été mises à l'écart. Un rapport d'Europol prévoit que, d'ici quelques années, 90 % du contenu de l'Internet sera généré par l'intelligence artificielle.

L'entreprise à l'origine du site, Prosus, a décidé d'autoriser les réponses générées par l'IA et a commencé à facturer l'accès à ses données aux entreprises spécialisées dans l'IA. En réaction, les principaux modérateurs se sont mis en grève, arguant que le contenu de mauvaise qualité généré par l'IA allait à l'encontre de l'objectif même du site : « Il s'agit d'un dépôt de questions et de réponses de haute qualité. »

NewsGuard, une société qui traque la désinformation et évalue la crédibilité des sites d'information, a découvert près de 350 sites d'information en ligne qui sont presque entièrement générés par l'IA, avec peu ou pas de supervision humaine. Des sites tels que Biz Breaking News et Market News Reports produisent des articles génériques sur des sujets aussi variés que la politique, la technologie, l'économie et les voyages. Nombre de ces articles sont truffés d'affirmations non vérifiées, de théories du complot et de canulars. Lorsque NewsGuard a testé le modèle d'IA derrière ChatGPT pour évaluer sa tendance à diffuser de faux récits, il a échoué 100 fois sur 100.

Selon Gordon Crovitz, codirecteur général de NewsGuard, l’IA risque de devenir la plus grande source de désinformation persuasive à grande échelle de l’histoire de l’internet si elle n’est pas améliorée et encadrée. Elle invente souvent les réponses aux questions. Un rapport d’Europol, l’agence de l’Union européenne chargée de l’application de la loi, estime que dans quelques années, l’IA produira 90 % du contenu de l’internet, ce qui est incroyable.

L’illusion du code généré par ChatGPT : une étude révèle les failles du chatbot d’IA d’OpenAI

Une étude publiée récemment par des chercheurs de l'université de Purdue, aux États-Unis, a révélé que ChatGPT produit un code incorrect (mais convaincant) environ une fois sur deux. Le rapport de l'étude indique que 52 % des réponses de ChatGPT sont incorrectes et 77 % sont verbeuses. Toutefois, le rapport estime que le chatbot d'IA d'OpenAI a été suffisamment convaincant pour tromper un tiers des participants à l'étude. Les réponses ChatGPT sont préférées dans 39,34 % des cas en raison de leur exhaustivité et de leur style de langage bien articulé. Les chercheurs indiquent également que parmi l'ensemble des réponses de ChatGPT qui ont été choisies, 77 % étaient fausses.

L'équipe de recherche a analysé les réponses de ChatGPT à 517 questions de Stack Overflow afin d'évaluer l'exactitude, la cohérence, l'exhaustivité et la concision des réponses du chatbot. Les chercheurs ont également procédé à une analyse linguistique et sentimentale des réponses et ont interrogé une douzaine de participants volontaires sur les résultats générés par le modèle. « Notre analyse montre que 52 % des réponses de ChatGPT sont incorrectes et 77 % sont verbeuses. Néanmoins, les réponses ChatGPT sont préférées dans 39,34 % des cas en raison de leur exhaustivité et de leur style de langage bien articulé », indique le rapport de l'étude.

Bien que des sites d'information générés par l'IA n'aient pas encore un public important, leur essor rapide est un signe précurseur de la facilité avec laquelle le contenu généré par l'IA déformera l'information sur les médias sociaux. Dans le cadre de ses recherches, Filippo Menczer, professeur d'informatique et directeur de l'Observatoire des médias sociaux de l'université de l'Indiana, a déjà découvert des réseaux de robots qui publient d'importants volumes de contenu généré par ChatGPT sur des sites de médias sociaux tels que X (anciennement Twitter) et Facebook.

L’hameçonnage et le spam deviendront plus sophistiqués et plus difficiles à détecter

À court terme, l'essor de l'IA posera une série de problèmes concrets en matière de sécurité et de protection de la vie privée. Les escroqueries en ligne, qui se multiplient depuis novembre, seront plus difficiles à détecter parce que l'IA permettra de les adapter plus facilement à chaque cible. Les recherches menées par John Licato, professeur d'informatique à l'université de Floride du Sud, ont montré qu'il est possible de concevoir des escroqueries avec précision en fonction des préférences et des tendances comportementales d'un individu, à partir de très peu d'informations sur une personne provenant de sites web publics et de profils de médias sociaux.

L'un des principaux signes révélateurs des escroqueries par hameçonnage à haut risque - un type d'attaque où l'intrus se fait passer pour une entité de confiance, comme votre banque, pour voler des informations sensibles - est que le texte contient souvent des fautes de frappe ou que les graphiques ne sont pas aussi raffinés et clairs qu'ils devraient l'être.

Mais ces signes n'existeront pas dans un réseau de fraude alimenté par l'IA, les pirates transformant les générateurs gratuits de texte à image et de texte comme ChatGPT en puissants moteurs de spam. L'IA générative pourrait potentiellement être utilisée pour insérer votre photo de profil dans la campagne de courrier électronique personnalisée d'une marque ou pour produire un message vidéo d'un homme politique avec une voix artificiellement retravaillée, s'exprimant exclusivement sur les sujets qui vous intéressent.

L'internet donnera de plus en plus l'impression d'être conçu pour les machines et par les machines. Et c'est déjà le cas : Les données d'une société de cybersécurité, Darktrace, ont détecté une augmentation de 135 % des cybercampagnes malveillantes depuis le début de l'année 2023, et ont révélé que les criminels se tournent de plus en plus vers les robots pour écrire des courriels de phishing afin d'envoyer des messages sans erreur, plus longs et moins susceptibles d'être détectés par les filtres anti-spam.

Bientôt, les pirates n'auront peut-être plus besoin de se donner trop de mal pour obtenir vos informations sensibles. À l'heure actuelle, les pirates recourent souvent à un dédale de méthodes indirectes pour vous espionner, notamment en dissimulant des traqueurs à l'intérieur des sites web et en achetant de vastes ensembles de données compromises sur le dark web.

Mais des chercheurs en sécurité ont découvert que les robots d'intelligence artificielle présents dans vos applications et appareils pourraient voler des informations sensibles pour les pirates. Étant donné que les modèles d'IA d'OpenAI et de Google parcourent activement le web, les pirates peuvent cacher des codes malveillants - un ensemble d'instructions pour le robot - à l'intérieur des sites web et les faire exécuter par les robots sans intervention humaine.

Sources : Newsguard, Northwestern, Darktrace

Et vous ?

Quels peuvent être les impacts sociaux, éthiques et juridiques de la production de contenu par l’IA ?

Quelles mesures peuvent prendre les plateformes collaboratives pour préserver la qualité et la fiabilité de leur contenu face à l’IA ?

Quelles sont selon vous, les opportunités et les limites de l’IA pour enrichir et diversifier le contenu du web ?

Voir aussi :

Stack Overflow est la victime de ChatGPT avec Baisse du trafic de 14 %, alors que ChatGPT a attiré 1,6 milliard de visites en mars et 920,7 millions au cours de la première quinzaine d'avril

Une étude affirme que 52 % des réponses de ChatGPT aux questions de codage informatique sont incorrectes et 77 % sont verbeuses, mais les réponses du chatbot sont "convaincantes"

Twitter, Reddit et tous les réseaux sociaux vont disparaître, affirme Neel Chauhan, ingénieur chez Microsoft 365

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de daerlnaxe
Membre éprouvé https://www.developpez.com
Le 12/08/2023 à 13:57
Le net est déjà défiguré de mon point de vue:
- Les gros Réseaux sociaux qui ont attiré du monde en masse, un net qui ne sert plus pour l'information, l'éducation mais faire du pognon.
- La qualité en a souffert affreusement, outre les centres d'intérêts limités, même pour avoir des informations sur du code, c'est la croix et la bannière à cause de site montés exprès pour faire du fric, qui vont reprendre tout ce qu'il faut pour monter en tête sur les moteurs... duck duck go en a pris un coup dans l'aile, c'est rare de chopper quelque chose de pertinent, google s'en sort maintenant mieux que lui. Ces sites sont pauvres en information quand ce n'est pas erroné, c'est généré de manière procédurale, ça se sent... Et c'est un long pavé dans lequel sera noyée une bribe d'information. Du genre mais à quoi sert donc la fonction Write-Host de Powershell, le tout étalé sur des dizaines de lignes. Enfin vous voyez.

Et pour finir, par contre... et j'avoue jubiler. StackOverFlow se pète la gueule car sa communauté est tout simplement toxique. Ils ont foutu un système de downvote, il suffit de poser une question très pointue pour que tous ceux qui ne la comprennent pas downvote et on se fait allumer. J'ai un excellent exemple avec protobuf 3, ça venait à peine de sortir, ici (désolé j'ai oublié son nom, il a un avatar avec un bouc) m'a beaucoup aidé à avancer et quand j'ai pu aller plus loin grâce à tout le temps que j'avais pour programmer de manière libre, je lui ai communiqué ce que j'avais pu faire. C'est quelque chose qui me parait naturel. Là bas j'ai posé une question relativement pointue car je devais en fait avoir des plugins sur ma partie serveur, aptes à communiquer avec des plugins sur la partie client et ceci de manière assez souple... rien de prévu à l'avance en fait. J'ai pris 4 downvote avec des réponses.. de merde.. où l'on me renvoyait vers comment utiliser en version simple client/serveur protobuf. Sauf que ça n'était pas ma question, je savais le faire, et là ça ne collait pas du tout... C'est finalement au bout de plusieurs jours, je me demande si je m'étais pas fait BL pour avoir OSER posé cette question, qu'un mec des pays du nord m'a répondu, un gars comme moi avec très peu de "notoriété".

"Bizarrement" je suis sûr que Code Project ne va pas sentir grand chose en comparaison... La communauté est géniale, un débutant aura des réponses avec beaucoup de bienveillance, ce qui est totalement normal. Ah et j'oubliais, c'est au nom de la pertinence qu'on te fous du downvote capable de te blacklister... Parce que là bas comme le site l'indique bien, poster n'est pas un droit. T'as le droit de fermer ta gueule, de toute manière quandun modo arbitre il regarde combien tu as de notoriété et va toujours dans le sens du mec qui a la meilleure même s'il est toxique comme pas permis. J4ai même compris comment gagner de cette notoriété, en fait faire quelque chose de très bateau et attendre que ça grimpe, c'est le temps qui déverrouille tes droits.. Mais bref, tu trouves du code de 10 ans qui ne fonctionnera pas mais si tu poses la question pour la dernière version du langage/framework tu prendras quand même un downvote.

Donc franchement si le site crève, tant mieux, là en effet une IA ne pourra jamais faire pire qu'eux.
7  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 12/08/2023 à 16:19
Ce n'est pas un problème du site mais plutôt de la communauté présente sur le site. Bien sûr, la politique du site peut jouer sur la population y participant (càd sa communauté).

L'IA va être un catalyseur d'un prob latent. Une IA apportera de l’efficacité en terme "calcul", mais aucunement en terme de réflexion, les réponses pourront être bonnes et efficaces ... ou non, mais seront insipides.

Les gens veulent de plus en plus une réponse immédiate, efficace, tout en étant de plus en plus individualiste, ne veulent pas payer pour le service ou pas cher et se plaignent une fois celui-ci nivelé par le bas de la mauvaise qualité de celui-ci.

Il est de plus en plus difficile d'avoir des gens même que l'on paye sur qui ont peut vraiment compter, alors les bénévoles....

Triste évolution des choses.
3  0 
Avatar de daerlnaxe
Membre éprouvé https://www.developpez.com
Le 12/08/2023 à 21:38
Je te rejoins sur un point au niveau de l'IA, je pense aussi que cela va appauvrir, simplement pour ce site ça m'indiffère. Idem pour jeuxvideo.com, ...

Mais pour Stackoverflow ,ils ont choisi de mettre un fonctionnement à coup de like, ici c'est juste pour dire si on est d'accord ou pas, là bas ça conditionne tes questions comme tes réponses, si on veut avoir une idée pratique ce ce que dénonce (entre autres) la série black mirror, c'est parfait comme cas. Et le hic c'est qu'en meublant l'espace et en ayant bien ficelé le site ils arrivent en tête. Pour revenir sur mon avis du net, vu que j'utilise beaucoup et tu dois aussi le faire je pense, les moteurs de recherche... J'ai vu au fil du temps l'appauvrissement généralisé. DEs traducteurs auto qui ramènent n'importe quoi en plus de ce que j'ai décris plus haut... Et surtout, les communautés se sont pas mal vidées, aujourd'hui les gens passent infiniment plus de temps sur des réseaux sociaux de grandes tailles qu'à se regrouper autour d'une passion commune. Du coup l'IA là dedans ne va porter je pense que le coup de grâce.

Pour dire au niveau pertinence j'en suis revenu à quand j'ai commencé sur le net et qu'il n'y avait pas autant de monde (98), j'imagine que toi comme d'autres aussi se souviennent.
3  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/08/2023 à 13:01
Salut à tous.

Craignez-vous que l’information sur Internet ne soit plus du tout fiable à cause de l’intelligence artificielle ?
Comment savoir qu'une information est fiable ?
Quand on cherche un mot dans un dictionnaire, on sait qu'il y a des linguistes, des lexicographes dont le métier est de décrire les différents usages de la langue et de rédiger des dictionnaires, comme le petit Robert ou encore le Larousse.

Mais sur internet, aucune vérificaion, même si l'information est approuvée par des millions d'internautes, elle peut tout simplement être fausse.

Il ne faut faire confiance à personne, surtout pas à une machine et toujours vérifier l'information que l'on nous impose comme étant une soi-disant vérité.

Partagez-vous l'avis des internautes qui pensent que l'information sur Internet était déjà douteuse avant la montée en puissance de l'intelligence artificielle ? Pour quelles raisons ?
Les informations sont plus que douteuses car elles sont émises par des personnes qui donnent leur opinion et ne sont pas étayées par des preuves.

Les didacticiels en sont un exemple. Quelqu'un donne la recette pour configurer un logiciel puis quelques versions plus tard, plus rien ne fonctionne. Autrement dit, ces informations sont éphémères alors que leur site reste présent durant encore des années.

L'intelligence artificiel a déjà le mérite de vous répondre mais en aucune façon, vous devez vous reposer sur qui que ce soit car vous devez faire votre propre jugement et non reprendre à votre compte ce que d'autres disent, sans l'avoir vérifier ou expérimenter par vous même aupréalable.

Quels peuvent être les impacts sociaux, éthiques et juridiques de la production de contenu par l’IA ?
Un éclatement de la société ! Entre ceux qui vont continuer à croire dans le dieu Internet et ceux qui font devenir allergique à sa domination.

Quelles mesures peuvent prendre les plateformes collaboratives pour préserver la qualité et la fiabilité de leur contenu face à l’IA ?
On ne peut pas ! Comment faire confiance quand on n'a aucun critère pour le savoir ? Il suffit de se rendre compte qu'un simple logo comme dans les supermarchés peuvent être détournés de leur fonction première, uniquement dans l'intérêt des producteurs ou je ne sais qui d'autre.

Quelles sont selon vous, les opportunités et les limites de l’IA pour enrichir et diversifier le contenu du web ?
Dans des domaines où son expertise ne sera pas remis en cause. En aucun cas, notre jugement doit reposer sur sa seule expertise, car comme chez un humain, une minuscule erreur que personne ne voit va induire un résultat prometteur alors que tout le projet peut s'avérer catastrophique.

Cordialement.
Artemus24.
@+
0  0