Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Le côté obscur de l'IA : les fermes de contenu utilisent les chatbots à mauvais escient

En termes de désinformation

Le 2023-05-09 08:30:39, par Nancy Rey, Expert éminent sénior
Les modèles d'intelligence artificielle sont actuellement sous les feux de la rampe en raison de leur potentiel à accroître l'efficacité du travail, à améliorer la prise de décision et la résolution de problèmes, et à générer du contenu dans diverses applications telles que les moteurs de recherche. Si ChatGPT et d'autres moteurs de recherche basés sur l'IA ont beaucoup à offrir en termes d'apprentissage et d'élargissement des connaissances, certains modèles d'IA peuvent avoir des effets néfastes. Il est essentiel de reconnaître que l'IA peut avoir des aspects négatifs, notamment des préjugés intégrés, des problèmes de protection de la vie privée et des risques d'abus.


Récemment, NewsGuard, le traqueur de fausses informations, a révélé comment les outils d'IA sont utilisés à mauvais escient pour diffuser de fausses informations. Le rapport met en garde contre les effets des robots d'IA qui se font passer pour des journalistes et des créateurs de contenu. En outre, il est important de noter que ces plateformes utilisent principalement le chinois, le thaï, l'anglais, le portugais, le tchèque, le français et le tagalog. Leur site web et leur contenu sont créés à partir de ces langues.

Vous devez vous demander quelle est la véritable raison de cette démarche. Eh bien, leur objectif est d'augmenter le trafic sur leur site web en utilisant des publicités positionnées à l'aide d'algorithmes. En diffusant des informations de mauvaise qualité, ces sites web, parfois appelés "fermes de contenu", tuent chaque jour le contenu original. Il est essentiel de comprendre que l'emploi de ces chatbots d'IA peut affecter de manière significative la confiance des gens dans l'exactitude des informations, ce qui pourrait avoir de graves conséquences.

En examinant de nombreuses fermes de contenu, NewsGuard a démontré comment l'IA est utilisée de manière inappropriée dans la génération de contenu. Bien que ces sites web nient utiliser des chatbots de manière préjudiciable, ils ont involontairement révélé qu'ils utilisaient l'IA pour fournir du contenu. Par exemple, le site "GetIntoKnowledge.com" a déclaré qu'il n'utilisait l'IA qu'en cas de nécessité, mais son utilisation est néanmoins confirmée. Un autre site web, "Famadillo.com", a reconnu utiliser l'IA pour réécrire certains de ses contenus antérieurs. Ces affirmations soulignent la popularité de l'IA dans la production de contenu et la nécessité de règles plus strictes pour garantir l'application morale et responsable de cette technologie.

La prolifération de la désinformation est encore renforcée par l'utilisation de matériel généré par l'IA. Par exemple, un article dont le titre semble avoir été créé par une intelligence artificielle a été publié sur le site "CountryLocalNews.com". Cela montre comment l'IA peut être utilisée pour fournir un faux contenu et modifier les titres afin d'augmenter le trafic sur ces sites web.

Malgré l'utilisation abusive et généralisée de l'IA dans l'espace internet, Google continue de dominer le secteur des moteurs de recherche en raison de son engagement à fournir aux internautes des informations fiables et uniques, tout en accordant la priorité à leur sûreté et à leur sécurité. Au fil des ans, Google a mis en place un certain nombre de mécanismes pour maintenir l'exactitude de ses résultats de recherche, notamment en donnant la priorité aux contenus de haute qualité et en pénalisant les sites web qui ne respectent pas ses règles. L'entreprise a également pris des mesures pour garantir la protection de la vie privée des consommateurs, comme l'authentification à deux facteurs et le cryptage.

En résumé, il est essentiel d'être prudent et de réfléchir longuement au développement et à l'utilisation de l'IA. Nous devons être conscients de l'utilisation que nous ferons de la technologie de l'IA à mesure qu'elle évoluera à l'avenir, en veillant à ce qu'elle soit faite de manière responsable et éthique.

Source : NewsGuard

Et vous ?

Que pensez-vous de ce rapport ?
Trouvez-vous que les conclusions formulées dans ce rapport sont pertinentes ou crédibles ?
Quel est votre ressenti concernant les chatbots d'IA ? Selon vous, comment devrait-on encadrer leurs usages pour qu'ils soient plus sûrs ?

Voir aussi :

L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs, des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincant

Un « bogue » dans l'algorithme de Facebook a engendré une mise en avant de la désinformation sur des fils d'actualités, il n'a été corrigé que six mois plus tard

Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables, et plus difficiles à repérer, selon certains chercheurs

L'outil de surveillance le plus controversé du FBI est menacé, l'examen de l'accès du FBI aux renseignements étrangers révèle une mauvaise utilisation de la technologie de surveillance
  Discussion forum
65 commentaires
  • kain_tn
    Expert éminent
    Envoyé par Stéphane le calme
    [
    Que pensez-vous du plan d’OpenAI de créer une équipe de recherche sur la superintelligence (dont l'intelligence serait « supérieure » à celle de l'homme) alors que nous n'en sommes même pas encore à l'intelligence artificielle générale (dont l'intelligence serait « équivalente » à celle de l'homme) ?
    Un simple effet d'annonce. Peut-être causé par ça: ChatGPT est confronté pour la première fois à une baisse de trafic après une croissance explosive depuis son lancement
    ce qui suggère que la frénésie suscitée par le chatbot commence à s'estomper
  • nikau6
    Membre extrêmement actif
    Envoyé par Coeur De Roses
    Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
    Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
    L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

    La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
    Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

    EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
    Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
    Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
  • eddy72
    Membre régulier
    un labo en plus ...
  • sirthie
    Membre éprouvé
    Envoyé par Stéphane le calme
    Considérez la première image ci-dessus, où un fil de discussion récent s'est déroulé sur un forum sur la cybercriminalité. Dans cet échange, le cybercriminel a présenté le potentiel d'exploiter l'IA générative pour affiner un e-mail qui pourrait être utilisé dans une attaque de phishing ou BEC. Il a ensuite recommandé de composer l'e-mail dans sa langue maternelle, de le traduire, puis de l'introduire dans une interface comme ChatGPT pour améliorer sa sophistication et sa formalité. Cette méthode introduit une forte implication : les attaquants, même ceux qui ne maîtrisent pas une langue particulière, sont désormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.
    BEC = ?
  • Gluups
    Membre chevronné
    Je reçois par mail une notification pour ce fil, avec le titre "Nous ne devrions pas réglementer l’IA sans relever des dommages significatifs"

    Je trouve que ce titre est mal rédigé, il devrait être, "Nous ne devrions pas attendre des dommages significatifs avant de réglementer l'IA".

    Ou alors, c'est à croire qu'on a voté Macron exprès.
  • Coeur De Roses
    Membre actif
    Envoyé par Gluups
    Je reçois par mail une notification pour ce fil, avec le titre "Nous ne devrions pas réglementer l’IA sans relever des dommages significatifs"

    Je trouve que ce titre est mal rédigé, il devrait être, "Nous ne devrions pas attendre des dommages significatifs avant de réglementer l'IA".

    Ou alors, c'est à croire qu'on a voté Macron exprès.
    Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
  • Gluups
    Membre chevronné
    Il semble manquer tellement de choses à notre société, que je crains que ça risque de nous emmener loin du sujet.
  • lukskiwalker
    Nouveau membre du Club
    vous auriez l'url du forum ?
  • Pazu12
    Futur Membre du Club
    Aujourd'hui la plateforme Hugging Face propose plus de 278 000 modèles d'intelligence artificielle dont plus de 17 000 modèle de génération de texte.

    Des interfaces utilisateurs simples sont en open-source sur GitHub et facilement téléchargeable par n'importe qui, et permettent l'utilisation de la majorité des modèles, en local, soit avec la CPU, soit plus rapidement avec la GPU.
    Les plus connus étant Easy Diffusion pour les modèles de stable-diffusion text2image https://stable-diffusion-ui.github.io/ et text-generation-webui pour le text-generation https://github.com/oobabooga/text-generation-webui

    Trouver des contournement à ChatGPT est un bien faible risque comparé à ce qu'il est possible de générer chez soit en local, protégé dans sa goon cave. Et soyons réaliste, mais personne n'utilise ou nutilisera les modèles en ligne pour utiliser l'IA à des fins non légales...

    Donne moi une GPU et je te génèrerai plus d'illegal porn ou d'extreme gore content que tu n'en trouveras avec un navigateur classique.

    Bilan des courses
    - Il est imperatif de réfléchir, discuter et débattre des sujets de l'IA en assumant qu'il est possible de tout télécharger et contourner chez soi.
    - Il est impératif de trouver des mesures viable et réalistes plutôt que des scénarios post apocalyptique putaclic.
    - Il est impératif de sensibiliser la jeunesse dès aujourd'hui qui est la génération la plus soumise aux potentiels risques de l'IA, et par ailleurs la plus influençable.
  • Anselme45
    Membre extrêmement actif
    Sur les 1 539 personnes interrogées qui utilisent la GenAI pour le développement et le test de logiciels, les applications les plus courantes sont l'écriture ou le débogage de code (51 %), les rapports de test (48 %), l'élaboration de cas de test (46 %) et la création d'applications (42 %). GitHub Copilot est l'outil le plus populaire pour l'aide au codage (41 % des répondants), suivi par OpenAI Codex (24 % des répondants).
    Ouaaaaaaaaaaah... Impressionnant!

    Et quand est-ce que l'on peut avoir une démonstration réelle nous montrant comment ces 1539 personnes interrogées font tout ce qu'ils disent avec l'IA?

    Je pose naïvement la question parce que si je vous dis que j'ai fait le tour de France en équilibre sur les mains vous allez me demander d'en faire la preuve...