IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quand les détecteurs d'IA se trompent : les rédacteurs perdent leur emploi, accusés à tort d'utiliser l'IA,
Ce qui soulève des questions sur la fiabilité de ces technos et leurs implications pour l'emploi

Le , par Stéphane le calme

10PARTAGES

5  0 
La distinction entre le contenu créé par l’homme et celui généré par l’IA devient floue. Les détecteurs d’IA, conçus pour identifier les textes générés par l’IA, sont devenus des outils controversés. Des rédacteurs se retrouvent licenciés suite à des accusations erronées d’utilisation d’IA, soulevant des questions sur la fiabilité de ces technologies et leurs implications pour l’emploi.

L’IA « vole » déjà le travail des rédacteurs, et maintenant, ils perdent également leurs emplois à cause de fausses accusations d’utilisation d’IA. Les détecteurs d’IA, bien qu’ils prétendent avoir des taux de précision élevés, sont souvent moins fiables que ce que promettent leurs créateurs. Les experts, les études et les initiés de l’industrie soutiennent que ces outils sont loin d’être aussi fiables qu’annoncé.

Kimberly Gasuras n'utilise pas l'IA. « Je n'en ai pas besoin », a-t-elle déclaré. « J'ai été journaliste pendant 24 ans. Comment pensez-vous que j'ai fait tout ce travail ? » Cette logique n'a pas suffi à sauver son emploi.

En tant que journaliste locale à Bucyrus, dans l'Ohio, Gasuras a recours à des activités annexes pour payer ses factures. Pendant un certain temps, elle a gagné beaucoup d'argent sur une plateforme de rédaction en freelance appelée WritersAccess, où elle rédigeait des blogs et d'autres contenus pour des petites et moyennes entreprises. Mais au milieu de l'année 2023, ses revenus ont chuté car certains clients ont opté pour ChatGPT pour leurs besoins en rédaction. C'était déjà une période difficile. C'est alors que le courriel est arrivé.

« Je n'ai reçu qu'un seul avertissement », explique Gasuras. « J'ai reçu ce message disant qu'ils avaient signalé mon travail comme étant effectué à l'aide d'un outil IA appelé "Originality" ». Elle est restée abasourdie. Gasuras a écrit pour défendre son innocence, mais elle n'a jamais reçu de réponse. Originality coûte de l'argent, mais Gasuras a commencé à soumettre son travail à d'autres détecteurs d'IA avant de l'envoyer pour s'assurer qu'elle ne se faisait pas épingler par erreur. Quelques mois plus tard, WritersAccess l'a quand même exclue de la plateforme. « Ils m'ont dit que mon compte avait été suspendu en raison d'une utilisation excessive de l'IA. Je n'arrivais pas à y croire », a déclaré Gasuras.


La recherche effrénée de fraudeurs

Lorsque ChatGPT a mis le feu aux poudres il y a un an et demi, il a suscité une recherche fébrile de moyens d'attraper les personnes qui tentent de faire passer un texte d'IA pour leur propre écriture. Une multitude de startups ont lancé des outils de détection de l'IA pour combler le vide, avec des noms tels que Copyleaks, GPTZero, Originality.AI et Winston AI. Il s'agit d'une activité rentable dans un paysage plein de croquemitaines de l'IA.

Ces entreprises annoncent la tranquillité d'esprit, un moyen de reprendre le contrôle grâce à la « preuve » et à la « responsabilité ». Certaines annoncent des taux de précision allant jusqu'à 99,98 %. Mais un nombre croissant d'experts, d'études et d'initiés du secteur affirment que ces outils sont bien moins fiables que ne le promettent leurs fabricants. Il ne fait aucun doute que les détecteurs d'IA commettent souvent des erreurs, et que des passants innocents se retrouvent pris entre deux feux. D'innombrables étudiants ont été accusés de plagiat par l'IA, mais une épidémie plus silencieuse sévit dans le monde professionnel. Certains contrats d'écriture se tarissent grâce aux chatbots. Tandis que les gens se disputent un champ de travail qui se raréfie, les rédacteurs perdent leur emploi à cause des fausses accusations des détecteurs d'IA.

« Cette technologie ne fonctionne pas de la manière dont les gens l'annoncent », a déclaré Bars Juhasz, cofondateur d'Undetectable AI, qui crée des outils pour aider les gens à humaniser les textes d'IA afin de les faire passer inaperçus dans les logiciels de détection. « Nous sommes très inquiets quant à la fiabilité du processus de formation utilisé par ces détecteurs d'IA. Ils prétendent avoir un taux de précision de 99 % et, d'après notre travail, je pense que c'est impossible. Mais même si c'est vrai, cela signifie que pour 100 personnes, il y aura un faux drapeau. Nous parlons ici des moyens de subsistance et de la réputation des gens ».

Les entreprises spécialisées dans la détection de l'IA « vendent de l'huile de serpent »

En général, les détecteurs d'IA fonctionnent en repérant les signes distinctifs de l'écriture de l'IA, tels qu'une grammaire et une ponctuation parfaites. En fait, l'un des moyens les plus simples de faire signaler son travail est d'utiliser Grammarly, un outil qui vérifie les fautes d'orthographe et de grammaire. Il suggère même des façons de réécrire les phrases pour plus de clarté en utilisant, vous l'aurez deviné, l'intelligence artificielle. Pour ne rien arranger, des médias se sont entretenus avec des rédacteurs qui ont déclaré avoir été licenciés par des plateformes qui leur imposaient l'utilisation de Grammarly.

Les entreprises spécialisées dans la détection de l'IA « vendent de l'huile de serpent », a déclaré Debora Weber-Wulff, professeur à l'université des sciences appliquées pour l'ingénierie et l'économie de Berlin, coauteur d'un article récent sur l'efficacité de la détection de l'IA. Selon Debora Weber-Wulff, les recherches montrent que les détecteurs d'IA sont imprécis, peu fiables et faciles à tromper. « Les gens veulent croire qu'il existe un logiciel magique qui résout leurs problèmes », a-t-elle déclaré. Mais « les logiciels ne peuvent pas résoudre les problèmes sociaux. Nous devons trouver d'autres solutions ».

Les entreprises qui fabriquent des détecteurs d'IA affirment qu'ils sont un outil nécessaire mais imparfait dans un monde inondé de textes générés par des robots. Il existe une demande importante pour ces services, qu'ils soient efficaces ou non.

Alex Cui, directeur technique de la société GPTZero, spécialisée dans la détection de l'IA, estime que les détecteurs présentent des lacunes importantes, mais que les avantages l'emportent sur les inconvénients. « Nous voyons un avenir où, si rien ne change, l'internet sera de plus en plus dicté par l'IA, qu'il s'agisse d'actualités, d'articles évalués par des pairs ou de marketing. Vous ne savez même pas si la personne à qui vous parlez sur les médias sociaux est réelle », a déclaré Cui. « Nous avons besoin d'une solution pour confirmer les connaissances en masse et déterminer si le contenu est de haute qualité, authentique et d'origine légitime ».


Un mal nécessaire ?

Mark, un autre rédacteur publicitaire basé en Ohio, explique qu'il a dû accepter un travail d'entretien dans un magasin local après qu'un détecteur d'IA lui a fait perdre son emploi. « J'ai reçu un courriel m'informant que mon article le plus récent avait obtenu une probabilité de 95 % de génération d'IA », raconte Mark. « J'étais sous le choc. J'ai trouvé ridicule qu'ils m'accusent après avoir travaillé ensemble pendant trois ans, bien avant que ChatGPT ne soit disponible ».

Il a essayé de se défendre. Mark a envoyé à son client une copie du document Google dans lequel il avait rédigé l'article, avec des horodatages prouvant qu'il avait écrit le document à la main. Cela n'a pas suffi. La relation de Mark avec la plateforme de rédaction s'est effondrée. Selon lui, la perte de son emploi lui a coûté 90 % de ses revenus.

« Nous entendons ces histoires plus souvent que nous ne le souhaiterions, et nous comprenons la douleur que les faux positifs causent aux écrivains lorsque le travail dans lequel ils se sont investis corps et âme est accusé à tort », a déclaré Jonathan Gillham, PDG d'Originality.AI. « Nous avons l'impression de construire un outil pour aider les écrivains, mais nous savons qu'il y a parfois des conséquences ».

Selon Jonathan Gillham, le problème ne se limite pas à aider les rédacteurs ou à les responsabiliser : « Google s'attaque de manière agressive au spam de l'IA », a-t-il déclaré. « Nous avons entendu des entreprises dont le site entier a été désindexé par Google dire qu'elles ne savaient même pas que leurs rédacteurs utilisaient l'IA ».

Il est vrai que l'internet est inondé de fermes de contenu à faible effort qui produisent des articles d'IA de mauvaise qualité dans le but de jouer avec les résultats de recherche, d'obtenir des clics et de gagner de l'argent grâce à la publicité. Google prend des mesures sévères à l'encontre de ces sites, ce qui amène certaines entreprises à penser que leurs sites web seront déclassés si Google détecte une quelconque écriture d'IA. C'est un problème pour les entreprises basées sur le web, et c'est de plus en plus l'argument de vente numéro un des détecteurs d'IA. Originality se présente comme un moyen de « préparer votre site à l'avenir sur Google », en tête de la liste des avantages figurant sur sa page d'accueil.

Un porte-parole de Google a déclaré qu'il s'agissait d'une interprétation totalement erronée des règles de l'entreprise. Google, une entreprise qui fournit de l'IA, a déclaré qu'elle n'avait aucun problème avec le contenu de l'IA en lui-même. « Il est inexact de dire que Google pénalise les sites web simplement parce qu'ils utilisent du contenu généré par l'IA », a déclaré le porte-parole. « Comme nous l'avons clairement indiqué, les contenus de faible valeur créés à grande échelle pour manipuler les classements dans les moteurs de recherche sont des spams, quelle que soit la manière dont ils sont produits. Nos systèmes automatisés déterminent ce qui apparaît dans les premiers résultats de recherche en se basant sur des signaux qui indiquent si le contenu est utile et de haute qualité ».

Sources : Who is AI Replacing? The Impact of Generative AI on Online Freelancing Platforms, International Journal for Educational Integrity, Originality

Et vous ?

Quelle est votre expérience personnelle avec les détecteurs d’IA ? Avez-vous déjà été confronté à un faux positif ?
Comment les organisations devraient-elles équilibrer l’utilisation des détecteurs d’IA avec le risque d’erreurs et de licenciements injustifiés ?
Quel rôle les rédacteurs et les créateurs de contenu devraient-ils jouer dans le développement et l’évaluation des détecteurs d’IA ?
Quelles sont les conséquences éthiques de l’utilisation des détecteurs d’IA dans les milieux académiques et professionnels ?
Comment pouvons-nous améliorer la transparence et la responsabilité des entreprises qui développent et déploient des détecteurs d’IA ?
Quelles garanties juridiques devraient être mises en place pour protéger les droits des travailleurs face aux technologies de détection d’IA ?
En quoi la culture et la langue influencent-elles l’efficacité des détecteurs d’IA et comment pouvons-nous les rendre plus inclusifs ?

Une erreur dans cette actualité ? Signalez-nous-la !