IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI met discrètement hors service son outil de détection des contenus générés par l'IA en raison d'un faible taux de précision,
L'échec d'OpenAI suscite des inquiétudes dans le milieu scolaire

Le , par Mathis Lucas

11PARTAGES

4  0 
OpenAI, créateur du chatbot populaire ChatGPT, a discrètement supprimé son outil de détection des contenus générés par l'IA moins de six mois après l'avoir lancé. L'outil, baptisé "AI Classifier", était censé sauver le monde - ou du moins, préserver la santé mentale des enseignants et autres professionnels - en détectant les contenus générés par l'IA. Ce retrait signifie que l'outil a échoué et l'entreprise a annoncé l'avoir débranché en raison d'un faible taux de précision. Cette nouvelle pourrait raviver les inquiétudes quant à la capacité des entreprises à l'origine d'une nouvelle génération d'outils d'IA très performants à mettre en place des mesures de protection.

OpenAI a publié l'outil AI Classifier en février dernier pour identifier les textes écrits par l'IA. Il s'agit d'un modèle GPT (Generative Pre-trained Transformer) affiné qui prédit la probabilité qu'un contenu textuel ait été généré par l'IA. Le modèle peut être utilisé pour détecter les contenus générés par les chatbots tels que ChatGPT et le plagiat par l'IA. Mais depuis son lancement, l'outil n'a jamais fait état d'une grande fiabilité, car selon les propres déclarations d'OpenAI, il est très difficile de savoir si un texte est généré par un humain ou par une machine. Lors du lancement, OpenAI a annoncé que l'outil pouvait atteindre un taux de précision de 26 %.

« Notre classificateur n'est pas totalement fiable. Lors de nos évaluations sur un ensemble de défis de textes en anglais, notre classificateur identifie correctement 26 % des textes écrits par l'IA (vrais positifs) comme étant probablement écrits par l'IA, tout en étiquetant incorrectement des textes écrits par des humains comme étant écrits par l'IA dans 9 % des cas (faux positifs). La fiabilité de notre classificateur s'améliore généralement à mesure que la longueur du texte d'entrée augmente », a déclaré OpenAI lors du lancement de son outil en février. Cinq mois après, l'entreprise n'a pas réussi à faire mieux et a finalement décidé de débrancher l'outil.


Cela a été fait discrètement la semaine dernière et l'entreprise a confirmé que la raison était le faible taux de précision. La notification ne figure pas dans une nouvelle annonce, mais dans une note ajoutée à l'article de blogue qui annonçait l'outil pour la première fois. Le lien vers le classificateur d'OpenAI n'est plus disponible. « Nous nous efforçons d'intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l'IA », explique OpenAI.

OpenAI a déclaré que les limites du classificateur d'IA comprennent le manque de fiabilité sur les textes de moins de 1 000 caractères, l'étiquetage incorrect de textes écrits par l'homme comme étant généré par l'IA, et les classificateurs basés sur des réseaux neuronaux qui donnent de mauvais résultats en dehors de leurs données d'entraînement. Selon les analystes, l'échec d'OpenAI à détecter avec une précision suffisante les textes générés par son propre chatbot d'IA laisse entrevoir l'ampleur du désastre que sera le Web dans un avenir très proche. Mais les problèmes vont bien au-delà du Web, s'étendant notamment à l'éducation et à la finance.

L'éducation est un secteur qui s'intéresse de près à la détection précise du contenu généré par l'IA. Depuis le lancement de ChatGPT en novembre, les éducateurs ont tiré la sonnette d'alarme lorsque des étudiants ont commencé à utiliser le chatbot pour rédiger leurs dissertations. « Nous reconnaissons que l'identification du texte écrit par l'IA a été un point de discussion important parmi les éducateurs, et il est tout aussi important de reconnaître les limites et les impacts des classificateurs de texte générés par l'IA dans la salle de classe », a déclaré OpenAI, ajoutant que l'entreprise continuera à élargir la portée au fur et à mesure qu'elle apprend.

De nouvelles plateformes permettant l'utilisation d'une IA de plus en plus sophistiquée sont mises en ligne presque quotidiennement et ont donné naissance à une industrie artisanale de détecteurs d'IA. Cette nouvelle pourrait raviver les inquiétudes quant à la capacité des entreprises à l'origine d'une nouvelle génération d'outils d'IA générative à mettre en place des mesures de protection. Elle survient en outre au moment où les éducateurs se préparent à la première année scolaire complète avec des outils tels que ChatGPT accessibles au public. Pour l'instant, les écoles et les enseignants semblent livrés à eux-mêmes et manquent de solution.

Ainsi, certaines écoles ont décidé de bannir ChatGPT et les outils d'IA similaires. En France, par exemple, le Directeur de la formation et de la recherche de Sciences Po a interdit aux étudiants d'utiliser ChatGPT ou des outils similaires dans le cadre de leurs études. Le recours aux chatbots d'IA est autorisé uniquement dans le cadre d'un usage pédagogique encadré par un enseignant. Aux États-Unis, les écoles publiques de New York et de Seattle ont interdit aux élèves et aux enseignants d'utiliser ChatGPT sur les réseaux et les appareils du district. Des enseignants ont réagi avec une rapidité remarquable en repensant leurs devoirs en réponse à ChatGPT.

Néanmoins, l'on ignore à quel point l'utilisation de ChatGPT est répandue parmi les élèves et à quel point il peut réellement nuire à l'apprentissage. Un autre domaine très impacté par ChatGPT est la recherche scientifique. Seulement quelques semaines après le lancement de ChatGPT, plusieurs rapports ont signalé que les résumés d'articles générés par le chatbot parvenaient à duper des scientifiques. Ces derniers n'étaient pas en mesure de faire la différence entre les résumés générés par l'IA et les résumés originaux. « Je suis très inquiète », déclare Sandra Wachter, qui étudie la technologie et la réglementation à l'Université d'Oxford, au Royaume-Uni.

En raison de cela, Springer Nature, le plus grand éditeur universitaire du monde, a annoncé début janvier que ChatGPT - ou tout outil similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce de Springer Nature a ravivé le débat public sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA. Beaucoup s'opposent à cette idée, affirmant que l'IA générative ne fait que plagier les œuvres humaines.

Bien qu'OpenAI puisse mettre son outil au placard pour l'instant, il existe quelques alternatives sur le marché. D'autres entreprises, telles que Turnitin, ont également mis en place des outils d'IA qui sont censés aider les enseignants à détecter les travaux générés par l'IA. Edward Tuan, étudiant à Princeton, a quant à lui présenté un outil de détection similaire, baptisé ZeroGPT. D'autres sont en développement, mais l'échec d'OpenAI démontre la difficulté de la tâche.

Source : OpenAI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'abandon de l'outil AI Classifier par OpenAI ?
Que représente cette nouvelle pour l'éducation et les autres secteurs concernés ?

Voir aussi

L'éditeur du chatbot ChatGPT lance un outil « imparfait » pour détecter les textes générés par cette IA et ainsi apporter réponse aux préoccupations des écoles en matière de plagiat

Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

Le Directeur de la formation et de la recherche de Sciences Po interdit aux étudiants d'utiliser le chatbot ChatGPT à l'exception d'un usage pédagogique encadré par un enseignant

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message
Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 18/01/2024 à 10:28
Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
5  1 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 08/08/2023 à 20:36
[cinisme]

Le petit personnel se rebelle maintenant ? Dans quel monde on est. Déjà qu'il sont payés...

[/cinisme]

Encore heureux qu'ils réagissent. Malheureusement, je pense qu'ils ont peu de chance d'obtenir quelque chose, c'est ce qui a probablement motivé le choix du Kenya.
3  0