En lançant ChatGPT au début du mois, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.
Tout d'abord, il a introduit le texte suspect dans un logiciel conçu par les producteurs de ChatGPT pour déterminer si la réponse écrite avait été formulée par l'IA. Il a obtenu une correspondance probable à 99,9 %. Mais contrairement à un logiciel standard de détection du plagiat - ou à un devoir universitaire bien rédigé - le logiciel ne proposait aucune citation. Hick a ensuite essayé de produire le même essai en posant à ChatGPT une série de questions qu'il imaginait avoir été posées par son étudiant. Le professeur affirme avoir obtenu des réponses similaires, mais aucune correspondance directe, car l'outil formule des réponses uniques.
Finalement, Hick a confronté l'étudiant, qui a avoué avoir utilisé ChatGPT et a échoué au cours en conséquence. L'étudiant a également été remis au doyen de l'école. Mais Hick craint que d'autres cas soient presque impossibles à prouver et que lui et ses collègues soient bientôt inondés de travaux frauduleux. Des universités comme Furman chercheraient à établir des protocoles académiques formels pour cette technologie en développement. Pour l'instant, Hick dit que le mieux qu'il peut faire est de surprendre les étudiants suspects avec des examens oraux impromptus, en espérant les prendre au dépourvu sans leur armure technologique.
« Si quelqu'un tape une invite dans ChatGPT et la soumet directement pour un devoir, ce ne sera probablement pas trop difficile à attraper. Du moins pour l'instant. La partie la plus délicate sera d'attraper les étudiants suffisamment avisés pour obtenir la rédaction de l'IA, puis la réécrire dans leur propre style et corriger les erreurs. Cela conduira probablement à devoir écrire des dissertations en personne en classe, ou à avoir des exigences clés qu'ils savent que l'IA ne peut pas faire », analyse un critique. Selon lui, les années à venir risquent d'être critiques pour le monde de l'enseignement si les autorités ne font pas face à cette menace de l'IA.
ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses "aptitudes". Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis. Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.
Par ailleurs, ce n'est pas la première fois qu'un modèle d'IA d'OpenAI est utilisé pour tenter de tromper la vigilance des gens, parfois même des personnes les plus avisées. En août 2020, un faux billet de blogue généré par GPT-3, une autre IA de traitement du langage naturel (NLP) d'OpenAI, a trompé des dizaines de milliers de personnes, car il était étonnamment bien écrit pour automate. Le billet de blogue, publié par Liam Porr, étudiant à l’université de Californie à Berkeley, s'est même hissé parmi les sujets les mieux classés sur le site communautaire Hacker News. Porr a déclaré qu'il voulait prouver que GPT-3 pouvait tromper les gens.
Le premier billet de Porr (celui qui a été publié sur Hacker News), et tous les billets suivants, ont été copiés-collés à partir de l'une des versions, avec peu ou pas de modifications. Selon lui, c’est facile de travailler avec GPT-3 et cela nécessite peu de temps. « C'était super facile en fait. « Depuis le moment où j'ai eu l'idée et où j'ai pris contact avec le doctorant jusqu'à la création du blog et le premier blog devenu viral, il m'a fallu quelques heures », », a-t-il déclaré. Notons qu’en février 2019, OpenAI a fait la une des journaux avec GPT-2, une version antérieure de l'algorithme, qu'il a annoncé qu'il retiendrait par crainte d'abus.
Le laboratoire a toutefois fini par publier le modèle en novembre 2019. Cela dit, compte tenu des potentialités de GPT-3, OpenAI a décidé de procéder autrement. Il a décidé de donner accès à l'API de GPT-3 aux chercheurs dans une version bêta privée, plutôt que de le rendre disponible à tout le monde. Porr, qui est étudiant en informatique à l'université de Californie à Berkeley, a pu trouver un doctorant qui avait déjà accès à l'API et qui a accepté de travailler avec lui sur l'expérience. Poor pense que « l'écriture » de GPT-3 pourrait remplacer les producteurs de contenu, mais il espère que cela n’arrivera pas.
Les récentes prouesses dans le domaine de l'intelligence artificielle - qu'il s'agisse des modèles d'IA d'OpenAI (GPT-3, Dall-E 2, ChatGPT, Point-E, etc.) ou des modèles d'IA concurrents, tels que Stable Diffusion et Midjourney AI - ont accentué les débats sur la suppression de certains emplois au profit de l'IA, ainsi que sur les risques et les préoccupations inhérents à cette technologie. Récemment, Matt Welsh, PDG de la startup d'IA Fixie.ai, a déclaré qu'"écrire des programmes à la main devrait être dépassé dans les années à venir". Selon lui, les programmeurs humains finiront par céder la place à des intelligences artificielles adaptatives.
Avant cela, plusieurs artistes se sont révoltés contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation, appartenant au développeur de jeux vidéo Epic Games. Ils ont manifesté leur mécontentement en inondant la plateforme d'images portant le message : "non aux images générées par l'IA". En quelques jours, les images ont été téléchargées des milliers de fois et dominaient la page des tendances du site. Les utilisateurs d'ArtStation ne veulent pas qu'une plateforme qu'ils utilisent pour partager les œuvres de l'esprit soutienne des images que l'IA a générées par "le vol du travail artistique et de la créativité".
La question est donc de savoir comment tirer profit des avancées de l'IA sans supprimer des emplois ou reléguer à un rang inférieur les œuvres de l'esprit ou la créativité humaine. En attendant des approches de solution, l'IA continue de se développer à une vitesse impressionnante et les uns et les autres sont souvent surpris par les nouvelles. En outre, l'utilisation de plus en plus croissante des robots fait l'objet de débat. Beaucoup suggèrent désormais de taxer les robots pour inciter les entreprises à conserver les travailleurs, tout en compensant une partie des charges sociales perdues par une réduction des effectifs.
Source : Darren Hudson Hick
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'utilisation de ChatGPT par les étudiants en milieu scolaire ?
Selon vous, quels impacts ce type de logiciel pourrait avoir sur le niveau des étudiants ?
Pensez-vous aussi que ces outils pourraient aggraver la tricherie dans le milieu universitaire ?
Selon vous, comment peut-on décourager les étudiants d'avoir recours à ces logiciels lors des devoirs ?
Voir aussi
« Ecrire des programmes à la main sera dépassé à l'avenir », selon le CEO de la startup IA Fixie.ai, qui voit les programmeurs humains céder la place à des intelligences artificielles adaptatives
OpenAI lance Point-E, une IA qui génère des modèles 3D à partir d'invites textuelles, mais elle soulève des préoccupations en ce qui concerne ses données d'apprentissage
Les artistes se révoltent contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation et inondent la plateforme d'images portant le message : "non aux images générées par l'IA"
Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI, a trompé des dizaines de milliers de personnes
Faut-il taxer les robots ? Une taxe "modeste" sur les robots pourrait aider à combattre les effets de l'automatisation sur l'inégalité des revenus aux États-Unis, selon une étude du MIT