Deux doyens de l'université Vanderbilt de Nashville, dans le Tennessee, aux États-Unis, auraient été suspendus après avoir utilisé ChatGPT pour rédiger un courriel de 297 mots envoyé à des étudiants au sujet de la fusillade meurtrière qui a eu lieu la semaine dernière sur le campus de l'université d'État du Michigan. Au bas du message, on pouvait lire qu'il a été écrit par une IA : « Paraphrase from OpenAI's ChatGPT AI language model, personal communication, February 15, 2023 ». Une enquête a été ouverte par les autorités de l'université et les deux doyens ayant signé le courriel, Nicole Joseph et Hasina Mohyuddin, ont temporairement démissionné.
De plus en plus d'étudiants et de professeurs font appel à ChatGPT pour les aider à rédiger un devoir ou à trouver une ressource sur Internet, mais les responsables chargés de l'enseignement peinent à trouver un cadre légal pour contrôler son utilisation et éviter les abus. Cela dit, que se passe-t-il lorsque les responsables eux-mêmes en font usage pour rédiger des choses importantes comme un message de soutien moral ? Le 16 février, le bureau de l'équité, de la diversité et de l'intégration (EDI) du "Peabody College of Education and Human Development" de l'université Vanderbilt a envoyé un courriel au corps enseignant, aux étudiants et au personnel.
Le courriel faisait suite à la fusillade meurtrière qui a eu lieu sur le campus de l'université d'État du Michigan et demandait aux correspondants de "prendre soin les uns des autres". Mais le message contient une mention à la fin indiquant qu'il s'agit d'une "version paraphrasée d'une communication rédigée à l'aide de ChatGPT". Cela a déclenché un tollé, de nombreuses personnes ayant pointé du doigt "le manque de sérieux et de compassion des auteurs du courriel". Laith Kayat, étudiant en dernière année à Vanderbilt, dont la sœur fréquente l'université d'État du Michigan, a déclaré que l'utilisation de ChatGPT pour écrire une note sensible était "dégoûtante".
« Il y a une ironie malsaine et tordue à demander à un ordinateur d'écrire votre message sur la communauté et la solidarité parce que vous ne pouvez pas prendre la peine d'y réfléchir vous-même. Les administrateurs ne se soucient que de la perception et de leur politique institutionnelle visant à sauver la face. Les doyens, les proviseurs et le chancelier, faites-en plus. Faites tout ce que vous pouvez. Et conduisez-nous vers un avenir meilleur avec une empathie authentique et humaine, pas avec un robot », a-t-il déclaré au Vanderbilt Hustler, le journal étudiant. Samuel Lu, un étudiant de deuxième année, s'est également déçu par le courriel.
« Il est difficile de prendre un message au sérieux lorsque je sais que l'expéditeur n'a même pas pris le temps d'exprimer ses véritables pensées et sentiments. Dans des périodes de tragédies comme celle-ci, nous avons besoin de plus, et non de moins d'humanité », a-t-il déclaré au journal. Nicole Joseph, doyenne associée de l'EDI, a envoyé un courriel de suivi le lendemain pour s'excuser de l'erreur de jugement commise par son bureau en faisant appel à ChatGPT pour rédiger un courriel "destiné à réfléchir à une tragédie". Joseph et Hasina Mohyuddin, doyenne adjointe, ont temporairement démissionné pendant que le bureau de l'EDI examine la situation.
Après l'incident, Camilla Benbow, doyenne de l'éducation de Peabody, a déclaré : « l'élaboration et la distribution de l'email initial n'ont pas suivi les processus normaux de Peabody prévoyant plusieurs niveaux de révision avant l'envoi. Les administrateurs de l'université, dont moi-même, n'étaient pas au courant de l'email avant qu'il ne soit envoyé ». Benbow a insisté sur le fait qu'elle restait qu'elle était "profondément troublée par le fait qu'une communication de son administration ait manqué le besoin crucial de connexion personnelle et d'empathie en période de tragédie". Son bureau a lancé une enquête sur ce qui a conduit à l'envoi du courriel.
« En tant que doyenne du collège, je reste personnellement attristée par les pertes de vie et les blessures à Michigan State, qui, je le sais, ont touché des membres de notre propre communauté. Je suis également profondément troublée qu'une communication de mon administration ait ainsi manqué le besoin crucial de connexion personnelle et d'empathie pendant un moment de tragédie. J'entends que nous redoublions d'efforts pour exprimer les valeurs qui animent notre mission et conduisent à l'épanouissement humain. Et je présente mes excuses les plus sincères à tous ceux qui méritaient mieux de notre part et ne l'ont pas reçu », a-t-elle déclaré.
Deux mois seulement après son lancement, le chatbot d'OpenAI a reçu 590 millions de visites en janvier de la part de 100 millions de visiteurs uniques, et il a du mal à faire face à un trafic colossal. Ce qui a fait de lui l'application grand public à la croissance la plus rapide de l'histoire d'Internet. Cependant, son utilisation a soulevé de nombreuses préoccupations dans certains domaines. Par exemple, son utilisation par des étudiants et des professionnels pour rédiger leurs dissertations ou des articles "scientifiques" et passer des examens fait l'objet de controverses. Récemment, des étudiants lyonnais en Master l'ont utilisé pour rédiger leurs devoirs.
Des dizaines d'écoles dans le monde l'ont interdit, mais aussi des éditeurs. Le mois dernier, le Directeur de la formation et de la recherche de Sciences Po a interdit aux étudiants d'utiliser le chatbot ChatGPT, sous peine de sanctions pouvant aller jusqu’à l’exclusion de l’établissement, voire de l’enseignement supérieur. L'école autorise toutefois son utilisation dans le cadre d'un usage pédagogique encadré par un enseignant. Springer Nature, qui publie des milliers de revues scientifiques, a annoncé en janvier que ChatGPT - ou tout système similaire - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues.
L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Avant cela, l'Office britannique de la propriété intellectuelle a annoncé en juin dernier que les IA ne peuvent pas être mentionnées comme inventeurs sur les brevets. En fait, les IA de génération de texte peuvent amplifier les préjugés sociaux, notamment le sexisme et le racisme, et ont tendance à produire des "conneries plausibles", c'est-à-dire des informations incorrectes présentées comme des faits. Et aussi impression que ChatGPT paraît, OpenAI n'a pas su régler définitivement le problème.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
ChatGPT a fourni des instructions sur la façon de fabriquer du crack et de l'introduire clandestinement en Europe, selon un rapport
La société chinoise Baidu dévoile un chatbot d'IA générative basé sur un modèle de langage plus grand que GPT-3, mais l'on ignore encore de quoi le chatbot d'IA de Baidu est réellement capable
La course à l'outil de recherche s'appuyant sur l'IA entre Google et Microsoft aura un impact sur l'environnement, en raison d'une augmentation des émissions mondiales de gaz à effet de serre
Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse,
Le message a suscité un tollé au sein de l'établissement
Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse,
Le message a suscité un tollé au sein de l'établissement
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !