
Dans un contexte où l’IA court-circuite le processus d’apprentissage, il devient urgent de réfléchir aux conséquences de cette tendance. Les étudiants qui recourent à ces outils risquent de se priver d’une véritable formation intellectuelle et éthique, essentielle dans des domaines comme la philosophie ou l’éthique médicale. Parallèlement, les enseignants sont confrontés à un dilemme : comment préserver l’intégrité des évaluations tout en continuant à inspirer et à éduquer leurs étudiants ?
Selon Troy Jollimore, auteur de quatre recueils de poésie et de trois ouvrages de philosophie, une nouvelle forme de « sac magique » a fait son apparition dans le monde réel. Enseignant la philosophie, notamment l’éthique, dans une université californienne, il dispense des cours en présentiel et en ligne, évaluant principalement ses étudiants à travers des dissertations. Cependant, avec l’avènement d’outils d’intelligence artificielle comme ChatGPT et Google Gemini, produire une dissertation est devenu aussi simple que de claquer des doigts. Ces technologies permettent désormais de générer des textes en quelques secondes, bouleversant ainsi les méthodes traditionnelles d’évaluation.
Il suffit de demander à l’un de ces chatbots une dissertation sur La République de Platon ou sur l’éthique de la vente d’organes, ou encore de saisir un sujet d’examen, pour obtenir un texte qui, pour beaucoup, ressemble à s’y méprendre à un travail humain. Si l’enseignant ne sait pas quoi chercher ou si l’IA utilisée est suffisamment performante, il est possible de donner l’illusion de maîtriser un sujet sans en avoir réellement acquis les connaissances. Cette facilité d’accès à des contenus générés par l’IA pose un défi majeur à l’intégrité académique et à la valeur même de l’apprentissage.
Cependant, les textes générés par l’IA, surtout les moins sophistiqués, ne sont pas impossibles à identifier – à condition de savoir où regarder. Ils partagent souvent des caractéristiques communes : un ton neutre, un style fade et une approche méthodique systématique. Ces textes développent généralement un cadre théorique avant de peser le pour et le contre pour aboutir à une conclusion équilibrée. Parfois, ils incluent des citations ou des références, mais celles-ci sont souvent erronées ou inventées. Bien que ces éléments soient relativement faciles à repérer, l’auteur reconnaît que certains travaux plus sophistiqués pourraient échapper à la vigilance des enseignants, soulignant ainsi la complexité croissante du problème.
Éducation à l’ère de l’IA : quand l’intelligence artificielle remplace la réflexion
L’intelligence artificielle est en train de transformer profondément le paysage éducatif, tant pour les étudiants que pour les enseignants. Selon une enquête du Higher Education Policy Institute (Hepi), plus de la moitié des étudiants de premier cycle au Royaume-Uni utilisent des outils d’IA comme ChatGPT ou Google Bard pour les aider à rédiger leurs dissertations. Parmi eux, 25 % s’en servent pour suggérer des sujets, tandis que 12 % génèrent directement du contenu. Cependant, seulement 5 % admettent avoir copié-collé des textes non modifiés produits par l’IA dans leurs travaux évalués. Parallèlement, les enseignants explorent également ces technologies pour alléger leur charge de travail, notamment en planifiant des cours ou en créant des supports pédagogiques.
Pourtant, cette adoption rapide de l’IA soulève des défis majeurs. Un tiers des étudiants utilisant ces outils ignorent qu’ils peuvent « halluciner », c’est-à-dire inventer des faits, des citations ou des données pour combler des lacunes. De plus, des initiatives comme celle de l’Education Endowment Foundation (EEF), qui teste l’IA pour générer des plans de cours et des examens, montrent que les enseignants cherchent à intégrer ces technologies tout en restant vigilants face à leurs limites.
Un exemple frappant de ces tensions est le projet Eightball, développé par trois étudiants de l’Université Emory. Cet outil, basé sur l’IA, permettait de générer des cartes mémoire (flashcards) à partir de documents téléchargés. Bien qu’initialement salué et financé par l’université, le projet a finalement conduit à la suspension des étudiants, illustrant les difficultés des institutions à encadrer l’innovation technologique tout en respectant leurs règles académiques.
Cependant, l’utilisation de l’IA dans l’éducation n’est pas sans conséquences. Une étude récente révèle que les étudiants qui recourent à ces outils sont souvent moins productifs et risquent de compromettre leur réussite future. Les élèves les moins performants ont tendance à utiliser l’IA pour compenser leurs lacunes, ce qui peut renforcer leur dépendance et réduire leur capacité à apprendre de manière autonome. Par ailleurs, les outils de détection de textes générés par l’IA, comme celui de Turnitin, bien qu’utiles, ne sont pas infaillibles et peuvent accuser à tort des étudiants de tricherie, créant ainsi des situations injustes et stressantes.
Une révolution qui interroge l’avenir de l’éducation
Malgré ces défis, l’IA offre également des opportunités. Par exemple, Diane Gayeski, professeure à l’Ithaca College, utilise ChatGPT pour fournir des retours constructifs sur les dissertations de ses étudiants, tout en les encourageant à réfléchir de manière critique aux suggestions de l’IA. Cette approche montre comment la technologie peut compléter l’enseignement traditionnel, à condition d’être utilisée de manière éthique et réfléchie.
Enfin, une enquête menée par Intelligent révèle que 85 % des étudiants et 96 % des parents considèrent ChatGPT comme plus efficace que le tutorat traditionnel. Cette perception a conduit à une adoption massive, avec 90 % des étudiants préférant étudier avec l’IA plutôt qu’avec un tuteur humain. Cependant, cette dépendance croissante soulève des questions sur l’équilibre entre innovation et préservation des compétences fondamentales, ainsi que sur la valeur réelle de l’éducation dans un monde où l’IA joue un rôle de plus en plus central.
En somme, l’IA générative représente à la fois une révolution prometteuse et un défi complexe pour l’éducation. Alors que les étudiants et les enseignants explorent ses potentialités, il est crucial de réfléchir à son impact à long terme sur l’apprentissage, l’intégrité académique et la préparation des étudiants aux défis du monde réel.
Troy Jollimore observe que, « à en juger par le nombre de travaux manifestement générés par l’IA que j’ai lus le semestre dernier, de nombreux étudiants semblent enthousiasmés par cette innovation. Cet enthousiasme ne semble pas diminué par des déclarations claires dans les programmes interdisant l’utilisation de l’IA, ni par des rappels réguliers de cette politique, accompagnés d’appels sincères à ce que les étudiants soient les véritables auteurs des travaux qu’ils soumettent. »
Il ajoute : « Les professeurs d’université en Amérique du Nord sont habitués à faire face à l’adversité. Notre société a toujours montré de fortes tendances anti-intellectuelles. (Dans le passé, cela était peut-être plus marqué aux États-Unis qu’au Canada, mais je ne sais pas si c’est encore le cas aujourd’hui.) Une idée répandue est que l’intelligence pratique, ou "l’intelligence de la rue", est plus précieuse que l’intellect théorique. Ceux qui valorisent la théorie, l’étude et l’érudité sont souvent perçus comme enfermés dans des tours d’ivoire, dotés d’une expertise largement, voire totalement, illusoire. »
Comment exploiter l’IA sans compromettre l’apprentissage
L’émergence de l’intelligence artificielle dans l’éducation, avec des outils comme ChatGPT, représente une révolution technologique aux implications profondes. Ces outils, comparables à un « sac magique » moderne, permettent aux étudiants de générer des dissertations en quelques secondes, sans effort intellectuel significatif. Si cette innovation répond à un désir d’efficacité immédiate, elle soulève des questions cruciales sur l’intégrité académique, la valeur de l’éducation et la préparation des étudiants aux défis du monde réel.
Tout d’abord, l’utilisation de l’IA par les étudiants risque de compromettre le processus d’apprentissage. En court-circuitant la réflexion critique et la construction personnelle du savoir, ces outils peuvent priver les étudiants d’une véritable formation intellectuelle et éthique. Par exemple, dans des domaines comme la philosophie ou l’éthique médicale, où la pensée critique et la capacité à résoudre des dilemmes complexes sont essentielles, l’IA ne peut remplacer l’effort nécessaire pour assimiler et appliquer des concepts. Les étudiants qui dépendent de ces outils risquent de se retrouver mal préparés pour des situations réelles où la créativité, l’analyse et la prise de décision sont indispensables.
Par ailleurs, l’intégrité académique est mise à rude épreuve. Les enseignants sont confrontés à un dilemme : comment évaluer de manière équitable des travaux qui pourraient être générés par l’IA ? Bien que certains textes produits par l’IA soient identifiables grâce à leur ton neutre, leur style fade ou leurs références erronées, d’autres, plus sophistiqués, pourraient échapper à la vigilance des professeurs. Cela crée une situation où les étudiants honnêtes, qui fournissent un effort réel, se retrouvent en concurrence déloyale avec ceux qui utilisent l’IA pour produire des travaux sans véritable engagement intellectuel.
Cependant, il serait réducteur de considérer l’IA uniquement comme une menace. Ces outils peuvent également offrir des opportunités pour enrichir l’enseignement. Par exemple, ils pourraient être utilisés pour fournir des retours constructifs sur les travaux des étudiants, suggérer des pistes de réflexion ou même aider les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.