IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les universités s'apprêtent à lobotomiser leurs étudiants avec l'introduction de l'IA dans leurs cursus de formation
Un usage fréquent de l'IA dans les cours de programmation nuit à leur pensée critique

Le , par Patrick Ruiz

58PARTAGES

13  0 
Les universités s’apprêtent à lobotomiser leurs étudiants avec l’introduction de l’IA dans leurs cursus de formation
Un usage fréquent de l’IA dans les cours de programmation nuit à leur pensée critique

L'université d'État de l'Ohio a annoncé qu'elle intégrerait l'enseignement de l'intelligence artificielle dans tous ses programmes de premier cycle. L'université de Floride ainsi que l'université du Michigan mettent en place des initiatives similaires. Seulement, certaines études appellent à la prudence car les compétences dont les futurs diplômés auront le plus besoin à l'ère de l'automatisation (pensée créative, analyse critique, capacité à apprendre de nouvelles choses) sont précisément celles qui pourraient être érodées par l'intégration de l'intelligence artificielle dans le processus éducatif.

Une étude de l'université de Tartu révèle que l'utilisation fréquente de l'IA, comme ChatGPT, dans les cours de programmation est corrélée à une baisse des notes des étudiants, car elle nuit à l'apprentissage approfondi et à la pensée critique.

Dans le monde en rapide évolution des technologies éducatives, les observateurs tirent la sonnette d'alarme sur les conséquences imprévues des outils d'intelligence artificielle sur l'apprentissage des étudiants. Selon le développeur Namanyay, l'IA est en train de créer une génération de programmeurs illettrés et des nouveaux développeurs juniors qui ne savent pas coder. Dans ces analyses, il affirme que la génération actuelle de développeurs peut poser les bonnes questions à l'IA, mais ne comprend pas le fonctionnement du code produit par l'IA et ne possède pas les connaissances fondamentales de la programmation. Chaque fois que l'IA tombe en panne, ils se retrouvent de plus en plus impuissants.

Une nouvelle étude semble confirmer ces propos. Des chercheurs de l'université de Tartu en Estonie ont découvert que le recours fréquent à l'intelligence artificielle dans les cours de programmation est corrélé à de moins bons résultats scolaires. Marina Lepp, professeure agrégée d'informatique, et son coauteur Joosep Kaimre ont analysé les données de plus de 100 étudiants dans un cours d'introduction à la programmation, révélant que ceux qui se tournaient vers l'IA pour le débogage et la compréhension du code obtenaient souvent des notes plus faibles aux examens.

L'étude suggère que si l'intelligence artificielle peut fournir des solutions et des explications rapides, elle peut court-circuiter les processus cognitifs approfondis essentiels à la maîtrise de sujets complexes. Les étudiants ont déclaré utiliser ces outils principalement pour résoudre des erreurs ou comprendre des concepts complexes, mais les données ont montré une corrélation négative entre la fréquence d'utilisation et les notes finales, ce qui suggère une dépendance excessive qui nuit au développement des compétences.


L’essor de l’intelligence artificielle est néanmoins de nature à justifier le choix des entreprises d’intégrer l’intelligence artificielle aux cursus de formation des étudiants

L'avènement d'intelligences artificielles génératives telles que ChatGPT a déclenché une onde de choc dans le monde de l'enseignement secondaire et supérieur. Entre craintes de tricherie massive et promesses d'une révolution pédagogique, la question de la finalité même de l'université se pose avec une acuité nouvelle. Les écoles et les universités vont néanmoins devoir rester cohérentes avec leur mission qui est former des apprenants prêts à affronter un univers professionnel qui leur impose de savoir faire usage de l’intelligence artificielle.

Les entreprises technologiques soumettent les candidats aux postes d'ingénieur à une batterie d'entretiens. La partie la plus détestée du processus est l'entretien technique. Lors d'un entretien technique, les programmeurs doivent résoudre des problèmes de codage ésotériques. Souvent les candidats doivent le faire en direct devant une caméra, sous le regard d'un employé de l'entreprise. C'est un processus perçu comme exigeant, voire intimidant.

Avec l'essor de l'IA générative, les candidats aux postes d'ingénieurs logiciels ont commencé à faire discrètement appel aux assistants d'IA pour affronter les entretiens techniques des entreprises. Les candidats qui se faisaient prendre risquaient d'être éliminés. Mais Canva vient d'annoncer une nouvelle ère dans le recrutement : l'utilisation d’outils d'intelligence artificielle n'est plus seulement autorisée, elle est exigée.

« La nature de l'ingénierie logicielle évolue rapidement. Chez Canva, nous pensons que notre processus d'embauche doit évoluer en même temps que les outils et les pratiques que nos ingénieurs utilisent tous les jours. C'est pourquoi nous sommes ravis de vous annoncer que nous attendons désormais des candidats aux postes d'ingénieurs backend, frontend et en apprentissage automatique qu'ils utilisent des outils d'IA tels que Copilot, Cursor et Claude lors de nos entretiens techniques », indique Simon Newton.

Selon la plateforme, cela reflète la réalité du travail quotidien au sein de l'entreprise, où les ingénieurs s'appuient déjà largement sur des assistants comme GitHub Copilot ou Claude pour coder, explorer des bases existantes et résoudre des problèmes complexes. Dans un billet de blogue, Simon Newton affirme qu'interdire ou ignorer l'IA dans un processus de recrutement reviendrait à évaluer des compétences qui sont déconnectées du contexte réel du poste.

Simon Newton explique : « plutôt que de lutter contre cette réalité et d'essayer de contrôler l'utilisation de l'IA, nous avons pris la décision d'adopter la transparence et de travailler avec cette nouvelle tendance. Cette approche nous donne un signal plus clair sur la façon dont ils seront réellement performants lorsqu'ils rejoindront notre équipe ». Toutefois, des rapports indiquent que les ingénieurs logiciels actuels de Canva n'ont pas apprécié ce changement.

Source : OSU

Et vous ?

Quelles compétences spécifiques les universités devraient-elles prioriser pour préparer les étudiants à un avenir où l'IA est omniprésente, et comment ces compétences peuvent-elles être évaluées de manière fiable ?

Quels types de formation et d'accompagnement sont nécessaires pour que les enseignants puissent non seulement détecter l'usage abusif de l'IA, mais surtout l'intégrer de manière constructive et innovante dans leurs pratiques pédagogiques ?

Au-delà du retour aux examens sur table, quelles nouvelles formes d'évaluation (portfolios, projets collaboratifs, soutenances orales axées sur le processus de réflexion, etc.) pourraient être plus résilientes face à l'IA et mieux mesurer la compréhension réelle ?

Voir aussi :

L'université de Columbia suspend l'étudiant qui a conçu l'outil d'IA pour réussir l'entretien technique rigoureux d'Amazon, le tableau ramène la question de la qualité des entretiens techniques sur la table

Un étudiant a utilisé l'IA pour réussir l'entretien technique rigoureux d'Amazon et affirme que le travail de la plupart des programmeurs sera obsolète dans deux ans, il envisage de quitter l'université

Des avatars d'IA font désormais passer des entretiens d'embauche aux candidats afin de permettre aux recruteurs de gagner du temps et réduire les coûts, mais cette pratique soulève plusieurs préoccupations
Vous avez lu gratuitement 6 578 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de floyer
Membre éclairé https://www.developpez.com
Le 02/12/2025 à 14:44
Et lorsque l’IA aura plus de contenu généré par IA pour se former que de contenu de première main… on peut craindre le pire.
3  0 
Avatar de Brarbri
Candidat au Club https://www.developpez.com
Le 08/12/2025 à 10:44
L'intelligence artificielle est le croisement des mathématiques, de l'informatique et de larges bibliothèques. Lequel(s) des trois vous voulez interdire aux universités ?
Bien sûr, il faut former les jeunes à son utilisation, et faire de la prévention sur les risques. Ça permettra à une génération de faire des choix éclairés sur l'utilisation ou la régulation de l'outil.
3  0 
Avatar de ring0
Nouveau Candidat au Club https://www.developpez.com
Le 03/12/2025 à 0:36
Citation Envoyé par Artaeus Voir le message
Déjà vu, avec Socrate qui disait que les livres "abrutissaient" la jeunesse.
La dernière fois qu'il m'en a parlé, Socrate m'a rappelé qu'il était mort en 400 AEC, alors que les livres sont arrivés 200 ans plus tard (voir Wikipedia). De quels livres parles-tu?
3  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 02/12/2025 à 21:34
Citation Envoyé par Artaeus Voir le message
L'IA est un outil formidable pour ceux qui veulent se donner les moyens de comprendre, elle doit rester accessible à tous (et pas uniquement réservé à quelques spécialistes : Ce qui serait d'ailleurs encore plus dangereux !).
Commentaire amusant...

Si vous preniez la peine de suivre les informations liées à l'IA sur des sources indépendantes (et pas uniquement les discours des pro-IA), vous auriez constaté que justement "ceux qui se sont donné les moyens de comprendre l'IA" et même pire bon nombre de ceux qui ont été à l'origine de l'IA ont retiré leur confiance à l'IA telle qu'elle se développe actuellement et considèrent que l'IA est un danger pour l'humanité et non pas une chance!

Mais bon pour le savoir, il ne suffit pas de se donner les moyens d'écouter le chant des "financiers" qui se proposent de se goinfrer grâce à l'IA mais bien celui des scientifiques (ils font moins de promesses, leur discours est moins sexy mais ils pointent les vrais problèmes engendrés par l'IA et surtout ses vraies limitations)
2  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/12/2025 à 11:51
Citation Envoyé par shenron666 Voir le message
Le vrai problème de l'IA vient des sources de données.
Déjà il y a les données volées sans respect du droit d'auteur.
Mais aussi les données non vérifiées voire les données fakes volontairement injectées pour corrompre l'IA, et on se retrouve avec un outil qui peut devenir comme un torchon médiatique où les informations pernnent plus de temps à être vérifiées qu'exploitées.
Vous pouvez aussi ajouter à votre liste, les "correctifs" de l'IA apportés par leur créateur... Les exemples sont nombreux: A de multiples reprises des IA ont eu un comportement "déviant" en indiquant des informations délirantes du style "manger 5 fois par jour des cailloux, c'est bon pour la santé" ou en proposant le suicide comme solution à des utilisateurs... Autre cas avec Grok de Musk qui est une IA qui a tout simplement été réglée pour avoir un comportement orienté "extrême-droite".

Combien d'utilisateurs réguliers de l'IA savent aujourd'hui que leur IA est en réalité un système qui n'a rien d'intelligent et dont les réponses peuvent avoir été manipulées???
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 08/12/2025 à 13:46
Citation Envoyé par Patrick Ruiz Voir le message
Avez-vous déjà envisagé un retour sur les bancs aux fins de vous spécialiser en intelligence artificielle ? Le conseilleriez-vous à un proche ?
Je ne l'ai pas envisagé et je conseille de ne pas y aller parce que c'est trop tard.
Si tu commences aujourd'hui tu finiras peut-être ta formation après l'éclatement de la bulle

Citation Envoyé par Patrick Ruiz Voir le message
Que pensez-vous de la rémunération des spécialistes de l'IA aux États-Unis ? Disproportionnée ou adaptée aux réalités de la vie dans ce pays ?
Si le but des gros salaires c'est de pousser des gens à quitter leur entreprise, ça va.
Par exemple si Méta propose beaucoup d'argent à un gars pour quitter Google, ou si Méta propose beaucoup d'argent à un gars pour quitter OpenAI.
Là je comprend un peu le truc. Mais sinon c'est n'importe quoi, rien ne justifie des salaires aussi gros.

Ça rappelle la différence entre la valeur boursière de Tesla et sa valeur réelle. C'est complètement déconnecté de la réalité.
Il y a forcément des gens qui coûtent moins cher et qui bossent mieux...

Citation Envoyé par Patrick Ruiz Voir le message
Pourquoi observe-t-on une forte disparité entre les rémunérations des talents en IA aux États-Unis et en Europe ?
Je ne crois pas au concept de "talent", mais peu importe, les salaires aux USA sont généralement beaucoup plus élevé qu'en Europe.
On va dire que le salaire mensuel médian Français c'est dans les 2 147€ net, aux USA c'est plus proche des 4 100$ net. Mais c'est pas le même coût de la vie, la mutuel coûte une blinde, même l'école coûte cher.

====
Bref que ceux qui touchent un gros salaire mettent de côté parce qu'ils finiront par se faire virer.
L'IA embauchera moins de gens dans le futur. (parce que moins d’entreprises feront de l'IA, vu qu'elles auront quasiment toutes fais faillite)
2  1 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 03/12/2025 à 10:00
Le problème avec l'utilisation de l'IA, ce n'est pas l'IA elle-même mais ce que l'humain en fait, comment il s'en sert.
L'IA est un outil comme tout livre où les informations ne doivent pas prises au pied de la lettre.

Le vrai problème de l'IA vient des sources de données.
Déjà il y a les données volées sans respect du droit d'auteur.
Mais aussi les données non vérifiées voire les données fakes volontairement injectées pour corrompre l'IA, et on se retrouve avec un outil qui peut devenir comme un torchon médiatique où les informations pernnent plus de temps à être vérifiées qu'exploitées.
0  0 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 03/12/2025 à 10:08
Citation Envoyé par ring0 Voir le message
La dernière fois qu'il m'en a parlé, Socrate m'a rappelé qu'il était mort en 400 AEC, alors que les livres sont arrivés 200 ans plus tard (voir Wikipedia). De quels livres parles-tu?
commences par relire l'histoire de Socrate
quant aux livres, ils étaient présent à l'époque de Socrate, et quitte à "voir Wikipedia", apprends à mettre des liens
1  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 02/12/2025 à 14:11
Citation Envoyé par Artaeus Voir le message
Déjà vu, avec Socrate qui disait que les livres "abrutissaient" la jeunesse.
Puis ensuite on eu la même chose avec la radio, ensuite la TV, puis après Internet... Et maintenant, c'est l'IA.
Mis à part que tous vos exemples ont un point communs qui les différencient de l'IA: Ils n'incitent pas les gens à arrêter de se former (c'est même l'inverse, pour la plupart ce sont des supports à l'enseignement)!!!

Qui va encore investir des années d'étude pour apprendre une langue étrangère quand l'IA vous fait une traduction en un claquement de doigt? PERSONNE!

Et comme l'IA va continuer à faire des erreurs plus personne n'aura la capacité de détecter ces erreurs et de les corriger

En réalité, ce ne sont pas les étudiants des uni qui vont être lobotomisé, mais bien l'ensemble de la société...
2  3 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 02/12/2025 à 17:07
Citation Envoyé par Anselme45 Voir le message
Mis à part que tous vos exemples ont un point communs qui les différencient de l'IA: Ils n'incitent pas les gens à arrêter de se former (c'est même l'inverse, pour la plupart ce sont des supports à l'enseignement)!!!

Qui va encore investir des années d'étude pour apprendre une langue étrangère quand l'IA vous fait une traduction en un claquement de doigt? PERSONNE!

Et comme l'IA va continuer à faire des erreurs plus personne n'aura la capacité de détecter ces erreurs et de les corriger

En réalité, ce ne sont pas les étudiants des uni qui vont être lobotomisé, mais bien l'ensemble de la société...
Quand vous obtenez une information d'une IA, il faut en vérifier les sources : De plus, il est même indiqué sur ChatGPT/Copilot/Claude que l'IA peut se tromper.
Si les personnes ne vérifient pas les informations que cela n'éveillent pas la curiosité de chercher plus loin : Le problème ce sont les personnes (et il faut les éduquer).
C'était la même chose au début de Wikipédia, je me rappel encore les discours alarmistes et très critiques des professeurs. Idem pour les calculatrices d'ailleurs ...

Enfin, dire que les gens ne feront plus aucun effort à cause de l'IA ... Google translate, ou les livres n'ont pas fait disparaitre les métiers de spécialistes en langue/traduction.
L'IA est un outil formidable pour ceux qui veulent se donner les moyens de comprendre, elle doit rester accessible à tous (et pas uniquement réservé à quelques spécialistes : Ce qui serait d'ailleurs encore plus dangereux !).

Ce que vous décrivez sur l'incapacité de détecter les erreurs, ça montre surtout qu'on a un problème d'éducation, d'intelligence et d'esprit critique, et l'IA n'en est pas responsable :
- La chute globale du niveau scolaire a commencé dès les années 80.

Enfin, corrélation, ne signifie pas lien de cause à effet (l'IA ne rends pas les étudiants "moins bons ou feignants", mais les "moins bons ou faignants" auront plus tendance à se faire aider ou tricher avec une IA).
Bref, plutôt l'éducation et la responsabilisation, que l'interdiction d'un outil révolutionnaire.
2  3