Les universités s’apprêtent à lobotomiser leurs étudiants avec l’introduction de l’IA dans leurs cursus de formationUn usage fréquent de l’IA dans les cours de programmation nuit à leur pensée critique
L'université d'État de l'Ohio a annoncé qu'elle intégrerait l'enseignement de l'intelligence artificielle dans tous ses programmes de premier cycle. L'université de Floride ainsi que l'université du Michigan mettent en place des initiatives similaires. Seulement, certaines études appellent à la prudence car les compétences dont les futurs diplômés auront le plus besoin à l'ère de l'automatisation (pensée créative, analyse critique, capacité à apprendre de nouvelles choses) sont précisément celles qui pourraient être érodées par l'intégration de l'intelligence artificielle dans le processus éducatif.
Une étude de l'université de Tartu révèle que l'utilisation fréquente de l'IA, comme ChatGPT, dans les cours de programmation est corrélée à une baisse des notes des étudiants, car elle nuit à l'apprentissage approfondi et à la pensée critique.
Dans le monde en rapide évolution des technologies éducatives, les observateurs tirent la sonnette d'alarme sur les conséquences imprévues des outils d'intelligence artificielle sur l'apprentissage des étudiants. Selon le développeur Namanyay, l'IA est en train de créer une génération de programmeurs illettrés et des nouveaux développeurs juniors qui ne savent pas coder. Dans ces analyses, il affirme que la génération actuelle de développeurs peut poser les bonnes questions à l'IA, mais ne comprend pas le fonctionnement du code produit par l'IA et ne possède pas les connaissances fondamentales de la programmation. Chaque fois que l'IA tombe en panne, ils se retrouvent de plus en plus impuissants.
Une nouvelle étude semble confirmer ces propos. Des chercheurs de l'université de Tartu en Estonie ont découvert que le recours fréquent à l'intelligence artificielle dans les cours de programmation est corrélé à de moins bons résultats scolaires. Marina Lepp, professeure agrégée d'informatique, et son coauteur Joosep Kaimre ont analysé les données de plus de 100 étudiants dans un cours d'introduction à la programmation, révélant que ceux qui se tournaient vers l'IA pour le débogage et la compréhension du code obtenaient souvent des notes plus faibles aux examens.
L'étude suggère que si l'intelligence artificielle peut fournir des solutions et des explications rapides, elle peut court-circuiter les processus cognitifs approfondis essentiels à la maîtrise de sujets complexes. Les étudiants ont déclaré utiliser ces outils principalement pour résoudre des erreurs ou comprendre des concepts complexes, mais les données ont montré une corrélation négative entre la fréquence d'utilisation et les notes finales, ce qui suggère une dépendance excessive qui nuit au développement des compétences.
L’essor de l’intelligence artificielle est néanmoins de nature à justifier le choix des entreprises d’intégrer l’intelligence artificielle aux cursus de formation des étudiants
L'avènement d'intelligences artificielles génératives telles que ChatGPT a déclenché une onde de choc dans le monde de l'enseignement secondaire et supérieur. Entre craintes de tricherie massive et promesses d'une révolution pédagogique, la question de la finalité même de l'université se pose avec une acuité nouvelle. Les écoles et les universités vont néanmoins devoir rester cohérentes avec leur mission qui est former des apprenants prêts à affronter un univers professionnel qui leur impose de savoir faire usage de l’intelligence artificielle.
Les entreprises technologiques soumettent les candidats aux postes d'ingénieur à une batterie d'entretiens. La partie la plus détestée du processus est l'entretien technique. Lors d'un entretien technique, les programmeurs doivent résoudre des problèmes de codage ésotériques. Souvent les candidats doivent le faire en direct devant une caméra, sous le regard d'un employé de l'entreprise. C'est un processus perçu comme exigeant, voire intimidant.
Avec l'essor de l'IA générative, les candidats aux postes d'ingénieurs logiciels ont commencé à faire discrètement appel aux assistants d'IA pour affronter les entretiens techniques des entreprises. Les candidats qui se faisaient prendre risquaient d'être éliminés. Mais Canva vient d'annoncer une nouvelle ère dans le recrutement : l'utilisation d’outils d'intelligence artificielle n'est plus seulement autorisée, elle est exigée.
« La nature de l'ingénierie logicielle évolue rapidement. Chez Canva, nous pensons que notre processus d'embauche doit évoluer en même temps que les outils et les pratiques que nos ingénieurs utilisent tous les jours. C'est pourquoi nous sommes ravis de vous annoncer que nous attendons désormais des candidats aux postes d'ingénieurs backend, frontend et en apprentissage automatique qu'ils utilisent des outils d'IA tels que Copilot, Cursor et Claude lors de nos entretiens techniques », indique Simon Newton.
Selon la plateforme, cela reflète la réalité du travail quotidien au sein de l'entreprise, où les ingénieurs s'appuient déjà largement sur des assistants comme GitHub Copilot ou Claude pour coder, explorer des bases existantes et résoudre des problèmes complexes. Dans un billet de blogue, Simon Newton affirme qu'interdire ou ignorer l'IA dans un processus de recrutement reviendrait à évaluer des compétences qui sont déconnectées du contexte réel du poste.
Simon Newton explique : « plutôt que de lutter contre cette réalité et d'essayer de contrôler l'utilisation de l'IA, nous avons pris la décision d'adopter la transparence et de travailler avec cette nouvelle tendance. Cette approche nous donne un signal plus clair sur la façon dont ils seront réellement performants lorsqu'ils rejoindront notre équipe ». Toutefois, des rapports indiquent que les ingénieurs logiciels actuels de Canva n'ont pas apprécié ce changement.
Source : OSU
Et vous ?
Quelles compétences spécifiques les universités devraient-elles prioriser pour préparer les étudiants à un avenir où l'IA est omniprésente, et comment ces compétences peuvent-elles être évaluées de manière fiable ?
Quels types de formation et d'accompagnement sont nécessaires pour que les enseignants puissent non seulement détecter l'usage abusif de l'IA, mais surtout l'intégrer de manière constructive et innovante dans leurs pratiques pédagogiques ?
Au-delà du retour aux examens sur table, quelles nouvelles formes d'évaluation (portfolios, projets collaboratifs, soutenances orales axées sur le processus de réflexion, etc.) pourraient être plus résilientes face à l'IA et mieux mesurer la compréhension réelle ?Voir aussi :
L'université de Columbia suspend l'étudiant qui a conçu l'outil d'IA pour réussir l'entretien technique rigoureux d'Amazon, le tableau ramène la question de la qualité des entretiens techniques sur la table
Un étudiant a utilisé l'IA pour réussir l'entretien technique rigoureux d'Amazon et affirme que le travail de la plupart des programmeurs sera obsolète dans deux ans, il envisage de quitter l'université
Des avatars d'IA font désormais passer des entretiens d'embauche aux candidats afin de permettre aux recruteurs de gagner du temps et réduire les coûts, mais cette pratique soulève plusieurs préoccupations
Vous avez lu gratuitement 442 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.