IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA est susceptible de sonner le glas de l'école traditionnelle, d'après un expert de la filière
Et comme le montre l'utilisation d'un chatbot comme professeur d'informatique à Harvard

Le , par Patrick Ruiz

11PARTAGES

9  0 
L’intelligence artificielle est appelée à changer l’éducation telle que nous la connaissons, selon de nombreuses sorties d’experts. C’est sur l’étendue des « changements » que les avis divergent. Certains intervenants comme le professeur Stuart Russell sont d’avis que la mise à contribution de l’intelligence artificielle pourrait résulter en une mise à l’écart des enseignants humains. D’autres par contre campent sur la position selon laquelle l’intelligence artificielle restera un outil qui viendra en complément de ceux dont les enseignants font déjà usage.

L’intelligence artificielle n’en est encore qu’au stade d’outil spécialisé

C’est ce que met en avant le professeur Stuart Russell lorsqu’il souligne lors du récent AI for Good Summit que « l’objectif dans la filière est celui de l’atteinte de l’intelligence artificielle générale et non des outils spécifiques comme des solveurs d’équations ou des programmes de jeux d’échecs » et qu’il ajoute « que le chemin à parcourir est encore long vers l’atteinte de cet objectif. »




Et donc le nouveau chatbot de l’université de Harvard mis à contribution pour intervenir dans le cours introductif d’algorithmes et développement web est un outil spécialisé. La décision de mettre à contribution cette intelligence artificielle tient à ce qu’elle permettra d’alléger la charge de travail de l’équipe pédagogique qui compte une centaine d’assistants, mais qui a de plus en plus de peine à encadrer des étudiants en nombre croissant, se connectant à partir de différents fuseaux horaires et avec des niveaux de connaissance et d’expérience variés.

L'équipe pédagogique est donc en train de peaufiner un système d'intelligence artificielle pour noter les travaux des étudiants et de tester un assistant technique virtuel pour évaluer la programmation des étudiants et leur fournir un retour d'information. L'assistant virtuel posera des questions rhétoriques et proposera des suggestions pour aider les étudiants à apprendre, plutôt que de se contenter de repérer les erreurs et de corriger les bogues de codage. À plus long terme, l’initiative devrait permettre aux enseignants-chercheurs humains d'avoir plus de temps à consacrer aux heures de bureau en personne ou via Zoom.

Certains voient néanmoins l’intelligence artificielle comme vecteur de la plus grande transformation de l’histoire : des cours personnalisés de haute qualité dispensés sans frais

Sal Khan, le fondateur et PDG de Khan Academy, en fait partie et pense que l’intelligence artificielle pourrait déclencher la plus grande transformation positive que l’éducation n’ait jamais connue. Sal Khan a une vision ambitieuse pour l’avenir de l’éducation : il imagine un monde où chaque élève aurait accès à un super tuteur IA personnalisé qui l’accompagnerait tout au long de son parcours éducatif, lui offrant une expérience d’apprentissage optimale. Il imagine également un monde où chaque enseignant aurait accès à un assistant pédagogique IA qui l’aiderait à gérer sa classe, à préparer ses cours, à évaluer ses élèves et à se former. Il espère ainsi contribuer à démocratiser l’éducation et à libérer le potentiel de chaque individu. Il pense que l’intelligence artificielle peut être un outil puissant pour réaliser cette vision, à condition qu’elle soit utilisée de manière responsable et équitable.


C’est un positionnement qui fait écho à celui de Bill Gates. Le cofondateur de Microsoft, Bill Gates, a prédit que les chatbots IA pourraient apprendre aux enfants à lire d'ici 18 mois : « Je pense que l'IA a le potentiel de faire une grande différence dans l'éducation », a estimé Gates. « L'un des domaines dans lesquels je suis le plus enthousiasmé par l'IA est l'éducation de la petite enfance. Je pense que les chatbots IA pourraient être vraiment utiles pour apprendre aux enfants à lire ». Gates a souligné que de nombreux enfants ont du mal à apprendre à lire et que cela peut avoir un impact durable sur leurs performances scolaires. Il a déclaré que les chatbots IA pourraient être utilisés pour fournir des instructions personnalisées aux enfants en difficulté, et que cela pourrait les aider à rattraper leurs pairs.

« Au début, nous serons très étonnés de voir à quel point cela aide à la lecture - être un assistant de recherche en lecture - et vous donner des commentaires sur l'écriture », a déclaré Gates.

Historiquement, l'enseignement des compétences en écriture s'est avéré être une tâche incroyablement difficile pour un ordinateur, a noté Gates. Lorsque les enseignants donnent leur avis sur les essais, ils recherchent des caractéristiques telles que la structure narrative et la clarté de la prose. Il s'agit là d'un « exercice hautement cognitif » qui est « difficile » à reproduire dans le code pour les développeurs, selon Gates.

Cependant, la capacité des chatbots IA à reconnaître et à recréer des changements de langage de type humain change cette dynamique, selon les partisans.

C’est avec l’avènement de l’intelligence artificielle générale ou de niveau humain que les enseignants humains et les travailleurs d’autres filières comme le développement informatique risquent d’être envoyés aux oubliettes

L’intelligence artificielle générale ou de niveau humain pourrait nous tomber dessus dans une dizaine d’années. OpenAI s’est par exemple donné 2030 comme cible pour l’atteinte de cet objectif. Rendues à ce stade, les machines seraient alors dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur le « le pourquoi les choses se produisent. » C’est en principe à ce moment que les enseignants humains pourraient tous être mis à l’écart. En fait, la perspective de l’atteinte de l’intelligence artificielle de niveau humain met les professionnels d’autres secteurs comme celui du développement informatique en danger.

Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science-fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.

Et vous ?

L’intelligence artificielle peut-elle vraiment remplacer ou compléter le rôle d’un tuteur ou d’un enseignant humain ? N’y a-t-il pas des aspects de l’éducation qui nécessitent une relation humaine, une empathie, une intuition, une créativité, une éthique, qui ne peuvent pas être reproduits ou simulés par une machine ?
L’intelligence artificielle peut-elle garantir une éducation de qualité pour tous ? N’y a-t-il pas des risques d’exclusion, de discrimination, de manipulation, de surveillance, de dépendance, qui peuvent affecter les utilisateurs de ces outils ? Comment assurer la transparence, la fiabilité, la sécurité, la diversité, l’inclusion, la justice, de ces outils ?
L’intelligence artificielle peut-elle s’adapter à tous les contextes et à toutes les cultures éducatives ? N’y a-t-il pas des différences, des spécificités, des besoins, des valeurs, qui varient selon les pays, les régions, les établissements, les disciplines, les niveaux, les élèves, les enseignants ? Comment respecter la pluralité et la singularité de ces contextes et de ces cultures ?

Voir aussi :

« ChatGPT est appelé à changer l'éducation telle que nous la connaissons, pas la détruire comme certains le pensent », affirme Douglas Heaven du MIT Technology Review

ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème, la détection des contenus générés par l'IA semble de plus en plus difficile

51 % des enseignants déclarent utiliser ChatGPT dans le cadre de leur travail, de même que 33 % des élèves, et affirment que l'outil a eu un impact positif sur leur enseignement et leur apprentissage

Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Christ D
Membre régulier https://www.developpez.com
Le 05/09/2024 à 15:57
Mentor pour Open Classroom, qui encourage l'utilisation de l'IA à condition de l'utiliser à bon essient, voici ce que j'ai constaté :

1ère étape : Vous fournissez un petit cahier des charges à un étudiant. Il produit un code fonctionnel qui répond au besoin

2ième étape : vous lui demandé d'ajouter une fonctionnalité (une fonctionnalité qui ne remet pas du tout en cause le coeur de l'application)

Là, vous regarder le code : Il n'a rien à voir avec la 1ère version !

Pourquoi ?

Parce que l'étudiant n'a pas fait évoluer son code ! il est issue d'un copier/coller d'une nouvelle question posée à l'IA !

On s'en rend compte aussi en posant des questions précises sur l'utilisaiton de telle ou telle fonction.

J'attends de voir ces étudiants trouver un emploi dans un secteur stratégique ou l'accès à internet est très règlementer et l'usage de l'IA interdite !
Ils vont se faire saquer !

Et pour les autres : ils produiront des codes qui couteront une fortune à faire évoluer ou corriger.
4  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 27/09/2024 à 0:29
Il faut une vie pour apprendre à vivre. M'est avis que nombre de ceux qui se jettent sur cette technologie pour répondre à des questions aussi simples et personnelles s'en rendront compte un jour et s'en mordront les doigts.

Si je ne suis pas un grand fan de notre système éducatif, c'est lui qui m'a fournit les bases, m'a appris à lire, écrire et compter, me permettant alors de prendre mon indépendance dans l'apprentissage pour développer différentes passions ou apprendre différents métiers. Mais ça, ça se fait pas à coup de prompts. Ça demande du temps, des efforts. Et ce n'est qu'au bout d'une vie (ou presque) que tous ces petits efforts cumulé forment un résultat.
J'espère que j'ai l'esprit étriqué et que parmi ces utilisateurs, la majorité utilisent ces outils comme j'utilise une calculatrice, pour gagner du temps sur des tâches répétitives et sans valeur ajoutée. Mais vu que la techno est vendue pour une utilisation diamétralement opposée, j'ai des doutes .
4  0 
Avatar de sergio_is_back
Expert éminent https://www.developpez.com
Le 03/09/2024 à 17:26
Ça alors, l'abus d'intelligence artificielle rendrait con ?

2  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 27/09/2024 à 13:56
Que notre élite intellectuelle est pleine de certitude sur ce que sont les capacités intellectuelles et que ça l'enfonce dans la médiocrité.
Utiliser l'IA comme outil de façon raisonnable, à la rigueur, mais lui faire faire ses devoirs par chatGPT ne donnera qu'un élève médiocre, c'est la version 2.0 de copier sur son voisin.

Mais comme tu le dis, le devoir sur table, ou la période d'essai en entreprise fera la différence.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 03/09/2024 à 8:22
Citation Envoyé par Jade Emy Voir le message
Les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir, car l'IA générative encourage la tricherie et rend paresseux et incompétents, selon une étude.
Parmi les meilleurs travailleurs avec qui j'ai travaillé il y a des personnes que l'on a défini comme tricheurs ou paresseux donc c'est une bonne nouvelle.
Parce que les premiers sont très habitués à identifier les limites du systèmes et les seconds ont un talent pour optimiser leur travail pour en faire le maximum avec le minimum d'effort.
Et je ne dis pas que les tricheurs ou les paresseux sont tous des bons travailleurs!
Selon un rapport récent, la plupart des jeunes utilisent l'IA générative comme ChatGPT parce qu'ils manquent de compétences cognitives et ont moins de chances de réussir dans la vie.
Surtout restez bien dans vos certitudes, méprisez ceux qui ne vous ressemblent pas! Mais ne vous étonnez pas quand l'un de ces cons prend la place que vous visiez. Par contre vous risquez d'être surpris qu'il produit plus de résultat que vous attendiez
L'école est très normative, certains s'en sortent en s'y adaptant même si aucune place était prévue pour eux. Plus on leur propose d'outils plus ils ont des chances d'y arriver et c'est une bonne chose de bousculer l'élitisme scolaire.
ChatGPT en est un et tant mieux.

Mais il reste important que les profs nous éduquent à ses pièges (notamment les hallucinations) ce qui ne doit pas être trop dur.
Je me souviens d'un prof de maths qui avait conçu un exercice où les calculs étaient suffisamment simples pour être faits à la main et où le résultat fait avec un calculatrice menait à un résultat erroné (de souvenir il cumulait quelques arrondis avec le calcul de la racine carré qui n'est pas si exact que ça).
Le fonctionnement exécutif (FE) ou les processus cognitifs sont importants pour l'apprentissage car ils permettent de se concentrer, de rechercher et de mémoriser les informations. Ces processus sont importants dans le cadre de l'enseignement, car ils jouent un rôle dans l'accomplissement de tâches complexes telles que la rédaction d'articles. Les personnes dont le niveau de FE est faible ont souvent du mal à mener à bien leurs tâches. En revanche, des niveaux de FE plus élevés sont un gage de réussite à l'école et dans la vie professionnelle.
Mon FE est probablement assez mauvais, je retiens peu les informations (mais me souviens qu'elle existe et qui me l'a transmise) et je suis un grand fan du travail fait à 95% ce qui m'a en effet posé de gros problèmes à l'école mais est devenu une force dans le monde du travail parce qu'en parallèle je suis capable de percevoir tous les domaines impactés par un sujet (ma responsabilité ensuite de consulter les personnes compétentes), pour mon incapacité à terminer ce que je fais ma technique est simple : un peu de discipline et surtout un suivi fréquent par mes clients et le tour est joué.
Même si les outils d'IA sont censés stimuler la productivité, ils peuvent être plus nocifs pour les personnes qui ne sont même pas productives du tout.
Tout est dans le "peuvent".
Je vais être très honnête et très subjectif : certaines matière ne sont pas intéressantes et/ou sont enseignées par des profs nuls. Je n'avais alors aucune raison d'être productif. Et que ces profs ne s'étonnent pas qu'on ne les respecte pas, ils ne nous respectent pas et n'ont - en général - pas de poids au conseil de classe (le moment qui me sauvait chaque année).
Ne se sont-ils jamais demandé pourquoi certains élèves sont nuls à chier mais sont décrits comme brillants par d'autres collègues?
Toutefois, il convient de distinguer ce qui relève de la tricherie de ce qui relève simplement de l'utilisation de l'IA à des fins d'étude. De nombreux étudiants copient des devoirs entiers à partir d'outils d'IA, ce qui est considéré comme de la triche. Si les étudiants utilisent les outils d'IA uniquement pour trouver des idées ou pour établir des schémas, cela devrait être considéré comme acceptable. Les étudiants et les enseignants devraient également vérifier si les travaux sont générés par l'IA, car de nombreux travaux universitaires sont rédigés par l'IA.
La notion de triche est toujours intéressante parce qu'elle dépend, en fait, beaucoup du prof.
Une prof d'élec nous autorisait tout sauf communiquer entre nous pendant les partiels. Nous avions donc tous nos cours, plus ou moins enrichis, sur nos bureaux mais certains venaient avec des lecteurs MP3 aux contenus divers (dont des cours) ou même avec leur PC (et Google & Co qui vont avec) . Mais pour que tout ceci fonctionne elle nous concoctait aussi un partiel gratiné (qui garantissait une détection de la triche assez facile) pourtant la moyenne était bonne et la triche rare.

Pensez-vous que cette étude est crédible ou pertinente ?
Non, elle part de l'hypothèse que FE élevé = productivité, ce qui est plus que discutable.
3  2 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 04/09/2024 à 0:03
Une nouvelle étude montre que les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir.
Citation Envoyé par sergio_is_back Voir le message
Ça alors, l'abus d'intelligence artificielle rendrait con ?

Bah oui, comme les calculettes ou comme apprendre par coeur et recracher, c'est bien connu.

En ce moment j'apprends une langue étrangère assez difficile comme passe temps en distentiel, et j'utilise aussi GPT pour éclaircir des tournures de phrases qui résistent au dictionnaire. La majorité des fois, ça a l'air de marcher... j'ai pas l'impression de perdre trop de points de QI dans le procédé... Cela dit, j'ai formé mon esprit avant GPT.

Concernant l'étude, si on regarde la table statistique d'où toute l'analyse est tirée, on voit qu'ils publient rien moins que 11 tests de différence de moyenne à la suite ! ils ont 43% de chances de trouver au moins une différence significative par pur artéfact statistique car ils n'ont pas compensé la répétition des tests. C'est une faiblesse méthodologique importante (d'autant que leurs différences sont assez mineures et qu'ils n'ont pas d'info sur un éléments important comme une étude du lien entre l'intensité de l'exposition à GPT et la force de l'effet supposé.). Comme on dit poliment, c'est une "étude préliminaire".
1  0 
Avatar de Minato Sensei
Membre habitué https://www.developpez.com
Le 09/10/2024 à 10:24
Je me demande à quoi ressemblera le monde professionnel dans 10, 15 ou 20 ans. Si tu cultives la fainéantise pendant ton cursus scolaire, ça va pas voler haut niveau réflexion critique une fois plongé dans le monde du travail. Bientôt des prompts pour demander à l'IA si la structure if...then...else est plus adaptée qu'une boucle for. Et au moindre bug du code généré par l'IA, un prompt pour demander à l'IA de chercher la solution.

À mon avis, l'utilisation de cet outil en milieu scolaire doit être limité au maximum, voire bannit dans certains cas
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 10/10/2024 à 11:02
Citation Envoyé par Patrick Ruiz  Voir le message
Cette paresse intellectuelle peut avoir des conséquences à long terme, non seulement sur les compétences des étudiants, mais aussi sur leur capacité à résoudre des problèmes complexes et à penser de manière critique.

Ça semble assez évident: si on ne pratique pas quelque chose régulièrement, on finit pas oublier. C'est à ça que sert l’entraînement.

Citation Envoyé par Patrick Ruiz  Voir le message
Ils sont parvenus à la conclusion selon laquelle les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir, car l'IA générative encourage la tricherie et rend paresseux et incompétent.

C'est marrant: j'imagine que si on transpose ça à la surveillance des voitures "pseudo autonomes", ça va poser problème aussi à la longue: comment un conducteur qui ne conduit plus du tout (donc qui manque d'entraînement) pourrait-il réagir efficacement lors que son "autopilote" se déconnecte et qu'en plus il est surpris parce qu'il faisait autre chose?

Citation Envoyé par Patrick Ruiz  Voir le message
Certains acteurs de la filière estiment dans le même temps qu’apprendre à programmer est inutile compte tenu de l’accès à l’intelligence artificielle

Apprendre à programmer sera inutile à l’avenir », d’après le PDG de Nvidia[/URL]

Le PDG de Nvidia n'est pas de la filière: c'est un PDG, donc pour lui ça ne change rien si demain il doit lever des fonds pour vendre des carottes. Ses propos n'ont donc aucune autorité sur le sujet.

Citation Envoyé par Patrick Ruiz  Voir le message
Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

Dommage que Google ne met pas ça en avant au niveau de leur marketing. Je pense que ces textes ont été demandés par le service juridique de Google, pour ne pas être tenus pour responsables en cas de fiasco.

Citation Envoyé par Patrick Ruiz  Voir le message
[B]
Comment les enseignants et les institutions éducatives peuvent-ils encourager une utilisation responsable de l’IA parmi les étudiants ?

Pourquoi devraient-il le faire? Est-ce que les enseignants travaillent pour Open AI et consorts??

Citation Envoyé par Patrick Ruiz  Voir le message
[B]
Croyez-vous que l’IA pourrait rendre certaines compétences obsolètes ? Si oui, lesquelles et comment devrions-nous nous adapter ?

Oui, les compétences les moins compliquées comme les brasseurs de vent: PDG, politicien, marketing, etc.

Citation Envoyé par Patrick Ruiz  Voir le message
[B]
Quelles mesures pourraient être mises en place pour éviter que les étudiants ne deviennent trop dépendants de l’IA ?

Des examens en présentiel sans réseau et sans téléphones. Finalement, peu importe comment un étudiant travaille. S'il veut utiliser de l'IA pour apprendre, ça le regarde. Tant qu'il passe ses examens sans.
1  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 11/10/2024 à 7:51
Citation Envoyé par kain_tn Voir le message

Le PDG de Nvidia n'est pas de la filière: c'est un PDG, donc pour lui ça ne change rien si demain il doit lever des fonds pour vendre des carottes. Ses propos n'ont donc aucune autorité sur le sujet.
Ben si ça change tout, il diras que demain tout le monde doit apprendre à planter des carottes, ça n'a rien à voir
(mon post sert à rien, mais on est vendredi)
1  0 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 11/07/2023 à 17:52
Et d'après les même experts les NFT ont révolutionné le monde, et le metaverse rapporte des milliards à meta. Ils défendent leur os c'est normal, par contre j'ai déjà peur de l'école a distance, sans prof, et avec un encadrement encore pire que ce qu'il est aujourd'hui.
0  0