« Je n'ai pas d'aide ou quoi que ce soit d'autre. Je m'organise et je reçois 800 messages par jour. J'ai peur de regarder ma liste de tâches », déclare Ethan Mollick, 49 ans, professeur à la Wharton School of Business de l'université de Pennsylvanie. Il vient de publier Co-Intelligence : Living and Working with AI, un livre qui explique comment tirer le meilleur parti de l'intelligence artificielle dans la vie de tous les jours.
Malgré cela, la gestion de son emploi du temps reste extrêmement compliquée. S'il recommande d'utiliser l'IA comme un compagnon pour presque tout, il estime aussi qu'il faut être prudent. Grâce à sa présence sur les médias sociaux, à sa lettre d'information et à ses commentaires francs, Mollick est devenu l'un des analystes et testeurs les plus populaires des nouveaux outils d'IA générative.
Plutôt que de voir l’IA comme une simple aide, Mollick propose de l’utiliser comme un partenaire de co-intelligence. Cela signifie intégrer l’IA de manière à ce qu’elle complète et enrichisse le processus d’apprentissage sans le remplacer. Il recommande aux étudiants de passer du temps à comprendre et à appliquer l’IA dans leurs tâches quotidiennes pour en tirer le meilleur parti.
Les risques de la paresse intellectuelle
Mollick commence par reconnaître que l’IA peut être un outil extrêmement puissant pour augmenter nos capacités. Elle peut aider à automatiser des tâches répétitives, fournir des analyses rapides et précises, et même offrir des recommandations personnalisées. Cependant, il met en garde contre le danger de s’appuyer trop lourdement sur cette technologie. « Les étudiants qui utilisent l’IA comme béquille n’apprennent rien. Cela les empêche de réfléchir », affirme-t-il. Cette dépendance excessive à l’IA peut conduire à une paresse intellectuelle, où les étudiants ne font plus l’effort de comprendre ou d’analyser par eux-mêmes.
Mollick compare l’usage excessif de l’IA à l’utilisation des calculatrices. Bien que les calculatrices aient simplifié les calculs, elles ont également rendu certaines compétences mathématiques moins courantes. De la même manière, l’IA pourrait rendre les étudiants moins enclins à développer des compétences analytiques et critiques s’ils ne l’utilisent pas de manière stratégique.
Cette paresse intellectuelle peut avoir des conséquences à long terme, non seulement sur les compétences des étudiants, mais aussi sur leur capacité à résoudre des problèmes complexes et à penser de manière critique.
Depuis l'avènement de ChatGPT, des études montrent que les élèves en tirent de plus en plus avantage et que la situation divise les enseignants sur la question de savoir s’il faut ou pas en empêcher l’utilisation par les apprenants.
Selon un rapport récent, la plupart des jeunes utilisent l'IA générative comme ChatGPT parce qu'ils manquent de compétences cognitives et ont moins de chances de réussir dans la vie. De nombreux outils d'IA comme ChatGPT et Gemini sont devenus des éléments essentiels de la vie des étudiants, et ils sont utilisés pour améliorer l'apprentissage. Mais l'IA générative encourage également la tricherie chez les étudiants.
C'est pourquoi les chercheurs d'une autre étude ont voulu savoir quelle était la corrélation entre l'IA générative et les performances des étudiants. Ils sont parvenus à la conclusion selon laquelle les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir, car l'IA générative encourage la tricherie et rend paresseux et incompétent.
Une approche stratégique de l’IA
Pour éviter ces pièges, Mollick insiste sur l’importance d’une approche stratégique de l’IA. Il suggère de définir des limites claires sur ce que l’on ne veut pas déléguer à l’IA. Par exemple, les étudiants pourraient décider de n’utiliser l’IA que pour des tâches spécifiques, comme la recherche d’informations, tout en s’assurant de faire eux-mêmes l’analyse et la synthèse de ces informations. « L’IA fait tellement de choses que nous devons mettre en place des garde-fous sur ce que nous ne voulons pas abandonner », explique-t-il. Cette approche permet de maximiser les avantages de l’IA tout en minimisant ses risques.
Plutôt que de voir l’IA comme une simple aide, Mollick propose de l’utiliser comme un partenaire de co-intelligence. Cela signifie intégrer l’IA de manière à ce qu’elle complète et enrichisse le processus d’apprentissage sans le remplacer. Par exemple, les étudiants peuvent utiliser l’IA pour obtenir des informations supplémentaires ou pour vérifier leurs travaux, mais ils doivent toujours faire l’effort de comprendre et d’analyser ces informations par eux-mêmes. Mollick recommande aux étudiants de passer du temps à comprendre et à appliquer l’IA dans leurs tâches quotidiennes pour en tirer le meilleur parti.
L’impact de l’IA sur l’éducation
L’intégration de l’IA dans l’éducation offre des opportunités incroyables pour améliorer l’apprentissage. Elle peut personnaliser l’enseignement, fournir des feedbacks instantanés et aider à identifier les domaines où les étudiants ont besoin de plus de soutien. Cependant, pour que ces avantages se réalisent pleinement, il est crucial que les étudiants et les enseignants adoptent une approche équilibrée et réfléchie de l’utilisation de l’IA. Les enseignants doivent encourager les étudiants à utiliser l’IA de manière responsable et à développer leurs propres compétences analytiques et critiques.
La vision de Mollick sur l'IA
L'IA ne va-t-elle pas inévitablement nous rendre plus paresseux ?
Ethan Mollick Les calculatrices nous ont également rendus plus paresseux. Pourquoi ne faisons-nous plus de mathématiques à la main ? Vous devriez prendre des notes à la main au lieu de m'enregistrer. Nous utilisons la technologie pour prendre des raccourcis, mais nous devons être stratégiques dans la manière dont nous prenons ces raccourcis.
Pourquoi devrions-nous aborder l'intelligence artificielle avec une stratégie ?
L'IA fait tellement de choses que nous devons établir des garde-fous sur ce que nous ne voulons pas abandonner. Il s'agit d'une technologie très étrange et polyvalente, ce qui signifie qu'elle aura une incidence sur toutes sortes de choses et que nous devrons nous adapter socialement. Nous avons fait du très mauvais travail avec le dernier ajustement social majeur, les médias sociaux. Cette fois-ci, nous devons être plus réfléchis.
Serons-nous en mesure de mieux nous adapter socialement à l'IA ?
Ce qui me donne un peu d'espoir avec cette technologie, c'est qu'il est plus naturel de travailler avec elle parce qu'elle est si proche de l'homme. Les humains ont l'habitude de travailler avec des membres d'équipe intelligents pour résoudre les problèmes. C'est une chose si l'IA devient une machine divine intelligente, mais au niveau actuel, lorsque vous interagissez avec cette chose et qu'elle est imparfaite, c'est là qu'il peut être utile de ressembler à un être humain.
Vous avez récemment écrit que quelque chose commence à changer avec le nouveau modèle d'OpenAI, ChatGPT-o1
J'ai terminé le livre il y a un an. Je devais être suffisamment prévoyant pour voir où les choses allaient. Prédire ce qui se passera dans six ans et savoir si l'IA nous tuera ou nous sauvera ne m'intéressait pas. Ce qui m'intéressait, c'était de savoir comment travailler avec cette chose. L'une des choses que je mentionne, qui n'était pas aussi importante dans la génération précédente d'IA et qui, selon moi, sera essentielle dans les deux prochaines années, est l'idée d'autonomie et d'agents d'IA. C'est le début de l'IA qui exécutera des processus de manière autonome, sans notre aide. Je ne pense pas que cela changera fondamentalement la façon dont nous travaillons avec l'IA, mais nous pourrions passer à des modèles qui reviennent vous poser des questions lorsqu'ils ont des problèmes. Il y a quelque chose de précieux dans le fait d'être interrogé. C'est quelque chose que nous faisons dans tous les outils d'IA que nous construisons pour l'apprentissage : il doit y avoir un va-et-vient, et le modèle o1 ne le fait pas vraiment. Il ne pose pas de questions. C'est ce qui est troublant.
Quelles sont les principales idées fausses sur l'IA ?
Les gens sont divisés entre ceux qui sont enthousiasmés par l'IA et ceux qui sont nerveux ou anxieux. Chaque groupe a ses propres mythes. Pour les non-adeptes, l'un des plus grands mythes est que l'IA ne fait rien d'original et que tout ce que vous obtenez, c'est du contenu collé par d'autres. Ce n'est pas vrai. L'IA est construite comme un modèle physique élaboré pour chaque langue humaine et utilise ces règles pour créer de nouveaux contenus sur la base de sa formation. Il y a là une certaine originalité. C'est l'une des principales idées fausses. L'autre idée est de le comparer à Google. Il est moins bon pour les choses que Google fait bien, mais meilleur pour beaucoup d'autres choses que Google ne fait pas.
Conclusion
L’IA offre des opportunités pour améliorer l’apprentissage, mais elle doit être utilisée avec prudence. Les étudiants doivent être encouragés à voir l’IA comme un partenaire de co-intelligence plutôt que comme une béquille. En adoptant une approche stratégique, ils peuvent maximiser les avantages de l’IA tout en développant leurs propres compétences essentielles. Comme le souligne Ethan Mollick, l’IA ne doit pas remplacer la réflexion humaine, mais plutôt la compléter et l’enrichir.
Sources : Ethan Mollick, Co-intelligence : Vivre et travailler avec l'IA d'Ethan Mollick
Et vous ?
Que pensez-vous des propos d'Ethan Mollick ? Les trouvez-vous crédibles ou pertinents ? Dans quelle mesure ?
Pensez-vous que l’IA peut réellement remplacer certaines compétences humaines, ou doit-elle toujours être un complément ? Pourquoi ?
Avez-vous déjà utilisé l’IA pour vos études ou votre travail ? Si oui, comment cela a-t-il affecté votre apprentissage ou votre productivité ?
Quels sont, selon vous, les principaux avantages et inconvénients de l’utilisation de l’IA dans l’éducation ?
Comment les enseignants et les institutions éducatives peuvent-ils encourager une utilisation responsable de l’IA parmi les étudiants ?
Croyez-vous que l’IA pourrait rendre certaines compétences obsolètes ? Si oui, lesquelles et comment devrions-nous nous adapter ?
Quelles mesures pourraient être mises en place pour éviter que les étudiants ne deviennent trop dépendants de l’IA ?
Comment voyez-vous l’avenir de l’éducation avec l’intégration croissante de l’IA ?