« Le problème est qu'il fait de bonnes choses pour nous, mais il peut faire d'horribles erreurs en ne sachant pas ce qu'est l'humanité », déclare-t-il lors d’un récent entretien. Steve Wozniak rejoint ainsi plusieurs observateurs.
En effet, c’est une redite de l’avis de certains enseignants. Ethan Mollick en fait partie et a décidé d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT. La raison : l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Arvind Narayanan de l’université de Princeton est pour sa part d’avis que ChatGPT n’a rien de révolutionnaire :
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non. »
Le tiers d’un récent sondage de la plateforme Study.com est d’avis qu’il faut empêcher les élèves d’en faire usage. 67 % du même échantillon (200 participants) pensent que ChatGPT ne doit pas être banni des écoles et des universités.
La controverse au sujet de cette intelligence artificielle tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquelles les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.
ChatGPT divise même en dehors de la sphère de l’enseignement. Les écrivains ont peur de perdre leurs emplois en raison de la montée en puissance de cette intelligence artificielle. Des questionnements ont même cours dans la filière du génie logiciel quant à savoir à quel point des outils de ce type peuvent la transformer.
Source : Interview
Et vous ?
ChatGPT : interdire ou s’adapter ? De quel bord êtes-vous ?
Quel commentaire faites-vous de toute la médiatisation autour de cette IA (ChatGPT) et d’autres qui lui sont similaires ?
Voir aussi :
80 % des technologies pourraient être créées par des professionnels extérieurs à l'informatique d'ici 2024, grâce aux outils low-code, selon Gartner
Forrester : l'utilisation des plateformes de développement low-code gagne du terrain dans les processus de transformation numérique des entreprises
Le marché mondial des technologies de développement low-code va augmenter de 23 % en 2021, selon les prévisions de Gartner
Microsoft lance Power Fx, un nouveau langage de programmation low-code open source basé sur Excel