En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.
Mais ChatGPT n'est pas uniquement capable de rédiger des essais convaincants.
ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis, édition qui porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.
Code Java : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 | // 1a public int getScore() { int score = 0; * // Check if this is a bonus game if (isBonus()) { // If it is, triple the final score score = 3; } * // Iterate through each level for (int i = 1; i <= 3; i++) { // Check if the goal for the current level has been reached if (level[i].goalReached()) { // If it has, add the points for that level to the score score += level[i].getPoints(); } } * // Return the final score return score; } * // 1b public int playManyTimes(int num) { // Keep track of the highest score seen so far int highestScore = 0; * // Iterate for the number of games specified in the num parameter for (int i = 0; i < num; i++) { // Create a new game Game game = new Game(); * // Simulate the play of the game game.play(); * // Compute the score for the game int score = game.getScore(); * // If the score for this game is higher than the highest score seen so far, // update the highest score if (score > highestScore) { highestScore = score; } } * // Return the highest score seen return highestScore; } * // 2 public class Textbook extends Book { private int edition; * /** * Creates a new Textbook with given title, price, and edition number. * * @param bookTitle the title of the textbook * @param bookPrice the price of the textbook * @param bookEdition the edition number of the textbook */ public Textbook(String bookTitle, double bookPrice, int bookEdition) { super(bookTitle, bookPrice); this.edition = bookEdition; } * /** * Returns the edition number of the textbook. * * @return the edition number of the textbook */ public int getEdition() { return edition; } * /** * Returns the title, price, and edition number of the Textbook as a string. * * @return the title, price, and edition number of the Textbook as a string */ @Override public String getBookInfo() { return super.getBookInfo() + "-" + edition; } * /** * Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter * of the canSubstituteFor method. Returns false otherwise. * * @param other the Textbook to compare to this Textbook * @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter * of the canSubstituteFor method, false otherwise */ public boolean canSubstituteFor(Textbook other) { return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition(); } } * // 3a * public double getAverageRating() { double totalRating = 0; int numReviews = allReviews.length; * for (Review review : allReviews) { totalRating += review.getRating(); } * return totalRating / numReviews; } * // 3b * public ArrayList<String> collectComments() { ArrayList<String> formattedComments = new ArrayList<>(); * for (int i = 0; i < allReviews.length; i++) { String comment = allReviews[i].getComment(); if (comment.contains("!")) { formattedComments.add(i + "-" + comment); * if (!(comment.endsWith(".") || comment.endsWith("!"))) { formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + "."); } } } * return formattedComments; } * // 4a * public void repopulate() { Random rand = new Random(); for (int i = 0; i < grid.length; i++) { for (int j = 0; j < grid[i].length; j++) { int val = rand.nextInt(MAX - 1) + 1; while (val % 10 != 0 || val % 100 == 0) { val = rand.nextInt(MAX - 1) + 1; } grid[i][j] = val; } } } * // 4b * public int countIncreasingCols() { int count = 0; for (int i = 0; i < grid[0].length; i++) { boolean isIncreasing = true; for (int j = 1; j < grid.length; j++) { if (grid[j][i] < grid[j - 1][i]) { isIncreasing = false; break; } } if (isIncreasing) { count++; } } return count; } |
Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.
D'ailleurs, en parlant de développement, un utilisateur indique que : « ChatGP pourrait être un bon compagnon de débogage*; il explique non seulement le bogue mais le corrige et explique le correctif » :
ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires
C'est ce qu'a décidé l'International Conference on Machine Learning (ICML).
Annonçant sa politique plus tôt cette semaine, elle a déclaré : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article ». La nouvelle a suscité de nombreuses discussions sur les réseaux sociaux, des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publiant une déclaration plus longue expliquant leur pensée.
Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».
Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.
« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.
En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.
Cependant, les questions auxquelles l'ICML s'attaque peuvent ne pas être facilement résolues
La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a bloqué l'accès à l'outil pour toute personne sur son réseau cette semaine.
En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.
Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?
Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.
« Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en faveur des locuteurs natifs », explique Goldberg. « En utilisant des outils comme ChatGPT pour aider à exprimer leurs idées, il semble que de nombreux locuteurs non natifs pensent qu'ils peuvent "uniformiser les règles du jeu" sur ces questions ». a estimé Goldberg. Ce dernier est persuadé que « de tels outils peuvent aider les chercheurs à gagner du temps, ainsi qu'à mieux communiquer avec leurs pairs ».
Mais les outils d'écriture d'IA sont également qualitativement différents des logiciels plus simples comme Grammarly. Deb Raji, chercheuse en intelligence artificielle à la Fondation Mozilla, a déclaré qu'il était logique que l'ICML introduise une politique spécifiquement destinée à ces systèmes. Comme Goldberg, elle a déclaré avoir entendu des anglophones non natifs dire que de tels outils peuvent être « incroyablement utiles » pour la rédaction d'articles, et a ajouté que les modèles linguistiques ont le potentiel d'apporter des modifications plus radicales au texte.
« Je vois les LLM comme tout à fait distincts de quelque chose comme la correction automatique ou la grammaire, qui sont des outils correctifs et éducatifs », a déclaré Raji. « Bien qu'ils puissent être utilisés à cette fin, les LLM ne sont pas explicitement conçus pour ajuster la structure et la langue du texte déjà écrit - ils ont également d'autres capacités plus problématiques, telles que la génération de nouveaux textes et de spam ».
Goldberg a déclaré que même s'il pensait qu'il était certainement possible pour les universitaires de générer des articles entièrement à l'aide de l'IA, « ils sont très peu incités à le faire ». « En fin de compte, les auteurs signent sur le papier et ont une réputation à tenir », a-t-il déclaré. « Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ».
Ce point est particulièrement important étant donné qu'il n'existe aucun moyen totalement fiable de détecter le texte généré par l'IA. Même l'ICML note qu'une détection infaillible est « difficile » et que la conférence n'appliquera pas son interdiction de manière proactive en exécutant les soumissions via un logiciel de détection. Au lieu de cela, elle n'enquêtera que sur les soumissions qui ont été signalées par d'autres universitaires comme suspectes.
En d'autres termes : en réponse à l'essor des technologies perturbatrices et nouvelles, les organisateurs s'appuient sur des mécanismes sociaux traditionnels pour faire respecter les normes académiques. L'IA peut être utilisée pour peaufiner, éditer ou écrire du texte, mais il appartiendra toujours aux humains d'évaluer sa valeur.
Source : ICML
Et vous ?
Que pensez-vous de la décision de l'ICML de bannir l'utilisation de chatGPT ?
Que pensez-vous des propos des experts dans le domaine de l'IA qui voient en de tels outils une opportunité pour leurs pairs qui ne sont pas anglophones natifs de mieux présenter leurs idées ?
« [Les universitaires] sont très peu incités à le faire [se servir d'un outil comme chatGPT pour générer entièrement leurs articles par IA]. Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ». Partagez-vous ce point de vue ?
D'une manière plus générale, que pensez-vous des outils comme chatGPT ? En avez-vous déjà essayé un ?
Si oui, lequel et qu'en avez-vous pensé ? Si non, aimeriez-vous en essayer un ?