
En lançant ChatGPT début décembre, OpenAI n'a sans doute pas pensé à la façon dont son modèle d'IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l'attention de tous et serait même parvenu à s'introduire dans des endroits auxquels beaucoup ne s'y attendaient pas. À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.
Mais ChatGPT n'est pas uniquement capable de rédiger des essais convaincants.
ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses « aptitudes ». Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis, édition qui porte sur 4 questions. Les postulants sont libres de formuler les réponses de la manière qui leur convient. Un internaute a proposé une compilation des réponses proposées par ChatGPT après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles.
Code Java : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 | // 1a public int getScore() { int score = 0; * // Check if this is a bonus game if (isBonus()) { // If it is, triple the final score score = 3; } * // Iterate through each level for (int i = 1; i <= 3; i++) { // Check if the goal for the current level has been reached if (level[i].goalReached()) { // If it has, add the points for that level to the score score += level[i].getPoints(); } } * // Return the final score return score; } * // 1b public int playManyTimes(int num) { // Keep track of the highest score seen so far int highestScore = 0; * // Iterate for the number of games specified in the num parameter for (int i = 0; i < num; i++) { // Create a new game Game game = new Game(); * // Simulate the play of the game game.play(); * // Compute the score for the game int score = game.getScore(); * // If the score for this game is higher than the highest score seen so far, // update the highest score if (score > highestScore) { highestScore = score; } } * // Return the highest score seen return highestScore; } * // 2 public class Textbook extends Book { private int edition; * /** * Creates a new Textbook with given title, price, and edition number. * * @param bookTitle the title of the textbook * @param bookPrice the price of the textbook * @param bookEdition the edition number of the textbook */ public Textbook(String bookTitle, double bookPrice, int bookEdition) { super(bookTitle, bookPrice); this.edition = bookEdition; } * /** * Returns the edition number of the textbook. * * @return the edition number of the textbook */ public int getEdition() { return edition; } * /** * Returns the title, price, and edition number of the Textbook as a string. * * @return the title, price, and edition number of the Textbook as a string */ @Override public String getBookInfo() { return super.getBookInfo() + "-" + edition; } * /** * Returns true if this Textbook is a valid substitute for the Textbook referenced by the parameter * of the canSubstituteFor method. Returns false otherwise. * * @param other the Textbook to compare to this Textbook * @return true if this Textbook is a valid substitute for the Textbook referenced by the parameter * of the canSubstituteFor method, false otherwise */ public boolean canSubstituteFor(Textbook other) { return this.getTitle().equals(other.getTitle()) && this.getEdition() >= other.getEdition(); } } * // 3a * public double getAverageRating() { double totalRating = 0; int numReviews = allReviews.length; * for (Review review : allReviews) { totalRating += review.getRating(); } * return totalRating / numReviews; } * // 3b * public ArrayList<String> collectComments() { ArrayList<String> formattedComments = new ArrayList<>(); * for (int i = 0; i < allReviews.length; i++) { String comment = allReviews[i].getComment(); if (comment.contains("!")) { formattedComments.add(i + "-" + comment); * if (!(comment.endsWith(".") || comment.endsWith("!"))) { formattedComments.set(formattedComments.size() - 1, formattedComments.get(formattedComments.size() - 1) + "."); } } } * return formattedComments; } * // 4a * public void repopulate() { Random rand = new Random(); for (int i = 0; i < grid.length; i++) { for (int j = 0; j < grid[i].length; j++) { int val = rand.nextInt(MAX - 1) + 1; while (val % 10 != 0 || val % 100 == 0) { val = rand.nextInt(MAX - 1) + 1; } grid[i][j] = val; } } } * // 4b * public int countIncreasingCols() { int count = 0; for (int i = 0; i < grid[0].length; i++) { boolean isIncreasing = true; for (int j = 1; j < grid.length; j++) { if (grid[j][i] < grid[j - 1][i]) { isIncreasing = false; break; } } if (isIncreasing) { count++; } } return count; } |
Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.
D'ailleurs, en parlant de développement, un utilisateur indique que : « ChatGP pourrait être un bon compagnon de débogage*; il explique non seulement le bogue mais le corrige et explique le correctif » :
ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires
C'est ce qu'a décidé l'International Conference on Machine Learning (ICML).
Annonçant sa politique plus tôt cette semaine, elle a déclaré : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article ». La nouvelle a suscité de nombreuses discussions sur les réseaux sociaux, des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publiant une déclaration plus longue expliquant leur pensée.
Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».
Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.
« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.
En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.
Cependant, les questions auxquelles l'ICML s'attaque peuvent ne pas être facilement résolues
La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a bloqué l'accès à l'outil pour toute personne sur son réseau cette semaine.
En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.