Si pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais le monde professionnel, il n’en est pas moins vrai que l’outil d’IA reste considéré « essentiellement comme un outil high-tech de plagiat », selon le célèbre penseur et chercheur intellectuel américain Noam Chomsky. Le 17 mars, Ville Kuosmanen, Ingénieur logiciel, a partagé son expérience sur ChatGPT dans un billet de blog. Pour le passionné d’informatique, « l’outil d’IA va changer le monde ».
« En décembre dernier, j'ai joué quelques parties d'échecs contre ChatGPT. Elles se sont toujours terminées de la même manière : ChatGPT jouait une ouverture précise, jusqu'à ce qu'il oublie où se trouvaient ses pièces et commence à jouer des coups illégaux, en toute confiance bien sûr. La vérité est que GPT-3 ne sait pas jouer aux échecs. Jouer une partie contre lui révèle sa véritable nature de perroquet stochastique qui se contente de produire une réponse crédible à partir de son jeu d'entraînement.
« ChatGPT ne peut pas (encore) jouer aux échecs à un niveau humain. Il est clairement conscient du jeu et capable de jouer avec précision les ouvertures principales. Mais dès que le jeu sort de la théorie, ChatGPT ne peut plus suivre. Cela montre que le modèle linguistique ne comprend pas (encore) les principes fondamentaux du jeu d'échecs, mais qu'il se contente de répéter les mouvements et les phrases qui se produisent couramment dans une partie d'échecs documentée », Ville Kuosmanen.
L'assurance de ChatGPT, combinée à son "contournement" des règles des échecs, est devenue une sorte de mème sur la partie d'échecs de l'internet, avec des messages Reddit qui ont fait la une des journaux et des vidéos YouTube qui ont été vues des millions de fois. Nous en avons ri. On s'en est moqué. Nous avons utilisé ses déficiences pour justifier la supériorité des humains sur les machines.
ChatGPT est un grand modèle de langage général (LLM) développé récemment par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées « prompts ».
Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.
Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.
ChatGPT est alimenté par GPT3.5, un LLM entraîné sur le modèle OpenAI 175B parameter foundation et un grand corpus de données textuelles provenant d'Internet via des méthodes d'apprentissage par renforcement et supervisé. Une utilisation anecdotique indique que ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée, ainsi que des compétences de dépendance à long terme.
Premier match contre GPT-4
Ville Kuosmanen dit avoir gagné des points de classement depuis décembre. Son classement Chess.com ELO actuel est de 1435, ce qui indique qu’il est un joueur intermédiaire. Bien que le GPT-4 soit présenté comme une amélioration significative par rapport au GPT-3, Ville Kuosmanen ne s'attendait pas à ce qu'il joue particulièrement bien. J'ai donc commencé une partie. Voici ce qui s'est passé.
Non seulement il a perdu, mais il a été expulsé de l'échiquier, mis en échec en 20 coups ! Il a essayé d'utiliser l'ouverture polonaise inhabituelle comme stratégie anti-GPT, car il y a beaucoup moins de parties jouées dans ces positions que dans les ouvertures populaires. Cela n'a pas semblé avoir d'importance : GPT-4 a bien géré la position et a profité de mes erreurs.
« Ce qui m'a le plus effrayé, c'est le style d'attaque du chatbot : il a sacrifié un fou pour ouvrir mon roi et lancer une attaque massive. Cette approche est très différente de celle des ordinateurs d'échecs traditionnels et ressemble davantage à une décision que pourrait prendre un joueur humain qui aime attaquer : ce n'est pas le meilleur coup d'après l'évaluation de l'ordinateur, mais il est difficile pour les humains de se défendre contre lui. »
Deuxième partie
Ville Kuosmanen a également utilisé l'ouverture polonaise pour une deuxième partie.
GPT-4 commence la partie avec une erreur très commune : 2... Nc6 conduit à ce que le cheval se fasse botter autour de l'échiquier et soit forcé de se mettre sur le chemin du fou noir. « Je vois ce coup tout le temps lorsque je joue contre des joueurs humains, mais je m'attendais à ce que GPT-4 ait vu suffisamment de parties pour jouer quelque chose de plus fort. Ou peut-être a-t-il joué ce coup parce qu'il est si courant ? », interroge-t-il.
Bien que Kuosmanen ait gagné un premier pion et finalement la partie, ce fut loin d'être facile. Au 27e coup, il a fait une erreur qui a conduit à un mat forcé en 2, mais ChatGPT l'a manquée. L'erreur a également été très humaine, se concentrant sur son attaque sur le cavalier plutôt que sur son faible roi. La partie s'est terminée après que ChatGPT a perdu sa tour et sa reine pour la même attaque qui aurait fonctionné quelques coups plus tôt. Probablement a-t-il oublié la tour blanche sur b1 ?
Dernière partie
Kuosmanen voulait aussi essayer une partie avec une ouverture populaire, et a donc commencé une avec d4.
Cette partie a conduit à une fin de partie de tour où ChatGPT avait une majorité de pions à l'aile roi. Kuosmanen espérait que GPT-4 commencerait à faiblir à ce stade de la partie, car le nombre de coups joués signifierait sûrement qu'il n'y a pas de parties similaires dans son jeu de données. Mais, à sa grande surprise, l’outil d’IA a joué une excellente fin de partie. Après qu’il eus faufilé sa tour jusqu'à la 8e rangée, le moteur d'échecs Stockfish a estimé que sa position était perdante.
Cependant, GPT-4 n'a pas trouvé de coup qui lui permette de conserver son avantage, et a choisi de répéter les coups et de faire match nul. Là encore, il s'agit d'une décision inhabituelle, mais qui ressemble à celle d'un être humain : GPT avait plus de pions que Kuosmanen, ce qui lui donnait des chances de gagner.
« Je ne m'attendais pas à ce que GPT-4 soit capable de jouer aux échecs, et à ce qu'il perde contre lui ! ChatGPT a joué comme un humain : il a perdu une partie en commettant des erreurs dans l'ouverture et la fin de partie, mais en a gagné une en attaquant sans relâche. Il a également su gérer une partie plus lente et positionnelle, ainsi qu'une fin de partie serrée à la tour », conclu Kuosmanen. GPT-4 n'a pas joué un seul coup illégal. En fait, il a corrigé les quelques fois où Kuosmanen a mal interprété un coup.
ChatGPT a pris le monde d'assaut depuis son lancement
Avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes, y compris dans les écoles, où les enseignants craignent que la plateforme d'OpenAI ne soit utilisée par les élèves pour faire du plagiat.
À Lyon, un professeur a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants ; il leur avait donné une semaine pour rédiger leurs devoirs. Si les mots différaient, leurs structures démonstratives et leurs exemples sont restés constamment les mêmes. C’est en se renseignant auprès de ses élèves que l’un d’eux a fini par avouer l’utilisation de ChatGPT dans la rédaction.
À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
Dans une affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice.
Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »
L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »
ChatGPT n'a « pas pour but de remplacer » les juges, a précisé le juge. Padilla a insisté sur le fait qu' « en posant des questions à l'application, nous ne cessons pas d'être des juges, des êtres pensants. » « Je soupçonne que beaucoup de mes collègues vont se joindre à cela et commencer à construire leurs décisions de manière éthique avec l'aide de l'intelligence artificielle », a déclaré Padilla.
ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 dollars. Google a envoyé des questions d'entretien de codage à ChatGPT et, sur la base des réponses de l'IA, a déterminé qu'il serait embauché pour un poste d'ingénieur de niveau trois, selon un document interne. L'expérience a été réalisée dans le cadre des récents tests de Google sur plusieurs chatbots IA, qu'il envisage d'ajouter à son moteur de recherche.
La capacité de ChatGPT à proposer une réponse concise et fidèle à une question pourrait faire gagner aux utilisateurs le temps qu'ils passent généralement à parcourir les liens sur Google pour trouver la même information.
Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition et le journalisme. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980.
Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes "originaux". Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.
Mais alors que les chercheurs plongent dans le nouveau monde courageux des chatbots d'IA avancés, Springer Nature a déclaré cette semaine que les éditeurs doivent reconnaître leurs utilisations légitimes et établir des directives claires pour éviter les abus. L'entreprise a annoncé que des logiciels tels que ChatGPT ne pouvaient pas être crédités en tant qu'auteurs dans les articles publiés dans ses milliers de revues.
Toutefois, Springer affirme qu'elle n'a aucun problème à ce que les scientifiques utilisent l'IA pour les aider à rédiger ou à générer des idées pour la recherche. Cela dit, cette contribution doit être correctement divulguée par les auteurs.
ChatGPT, un risque pour l’avenir
Tout progrès technologique comporte son lot d'avantages et d'inconvénients. ChatGPT est un pas en avant passionnant dans un secteur qui pourrait révolutionner le monde entier, mais cela ne change rien aux risques très réels qu'il peut poser. ChatGPT, a récemment commencé à être utilisé pour des attaques de phishing. Les acteurs malveillants utilisent le chatbot pour rédiger des e-mails convaincants qui peuvent convaincre les utilisateurs de cliquer sur des liens dangereux.
Les experts en cybersécurité de Check Point Research ont récemment cherché à démontrer à quel point ChatGPT peut être dangereux s'il est utilisé à des fins malveillantes. Pour ce faire, ils ont créé, via ChatGPT, un fichier Excel dans lequel a été injecté un code malveillant.
Tout ce qu'ils avaient à faire était de demander au chatbot d'écrire un code qui exécuterait un téléchargement malveillant à partir d'une URL une fois le texte saisi dans un fichier Excel. Le code créé par le chatbot était d'une efficacité redoutable et souligne à quel point il peut être dangereux.
Les chercheurs ont ensuite utilisé le chatbot pour rédiger un e-mail de phishing. Ils ont donné des instructions précises sur la marque que le chatbot devait imiter, et ils ont ensuite reçu exactement ce qu'ils avaient demandé. Bien qu'ils aient également reçu un message indiquant que leur compte avait été verrouillé en raison d'une activité suspecte, il leur a été assez facile de le contourner, de sorte que ces messages sont peut-être moins : Ville Kuosmanen's blog postutiles.
Source : Ville Kuosmanen's blog post
Et vous ?
Quel est votre avis sur le sujet ?
L'expérience partagée par Ville Kuosmanen est-elle pertinente ?
Pensez-vous comme Ville Kuosmanen que ChatGPT-4 va changer le monde ?
Voir aussi :
ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $, tout en indiquant qu'il ne peut pas reproduire la créativité humaine
Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »
Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »
OpenAI lance ChatGPT Plus, un plan d'abonnement ChatGPT pour 20 $ par mois, qui est proposé à ceux qui veulent des réponses plus rapides ainsi qu'un accès prioritaire aux nouvelles fonctionnalités